JP2001275058A - Method and device for generating explanatory sentence of video content, method and device for programming digest video, and computer-readable recording medium with program for making computer implement the same methods recorded thereon - Google Patents

Method and device for generating explanatory sentence of video content, method and device for programming digest video, and computer-readable recording medium with program for making computer implement the same methods recorded thereon

Info

Publication number
JP2001275058A
JP2001275058A JP2000135198A JP2000135198A JP2001275058A JP 2001275058 A JP2001275058 A JP 2001275058A JP 2000135198 A JP2000135198 A JP 2000135198A JP 2000135198 A JP2000135198 A JP 2000135198A JP 2001275058 A JP2001275058 A JP 2001275058A
Authority
JP
Japan
Prior art keywords
video
description
scene
program
effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000135198A
Other languages
Japanese (ja)
Other versions
JP3592194B2 (en
Inventor
Yukari Yoshiura
由香利 吉浦
Takako Hashimoto
隆子 橋本
Atsushi Iizawa
篤志 飯沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Jisedai Joho Hoso System Kenkyusho KK
Original Assignee
Ricoh Co Ltd
Jisedai Joho Hoso System Kenkyusho KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd, Jisedai Joho Hoso System Kenkyusho KK filed Critical Ricoh Co Ltd
Priority to JP2000135198A priority Critical patent/JP3592194B2/en
Publication of JP2001275058A publication Critical patent/JP2001275058A/en
Application granted granted Critical
Publication of JP3592194B2 publication Critical patent/JP3592194B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate explanatory sentences having a smooth sentence flow giving no sense of incongruity to a viewer (user) by making clear the connections and relations between explanatory sentences generated from respective video scenes. SOLUTION: A video content explanatory sentence generating device 100 is equipped with an explanatory sentence generation part 101 which receives pieces of character information consisting of fragmentary character strings explaining the contents of respective retrieved video scenes and generates explanatory sentences explaining the video contents of the video scenes by using the character information, a video content decision part 102 which decides the contents of the individual video scenes according to the inputted character information, and a connection expression selection part 103 which selects connection expression out of a sequential connection, reverse connection, parallelism, addition, and selection according to the relation between successive video scenes according to the decision result of the video content decision part 102; and the explanatory sentence generation part 101 connects and outputs explanatory sentences of corresponding successive video scenes by using the connection expression selected by the connection expression selection part 103.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、放送のデジタル化
に伴い、映像(映像情報)の補足情報をインデックスと
して付加し、そのインデックスを用いて映像のダイジェ
スト版を作成する場合に、切り出した各映像シーンの映
像内容を説明する説明文を生成する映像内容の説明文生
成方法、映像内容説明文生成装置および記録媒体、なら
びに、生成した映像内容の説明文を用いてダイジェスト
映像の番組を作成するダイジェスト映像の番組化方法、
ダイジェスト映像の番組化装置および記録媒体に関す
る。
BACKGROUND OF THE INVENTION The present invention relates to a technique for adding supplementary information of a video (video information) as an index with the digitization of broadcasting and creating a digest version of the video using the index. Video content description generation method, video content description generation device and recording medium for generating video description of video content of video scene, and creation of digest video program using generated video content description How to make digest video into a program,
The present invention relates to a digest video programmer and a recording medium.

【0002】[0002]

【従来の技術】近年、放送のデジタル化が世界的規模で
急速に進展しており、BS(Broadcast Sa
tellite)デジタル放送や地上波デジタル放送の
準備が着々と進んでいる。これによりテレビの視聴形態
も急激に変化し、従来のリアルタイム視聴だけでなく、
蓄積型視聴およびノンリニア視聴形態も可能となる。
2. Description of the Related Art In recent years, digitalization of broadcasting has been rapidly progressing on a worldwide scale, and BS (Broadcast Sa) has been developed.
Preparations for digital broadcasting and digital terrestrial broadcasting are steadily progressing. This has dramatically changed the way television is viewed,
Storage-type viewing and non-linear viewing are also possible.

【0003】ここで、本出願人らが、これまで提案して
きたノンリニア視聴形態におけるダイジェスト作成シス
テムについて説明する。本出願人は、まず、補足情報が
インデックスとして付加された映像を対象として、その
インデックスを用いて重要場面と想定される映像シーン
を検索し、映像のダイジェスト版(ダイジェスト映像)
を作成するダイジェスト作成システムを考案し、このダ
イジェスト作成システムにおいて、重要場面と判定され
た映像シーンには音声解説も含まれているため、断面的
なインデックスの概要を説明文として生成するだけで十
分であるという考えで映像内容の説明文生成処理を考え
てきた。また、インデックスを用いてダイジェスト映像
を作成する際に、映像を利用する視聴者(利用者)の嗜
好を反映したダイジェスト映像を作成するダイジェスト
作成装置の提案も行っている。
Here, a description will be given of a digest creation system in a non-linear viewing mode which has been proposed by the present applicants. The present applicant first searches for a video scene assumed to be an important scene using the index for a video to which supplementary information is added as an index, and retrieves a digest version of the video (digest video).
We devised a digest creation system that creates a video, and in this digest creation system, it is enough to generate an outline of the cross-sectional index as an explanatory sentence because the video scenes determined to be important scenes also include audio commentary The idea of generating a description of the video content has been considered. In addition, when creating a digest video using an index, a digest creation device that creates a digest video that reflects the preferences of a viewer (user) who uses the video is also proposed.

【0004】なお、上記の技術の詳細は、以下の〜
によって明らかにされている。 橋本隆子、他:「番組インデックスを利用したダイ
ジェスト視聴方式の検討」、映像情報メディア学会放送
方式研究会予稿集、1999年3月、pp.7−12。 橋本隆子、他:「番組インデックスを利用したダイ
ジェスト作成方式の試作」、データ工学ワークショップ
(DEWS’99)予稿集CD−ROM、1999年3
月。 橋本隆子、他:「TV受信端末におけるダイジェス
ト作成方式の試作」、ADBS99予稿集、1999年
12月。
[0004] Details of the above technology are described below.
Has been revealed. Takako Hashimoto, et al .: "Study of Digest Viewing Method Using Program Index", Proceedings of the Society of Image Information and Television Engineers, March 1999, pp. 7-12. Takako Hashimoto et al .: "Prototype of Digest Creation Method Using Program Index", Data Engineering Workshop (DEWS'99) Proceedings CD-ROM, March 1999
Month. Takako Hashimoto et al .: "Trial Production of Digest Creation Method for TV Receiving Terminal", ADBS99 Proceedings, December 1999.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記の
ような映像内容の説明文生成処理には以下の問題点があ
った。第1に、検索結果である各映像シーンに対して、
それぞれの断片的なインデックスを用いて、独立に説明
文を生成するため、前後のつながりや、関連性が不明瞭
な説明文となり、視聴者(利用者)にとって違和感のな
いスムーズな文章の流れの説明文を生成することはでき
なかった。第2に、検索結果である各映像シーンの断片
的なインデックスのみを用いて説明文を生成するため、
検索結果である各映像シーンが、前後の映像シーンの中
でどのような意味を持つのかを明確するための概要説明
的な文章としての前書き文や後書き文を生成することは
できなかった。第3に、ダイジェスト作成装置において
映像を利用する視聴者(利用者)の嗜好を反映したダイ
ジェスト映像を作成することは可能であるが、上記映像
内容の説明文生成処理ではダイジェスト映像(映像シー
ン)に付与されている断片的なインデックスのみから説
明文を生成しており、視聴者(利用者)の嗜好を反映し
た説明文を生成することはできなかった。
However, the above-described process of generating a description of a video content has the following problems. First, for each video scene that is the search result,
Because each fragmentary index is used to generate the description independently, the description is unclear in the connection before and after and the relevance, and the flow of the sentence is smooth for the viewer (user) without discomfort. No description could be generated. Second, since the description is generated using only the fragmentary index of each video scene that is the search result,
It was not possible to generate a preamble sentence or a postscript sentence as a brief explanatory sentence for clarifying the meaning of each video scene as a search result in the preceding and following video scenes. Third, although it is possible to create a digest video reflecting the preference of a viewer (user) who uses the video in the digest creation device, the digest video (video scene) is generated in the process of generating a description of the video content. The description is generated only from the fragmentary index given to the user, and it is not possible to generate the description reflecting the taste of the viewer (user).

【0006】さらに、従来の技術によれば、ダイジェス
ト作成装置を用いて作成したダイジェスト映像をそのま
ま再生することで簡単な番組として利用することは可能
であるが、ダイジェスト映像から自動的に番組を作成し
たり、視聴者(利用者)の嗜好を反映させた演出を施し
て番組を作成したりすることはできなかった。
Further, according to the prior art, it is possible to use a digest video created using a digest creation device as a simple program by reproducing the digest video as it is, but a program is automatically created from the digest video. It was not possible to create a program by performing an effect reflecting the tastes of the viewers (users).

【0007】本発明は上記に鑑みてなされたものであっ
て、各映像シーンから生成した説明文の前後のつながり
や、関連性を明瞭にして、視聴者(利用者)にとって違
和感のないスムーズな文章の流れの説明文を生成するこ
とを第1の目的とする。
[0007] The present invention has been made in view of the above, and clarifies the connection and relevance of the description sentence from each video scene before and after, so that the viewer (user) has a smooth and comfortable feeling. A first object is to generate an explanatory sentence of a sentence flow.

【0008】また、本発明は上記に鑑みてなされたもの
であって、検索結果である各映像シーンが、前後の映像
シーンの中でどのような意味を持つのかを明確するため
の概要説明的な文章として、前書き文や後書き文の生成
を可能とすることを第2の目的とする。
Further, the present invention has been made in view of the above, and is an outline explanation for clarifying the meaning of each video scene as a search result in the preceding and following video scenes. A second object is to make it possible to generate a preamble sentence or a postscript sentence as a simple sentence.

【0009】また、本発明は上記に鑑みてなされたもの
であって、視聴者(利用者)の嗜好を反映した説明文の
生成を可能とすることを第3の目的とする。
Further, the present invention has been made in view of the above, and it is a third object of the present invention to be able to generate an explanatory sentence reflecting the taste of a viewer (user).

【0010】また、本発明は上記に鑑みてなされたもの
であって、ダイジェスト映像から自動的に番組を作成す
ると共に、視聴者(利用者)の嗜好を反映させた演出を
施した番組を作成するダイジェスト映像の番組化方法ま
たはダイジェスト映像の番組化装置を提供することを第
4の目的とする。
Further, the present invention has been made in view of the above, and has been made to automatically create a program from a digest video and to create a program in which an effect reflecting the taste of a viewer (user) has been performed. It is a fourth object of the present invention to provide a digest video programming method or a digest video programming apparatus.

【0011】[0011]

【課題を解決するための手段】上記の目的を達成するた
めに、請求項1に係る映像内容の説明文生成方法は、1
つの映像ストリームの中からダイジェスト映像用のシー
ンとして検索した各映像シーンに対して、その内容を説
明する断片的な文字列または文字列に変換可能な情報か
らなる複数の文字情報が付加されている場合に、前記文
字情報を用いて各映像シーンの映像内容を説明する説明
文を生成する映像内容の説明文生成方法において、前記
文字情報から各映像シーンの内容を判定し、前後の映像
シーンの関係により、順接、逆接、並列、添加、選択等
の中から接続表現を選択し、選択した接続表現を用い
て、該当する前後の映像シーンの説明文を接続した映像
内容の説明文を生成するものである。
According to a first aspect of the present invention, there is provided a method for generating a description of a video content.
Each video scene retrieved as a digest video scene from one video stream is provided with a plurality of pieces of character information including a fragmentary character string or information that can be converted into a character string that describes the content. In the case, in the video content description generating method for generating a video description of each video scene using the text information, the content of each video scene is determined from the text information, Depending on the relationship, select a connection expression from among tangent, reverse connection, parallel, addition, selection, etc., and use the selected connection expression to generate a description of the video content connecting the description of the previous and next video scene Is what you do.

【0012】また、請求項2に係る映像内容の説明文生
成方法は、階層構造を用いて構造化された映像ストリー
ムの中からダイジェスト映像用のシーンとして検索した
各映像シーンに対して、その内容を説明する断片的な文
字列または文字列に変換可能な情報からなる複数の文字
情報が付加されている場合に、前記文字情報を用いて各
映像シーンの映像内容を説明する説明文を生成する映像
内容の説明文生成方法において、前記文字情報から各映
像シーンの内容を判定し、前後の映像シーンの関係によ
り、順接、逆接、並列、添加、選択等の中から接続表現
を選択し、選択した接続表現を用いて、該当する前後の
映像シーンの説明文を接続した映像内容の説明文を生成
するものである。
According to a second aspect of the present invention, there is provided a method for generating a description of a video content, wherein the content of each video scene retrieved as a digest video scene from a video stream structured using a hierarchical structure is described. When a plurality of pieces of character information including a fragmentary character string or information that can be converted to a character string are added, a description sentence that describes the video content of each video scene is generated using the character information. In the method of generating a description of the video content, determine the content of each video scene from the character information, according to the relationship between the previous and next video scene, sequential, reverse connection, parallel, addition, select a connection expression from among the selection, Using the selected connection expression, a description of the video content is generated by connecting the description of the relevant video scene before and after.

【0013】また、請求項3に係る映像内容の説明文生
成方法は、請求項2に記載の映像内容の説明文生成方法
において、ある階層の映像シーンについての説明文を生
成する際に、前記階層構造を利用して、当該階層の映像
シーンの映像内容を示す説明文と共に、当該階層の映像
シーンの上位の階層の映像シーンの文字情報から説明文
の前書きとなる前書き文を生成するものである。
According to a third aspect of the present invention, in the method of generating a description of a video content according to the second aspect, when generating the description of a video scene of a certain hierarchy, By using a hierarchical structure, a preamble sentence, which is a preamble of the explanatory note, is generated from the character information of the video scene of the upper layer of the video scene of the relevant layer together with the descriptive text indicating the video content of the video scene of the relevant layer. is there.

【0014】また、請求項4に係る映像内容の説明文生
成方法は、請求項2または3に記載の映像内容の説明文
生成方法において、ある階層の映像シーンについての説
明文を生成する際に、前記階層構造を利用して、当該階
層の映像シーンの映像内容を示す説明文と共に、当該階
層の映像シーンの上位の階層の映像シーンの文字情報か
ら説明文の後書きとなる後書き文を生成するものであ
る。
According to a fourth aspect of the present invention, in the method for generating a description of a video content according to the second or third aspect, when generating a description for a video scene of a certain hierarchy, By using the hierarchical structure, a postscript that is a postscript of the explanatory note is generated from the character information of the video scene of the upper layer of the video scene of the layer, together with the descriptive text indicating the video content of the video scene of the layer. Things.

【0015】また、請求項5に係る映像内容の説明文生
成方法は、請求項1〜4のいずれか一つに記載の映像内
容の説明文生成方法において、さらに、映像シーンの説
明文を生成する際に、予め設定されている利用者の嗜好
情報を用いて、前記説明文の文章表現を利用者の嗜好に
応じて変化させるものである。
According to a fifth aspect of the present invention, there is provided the video content description generating method according to any one of the first to fourth aspects, further comprising the step of generating a video scene description. In doing so, the sentence expression of the explanatory note is changed according to the preference of the user, using preset user preference information.

【0016】また、請求項6に係る映像内容の説明文生
成方法は、1つの映像ストリームの中からダイジェスト
映像用のシーンとして検索した各映像シーンに対して、
その内容を説明する断片的な文字列または文字列に変換
可能な情報からなる複数の文字情報が付加されている場
合に、前記文字情報を用いて各映像シーンの映像内容を
説明する説明文を生成する映像内容の説明文生成方法に
おいて、各映像シーンの説明文を生成する際に、設定手
段を介して設定された利用者の嗜好情報を用いて、前記
説明文の文章表現を利用者の嗜好に応じて変化させるも
のである。
According to a sixth aspect of the present invention, there is provided a method for generating a description of a video content, wherein each video scene retrieved from one video stream as a scene for a digest video is
When a plurality of pieces of character information including a fragmentary character string or information that can be converted into a character string that describes the content is added, a description that explains the video content of each video scene using the character information is added. In the method for generating a description of a video content to be generated, when generating a description of each video scene, the sentence expression of the description is used by the user's preference information set via the setting means. It is changed according to taste.

【0017】また、請求項7に係る映像内容の説明文生
成方法は、請求項5または6に記載の映像内容の説明文
生成方法において、予め映像シーン毎に、その映像内容
に対する利用者の感情的な変化の度合いを計算するため
の複数のパラメータを感情度パラメータとして定義して
おき、前記説明文の文章表現を利用者の嗜好に応じて変
化させる際に、前記各映像シーンに対応する感情度パラ
メータおよび嗜好情報を用いて、各映像シーンに対する
利用者の感情的な反応の度合い値を計算し、前記度合い
値に基づいてその映像シーンの映像内容を説明する説明
文に、感情表現を示す感情表現文を付加するものであ
る。
According to a seventh aspect of the present invention, in the method of generating a description of a video content according to the fifth or sixth aspect, the emotion of the user with respect to the video content is previously determined for each video scene. A plurality of parameters for calculating the degree of dynamic change are defined as emotion degree parameters, and when the sentence expression of the explanation is changed according to the user's preference, the emotion corresponding to each video scene is changed. Using the degree parameter and the preference information, the degree value of the emotional reaction of the user to each video scene is calculated, and the emotional expression is shown in the description explaining the video content of the video scene based on the degree value. An emotion expression is added.

【0018】また、請求項8に係る映像内容の説明文生
成方法は、請求項7に記載の映像内容の説明文生成方法
において、前記感情度パラメータの複数のパラメータ
は、前記映像シーンに付加され文字情報の内容と前記嗜
好情報の内容との組み合わせによって前記度合いが数値
化され、該数値化された度合いを用いて前記度合い値を
計算するものである。
According to a eighth aspect of the present invention, in the method of generating a description of a video content according to the seventh aspect, the plurality of emotion degree parameters are added to the video scene. The degree is quantified by a combination of the contents of the character information and the contents of the preference information, and the degree value is calculated using the quantified degree.

【0019】また、請求項9に係る映像内容説明文生成
装置は、1つの映像ストリームの中からダイジェスト映
像用のシーンとして検索した各映像シーンに対して、そ
の内容を説明する断片的な文字列または文字列に変換可
能な情報からなる複数の文字情報が付加されている場合
に、前記文字情報を用いて映像シーンの映像内容を説明
する説明文を生成する説明文生成手段を有する映像内容
説明文生成装置において、前記文字情報から各映像シー
ンの内容を判定する映像内容判定手段と、前記映像内容
判定手段の判定結果に基づいて、前後の映像シーンの関
係により、順接、逆接、並列、添加、選択の中から接続
表現を選択する接続表現選択手段と、を備え、前記説明
文生成手段が、前記接続表現選択手段で選択した接続表
現を用いて、該当する前後の映像シーンの説明文を接続
するものである。
According to a ninth aspect of the present invention, there is provided a video content description generating apparatus, wherein a fragmentary character string describing the content of each video scene retrieved as a digest video scene from one video stream is provided. Alternatively, when a plurality of pieces of character information composed of information that can be converted into a character string are added, a description generator that generates a description describing the video content of the video scene using the character information. In the sentence generation device, a video content determining unit that determines the content of each video scene from the character information, and based on the determination result of the video content determining unit, a sequential connection, a reverse connection, parallel, Connection expression selecting means for selecting a connection expression from addition and selection, wherein the explanatory sentence generation means uses the connection expression selected by the connection expression selection means to select a connection expression. That it is intended to connect the description of the front and rear of the video scene.

【0020】また、請求項10に係る映像内容説明文生
成装置は、階層構造を用いて構造化された映像ストリー
ムの中からダイジェスト映像用のシーンとして検索した
各映像シーンに対して、その内容を説明する断片的な文
字列または文字列に変換可能な情報からなる複数の文字
情報が付加されている場合に、前記文字情報を用いて映
像シーンの映像内容を説明する説明文を生成する説明文
生成手段を有する映像内容説明文生成装置において、前
記文字情報から各映像シーンの内容を判定する映像内容
判定手段と、前記映像内容判定手段の判定結果に基づい
て、前後の映像シーンの関係により、順接、逆接、並
列、添加、選択の中から接続表現を選択する接続表現選
択手段と、を備え、前記説明文生成手段が、前記接続表
現選択手段で選択した接続表現を用いて、該当する前後
の映像シーンの説明文を接続するものである。
A video content description generating apparatus according to a tenth aspect is directed to a video content structured using a hierarchical structure, for each video scene retrieved as a digest video scene from a video stream. When a plurality of pieces of character information including a fragmentary character string to be described or information that can be converted to a character string is added, a description to generate a description describing a video content of a video scene using the character information. In the video content description generation device having a generation unit, a video content determination unit that determines the content of each video scene from the character information, based on the determination result of the video content determination unit, by the relationship between the previous and next video scene, Connection expression selecting means for selecting a connection expression from among sequential connection, reverse connection, parallel, addition, and selection, wherein the explanatory sentence generation means selects the connection expression with the connection expression selection means. Using the connection representations, appropriate it connects the descriptions before and after the video scene.

【0021】また、請求項11に係る映像内容説明文生
成装置は、請求項10に記載の映像内容説明文生成装置
において、さらに、前記説明文生成手段は、ある階層の
映像シーンについての説明文を生成する際に、前記階層
構造を利用して、当該階層の映像シーンの映像内容を示
す説明文と共に、当該階層の映像シーンの上位の階層の
映像シーンの文字情報から説明文の前書きとなる前書き
文を生成するものである。
[0021] In the video content description generating apparatus according to claim 11, the video content description generating apparatus according to claim 10 further comprises: Is generated, using the hierarchical structure described above, together with the descriptive text indicating the video content of the video scene of the hierarchical level, and the character information of the video scene of the hierarchical level higher than the video scene of the hierarchical level becomes a preamble to the description. This is to generate a foreword sentence.

【0022】また、請求項12に係る映像内容説明文生
成装置は、請求項10または11に記載の映像内容説明
文生成装置において、さらに、前記説明文生成手段は、
ある階層の映像シーンについての説明文を生成する際
に、前記階層構造を利用して、当該階層の映像シーンの
映像内容を示す説明文と共に、当該階層の映像シーンの
上位の階層の映像シーンの文字情報から説明文の後書き
となる後書き文を生成するものである。
A video content description generating apparatus according to claim 12 is the video content description generating apparatus according to claim 10 or 11, further comprising:
When generating a description of a video scene of a certain hierarchy, the description of the video content of the video scene of the hierarchy is used together with a description of the video content of the video scene of the hierarchy using the hierarchical structure. A postscript sentence to be a postscript of the explanatory note is generated from the character information.

【0023】また、請求項13に係る映像内容説明文生
成装置は、1つの映像ストリームの中からダイジェスト
映像用のシーンとして検索した各映像シーンに対して、
その内容を説明する断片的な文字列または文字列に変換
可能な情報からなる複数の文字情報が付加されている場
合に、前記文字情報を用いて映像シーンの映像内容を説
明する説明文を生成する説明文生成手段を有する映像内
容説明文生成装置において、予め映像シーン毎に、その
映像内容に対する利用者の感情的な変化の度合いを計算
するための複数のパラメータを感情度パラメータとして
定義して記憶した記憶手段と、利用者の嗜好情報を設定
するための設定手段と、前記各映像シーンに対応する感
情度パラメータおよび嗜好情報を用いて、各映像シーン
に対する利用者の感情的な反応の度合い値を計算する計
算手段と、を備え、前記説明文生成手段は、前記文字情
報を用いて映像シーンの映像内容を説明する説明文を生
成する際に、前記度合い値に基づいて感情表現を示す感
情表現文を付加するものである。
Further, according to a thirteenth aspect of the present invention, there is provided a video content description generating apparatus for each video scene retrieved as a digest video scene from one video stream.
When a plurality of pieces of character information including a fragmentary character string or information that can be converted to a character string that describes the content is added, a description sentence that describes the video content of the video scene is generated using the character information. In the video content description generating apparatus having a description generating means, a plurality of parameters for calculating a degree of a user's emotional change with respect to the video content are previously defined for each video scene as an emotion degree parameter. Using the stored storage means, setting means for setting user preference information, and the emotion degree parameter and preference information corresponding to each of the video scenes, the degree of the user's emotional reaction to each video scene Calculating means for calculating a value, wherein the description generating means generates a description explaining the video content of the video scene using the character information, Based on the fit value is for adding the emotion statements indicating emotional expressions.

【0024】また、請求項14に係る映像内容説明文生
成装置は、請求項13に記載の映像内容説明文生成装置
において、前記感情度パラメータの複数のパラメータ
が、前記映像シーンに付加され文字情報の内容と前記嗜
好情報の内容との組み合わせによって前記度合いが数値
化され、前記計算手段が、前記数値化された度合いを用
いて前記度合い値を計算するものである。
According to a fourteenth aspect of the present invention, in the video content description generating apparatus according to the thirteenth aspect, a plurality of parameters of the emotion degree parameter are added to the video scene, and The degree is digitized by a combination of the content of the preference information and the content of the preference information, and the calculating means calculates the degree value using the digitized degree.

【0025】また、請求項15に係る記録媒体は、前記
請求項1〜8のいずれか一つに記載の映像内容の説明文
生成方法をコンピュータに実行させるためのプログラム
を記録したものである。
According to a fifteenth aspect of the present invention, there is provided a recording medium on which a program for causing a computer to execute the method for generating a description of a video content according to any one of the first to eighth aspects is recorded.

【0026】また、請求項16に係るダイジェスト映像
の番組化方法は、1つの映像ストリームの中からダイジ
ェスト映像用のシーンとして検索された各映像シーン
と、前記各映像シーンに対して作成された映像内容の説
明文を入力し、前記各映像シーンの再生に加えて、予め
設定された仮想キャラクタを介して前記映像内容の説明
文を音声または文字で提供することで、ダイジェスト映
像の番組を作成するダイジェスト映像の番組化方法であ
って、前記映像シーンおよび映像内容の説明文と共に、
各映像シーンの映像内容に対する前記仮想キャラクタの
感情的な反応の度合い値を入力し、各映像シーン毎に前
記度合い値に基づいて前記仮想キャラクタの感情表現の
演出を行うものである。
A digest video program conversion method according to claim 16, wherein each video scene retrieved from one video stream as a digest video scene, and a video created for each of the video scenes A digest video program is created by inputting a description of the content and providing the description of the video content in voice or text via a preset virtual character in addition to the reproduction of each video scene. A method for converting a digest video into a program, comprising a description of the video scene and the video content,
A degree value of the emotional reaction of the virtual character to the video content of each video scene is input, and an effect of expressing the emotion of the virtual character is produced based on the degree value for each video scene.

【0027】また、請求項17に係るダイジェスト映像
の番組化方法は、ダイジェスト映像用の映像シーンと共
に、前記請求項7に記載の映像内容の説明文生成方法を
用いて生成された各映像シーンの前記説明文、前書き
文、後書き文および度合い値を入力し、ダイジェスト映
像の番組を作成するダイジェスト映像の番組化方法であ
って、前記各映像シーンの再生に加えて、予め設定され
た仮想キャラクタを介して前記説明文、前書き文および
後書き文を音声で提供すると共に、各映像シーン毎に前
記度合い値に基づいて前記仮想キャラクタの感情表現の
演出を行うものである。
[0027] According to a seventeenth aspect of the present invention, there is provided a digest video program conversion method, wherein a digest video image scene and a video content description sentence generating method according to the seventh aspect are used together with the digest video image scene. A digest video programming method for creating a digest video program by inputting the explanatory text, the preamble text, the postscript text, and the degree value, wherein, in addition to the reproduction of each video scene, a preset virtual character In addition to providing the description, the preamble, and the postscript via audio, the effect of expressing the emotion of the virtual character is produced based on the degree value for each video scene.

【0028】また、請求項18に係るダイジェスト映像
の番組化装置は、1つの映像ストリームの中からダイジ
ェスト映像用のシーンとして検索された各映像シーン
と、予め作成された各映像シーンの説明文、前書き文、
後書き文およびその映像内容に対する利用者の感情的な
変化の度合いをを示す度合い値を入力し、ダイジェスト
映像の番組を作成するダイジェスト映像の番組化装置で
あって、番組化の処理単位として、1つの映像シーン毎
に前記説明文、前書き文、後書き文および度合い値を対
応させて映像ファイルを生成する映像ファイル生成手段
と、少なくとも仮想キャラクタを含む番組の各種構成情
報を番組定義ファイルとして記憶した番組定義ファイル
データベースと、感情表現の程度を複数設定し、前記感
情表現の程度毎に、それぞれ1つの演出方法を定義した
演出テンプレートを記憶した演出定義データベースと、
前記映像ファイルを入力し、1つの映像ファイル毎に度
合い値に基づいて感情表現の程度を決定し、前記演出定
義データベースから前記感情表現の程度に応じた感情表
現の演出テンプレートを選択する選択手段と、前記番組
定義ファイル、映像ファイルおよび演出テンプレートを
入力し、1つの映像ファイル毎に前記選択した演出テン
プレートに基づいて、少なくとも前記映像シーンの再生
タイミングと、前記仮想キャラクタの音声として出力す
る説明文、前書き文、後書き文の設定および音声の出力
タイミングと、前記仮想キャラクタの動作とを設定する
ことにより、映像ファイル単位の番組演出処理を行う演
出処理手段と、を備えたものである。
Also, a digest video programmer according to claim 18 is provided in which each video scene retrieved from one video stream as a digest video scene, a pre-created description of each video scene, Foreword,
A digest video programmer that inputs a postscript sentence and a degree value indicating a degree of emotional change of a user with respect to the video content, and creates a digest video program. A video file generating means for generating a video file by associating the description, the preamble, the postscript and the degree value for each video scene, and a program storing at least various configuration information of a program including at least a virtual character as a program definition file A definition file database, an effect definition database in which a plurality of emotion expression levels are set, and an effect template storing one effect method for each of the emotion expression levels is stored;
Selecting means for inputting the video file, determining a degree of emotional expression based on a degree value for each video file, and selecting an effect expression effect template according to the degree of emotional expression from the effect definition database; A program description file, a video file, and a rendering template, and a description sentence based on the selected rendering template for each video file, at least as a reproduction timing of the video scene and a sound of the virtual character, It is provided with effect processing means for performing a program effect process for each video file by setting a preamble sentence, a postscript sentence, the output timing of audio, and the motion of the virtual character.

【0029】また、請求項19に係るダイジェスト映像
の番組化装置は、請求項18に記載のダイジェスト映像
の番組化装置において、前記番組定義ファイルの番組の
各種構成情報が、少なくとも1つの仮想キャラクタと、
番組のスタジオセット、カメラの台数や位置、CG照
明、CG小道具、サウンド、番組タイトル、スーパーの
設定等の情報から成るものである。
According to a nineteenth aspect of the present invention, there is provided the digest video programming apparatus according to the eighteenth aspect, wherein the various types of configuration information of the program in the program definition file include at least one virtual character. ,
It consists of information such as the studio set of the program, the number and position of cameras, CG lighting, CG props, sound, program title, supermarket settings, and the like.

【0030】また、請求項20に係るダイジェスト映像
の番組化装置は、請求項18〜19のいずれか一つに記
載のダイジェスト映像の番組化装置において、前記度合
い値が、喜怒哀楽等の感情の種類を示すための感情種類
情報を有し、前記演出定義データベースには、感情種類
情報および感情表現の程度をキーインデックスとして分
類された複数の演出テンプレートが記憶されており、前
記選択手段は、前記演出テンプレートを選択する際に、
前記度合い値に基づいて、キーインデックスとして使用
する感情種類情報および感情表現の程度を決定し、前記
演出定義データベースから該当する全ての演出テンプレ
ートを選択するものである。
According to a twentieth aspect of the present invention, there is provided the digest video programming apparatus according to any one of the eighteenth to nineteenth aspects, wherein the degree value is an emotion such as emotion, emotion, and so on. A plurality of effect templates classified as emotion index information and the degree of emotional expression as a key index are stored in the effect definition database, and the selecting means includes: When selecting the effect template,
Based on the degree value, the degree of emotion type information and emotion expression used as a key index is determined, and all the effect templates are selected from the effect definition database.

【0031】また、請求項21に係るダイジェスト映像
の番組化装置は、請求項20に記載のダイジェスト映像
の番組化装置において、さらに、前記度合い値は、複数
の度合い値で構成することが可能であり、前記演出定義
データベースには、複数の感情種類情報および前記複数
の感情種類情報の感情表現の程度をキーインデックスと
して分類された複数の演出テンプレートが記憶されてお
り、前記選択手段は、前記演出テンプレートを選択する
際に、前記複数の度合い値に基づいて、キーインデック
スとして使用する複数の感情種類情報および複数の感情
種類情報の感情表現の程度を決定し、前記演出定義デー
タベースから該当する全ての演出テンプレートを選択す
るものである。
The digest video programming apparatus according to claim 21 is the digest video programming apparatus according to claim 20, wherein the degree value can be constituted by a plurality of degree values. The effect definition database stores a plurality of effect templates in which a plurality of emotion type information and a degree of emotional expression of the plurality of emotion type information are classified as a key index, and the selecting means includes: When selecting a template, a plurality of emotion type information to be used as a key index and a degree of emotion expression of the plurality of emotion type information are determined based on the plurality of degree values, and all corresponding expression definitions from the effect definition database are determined. This is for selecting an effect template.

【0032】また、請求項22に係るダイジェスト映像
の番組化装置は、請求項18〜21のいずれか一つに記
載のダイジェスト映像の番組化装置において、さらに、
複数の番組定義ファイルの中から所望の番組定義ファイ
ルを指定するための指定手段を備え、前記番組定義ファ
イルデータベースには、複数の番組定義ファイルが記憶
されており、前記演出処理手段は、前記映像ファイル単
位の番組演出処理を行う場合に、前記指定手段を介して
指定された番組定義ファイルを入力して、該当する各種
構成情報に基づいて、前記映像ファイル単位の番組演出
処理を行うものである。
The digest video programming apparatus according to claim 22 is the digest video programming apparatus according to any one of claims 18 to 21, further comprising:
The program definition file includes a designation unit for designating a desired program definition file from a plurality of program definition files. The program definition file database stores a plurality of program definition files. When performing the program effect processing in file units, the program effect processing in the video file unit is performed based on various kinds of configuration information by inputting the program definition file specified through the specifying means. .

【0033】また、請求項23に係るダイジェスト映像
の番組化装置は、請求項22に記載のダイジェスト映像
の番組化装置において、前記演出テンプレートには、定
義されている演出方法を適用可能な番組環境情報が設定
されており、前記演出処理手段は、前記選択手段で選択
された演出テンプレートが複数存在する場合、各演出テ
ンプレートの番組環境情報を参照して前記指定手段を介
して指定された番組定義ファイルで提供される番組環境
において実行可能な演出テンプレートの1つを選択し、
前記映像ファイル単位の番組演出処理を行うものであ
る。
A digest video programming apparatus according to claim 23 is the digest video programming apparatus according to claim 22, wherein the rendering template is applicable to a defined rendering method. Information is set, and when there are a plurality of effect templates selected by the selecting means, the effect processing means refers to the program environment information of each effect template and specifies the program definition specified via the specifying means. Select one of the production templates executable in the program environment provided by the file,
The program effect processing is performed for each video file.

【0034】また、請求項24に係るダイジェスト映像
の番組化装置は、請求項23に記載のダイジェスト映像
の番組化装置において、前記演出テンプレートには、定
義されている演出方法を1つのダイジェスト映像の番組
化を行う際に使用する回数を限定する使用回数限定情報
が設定可能であり、前記演出処理手段は、前記実行可能
な演出テンプレートの1つを選択した後、前記演出テン
プレートに使用回数限定情報が設定されている場合、選
択した演出テンプレートを過去に使用した回数と前記使
用回数限定情報とを比較して使用可能であるか否かを判
定し、使用可能でない場合には、他の実行可能な演出テ
ンプレートを選択するものである。
According to a twenty-fourth aspect of the present invention, there is provided the digest video programming apparatus according to the twenty-third aspect, wherein the effect template includes a defined effect method for one digest image. Use number limitation information for limiting the number of times of use when performing program conversion can be set, and the effect processing means selects one of the executable effect templates and then uses the use number limitation information in the effect template. Is set, the number of times the selected effect template has been used in the past is compared with the use count limitation information to determine whether or not the template can be used. This is for selecting an effect template.

【0035】また、請求項25に係るダイジェスト映像
の番組化装置は、請求項20〜24のいずれか一つに記
載のダイジェスト映像の番組化装置において、前記演出
処理手段における映像ファイル単位の番組演出処理は、
前記選択手段で1つの映像ファイルの演出テンプレート
の選択が終了すると、使用する演出テンプレートを選択
して処理する逐次処理機能と、前記選択手段で全ての映
像ファイルの演出テンプレートの選択が終了するのを待
って、各映像ファイルで使用する演出テンプレートを選
択した後、処理するバッチ処理機能とを有しており、前
記演出処理手段は、前記バッチ処理機能を用いて処理を
行う場合、前記選択手段で選択された全ての演出テンプ
レートを参照して、前記感情種類情報および感情表現の
程度が同一である演出テンプレートの集合毎に、その集
合が選択された回数を求め、複数回選択された集合のう
ち、1つの集合の中に異なる演出テンプレートが複数存
在する場合、それぞれの演出テンプレートの選択回数が
均一になるように演出テンプレートを選択するものであ
る。
According to a twenty-fifth aspect of the present invention, there is provided the digest video programming apparatus according to any one of the twentieth to twenty-fourth aspects. Processing is
When the selection of the effect template of one video file is completed by the selection means, the sequential processing function of selecting and processing the effect template to be used, and the selection of the effect template of all the video files by the selection means are ended. Waiting, selecting an effect template to be used in each video file, and having a batch processing function for processing, wherein the effect processing means, when performing processing using the batch processing function, the selecting means With reference to all the selected effect templates, for each set of effect templates having the same degree of emotion type information and emotion expression, the number of times the set has been selected is determined. When there are a plurality of different effect templates in one set, the number of selection of each effect template should be uniform. And selects the output template.

【0036】また、請求項26に係るダイジェスト映像
の番組化装置は、請求項25に記載のダイジェスト映像
の番組化装置において、前記演出テンプレートは、各演
出テンプレートの有する感情種類情報および感情表現の
程度に対応付けられる度合い値のうち、最も高い度合い
値を有する映像ファイルまたは最も低い度合い値を有す
る映像ファイルの番組演出処理に使用することを指定す
る指定情報を設定可能であり、前記演出処理手段は、前
記指定情報が設定されてる演出テンプレートが存在する
場合、該当する演出テンプレートが選択された全ての映
像ファイルの度合い値を相対的に比較し、該当する演出
テンプレートを最大の度合い値または最小の度合い値を
有する映像ファイルの番組演出処理のみに使用するもの
である。
A digest video programming apparatus according to a twenty-sixth aspect is the digest video programming apparatus according to the twenty-fifth aspect, wherein the effect templates are emotion type information and degree of emotion expression included in each effect template. Of the degree values associated with the, it is possible to set designation information that specifies that the video file having the highest degree value or the video file having the lowest degree value to be used for the program effect processing, and the effect processing means If there is a rendering template in which the designation information is set, the rendering template is compared with the degree values of all the selected video files, and the rendering template is determined to have the maximum degree value or the minimum degree. It is used only for the program effect processing of a video file having a value.

【0037】また、請求項27に係る記録媒体は、前記
請求項16または17に記載のダイジェスト映像の番組
化方法をコンピュータに実行させるためのプログラムを
記録したものである。
A recording medium according to a twenty-seventh aspect stores a program for causing a computer to execute the digest video programming method according to the sixteenth or seventeenth aspect.

【0038】[0038]

【発明の実施の形態】以下、本発明の映像内容の説明文
生成方法、映像内容説明文生成装置、ダイジェスト映像
の番組化方法、ダイジェスト映像の番組化装置およびそ
の方法をコンピュータに実行させるためのプログラムを
記録したコンピュータ読み取り可能な記録媒体の実施の
形態について、添付の図面を参照しつつ詳細に説明す
る。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, a method for generating a description of a video content, a device for generating a video content description, a method for converting a digest video into a program, a device for converting a digest video into a program and a method for causing a computer to execute the method will be described. An embodiment of a computer-readable recording medium on which a program is recorded will be described in detail with reference to the accompanying drawings.

【0039】〔実施の形態1〕図1は、実施の形態1の
映像内容説明文生成装置の概略構成図を示す。実施の形
態1の映像内容説明文生成装置100は、図示しないダ
イジェスト作成エンジンからダイジェスト映像用のシー
ンとして検索された各映像シーンの内容を説明する断片
的な文字列からなる複数の文字情報を入力し、該文字情
報を用いて映像シーンの映像内容を説明する説明文を生
成する説明文生成部101と、入力した文字情報から各
映像シーンの内容を判定する映像内容判定部102と、
映像内容判定部102の判定結果に基づいて、前後の映
像シーンの関係により、順接、逆接、並列、添加、選択
の中から接続表現を選択する接続表現選択部103と、
から構成される。
[Embodiment 1] FIG. 1 is a schematic configuration diagram of a video content explanation generating apparatus according to Embodiment 1. The video content description generating apparatus 100 according to the first embodiment inputs a plurality of pieces of character information including a fragmentary character string that describes the content of each video scene retrieved as a digest video scene from a digest creation engine (not shown). A description generating unit 101 that generates a description describing the video content of the video scene using the character information; a video content determining unit 102 that determines the content of each video scene from the input character information;
A connection expression selection unit 103 for selecting a connection expression from forward, reverse, parallel, addition, and selection based on the relationship between the preceding and following video scenes based on the determination result of the video content determination unit 102;
Consists of

【0040】ここでは、階層構造を用いて構造化された
映像ストリームを使用するものとする。例えば、階層構
造を用いた構造化は、映像全体を最上位の階層として、
最上位の階層を論理的に意味のある映像シーン(映像の
単位)に分割して次の階層とし、分割した映像シーンを
さらに分割してその次の階層とするように、順次、映像
シーンを分割して構造化することにより、容易に実現で
きる。また、この構造化した映像ストリームの各映像シ
ーンには、その内容を説明する断片的な文字列(または
文字列に変換可能な情報)からなる複数の文字情報がイ
ンデックスとして付加されているものとする。
Here, it is assumed that a video stream structured using a hierarchical structure is used. For example, structuring using a hierarchical structure means that the entire video is the highest level,
The video scenes are sequentially divided such that the highest hierarchy is divided into logically meaningful video scenes (video units) to form the next hierarchy, and the divided video scenes are further divided into the next hierarchy. It can be easily realized by dividing and structuring. Also, each of the video scenes of the structured video stream has a plurality of pieces of character information composed of fragmentary character strings (or information that can be converted into character strings) describing the contents as indexes. I do.

【0041】なお、ダイジェスト作成エンジンで、構造
化された映像ストリームからダイジェスト映像用のシー
ンを検索し、検索された各映像シーンと、その内容を説
明する断片的な文字列(文字情報)とを出力する技術に
関しては、本出願人らによって先に出願された技術(例
えば、特願平11−058916号「ダイジェスト作成
装置、ダイジェスト作成方法およびその方法をコンピュ
ータに実行させるためのプログラムを記録したコンピュ
ータ読み取り可能な記録媒体」)を用いて容易に実現す
ることができる。
A digest creation engine searches for a digest video scene from a structured video stream, and retrieves each of the searched video scenes and a fragmentary character string (character information) describing the content. Regarding the output technique, the technique previously filed by the present applicant (for example, Japanese Patent Application No. 11-058916, “Digest creating apparatus, digest creating method, and computer recording a program for causing a computer to execute the method”) It can be easily realized by using a readable recording medium ").

【0042】また、説明文生成部101は、接続表現選
択部103で選択した接続表現を用いて、該当する前後
の映像シーンの説明文を接続して出力するものである。
さらに説明文生成部101は、ある階層の映像シーンに
ついての説明文を生成する際に、階層構造を利用して、
当該階層の映像シーンの映像内容を示す説明文と共に、
当該階層の映像シーンの上位の階層の映像シーンの文字
情報から説明文の前書きとなる前書き文および説明文の
後書きとなる後書き文を生成する。
The description generating unit 101 connects and outputs the description of the relevant video scene before and after using the connection expression selected by the connection expression selecting unit 103.
Further, when generating a description about a video scene of a certain hierarchy, the description generation unit 101 uses a hierarchical structure to generate a description.
Along with a description showing the video content of the video scene of the hierarchy,
Based on the character information of the video scene of the higher hierarchy of the video scene of the hierarchy, a preamble sentence which is a preamble of the description and a postscript which is a postscript of the description are generated.

【0043】以上の構成において、接続表現の付加処
理、前書き文・後書き文の生成処理の順に、その動作
を説明する。 接続表現の付加処理 この接続表現の付加処理は、上記映像内容判定部102
と接続表現選択部103との共同作業によって実行され
る。接続表現の付加処理では、各映像シーンを説明する
文字列(文字情報)から説明文を生成して、それらをた
だ連続的に提示するのではなく、前後の映像シーンの内
容関係に着目し、2つの説明文の間に適切な接続を付加
する。これにより、各映像シーンの説明文が並べられた
複数の説明文からなる文章の流れがスムーズになり、視
聴者の状況理解を助けるものである。
The operation of the above configuration will be described in the order of the process of adding a connection expression and the process of generating a preamble / postscript sentence. Connection Expression Addition Processing This connection expression addition processing is performed by the video content determination unit 102
And the connection expression selection unit 103. In the process of adding a connection expression, an explanatory sentence is generated from a character string (character information) that describes each video scene, and instead of presenting them continuously, attention is paid to the content relationship between the preceding and following video scenes. Add the appropriate connection between the two legends. As a result, the flow of a sentence composed of a plurality of explanatory sentences in which the explanatory sentences of the respective video scenes are arranged becomes smooth, which helps the viewer understand the situation.

【0044】先ず、ダイジェスト作成エンジンでダイジ
ェスト映像として切り出された2つの映像シーンの文字
情報を入力し、その映像シーンの内容を分析して、その
間の関係を判定する関数について説明する。以下、この
関数を接続関係判別関数と呼ぶこととする。
First, a description will be given of a function for inputting character information of two video scenes cut out as digest videos by the digest creation engine, analyzing the contents of the video scenes, and judging the relationship therebetween. Hereinafter, this function is referred to as a connection relation determination function.

【0045】一般に接続関係には以下の5つのタイプが
あり、上記接続関係判別関数はこれらのどれかを返り値
とする。 1.並列:並べあげる意味を表すもの。 例:また、および、あるいは、ならびに。 2.添加:付け加える意味を表すもの。 例:しかも、そのうえ、さらに、おまけに、それに。 3.選択:どちらか一方を選び取る意味を表すもの。 例:あるいは、それとも、もしくは、または。 4.順接:前に述べることが、後に述べることの原因、
理由となることを表すもの。 例:したがって、よって、すると、それゆえ、ですか
ら、そうすると、だから。 5.逆接:前に述べたことと、その後に述べたこととが
逆の関係になることを表すもの。 例:けれども、しかし、だか、でも、といっても、とこ
ろが、だけど、しかしながら。
Generally, there are the following five types of connection relations, and the connection relation judgment function takes any one of these as a return value. 1. Parallel: Represents the meaning of arranging. Example: Also, and, or, and. 2. Addition: Represents the meaning of addition. Example: And, moreover, additionally. 3. Choice: Represents the meaning of choosing one or the other. Example: Or, or, or. 4. Tangent: what is stated before is the cause of what is stated later,
An indication of the reason. Example: So, therefore, and therefore, and so, then. 5. Inverse: An indication that what is said before and what is after are inversely related. Example: But, however, it is, however, that, however, however.

【0046】この接続関係判別関数の引数としては、ダ
イジェスト作成エンジンから入力した文字情報が与えら
れる。なお、実施の形態1では、映像シーンの内容を説
明する断片的な文字列の他に、後述する重要度判定パラ
メータの値をダイジェスト作成エンジンが計算して、文
字情報として映像内容説明文生成装置100に出力し、
映像内容説明文生成装置100において、文字列と共に
重要度判定パラメータの値が接続関係判別関数の引数と
して利用される。
Character information input from the digest creation engine is given as an argument of the connection relation determination function. In the first embodiment, in addition to a fragmentary character string that describes the content of a video scene, a digest creation engine calculates the value of an importance determination parameter described later, and generates a video content description generation device as character information. Output to 100,
In the video description generating apparatus 100, the value of the importance determination parameter is used together with the character string as an argument of the connection relation determination function.

【0047】以下、野球番組に対する接続関係判別関数
を例として具体的に説明する。野球番組の場合の代表的
な接続表現として以下に示す添加接続と逆接表現が挙げ
られる。 *加点が続く映像シーン間の添加接続: 例:さらに→「<さらに>、ワンアウト、ランナー2
塁、3塁、××のホームランにより,,,」 *得点チャンスを逃がした場合の逆接表現: 例:しかし→「ランナー××3塁に進みました。<しか
し>、4番××センターフライに倒れ、,,,」
Hereinafter, a connection relation determination function for a baseball program will be specifically described as an example. Representative connection expressions in the case of a baseball program include the following additional connection and reverse connection expressions. * Additional connection between video scenes with additional points: Example: More → “<More>, One Out, Runner 2
Base run, 3rd base, XX, home run, ,, "* Reverse connection expression when scoring chance is missed: Example: But → → proceeded to runner XX 3rd base. <But> 4th XX center fly Collapse ,,,, "

【0048】また、説明文を生成する対象となる映像が
野球の場合、接続関係判別関数で利用する重要度判定パ
ラメータは以下のものとした。なお、いずれも正の値を
とる。 *攻撃レベル(重要度判定パラメータ) 攻撃的に重要なレベルを示す。ヒットやホームランなど
攻撃的に重要な事象のときに値が上がる。 *興奮レベル(重要度判定パラメータ) 視聴者の期待および興奮度を示す。例えば、打順が3、
4、5番のクリーンナップの打席であったり、ランナー
が3塁に出ていて特定のチャンスであるといったような
ときに値が上がる。 *投手レベル(重要度判定パラメータ) 投手および守備の調子を示す。ストライクや連続三振の
ときに値があがる。
When the video for which the description is to be generated is baseball, the importance determination parameters used in the connection relation determination function are as follows. Note that each of them takes a positive value. * Attack level (importance judgment parameter) Indicates the level that is offensive. Raises during aggressive events such as hits and home runs. * Excitement level (importance determination parameter) Indicates the expectation and excitement of the viewer. For example, the batting order is 3,
The price goes up when the 4th or 5th cleanup at bat or the runner is on 3rd base and has a specific chance. * Pitcher level (importance judgment parameter) Indicates the pitcher and defense condition. Increases during strikes and continuous strikeouts.

【0049】図2は、接続関係判別関数のアルゴリズム
を示す。このアルゴリズムの例では、説明を簡単にする
ために、説明文を生成する対象となる映像の構造のクラ
スが打席あるいは投球クラスといった小さい場合(換言
すれば、前述した映像シーンの階層が下位階層の場合)
と、イニングクラスのように大きい場合(換言すれば、
前述した映像シーンの階層が上位階層の場合)に分けて
考える。前者では、〔攻撃レベル−投手レベル〕を指標
として、その計算値を興奮レベルでバイアスをかけるよ
うにしてある(内容指標レベル)。マジックナンバの
α,β,γについてはそれぞれ5,6,0に設定してあ
る。また、イニング間の関係は得点の変化を基に計算し
ている。
FIG. 2 shows an algorithm of the connection relation discrimination function. In the example of this algorithm, in order to simplify the explanation, when the class of the structure of the video for which the description is to be generated is a small class such as a bat or pitching class (in other words, the hierarchy of the video scene described above is a lower hierarchy) Case)
And in the case of a large inning class (in other words,
The above-described video scene hierarchy is a higher hierarchy). In the former, the calculated value is biased by the excitement level using [attack level-pitcher level] as an index (content index level). The magic numbers α, β, and γ are set to 5, 6, and 0, respectively. The relationship between innings is calculated based on the change in score.

【0050】野球の場合、接続関係判別関数の返り値
は、添加と逆接のいずれかとなる。ただし、例外的な場
合には、これ以外の値をもつ場合も否定できないが、殆
どの場合にはこの2通りであると考えられる。なお、接
続関係判別関数は視聴者の嗜好に依存しない。例えば、
どちらのチームのファンであっても形勢逆転は逆接であ
り、点数の追加は添加である。
In the case of baseball, the return value of the connection relation discrimination function is either addition or reverse connection. However, in exceptional cases, it is not possible to deny having a value other than this, but in most cases, it is considered that these two types are used. Note that the connection relation determination function does not depend on the taste of the viewer. For example,
Regardless of the fans of either team, the reversal is a reverse connection, and adding points is an addition.

【0051】前書き文・後書き文の生成処理 説明文生成部101は、ある映像シーンの説明文を生成
する際に、その時点にける各種の状況や、前提条件など
を必要に応じて前書き文として提示する。また、ある映
像シーンの説明をして、次の映像シーンの説明に入る前
に、その映像シーンが全体に及ぼした結果の情報などを
必要に応じて後書き文として提示する。これらの前書き
文、後書き文は、映像シーンの階層構造を利用して、該
当する映像シーンの親シーン(上位の階層の映像シー
ン)の文字情報から生成する。
Processing for Generating Preamble / Postscript Sentences When generating a description of a video scene, the description sentence generation unit 101 converts various situations at that time, preconditions, and the like as preambles as necessary. Present. Further, a certain video scene is described, and before the description of the next video scene, information on the result of the video scene as a whole is presented as a postscript if necessary. These preamble sentences and postscript sentences are generated from the character information of the parent scene of the corresponding video scene (the video scene of the higher hierarchy) using the hierarchical structure of the video scene.

【0052】具体的には、例えば、野球映像の場合、前
書き文(前書きの表現)は、その時点で処理を行ってい
る映像シーンの状況などを示す情報から生成される。例
えば、親シーンに付加された文字情報として、 ・得点状況 ・攻撃チーム名 ・アウトカウント ・出塁ランナー ・投手名 ・打者名 ・ボールカウント がある場合、「5回の裏、××の攻撃、ワンアウト、ラ
ンナー2,3塁,,」というような文字列を前書き文と
して自動的に生成することができる。
Specifically, for example, in the case of a baseball video, a preamble sentence (expression of the preamble) is generated from information indicating the situation of the video scene being processed at that time. For example, if the character information added to the parent scene includes: ・ Score status ・ Attack team name ・ Out count ・ Base runner ・ Pitcher name ・ Batter name ・ Ball count, if there are “5 backs, XX attacks, 1 A character string such as "out, runners 2, 3rd base ,," can be automatically generated as a preamble sentence.

【0053】また、後書き文(後書きの表現)は、結果
に関する情報、例えば、 ・試合の結果 ・出塁ランナーの結果 ・得点結果 等の結果に関する情報を、その時点の状況を示す情報か
ら生成する。
The postscript sentence (expression of the postscript) generates information on the result, for example, information on the result, such as a result of the match, a result of the runner starting, and a score result, from the information indicating the situation at that time.

【0054】前述したように実施の形態1の映像内容の
説明文生成方法および映像内容説明文生成装置によれ
ば、文字情報から各映像シーンの内容を判定し、前後の
映像シーンの関係により、順接、逆接、並列、添加、選
択等の中から接続表現を選択し、選択した接続表現を用
いて、該当する前後の映像シーンの説明文を接続した映
像内容の説明文を生成するため、各映像シーンから生成
した説明文の前後のつながりや、関連性を明瞭にして、
視聴者(利用者)にとって違和感のないスムーズな文章
の流れの説明文を生成することができる。
As described above, according to the video content description generating method and the video content description generating apparatus of the first embodiment, the content of each video scene is determined from the character information, and based on the relationship between the preceding and following video scenes, To select a connection expression from sequential, reverse, parallel, addition, selection, etc., and use the selected connection expression to generate a description of the video content connecting the description of the previous and next video scene, Clarify the connections and relevance before and after the description generated from each video scene,
It is possible to generate a description of a flow of a sentence that is smooth for the viewer (user) without any discomfort.

【0055】また、階層構造を用いて構造化された映像
ストリームから検索結果として得られた各映像シーンの
ある階層の映像シーンについての説明文を生成する際
に、階層構造を利用して、上位の階層の映像シーンの文
字情報から説明文の前書きとなる前書き文を生成するた
め、検索結果である各映像シーンが、前後の映像シーン
の中でどのような意味を持つのかを明確するための概要
説明的な文章として、前書き文を生成することができ
る。同様に、当該階層の映像シーンの上位の階層の映像
シーンの文字情報から説明文の後書きとなる後書き文を
生成するため、検索結果である各映像シーンが、前後の
映像シーンの中でどのような意味を持つのかを明確する
ための概要説明的な文章として、後書き文を生成するこ
とができる。
When generating a description about a video scene of a certain hierarchy of each video scene obtained as a search result from a video stream structured using the hierarchical structure, the hierarchical structure is used to generate a description. In order to generate a preamble sentence that is the preamble of the explanation from the character information of the video scene of the hierarchy of, the search result is used to clarify what meaning each video scene has in the previous and next video scene A preamble sentence can be generated as a brief explanatory sentence. Similarly, in order to generate a postscript sentence that is a postscript of the explanatory note from the character information of the video scene of the higher hierarchy of the video scene of the relevant hierarchy, how each video scene that is the search result is It is possible to generate a postscript sentence as an outline explanatory sentence for clarifying the meaning.

【0056】〔実施の形態2〕図3は、実施の形態2の
映像内容説明文生成装置の概略構成図を示す。実施の形
態2の映像内容説明文生成装置200は、図示しないダ
イジェスト作成エンジンからダイジェスト映像用のシー
ンとして検索された各映像シーンの内容を説明する断片
的な文字列からなる複数の文字情報を入力し、該文字情
報を用いて映像シーンの映像内容を説明する説明文を生
成する説明文生成部201と、予め映像シーン毎に、そ
の映像内容に対する利用者の感情的な変化の度合い(嗜
好レベル)を計算するための複数のパラメータを感情度
パラメータとして定義して記憶した記憶部202と、利
用者の嗜好情報を設定するための設定部203と、各映
像シーンに対応する感情度パラメータおよび嗜好情報を
用いて、各映像シーンに対する利用者の感情的な反応の
度合い値(嗜好レベルの値)を計算する計算部204と
から構成される。
[Second Embodiment] FIG. 3 is a schematic block diagram of a video content explanation generating apparatus according to a second embodiment. The video content description generating apparatus 200 according to the second embodiment inputs a plurality of pieces of character information including a fragmentary character string that describes the content of each video scene retrieved as a digest video scene from a digest creation engine (not shown). A description generating unit 201 that generates a description describing the video content of the video scene using the character information; and a degree of the user's emotional change in the video content (preference level) for each video scene in advance. ), A storage unit 202 that defines and stores a plurality of parameters as emotion degree parameters, a setting unit 203 for setting user preference information, an emotion degree parameter and a preference corresponding to each video scene. A calculating unit 204 for calculating a degree value (preference level value) of a user's emotional reaction to each video scene using the information It is.

【0057】なお、感情度パラメータの複数のパラメー
タは、映像シーンに付加され文字情報の内容と嗜好情報
の内容との組み合わせによって度合い(嗜好レベル)が
数値化されるものである。また、計算部204は、この
数値化された度合いを用いて度合い値(嗜好レベルの
値)を計算する。
Note that the plurality of emotion degree parameters are added to the video scene and the degree (preference level) is quantified by a combination of the contents of character information and the contents of preference information. The calculation unit 204 calculates a degree value (preference level value) using the digitized degree.

【0058】さらに、詳細は後述するが実施の形態2で
は、説明文生成部201が、文字情報を用いて映像シー
ンの映像内容を説明する説明文を生成する際に、計算部
204で計算した度合い値(嗜好レベルの値)に基づい
て感情表現を示す感情表現文を付加するものである。
Further, as will be described in detail later, in the second embodiment, when the description generating unit 201 generates the description explaining the video contents of the video scene using the character information, the description is calculated by the calculation unit 204. An emotion expression sentence indicating an emotion expression is added based on the degree value (preference level value).

【0059】以上の構成において、実施の形態2の要部
である感情表現生成処理(感情表現の付加処理)につい
て、その動作を具体的に説明する。感情表現生成処理で
は、各映像シーンの文字情報から説明文を生成する際
に、事実を客観的に述べるだけではなく、視聴者の嗜好
情報を利用して、表現方法を変化させる。例えば、検索
結果が視聴者にとって嬉しい内容であれば、嬉しさあふ
れる表現を、検索結果が悲しい内容であれば、悲しい気
持ちを表す表現を生成する。なお、実施の形態2の感情
表現生成処理では、視聴者の嗜好情報を利用して感情表
現を説明文(文章)で表すが、感情表現生成処理そのも
のは、映像中の音楽、画面の色調などの演出効果や、説
明文を話す仮想キャラクタの表情などに反映させること
も可能である。
In the above configuration, the operation of the emotional expression generation process (emotional expression adding process), which is a main part of the second embodiment, will be described specifically. In the emotion expression generation process, when generating a description from the character information of each video scene, the expression method is changed not only by objectively describing facts but also by using the preference information of the viewer. For example, if the search result is content that is happy for the viewer, an expression full of joy is generated, and if the search result is sad content, an expression expressing sad feeling is generated. In the emotion expression generation process according to the second embodiment, the emotion expression is represented by an explanatory sentence (sentence) using the preference information of the viewer, but the emotion expression generation process itself includes music in a video, color tone of a screen, and the like. Can be reflected in the effect of the virtual character, the expression of the virtual character speaking the explanation, and the like.

【0060】ここで、記憶部202、設定部203、計
算部204および説明文生成部201による感情表現生
成処理の一連の流れを、検索結果に対する視聴者の嗜好
レベル(度合い)の計算関数(以下、感情度判別関数と
記載する)のアルゴリズムで表現して説明する。
Here, a series of emotion expression generation processing by the storage unit 202, the setting unit 203, the calculation unit 204, and the explanation sentence generation unit 201 is described as a function of calculating a viewer's preference level (degree) with respect to search results (hereinafter, referred to as a function). , Described as an emotion degree discrimination function).

【0061】以下、野球の場合を例として説明する。図
4はこの感情度判別関数のアルゴリズムを示す。嗜好レ
ベルの計算は、初めに、利用者が攻撃チームファンであ
るという立場にたって計算する。嗜好情報で設定された
利用者の嗜好が守備チームである場合には、最後に正負
の逆転をする。つまり、攻撃チームにとって攻撃の流れ
に乗っている場合、嬉しさ度(利用者の感情的な変化の
度合い:正の変化)は高くなるが、逆に守備チームにと
っては悲しさ度(利用者の感情的な変化の度合い:負の
変化)が高くなる。
Hereinafter, the case of baseball will be described as an example. FIG. 4 shows an algorithm of the emotion degree discrimination function. The preference level is calculated first from the standpoint that the user is an attacking team fan. When the user's preference set in the preference information is the defense team, the sign is reversed at the end. In other words, if the attacking team is on the flow of attack, the degree of joy (the degree of the user's emotional change: positive change) will be high, while the degree of sadness (the user's The degree of emotional change: negative change) increases.

【0062】また、その値は利用者の嗜好度が高くなる
ほど増幅される。その増幅の調整値φを図においては
「5」に設定してある。これによって、例えば、好きな
選手が出ている時には、良い場面はより嬉しく、悪い場
面はより悲しくなるというような、利用者の感情的な変
化を表現することが可能となる。
The value is amplified as the preference of the user increases. The amplification adjustment value φ is set to “5” in the figure. This makes it possible to express emotional changes of the user, for example, when a favorite player is appearing, a good scene is more happy and a bad scene is more sad.

【0063】なお、このアルゴリズムは、仮定として、
嗜好情報によって設定さた利用者の嗜好が、好きな選手
の所属するチームと自分が応援するチームが同じである
場合を想定して作成したものである。
Note that this algorithm is based on the assumption that
It is created on the assumption that the user's preference set by the preference information is the same as the team to which the favorite player belongs and the team to which he supports.

【0064】実施の形態2の映像内容説明文生成装置2
00において、各映像シーンの文字情報を入力すると、
計算部204は、各映像シーンに対応した感情度パラメ
ータを記憶部202から読み出して、設定部203に設
定されている嗜好情報を参照して、感情度パラメータに
該当する嗜好情報および該当する文字情報を設定して計
算を行い、対象となる映像シーンの嗜好レベルの値を求
める。次に、説明文生成部201は、各映像シーンの文
字情報を入力して映像シーンの映像内容を説明する説明
文を生成すると共に、計算部204で求めた嗜好レベル
(度合い値)に基づいて感情表現を示す感情表現文を付
加する。例えば、映像シーンの嗜好レベルの値が(嗜好
レベル>θ)の場合には、嬉しいという感情を示す感情
表現文を付加する。説明文が「ツーアウト、ランナー3
塁、高橋のタイムリーヒットで逆転します。」という内
容であった場合、感情表現文「やりました。」を付加し
て、「ツーアウト、ランナー3塁、高橋のタイムリーヒ
ットで逆転します。やりました。」という説明文を生成
する。
Image Content Explanation Generating Apparatus 2 of Embodiment 2
At 00, when the character information of each video scene is input,
The calculating unit 204 reads the emotion degree parameter corresponding to each video scene from the storage unit 202, refers to the preference information set in the setting unit 203, and refers to the preference information corresponding to the emotion degree parameter and the corresponding character information. Is set and calculation is performed to obtain the value of the preference level of the target video scene. Next, the description generation unit 201 inputs the character information of each video scene to generate a description explaining the video content of the video scene, and based on the preference level (degree value) obtained by the calculation unit 204. An emotion expression sentence indicating an emotion expression is added. For example, when the value of the preference level of the video scene is (preference level> θ), an emotion expression sentence indicating an emotion of being happy is added. The description is "two out, runner 3
We will reverse with a timely hit of base and Takahashi. ", The sentence of emotional expression" I did it. "Is added, and the explanation sentence" It reverses with a timely hit of two-out, runner third base, Takahashi. I did it. " .

【0065】前述したように実施の形態2の映像内容の
説明文生成方法および映像内容説明文生成装置によれ
ば、説明文生成手段が、文字情報を用いて映像シーンの
映像内容を説明する説明文を生成する際に、度合い値に
基づいて感情表現を示す感情表現文を付加するため、視
聴者(利用者)の感覚に適合させて、嗜好を反映した説
明文を生成することができる。換言すれば、利用者の感
情的な反応の度合い値に対応させて、より柔軟に(また
は段階的に)嗜好を反映した説明文を生成することによ
り、利用者の嗜好に沿ったパーソナルな説明文を作成す
ることが可能となる。
As described above, according to the method for generating a description of a video content and the apparatus for generating a video content description according to the second embodiment, the description generating means uses the character information to explain the video content of the video scene. When a sentence is generated, an emotional expression sentence indicating an emotional expression is added based on the degree value, so that it is possible to generate an explanatory sentence reflecting tastes in conformity with the sense of the viewer (user). In other words, by generating a description reflecting the preference more flexibly (or stepwise) in accordance with the degree value of the emotional reaction of the user, a personal description according to the preference of the user is generated. A sentence can be created.

【0066】また、実施の形態2では、感情度パラメー
タの複数のパラメータは、映像シーンに付加され文字情
報の内容と嗜好情報の内容との組み合わせによって度合
いが数値化され、計算部204は数値化された度合いを
用いて度合い値を計算するため、さらに視聴者(利用
者)の感覚に適合させて、嗜好を反映した説明文を生成
することができる。換言すれば、利用者の感情的な反応
の度合い値に対応させて、より柔軟に(または段階的
に)に感情表現文を付加でき、利用者の嗜好を反映した
パーソナルな説明文を作成することができる。
Also, in the second embodiment, the degree of the plurality of emotion degree parameters is quantified by a combination of the contents of the character information and the contents of the preference information added to the video scene. Since the degree value is calculated using the determined degree, it is possible to generate an explanatory sentence reflecting tastes further adapted to the senses of the viewer (user). In other words, an emotional expression can be added more flexibly (or stepwise) according to the degree of emotional reaction of the user, and a personalized description reflecting the user's preference is created. be able to.

【0067】〔実施の形態3〕実施の形態3では、映像
の階層構造に基づく説明文生成アルゴリズムを用いて映
像内容の説明文を生成する方法について説明する。図5
は実施の形態3の説明文生成関数(説明文生成アルゴリ
ズム)を示す。図示の如く、説明文生成関数は実施の形
態1または実施の形態2で説明した接続関係判別関数お
よび感情度判別関数を用いながら、階層的に再起呼び出
しを使い、順に説明文を生成する。
[Embodiment 3] In Embodiment 3, a method of generating a description of a video content using a description generation algorithm based on a hierarchical structure of a video will be described. FIG.
Indicates an explanatory note generation function (explanatory note generation algorithm) according to the third embodiment. As shown in the figure, the explanation generating function sequentially generates an explanation by using a recursive call while using the connection relation determining function and the emotion degree determining function described in the first or second embodiment.

【0068】例えば、ある映像シーンに対する説明文を
生成する場合、まずその映像シーンがクラス(階層)の
先頭であるか否かをチェックする。先頭である場合、前
の映像シーンは存在しないので、接続関係判別関数は呼
ばない。クラス階層ごとに、同レベルのクラスインスタ
ンスの集合に対して、前書き文、後書き文を付加する。
例えば、野球では、文字情報から「5回の裏、××の攻
撃、ワンアウト、ランナー2、3塁」というような前書
き文を生成する。後書き文としては、そのイニング終了
時の得点状況や、イニングの概要説明などを生成する。
For example, when generating an explanatory note for a video scene, it is first checked whether or not the video scene is at the top of a class (hierarchy). If it is the head, there is no previous video scene, so the connection relation discrimination function is not called. For each class hierarchy, a preamble sentence and a postscript sentence are added to a set of class instances at the same level.
For example, in baseball, a preamble sentence such as “5 backs, XX attacks, one out, runners 2 and 3rd base” is generated from character information. As the postscript, a score status at the end of the inning, an outline description of the inning, and the like are generated.

【0069】計算された感情レベルの値は、説明文生成
関数の各所で利用される。前書き文の生成においては、
正値:嬉しいの場合、「嬉しいことに,,,」などの表
現を加える。反対に、負値:悲しいの場合、「残念なこ
とに,,,」などの表現を付加する。また、後書き文の
生成の場合は、「本当によかったですね」、「全く残念
な結果となってしまいました」などの表現を加える。
The calculated emotion level value is used in various parts of the explanation generating function. In generating the foreword,
Positive value: If you are happy, add an expression such as "happily ,,,". Conversely, a negative value: if sad, add an expression such as "Unfortunately ,,,". In addition, in the case of generating a postscript sentence, add expressions such as "It was really good" and "It was a completely disappointing result".

【0070】図6は、実施の形態3の説明文生成関数を
用いた場合、ある試合に対してどのような順序で説明文
が生成されるかを示した説明図である。視聴者が広島フ
ァンであった場合、それぞれの説明文は以下の(1)〜
(17)のようになる。なお、対応する文章が必要ない
場合は、説明文の生成は行わない。また、図において、
矢印および数字を用いて説明文の生成する順序を記述し
ている。
FIG. 6 is an explanatory diagram showing the order in which explanatory texts are generated for a certain game when the explanatory text generation function of the third embodiment is used. If the viewer is a Hiroshima fan, the description for each will be (1)-
It becomes like (17). If a corresponding sentence is not required, no explanation is generated. In the figure,
The order in which explanatory texts are generated is described using arrows and numbers.

【0071】(1) 10月3日、××対××戦が東京
ドームで行われました。 (2) 1回の表、広島の攻撃、 (4) ××の打席で、ソロホームランがでました。 (5) よかったですね。 (6) 1回表を終わり、××のホームランにより1対
0で××が先制しています。 (7) しかし悔しいことに、1回の裏、すぐに××に
逆転されてしまいました。 (8) まず (9) 先頭バッター××がセンター前ヒットで出塁し
ました。 (10) ××の反撃開始です。 (11) さらに (12) ××がフォアボールで出塁です。 (13) 走者、1,2塁。××、ピンチです。 (14) その上、残念なことに (15) ××のタイムリーヒットで、2点加点。××
1−2と逆転です。 (17) 1回裏を終わり、××1対2と××に逆転さ
れてしまいました。まったく残念なことです。
(1) On October 3, a XX vs XX battle was held at Tokyo Dome. (2) One table, Hiroshima attack, (4) At XX at bat, a solo home run was made. (5) It was good. (6) After finishing the table once, XX pre-empts 1-0 with XX home runs. (7) Unfortunately, however, one time, it was immediately reversed to XX. (8) First (9) The lead batter XX made a hit in front of the center. (10) XX is back. (11) In addition, (12) XX is on the foreball. (13) Runner, first and second base. XX, pinch. (14) Moreover, unfortunately (15) XX timely hits, 2 points added. Xx
It is the reverse of 1-2. (17) I finished the back once, and it was reversed to XX 1: 2 and XX. That's a shame.

【0072】前述したように実施の形態3によれば、映
像の階層構造に基づく説明文生成アルゴリズムを用いて
映像内容の説明文を生成するので、実施の形態1および
実施の形態2の効果に加えて、階層構想表現を用いて説
明文をより、明確に作成することができ、さらに読み易
い文章にすることができる。特に、実施の形態3によれ
ば、映像の階層構造を汎用的に利用することが可能とな
るという効果を奏することができる。
As described above, according to the third embodiment, the description of the video content is generated by using the description generation algorithm based on the hierarchical structure of the video, so that the effects of the first and second embodiments can be obtained. In addition, the description can be more clearly created using the hierarchical concept expression, and the sentence can be made more readable. In particular, according to the third embodiment, it is possible to obtain an effect that the hierarchical structure of a video can be used for general purposes.

【0073】ここで、前述した実施の形態1〜実施の形
態3の映像内容の説明文生成方法および映像内容説明文
生成装置を、ダイジェスト作成システムに適用した場合
について説明する。図7は、本発明の映像内容の説明文
生成方法を映像文生成機能として取り込んだダイジェス
ト作成システムの概要図を示し、ダイジェスト作成エン
ジンにより切り出したシーン(映像シーン)およびその
簡単な説明文が出力された後、最終的にTV装置上でど
のように表示されるかまでのシステム全体の概要を説明
する。なお、図において、TV視聴者と対話的に操作を
進めていくユーザインターフェース(UIF)を番組視
聴用ユーザインターフェースと呼び、以降、PV(Pr
ogram Viewer)と略す。
Here, a description will be given of a case where the method for generating a description of a video content and the video content description generating apparatus according to the first to third embodiments are applied to a digest creation system. FIG. 7 is a schematic diagram of a digest creation system that incorporates the video content description generation method of the present invention as a video text generation function, and outputs a scene (video scene) cut out by the digest generation engine and a brief description thereof. An outline of the entire system up to how the information is finally displayed on the TV device after the completion will be described. In the figure, a user interface (UIF) for performing an operation interactively with a TV viewer is referred to as a program viewing user interface.
abbreviated as "O.V. Program Viewer".

【0074】ダイジェスト作成エンジンにより生成され
た説明文(文字列)および映像シーンは、説明文生成関
数に入力され、接続表現および感情表現、構造表現を含
む説明文として生成される。この生成された説明文や、
各映像シーン、計算された接続のタイプおよび嗜好レベ
ルがPVに渡される。
The description (character string) and the video scene generated by the digest creation engine are input to a description generation function, and are generated as a description including a connection expression, an emotion expression, and a structural expression. This generated description,
Each video scene, the calculated connection type and preference level are passed to the PV.

【0075】PVは、TV視聴を対象としたユーザイン
ターフェースであるため、TV番組シナリオでできるよ
うなアクション記述能力が必要とされる。この要件を満
たすものとしてTVMLが知られている。なお、このT
VMLの技術については、林、折原、下田、他:「テレ
ビ番組記述言語TVMLの言語仕様とCG記述方法」第
3回知能情報メディアンシンポジウム、pp75−8
0,1997.に記述されている。
[0075] Since the PV is a user interface for watching TV, it is required to have an action description capability that can be performed in a TV program scenario. TVML is known to satisfy this requirement. Note that this T
Hayashi, Orihara, Shimoda, et al .: "Language specifications and CG description method of TV program description language TVML", 3rd Intelligent Information Media Symposium, pp75-8
0, 1997. It is described in.

【0076】TVMLは、TV番組のシナリオを記述す
る言語としてよく仕様検討され、広く普及している言語
であるので、PVインタプリタでは、TV番組記述言語
としてTVMLインタプリタを用いることができる。な
お、PVインタプリタからTVMLインタプリタを呼び
出すことで、TVMLのもつ以下のような機能を実現す
ることができる。 *CGキャラクタの選択、配置およびシナリオ中での動
作(首を傾げる等) *カメラの位置の設定、複数台カメラ間のスイッチン
グ、パンチルト *動画および音声ファイル再生 *ビデオイフェクト *字幕の表示
The TVML is a language widely described and widely used as a language for describing a scenario of a TV program. Therefore, the PV interpreter can use the TVML interpreter as a TV program description language. Note that the following functions of the TVML can be realized by calling the TVML interpreter from the PV interpreter. * Selection and arrangement of CG characters and actions in scenarios (tilting the head, etc.) * Setting of camera position, switching between multiple cameras, pan and tilt * Video and audio file playback * Video effects * Subtitle display

【0077】ダイジェスト作成システムの出力する動画
は、最終的にTVMLの動画再生機能で再生される。ま
た、PV記述言語では、シーンの遷移における照明の変
化や、カメラのズームインアクションなどのTV的演出
効果を記述できるようにすることが望ましい。
The moving image output by the digest creation system is finally reproduced by the moving image reproduction function of TVML. Further, in the PV description language, it is desirable to be able to describe a TV-like effect such as a change in illumination at a scene transition or a zoom-in action of a camera.

【0078】また、TVMLライブラリとして、図示の
如く、キャラクタデザインや、そのキャラクタ語彙等を
データベース化する。例えば、PVが、現在選択されて
いるキャラクタの語彙データベースを検索し、そのキャ
ラクタがその種類の接続言語を話すときの台詞を見つ
け、コードに埋め込むという処理を行うことができる。
具体的には、マルチリンガル対応の場合、キャラクタに
よって逆接表現「しかし」、“but”、“howev
er”などを使いわけるといった処理を行う。
Further, as shown in the figure, a database of the character design, the character vocabulary thereof, etc. is made as a TVML library. For example, the PV can search the vocabulary database of the currently selected character, find the dialogue when that character speaks that type of connected language, and embed it in the code.
Specifically, in the case of multilingual support, the inverse concatenation expression "but", "but", "howev"
er ”and so on.

【0079】上記のようなダイジェスト作成システムで
は、簡単な映像検索問い合わせの実現の他に、検索結果
として得られたダイジェスト映像を如何にわかりやすく
提示するかが大きな問題となるが、本発明の映像内容の
説明文生成方法および映像内容説明文生成装置を一つの
説明文生成機能として組み込むことにより、この問題を
解決するために大いに役に立つことは明らかである。
In the digest creation system as described above, in addition to realizing a simple video search query, how to present a digest video obtained as a search result in an easy-to-understand manner is a major problem. It is clear that incorporating the content description generation method and the video content description generation apparatus as one description generation function is very useful for solving this problem.

【0080】以上説明した実施の形態1〜3に係る映像
内容の説明文生成方法は、前述した説明および各フロー
チャート(アルゴリズム)に示した手順に従って予め用
意したプログラムをコンピュータで実行することによっ
て実現することができる。このプログラムは、ハードデ
ィスク、フロッピー(登録商標)ディスク、CD−RO
M、MO、DVD等のコンピュータで読み取り可能な記
録媒体に記録されて提供される。またはネットワークを
介して配布することができる。
The method of generating a description of a video content according to the first to third embodiments described above is realized by executing a program prepared in advance by a computer in accordance with the above-described description and the procedure shown in each flowchart (algorithm). be able to. This program includes a hard disk, floppy (registered trademark) disk, CD-RO
It is provided by being recorded on a computer-readable recording medium such as M, MO, and DVD. Or it can be distributed over a network.

【0081】〔実施の形態4〕実施の形態4は、本明の
ダイジェスト映像の番組化方法およびダイジェスト映像
の番組化装置を示す。実施の形態4のダイジェスト映像
の番組化装置は、1つの映像ストリームの中からダイジ
ェスト映像用のシーンとして検索された各映像シーン
と、各映像シーンに対して作成された映像内容の説明文
を入力し、各映像シーンの再生に加えて、予め設定され
た仮想キャラクタを介して映像内容の説明文を音声また
は文字で提供することでダイジェスト映像の番組を作成
するものであり、映像シーンおよび映像内容の説明文と
共に、各映像シーンの映像内容に対する仮想キャラクタ
の感情的な反応の度合い値を入力し、各映像シーン毎に
度合い値に基づいて仮想キャラクタの感情表現の演出を
行う。
[Fourth Embodiment] A fourth embodiment of the present invention is directed to a digest video programming method and a digest video programming apparatus according to the present invention. The digest video programming apparatus according to the fourth embodiment inputs each video scene retrieved as a digest video scene from one video stream, and a description of the video content created for each video scene. In addition to the reproduction of each video scene, a digest video program is created by providing a description of the video content in voice or text via a preset virtual character. Of the virtual character with respect to the video content of each video scene, and the effect of expressing the emotion of the virtual character is performed based on the degree value for each video scene.

【0082】また、ダイジェスト映像用の映像シーンと
共に、実施の形態2の映像内容説明文生成装置200で
生成された各映像シーンの説明文、前書き文、後書き文
および度合い値を入力し、ダイジェスト映像の番組を作
成する。このとき、各映像シーンの再生に加えて、予め
設定された仮想キャラクタを介して説明文、前書き文お
よび後書き文を音声で提供すると共に、各映像シーン毎
に度合い値に基づいて仮想キャラクタの感情表現の演出
を行うものである。
In addition to the video scene for the digest video, a description of each video scene generated by the video content description generating apparatus 200 of the second embodiment, a preamble, a postscript, and a degree value are input. Create a program. At this time, in addition to the reproduction of each video scene, an explanatory sentence, a preamble sentence, and a postscript sentence are provided as audio via a preset virtual character, and the emotion of the virtual character is determined based on the degree value for each video scene. This is to produce an expression.

【0083】図8は、実施の形態4のダイジェスト映像
の番組化装置400のブロック構成図を示す。なお、2
00は、前述した実施の形態2の映像内容説明文生成装
置を示し、前提条件として、映像内容説明文生成装置2
00で、ダイジェスト映像用のシーンとして検索された
各映像シーンに対して、説明文、前書き文、後書き文お
よびその映像内容に対する利用者の感情的な変化の度合
いを示す度合い値と、さらにスーパー(キャプション)
が生成され、これらの6つの情報がダイジェスト映像の
番組化装置400に渡されるものとする。
FIG. 8 is a block diagram showing a digest video programming apparatus 400 according to the fourth embodiment. In addition, 2
Reference numeral 00 denotes the video content description generating apparatus according to the second embodiment described above.
At 00, for each video scene retrieved as a digest video scene, a description value, a preamble text, a postscript text, and a degree value indicating the degree of emotional change of the user to the video content, and a super value ( caption)
Is generated, and these six pieces of information are passed to the digest video programmer 400.

【0084】なお、実施の形態4では、これら6つの情
報を以下のように置き換えて記述する。 映像シーン(映像シーン) 前書き説明文(前書き文) イベント説明文(説明文) 後書き説明文(後書き文) スーパー(スーパー) 感情レベルパラメータ(感情種類情報を有する度合
い値)
In the fourth embodiment, these six pieces of information will be described as follows. Video scene (video scene) Preface description (preamble) Event description (description) Postscript description (postscript) Super (super) Emotion level parameter (degree value with emotion type information)

【0085】ただし、これらの6つの情報のうち、映像
シーン以外の情報は必要に応じて生成されるか、あるい
は必要に応じて情報が設定されていなくても良いもので
ある。また、ここで、感情レベルパラメータは、喜怒哀
楽等の感情の種類を示すための感情種類情報を有してい
る。感情種類情報としては、例えば、『嬉しい』、『楽
しい』、『可笑しい』、『びっくりした』、『悲し
い』、『悔しい』、『残念』、『安堵』などのように具
体的な感情の種類を示す情報が設定される。
However, of these six pieces of information, information other than the video scene is generated as required, or information need not be set as required. Here, the emotion level parameter has emotion type information for indicating the type of emotion such as emotion, emotion, and so on. Emotion type information includes specific emotion types such as "happy", "fun", "laughable", "surprised", "sad", "frustrated", "sorry", and "relief". Is set.

【0086】さらに、感情レベルパラメータは、複数の
感情レベルパラメータで構成することも可能であり、例
えば、、『悔しい』という感情種類情報を有する感情レ
ベルパラメータと、『残念』という感情種類情報を有す
る感情レベルパラメータとの2つの感情レベルパラメー
タを用いて1つの映像シーンの感情レベルパラメータが
構成されていても良い。このように複数の感情レベルパ
ラメータを用いることにより、それぞれの感情種類情報
の内容を合成した『悔しくて、残念』というような感情
を表現し、情報として利用することができる。
Further, the emotion level parameter can be composed of a plurality of emotion level parameters. For example, the emotion level parameter has an emotion type information of "frustrated" and an emotion level information of "sorry". The emotion level parameter of one video scene may be configured using two emotion level parameters including the emotion level parameter. By using a plurality of emotion level parameters in this way, it is possible to express an emotion such as “regretful and disappointing” by combining the contents of each emotion type information and use it as information.

【0087】実施の形態4のダイジェスト映像の番組化
装置400は、映像ファイル生成部401と、番組定義
ファイルデータベース402と、演出定義データベース
403と、演出テンプレート選択部404と、演出処理
部405と、PVMLインタプリタ406と、TVML
プレーヤ407と、TV(テレビジョン:表示装置))
408とから構成される。また、図示を省略するが、後
述する複数の番組定義ファイルの中から所望の番組定義
ファイルを指定するための指定手段を備えている。この
指定手段は、パソコンの表示画面やキーボード等で容易
に構成することができる。
The digest video programmer 400 according to the fourth embodiment includes a video file generator 401, a program definition file database 402, an effect definition database 403, an effect template selector 404, an effect processor 405, PVML interpreter 406 and TVML
Player 407 and TV (television: display device))
408. Although not shown in the figure, the apparatus further includes a designation unit for designating a desired program definition file from a plurality of program definition files described later. This designation means can be easily constituted by a display screen of a personal computer, a keyboard or the like.

【0088】映像ファイル生成部401は、映像内容説
明文生成装置200から1つの映像シーン毎にイベント
説明文、前書き説明文、後書き説明文、スーパー(キャ
プション)および感情レベルパラメータを入力し、番組
化の処理単位として1つの映像シーン毎にイベント説明
文、前書き説明文、後書き説明文および感情レベルパラ
メータを対応させて映像ファイルを生成する。
The video file generation unit 401 inputs an event description, a preamble description, a postscript description, a super (caption) and an emotion level parameter for each video scene from the video content description generation device 200, and converts the program into a program. As a processing unit, a video file is generated for each video scene by associating an event description, a preamble description, a postscript description, and an emotion level parameter.

【0089】番組定義ファイルデータベース402は、
番組の各種構成情報を番組定義ファイルとして記憶して
おり、番組定義ファイルの番組の各種構成情報として
は、例えば、少なくとも1つの仮想キャラクタと、番組
のスタジオセット、カメラの台数や位置、CG照明、C
G小道具、サウンド、番組タイトル、スーパーの設定等
の情報がある。なお、この番組定義ファイルは、予め複
数記憶さており、所定の形式で各種構成情報を設定する
ことにより、追加、変更等も容易に行える。
The program definition file database 402 stores
Various configuration information of the program is stored as a program definition file. Examples of the various configuration information of the program in the program definition file include at least one virtual character, a studio set of the program, the number and position of cameras, CG lighting, C
Information such as G props, sounds, program titles, and supermarket settings. Note that a plurality of the program definition files are stored in advance, and addition and change can be easily performed by setting various types of configuration information in a predetermined format.

【0090】演出定義データベース403は、複数の演
出テンプレートが記憶されており、演出テンプレートは
少なくとも複数段階に設定された感情表現の程度(例え
ば、非常に、普通に、少しの3つの段階)毎にそれぞれ
1つの演出方法が定義されている。また、これら複数の
演出テンプレートは、感情種類情報および感情表現の程
度をキーインデックスとして分類され、記憶されてい
る。
The effect definition database 403 stores a plurality of effect templates. The effect templates are stored at least for each degree of emotional expression set in a plurality of stages (for example, very, usually, a few three stages). Each production method is defined. These effect templates are classified and stored using the emotion type information and the degree of emotion expression as key indexes.

【0091】また、演出定義データベース403には、
複数の感情種類情報および複数の感情種類情報の感情表
現の程度をキーインデックスとして分類された複数の演
出テンプレートも記憶されている。
Further, in the effect definition database 403,
A plurality of effect templates in which a plurality of emotion type information and a degree of emotion expression of the plurality of emotion type information are classified as a key index are also stored.

【0092】さらに、演出テンプレートには、定義され
ている演出方法が適用可能な番組環境を示す番組環境情
報が設定さており、また、定義されている演出方法を1
回のダイジェスト映像の番組化で何回使用可能とするか
を限定する使用回数限定情報が必要に応じて設定されて
いる。
Further, in the effect template, program environment information indicating a program environment to which the defined effect method can be applied is set.
Use number limitation information for limiting how many times a digest video can be used in a program conversion is set as necessary.

【0093】また、演出テンプレートは、各演出テンプ
レートの有する感情種類情報および感情表現の程度に対
応付けられる感情レベルパラメータのうち、最も高い感
情レベルパラメータを有する映像ファイルまたは最も低
い感情レベルパラメータを有する映像ファイルの番組演
出処理に使用することを指定する指定情報が必要に応じ
て設定可能である。
The effect template is a video file having the highest emotion level parameter or an image having the lowest emotion level parameter among the emotion level parameters associated with the emotion type information and the degree of emotion expression included in each effect template. Designation information for designating the file to be used for the program effect processing can be set as required.

【0094】演出テンプレート選択部404は、映像フ
ァイルを入力し、1つの映像ファイル毎に感情レベルパ
ラメータに基づいて感情表現の程度を決定し、演出定義
データベース403から感情表現の程度に応じた感情表
現の演出テンプレートを選択する。具体的には、演出テ
ンプレートを選択する際に、感情レベルパラメータに基
づいて、キーインデックスとして使用する感情種類情報
および感情表現の程度を決定し、演出定義データベース
403から該当する全ての演出テンプレートを選択す
る。
The effect template selection unit 404 inputs a video file, determines the degree of emotion expression based on the emotion level parameter for each image file, and obtains an emotion expression corresponding to the degree of emotion expression from the effect definition database 403. Select a production template. Specifically, when selecting an effect template, the emotion type information and the degree of emotion expression to be used as a key index are determined based on the emotion level parameter, and all applicable effect templates are selected from the effect definition database 403. I do.

【0095】また、演出テンプレート選択部404は、
1つの映像ファイルの感情レベルパラメータが複数の感
情レベルパラメータで構成されている場合には、演出テ
ンプレートを選択する際に、複数の感情レベルパラメー
タに基づいて、キーインデックスとして使用する複数の
感情種類情報および複数の感情種類情報の感情表現の程
度を決定し、演出定義データベースから該当する全ての
演出テンプレートを選択する。
The effect template selection unit 404
When the emotion level parameter of one video file is composed of a plurality of emotion level parameters, a plurality of emotion type information to be used as a key index based on the plurality of emotion level parameters when selecting an effect template. Then, the degree of the emotional expression of the plurality of pieces of emotion type information is determined, and all corresponding effect templates are selected from the effect definition database.

【0096】演出処理部405は、番組定義ファイル、
映像ファイルおよび演出テンプレートを入力し、1つの
映像ファイル毎に選択した演出テンプレートに基づい
て、少なくとも映像シーンの再生タイミングと、仮想キ
ャラクタの音声として出力するイベント説明文、前書き
説明文、後書き説明文の設定および音声の出力タイミン
グと、仮想キャラクタの動作とを設定することにより、
映像ファイル単位の番組演出処理を行う。また、このと
き、使用する番組定義ファイルは、指定手段を介して指
定された番組定義ファイルを使用する。
The effect processing unit 405 includes a program definition file,
A video file and a rendering template are input, and at least the playback timing of a video scene and an event description, a preamble description, and a postscript description output as audio of a virtual character based on the rendering template selected for each video file. By setting the setting and output timing of the voice, and the operation of the virtual character,
Performs program production processing for each video file. At this time, the program definition file to be used uses the program definition file specified via the specifying means.

【0097】以上の構成において、図9を参照してダイ
ジェスト映像の番組化装置400の処理の概略について
説明する。ダイジェスト映像の番組化装置400は、先
ず、映像内容説明文生成装置200で生成した入力ファ
イル(前書き説明文、イベント説明文、後書き説明文、
スーパー、感情レベルパラメータ)と映像(ダイジェス
ト映像用の各映像シーン)とを入力する。当然ながらダ
イジェスト映像用の映像シーンは複数出力され、各映像
シーン毎に、上記の入力ファイルが生成されて出力され
る。映像シーンによっては、前書き説明文および後書き
説明文がない場合もある。
In the above configuration, an outline of the processing of the digest video programmer 400 will be described with reference to FIG. The digest video programmer 400 first inputs the input files (foreword description, event description, postscript description) generated by the video content description generator 200.
Super and emotion level parameters) and video (each video scene for digest video) are input. Naturally, a plurality of video scenes for the digest video are output, and the input file is generated and output for each video scene. Depending on the video scene, there may be no foreword explanation and afterword explanation.

【0098】また、実施の形態1〜3で説明したように
上記の3つの説明文には、感情表現、接続表現および階
層構造表現が既に含まれている。映像内容説明文生成装
置200において感情表現を作成する基となった感情レ
ベルパラメータ(感情種類情報を有する度合い値)は、
映像シーンの演出決定に利用するため、そのままダイジ
ェスト映像の番組化装置400に渡される。
Further, as described in the first to third embodiments, the above three explanations already include an emotion expression, a connection expression, and a hierarchical structure expression. The emotion level parameter (degree value having emotion type information) from which the emotion expression is created in the video content explanation generating apparatus 200 is
The digest video is passed to the programmer 400 as it is for use in determining the effect of the video scene.

【0099】映像ファイル生成部401は、図9のS9
01で示すように、入力した映像シーン、前書き説明
文、イベント説明文、後書き説明文、スーパーおよび感
情レベルパラメータを対応させて映像ファイルを生成す
る。
The video file generation unit 401 performs the processing in S9 of FIG.
As indicated by 01, a video file is generated in correspondence with the input video scene, preamble description, event description, postscript description, super and emotion level parameters.

【0100】演出テンプレート選択部404は、図9の
S902〜S904で示すように、1つの映像ファイル
毎(すなわち、映像シーン毎)に感情レベルパラメータ
から感情ID(感情表現の程度)を決定する。具体的に
は、予め感情表現定義ファイルとして、感情ID毎に感
情レベルパラメータの数値(レベル値)の適用範囲を定
義しておき、1シーン毎に、感情レベルパラメータから
属する感情IDを求め(S902,S903)、求めた
感情IDをキーインデックス(検索キー)として演出定
義データベース403から該当する全ての演出テンプレ
ートを選択する。
The effect template selection unit 404 determines the emotion ID (degree of emotion expression) from the emotion level parameter for each video file (that is, for each video scene) as shown in S902 to S904 in FIG. Specifically, the application range of the value (level value) of the emotion level parameter is defined for each emotion ID in advance as the emotion expression definition file, and the emotion ID belonging to the emotion level parameter is determined for each scene (S902). , S903), and selects all applicable effect templates from the effect definition database 403 using the obtained emotion ID as a key index (search key).

【0101】ここで、感情レベルパラメータが複数の感
情レベルパラメータで構成されている場合には、複数の
感情レベルパラメータが定義されている感情IDを対象
とし、複数の感情レベルパラメータをキーインデックス
として全ての感情レベルパラメータがマッチングする感
情IDを決定し、演出定義データベース403から該当
する全ての演出テンプレートを選択する。例えば、感情
レベルパラメータがp1とp2の2つであった場合、
(p1:−5〜−3)and(p2:5〜6)の範囲の
場合、感情IDを「悔しくて残念」とする。
Here, when the emotion level parameter is composed of a plurality of emotion level parameters, the emotion ID in which the plurality of emotion level parameters are defined is targeted, and the plurality of emotion level parameters are all used as key indexes. Is determined, and all the effect templates are selected from the effect definition database 403. For example, if the emotion level parameters are two, p1 and p2,
In the case of (p1: -5 to -3) and (p2: 5 to 6), the emotion ID is set to "regret and disappointment".

【0102】感情表現定義ファイルには、感情IDとそ
の感情IDの値範囲パターンの定義が複数並んでいる
が、上から順番にみていき、始めにパターンマッチした
感情IDが選ばれる。
In the emotion expression definition file, a plurality of definitions of the emotion ID and the value range pattern of the emotion ID are arranged, and the emotion ID that matches the pattern first is examined in order from the top.

【0103】次に、演出テンプレート選択部404は、
選択した感情IDと対応する演出テンプレートを選ぶ
が、基本的には、感情IDと予め用意したある演出テン
プレートの関係は1対多の関係である。1つの感情ID
に複数の演出テンプレートを用意しておく理由は、番組
としてつまらないものにならないように演出に多様性を
もたせるためである。例えば、『非常に嬉しい』という
感情IDに対して、以下の演出方法が定義された4つの
演出テンプレートの集合を用意しておくこにより、『非
常に嬉しい』シーンが来ると、適宜、その中から演出テ
ンプレートを1つ選択することが可能となる。 (演出方法1) 顔を真っ赤にさせて立ち上がる (演出方法2) 嬉し涙を流す (演出方法3) 万歳三唱する (演出方法4) くす玉を割って鳩を飛ばす
Next, the effect template selection unit 404
The effect template corresponding to the selected emotion ID is selected. Basically, the relationship between the emotion ID and a certain effect template prepared in advance is a one-to-many relationship. One emotion ID
The reason why a plurality of effect templates are prepared in order to provide the effect with diversity so as not to become a boring program. For example, for the emotion ID “Very happy”, a set of four production templates that define the following production methods is prepared, so that when the “Very happy” scene comes, , One of the effect templates can be selected. (Direction Method 1) Make your face bright red and stand up (Direction Method 2) Weep with tears (Direction Method 3) Sing for three years (Direction Method 4) Break a ball and fly a dove

【0104】演出テンプレートを定義する際に注意すべ
き点は、始めに演出環境の枠組み(番組環境情報)を設
定することである。例えば、出演する仮想キャラクタは
何人か、小道具として何を使うか、などを決めておく必
要がある。同様に番組定義ファイル中にも番組環境とし
ても設定しておく必要がある。このように演出テンプレ
ートと番組定義ファイルの両方に番組環境(演出環境)
を設定することで、1つの番組中、一貫して同じ環境を
用いることができる。
A point to be noted when defining an effect template is to first set an effect environment framework (program environment information). For example, it is necessary to determine how many virtual characters to appear, what to use as props, and the like. Similarly, it is necessary to set the program environment in the program definition file. Thus, the program environment (production environment) is stored in both the production template and the program definition file.
Is set, the same environment can be used consistently during one program.

【0105】例えば、キャスタ役の仮想キャラクタが2
人であると、始めに決めて、該当する番組定義ファイル
を決定したら、演出(演出テンプレート)も2人という
環境の枠組みに合致するものだけを組み合わせる。演出
テンプレートと番組定義ファイルには、環境識別子(番
組環境情報)を記載し、同じ環境であることの確認に用
いる。
For example, if the caster virtual character is 2
If a person is determined first and a corresponding program definition file is determined, then only effects (effect templates) that match the environment framework of two people are combined. An environment identifier (program environment information) is described in the effect template and the program definition file, and is used to confirm that the environment is the same.

【0106】実施の形態4において、演出テンプレート
および番組定義ファイルはPVMLで記述する。また、
演出テンプレートを作成する際、以下の2種類の変数を
使って演出を定義する。 (変数1) 映像内容説明文生成装置200から渡され
る情報 例:『イベント説明文』は、変数&enetscrip
t (変数2) 番組定義ファイル中で定義した項目 例:仮想キャラクタは&Castnn(nnは添字)音
楽や効果音ファイルは&Soundnn
In the fourth embodiment, the effect template and the program definition file are described in PVML. Also,
When creating an effect template, the effect is defined using the following two types of variables. (Variable 1) Information passed from the video content description generation device 200 Example: “Event description” is a variable & etetscript
t (Variable 2) Items defined in the program definition file Example: Virtual characters are & Castnn (nn is a subscript) Music and sound effect files are & Soundnn

【0107】演出テンプレートは、定義した変数を使っ
てPVMLコードを書くだけなので、コンテンツ間の同
期は自由に記述できる。例えば、以下に示すような同期
の取り方が考えられる。 (1)始めに前書き説明文を仮想キャラクタが喋る。 (2)次に、以下を並列で行う。 (2a)映像シーンの再生 (2b)イベント説明文の喋り (2c)スーパー(キャプション)表示 (3)その後、後書き説明文を喋る。
Since the effect template merely writes the PVML code using the defined variables, the synchronization between the contents can be freely described. For example, the following synchronization method can be considered. (1) First, a virtual character speaks a foreword explanation. (2) Next, the following is performed in parallel. (2a) Reproduction of video scene (2b) Talking of event description (2c) Super (caption) display (3) After that, a postscript description is spoken.

【0108】演出処理部405は、図9に示すS905
を実行する。先ず、番組定義ファイル、映像ファイルお
よび演出テンプレートを入力し、1つの映像ファイル毎
に選択した演出テンプレートに基づいて、少なくとも映
像シーンの再生タイミングと、仮想キャラクタの音声と
して出力するイベント説明文、前書き説明文、後書き説
明文の設定および音声の出力タイミングと、仮想キャラ
クタの動作とを設定することにより、映像ファイル単位
の番組演出処理を行う。また、このとき、使用する番組
定義ファイルは、指定手段を介して指定された番組定義
ファイルを使用する。
[0108] The effect processing unit 405 performs the processing in S905 shown in FIG.
Execute First, a program definition file, a video file, and an effect template are input, and based on the effect template selected for each image file, at least a reproduction timing of a video scene, an event description to be output as a sound of a virtual character, and a preamble description. By setting the sentence, the postscript description, the output timing of the sound, and the motion of the virtual character, the program effect processing is performed for each video file. At this time, the program definition file to be used uses the program definition file specified via the specifying means.

【0109】さらに、演出テンプレート選択部404で
選択された演出テンプレートが複数存在する場合、各演
出テンプレートの番組環境情報を参照して指定手段を介
して指定された番組定義ファイルの番組環境と合致(マ
ッチング)するか否かを判定し、合致する演出テンプレ
ート(すなわち、実行可能な演出テンプレート)の1つ
を選択し、映像ファイル単位の番組演出処理を行う。
Further, when there are a plurality of effect templates selected by the effect template selection unit 404, the program environment information of each effect template is referred to and matched with the program environment of the program definition file specified via the specifying means ( It is determined whether or not matching is performed, and one of the effect templates (that is, executable effect templates) that match is selected, and a program effect process is performed for each video file.

【0110】また、演出テンプレート選択部404は、
実行可能な演出テンプレートの1つを選択した後、演出
テンプレートに使用回数限定情報が設定されている場
合、選択した演出テンプレートを過去に使用した回数と
使用回数限定情報とを比較して使用可能であるか否かを
判定し、使用可能でない場合には、他の実行可能な演出
テンプレートを選択する。
The effect template selection unit 404
After selecting one of the effect templates that can be executed, if the number-of-times-of-use information is set in the effect template, the number of times the selected effect template was used in the past and the number-of-times-of-use information can be compared and used. It is determined whether or not there is, and if not usable, another executable effect template is selected.

【0111】具体的には、演出処理部405は、各映像
シーンの演出テンプレートを決めた後、番組定義ファイ
ルを参照しながら、各映像シーンの演出テンプレート
(PVMLコード)の上記変数に実際のデータを埋め込
んでいく。図9の処理フローでは、最後にまとめて最終
的にPVMLコードを作成するバッチ処理を示してい
る。一方、番組利用者と対話的に処理を進めたい場合
は、各映像シーン毎にPVMLコードを生成して実行す
るという逐次処理を行う。
Specifically, the effect processing unit 405 determines the effect template of each video scene, and then refers to the program definition file and stores the actual data in the above-mentioned variable of the effect template (PVML code) of each video scene. I will embed. The processing flow of FIG. 9 illustrates batch processing for finally creating a PVML code in a lump. On the other hand, when it is desired to proceed with the process interactively with the program user, a sequential process of generating and executing a PVML code for each video scene is performed.

【0112】さらに、図9のS906で示すように、ま
とまった動作や演出をサブルーチン化して共有するため
の別定義群ファイルを作成し、演出がカプセル化された
別定義群ファイルを指定して一連の演出を選択するよう
にもできる。
Further, as shown in S906 in FIG. 9, a separate definition group file is created for sharing a group of operations and effects in a subroutine, and a separate definition group file in which the effects are encapsulated is designated to create a series. You can also choose to direct the production.

【0113】前述したように演出処理部405は、映像
ファイル単位の番組演出処理として、1つの映像ファイ
ルの演出テンプレートの選択が終了すると、使用する演
出テンプレートを選択して処理する逐次処理と、全ての
映像ファイルの演出テンプレートの選択が終了するのを
待って、各映像ファイルで使用する演出テンプレートを
選択した後、処理するバッチ処理とを有している。
[0113] As described above, when the selection of an effect template for one video file is completed, the effect processing unit 405 selects the effect template to be used as a program effect process for each image file, After the effect template of the video file has been selected, a batch process is performed in which the effect template to be used in each video file is selected and then processed.

【0114】バッチ処理を行う際の他の変形例として、
例えば、演出テンプレート選択部404で選択された全
ての演出テンプレートを参照して、感情種類情報および
感情表現の程度が同一である演出テンプレートの集合毎
に、その集合が選択された回数を求め、複数回選択され
た集合のうち、1つの集合の中に異なる演出テンプレー
トが複数存在する場合、それぞれの演出テンプレートの
選択回数が均一になるように演出テンプレートを選択す
るようにしても良い。換言すれば、各感情ID毎に選択
された回数を求め、複数回選択された感情IDのうち、
複数の演出テンプレートを選択する感情IDについて、
それぞれの演出テンプレートの選択回数が均一になるよ
うに演出テンプレートを選択する。
As another modified example of performing the batch processing,
For example, by referring to all the effect templates selected by the effect template selection unit 404, for each set of effect templates having the same degree of emotion type information and emotional expression, the number of times the set has been selected is calculated. When a plurality of different effect templates exist in one set among the sets selected multiple times, the effect templates may be selected so that the number of times of selecting each effect template is uniform. In other words, the number of times selected for each emotion ID is obtained, and among the emotion IDs selected a plurality of times,
Regarding the emotion ID for selecting multiple effect templates,
The effect templates are selected such that the number of selections of each effect template is uniform.

【0115】さらに、バッチ処理を行う際の他の変形例
として、演出処理部405は、理手段は、指定情報が設
定されてる演出テンプレートが存在する場合、該当する
演出テンプレートが選択された全ての映像ファイルの感
情レベルパラメータを相対的に比較し、該当する演出テ
ンプレートを最大の感情レベルパラメータまたは最小の
感情レベルパラメータを有する映像ファイルの番組演出
処理のみに使用するようにしても良い。
Further, as another modified example of performing the batch processing, the effect processing unit 405 determines that if there is an effect template in which the specified information is set, all the effect templates for which the corresponding effect template has been selected are selected. The emotion level parameters of the video files may be relatively compared, and the corresponding effect template may be used only for the program effect processing of the video file having the maximum emotion level parameter or the minimum emotion level parameter.

【0116】次に、図10(a)、(b)を参照して、
実施の形態4のTV408に表示されるダイジェスト映
像の番組の画面例について説明する。TV408の画面
(PVUI画面)は図示の如く、映像再生および字幕・
文字スーパーを表示する素材表示エリア1001と、仮
想キャラクタの動作やスタジオ演出効果(セット、照
明、カメラ位置などを含む)の表示に使用するスタジオ
エリア1002と、利用者(視聴者)による操作メニュ
ー選択に使用する操作メニューエリア1003とから成
る3つの論理的エリアから構成される。
Next, referring to FIGS. 10A and 10B,
A screen example of a digest video program displayed on the TV 408 according to the fourth embodiment will be described. The screen of the TV 408 (PVUI screen) is shown in FIG.
A material display area 1001 for displaying a superimposed character, a studio area 1002 for displaying the action of a virtual character and a studio effect (including set, lighting, camera position, etc.), and an operation menu selection by a user (viewer) And an operation menu area 1003 to be used.

【0117】実施の形態4では、上記エリアの数は各1
個とし、重ね合わせなしのタイル貼りレイアウトとす
る。マルチウィンドウの表示形態としてタイル貼りレイ
アウトを使用するのは、重ね合わせて表示するより、コ
ンピュータに不慣れな利用者に馴染み易いと考えたから
であり、利用者のコンピュータ操作スキルに応じて、表
示形態を選択可能としても良い。
In the fourth embodiment, the number of areas is 1
It is a tiled layout without overlapping. The reason why the tiled layout is used as the multi-window display mode is that it is easier for users who are unfamiliar with computers to adjust to the display mode, depending on the user's computer operation skills. It may be selectable.

【0118】図11は、実施の形態4のダイジェスト映
像の番組化装置400でダイジェスト映像の番組として
作成された最終的なPVMLコードの例を示す。先ず、
ダイジェスト映像の1つの映像シーンに対して、先ず仮
想キャラクタ(BOB)が前書き説明文を喋り、その
後、仮想キャラクタ(BOB)によるイベント説明文の
喋りと、映像シーンの再生が並列に行われるように記述
したものである。
FIG. 11 shows an example of a final PVML code created as a digest video program by the digest video programmer 400 according to the fourth embodiment. First,
For one video scene of the digest video, first, the virtual character (BOB) speaks the preamble description, and then the event description by the virtual character (BOB) and the reproduction of the video scene are performed in parallel. It is described.

【0119】なお、<head>部分が番組定義ファイ
ルの部分に相当し、<body>部分が番組本体であ
る。並列処理および逐次処理はそれぞれ<par>、<
seq>タグで記述する。
The <head> portion corresponds to the program definition file portion, and the <body> portion is the program body. Parallel processing and sequential processing are <par>, <
seq> tag.

【0120】PVMLの言語仕様は、原則は、<メソッ
ド、対象オブジェクト、メソッドに関するパラメータ列
>であるが、対象オブジェクトに対して多数のメソッド
を記述した場合もあるので、以降のメソッド列に対して
対象オブジェクトを指定するタグとして“<set>”
を用意した。万歳動作のようなよく使うマクロは、PV
MLのライブラリとして予め別途定義しておく。
The language specification of the PVML is basically <method, target object, parameter sequence related to method>. However, since there are cases where a large number of methods are described for the target object, the following method sequence is used. "<Set>" as a tag to specify the target object
Was prepared. A frequently used macro such as hurray movement is PV
It is separately defined in advance as an ML library.

【0121】<head>部に記載された位置レイアウ
ト記述について説明する。予めhead部のレイアウト
指定において、画面の左右に垂直分割(<vertic
al>)、その後、左半分に対して水平分割(<hor
isontal>)を行っている。この分割ツリー情報
の関係は保持したまま、サイズの連動が起こる。よって
以下のようなサイズ変更により、操作メニューエリアは
大きくなり、スタジオエリアは小さくなる。図10
(a)に示す画面の場合、図10(b)に示す画面のよ
うに変更される。 <viewchange area="display" duration="2" dstx="0" dsty="0" dstheight="500" dstwidth="500"/>
The position layout description described in the <head> section will be described. In advance, when the layout of the head section is designated, the screen is divided vertically (<vertic
al>), and then horizontal division (<hor
isontal>). The size is linked while maintaining the relationship of the divided tree information. Therefore, the operation menu area becomes large and the studio area becomes small by the following size changes. FIG.
In the case of the screen shown in (a), the screen is changed to the screen shown in FIG. <viewchange area = "display" duration = "2" dstx = "0" dsty = "0" dstheight = "500" dstwidth = "500"/>

【0122】実施の形態4で使用したPVMLはSMI
LとTVMLの持つ各種機能を呼び出して使用するの
で、演出の内容はSMILおよびTVMLの仕様に制約
されることになるが、記述言語は特に限定するものでは
なく、本発明のダイジェスト映像の番組化方法およびダ
イジェスト映像の番組化装置において他の記述言語が適
用可能であることは明らかである。
The PVML used in Embodiment 4 is SMI
Since the various functions of L and TVML are called and used, the contents of the production are restricted by the specifications of SMIL and TVML. However, the description language is not particularly limited, and the digest video of the present invention is converted into a program. Obviously, other description languages are applicable in the method and the digest video programming device.

【0123】前述した実施の形態4においては、仮想キ
ャラクタの解説(前書き説明文、イベント説明文、後書
き説明文の音声出力)とダイジェスト映像の各映像シー
ンの再生、およびスーパーの表示の間で容易に整合性を
保って同期をとることができる。これにより、説明の分
かりやすいプレゼンテーションを行うことができる。ま
た、作成した番組の中で、仮想キャラクタにダイジェス
ト映像の内容を説明・解説させると共に、実施の形態2
の映像内容説明文生成装置200で計算された度合い値
(感情レベルパラメータ)を用いて、仮想キャラクタに
喜怒哀楽の演出を施すので、作成された番組を評価した
場合、その感情表現は視聴者にとって理解を助け馴染み
易い、違和感のないものとすることができた。
In the fourth embodiment described above, it is easy to switch between the explanation of the virtual character (the audio output of the foreword explanation, the event explanation, and the postscript explanation), the reproduction of each video scene of the digest video, and the display of the supermarket. Can be synchronized while maintaining consistency. This makes it possible to give a presentation that is easy to understand. Also, in the created program, the virtual characters are explained and explained by the virtual characters, and the second embodiment is used.
Of the virtual character using the degree value (emotion level parameter) calculated by the video content description generation device 200, the emotion expression is expressed by the viewer when the created program is evaluated. Helped them understand and became familiar and comfortable.

【0124】以上説明した実施の形態4に係るダイジェ
スト映像の番組化方法は、前述した説明で示した手順に
従って予め用意したプログラムをコンピュータで実行す
ることによって実現することができる。このプログラム
は、ハードディスク、フロッピーディスク、CD−RO
M、MO、DVD等のコンピュータで読み取り可能な記
録媒体に記録されて提供される。またはネットワークを
介して配布することができる。
[0124] The above-described method for converting a digest video to a program according to the fourth embodiment can be realized by executing a previously prepared program on a computer in accordance with the procedure described in the above description. This program is for hard disk, floppy disk, CD-RO
It is provided by being recorded on a computer-readable recording medium such as M, MO, and DVD. Or it can be distributed over a network.

【0125】[0125]

【発明の効果】以上説明したように、本発明の映像内容
の説明文生成方法(請求項1,2)によれば、文字情報
から各映像シーンの内容を判定し、前後の映像シーンの
関係により、順接、逆接、並列、添加、選択等の中から
接続表現を選択し、選択した接続表現を用いて、該当す
る前後の映像シーンの説明文を接続した映像内容の説明
文を生成するため、各映像シーンから生成した説明文の
前後のつながりや、関連性を明瞭にして、視聴者(利用
者)にとって違和感のないスムーズな文章の流れの説明
文を生成することができる。
As described above, according to the method for generating a description of a video content according to the present invention (claims 1 and 2), the content of each video scene is determined from character information and the relationship between the preceding and following video scenes is determined. Thus, a connection expression is selected from among sequential connection, reverse connection, parallel, addition, selection, etc., and a description of the video content is generated by connecting the description of the previous and next video scenes using the selected connection expression. Therefore, it is possible to clarify the connection before and after and the relevance of the description generated from each video scene, and generate a description of the flow of the text that is smooth for the viewer (user) without discomfort.

【0126】また、本発明の映像内容の説明文生成方法
(請求項3)によれば、請求項2に記載の映像内容の説
明文生成方法において、階層構造を用いて構造化された
映像ストリームから検索結果として得られた各映像シー
ンのある階層の映像シーンについての説明文を生成する
際に、階層構造を利用して、当該階層の映像シーンの映
像内容を示す説明文と共に、当該階層の映像シーンの上
位の階層の映像シーンの文字情報から説明文の前書きと
なる前書き文を生成するため、検索結果である各映像シ
ーンが、前後の映像シーンの中でどのような意味を持つ
のかを明確するための概要説明的な文章として、前書き
文を生成することができる。
According to the video content description generating method of the present invention (claim 3), in the video content description generating method of claim 2, the video stream structured using a hierarchical structure is provided. When generating a description of a video scene of a certain hierarchy of each video scene obtained as a search result from the search result, a description of the video content of the video scene of the hierarchy is used together with a description of the video scene of the hierarchy using the hierarchical structure. In order to generate an introductory sentence that is the preamble of the explanatory note from the character information of the video scene in the upper layer of the video scene, it is necessary to determine the meaning of each video scene that is the search result in the preceding and following video scenes An introductory sentence can be generated as a brief explanatory sentence for clarity.

【0127】また、本発明の映像内容の説明文生成方法
(請求項4)によれば、請求項2または3に記載の映像
内容の説明文生成方法において、階層構造を用いて構造
化された映像ストリームから検索結果として得られた各
映像シーンのある階層の映像シーンについての説明文を
生成する際に、階層構造を利用して、当該階層の映像シ
ーンの映像内容を示す説明文と共に、当該階層の映像シ
ーンの上位の階層の映像シーンの文字情報から説明文の
後書きとなる後書き文を生成するため、検索結果である
各映像シーンが、前後の映像シーンの中でどのような意
味を持つのかを明確するための概要説明的な文章とし
て、後書き文を生成することができる。
According to the method for generating a description of a video content according to the present invention (claim 4), the method for generating a description of a video content according to claim 2 or 3 is structured using a hierarchical structure. When generating a description of a video scene of a certain hierarchy of each video scene obtained as a search result from the video stream, the hierarchical structure is used, together with a description showing the video content of the video scene of the hierarchy, and In order to generate a postscript sentence that is a postscript of the explanatory note from the character information of the video scene of the higher hierarchical level of the video scene of the hierarchical level, what meaning does each video scene as a search result have in the preceding and following video scenes It is possible to generate a trailer sentence as a brief explanatory sentence for clarifying the fact.

【0128】また、本発明の映像内容の説明文生成方法
(請求項5、6)によれば、映像シーンの説明文を生成
する際に、予め設定されている利用者の嗜好情報を用い
て、説明文の文章表現を利用者の嗜好に応じて変化させ
るため、視聴者(利用者)の嗜好を反映した説明文を生
成することができる。
Further, according to the method of generating a description of a video content according to the present invention (claims 5 and 6), when generating a description of a video scene, a user's preference information set in advance is used. Since the sentence expression of the description is changed according to the user's preference, it is possible to generate a description reflecting the preference of the viewer (user).

【0129】また、本発明の映像内容の説明文生成方法
(請求項7)によれば、請求項5または6に記載の映像
内容の説明文生成方法において、予め映像シーン毎に、
その映像内容に対する利用者の感情的な変化の度合いを
計算するための複数のパラメータを感情度パラメータと
して定義しておき、説明文の文章表現を利用者の嗜好に
応じて変化させる際に、各映像シーンに対応する感情度
パラメータおよび嗜好情報を用いて、各映像シーンに対
する利用者の感情的な反応の度合い値を計算し、度合い
値に基づいてその映像シーンの映像内容を説明する説明
文に、感情表現を示す感情表現文を付加するため、さら
に視聴者(利用者)の感覚に適合させて、嗜好を反映し
た説明文を生成することができる。換言すれば、利用者
の感情的な反応の度合い値に対応させて、より柔軟に
(または段階的に)嗜好を反映した説明文を生成するこ
とにより、利用者の嗜好に沿ったパーソナルな説明文を
作成することが可能となる。
According to the method of generating a description of a video content of the present invention (claim 7), in the method of generating a description of a video content according to claim 5 or 6,
A plurality of parameters for calculating the degree of emotional change of the user with respect to the video content are defined as emotion degree parameters, and when changing the sentence expression of the description according to the user's preference, Using the emotion degree parameter and the preference information corresponding to the video scene, the degree value of the emotional reaction of the user to each video scene is calculated, and a description describing the video content of the video scene based on the degree value is calculated. In addition, since an emotion expression sentence indicating an emotion expression is added, a description sentence reflecting tastes can be generated in accordance with the sense of the viewer (user). In other words, by generating a description reflecting the preference more flexibly (or stepwise) in accordance with the degree value of the emotional reaction of the user, a personal description according to the preference of the user is generated. A sentence can be created.

【0130】また、本発明の映像内容の説明文生成方法
(請求項8)によれば、請求項7に記載の映像内容の説
明文生成方法において、感情度パラメータの複数のパラ
メータは、映像シーンに付加され文字情報の内容と嗜好
情報の内容との組み合わせによって度合いが数値化さ
れ、該数値化された度合いを用いて度合い値を計算する
ため、さらに視聴者(利用者)の感覚に適合させて、嗜
好を反映した説明文を生成することができる。換言すれ
ば、利用者の感情的な反応の度合い値に対応させて、よ
り柔軟に(または段階的に)に感情表現文を付加でき、
さらに利用者の嗜好を反映したパーソナルな説明文を作
成することができる。
According to the method of generating a description of a video content according to the present invention (claim 8), in the method of generating a description of video content according to claim 7, a plurality of parameters of the emotion degree parameter are set in the video scene. The degree is quantified by a combination of the contents of the character information and the contents of the taste information added to the information, and the degree value is calculated using the quantified degree, so that the degree is further adapted to the sense of the viewer (user). Thus, it is possible to generate an explanatory sentence reflecting tastes. In other words, it is possible to flexibly (or gradually) add an emotional expression sentence according to the degree of emotional reaction of the user,
Further, it is possible to create a personal description that reflects the user's preference.

【0131】また、本発明の映像内容説明文生成装置
(請求項9、10)によれば、文字情報から各映像シー
ンの内容を判定する映像内容判定手段と、映像内容判定
手段の判定結果に基づいて、前後の映像シーンの関係に
より、順接、逆接、並列、添加、選択の中から接続表現
を選択する接続表現選択手段と、を備え、説明文生成手
段が、接続表現選択手段で選択した接続表現を用いて、
該当する前後の映像シーンの説明文を接続するため、各
映像シーンから生成した説明文の前後のつながりや、関
連性を明瞭にして、視聴者(利用者)にとって違和感の
ないスムーズな文章の流れの説明文を生成することがで
きる。
Further, according to the video content description generating apparatus of the present invention (claims 9 and 10), the video content determination means for determining the content of each video scene from the character information and the determination result of the video content determination means are provided. Connection expression selection means for selecting a connection expression from forward, reverse, parallel, addition, and selection based on the relationship between the preceding and following video scenes, and the description generating means selects the connection expression by the connection expression selecting means Using the connection expression
Smooth text flow without any discomfort for viewers (users) by clarifying the connections and relevance of the descriptions generated from each video scene, by connecting the descriptions of the relevant video scenes before and after Can be generated.

【0132】また、本発明の映像内容説明文生成装置
(請求項11)によれば、請求項10に記載の映像内容
説明文生成装置において、説明文生成手段が、階層構造
を用いて構造化された映像ストリームから検索結果とし
て得られた各映像シーンのある階層の映像シーンについ
ての説明文を生成する際に、階層構造を利用して、当該
階層の映像シーンの映像内容を示す説明文と共に、当該
階層の映像シーンの上位の階層の映像シーンの文字情報
から説明文の前書きとなる前書き文を生成するため、検
索結果である各映像シーンが、前後の映像シーンの中で
どのような意味を持つのかを明確するための概要説明的
な文章として、前書き文を生成することができる。
According to the video content explanation generating apparatus of the present invention (claim 11), in the video content explanation generating apparatus according to claim 10, the explanation generating means is structured using a hierarchical structure. When generating a description for a video scene of a certain hierarchy of each video scene obtained as a search result from the searched video stream, a hierarchical structure is used together with a description showing the video content of the video scene of the hierarchy. In order to generate an introductory sentence that is an introductory sentence of the explanatory note from the character information of the video scene of the upper layer of the video scene of the relevant layer, the meaning of each video scene as a search result is For example, a preamble sentence can be generated as an outline explanatory sentence for clarifying whether or not the sentence has the text.

【0133】また、本発明の映像内容説明文生成装置
(請求項12)によれば、請求項10または11に記載
の映像内容説明文生成装置において、説明文生成手段
が、階層構造を用いて構造化された映像ストリームから
検索結果として得られた各映像シーンのある階層の映像
シーンについての説明文を生成する際に、階層構造を利
用して、当該階層の映像シーンの映像内容を示す説明文
と共に、当該階層の映像シーンの上位の階層の映像シー
ンの文字情報から説明文の後書きとなる後書き文を生成
するため、検索結果である各映像シーンが、前後の映像
シーンの中でどのような意味を持つのかを明確するため
の概要説明的な文章として、後書き文を生成することが
できる。
Further, according to the video content description generating apparatus of the present invention (claim 12), in the video content description generating apparatus according to claim 10 or 11, the description generating means uses a hierarchical structure. When generating a description of a video scene of a certain hierarchy of each video scene obtained as a search result from the structured video stream, a description showing the video content of the video scene of the hierarchy using the hierarchical structure In addition to the sentence, in order to generate a postscript sentence that is a postscript of the explanatory note from the character information of the video scene of the higher hierarchy of the video scene of the relevant hierarchy, how each video scene as a search result is It is possible to generate a postscript sentence as an outline explanatory sentence for clarifying the meaning.

【0134】また、本発明の映像内容説明文生成装置
(請求項13)によれば、予め映像シーン毎に、その映
像内容に対する利用者の感情的な変化の度合いを計算す
るための複数のパラメータを感情度パラメータとして定
義して記憶した記憶手段と、利用者の嗜好情報を設定す
るための設定手段と、各映像シーンに対応する感情度パ
ラメータおよび嗜好情報を用いて、各映像シーンに対す
る利用者の感情的な反応の度合い値を計算する計算手段
と、を備え、説明文生成手段が、文字情報を用いて映像
シーンの映像内容を説明する説明文を生成する際に、度
合い値に基づいて感情表現を示す感情表現文を付加する
ため、視聴者(利用者)の感覚に適合させて、嗜好を反
映した説明文を生成することができる。換言すれば、利
用者の感情的な反応の度合い値に対応させて、より柔軟
に(または段階的に)嗜好を反映した説明文を生成する
ことにより、利用者の嗜好に沿ったパーソナルな説明文
を作成することが可能となる。
Further, according to the video content description generating apparatus of the present invention (claim 13), for each video scene, a plurality of parameters for calculating the degree of emotional change of the user with respect to the video content in advance. Means for defining and storing an emotion degree parameter as an emotion degree parameter, setting means for setting user preference information, and a user for each video scene using the emotion degree parameter and preference information corresponding to each video scene. Calculating means for calculating a degree value of the emotional reaction of the subject, wherein the description generating means generates a description explaining the video content of the video scene using the character information, based on the degree value Since an emotional expression sentence indicating an emotional expression is added, it is possible to generate an explanatory sentence reflecting tastes in conformity with the sense of the viewer (user). In other words, by generating a description reflecting the preference more flexibly (or stepwise) in accordance with the degree value of the emotional reaction of the user, a personal description according to the preference of the user is generated. A sentence can be created.

【0135】また、本発明の映像内容説明文生成装置
(請求項14)によれば、請求項13に記載の映像内容
説明文生成装置において、感情度パラメータの複数のパ
ラメータは、映像シーンに付加され文字情報の内容と嗜
好情報の内容との組み合わせによって度合いが数値化さ
れ、計算手段が、数値化された度合を用いて度合い値を
計算するため、さらに視聴者(利用者)の感覚に適合さ
せて、嗜好を反映した説明文を生成することができる。
換言すれば、利用者の感情的な反応の度合い値に対応さ
せて、より柔軟に(または段階的に)に感情表現文を付
加でき、利用者の嗜好を反映したパーソナルな説明文を
作成することができる。
According to the video content description generating apparatus of the present invention (claim 14), in the video content description generating apparatus of claim 13, a plurality of emotion degree parameters are added to the video scene. The degree is quantified by the combination of the contents of the text information and the contents of the taste information, and the calculation means calculates the degree value using the quantified degree. In this way, it is possible to generate an explanatory sentence reflecting the preference.
In other words, an emotional expression can be added more flexibly (or stepwise) according to the degree of emotional reaction of the user, and a personalized description reflecting the user's preference is created. be able to.

【0136】また、本発明のコンピュータ読み取り可能
な記録媒体(請求項15)によれば、請求項1〜8のい
ずれか一つに記載の映像内容の説明文生成方法をコンピ
ュータに実行させるためのプログラムを記録しておき、
このプログラムをコンピュータで読み出して実行するこ
とにより、請求項1〜8のいずれか一つに記載の映像内
容の説明文生成方法と同様の効果を奏することができ
る。
According to a computer-readable recording medium of the present invention (claim 15), a method for causing a computer to execute the method for generating a description of a video content according to any one of claims 1 to 8 is provided. Record the program,
By reading and executing this program by a computer, the same effect as the method for generating a description of a video content according to any one of claims 1 to 8 can be achieved.

【0137】また、本発明のダイジェスト映像の番組化
方法(請求項16)によれば、映像シーンおよび映像内
容の説明文と共に、各映像シーンの映像内容に対する仮
想キャラクタの感情的な反応の度合い値を入力し、各映
像シーン毎に度合い値に基づいて仮想キャラクタの感情
表現の演出を行うため、ダイジェスト映像から自動的に
番組を作成すると共に、視聴者(利用者)の嗜好を反映
させた演出を施した番組を作成するダイジェスト映像の
番組化方法を提供することができる。
Further, according to the digest video programming method of the present invention (claim 16), the degree of emotional reaction of the virtual character to the video content of each video scene, together with the description of the video scene and the video content. To create a virtual character emotional expression based on the degree value for each video scene, automatically create a program from the digest video and reflect the viewer's (user's) preferences. It is possible to provide a method of converting a digest video into a program for creating a program to which a program is applied.

【0138】また、本発明のダイジェスト映像の番組化
方法(請求項17)によれば、各映像シーンの再生に加
えて、予め設定された仮想キャラクタを介して説明文、
前書き文および後書き文を音声で提供すると共に、各映
像シーン毎に度合い値に基づいて仮想キャラクタの感情
表現の演出を行うため、ダイジェスト映像から自動的に
番組を作成すると共に、視聴者(利用者)の嗜好を反映
させた演出を施した番組を作成するダイジェスト映像の
番組化方法を提供することができる。
According to the digest video programming method of the present invention (Claim 17), in addition to the reproduction of each video scene, an explanatory note,
In order to provide a preamble sentence and a postscript sentence in audio, and to produce an emotional expression of the virtual character based on the degree value for each video scene, a program is automatically created from the digest video, and a viewer (user The present invention can provide a method for converting a digest video into a program, which creates a program in which an effect reflecting the preference of (1) is performed.

【0139】また、本発明のダイジェスト映像の番組化
装置(請求項18)によれば、番組化の処理単位とし
て、1つの映像シーン毎に説明文、前書き文、後書き文
および度合い値を対応させて映像ファイルを生成する映
像ファイル生成手段と、少なくとも仮想キャラクタを含
む番組の各種構成情報を番組定義ファイルとして記憶し
た番組定義ファイルデータベースと、感情表現の程度を
複数設定し、感情表現の程度毎に、それぞれ1つの演出
方法を定義した演出テンプレートを記憶した演出定義デ
ータベースと、映像ファイルを入力し、1つの映像ファ
イル毎に度合い値に基づいて感情表現の程度を決定し、
演出定義データベースから感情表現の程度に応じた感情
表現の演出テンプレートを選択する選択手段と、番組定
義ファイル、映像ファイルおよび演出テンプレートを入
力し、1つの映像ファイル毎に選択した演出テンプレー
トに基づいて、少なくとも映像シーンの再生タイミング
と、仮想キャラクタの音声として出力する説明文、前書
き文、後書き文の設定および音声の出力タイミングと、
仮想キャラクタの動作とを設定することにより、映像フ
ァイル単位の番組演出処理を行う演出処理手段と、を備
えたため、ダイジェスト映像から自動的に番組を作成す
ると共に、視聴者(利用者)の嗜好を反映させた演出を
施した番組を作成するダイジェスト映像の番組化相法を
提供することができる。
According to the digest video programming apparatus of the present invention, a description, a preamble, a postscript, and a degree value are made to correspond to each video scene as a program processing unit. Video file generating means for generating a video file, a program definition file database storing at least various configuration information of a program including at least a virtual character as a program definition file, a plurality of emotion expression levels are set, and each emotion expression level is set. Inputting an effect definition database storing effect templates each defining one effect method, and video files, determining the degree of emotional expression based on the degree value for each video file,
Selecting means for selecting an effect expression template corresponding to the degree of emotion expression from the effect definition database, and inputting a program definition file, a video file, and an effect template, based on the effect template selected for each image file, At least the playback timing of the video scene, the description sentence, the preamble sentence, the postscript sentence output as the sound of the virtual character, and the output timing of the sound,
Effect processing means for performing program effect processing for each video file by setting the action of the virtual character, so that a program is automatically created from the digest video and the taste of the viewer (user) is determined. It is possible to provide a digest video programming phase method for creating a program with a reflected effect.

【0140】また、本発明のダイジェスト映像の番組化
装置(請求項19)によれば、請求項18に記載のダイ
ジェスト映像の番組化装置において、番組定義ファイル
の番組の各種構成情報が、少なくとも1つの仮想キャラ
クタと、番組のスタジオセット、カメラの台数や位置、
CG照明、CG小道具、サウンド、番組タイトル、スー
パーの設定等の情報から成るため、これら各種構成情報
を設定または変更することにより、多彩な番組を構築す
ることができる。
According to the digest video programming apparatus of the present invention (claim 19), in the digest video programming apparatus according to claim 18, the various types of configuration information of the program in the program definition file include at least one program. Two virtual characters, a studio set of programs, the number and position of cameras,
Since it is composed of information such as CG lighting, CG props, sound, program title, supermarket setting, etc., various programs can be constructed by setting or changing these various types of configuration information.

【0141】また、本発明のダイジェスト映像の番組化
装置(請求項20)によれば、請求項18〜19のいず
れか一つに記載のダイジェスト映像の番組化装置におい
て、度合い値が、喜怒哀楽等の感情の種類を示すための
感情種類情報を有し、演出定義データベースには、感情
種類情報および感情表現の程度をキーインデックスとし
て分類された複数の演出テンプレートが記憶されてお
り、選択手段は、演出テンプレートを選択する際に、度
合い値に基づいて、キーインデックスとして使用する感
情種類情報および感情表現の程度を決定し、演出定義デ
ータベースから該当する全ての演出テンプレートを選択
するため、喜怒哀楽のような細かい感情の表現を演出に
反映させることができる。
Further, according to the digest video programming apparatus of the present invention (claim 20), in the digest video programming apparatus according to any one of claims 18 to 19, the degree value is determined by the degree of excitement. A plurality of effect templates having emotion type information for indicating types of emotions such as sadness and the like, and a plurality of effect templates classified as a key index based on the emotion type information and the degree of emotion expression, are stored in the effect definition database. Determines the emotion type information to be used as a key index and the degree of emotional expression based on the degree value when selecting an effect template, and selects all applicable effect templates from the effect definition database. Expressions of emotions such as sorrow can be reflected in the performance.

【0142】また、本発明のダイジェスト映像の番組化
装置(請求項21)によれば、請求項20に記載のダイ
ジェスト映像の番組化装置において、さらに、度合い値
は、複数の度合い値で構成することが可能であり、演出
定義データベースには、複数の感情種類情報および複数
の感情種類情報の感情表現の程度をキーインデックスと
して分類された複数の演出テンプレートが記憶されてお
り、選択手段は、演出テンプレートを選択する際に、複
数の度合い値に基づいて、キーインデックスとして使用
する複数の感情種類情報および複数の感情種類情報の感
情表現の程度を決定し、演出定義データベースから該当
する全ての演出テンプレートを選択するため、「悔しく
て、残念である」のような複数の感情の種類が合わさっ
たさらに細かい複合的な感情表現を演出に反映させるこ
とができる。
According to the digest video programmer of the present invention (claim 21), the digest video programmer of claim 20 further comprises a plurality of degree values. In the effect definition database, a plurality of effect templates in which a plurality of emotion type information and a degree of emotional expression of the plurality of emotion type information are classified as a key index are stored. When selecting a template, a plurality of emotion type information to be used as a key index and a degree of emotion expression of the plurality of emotion type information are determined based on a plurality of degree values, and all corresponding effect templates are determined from the effect definition database. To select a more detailed combination of multiple emotion types, such as It can be reflected in the effect the emotional expression.

【0143】また、本発明のダイジェスト映像の番組化
装置(請求項22)によれば、請求項18〜21のいず
れか一つに記載のダイジェスト映像の番組化装置におい
て、さらに、複数の番組定義ファイルの中から所望の番
組定義ファイルを指定するための指定手段を備え、番組
定義ファイルデータベースには、複数の番組定義ファイ
ルが記憶されており、演出処理手段は、映像ファイル単
位の番組演出処理を行う場合に、指定手段を介して指定
された番組定義ファイルを入力して、該当する各種構成
情報に基づいて、映像ファイル単位の番組演出処理を行
うため、ダイジェスト映像の番組の設定または変更を容
易に行うことができる。
According to the digest video programming apparatus of the present invention (claim 22), the digest video programming apparatus according to any one of claims 18 to 21 further comprises a plurality of program definitions. A program defining file for designating a desired program definition file from the files; the program definition file database stores a plurality of program definition files; In this case, the program definition file specified through the specifying means is input, and the program rendering process is performed for each video file based on the corresponding various types of configuration information. Therefore, it is easy to set or change the program of the digest video. Can be done.

【0144】また、本発明のダイジェスト映像の番組化
装置(請求項23)によれば、請求項22に記載のダイ
ジェスト映像の番組化装置において、演出テンプレート
には、定義されている演出方法を適用可能な番組環境情
報が設定されており、演出処理手段は、選択手段で選択
された演出テンプレートが複数存在する場合、各演出テ
ンプレートの番組環境情報を参照して指定手段を介して
指定された番組定義ファイルで提供される番組環境にお
いて実行可能な演出テンプレートの1つを選択し、映像
ファイル単位の番組演出処理を行うため、演出テンプレ
ートで定義されている演出方法と作成する番組の環境と
の整合性を簡単にとることができる。換言すれば、常に
違和感のない演出で番組化を図ることができる。
According to the digest video programming apparatus of the present invention (claim 23), in the digest video programming apparatus according to claim 22, the defined rendering method is applied to the rendering template. Possible program environment information is set, and if there are a plurality of effect templates selected by the selecting means, the effect processing means refers to the program environment information of each effect template and designates the program designated through the specifying means. In order to select one of the effect templates that can be executed in the program environment provided in the definition file and perform the program effect processing for each video file, match the effect method defined in the effect template with the environment of the program to be created. Sex can be easily taken. In other words, it is possible to always produce a program with an effect that does not cause discomfort.

【0145】また、本発明のダイジェスト映像の番組化
装置(請求項24)によれば、請求項23に記載のダイ
ジェスト映像の番組化装置において、演出テンプレート
には、定義されている演出方法を1つのダイジェスト映
像の番組化を行う際に使用する回数を限定する使用回数
限定情報が設定可能であり、演出処理手段は、実行可能
な演出テンプレートの1つを選択した後、演出テンプレ
ートに使用回数限定情報が設定されている場合、選択し
た演出テンプレートを過去に使用した回数と使用回数限
定情報とを比較して使用可能であるか否かを判定し、使
用可能でない場合には、他の実行可能な演出テンプレー
トを選択するため、同一の演出テンプレート、換言すれ
ば、同一の演出方法をある程度以上繰り返して使用しな
いように設定でき、演出のマンネリ化を回避したり、演
出が飽きられないようにすることができる。さらに、使
用回数限定情報に1回だけ使用するように設定すると、
1つのダイジェスト映像の番組中で1回だけ効果的に使
用することもできる。
According to the digest video programming apparatus of the present invention (claim 24), in the digest video programming apparatus according to claim 23, the rendering template includes one of the defined rendering methods. Number-of-times-of-use information that limits the number of times a digest video is used to make a program can be set. After selecting one of the executable effect templates, the effect processing means If the information is set, the number of times the selected effect template has been used in the past is compared with the information on the number of times of use to determine whether or not it can be used. To select the same production template, in other words, it can be set so that the same production method is not used repeatedly more than a certain degree. Or to avoid the rut of production, it is possible to ensure that production can not be tired. Further, if the setting is made so that the information is used only once,
It can be effectively used only once in one digest video program.

【0146】また、本発明のダイジェスト映像の番組化
装置(請求項25)によれば、請求項20〜24のいず
れか一つに記載のダイジェスト映像の番組化装置におい
て、演出処理手段における映像ファイル単位の番組演出
処理は、選択手段で1つの映像ファイルの演出テンプレ
ートの選択が終了すると、使用する演出テンプレートを
選択して処理する逐次処理機能と、選択手段で全ての映
像ファイルの演出テンプレートの選択が終了するのを待
って、各映像ファイルで使用する演出テンプレートを選
択した後、処理するバッチ処理機能とを有しており、演
出処理手段は、バッチ処理機能を用いて処理を行う場
合、選択手段で選択された全ての演出テンプレートを参
照して、感情種類情報および感情表現の程度が同一であ
る演出テンプレートの集合毎に、その集合が選択された
回数を求め、複数回選択された集合のうち、1つの集合
の中に異なる演出テンプレートが複数存在する場合、そ
れぞれの演出テンプレートの選択回数が均一になるよう
に演出テンプレートを選択するため、ダイジェスト映像
の番組化を行う際に、時間がない場合には逐次処理機能
を使用して番組演出処理を実行し、十分な時間がある場
合にはバッチ処理機能を使用することにより、さらに繰
り返しの目立たない自然な演出を行うことができる。
According to the digest video programming apparatus of the present invention (claim 25), in the digest video programming apparatus according to any one of claims 20 to 24, the video file in the effect processing means is provided. When the selection of the effect template of one video file is completed by the selecting means, the program effect processing in units is a sequential processing function of selecting and processing the effect template to be used, and selecting the effect template of all the video files by the selecting means. Waits for the end, selects a rendering template to be used in each video file, and then has a batch processing function to process.The rendering processing means is selected when performing processing using the batch processing function. An effect template having the same degree of emotion type information and emotion expression with reference to all effect templates selected by the means. For each set, the number of times the set is selected is obtained. If a plurality of different effect templates exist in one set among the sets selected multiple times, the number of times of selecting each effect template is uniform. In order to select a production template, when creating a digest video program, if there is no time, use the sequential processing function to execute the program production processing, and if there is enough time, use the batch processing function. By using this, it is possible to perform a natural effect that is less noticeable.

【0147】また、本発明のダイジェスト映像の番組化
装置(請求項26)によれば、請求項25に記載のダイ
ジェスト映像の番組化装置において、演出テンプレート
は、各演出テンプレートの有する感情種類情報および感
情表現の程度に対応付けられる度合い値のうち、最も高
い度合い値を有する映像ファイルまたは最も低い度合い
値を有する映像ファイルの番組演出処理に使用すること
を指定する指定情報を設定可能であり、演出処理手段
は、指定情報が設定されてる演出テンプレートが存在す
る場合、該当する演出テンプレートが選択された全ての
映像ファイルの度合い値を相対的に比較し、該当する演
出テンプレートを最大の度合い値または最小の度合い値
を有する映像ファイルの番組演出処理のみに使用するた
め、効果的に演出テンプレート、すなわち演出方法を選
択することができる。
Further, according to the digest video programming apparatus of the present invention (claim 26), in the digest video programming apparatus according to claim 25, the effect template includes the emotion type information and the emotion type information of each effect template. It is possible to set designation information for designating the use of the video file having the highest degree value or the video file having the lowest degree value among the degree values associated with the degree of emotional expression in the program effect processing. When there is a rendering template for which the designated information is set, the processing unit relatively compares the degree values of all the video files for which the rendering template is selected, and determines the rendering template to be the maximum degree value or the minimum degree value. Is used only for the program production processing of video files having a degree value of Plate, that can be selected presentation method.

【0148】また、本発明の記録媒体は(請求項27)
は、請求項16または17に記載のダイジェスト映像の
番組化方法をコンピュータに実行させるためのプログラ
ムを記録したおき、このプログラムをコンピュータで読
み出して実行することにより、請求項16または17に
記載のダイジェスト映像の番組化方法と同様の効果を奏
することができる。
Further, the recording medium of the present invention (claim 27)
The digest according to claim 16 or 17, wherein a program for causing a computer to execute the digest video programming method according to claim 16 or 17 is recorded, and the program is read and executed by the computer. An effect similar to that of the method of converting a video into a program can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施の形態1の映像内容説明文生成装置の概略
構成図である。
FIG. 1 is a schematic configuration diagram of a video content description generating device according to a first embodiment.

【図2】実施の形態1の接続関係判別関数のアルゴリズ
ムを示す説明図である。
FIG. 2 is an explanatory diagram illustrating an algorithm of a connection relation determination function according to the first embodiment;

【図3】実施の形態2の映像内容説明文生成装置の概略
構成図である。
FIG. 3 is a schematic configuration diagram of a video content description generating device according to a second embodiment.

【図4】実施の形態2の感情度判別関数のアルゴリズム
を示す説明図である。
FIG. 4 is an explanatory diagram illustrating an algorithm of an emotion degree discrimination function according to the second embodiment.

【図5】実施の形態3の説明文生成関数(説明文生成ア
ルゴリズム)を示す説明図である。
FIG. 5 is an explanatory diagram showing an explanatory sentence generation function (explanatory sentence generation algorithm) according to the third embodiment;

【図6】実施の形態3の説明文生成関数を用いた場合、
ある試合に対してどのような順序で説明文が生成される
かを示した説明図である。
FIG. 6 illustrates a case where the description generating function according to the third embodiment is used.
FIG. 9 is an explanatory diagram showing in which order a description is generated for a certain game.

【図7】本発明の映像内容の説明文生成方法を映像文生
成機能として取り込んだダイジェスト作成システムの概
要図である。
FIG. 7 is a schematic diagram of a digest creation system that incorporates a video sentence generation method according to the present invention as a video sentence generation function.

【図8】実施の形態4のダイジェスト映像の番組化装置
のブロック構成図である。
FIG. 8 is a block diagram of a digest video programming apparatus according to a fourth embodiment.

【図9】ダイジェスト映像の番組化装置の処理の概略フ
ローを示す説明図である。
FIG. 9 is an explanatory diagram showing a schematic flow of processing of the digest video programmer.

【図10】実施の形態4のTVに表示されるダイジェス
ト映像の番組の画面例を示す説明図である。
FIG. 10 is an explanatory diagram showing an example of a screen of a digest video program displayed on a TV according to the fourth embodiment.

【図11】実施の形態4のダイジェスト映像の番組化装
置でダイジェスト映像の番組として作成された最終的な
PVMLコードの例を示す説明図である。
FIG. 11 is an explanatory diagram showing an example of a final PVML code created as a digest video program by the digest video programmer of the fourth embodiment.

【符号の説明】[Explanation of symbols]

100 映像内容説明文生成装置 101 説明文生成部 102 映像内容判定部 103 接続表現選択部 200 映像内容説明文生成装置 201 説明文生成部 202 記憶部 203 設定部 204 計算部 400 ダイジェスト映像の番組化装置 401 映像ファイル生成部 402 番組定義ファイルデータベース 403 演出定義データベース 404 演出テンプレート選択部 405 演出処理部 406 PVMLインタプリタ 407 TVMLプレーヤ 408 TV REFERENCE SIGNS LIST 100 video content description generation device 101 description generation unit 102 video content determination unit 103 connection expression selection unit 200 video content description generation unit 201 description generation unit 202 storage unit 203 setting unit 204 calculation unit 400 digest video programming device 401 video file generation unit 402 program definition file database 403 production definition database 404 production template selection unit 405 production processing unit 406 PVML interpreter 407 TVML player 408 TV

【手続補正書】[Procedure amendment]

【提出日】平成13年2月14日(2001.2.1
4)
[Submission date] February 14, 2001 (2001.2.1)
4)

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項15[Correction target item name] Claim 15

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【手続補正2】[Procedure amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項18[Correction target item name] Claim 18

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【手続補正3】[Procedure amendment 3]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項26[Correction target item name] Claim 26

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【手続補正4】[Procedure amendment 4]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0005[Correction target item name] 0005

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記の
ような映像内容の説明文生成処理には以下の問題点があ
った。第1に、検索結果である各映像シーンに対して、
それぞれの断片的なインデックスを用いて、独立に説明
文を生成するため、前後のつながりや、関連性が不明瞭
な説明文となり、視聴者(利用者)にとって違和感のな
いスムーズな文章の流れの説明文を生成することはでき
なかった。第2に、検索結果である各映像シーンの断片
的なインデックスのみを用いて説明文を生成するため、
検索結果である各映像シーンが、前後の映像シーンの中
でどのような意味を持つのかを明確にするための概要説
明的な文章としての前書き文や後書き文を生成すること
はできなかった。第3に、ダイジェスト作成装置におい
て映像を利用する視聴者(利用者)の嗜好を反映したダ
イジェスト映像を作成することは可能であるが、上記映
像内容の説明文生成処理ではダイジェスト映像(映像シ
ーン)に付与されている断片的なインデックスのみから
説明文を生成しており、視聴者(利用者)の嗜好を反映
した説明文を生成することはできなかった。
However, the above-described process of generating a description of a video content has the following problems. First, for each video scene that is the search result,
Because each fragmentary index is used to generate the description independently, the description is unclear in the connection before and after and the relevance, and the flow of the sentence is smooth for the viewer (user) without discomfort. No description could be generated. Second, since the description is generated using only the fragmentary index of each video scene that is the search result,
Search results each video scene is is not possible to generate a preface statements and afterword sentence of as What does it mean to order of summary descriptive text to clarify whether or not to have a in the before and after of the video scene Was. Third, although it is possible to create a digest video reflecting the preference of a viewer (user) who uses the video in the digest creation device, the digest video (video scene) is generated in the process of generating a description of the video content. The description is generated only from the fragmentary index given to the user, and it is not possible to generate the description reflecting the taste of the viewer (user).

【手続補正5】[Procedure amendment 5]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0008[Correction target item name] 0008

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0008】また、本発明は上記に鑑みてなされたもの
であって、検索結果である各映像シーンが、前後の映像
シーンの中でどのような意味を持つのかを明確にするた
めの概要説明的な文章として、前書き文や後書き文の生
成を可能とすることを第2の目的とする。
[0008] The present invention was made in view of the above, the search results each video scene is found either to clearly be because of to have what meaning in before and after the video scene A second object is to make it possible to generate a preamble sentence or a postscript sentence as a brief explanatory sentence.

【手続補正6】[Procedure amendment 6]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0028[Correction target item name] 0028

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0028】また、請求項18に係るダイジェスト映像
の番組化装置は、1つの映像ストリームの中からダイジ
ェスト映像用のシーンとして検索された各映像シーン
と、予め作成された各映像シーンの説明文、前書き文、
後書き文およびその映像内容に対する利用者の感情的な
変化の度合いを示す度合い値を入力し、ダイジェスト映
像の番組を作成するダイジェスト映像の番組化装置であ
って、番組化の処理単位として、1つの映像シーン毎に
前記説明文、前書き文、後書き文および度合い値を対応
させて映像ファイルを生成する映像ファイル生成手段
と、少なくとも仮想キャラクタを含む番組の各種構成情
報を番組定義ファイルとして記憶した番組定義ファイル
データベースと、感情表現の程度を複数設定し、前記感
情表現の程度毎に、それぞれ1つの演出方法を定義した
演出テンプレートを記憶した演出定義データベースと、
前記映像ファイルを入力し、1つの映像ファイル毎に度
合い値に基づいて感情表現の程度を決定し、前記演出定
義データベースから前記感情表現の程度に応じた感情表
現の演出テンプレートを選択する選択手段と、前記番組
定義ファイル、映像ファイルおよび演出テンプレートを
入力し、1つの映像ファイル毎に前記選択した演出テン
プレートに基づいて、少なくとも前記映像シーンの再生
タイミングと、前記仮想キャラクタの音声として出力す
る説明文、前書き文、後書き文の設定および音声の出力
タイミングと、前記仮想キャラクタの動作とを設定する
ことにより、映像ファイル単位の番組演出処理を行う演
出処理手段と、を備えたものである。
Also, a digest video programmer according to claim 18 is provided in which each video scene retrieved from one video stream as a digest video scene, a pre-created description of each video scene, Foreword,
Enter the degree value indicating the degree physician emotional change in the user against footing statements and the video content, a program device of digest video for creating a digest video program, as a processing unit of a program of, 1 A video file generating means for generating a video file by associating the description, the preamble, the postscript and the degree value for each video scene, and a program storing at least various configuration information of a program including at least a virtual character as a program definition file A definition file database, an effect definition database in which a plurality of emotion expression levels are set, and an effect template storing one effect method for each of the emotion expression levels is stored;
Selecting means for inputting the video file, determining a degree of emotional expression based on a degree value for each video file, and selecting an effect expression effect template according to the degree of emotional expression from the effect definition database; A program description file, a video file, and a rendering template, and a description sentence based on the selected rendering template for each video file, at least as a reproduction timing of the video scene and a sound of the virtual character, It is provided with effect processing means for performing a program effect process for each video file by setting a preamble sentence, a postscript sentence, the output timing of audio, and the motion of the virtual character.

【手続補正7】[Procedure amendment 7]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0036[Correction target item name] 0036

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0036】また、請求項26に係るダイジェスト映像
の番組化装置は、請求項25に記載のダイジェスト映像
の番組化装置において、前記演出テンプレートは、各演
出テンプレートの有する感情種類情報および感情表現の
程度に対応付けられる度合い値のうち、最も高い度合い
値を有する映像ファイルまたは最も低い度合い値を有す
る映像ファイルの番組演出処理に使用することを指定す
る指定情報を設定可能であり、前記演出処理手段は、前
記指定情報が設定されている演出テンプレートが存在す
る場合、該当する演出テンプレートが選択された全ての
映像ファイルの度合い値を相対的に比較し、該当する演
出テンプレートを最大の度合い値または最小の度合い値
を有する映像ファイルの番組演出処理のみに使用するも
のである。
A digest video programming apparatus according to a twenty-sixth aspect is the digest video programming apparatus according to the twenty-fifth aspect, wherein the effect templates are emotion type information and degree of emotion expression included in each effect template. Of the degree values associated with the, it is possible to set designation information that specifies that the video file having the highest degree value or the video file having the lowest degree value to be used for the program effect processing, and the effect processing means If there is a rendering template for which the specified information is set, the rendering template is compared with the degree values of all the selected video files, and the rendering template is determined to have the maximum degree value or the minimum degree value. It is used only for program effect processing of a video file having a degree value.

【手続補正8】[Procedure amendment 8]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0055[Correction target item name] 0055

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0055】また、階層構造を用いて構造化された映像
ストリームから検索結果として得られた各映像シーンの
ある階層の映像シーンについての説明文を生成する際
に、階層構造を利用して、上位の階層の映像シーンの文
字情報から説明文の前書きとなる前書き文を生成するた
め、検索結果である各映像シーンが、前後の映像シーン
の中でどのような意味を持つのかを明確にするための概
要説明的な文章として、前書き文を生成することができ
る。同様に、当該階層の映像シーンの上位の階層の映像
シーンの文字情報から説明文の後書きとなる後書き文を
生成するため、検索結果である各映像シーンが、前後の
映像シーンの中でどのような意味を持つのかを明確にす
るための概要説明的な文章として、後書き文を生成する
ことができる。
When generating a description about a video scene of a certain hierarchy of each video scene obtained as a search result from a video stream structured using the hierarchical structure, the hierarchical structure is used to generate a description. to from the character information of the hierarchy of the video scene generate foreword sentence as a foreword description, each video scene is a search result, to whether with what sense in before and after the video scene clearly An introductory sentence can be generated as a brief explanatory sentence. Similarly, in order to generate a postscript sentence that is a postscript of the explanatory note from the character information of the video scene of the higher hierarchy of the video scene of the relevant hierarchy, how each video scene that is the search result is It does mean the outline descriptive sentences to <br/> order to clarify whether with, it is possible to generate a postscript statement.

【手続補正9】[Procedure amendment 9]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0089[Correction target item name] 0089

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0089】番組定義ファイルデータベース402は、
番組の各種構成情報を番組定義ファイルとして記憶して
おり、番組定義ファイルの番組の各種構成情報として
は、例えば、少なくとも1つの仮想キャラクタと、番組
のスタジオセット、カメラの台数や位置、CG照明、C
G小道具、サウンド、番組タイトル、スーパーの設定等
の情報がある。なお、この番組定義ファイルは、予め複
数記憶されており、所定の形式で各種構成情報を設定す
ることにより、追加、変更等も容易に行える。
The program definition file database 402 stores
Various configuration information of the program is stored as a program definition file. Examples of the various configuration information of the program in the program definition file include at least one virtual character, a studio set of the program, the number and position of cameras, CG lighting, C
Information such as G props, sounds, program titles, and supermarket settings. It should be noted that a plurality of the program definition files are stored in advance, and addition and change can be easily performed by setting various types of configuration information in a predetermined format.

【手続補正10】[Procedure amendment 10]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0092[Correction target item name] 0092

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0092】さらに、演出テンプレートには、定義され
ている演出方法が適用可能な番組環境を示す番組環境情
報が設定されており、また、定義されている演出方法を
1回のダイジェスト映像の番組化で何回使用可能とする
かを限定する使用回数限定情報が必要に応じて設定され
ている。
[0092] Further, the rendering templates, the program environment information presentation method as defined illustrates a possible programming environment applied is set, also the program of one of the digest video and presentation method defined The use number limitation information for limiting how many times can be used is set as necessary.

【手続補正11】[Procedure amendment 11]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0103[Correction target item name] 0103

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0103】次に、演出テンプレート選択部404は、
選択した感情IDと対応する演出テンプレートを選ぶ
が、基本的には、感情IDと予め用意したある演出テン
プレートの関係は1対多の関係である。1つの感情ID
に複数の演出テンプレートを用意しておく理由は、番組
としてつまらないものにならないように演出に多様性を
もたせるためである。例えば、『非常に嬉しい』という
感情IDに対して、以下の演出方法が定義された4つの
演出テンプレートの集合を用意しておくことにより、
『非常に嬉しい』シーンが来ると、適宜、その中から演
出テンプレートを1つ選択することが可能となる。 (演出方法1) 顔を真っ赤にさせて立ち上がる (演出方法2) 嬉し涙を流す (演出方法3) 万歳三唱する (演出方法4) くす玉を割って鳩を飛ばす
Next, the effect template selection unit 404
The effect template corresponding to the selected emotion ID is selected. Basically, the relationship between the emotion ID and a certain effect template prepared in advance is a one-to-many relationship. One emotion ID
The reason why a plurality of effect templates are prepared in order to provide the effect with diversity so as not to become a boring program. For example, than in particular are prepared for the emotion ID of "very happy", a collection of the following four rendering template presentation method is the definition of,
When the "very happy" scene comes, it is possible to select one effect template from the scene as appropriate. (Direction Method 1) Make your face bright red and stand up (Direction Method 2) Weep with tears (Direction Method 3) Sing for three years (Direction Method 4) Break a ball and fly a dove

【手続補正12】[Procedure amendment 12]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0115[Correction target item name]

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0115】さらに、バッチ処理を行う際の他の変形例
として、演出処理部405は、指定情報が設定されてい
演出テンプレートが存在する場合、該当する演出テン
プレートが選択された全ての映像ファイルの感情レベル
パラメータを相対的に比較し、該当する演出テンプレー
トを最大の感情レベルパラメータまたは最小の感情レベ
ルパラメータを有する映像ファイルの番組演出処理のみ
に使用するようにしても良い。
[0115] Further, as another modified example of when performing batch processing, effect processing unit 405, specified information is set Tei
If the effect template exists, the effect template is compared with the emotion level parameters of all the selected video files, and the effect template is compared with the image having the maximum emotion level parameter or the minimum emotion level parameter. It may be used only for the program effect processing of the file.

【手続補正13】[Procedure amendment 13]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0126[Correction target item name] 0126

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0126】また、本発明の映像内容の説明文生成方法
(請求項3)によれば、請求項2に記載の映像内容の説
明文生成方法において、階層構造を用いて構造化された
映像ストリームから検索結果として得られた各映像シー
ンのある階層の映像シーンについての説明文を生成する
際に、階層構造を利用して、当該階層の映像シーンの映
像内容を示す説明文と共に、当該階層の映像シーンの上
位の階層の映像シーンの文字情報から説明文の前書きと
なる前書き文を生成するため、検索結果である各映像シ
ーンが、前後の映像シーンの中でどのような意味を持つ
のかを明確にするための概要説明的な文章として、前書
き文を生成することができる。
According to the video content description generating method of the present invention (claim 3), in the video content description generating method of claim 2, the video stream structured using a hierarchical structure is provided. When generating a description of a video scene of a certain hierarchy of each video scene obtained as a search result from the In order to generate an introductory sentence that is the preamble of the explanatory note from the character information of the video scene in the upper layer of the video scene, it is necessary to determine the meaning of each video scene that is the search result in the preceding and following video scenes clearly in as summary descriptive text to order, it is possible to generate a preface statement.

【手続補正14】[Procedure amendment 14]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0127[Correction target item name] 0127

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0127】また、本発明の映像内容の説明文生成方法
(請求項4)によれば、請求項2または3に記載の映像
内容の説明文生成方法において、階層構造を用いて構造
化された映像ストリームから検索結果として得られた各
映像シーンのある階層の映像シーンについての説明文を
生成する際に、階層構造を利用して、当該階層の映像シ
ーンの映像内容を示す説明文と共に、当該階層の映像シ
ーンの上位の階層の映像シーンの文字情報から説明文の
後書きとなる後書き文を生成するため、検索結果である
各映像シーンが、前後の映像シーンの中でどのような意
味を持つのかを明確にするための概要説明的な文章とし
て、後書き文を生成することができる。
According to the method for generating a description of a video content according to the present invention (claim 4), the method for generating a description of a video content according to claim 2 or 3 is structured using a hierarchical structure. When generating a description of a video scene of a certain hierarchy of each video scene obtained as a search result from the video stream, the hierarchical structure is used, together with a description showing the video content of the video scene of the hierarchy, and In order to generate a postscript sentence that is a postscript of the explanatory note from the character information of the video scene of the higher hierarchical level of the video scene of the hierarchical level, what meaning does each video scene as a search result have in the preceding and following video scenes or as to order of summary descriptive text to clarify the, it is possible to generate a postscript statement.

【手続補正15】[Procedure amendment 15]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0132[Correction target item name]

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0132】また、本発明の映像内容説明文生成装置
(請求項11)によれば、請求項10に記載の映像内容
説明文生成装置において、説明文生成手段が、階層構造
を用いて構造化された映像ストリームから検索結果とし
て得られた各映像シーンのある階層の映像シーンについ
ての説明文を生成する際に、階層構造を利用して、当該
階層の映像シーンの映像内容を示す説明文と共に、当該
階層の映像シーンの上位の階層の映像シーンの文字情報
から説明文の前書きとなる前書き文を生成するため、検
索結果である各映像シーンが、前後の映像シーンの中で
どのような意味を持つのかを明確にするための概要説明
的な文章として、前書き文を生成することができる。
According to the video content explanation generating apparatus of the present invention (claim 11), in the video content explanation generating apparatus according to claim 10, the explanation generating means is structured using a hierarchical structure. When generating a description for a video scene of a certain hierarchy of each video scene obtained as a search result from the searched video stream, a hierarchical structure is used together with a description showing the video content of the video scene of the hierarchy. In order to generate an introductory sentence that is an introductory sentence of the explanatory note from the character information of the video scene of the upper layer of the video scene of the relevant layer, the meaning of each video scene as a search result is as to order of summary descriptive text to clarify whether or not to have a, it is possible to generate a preface statement.

【手続補正16】[Procedure amendment 16]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0133[Correction target item name]

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0133】また、本発明の映像内容説明文生成装置
(請求項12)によれば、請求項10または11に記載
の映像内容説明文生成装置において、説明文生成手段
が、階層構造を用いて構造化された映像ストリームから
検索結果として得られた各映像シーンのある階層の映像
シーンについての説明文を生成する際に、階層構造を利
用して、当該階層の映像シーンの映像内容を示す説明文
と共に、当該階層の映像シーンの上位の階層の映像シー
ンの文字情報から説明文の後書きとなる後書き文を生成
するため、検索結果である各映像シーンが、前後の映像
シーンの中でどのような意味を持つのかを明確にするた
めの概要説明的な文章として、後書き文を生成すること
ができる。
Further, according to the video content description generating apparatus of the present invention (claim 12), in the video content description generating apparatus according to claim 10 or 11, the description generating means uses a hierarchical structure. When generating a description of a video scene of a certain hierarchy of each video scene obtained as a search result from the structured video stream, a description showing the video content of the video scene of the hierarchy using the hierarchical structure In addition to the sentence, in order to generate a postscript sentence that is a postscript of the explanatory note from the character information of the video scene of the higher hierarchy of the video scene of the relevant hierarchy, how each video scene as a search result is Do not meaning as to order of summary descriptive text to clarify whether or not to have a, it is possible to generate a postscript statement.

【手続補正17】[Procedure amendment 17]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0147[Correction target item name] 0147

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0147】また、本発明のダイジェスト映像の番組化
装置(請求項26)によれば、請求項25に記載のダイ
ジェスト映像の番組化装置において、演出テンプレート
は、各演出テンプレートの有する感情種類情報および感
情表現の程度に対応付けられる度合い値のうち、最も高
い度合い値を有する映像ファイルまたは最も低い度合い
値を有する映像ファイルの番組演出処理に使用すること
を指定する指定情報を設定可能であり、演出処理手段
は、指定情報が設定されている演出テンプレートが存在
する場合、該当する演出テンプレートが選択された全て
の映像ファイルの度合い値を相対的に比較し、該当する
演出テンプレートを最大の度合い値または最小の度合い
値を有する映像ファイルの番組演出処理のみに使用する
ため、効果的に演出テンプレート、すなわち演出方法を
選択することができる
Further, according to the digest video programming apparatus of the present invention (claim 26), in the digest video programming apparatus according to claim 25, the effect template includes the emotion type information and the emotion type information of each effect template. It is possible to set designation information for designating the use of the video file having the highest degree value or the video file having the lowest degree value among the degree values associated with the degree of emotional expression in the program effect processing. When there is a rendering template for which the designation information is set, the processing unit relatively compares the degree values of all the video files for which the rendering template is selected, and determines the rendering template to be the maximum degree value or Effectively used because it is used only for program production processing of video files with the minimum degree value Plates, i.e. it is possible to select the presentation method

【手続補正18】[Procedure amendment 18]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0148[Correction target item name] 0148

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0148】また、本発明の記録媒体は(請求項27)
は、請求項16または17に記載のダイジェスト映像の
番組化方法をコンピュータに実行させるためのプログラ
ムを記録しておき、このプログラムをコンピュータで読
み出して実行することにより、請求項16または17に
記載のダイジェスト映像の番組化方法と同様の効果を奏
することができる。
Further, the recording medium of the present invention (claim 27)
Is aft to record a program for executing a program method of digest video according to the computer to claim 16 or 17, by reading and executing the program in a computer, according to claim 16 or 17 The same effect as in the method of converting the digest video into a program can be obtained.

【手続補正19】[Procedure amendment 19]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図2[Correction target item name] Figure 2

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図2】 FIG. 2

フロントページの続き (72)発明者 橋本 隆子 東京都大田区中馬込1丁目3番6号 株式 会社リコー内 (72)発明者 飯沢 篤志 東京都大田区中馬込1丁目3番6号 株式 会社リコー内 Fターム(参考) 5B091 AA15 CA12 CA21 CA26 CD00 5C025 BA14 BA25 BA27 BA28 CA09 CA12 CB10 DA05 5C053 FA06 FA14 GB09 GB11 GB12 HA30 JA16 KA24 (54)【発明の名称】 映像内容の説明文生成方法、映像内容説明文生成装置、ダイジェスト映像の番組化方法、ダイジ ェスト映像の番組化装置およびその方法をコンピュータに実行させるためのプログラムを記録し たコンピュータ読み取り可能な記録媒体Continued on the front page (72) Inventor Takako Hashimoto 1-3-6 Nakamagome, Ota-ku, Tokyo Inside Ricoh Company (72) Inventor Atsushi Iizawa 1-3-6 Nakamagome, Ota-ku, Tokyo Inside Ricoh Company F-term (reference) 5B091 AA15 CA12 CA21 CA26 CD00 5C025 BA14 BA25 BA27 BA28 CA09 CA12 CB10 DA05 5C053 FA06 FA14 GB09 GB11 GB12 HA30 JA16 KA24 (54) [Title of invention] Method of generating description of video content, generation of video description Apparatus, digest video programming method, digest video programming apparatus, and computer-readable recording medium storing program for causing a computer to execute the method

Claims (27)

【特許請求の範囲】[Claims] 【請求項1】 1つの映像ストリームの中からダイジェ
スト映像用のシーンとして検索した各映像シーンに対し
て、その内容を説明する断片的な文字列または文字列に
変換可能な情報からなる複数の文字情報が付加されてい
る場合に、前記文字情報を用いて各映像シーンの映像内
容を説明する説明文を生成する映像内容の説明文生成方
法において、 前記文字情報から各映像シーンの内容を判定し、前後の
映像シーンの関係により、順接、逆接、並列、添加、選
択等の中から接続表現を選択し、選択した接続表現を用
いて、該当する前後の映像シーンの説明文を接続した映
像内容の説明文を生成することを特徴とする映像内容の
説明文生成方法。
For each video scene retrieved from one video stream as a digest video scene, a fragmentary character string or a plurality of characters composed of information that can be converted to a character string, which describes the content of the video scene. In the case where information is added, in a video content description generating method for generating a description describing the video content of each video scene using the text information, the content of each video scene is determined from the text information. , A connection expression is selected from forward, reverse, parallel, addition, selection, etc., depending on the relationship between the preceding and following video scenes, and the description of the preceding and following video scenes is connected using the selected connection expression. A method of generating a description of a video content, comprising generating a description of the content.
【請求項2】 階層構造を用いて構造化された映像スト
リームの中からダイジェスト映像用のシーンとして検索
した各映像シーンに対して、その内容を説明する断片的
な文字列または文字列に変換可能な情報からなる複数の
文字情報が付加されている場合に、前記文字情報を用い
て各映像シーンの映像内容を説明する説明文を生成する
映像内容の説明文生成方法において、 前記文字情報から各映像シーンの内容を判定し、前後の
映像シーンの関係により、順接、逆接、並列、添加、選
択等の中から接続表現を選択し、選択した接続表現を用
いて、該当する前後の映像シーンの説明文を接続した映
像内容の説明文を生成することを特徴とする映像内容の
説明文生成方法。
2. For each video scene retrieved as a digest video scene from a video stream structured using a hierarchical structure, it can be converted into a fragmentary character string or a character string that describes the content. In the case where a plurality of pieces of character information including unique information are added, in the method of generating a description of a video content that uses the text information to generate a video description of the video content of each video scene, Judge the content of the video scene, select the connection expression from the order, reverse connection, parallel, addition, selection, etc. according to the relationship between the previous and next video scenes, and use the selected connection expression to select the relevant previous and next video scene Generating a description of the video content to which the description is connected.
【請求項3】 ある階層の映像シーンについての説明文
を生成する際に、前記階層構造を利用して、当該階層の
映像シーンの映像内容を示す説明文と共に、当該階層の
映像シーンの上位の階層の映像シーンの文字情報から説
明文の前書きとなる前書き文を生成することを特徴とす
る請求項2に記載の映像内容の説明文生成方法。
3. When generating a description of a video scene of a certain hierarchy, the description of the video content of the video scene of the hierarchy is used together with the description of the video scene of the hierarchy using the hierarchy structure. 3. The method according to claim 2, wherein a preamble sentence, which is a preamble to the explanatory note, is generated from the character information of the hierarchical video scene.
【請求項4】 ある階層の映像シーンについての説明文
を生成する際に、前記階層構造を利用して、当該階層の
映像シーンの映像内容を示す説明文と共に、当該階層の
映像シーンの上位の階層の映像シーンの文字情報から説
明文の後書きとなる後書き文を生成することを特徴とす
る請求項2または3に記載の映像内容の説明文生成方
法。
4. When generating a description for a video scene of a certain hierarchy, the description of the video content of the video scene of the hierarchy is used together with a description of the video content of the video scene of the hierarchy using the hierarchical structure. 4. The method according to claim 2, wherein a postscript to be a postscript of the description is generated from the character information of the hierarchical video scene.
【請求項5】 さらに、映像シーンの説明文を生成する
際に、予め設定されている利用者の嗜好情報を用いて、
前記説明文の文章表現を利用者の嗜好に応じて変化させ
ることを特徴とする請求項1〜4のいずれか一つに記載
の映像内容の説明文生成方法。
5. A method for generating a description of a video scene, comprising the steps of:
The method according to any one of claims 1 to 4, wherein the sentence expression of the explanation is changed according to a user's preference.
【請求項6】 1つの映像ストリームの中からダイジェ
スト映像用のシーンとして検索した各映像シーンに対し
て、その内容を説明する断片的な文字列または文字列に
変換可能な情報からなる複数の文字情報が付加されてい
る場合に、前記文字情報を用いて各映像シーンの映像内
容を説明する説明文を生成する映像内容の説明文生成方
法において、 各映像シーンの説明文を生成する際に、設定手段を介し
て設定された利用者の嗜好情報を用いて、前記説明文の
文章表現を利用者の嗜好に応じて変化させることを特徴
とする映像内容の説明文生成方法。
6. For each video scene retrieved as a digest video scene from one video stream, a plurality of characters consisting of a fragmentary character string or information that can be converted into a character string that describes the content of the scene. In the case where information is added, in the method for generating a description of a video content that generates a description explaining the video content of each video scene using the character information, A description generating method for video contents, wherein the text description of the description is changed according to the user's preference using the user's preference information set via the setting means.
【請求項7】 予め映像シーン毎に、その映像内容に対
する利用者の感情的な変化の度合いを計算するための複
数のパラメータを感情度パラメータとして定義してお
き、前記説明文の文章表現を利用者の嗜好に応じて変化
させる際に、前記各映像シーンに対応する感情度パラメ
ータおよび嗜好情報を用いて、各映像シーンに対する利
用者の感情的な反応の度合い値を計算し、前記度合い値
に基づいてその映像シーンの映像内容を説明する説明文
に、感情表現を示す感情表現文を付加することを特徴と
する請求項5または6に記載の映像内容の説明文生成方
法。
7. For each video scene, a plurality of parameters for calculating the degree of emotional change of the user with respect to the video content are defined as emotion level parameters, and the sentence expression of the explanation is used. When changing according to the user's preference, using the emotion degree parameter and preference information corresponding to each video scene, a degree value of the user's emotional reaction to each video scene is calculated, and the degree value is calculated. 7. The method according to claim 5, wherein an emotional expression sentence indicating an emotional expression is added to a description explaining the video content of the video scene based on the content.
【請求項8】 前記感情度パラメータの複数のパラメー
タは、前記映像シーンに付加され文字情報の内容と前記
嗜好情報の内容との組み合わせによって前記度合いが数
値化され、該数値化された度合いを用いて前記度合い値
を計算することを特徴とする請求項7に記載の映像内容
の説明文生成方法。
8. The plurality of emotion degree parameters are quantified by a combination of the contents of character information added to the video scene and the contents of preference information, and the quantified degrees are used. The method according to claim 7, wherein the degree value is calculated by the following method.
【請求項9】 1つの映像ストリームの中からダイジェ
スト映像用のシーンとして検索した各映像シーンに対し
て、その内容を説明する断片的な文字列または文字列に
変換可能な情報からなる複数の文字情報が付加されてい
る場合に、前記文字情報を用いて映像シーンの映像内容
を説明する説明文を生成する説明文生成手段を有する映
像内容説明文生成装置において、 前記文字情報から各映像シーンの内容を判定する映像内
容判定手段と、 前記映像内容判定手段の判定結果に基づいて、前後の映
像シーンの関係により、順接、逆接、並列、添加、選択
の中から接続表現を選択する接続表現選択手段と、を備
え、 前記説明文生成手段が、前記接続表現選択手段で選択し
た接続表現を用いて、該当する前後の映像シーンの説明
文を接続することを特徴とする映像内容説明文生成装
置。
9. For each video scene retrieved as a digest video scene from one video stream, a plurality of characters consisting of a fragmentary character string or information that can be converted into a character string that describes the content of the video scene. In the case where information is added, in a video content description generating device having a description generating means for generating a description explaining the video content of the video scene using the character information, A video content determining means for determining content, and a connection expression for selecting a connection expression from forward, reverse, parallel, addition, and selection based on a relationship between preceding and following video scenes based on a determination result of the video content determining means. Selecting means, the description generating means connecting the description of the relevant video scene before and after using the connection expression selected by the connection expression selecting means. Characteristic video content description generation device.
【請求項10】 階層構造を用いて構造化された映像ス
トリームの中からダイジェスト映像用のシーンとして検
索した各映像シーンに対して、その内容を説明する断片
的な文字列または文字列に変換可能な情報からなる複数
の文字情報が付加されている場合に、前記文字情報を用
いて映像シーンの映像内容を説明する説明文を生成する
説明文生成手段を有する映像内容説明文生成装置におい
て、 前記文字情報から各映像シーンの内容を判定する映像内
容判定手段と、 前記映像内容判定手段の判定結果に基づいて、前後の映
像シーンの関係により、順接、逆接、並列、添加、選択
の中から接続表現を選択する接続表現選択手段と、を備
え、 前記説明文生成手段が、前記接続表現選択手段で選択し
た接続表現を用いて、該当する前後の映像シーンの説明
文を接続することを特徴とする映像内容説明文生成装
置。
10. For each video scene retrieved as a digest video scene from a video stream structured using a hierarchical structure, it can be converted into a fragmentary character string or a character string describing its contents. A plurality of pieces of text information composed of various pieces of information, the video content description generation device having a description generation unit configured to generate a description describing a video content of a video scene using the text information; Video content determining means for determining the content of each video scene from the character information, Based on the determination result of the video content determining means, by the relationship between the previous and next video scene, from sequential, reverse, parallel, addition, selection Connection expression selecting means for selecting a connection expression, wherein the explanatory sentence generation means uses the connection expression selected by the connection expression selection means to select a video scene before and after the connection A video content description generating apparatus, characterized in that the description is connected.
【請求項11】 さらに、前記説明文生成手段は、ある
階層の映像シーンについての説明文を生成する際に、前
記階層構造を利用して、当該階層の映像シーンの映像内
容を示す説明文と共に、当該階層の映像シーンの上位の
階層の映像シーンの文字情報から説明文の前書きとなる
前書き文を生成することを特徴とする請求項10に記載
の映像内容説明文生成装置。
11. The description generating means, when generating a description about a video scene in a certain hierarchy, uses the hierarchical structure together with a description indicating the video content of the video scene in the hierarchy. 11. The video content description generating apparatus according to claim 10, wherein a preamble sentence, which is a preamble of the description, is generated from the character information of the video scene of the hierarchy higher than the video scene of the hierarchy.
【請求項12】 さらに、前記説明文生成手段は、ある
階層の映像シーンについての説明文を生成する際に、前
記階層構造を利用して、当該階層の映像シーンの映像内
容を示す説明文と共に、当該階層の映像シーンの上位の
階層の映像シーンの文字情報から説明文の後書きとなる
後書き文を生成することを特徴とする請求項10または
11に記載の映像内容説明文生成装置。
12. The apparatus according to claim 1, wherein said description generating means generates a description about a video scene of a certain hierarchy by using said hierarchical structure together with a description showing video contents of the video scene of said hierarchy. 12. The video content description generating apparatus according to claim 10, wherein a postscript to be a postscript of the description is generated from character information of a video scene of a higher hierarchy of the video scene of the hierarchy.
【請求項13】 1つの映像ストリームの中からダイジ
ェスト映像用のシーンとして検索した各映像シーンに対
して、その内容を説明する断片的な文字列または文字列
に変換可能な情報からなる複数の文字情報が付加されて
いる場合に、前記文字情報を用いて映像シーンの映像内
容を説明する説明文を生成する説明文生成手段を有する
映像内容説明文生成装置において、 予め映像シーン毎に、その映像内容に対する利用者の感
情的な変化の度合いを計算するための複数のパラメータ
を感情度パラメータとして定義して記憶した記憶手段
と、 利用者の嗜好情報を設定するための設定手段と、 前記各映像シーンに対応する感情度パラメータおよび嗜
好情報を用いて、各映像シーンに対する利用者の感情的
な反応の度合い値を計算する計算手段と、 を備え、 前記説明文生成手段は、前記文字情報を用いて映像シー
ンの映像内容を説明する説明文を生成する際に、前記度
合い値に基づいて感情表現を示す感情表現文を付加する
ことを特徴とする映像内容説明文生成装置。
13. For each video scene retrieved from one video stream as a digest video scene, a fragmentary character string or a plurality of characters consisting of information that can be converted into a character string that describes the content of the video scene. In the case where information is added, in a video content description generating apparatus having a description generating means for generating a description explaining the video content of the video scene using the character information, Storage means for defining and storing a plurality of parameters for calculating the degree of emotional change of the user with respect to the content as emotion degree parameters; setting means for setting user preference information; Calculating means for calculating a degree value of a user's emotional reaction to each video scene using an emotion degree parameter and preference information corresponding to the scene; Wherein, when generating a description to explain the video content of the video scene using the character information, the description generating means adds an emotion expression based on the degree value. Characteristic video content description generation device.
【請求項14】 前記感情度パラメータの複数のパラメ
ータは、前記映像シーンに付加され文字情報の内容と前
記嗜好情報の内容との組み合わせによって前記度合いが
数値化され、 前記計算手段は、前記数値化された度合いを用いて前記
度合い値を計算することを特徴とする請求項13に記載
の映像内容説明文生成装置。
14. The plurality of emotion degree parameters are quantified by a combination of the contents of character information and the contents of preference information added to the video scene. 14. The apparatus according to claim 13, wherein the degree value is calculated using the determined degree.
【請求項15】 前記請求項1〜8のいずれか一つに記
載の映像内容の説明文生成方法をコンピュータに実行さ
せるためのプログラムを記録したことを特徴とするコン
ピュータ読み取り可能な記録媒体
15. A computer-readable recording medium on which is recorded a program for causing a computer to execute the method of generating a description of a video content according to any one of claims 1 to 8.
【請求項16】 1つの映像ストリームの中からダイジ
ェスト映像用のシーンとして検索された各映像シーン
と、前記各映像シーンに対して作成された映像内容の説
明文を入力し、前記各映像シーンの再生に加えて、予め
設定された仮想キャラクタを介して前記映像内容の説明
文を音声または文字で提供することで、ダイジェスト映
像の番組を作成するダイジェスト映像の番組化方法であ
って、 前記映像シーンおよび映像内容の説明文と共に、各映像
シーンの映像内容に対する前記仮想キャラクタの感情的
な反応の度合い値を入力し、各映像シーン毎に前記度合
い値に基づいて前記仮想キャラクタの感情表現の演出を
行うことを特徴とするダイジェスト映像の番組化方法。
16. A video image retrieved from one video stream as a scene for a digest video and a description of video content created for each video scene are input, and In addition to reproduction, a digest video program creation method for creating a digest video program by providing a description of the video content in audio or text via a preset virtual character, Along with the description of the video content, a degree value of the emotional response of the virtual character to the video content of each video scene is input, and for each video scene, the effect of the emotional expression of the virtual character is produced based on the degree value. A method of converting a digest video into a program.
【請求項17】 ダイジェスト映像用の映像シーンと共
に、前記請求項7に記載の映像内容の説明文生成方法を
用いて生成された各映像シーンの前記説明文、前書き
文、後書き文および度合い値を入力し、ダイジェスト映
像の番組を作成するダイジェスト映像の番組化方法であ
って、 前記各映像シーンの再生に加えて、予め設定された仮想
キャラクタを介して前記説明文、前書き文および後書き
文を音声で提供すると共に、各映像シーン毎に前記度合
い値に基づいて前記仮想キャラクタの感情表現の演出を
行うことを特徴とするダイジェスト映像の番組化方法。
17. A video scene for a digest video, and the description, preamble, postscript, and degree value of each video scene generated by using the video content description generation method according to claim 7. A digest video programming method for inputting and creating a digest video program, wherein in addition to the reproduction of each of the video scenes, the description, the preamble, and the postscript are transmitted through a preset virtual character. And producing an emotional expression of the virtual character based on the degree value for each video scene.
【請求項18】 1つの映像ストリームの中からダイジ
ェスト映像用のシーンとして検索された各映像シーン
と、予め作成された各映像シーンの説明文、前書き文、
後書き文およびその映像内容に対する利用者の感情的な
変化の度合いをを示す度合い値を入力し、ダイジェスト
映像の番組を作成するダイジェスト映像の番組化装置で
あって、 番組化の処理単位として、1つの映像シーン毎に前記説
明文、前書き文、後書き文および度合い値を対応させて
映像ファイルを生成する映像ファイル生成手段と、 少なくとも仮想キャラクタを含む番組の各種構成情報を
番組定義ファイルとして記憶した番組定義ファイルデー
タベースと、 感情表現の程度を複数設定し、前記感情表現の程度毎
に、それぞれ1つの演出方法を定義した演出テンプレー
トを記憶した演出定義データベースと、 前記映像ファイルを入力し、1つの映像ファイル毎に度
合い値に基づいて感情表現の程度を決定し、前記演出定
義データベースから前記感情表現の程度に応じた感情表
現の演出テンプレートを選択する選択手段と、 前記番組定義ファイル、映像ファイルおよび演出テンプ
レートを入力し、1つの映像ファイル毎に前記選択した
演出テンプレートに基づいて、少なくとも前記映像シー
ンの再生タイミングと、前記仮想キャラクタの音声とし
て出力する説明文、前書き文、後書き文の設定および音
声の出力タイミングと、前記仮想キャラクタの動作とを
設定することにより、映像ファイル単位の番組演出処理
を行う演出処理手段と、 を備えたことを特徴とするダイジェスト映像の番組化装
置。
18. A video image retrieved from one video stream as a scene for a digest video, a description sentence, a preamble sentence of each video scene created in advance,
This is a digest video programmer that inputs a postscript and a degree value indicating the degree of emotional change of the user with respect to the video content, and creates a digest video program. A video file generating means for generating a video file by associating the description, the preamble, the postscript and the degree value for each video scene, and a program storing at least various configuration information of a program including at least a virtual character as a program definition file A definition file database, a plurality of emotion expression levels, an effect definition database storing effect templates each defining one effect method for each of the emotion expression degrees, and inputting the video file, The degree of emotional expression is determined for each file based on the degree value, and the effect definition database And selecting means for selecting an effect template of an emotion expression corresponding to the degree of the emotion expression from the program definition file, the video file and the effect template, and for each image file, based on the selected effect template. By setting at least the playback timing of the video scene, the setting of the description sentence, the preamble sentence, the postscript sentence and the output timing of the audio output as the sound of the virtual character, and the operation of the virtual character, An effect processing means for performing a program effect process, comprising: a digest video program converting device.
【請求項19】 前記番組定義ファイルの番組の各種構
成情報は、少なくとも1つの仮想キャラクタと、番組の
スタジオセット、カメラの台数や位置、CG照明、CG
小道具、サウンド、番組タイトル、スーパーの設定等の
情報から成ることを特徴とする請求項18に記載のダイ
ジェスト映像の番組化装置。
19. The program configuration information of the program definition file includes at least one virtual character, a program studio set, the number and position of cameras, CG lighting, CG
19. The digest video programming apparatus according to claim 18, comprising information such as props, sounds, program titles, and supermarket settings.
【請求項20】 前記度合い値は、喜怒哀楽等の感情の
種類を示すための感情種類情報を有し、 前記演出定義データベースには、感情種類情報および感
情表現の程度をキーインデックスとして分類された複数
の演出テンプレートが記憶されており、 前記選択手段は、前記演出テンプレートを選択する際
に、前記度合い値に基づいて、キーインデックスとして
使用する感情種類情報および感情表現の程度を決定し、
前記演出定義データベースから該当する全ての演出テン
プレートを選択することを特徴とする請求項18〜19
のいずれか一つに記載のダイジェスト映像の番組化装
置。
20. The degree value has emotion type information for indicating the type of emotion such as emotion, anger and so on. The effect definition database classifies the emotion type information and the degree of emotion expression as a key index. A plurality of effect templates are stored, the selecting means, when selecting the effect template, based on the degree value, determines the degree of emotion type information and emotion expression used as a key index,
20. Select all the effect templates from the effect definition database.
The digest video programming apparatus according to any one of the above.
【請求項21】 さらに、前記度合い値は、複数の度合
い値で構成することが可能であり、 前記演出定義データベースには、複数の感情種類情報お
よび前記複数の感情種類情報の感情表現の程度をキーイ
ンデックスとして分類された複数の演出テンプレートが
記憶されており、 前記選択手段は、前記演出テンプレートを選択する際
に、前記複数の度合い値に基づいて、キーインデックス
として使用する複数の感情種類情報および複数の感情種
類情報の感情表現の程度を決定し、前記演出定義データ
ベースから該当する全ての演出テンプレートを選択する
ことを特徴とする請求項20に記載のダイジェスト映像
の番組化装置。
21. Further, the degree value can be composed of a plurality of degree values, and the effect definition database stores a plurality of emotion type information and a degree of emotion expression of the plurality of emotion type information. A plurality of effect templates classified as a key index are stored, and the selecting means, when selecting the effect template, based on the plurality of degree values, a plurality of emotion type information used as a key index and 21. The digest video programming apparatus according to claim 20, wherein a degree of emotion expression of a plurality of emotion type information is determined, and all of the effect templates are selected from the effect definition database.
【請求項22】 さらに、複数の番組定義ファイルの中
から所望の番組定義ファイルを指定するための指定手段
を備え、 前記番組定義ファイルデータベースには、複数の番組定
義ファイルが記憶されており、 前記演出処理手段は、前記映像ファイル単位の番組演出
処理を行う場合に、前記指定手段を介して指定された番
組定義ファイルを入力して、該当する各種構成情報に基
づいて、前記映像ファイル単位の番組演出処理を行うこ
とを特徴とする請求項18〜21のいずれか一つに記載
のダイジェスト映像の番組化装置。
22. A program definition file for designating a desired program definition file from a plurality of program definition files, wherein the program definition file database stores a plurality of program definition files. The effect processing means, when performing the program effect processing in the video file unit, inputs a program definition file specified through the specifying means, and executes the program in the video file unit based on the corresponding various configuration information. The digest video programming apparatus according to any one of claims 18 to 21, wherein effect processing is performed.
【請求項23】 前記演出テンプレートには、定義され
ている演出方法を適用可能な番組環境情報が設定されて
おり、 前記演出処理手段は、前記選択手段で選択された演出テ
ンプレートが複数存在する場合、各演出テンプレートの
番組環境情報を参照して前記指定手段を介して指定され
た番組定義ファイルで提供される番組環境において実行
可能な演出テンプレートの1つを選択し、前記映像ファ
イル単位の番組演出処理を行うことを特徴とする請求項
22に記載のダイジェスト映像の番組化装置。
23. The effect template, wherein program environment information to which a defined effect method can be applied is set, and the effect processing means includes a plurality of effect templates selected by the selecting means. Referring to the program environment information of each effect template, selecting one of the effect templates executable in the program environment provided by the program definition file specified via the specifying means, and 23. The digest video programming apparatus according to claim 22, wherein the apparatus performs processing.
【請求項24】 前記演出テンプレートには、定義され
ている演出方法を1つのダイジェスト映像の番組化を行
う際に使用する回数を限定する使用回数限定情報が設定
可能であり、 前記演出処理手段は、前記実行可能な演出テンプレート
の1つを選択した後、前記演出テンプレートに使用回数
限定情報が設定されている場合、選択した演出テンプレ
ートを過去に使用した回数と前記使用回数限定情報とを
比較して使用可能であるか否かを判定し、使用可能でな
い場合には、他の実行可能な演出テンプレートを選択す
ることを特徴とする請求項23に記載のダイジェスト映
像の番組化装置。
24. The effect template can set use number limitation information for limiting the number of times a defined effect method is used when one digest video is made into a program. After selecting one of the executable effect templates, if the use template is set with the use number limitation information, the number of times the selected effect template has been used in the past is compared with the use number limit information. 24. The digest video programming apparatus according to claim 23, wherein it is determined whether or not it is usable, and when it is not usable, another executable effect template is selected.
【請求項25】 前記演出処理手段における映像ファイ
ル単位の番組演出処理は、前記選択手段で1つの映像フ
ァイルの演出テンプレートの選択が終了すると、使用す
る演出テンプレートを選択して処理する逐次処理機能
と、前記選択手段で全ての映像ファイルの演出テンプレ
ートの選択が終了するのを待って、各映像ファイルで使
用する演出テンプレートを選択した後、処理するバッチ
処理機能とを有しており、 前記演出処理手段は、前記バッチ処理機能を用いて処理
を行う場合、前記選択手段で選択された全ての演出テン
プレートを参照して、前記感情種類情報および感情表現
の程度が同一である演出テンプレートの集合毎に、その
集合が選択された回数を求め、複数回選択された集合の
うち、1つの集合の中に異なる演出テンプレートが複数
存在する場合、それぞれの演出テンプレートの選択回数
が均一になるように演出テンプレートを選択することを
特徴とする請求項20〜24のいずれか一つに記載のダ
イジェスト映像の番組化装置。
25. The program effect processing for each video file in the effect processing means is a sequential processing function of selecting and processing an effect template to be used when the selection means finishes selecting an effect template of one video file. A batch processing function of waiting for the selection of the rendering templates of all video files by the selection means to be completed, selecting a rendering template to be used in each video file, and then processing the rendering templates. The means, when performing processing using the batch processing function, refers to all effect templates selected by the selecting means, for each set of effect templates with the same degree of emotion type information and emotion expression , The number of times the set is selected, and among the sets selected a plurality of times, different effect templates are included in one set. If there are multiple, each program apparatus of digest video according to any one of claims 20 to 24 selected number of the effect template and selects the rendering template to be uniform.
【請求項26】 前記演出テンプレートは、各演出テン
プレートの有する感情種類情報および感情表現の程度に
対応付けられる度合い値のうち、最も高い度合い値を有
する映像ファイルまたは最も低い度合い値を有する映像
ファイルの番組演出処理に使用することを指定する指定
情報を設定可能であり、 前記演出処理手段は、前記指定情報が設定されてる演出
テンプレートが存在する場合、該当する演出テンプレー
トが選択された全ての映像ファイルの度合い値を相対的
に比較し、該当する演出テンプレートを最大の度合い値
または最小の度合い値を有する映像ファイルの番組演出
処理のみに使用することを特徴とする請求項25に記載
のダイジェスト映像の番組化装置。
26. The effect template includes a video file having the highest degree value or a video file having the lowest degree value among the degree values associated with the emotion type information and the degree of emotion expression included in each effect template. It is possible to set designation information designating that it is used for a program production process. If there is a production template in which the designation information is set, all the video files for which the relevant production template is selected 28. The digest video according to claim 25, wherein the relative effect templates are relatively compared, and the corresponding effect template is used only for the program effect process of the video file having the maximum or the lowest effect value. Programmer.
【請求項27】 前記請求項16または17に記載のダ
イジェスト映像の番組化方法をコンピュータに実行させ
るためのプログラムを記録したことを特徴とするコンピ
ュータ読み取り可能な記録媒体。
27. A computer-readable recording medium having recorded thereon a program for causing a computer to execute the digest video programming method according to claim 16 or 17.
JP2000135198A 2000-01-21 2000-05-08 Video content description generation method, video content description generation device, and recording medium Expired - Fee Related JP3592194B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000135198A JP3592194B2 (en) 2000-01-21 2000-05-08 Video content description generation method, video content description generation device, and recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000013483 2000-01-21
JP2000-13483 2000-01-21
JP2000135198A JP3592194B2 (en) 2000-01-21 2000-05-08 Video content description generation method, video content description generation device, and recording medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2004162504A Division JP4137007B2 (en) 2000-01-21 2004-05-31 Video content description generation apparatus and computer-readable recording medium

Publications (2)

Publication Number Publication Date
JP2001275058A true JP2001275058A (en) 2001-10-05
JP3592194B2 JP3592194B2 (en) 2004-11-24

Family

ID=26583958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000135198A Expired - Fee Related JP3592194B2 (en) 2000-01-21 2000-05-08 Video content description generation method, video content description generation device, and recording medium

Country Status (1)

Country Link
JP (1) JP3592194B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004012100A1 (en) * 2002-07-26 2004-02-05 National Institute Of Information And Communications Technology Incorporated Administrative Agency Content summarizing apparatus and content summarizing program
US7702996B2 (en) 2003-03-19 2010-04-20 Fujitsu Limited Apparatus and method for converting multimedia contents
JP2010093584A (en) * 2008-10-08 2010-04-22 Nippon Telegr & Teleph Corp <Ntt> Method, apparatus and program for estimating viewing impression and computer-readable recording medium
JP4725936B1 (en) * 2011-02-01 2011-07-13 有限会社Bond Input support apparatus, input support method, and program
JP2016186741A (en) * 2015-03-27 2016-10-27 株式会社東芝 Electronic apparatus and control method therefor
JP2018033048A (en) * 2016-08-25 2018-03-01 Jcc株式会社 Metadata generation system
WO2018043112A1 (en) * 2016-08-29 2018-03-08 ソニー株式会社 Information presentation apparatus and information presentation method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612447A (en) * 1992-03-31 1994-01-21 Toshiba Corp Summary sentence preparing device
JPH07104778A (en) * 1993-10-07 1995-04-21 Fuji Xerox Co Ltd Feeling expressing device
JPH0981632A (en) * 1995-09-13 1997-03-28 Toshiba Corp Information publication device
JPH09282327A (en) * 1996-04-15 1997-10-31 Nippon Hoso Kyokai <Nhk> Image retrieval method
JPH10150629A (en) * 1996-11-15 1998-06-02 Sony Corp Transmission and reception system, receiver and transmitter
JPH10207891A (en) * 1997-01-17 1998-08-07 Fujitsu Ltd Document summarizing device and its method
JPH11212966A (en) * 1998-01-26 1999-08-06 Sharp Corp Information processor, information processing method and record medium recording method
JPH11238071A (en) * 1998-02-20 1999-08-31 Toshiba Corp Device and method for digest generation

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612447A (en) * 1992-03-31 1994-01-21 Toshiba Corp Summary sentence preparing device
JPH07104778A (en) * 1993-10-07 1995-04-21 Fuji Xerox Co Ltd Feeling expressing device
JPH0981632A (en) * 1995-09-13 1997-03-28 Toshiba Corp Information publication device
JPH09282327A (en) * 1996-04-15 1997-10-31 Nippon Hoso Kyokai <Nhk> Image retrieval method
JPH10150629A (en) * 1996-11-15 1998-06-02 Sony Corp Transmission and reception system, receiver and transmitter
JPH10207891A (en) * 1997-01-17 1998-08-07 Fujitsu Ltd Document summarizing device and its method
JPH11212966A (en) * 1998-01-26 1999-08-06 Sharp Corp Information processor, information processing method and record medium recording method
JPH11238071A (en) * 1998-02-20 1999-08-31 Toshiba Corp Device and method for digest generation

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004012100A1 (en) * 2002-07-26 2004-02-05 National Institute Of Information And Communications Technology Incorporated Administrative Agency Content summarizing apparatus and content summarizing program
US7624346B2 (en) 2002-07-26 2009-11-24 National Institute Of Information And Communications Technology Incorporated Administrative Agency Contents summarizing unit and contents summarizing program that produce content summary information summarized from contents regarding sports
US7702996B2 (en) 2003-03-19 2010-04-20 Fujitsu Limited Apparatus and method for converting multimedia contents
JP2010093584A (en) * 2008-10-08 2010-04-22 Nippon Telegr & Teleph Corp <Ntt> Method, apparatus and program for estimating viewing impression and computer-readable recording medium
JP4725936B1 (en) * 2011-02-01 2011-07-13 有限会社Bond Input support apparatus, input support method, and program
WO2012105318A1 (en) * 2011-02-01 2012-08-09 有限会社Bond Input support device, input support method, and recording medium
US9898850B2 (en) 2011-02-01 2018-02-20 BOND Co., Ltd. Support and complement device, support and complement method, and recording medium for specifying character motion or animation
JP2016186741A (en) * 2015-03-27 2016-10-27 株式会社東芝 Electronic apparatus and control method therefor
JP2018033048A (en) * 2016-08-25 2018-03-01 Jcc株式会社 Metadata generation system
WO2018043112A1 (en) * 2016-08-29 2018-03-08 ソニー株式会社 Information presentation apparatus and information presentation method
JPWO2018043112A1 (en) * 2016-08-29 2019-06-24 ソニー株式会社 Information presentation apparatus and information presentation method

Also Published As

Publication number Publication date
JP3592194B2 (en) 2004-11-24

Similar Documents

Publication Publication Date Title
JP3578464B2 (en) Automatic composition method
US8422852B2 (en) Automated story generation
JP4065142B2 (en) Authoring apparatus and authoring method
JP2994996B2 (en) Multimedia editing device
JP3507176B2 (en) Multimedia system dynamic interlocking method
CN112367551B (en) Video editing method and device, electronic equipment and readable storage medium
JP2008129942A (en) Content retrieval device
CN112188266A (en) Video generation method and device and electronic equipment
JP2001275058A (en) Method and device for generating explanatory sentence of video content, method and device for programming digest video, and computer-readable recording medium with program for making computer implement the same methods recorded thereon
JP4137007B2 (en) Video content description generation apparatus and computer-readable recording medium
JP4196052B2 (en) Music retrieval / playback apparatus and medium on which system program is recorded
Pillai Syncretic cultural multivocality and the Malaysian popular musical imagination
Becker A hip-hopera in Cape Town: The aesthetics, and politics of performing ‘Afrikaaps’
US7500187B1 (en) Creation assisting method and apparatus utilizing element indexes
KR102500735B1 (en) Video streaming service server for displaying advertisement information related to video and operating method thereof
Taylor From transnationalism to nativism? The rise, decline and reinvention of a regional Hokkien entertainment industry
Goldschmitt Anitta's ‘Girl from Rio’, Digital Fatigue, and Stereotype
US20030103053A1 (en) Method for creating photo-realistic animation that expresses a plurality of expressions
JP3522194B2 (en) A karaoke device with a feature of modifying the lyrics display
JP2007184674A (en) Digest making system
Isenberg Tangled Relations: Shakespeare and Ballet
CN109889879A (en) Information control method and electronic equipment
WO2021240678A1 (en) Video image processing device, video image processing method, and recording medium
JP2001154567A (en) Method and device for reproducing sign language animation image
Mc Glynn The “Cinematic Promise” of Video Game Music: Stylistic Convergence, Current-Generation Remakes, and the Case of Final Fantasy VII

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040824

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080903

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080903

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090903

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090903

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100903

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110903

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120903

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130903

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees