JP4261317B2 - Short film generating and reproducing apparatus and method thereof - Google Patents

Short film generating and reproducing apparatus and method thereof Download PDF

Info

Publication number
JP4261317B2
JP4261317B2 JP2003379610A JP2003379610A JP4261317B2 JP 4261317 B2 JP4261317 B2 JP 4261317B2 JP 2003379610 A JP2003379610 A JP 2003379610A JP 2003379610 A JP2003379610 A JP 2003379610A JP 4261317 B2 JP4261317 B2 JP 4261317B2
Authority
JP
Japan
Prior art keywords
effect
still image
short film
scenario
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003379610A
Other languages
Japanese (ja)
Other versions
JP2005025715A (en
Inventor
康浩 森
一郎 岡林
真樹 山内
章裕 川端
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2003379610A priority Critical patent/JP4261317B2/en
Publication of JP2005025715A publication Critical patent/JP2005025715A/en
Application granted granted Critical
Publication of JP4261317B2 publication Critical patent/JP4261317B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、少なくとも1つ以上の静止画を用いて、短編の映像を生成し、再生するショートフィルム生成再生装置およびその方法に関する。   The present invention relates to a short film generation / playback apparatus and method for generating and playing back a short video using at least one still picture.

2001年日本国内のカメラ市場において、デジタルスチルカメラ(Digital Still Camera)の出荷数が銀塩カメラの出荷数を超え、2002年にはさらにその格差が広がると予測されている。また、近年の携帯電話市場では、デジタルカメラ付の携帯電話が多数リリースされ、それらのモデルは多大な人気を集めている。このようなことから、デジタルスチルカメラのユーザは増加しており、これらユーザの多くは大量のデジタル静止画(Digital Still Picture、以下、DSPという)を保有している。   In the Japanese camera market in 2001, the number of digital still cameras shipped is expected to exceed the number of film cameras shipped, and in 2002 the gap is expected to widen further. In the recent mobile phone market, a large number of mobile phones with digital cameras have been released, and these models have become very popular. For this reason, the number of users of digital still cameras is increasing, and many of these users have a large amount of digital still pictures (hereinafter referred to as DSPs).

これらのDSPは、一般的にパソコンのディスクドライブに溜め込まれている。この大量のDSPを閲覧・管理するために、いわゆるデジカメソフトと呼ばれる画像閲覧、管理用のアプリケーションソフトウェアが市販されている。これらのアプリケーションは、従来の紙のアルバムのイメージをパソコン上に実現することに加えて、サムネイルによる全体の閲覧、ディレクトリによる階層管理などの機能を有している。   These DSPs are generally stored in a disk drive of a personal computer. In order to view and manage this large amount of DSP, application software for image browsing and management called so-called digital camera software is commercially available. These applications have functions such as overall browsing with thumbnails and hierarchical management with directories, in addition to realizing conventional paper album images on a personal computer.

また、これらのアプリケーションでは、ディスクドライブ内に保存されたDSPを見る場合の一つの機能として、スライドショーと呼ばれる機能がある(例えば、特許文献1参照。)。このスライドショーは、スライド映写機と同様に一定時間間隔、あるいは、ユーザの指示等のトリガによって、表示するDSPを切り替えていくもの、いわゆる”デジタルな紙芝居”である。アプリケーションによっては、BGMを付加したり、DSPの切り替えの際にフェード、ワイプ、回転などのトランジションを付加したりして、よりエンターテイメント性を向上させたものもある。   In addition, in these applications, there is a function called a slide show as one function when viewing a DSP stored in a disk drive (see, for example, Patent Document 1). This slide show is a so-called “digital picture-story show” in which the DSP to be displayed is switched by a constant time interval or a trigger such as a user instruction as in the case of the slide projector. Depending on the application, BGM may be added, or transitions such as fade, wipe, and rotation may be added at the time of DSP switching to further improve entertainment.

しかしながら、これらのアプリケーションは、従来の紙のアルバムをパソコン上で仮想的に実現したものであって、スライドショーは基本的には紙芝居と同じであり、ページをめくりながら一枚一枚写真を見るのと何ら変わらない。したがって、デジタルデータとしての特性を積極的に活用するものでも、デジタルならではの楽しさを提供するものでもない。   However, these applications are virtual realizations of a conventional paper album on a personal computer, and a slide show is basically the same as a picture-story show. No change. Therefore, it does not actively utilize the characteristics of digital data, nor does it provide the enjoyment unique to digital.

そこで、デジタルならではの楽しさを提供するために、入力された静止画から映画のような短編の映像(ショートフィルム)を作成するアプリケーションが開発されている。このアプリケーションは、素材となる静止画、BGM(音楽)およびスタイルセットをユーザが選択するだけで、ショートフィルムを自動的に生成する。スタイルセットは、出来上がるショートフィルムに対する全般的なイメージ(色調や効果)と、そのイメージに従った視覚効果(静止画に促す効果、エフェクト)とを規定したものである。このアプリケーションによって生成されるショートフィルムは、静止画に動画のような動きが与えられ、デジタル静止画を使った新しいエンターテイメントの世界を切り開いた点で画期的である。
特開平01−92875号公報(第1頁、第1図)
Therefore, in order to provide enjoyment unique to digital, an application for creating a short video (short film) like a movie from an input still image has been developed. This application automatically generates a short film by simply selecting a still image, BGM (music), and style set as materials. The style set defines a general image (color tone and effect) for the short film to be completed, and a visual effect (effect to promote still image, effect) according to the image. The short film produced by this application is groundbreaking in that still images are given motion-like motion, opening up a new world of entertainment using digital still images.
Japanese Unexamined Patent Publication No. 01-92875 (first page, FIG. 1)

しかしながら、上記のアプリケーションでは、以下のような問題点がある。
まず、第1に、ユーザが静止画、音楽およびスタイルを選択した場合は、ときにスタイル(エフェクト)にアンマッチングなBGM、DSPが選ばれてしまい、ショートフィルムを見ていて、違和感を感じることがある。
第2に、静止画、音楽およびスタイルをユーザが全て選択しなければならず、非常に煩わしい。例えば、ユーザが使いたいDSPを選ぶのはともかく、ユーザが選んだ画像にマッチした音楽、スタイルを選ぶのは面倒である。また逆に、ユーザが夏らしい音楽を選択したときに、夏らしいDSPとアクティブなスタイルを選択したいと思ったとしても、莫大なDSPのライブラリの中から、適切な画像セットを選択するのは至難である。
However, the above application has the following problems.
First, when the user selects a still image, music, and style, sometimes unmatched BGM or DSP is selected for the style (effect), and the user feels uncomfortable when watching the short film. There is.
Secondly, the user has to select all the still images, music, and style, which is very troublesome. For example, aside from selecting a DSP that the user wants to use, it is troublesome to select music and style that match the image selected by the user. Conversely, when a user selects summer-like music, even if he / she wants to select a summer-like DSP and an active style, it is extremely difficult to select an appropriate image set from a huge DSP library. It is.

第3に、ショートフィルム中で実現されている効果は、DSP中に写っている、例えば「顔」等のオブジェクトを認識し、その位置関係を考慮した上で、DSPに視覚効果を適用しているわけではない。従って、意味のない部分を切り取って挿入するカットに使用したり、人物の顔が切れたり、意味のない部分を中心としてズームインしたりといったことが頻繁に起こる。   Thirdly, the effect realized in the short film is to recognize the object such as “face” in the DSP and apply the visual effect to the DSP after considering its positional relationship. I don't mean. Therefore, it often occurs that a meaningless part is used for cutting and inserting, a person's face is cut, or a person zooms in on a meaningless part.

第4に、パソコンでの使用を前提としているので、ユーザはキーボードにより操作することになり、複雑かつ手間がかかる。また、家電の情報化に伴い、テレビ等の家電機器でもショートフィルムを再生することが望まれるが、家電機器ではショートフィルムを再生することができない。
第5に、オブジェクトの種類、例えば顔のパーツを認識した上で、視覚効果を適用していない。したがって、顔パーツの途中で切れたり、パーツの重要性を識別してスライドイン/アウトする順序が決定されないので、見ている側に違和感をもたらす。
Fourthly, since it is assumed to be used on a personal computer, the user operates the keyboard, which is complicated and troublesome. In addition, along with the computerization of home appliances, it is desired to play back short films on home appliances such as televisions, but short films cannot be played back on home appliances.
Fifth, the visual effect is not applied after recognizing the type of object, for example, a facial part. Accordingly, the face part is cut off in the middle, or the order of sliding in / out by identifying the importance of the part is not determined, so that the viewer is uncomfortable.

第6に、オブジェクトの名前を認識した上で、視覚効果を適用していない。その結果、全てのオブジェクトが平等に扱われることになって、任意の人にフォーカスしたショートフィルムを生成することができない。故に結婚式の披露宴、誕生日会など特定の人を中心としたパーティーで、撮影した静止画を用いてショートフィルムを生成し、再生する場合、従来のアプリケーションによって生成されたショートフィルムであれば、フォーカスがボケてしまって主役が誰であるかわからないので、再生する場によっては目的に沿わないことがあり得る。   Sixth, the visual effect is not applied after recognizing the name of the object. As a result, all objects are treated equally, and a short film focused on an arbitrary person cannot be generated. Therefore, when a short film is generated and played using a still image taken at a party centering on a specific person such as a wedding reception or a birthday party, if it is a short film generated by a conventional application, Since the focus is out of focus and the main character is unknown, it may not meet the purpose depending on the playback location.

そこで、本発明は上記の事情に鑑みてなされたものであり、静止画、音楽およびスタイル等の各要素のいずれかを選択すれば、それにマッチした他の要素を決定してショートフィルムを生成し、再生することができ、また静止画中のオブジェクトを視覚効果に反映させることによって、エンターテイメント性を向上させたショートフィルムを生成、再生することができるショートフィルム生成再生装置およびその方法等を提供することを第1の目的とする。   Therefore, the present invention has been made in view of the above circumstances. If any one of elements such as a still image, music, and style is selected, another element that matches the element is determined and a short film is generated. Provided are a short film generation / playback apparatus and method capable of playing back and generating and playing back a short film with improved entertainment properties by reflecting an object in a still image in a visual effect. This is the first purpose.

また、家電機器においても、ユーザが手間をかけることなく、ショートフィルムを生成し、再生することができるショートフィルム生成再生装置およびその方法等を提供することを第2の目的とする。
また、静止画のオブジェクト情報を元にエフェクトの動作を確定するパラメータを決定することによって、エンターテイメント性を向上させたショートフィルムを生成し、再生することができるショートフィルム生成再生装置およびその方法を提供することを第3の目的とする。
Further, a second object of the present invention is to provide a short film generation / playback apparatus, a method thereof, and the like that can generate and play back a short film without requiring time and effort by a user.
Also provided is a short film generation / reproduction apparatus and method capable of generating and reproducing a short film with improved entertainment by determining a parameter for determining an effect operation based on object information of a still image. This is the third purpose.

また、オブジェクトの名前を認識した上で、視覚効果に反映させることによって、特定のオブジェクトにフォーカスしたショートフィルムを生成することができるショートフィルム生成再生装置およびその方法を提供することを第4の目的とする。   It is a fourth object of the present invention to provide a short film generation / playback apparatus and method capable of generating a short film focused on a specific object by recognizing the name of the object and reflecting it in the visual effect. And

上記第1の目的を達成するために、本発明に係るショートフィルム生成再生装置においては、少なくとも1つの静止画を用いて、映像を生成し、再生するショートフィルム生成再生装置であって、前記静止画、前記静止画の特徴を表す画像特徴量、生成する映像の全体的なイメージを表すスタイル、当該スタイルの特徴を表すスタイル特徴量、音楽および当該音楽の特徴を表す音楽特徴量を記憶するデータベース手段と、映像を生成する際に用いる前記静止画、前記音楽および前記スタイルのいずれか1つを選択するための選択手段と、前記選択手段により選択された前記静止画、前記音楽および前記スタイルのいずれか1つに対応する特徴量を前記データベース手段から読み出す特徴量読出手段と、前記特徴量読出手段により読み出された前記特徴量を他の特徴量に変換する特徴量変換手段と、前記特徴量変換手段により変換された前記他の特徴量に基づいて、映像を生成する際に用いる前記静止画、前記音楽および前記スタイルの内、前記選択手段により選択されなかった前記静止画、前記音楽および前記スタイルをそれぞれ決定する決定手段と、前記選択手段により選択された前記静止画、前記音楽および前記スタイルのいずれか1つ並びに前記決定手段により決定された前記静止画、前記音楽および前記スタイルに基づいて映像のシナリオを生成するシナリオ生成手段とを備えることを特徴とすることができる。   In order to achieve the first object, the short film generation / playback apparatus according to the present invention is a short film generation / playback apparatus that generates and plays back video using at least one still image. A database for storing a picture, an image feature amount representing the feature of the still image, a style representing an overall image of the generated video, a style feature amount representing the feature of the style, music, and a music feature amount representing the feature of the music Means for selecting any one of the still image, the music, and the style to be used when generating a video, and the still image, the music, and the style selected by the selection unit. The feature quantity reading means for reading out the feature quantity corresponding to any one from the database means and the feature quantity reading means A feature amount converting unit that converts the feature amount into another feature amount, and the still image, the music, and the music used when generating a video based on the other feature amount converted by the feature amount converting unit Of the styles, any one of the still image, the music, and the style that are not selected by the selection unit, and the still image, the music, and the style selected by the selection unit. And scenario generation means for generating a video scenario based on the still image, the music, and the style determined by the determination means.

これによって、映像を作成する際に用いる静止画、音楽およびスタイルのいずれか1つを選択するだけで、シナリオひいては映像を作成することができるので、ユーザは映像を作成するときに従来のように静止画、音楽およびスタイルの全てを選ぶ必要がない。   As a result, the user can create the scenario and the video simply by selecting one of the still image, music, and style used when creating the video. You don't have to choose all of your still images, music and styles.

ここで、本発明に係るショートフィルム生成再生装置においては、前記選択手段により静止画が選択された場合、前記特徴量変換手段は、前記特徴量読出し手段により読み出された画像特徴量を音楽特徴量およびスタイル特徴量に変換することを特徴とすることもできる。
これによって、映像を生成する際に用いる最適な音楽およびスタイルを決定することができる。
Here, in the short film generation / playback apparatus according to the present invention, when the still image is selected by the selection unit, the feature amount conversion unit converts the image feature amount read by the feature amount reading unit into a music feature. It can also be characterized by conversion to a quantity and style feature quantity.
As a result, it is possible to determine the optimal music and style to be used when generating the video.

また、本発明に係るショートフィルム生成再生装置においては、前記選択手段により音楽が選択された場合、前記特徴量変換手段は、前記特徴量読出し手段により読み出された音楽特徴量を画像特徴量およびスタイル特徴量に変換することを特徴とすることもできる。
これによって、映像を生成する際に用いる最適な音楽および静止画を決定することができる。
In the short film generation / playback apparatus according to the present invention, when music is selected by the selection unit, the feature amount conversion unit converts the music feature amount read by the feature amount reading unit into an image feature amount and It can also be characterized by conversion into style feature values.
As a result, it is possible to determine the optimal music and still image to be used when generating the video.

また、本発明に係るショートフィルム生成再生装置においては、前記選択手段によりスタイルが選択された場合、前記特徴量変換手段は、前記特徴量読出し手段により読み出されたスタイル特徴量を画像特徴量および音楽特徴量に変換することを特徴とすることもできる。
これによって、映像を生成する際に用いる最適な静止画および音楽を決定することができる。
In the short film generation / playback apparatus according to the present invention, when a style is selected by the selection unit, the feature amount conversion unit converts the style feature amount read by the feature amount reading unit into an image feature amount and It can also be characterized by converting to music feature values.
Thereby, it is possible to determine the optimum still image and music to be used when generating the video.

具体的には、本発明に係るショートフィルム生成再生装置においては、前記データベース手段は、さらに、生成する映像のテーマおよび当該テーマの特徴を表すテーマ特徴量を記憶し、前記選択手段は、映像を生成する際に用いる前記静止画、前記音楽、前記スタイルおよび前記テーマのいずれか1つを選択し、前記特徴量読出手段は、前記選択手段により選択された前記静止画、前記音楽、前記スタイルおよび前記テーマのいずれか1つの特徴量を前記データベース手段から読み出すことを特徴としてもよい。   Specifically, in the short film generation / playback device according to the present invention, the database means further stores a theme of the video to be generated and a theme feature amount representing the characteristics of the theme, and the selection means stores the video. One of the still image, the music, the style, and the theme used for generation is selected, and the feature amount reading unit selects the still image, the music, the style, and the selected by the selection unit. One of the feature values of the theme may be read from the database unit.

これによって、静止画、音楽、スタイルおよびテーマの4つに選択枝を広げることができるとともに、映像を作成する際に用いる静止画、音楽、スタイルおよびテーマのいずれか1つを選択するだけで、シナリオひいては映像を作成することができる。   This allows you to expand your selection to 4 still images, music, styles, and themes, and you can simply select one of the still images, music, styles, and themes to use when creating your video. You can create scenarios and video.

また、本発明に係るショートフィルム生成再生装置においては、前記特徴量変換手段は、前記特徴量読出し手段により読み出されたテーマ特徴量を画像特徴量、音楽特徴量およびスタイル特徴量に変換することを特徴とすることもできる。
これによって、映像を生成する際に用いる最適な静止画、音楽およびスタイルを決定することができる。
In the short film generation / playback device according to the present invention, the feature amount conversion unit converts the theme feature amount read by the feature amount reading unit into an image feature amount, a music feature amount, and a style feature amount. Can also be characterized.
This makes it possible to determine the optimum still image, music, and style to be used when generating the video.

また、本発明に係るショートフィルム生成再生装置においては、前記ショートフィルム生成再生装置は、さらに、静止画を取得する静止画取得手段と、前記静止画取得手段により取得された静止画から画像特徴量を抽出する画像特徴量抽出手段とを備えることを特徴としてもよい。
これによって、画像特徴量を作成する煩雑を防止しつつ、静止画に合致した画像特徴量を取得することができる。
In the short film generation / reproduction device according to the present invention, the short film generation / reproduction device further includes a still image acquisition unit for acquiring a still image, and an image feature amount from the still image acquired by the still image acquisition unit. It is good also as providing the image feature-value extraction means which extracts.
As a result, it is possible to acquire the image feature amount that matches the still image while preventing the complexity of creating the image feature amount.

また、本発明に係るショートフィルム生成再生装置においては、前記ショートフィルム生成再生装置は、さらに、前記静止画取得手段により取得された静止画からオブジェクト情報を抽出するオブジェクト情報抽出手段を備えることを特徴とすることもできる。   Further, in the short film generation / playback apparatus according to the present invention, the short film generation / playback apparatus further includes object information extraction means for extracting object information from the still image acquired by the still image acquisition means. It can also be.

これによって、抽出されたオブジェクト情報を用いて映像を構成する最適な静止画を選択することが容易になる。
また、本発明に係るショートフィルム生成再生装置においては、前記スタイルは、対象となる1つ以上の静止画をどのような視覚効果を用いて再生するかを規定した所定数のエフェクトおよび属性を含むパラメータを有し、前記シナリオ生成手段は、前記エフェクトの対象である静止画の前記オブジェクト情報を前記エフェクトに関連付けることを特徴とすることもできる。
This makes it easy to select an optimal still image that constitutes a video using the extracted object information.
In the short film generation / playback apparatus according to the present invention, the style includes a predetermined number of effects and attributes that define what visual effect is used to play back one or more target still images. The scenario generation means may include a parameter, and the object information of a still image that is a target of the effect is associated with the effect.

これによって、静止画のオブジェクト情報を元にエフェクトの動作を確定するパラメータを決定することによって、オブジェクトに着目した静止画を選択し、エンターテイメント性を向上させたショートフィルムを生成し、再生することができる。
具体的には、本発明に係るショートフィルム生成再生装置においては、前記シナリオ生成手段は、前記スタイルが備える一群のエフェクトの中から1つのエフェクトを1つずつ選択し、選択したエフェクトを時間軸上に順次配置するエフェクト配置手段と、前記エフェクト配置手段が時間軸上に配置したエフェクト毎に、前記オブジェクト情報に基づいて、当該エフェクトが要求する画像の特徴量を満たす静止画を割り当てる静止画割当手段と、前記エフェクト配置手段が時間軸上に配置したエフェクトに合致したオブジェクトに対する処理を示すパラメータを記述することによってシナリオを生成し、生成したシナリオを前記データベース手段に登録するパラメータ設定手段とを有することを特徴とすることができる。
This makes it possible to select a still image focusing on the object by generating a parameter for determining the action of the effect based on the object information of the still image, and to generate and play a short film with improved entertainment properties. it can.
Specifically, in the short film generation / playback device according to the present invention, the scenario generation means selects one effect from a group of effects included in the style one by one, and the selected effect is on the time axis. Effect placement means for sequentially placing the image on the time axis, and still image assignment means for assigning a still image that satisfies the feature amount of the image requested by the effect, based on the object information, for each effect placed on the time axis by the effect placement means And a parameter setting means for generating a scenario by describing a parameter indicating processing for an object that matches the effect placed on the time axis by the effect placement means and registering the created scenario in the database means Can be characterized.

これによって、静止画のオブジェクト情報を元にエフェクトの動作を確定するパラメータを決定することによって、オブジェクトが分断されるような事態が回避され、オブジェクトに着目したエンターテイメント性を向上させたショートフィルムを生成し、再生することができる。
また、本発明に係るショートフィルム生成再生装置においては、前記エフェクトが要求する画像の特徴量は、オブジェクトの特徴量であることを特徴としてもよい。
As a result, by determining the parameters that determine the action of the effect based on the object information of the still image, a situation in which the object is divided is avoided, and a short film with improved entertainment characteristics focusing on the object is generated. And can be played.
In the short film generation / playback apparatus according to the present invention, the image feature amount required by the effect may be a feature amount of an object.

また、本発明に係るショートフィルム生成再生装置においては、前記オブジェクトの特徴は、オブジェクトの種類、色、形および数の少なくとも1つであることを特徴としてもよい。
また、本発明に係るショートフィルム生成再生装置においては、前記ショートフィルム生成再生装置は、さらにオブジェクトに含まれる特徴的な部分を示す特徴点を抽出し、抽出した特徴点を前記オブジェクト情報に登録する特徴点抽出手段を備え、前記パラメータ設定手段は、オブジェクトに含まれる特徴点の位置に対する処理を示すパラメータを記述することによってシナリオを生成することを特徴とすることもできる。
これによって、オブジェクトの特徴点に着目したエンターテイメント性を向上させたショートフィルムを生成し、再生することができる。
In the short film generation / playback device according to the present invention, the object may have at least one of a type, a color, a shape, and a number of objects.
In the short film generation / playback device according to the present invention, the short film generation / playback device further extracts a feature point indicating a characteristic portion included in the object, and registers the extracted feature point in the object information. A feature point extraction unit may be provided, and the parameter setting unit may generate a scenario by describing a parameter indicating processing for a position of a feature point included in the object.
This makes it possible to generate and play back a short film with improved entertainment that focuses on the feature points of the object.

また、本発明に係るショートフィルム生成再生装置においては、前記データベース手段は、さらに、個人の顔を特定するための個人認証用顔情報を記憶し、前記ショートフィルム生成再生装置は、さらに、前記オブジェクト情報抽出手段が抽出したオブジェクトが人の顔である場合、前記個人認証用顔情報を用いてオブジェクトの名前を認証し、認証したオブジェクトの名前を前記オブジェクト情報に登録する顔認証手段を有し、前記パラメータ設定手段は、名前で特定されるオブジェクトに対する処理を示すパラメータを記述することによってシナリオを生成することを特徴とすることもできる。   Further, in the short film generation / playback apparatus according to the present invention, the database means further stores personal authentication face information for specifying an individual's face, and the short film generation / playback apparatus further includes the object When the object extracted by the information extraction means is a human face, the face authentication means authenticates the name of the object using the face information for personal authentication, and registers the name of the authenticated object in the object information, The parameter setting means may generate a scenario by describing a parameter indicating processing for an object specified by a name.

これによって、オブジェクトの名前を認識した上で、視覚効果に反映させることによって、特定のオブジェクトにフォーカスしたショートフィルムを生成し、再生することができる。   Thus, a short film focused on a specific object can be generated and reproduced by recognizing the name of the object and reflecting it in the visual effect.

また、本発明に係るショートフィルム生成再生装置においては、前記ショートフィルム生成再生装置は、さらに個人の名前とその個人の属性とを対応付けた個人情報を記憶する個人情報記憶手段と、顔認証手段が認証したオブジェクトの名前に対応する個人の属性を前記個人情報から検索し、検索した個人の属性を前記オブジェクト情報に登録する個人情報検索手段とを有し、前記パラメータ設定手段は、個人の属性で特定されるオブジェクトに対する処理を示すパラメータを記述することによってシナリオを生成することを特徴とすることもできる。
これによって、個人の属性で特定されるオブジェクトに対する処理を行う視覚効果を有するショートフィルムを生成し、再生することができる。
In the short film generation / playback device according to the present invention, the short film generation / playback device further includes personal information storage means for storing personal information in which a person's name is associated with an attribute of the person, and face authentication means. The personal information corresponding to the name of the authenticated object is searched from the personal information, and the personal information search means for registering the searched personal attribute in the object information is included, and the parameter setting means includes the personal attribute It is also possible to generate a scenario by describing a parameter indicating processing for an object specified in (1).
Thereby, a short film having a visual effect for performing processing on an object specified by an individual attribute can be generated and reproduced.

また、本発明に係るショートフィルム生成再生装置においては、前記スタイルは、対象となる1つ以上の静止画をどのような視覚効果を用いて再生するかを規定した所定数のエフェクトおよび属性を含むパラメータを有し、前記シナリオ生成手段は、前記スタイルが有する前記属性および前記エフェクトが有する属性に基づいて、前記エフェクトの配列を行うことを特徴としてもよい。
これによって、スタイルでシナリオの骨格を決めた後、その視覚効果をきめ細かく決めることができる。
In the short film generation / playback apparatus according to the present invention, the style includes a predetermined number of effects and attributes that define what visual effect is used to play back one or more target still images. It has a parameter, The scenario generation means may arrange the effect based on the attribute which the style has, and the attribute which the effect has.
This allows the visual effects to be determined in detail after the scenario skeleton has been determined by style.

また、本発明に係るショートフィルム生成再生装置においては、前記エフェクトは、1つのエフェクトだけで構成される基本エフェクトおよび複数の基本エフェクトの組み合わせで構成されるエフェクトブロックのいずれかであり、前記シナリオ生成手段は、前記スタイルが有する前記属性および前記エフェクトが有する属性に基づいて、前記基本エフェクトまたは前記エフェクトブロックの配列を行うことを特徴とすることもできる。
これによって、スタイルでシナリオの骨格を決めた後、その視覚効果をよりきめ細かく決めることができる。
In the short film generation / playback device according to the present invention, the effect is one of a basic effect including only one effect and an effect block including a combination of a plurality of basic effects, and the scenario generation The means may arrange the basic effects or the effect blocks based on the attributes of the style and the attributes of the effect.
This allows the visual effects to be determined more precisely after the scenario skeleton has been determined by style.

また、本発明に係るショートフィルム生成再生装置においては、前記シナリオ生成手段は、前記エフェクトに当該エフェクトの種類に応じた静止画を割り当てることを特徴とすることもできる。
これによって、エフェクトに対して最適な静止画を割り当てることができる。
また、本発明に係るショートフィルム生成再生装置においては、前記ショートフィルム生成再生装置は、さらに、再生する映像の選択を行うためのショートフィルム選択手段と、前記ショートフィルム選択手段により選択された映像のシナリオおよび前記シナリオに定義された前記静止画と前記音楽とを前記データベース手段から読み出し、前記シナリオに基づいて前記映像を再生するショートフィルム再生手段とを備えることを特徴としてもよい。
これにより、作成済みのショートフィルムの中から好みのショートフィルムを選んで再生することができる。
In the short film generation / playback device according to the present invention, the scenario generation means may assign a still image corresponding to the type of the effect to the effect.
As a result, an optimal still image can be assigned to the effect.
Further, in the short film generation / playback device according to the present invention, the short film generation / playback device further includes a short film selection means for selecting a video to be played back, and a video selected by the short film selection means. A short film playback unit that reads a scenario and the still image defined in the scenario and the music from the database unit and plays back the video based on the scenario may be provided.
As a result, a favorite short film can be selected from the created short films and reproduced.

また、本発明に係るショートフィルム生成再生装置においては、前記ショートフィルム生成再生装置は、さらに、前記ショートフィルム再生手段により再生された前記映像を表示するための表示手段を備えることを特徴とすることもできる。   Moreover, in the short film production | generation reproduction | regeneration apparatus which concerns on this invention, the said short film production | generation reproduction | regeneration apparatus is further provided with the display means for displaying the said image reproduced | regenerated by the said short film reproduction | regeneration means, It is characterized by the above-mentioned. You can also.

また、上記第2の目的を達成するために、本発明に係るショートフィルム生成再生装置においては、前記ショートフィルム生成再生装置は、さらに、当該装置および当該装置に接続される前記映像を表示するための表示装置の操作を行うための操作手段を備え、前記ショートフィルム再生手段は、前記映像を再生した信号をRF信号に変調して出力するとともに、前記操作手段に設けられ、前記RF信号が割り当てられた所定のチャンネルボタンが押下されると、前記映像の再生を開始することを特徴とすることもできる。   In order to achieve the second object, in the short film generating / reproducing apparatus according to the present invention, the short film generating / reproducing apparatus further displays the apparatus and the video connected to the apparatus. Operating means for operating the display device, wherein the short film reproducing means modulates and outputs a signal obtained by reproducing the video to an RF signal, and is provided in the operating means, to which the RF signal is assigned. When the predetermined channel button is pressed, the playback of the video is started.

また、本発明に係るショートフィルム生成再生装置においては、前記ショートフィルム再生手段は、前記チャンネルボタンが押下される毎に、再生を行っている前記映像を他の映像に切り替えることを特徴とすることもできる。
また、本発明に係るショートフィルム生成再生装置においては、前記ショートフィルム再生手段は、前記映像を同時に複数再生し、前記RF信号を複数出力することを特徴とすることもできる。
In the short film generation / playback apparatus according to the present invention, the short film playback means switches the video being played to another video each time the channel button is pressed. You can also.
Moreover, in the short film production | generation reproduction | regeneration apparatus which concerns on this invention, the said short film reproduction | regeneration means can also reproduce | regenerate the said image | video several times simultaneously, and can output a plurality of said RF signals.

また、本発明に係るショートフィルム生成再生装置においては、前記ショートフィルム生成再生装置は、さらに、当該装置および当該装置に接続される前記映像を表示するための表示装置の操作を行うための操作手段を備え、前記ショートフィルム再生手段は、前記映像を再生した信号をビデオ信号に変調して出力するとともに、前記操作手段に設けられ、前記ビデオ信号が割り当てられた所定のボタンが押下されると、前記映像の再生を開始することを特徴とすることもできる。   Moreover, in the short film production | generation reproduction | regeneration apparatus which concerns on this invention, the said short film production | generation reproduction | regeneration apparatus is further the operation means for operating the display apparatus for displaying the said image | video connected to the said apparatus and the said apparatus. The short film playback means modulates and outputs a video signal as a video playback signal, and is provided in the operation means when a predetermined button to which the video signal is assigned is pressed, It is also possible to start playback of the video.

また、本発明に係るショートフィルム生成再生装置においては、前記ショートフィルム再生手段は、前記ボタンが押下される毎に、再生を行っている前記映像を他の映像に切り替えることを特徴とすることもできる。
また、本発明に係るショートフィルム生成再生装置においては、前記ショートフィルム生成再生装置は、ホームサーバであることを特徴とすることもできる。
In the short film generation / playback apparatus according to the present invention, the short film playback means may switch the video being played to another video each time the button is pressed. it can.
Moreover, in the short film production | generation reproduction | regeneration apparatus which concerns on this invention, the said short film production | generation reproduction | regeneration apparatus can also be a home server.

また、少なくとも1つの静止画を用いて、映像を生成し、再生するショートフィルム生成再生装置であって、当該装置および当該装置に接続される映像を表示するための表示装置の操作を行うための操作手段と、映像を再生した信号をRF信号に変調して出力するとともに、前記操作手段に設けられ、前記RF信号が割り当てられた所定のボタンが押下されると、映像の再生を開始するショートフィルム再生手段を備えることを特徴としてもよい。   Also, a short film generation / playback device that generates and plays back video using at least one still image for operating the device and a display device for displaying video connected to the device. The operation means and a signal that reproduces the video are modulated and output as an RF signal, and a short circuit that is provided in the operation means and starts playing the video when a predetermined button assigned with the RF signal is pressed. A film reproducing means may be provided.

また、本発明に係るショートフィルム生成再生装置においては、少なくとも1つの静止画を用いて、映像を生成し、再生するショートフィルム生成再生装置であって、前記静止画、前記静止画の特徴を表す画像特徴量、音楽、前記音楽の特徴を表す音楽特徴量および対象となる1以上の静止画をどのような視覚効果を用いて再生するかを規定したエフェクトを記憶するデータベース手段と、映像を生成する際に用いる前記静止画および前記音楽のいずれか1つを選択するための選択手段と、前記選択手段により選択された前記静止画および前記音楽のいずれかの特徴を表す特徴量を前記データベース手段から読み出す特徴量読出手段と、前記特徴量読出手段により読み出された前記特徴量を他の特徴量に変換する特徴量変換手段と、前記特徴量変換手段により変換された前記他の特徴量に基づいて、それぞれ映像を生成する際に用いる前記静止画および前記音楽の内、前記選択手段により選択されなかった前記静止画および前記音楽を決定する決定手段と、前記選択手段により選択され前記静止画および前記音楽のいずれか並びに前記決定手段により決定された前記静止画および前記音楽に基づいて、映像を生成する際に用いる所定数の前記エフェクトおよびパラメータを決定し、生成する映像の全体的なイメージを表すスタイルを生成するスタイル生成手段と、前記選択手段により選択され前記静止画および前記音楽のいずれか、前記決定手段により決定された前記静止画および前記音楽並びに前記スタイル生成手段により生成された前記スタイルに基づいて映像のシナリオを生成するシナリオ生成手段とを備えることを特徴とすることができる。   The short film generation / reproduction device according to the present invention is a short film generation / reproduction device that generates and reproduces video using at least one still image, and represents the characteristics of the still image and the still image. Database means for storing image features, music, music features representing the music features, and effects defining which visual effect is to be used to reproduce one or more target still images, and generating video Selecting means for selecting any one of the still image and the music to be used when performing the processing, and a feature amount representing any feature of the still image and the music selected by the selecting means. A feature amount reading unit that reads from the feature amount, a feature amount conversion unit that converts the feature amount read by the feature amount reading unit into another feature amount, and the feature Determination to determine the still image and the music that are not selected by the selection unit among the still image and the music that are used when generating the video based on the other feature amount converted by the conversion unit, respectively. And a predetermined number of the effects and parameters used when generating a video based on one of the still image and the music selected by the selection unit and the still image and the music determined by the determination unit Style generating means for generating a style representing an overall image of the video to be generated, and either the still image or the music selected by the selecting means, the still image determined by the determining means, and A video scenario is generated based on the music and the style generated by the style generation means. It can be characterized by and a scenario generation unit that.

これによって、映像を作成する際に用いる静止画および音楽のいずれか1つを選択するだけで、シナリオひいては映像を作成することができるので、ユーザは映像を作成するときに従来のように静止画、音楽およびスタイルの全てを選ぶ必要がない。しかも、映像を生成する際に用いる最適なスタイルを決定することができる。   As a result, the user can create a scenario and video by simply selecting one of the still image and music used when creating the video. You don't have to choose all of your music and style. In addition, it is possible to determine the optimum style used when generating the video.

また、本発明に係るショートフィルム生成再生装置においては、少なくとも1つの静止画を用いて、映像を生成し、再生するショートフィルム生成再生装置であって、静止画を取得する静止画取得手段と、前記静止画を記憶するデータベース手段と、前記静止画取得手段により取得された静止画から、当該静止画に含まれるオブジェクトを抽出し、抽出したオブジェクトの位置を含むオブジェクト情報を前記データベース手段に登録するオブジェクト情報抽出手段とを備えることを特徴とすることもできる。   Further, in the short film generation and reproduction apparatus according to the present invention, a short film generation and reproduction apparatus that generates and reproduces video using at least one still image, and a still image acquisition unit that acquires a still image; From the database means for storing the still picture and the still picture acquired by the still picture acquisition means, an object included in the still picture is extracted, and object information including the position of the extracted object is registered in the database means. An object information extracting unit may be provided.

また、上記第3の目的を達成するために、本発明に係るショートフィルム生成再生装置においては、少なくとも1つの静止画を用いて、映像を生成し、再生するショートフィルム生成再生装置であって、外部から入力された静止画を入力する入力手段と、前記静止画、対象となる1つ以上の静止画をどのような視覚効果を用いて再生するかを規定した所定数のエフェクトとパラメータとを有するスタイルおよび生成する映像に用いられる音楽を記憶するデータベース手段と、予め決定されたスタイルおよび音楽の特徴に基づいて、映像のシナリオを生成するシナリオ生成手段とを備え、前記入力手段は、外部から静止画が入力される毎に、当該静止画に含まれるオブジェクトを抽出し、抽出したオブジェクトの位置を含むオブジェクト情報を前記データベース手段に登録するオブジェクト情報抽出手段を有し、前記シナリオ生成手段は、前記データベース手段に記憶される一群のエフェクトの中から1つのエフェクトを1つずつ選択し、選択したエフェクトを時間軸上に順次配置するエフェクト配置手段と、前記エフェクト配置手段が時間軸上に配置したエフェクト毎に、前記データベース手段に登録されたオブジェクト情報に基づいて、当該エフェクトが要求する画像の特徴量を満たす静止画を割り当てる静止画割当手段と、前記エフェクト配置手段が時間軸上に配置したエフェクトに合致したオブジェクトに対する処理を示すパラメータを記述することによってシナリオを生成し、生成したシナリオを前記データベース手段に登録するパラメータ設定手段とを有することを特徴とすることもできる。   In order to achieve the third object, the short film generation / playback apparatus according to the present invention is a short film generation / playback apparatus that generates and plays back video using at least one still image, Input means for inputting a still image input from the outside, and a predetermined number of effects and parameters that define what visual effect is used to reproduce the still image and one or more target still images. Database means for storing the style used and music used for the video to be generated, and scenario generation means for generating a video scenario based on a predetermined style and characteristics of the music, the input means from the outside Every time a still image is input, an object included in the still image is extracted, and object information including the position of the extracted object is extracted. Object information extracting means to be registered in the database means, wherein the scenario generating means selects one effect from the group of effects stored in the database means one by one, and selects the selected effect on the time axis For each effect placed on the time axis by the effect placement means, and based on the object information registered in the database means, a still image that satisfies the feature amount of the image requested by the effect A parameter for registering the generated scenario in the database unit by describing a parameter indicating processing for an object that matches the effect placed on the time axis by the effect placement unit And setting means It is also possible to.

これによって、静止画のオブジェクト情報を元にエフェクトの動作を確定するパラメータを決定することによって、オブジェクトが分断されるような事態が回避され、オブジェクトに着目したエンターテイメント性を向上させたショートフィルムを生成し、再生することができる。
また、本発明に係るショートフィルム生成再生装置においては、前記エフェクトが要求する画像の特徴量は、オブジェクトの特徴量であることを特徴としてもよい。
As a result, by determining the parameters that determine the action of the effect based on the object information of the still image, a situation in which the object is divided is avoided, and a short film with improved entertainment characteristics focusing on the object is generated. And can be played.
In the short film generation / playback apparatus according to the present invention, the image feature amount required by the effect may be a feature amount of an object.

これによって、静止画のオブジェクト情報を元にエフェクトの動作を確定するパラメータを決定することが容易になる。
また、本発明に係るショートフィルム生成再生装置においては、前記オブジェクトの特徴は、オブジェクトの種類、色、形および数の少なくとも1つであることを特徴としてもよい。
This makes it easy to determine parameters for determining the effect operation based on the object information of the still image.
In the short film generation / playback device according to the present invention, the object may have at least one of a type, a color, a shape, and a number of objects.

これによって、静止画のオブジェクト情報、つまりオブジェクトの種類、色、形および数の少なくとも1つを元にエフェクトの動作を確定するパラメータを決定することが容易になる。
また、本発明に係るショートフィルム生成再生装置においては、前記入力手段は、さらにオブジェクトに含まれる特徴的な部分を示す特徴点を抽出し、抽出した特徴点を前記オブジェクト情報に登録する特徴点抽出手段を備え、前記パラメータ設定手段は、オブジェクトに含まれる特徴点の位置に対する処理を示すパラメータを記述することによってシナリオを生成することを特徴とすることもできる。
これによって、オブジェクトの特徴点に着目したエンターテイメント性を向上させたショートフィルムを生成し、再生することができる。
Accordingly, it becomes easy to determine a parameter for determining the effect operation based on at least one of the object information of the still image, that is, the type, color, shape, and number of the object.
In the short film generation / playback device according to the present invention, the input means further extracts a feature point indicating a characteristic portion included in the object, and extracts the feature point that registers the extracted feature point in the object information. Means for generating a scenario by describing a parameter indicating processing for a position of a feature point included in the object.
This makes it possible to generate and play back a short film with improved entertainment that focuses on the feature points of the object.

また、上記第4の目的を達成するために、本発明に係るショートフィルム生成再生装置においては、前記データベース手段は、さらに、個人の顔を特定するための個人認証用顔情報を記憶し、前記入力手段は、さらに、前記オブジェクト情報抽出手段が抽出したオブジェクトが人の顔である場合、前記個人認証用顔情報を用いてオブジェクトの名前を認証し、認証したオブジェクトの名前を前記オブジェクト情報に登録する顔認証手段を有し、前記パラメータ設定手段は、名前で特定されるオブジェクトに対する処理を示すパラメータを記述することによってシナリオを生成することを特徴とすることもできる。   In order to achieve the fourth object, in the short film generation / playback apparatus according to the present invention, the database means further stores personal authentication face information for specifying a personal face, The input means further authenticates the name of the object using the face information for personal authentication when the object extracted by the object information extraction means is a human face, and registers the name of the authenticated object in the object information The parameter setting unit may generate a scenario by describing a parameter indicating processing for an object specified by a name.

これによって、オブジェクトの名前を認識した上で、視覚効果に反映させることによって、特定のオブジェクトにフォーカスしたショートフィルムを生成し、再生することができる。   Thus, a short film focused on a specific object can be generated and reproduced by recognizing the name of the object and reflecting it in the visual effect.

また、本発明に係るショートフィルム生成再生装置においては、前記ショートフィルム生成再生装置は、さらに個人の名前とその個人の属性とを対応付けた個人情報を記憶する個人情報記憶手段を備え、前記入力手段は、さらに顔認証手段が認証したオブジェクトの名前に対応する個人の属性を前記個人情報から検索し、検索した個人の属性を前記オブジェクト情報に登録する個人情報検索手段を有し、前記パラメータ設定手段は、個人の属性で特定されるオブジェクトに対する処理を示すパラメータを記述することによってシナリオを生成することを特徴とすることもできる。
これによって、個人の属性で特定されるオブジェクトに対する処理を行う視覚効果を有するショートフィルムを生成し、再生することができる。
Further, in the short film generation / playback device according to the present invention, the short film generation / playback device further includes personal information storage means for storing personal information in which an individual name is associated with an attribute of the individual, and the input The means further includes a personal information search means for searching a personal attribute corresponding to the name of the object authenticated by the face authentication means from the personal information, and registering the searched personal attribute in the object information. The means may generate the scenario by describing a parameter indicating processing for an object specified by an individual attribute.
Thereby, a short film having a visual effect for performing processing on an object specified by an individual attribute can be generated and reproduced.

さらに、本発明に係るショートフィルム生成再生システムにおいては、少なくとも1つの静止画を用いて、映像を生成し、再生するショートフィルム生成再生装置と、ネットワークを介して前記ショートフィルム生成再生装置と接続されるショートフィルム再生装置とを備えるショートフィルム生成再生システムであって、前記ショートフィルム生成再生装置は、前記静止画、前記静止画の画像特徴量、生成する映像の全体的なイメージを表すスタイル、前記スタイルのスタイル特徴量、音楽および前記音楽の音楽特徴量を記憶するデータベース手段と、映像を生成する際に用いる前記静止画、前記音楽および前記スタイルのいずれか1つを選択するための選択手段と、前記選択手段により選択された前記静止画、前記音楽および前記スタイルのいずれか1つに対応する特徴量を前記データベース手段から読み出す特徴量読出手段と、前記特徴量読出手段により読み出された前記特徴量を他の特徴量に変換する特徴量変換手段と、前記特徴量変換手段により変換された前記他の特徴量に基づいて、映像を生成する際に用いる前記静止画、前記音楽および前記スタイルの内、前記選択手段により選択されなかった前記静止画、前記音楽および前記スタイルをそれぞれ決定する決定手段と、前記選択手段により選択された前記静止画、前記音楽および前記スタイルのいずれか1つ並びに前記決定手段により決定された前記静止画、前記音楽および前記スタイルに基づいて映像のシナリオを生成するシナリオ生成手段と、前記ショートフィルム再生装置により選択された映像のシナリオおよび前記シナリオに定義された前記静止画と前記音楽とを前記データベース手段から読み出し、前記ネットワークを介して前記ショートフィルム再生装置へ送信する通信手段とを備え、前記ショートフィルム再生装置は、再生する映像の選択を行うためのショートフィルム選択手段と、前記ネットワークを介して前記ショートフィルム生成再生装置と通信を行う通信手段と、前記ショートフィルム生成再生装置より受信した映像のシナリオおよび前記シナリオに定義された前記静止画と前記音楽とを一時的に保持する記憶手段と、前記ショートフィルム選択手段により選択された映像のシナリオおよび前記シナリオに定義された前記静止画と前記音楽とを前記記憶手段から読み出し、前記シナリオに基づいて前記映像を再生するショートフィルム再生手段と、前記ショートフィルム再生手段により再生された前記映像を表示するための表示手段とを備えることを特徴とすることもできる。
これによって、ユーザはショートフィルム再生装置だけを手軽に持ち運ぶことができるので、外出先等で映像を再生することができる。
Further, in the short film generation / playback system according to the present invention, the short film generation / playback apparatus that generates and plays back video using at least one still image, and the short film generation / playback apparatus via a network are connected. A short film generation / reproduction system comprising: a short film generation / reproduction apparatus, wherein the short film generation / reproduction apparatus includes a still image, an image feature amount of the still image, a style representing an overall image of the generated image, Database means for storing the style feature quantity of the style, music and the music feature quantity of the music, and selection means for selecting any one of the still image, the music and the style used when generating the video , The still image selected by the selection means, the music, and the style A feature amount reading unit that reads out a feature amount corresponding to any one of the database unit, a feature amount conversion unit that converts the feature amount read out by the feature amount reading unit into another feature amount, and Of the still image, the music, and the style used when generating the video based on the other feature amount converted by the feature amount conversion unit, the still image, the music not selected by the selection unit Determining means for determining each of the style, the still image selected by the selecting means, the music and the style, and the still image, music and style determined by the determining means. A scenario generating means for generating a video scenario based on the video scenario selected by the short film playback device. And communication means for reading out the still image and the music defined in the scenario from the database means and transmitting them to the short film playback device via the network, the short film playback device comprising: Short film selection means for performing selection, communication means for communicating with the short film generation / playback apparatus via the network, a scenario of a video received from the short film generation / playback apparatus, and the scenario A storage means for temporarily holding the still image and the music; a scenario of the video selected by the short film selection means; and the still image and the music defined in the scenario are read from the storage means; A short fill that plays the video based on the scenario And a display means for displaying the video reproduced by the short film reproducing means.
Thus, the user can easily carry only the short film playback device, so that the video can be played on the go.

なお、本発明は、このようなショートフィルム生成再生装置として実現することができるだけでなく、このようなショートフィルム生成再生装置が備える特徴的な手段をステップとするショートフィルム生成再生方法として実現したり、それらのステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM等の記録媒体やインターネット等の伝送媒体を介して配信することができるのはいうまでもない。   The present invention can be realized not only as such a short film generation / reproduction device, but also as a short film generation / reproduction method including steps characteristic of the short film generation / reproduction device. These steps can be realized as a program for causing a computer to execute these steps. Needless to say, such a program can be distributed via a recording medium such as a CD-ROM or a transmission medium such as the Internet.

以上の説明から明らかなように、本発明に係るショートフィルム生成再生装置によれば、ショートフィルムを生成するために必要な3つの素材(静止画、音楽、スタイル)またはテーマの内、一つを選択することによって、その特徴量に適合する残りの素材を決定した上で、ショートフィルムを生成するので、ユーザは、膨大なデータベースで検索に費やす時間を節約して、非常に簡単、かつ気楽にショートフィルムを生成することが可能になるという効果が奏される。   As is clear from the above description, according to the short film generation / playback apparatus according to the present invention, one of the three materials (still image, music, style) or theme required for generating the short film is selected. By selecting, the remaining material that matches the feature amount is determined and a short film is generated, so the user can save time spent searching in a huge database, making it very easy and easy There is an effect that a short film can be generated.

また、静止画からオブジェクト情報を抽出し、このオブジェクト情報を反映させたショートフィルムを作成しているので、よりエンターテイメント性を高めた視覚効果を与えることができる。
よって、静止画、音楽、スタイルといったショートフィルムの素材の特徴量を利用することで、より簡単、安易、手軽にショートフィルムを生成することができ、また、静止画内のオブジェクト情報を抽出することによって、より効果的にエフェクトを生かすことができるという点において、実用的価値は極めて高い。
In addition, since the object information is extracted from the still image and the short film reflecting the object information is created, it is possible to provide a visual effect with higher entertainment properties.
Therefore, by using the features of short film materials such as still images, music, and styles, it is possible to generate short films more easily, easily, and to extract object information in still images. Therefore, the practical value is extremely high in that the effect can be utilized more effectively.

さらに、ユーザは所定のボタンが押すだけで、ショートフィルムを再生することができるので、ユーザの操作の手間を省き、簡単にショートフィルムを視聴することができる。
また、静止画のオブジェクト情報を元にエフェクトの動作を確定するパラメータを決定することができるので、オブジェクトが分断されるような事態が回避され、オブジェクトに着目したエンターテイメント性を向上させたショートフィルムを生成し、再生することができる。
Furthermore, since the user can play the short film only by pressing a predetermined button, the user can save time and easily view the short film.
In addition, since the parameters that determine the action of the effect can be determined based on the object information of the still image, a situation in which the object is divided is avoided, and a short film that improves the entertainment property focusing on the object is provided. Can be generated and played.

また、本発明に係るショートフィルム生成再生装置によれば、オブジェクトに含まれる特徴点の位置に対する処理を示すパラメータを記述することによってシナリオを生成するので、オブジェクトの特徴点に着目したエンターテイメント性を向上させたショートフィルムを生成し、再生することができる。
また、本発明に係るショートフィルム生成再生装置によれば、名前で特定されるオブジェクトに対する処理を示すパラメータを記述することによってシナリオを生成するので、オブジェクトの名前を認識した上で、視覚効果に反映させることによって、特定のオブジェクトにフォーカスしたショートフィルムを生成し、再生することができる。
Further, according to the short film generation / playback device according to the present invention, the scenario is generated by describing the parameter indicating the processing for the position of the feature point included in the object, so that the entertainment property focusing on the feature point of the object is improved. The produced short film can be generated and reproduced.
Further, according to the short film generation / playback device according to the present invention, the scenario is generated by describing the parameter indicating the processing for the object specified by the name, so that the object name is recognized and reflected in the visual effect. By doing so, a short film focused on a specific object can be generated and reproduced.

さらに、本発明に係るショートフィルム生成再生装置によれば、個人の属性で特定されるオブジェクトに対する処理を示すパラメータを記述することによってシナリオを生成するので、個人の属性で特定されるオブジェクトに対する処理を行う視覚効果を有するショートフィルムを生成し、再生することができる。
よって、本発明により、静止画のオブジェクトに着目した種々の画像処理が可能となり、エンターテイメント性の高いショートフィルムを生成し、再生することが可能となり、デジタルカメラが普及してきた今日における本願発明の実用的価値は極めて高い。
Furthermore, according to the short film generation / playback device according to the present invention, the scenario is generated by describing the parameter indicating the processing for the object specified by the personal attribute, so the processing for the object specified by the personal attribute is performed. A short film having the visual effect to be produced can be generated and reproduced.
Therefore, according to the present invention, it is possible to perform various types of image processing focusing on still image objects, and it is possible to generate and play a short film with high entertainment properties. Value is extremely high.

以下、本発明に係る実施の形態について、図面を参照しながら説明する。
(実施の形態1)
図1は、本発明の実施の形態1に係るショートフィルム生成再生装置の構成を示す機能ブロック図である。
ショートフィルム生成再生装置1001aは、入力された1つ以上の静止画を用いて、短編の映像(ショートフィルム)を生成し、再生する装置であり、図1に示されるように、入力部1101、データベース部1102、再生部1103、内部バス1104およびショートフィルム生成部1105aを備えている。また、再生部1103には、表示装置1002が接続されている。表示装置1002は、LCDや、ブラウン管など、映像を表示するためのデバイスであり、再生されたショートフィルムを表示する。
Hereinafter, embodiments according to the present invention will be described with reference to the drawings.
(Embodiment 1)
FIG. 1 is a functional block diagram showing the configuration of the short film generating / reproducing apparatus according to Embodiment 1 of the present invention.
The short film generation / playback device 1001a is a device that generates and plays back a short video (short film) using one or more input still images. As shown in FIG. A database unit 1102, a playback unit 1103, an internal bus 1104, and a short film generation unit 1105a are provided. In addition, a display device 1002 is connected to the playback unit 1103. The display device 1002 is a device for displaying an image, such as an LCD or a cathode ray tube, and displays a reproduced short film.

静止画は、画像データと、その属性を示すメタデータを含み、メタデータの大部分は、静止画を生成した、例えばデジタルスチルカメラ等のデバイスによって生成されたデータである。このメタデータの代表的なデータとしては、撮影日時、撮影場所(GPSによる位置情報)、撮影条件(シャッター速度、焦点距離、露光時間等)など(以下、これらを総称して「意味情報」ともいう。)があり、これらはEXIFとして、JEIDA(日本電子工業振興協会)によって仕様が策定されている。   The still image includes image data and metadata indicating the attribute, and most of the metadata is data generated by a device such as a digital still camera that generates the still image. Typical data of this metadata includes shooting date and time, shooting location (position information by GPS), shooting conditions (shutter speed, focal length, exposure time, etc.) (hereinafter collectively referred to as “semantic information”). These specifications are formulated by JEIDA (Japan Electronics Industry Promotion Association) as EXIF.

入力部1101は、静止画が記録されているメディアから静止画を入力する部であり、静止画入力部1106、画像特徴量抽出部1107および画像内オブジェクト抽出部1108を備えている。
データベース部1102は、少なくとも一つのデータ記録装置を含み、静止画、音楽および予め設定された一つ以上のスタイルを記憶しており、データベース1109内のデータを検索する機能を有している。
The input unit 1101 is a unit that inputs a still image from a medium on which a still image is recorded, and includes a still image input unit 1106, an image feature amount extraction unit 1107, and an in-image object extraction unit 1108.
The database unit 1102 includes at least one data recording device, stores still images, music, and one or more preset styles, and has a function of searching for data in the database 1109.

静止画入力部1106は、メディアに記録されている静止画を本ショートフィルム生成再生装置1001a内のメモリ(図示せず)に読み出すとともに、データベース1109に記録する。メディアは、例えば、コンパクトフラッシュ(R)メモリカード、SDメモリカード(R)等の半導体メモリメディア、CD-R/ROM/RW 、DVD-R/RAM/RW等の光ディスクメディア、テープ、フレキシブルディスク等の磁気メディア、MO等の光磁気ディスク等である。   The still image input unit 1106 reads a still image recorded on the medium into a memory (not shown) in the short film generation / playback device 1001a and records it in the database 1109. Examples of media include semiconductor memory media such as compact flash (R) memory card and SD memory card (R), optical disk media such as CD-R / ROM / RW and DVD-R / RAM / RW, tape, flexible disk, etc. Magnetic media, magneto-optical disks such as MO.

画像特徴量抽出部1107は、読み出された画像データから画像特徴量を抽出する。ここで、画像特徴量とは、色合い、色の広がり、色の位置、明るさ、明るさの位置等を示す指標であって、これらを抽出するために色ヒストグラム、周波数ヒストグラムなどを計算する。
画像内オブジェクト抽出部1108は、入力された画像データから、例えば人物等のオブジェクトを抽出し、オブジェクト情報を生成する。ここで、オブジェクト情報は、抽出したオブジェクトが接する円の中心の座標と半径の大きさによって表される位置情報と、オブジェクトの種類を含んでいる。オブジェクトの種類としては、人の顔であるか否かがある。この場合、例えば個人を識別する情報をオブジェクトの種類として持たせることもできる。なお、オブジェクトの位置情報は、円の中心と半径によって表現する方法に依らず、例えば四角形の一つの対角線の始点と終点の座標でも表すことが可能である。
The image feature amount extraction unit 1107 extracts an image feature amount from the read image data. Here, the image feature amount is an index indicating hue, color spread, color position, brightness, brightness position, and the like, and a color histogram, a frequency histogram, and the like are calculated to extract them.
The in-image object extracting unit 1108 extracts an object such as a person from the input image data, and generates object information. Here, the object information includes position information represented by the coordinates of the center of the circle with which the extracted object is in contact and the size of the radius, and the type of the object. The type of object includes whether it is a human face or not. In this case, for example, information for identifying an individual can be provided as the object type. Note that the position information of the object can be expressed by the coordinates of the start point and end point of one diagonal line of the quadrangle, for example, without depending on the method of expressing it by the center and radius of the circle.

上記ショートフィルム生成部1105aは、画像選択部1113、画像特徴量読出部1114、画像−スタイル特徴量変換部1115、画像−音楽特徴量変換部1118、スタイル決定部1116、音楽決定部1119およびシナリオ生成部1117を備えている。
画像選択部1113は、静止画を選択するためのGUI(グラフィカルユーザインタフェース)をユーザに提供する。画像特徴量読出部1114は、画像選択部1113を用いてユーザが選択した静止画の特徴量をデータベース1109から読み出す。画像−スタイル特徴量変換部1115は、画像特徴量読出部1114によって読み出された画像特徴量をスタイル特徴量に変換する。スタイル決定部1116は、スタイル特徴量に基づいてデータベース1109に記録されているスタイルを検索し、最適なスタイルを決定する。一方、画像−音楽特徴量変換部1118は、画像特徴量読出部1114によって読み出された画像特徴量を音楽特徴量に変換する。音楽決定部1119は、音楽特徴量に基づいてデータベース1109に記録されている音楽を検索し、最適な音楽を決定する。そして、シナリオ生成部1117は、ユーザが選択した静止画、スタイル決定部1116により決定されたスタイルおよび音楽決定部1119により決定された音楽を用いてシナリオを生成する。
The short film generation unit 1105a includes an image selection unit 1113, an image feature amount reading unit 1114, an image-style feature amount conversion unit 1115, an image-music feature amount conversion unit 1118, a style determination unit 1116, a music determination unit 1119, and a scenario generation. Part 1117 is provided.
The image selection unit 1113 provides a user with a GUI (graphical user interface) for selecting a still image. The image feature amount reading unit 1114 reads out the feature amount of the still image selected by the user using the image selection unit 1113 from the database 1109. The image-style feature amount conversion unit 1115 converts the image feature amount read by the image feature amount reading unit 1114 into a style feature amount. The style determination unit 1116 searches the style recorded in the database 1109 based on the style feature amount, and determines an optimal style. On the other hand, the image-music feature value conversion unit 1118 converts the image feature value read by the image feature value reading unit 1114 into a music feature value. The music determination unit 1119 searches the music recorded in the database 1109 based on the music feature amount, and determines the optimal music. Then, the scenario generation unit 1117 generates a scenario using the still image selected by the user, the style determined by the style determination unit 1116, and the music determined by the music determination unit 1119.

図2は、スタイルとシナリオの関係を示した概念図である。
スタイルは、生成するショートフィルム全般に共通する項目や属性を記述した“ヘッダ”と、一つのコンセプトの元に集められた任意の数の“エフェクトの集合”を含む構成である。このエフェクトは、対象となる1枚以上の静止画をどのような視覚効果を用いて再生するかを規定しており、実際の視覚効果を提供する関数と、その属性とが記述されている。このとき、スタイルの有する“エフェクトの集合”内においては、エフェクト間の時間軸における順列や対象となる静止画へのポインタは確定していない。属性としては、例えばスピード属性(例えば、“slow”、“normal”、“fast”)、配列属性(例えば、“prologue”、“body”、“epilogue”、“anywhere”)等がある。これら属性は、後述するシナリオ中でのエフェクトの配列順を決定する際に参照される。
FIG. 2 is a conceptual diagram showing the relationship between styles and scenarios.
A style includes a “header” that describes items and attributes common to all the short films to be generated, and an arbitrary number of “collections of effects” collected under one concept. This effect defines what visual effect is used to reproduce one or more target still images, and describes a function that provides an actual visual effect and its attributes. At this time, in the “effect set” of the style, the permutation on the time axis between the effects and the pointer to the target still image are not fixed. The attributes include, for example, a speed attribute (eg, “slow”, “normal”, “fast”), an array attribute (eg, “prologue”, “body”, “epilogue”, “anywhere”). These attributes are referred to when determining the effect arrangement order in a scenario described later.

ヘッダは、名前、色調、共通効果、シナリオの構成、リズム、スタイルの特徴量などを含んでいる。この内、色調、共通効果は、ショートフィルム全般で共通な設定項目である。
シナリオの構成は、エフェクトの配列に関する属性であって、例えば、シナリオの構成が<“prologue”−“body”−“epilogue”>である場合、エフェクトが持つ配列属性に基づいて、1)プロローグ、2)本題、3)エピローグの順にそれぞれエフェクトを配列する。リズムは、エフェクトを配列する際において、スピード属性“fast”と“slow”を有するエフェクトを配列する比率を示す。例えば、リズムが<2−1>であるならば、“fast”の属性のあるエフェクトを2つ配列した後には必ず“slow”のスピード属性のあるエフェクトを配列する。スタイルの特徴量は、「激しさ」、「躍動感」、「爽快さ」、「素朴さ」、「ソフトさ」の5つのキーワードについて、それぞれ5段階のレベルで表している。
The header includes a name, a color tone, a common effect, a scenario configuration, a rhythm, a style feature amount, and the like. Of these, color tone and common effect are common setting items for all short films.
The scenario configuration is an attribute related to the effect arrangement. For example, when the scenario configuration is <“prologue”-“body”-“epilogue”>, based on the arrangement attribute of the effect, 1) a prologue, 2) Arrange the effects in the order of the main theme and 3) epilogue. The rhythm indicates a ratio of arranging effects having speed attributes “fast” and “slow” when arranging the effects. For example, if the rhythm is <2-1>, after arranging two effects having the attribute “fast”, the effect having the speed attribute “slow” is always arranged. The feature quantity of the style is expressed in five levels for each of the five keywords of “strength”, “dynamic feeling”, “exhilaration”, “simpleness”, and “softness”.

図3は、エフェクトの一例を絵コンテで模式的に示した図である。
このエフェクトでは、図3(a)〜図3(e)に示すように人物が写った1枚の画像に対して、スポットライトがオブジェクトである顔を探索している。次に、図3(f)に示すように顔を探し当て、スポットライトを顔に合わせる。さらに、図3(g)に示すようにスポットライトの部分だけを切り取り、他の部分は消去する。最後に、図3(h)に示すようにスポットライトの部分にズームインして、画面いっぱいに拡大して表示している。
FIG. 3 is a diagram schematically showing an example of an effect with a storyboard.
In this effect, as shown in FIGS. 3A to 3E, a face whose spotlight is an object is searched for one image in which a person is captured. Next, as shown in FIG. 3 (f), the face is located and the spotlight is adjusted to the face. Further, as shown in FIG. 3G, only the spotlight portion is cut out and the other portions are erased. Finally, as shown in FIG. 3 (h), the spotlight portion is zoomed in and enlarged to the full screen.

シナリオは、図2に示すように音楽の時間長に合わせて、“エフェクトの集合”からエフェクトをピックアップして配列を決定し、各エフェクトで使用する静止画を決定したものである。
上記再生部1103は、ショートフィルム選択部1110およびショートフィルム再生部1112を備えている。
As shown in FIG. 2, the scenario is such that the effects are picked up from the “collection of effects” and arranged in accordance with the time length of the music, and the still image used for each effect is determined.
The playback unit 1103 includes a short film selection unit 1110 and a short film playback unit 1112.

ショートフィルム選択部1110は、再生しようとするショートフィルムを選択するためのGUIをユーザに提供する。ショートフィルム再生部1112は、選択されたショートフィルムのシナリオ並びにそこに定義された静止画と音楽とをデータベース1109から読み出し、シナリオをデコードしてショートフィルムを再生し、表示装置1002へ出力する。   The short film selection unit 1110 provides a user with a GUI for selecting a short film to be reproduced. The short film playback unit 1112 reads out the scenario of the selected short film and the still image and music defined there from the database 1109, decodes the scenario, plays back the short film, and outputs it to the display device 1002.

次に、上記のように構成されたショートフィルム生成再生装置1001aで静止画を入力するときの動作について説明する。
図4は、入力部1101における静止画入力時のアルゴリズムを示すフローチャートである。
静止画入力部1106は、メディアに記録されている静止画を本ショートフィルム生成再生装置1001a内のメモリに読み出す(S1101)。次に、画像特徴量抽出部1107は、読み出された画像データの画像特徴量を抽出する(S1102)。さらに、画像内オブジェクト抽出部1108は、静止画中のオブジェクトを抽出し、オブジェクト情報を生成する(S1103)。
Next, an operation when a still image is input by the short film generation / playback apparatus 1001a configured as described above will be described.
FIG. 4 is a flowchart showing an algorithm when inputting a still image in the input unit 1101.
The still image input unit 1106 reads the still image recorded on the medium into the memory in the short film generation / playback device 1001a (S1101). Next, the image feature amount extraction unit 1107 extracts the image feature amount of the read image data (S1102). Further, the in-image object extracting unit 1108 extracts an object in the still image and generates object information (S1103).

最後に、画像特徴量抽出部1107により抽出された画像特徴量と、画像内オブジェクト抽出部1108により生成されたオブジェクト情報とは、静止画の有するメタデータに追加され、静止画データと共にデータベース1109に登録される(S1104)。なお、画像データの保存形式は、JPEG形式に代表されるような圧縮形式であっても、非圧縮形式であっても構わない。   Finally, the image feature amount extracted by the image feature amount extraction unit 1107 and the object information generated by the in-image object extraction unit 1108 are added to the metadata of the still image and stored in the database 1109 together with the still image data. It is registered (S1104). The image data storage format may be a compression format represented by the JPEG format or an uncompressed format.

次に、ショートフィルム生成再生装置1001aでショートフィルムのシナリオを生成するときの動作について説明する。
図5は、ショートフィルム生成部1105でのシナリオの生成時のアルゴリズムを示すフローチャートである。
最初に、画像選択部1113は、ユーザから作成するショートフィルムの対象とする静止画(1枚以上)の選択範囲の決定を受け付ける(S1201)。ショートフィルムで使用する静止画は、この範囲内の静止画が対象となる。画像特徴量読出部1114は、選択された静止画(群)の画像特徴量および意味情報をデータベース1109から読み出す(S1202)。
Next, an operation when a short film scenario is generated by the short film generation / playback apparatus 1001a will be described.
FIG. 5 is a flowchart showing an algorithm when generating a scenario in the short film generation unit 1105.
First, the image selection unit 1113 accepts determination of a selection range of still images (one or more) to be created as a short film created from the user (S1201). The still image used in the short film is a still image within this range. The image feature amount reading unit 1114 reads the image feature amount and semantic information of the selected still image (group) from the database 1109 (S1202).

また、画像特徴量読出部1114は、読み出された画像特徴量の色ヒストグラムに基づいて、それぞれの静止画において最も多数を占める色を求める。この色の数を集計し、最多数となった色を静止画(群)の代表色として決定する(S1203)。
次に、画像−音楽特徴量変換部1118は、画像特徴量読出部1114により決定された代表色を音楽感性イメージに変換する(S1204)。表1は、色に対する色感性イメージおよび音楽感性イメージの対応の一例を示す対応表である。ここで、音楽感性イメージは、それぞれの色に対する色感性イメージに基づいて予め設定されており、代表色が決まれば音楽感性イメージは決定する。また、音楽感性イメージは、スタイル特徴量と同様に、「激しさ」、「躍動感」、「爽快さ」、「素朴さ」、「ソフトさ」の5つのキーワードについて、それぞれ5段階のレベルで表されている。
Further, the image feature amount reading unit 1114 obtains the most occupied color in each still image based on the color histogram of the read image feature amount. The number of colors is counted and the largest number of colors is determined as the representative color of the still image (group) (S1203).
Next, the image-music feature value conversion unit 1118 converts the representative color determined by the image feature value reading unit 1114 into a music sensitivity image (S1204). Table 1 is a correspondence table showing an example of correspondence between color sensibility images and music sensibility images with respect to colors. Here, the music sensitivity image is preset based on the color sensitivity image for each color, and the music sensitivity image is determined if the representative color is determined. Music sensibility images, as well as style feature quantities, are divided into five levels for each of the five keywords of “strength”, “dynamic feeling”, “exhilaration”, “simpleness”, and “softness”. It is represented.

Figure 0004261317
次に、画像−音楽特徴量変換部1118は、予め設定された所定の方法で音楽感性イメージを音楽特徴量に変換する(S1205)。表2は、音楽特徴量の一例を示す表である。本実施の形態1では、音楽特徴量として、「テンポ」、「ビート白色性」、「基本ビート」、「ビート強度1」、「ビート強度2」、「ビート強度比」、「平均音数」、「スペクトル変化度」の8つを用いている。
Figure 0004261317
Next, the image-music feature amount conversion unit 1118 converts the music sensitivity image into the music feature amount by a predetermined method set in advance (S1205). Table 2 is a table showing an example of the music feature amount. In the first embodiment, the music feature values are “tempo”, “beat whiteness”, “basic beat”, “beat strength 1”, “beat strength 2”, “beat strength ratio”, “average number of sounds”. , “Spectrum change degree” are used.

Figure 0004261317
次に、音楽決定部1119は、画像特徴量読出部1114により読み出された意味情報中の撮影日時から撮影季節を、撮影位置から大まかな撮影場所を取得する。ここで、大まかな撮影場所とは、例えば海の近く、山の中、街中、地方/市内、日本/国外、など情報である。そして、音楽決定部1119は、音楽特徴量をキーとしてデータベース1109を検索し、絞られた音楽の中から取得した撮影季節、撮影場所を考慮して、一つの音楽を決定する(S1206)。例えば、7月の海の近くで撮られた静止画であるならば、音楽特徴量で絞られた音楽の中からよりアップテンポな曲を選ぶ。
Figure 0004261317
Next, the music determination unit 1119 acquires the shooting season from the shooting date and time in the semantic information read by the image feature reading unit 1114 and the approximate shooting location from the shooting position. Here, the rough shooting location is, for example, information such as near the sea, in the mountains, in the town, in the region / city, in Japan / outside Japan, and the like. Then, the music determination unit 1119 searches the database 1109 using the music feature amount as a key, and determines one music in consideration of the shooting season and shooting location acquired from the narrowed music (S1206). For example, if it is a still image taken near the sea in July, a song with a higher uptempo is selected from music narrowed down by the music feature amount.

一方、画像−スタイル特徴量変換部1115は、画像特徴量読出部1114により決定された代表色をスタイル特徴量に変換する(S1207)。表3は、色に対する色感性イメージおよびスタイル特徴量の対応の一例を示す対応表である。ここで、スタイル特徴量は、音楽感性イメージと同様にそれぞれの色に対する色感性イメージに基づいて予め設定されており、代表色が決まればスタイル特徴量は決定する。   On the other hand, the image-style feature value conversion unit 1115 converts the representative color determined by the image feature value reading unit 1114 into a style feature value (S1207). Table 3 is a correspondence table showing an example of correspondence between the color sensitivity image and the style feature amount with respect to the color. Here, the style feature amount is preset based on the color sensitivity image for each color in the same manner as the music sensitivity image, and the style feature amount is determined when the representative color is determined.

Figure 0004261317
次に、スタイル決定部1116は、スタイル特徴量と意味情報をキーとしてデータベース1109を検索し、スタイルを決定する(S1208)。
シナリオ生成部1117は、上記のように決定された静止画、音楽およびスタイルを用いてシナリオを生成する(S1209)。
Figure 0004261317
Next, the style determination unit 1116 searches the database 1109 using the style feature quantity and semantic information as keys, and determines a style (S1208).
The scenario generation unit 1117 generates a scenario using the still image, music, and style determined as described above (S1209).

以下、このシナリオ生成部1117が行うシナリオの生成について詳細に説明する。
図6は、エフェクトの配列を決めるアルゴリズムを示すフローチャートである。
まず、シナリオ生成部1117は、音楽決定部1119で決定されたBGMとなる音楽を読み出し、その時間長を得る(S1301)。次に、シナリオ生成部1117は、スタイル決定部1116で決定されたスタイルを読み出し、その属性であるシナリオの構成およびリズムを得る(S1302)。
Hereinafter, scenario generation performed by the scenario generation unit 1117 will be described in detail.
FIG. 6 is a flowchart showing an algorithm for determining the effect arrangement.
First, the scenario generation unit 1117 reads the music to be BGM determined by the music determination unit 1119, and obtains the time length (S1301). Next, the scenario generation unit 1117 reads the style determined by the style determination unit 1116, and obtains the scenario configuration and rhythm which are the attributes (S1302).

シナリオの構成およびリズムを取得すると、以下の処理を音楽の時間長の95%を超えるまで繰り返し行う(S1303)。なお、本実施の形態1では音楽の時間長の95%を超えるまでエフェクトの配列を行っているが、95%という数値は変更することも可能である。
シナリオ生成部1117は、シナリオの構成および配列履歴に基づいて、次に配列すべきエフェクトの配列属性を決定する(S1304)。例えば、シナリオ構成が<“prologue”−“body”−“epilogue”>である場合、音楽の初めから0〜30%以内に配置するエフェクトは、“prologue”もしくは“anywhere”の配列属性を持つエフェクトである。また、音楽の初めから30〜80%に配置するエフェクトは、“body”もしくは“anywhere”の配列属性を持つエフェクトである。音楽の初めから80〜100%に配置するエフェクトは、“epilogue”もしくは“anywhere”の配列属性を持つエフェクトである。
When the scenario configuration and rhythm are acquired, the following processing is repeated until it exceeds 95% of the music time length (S1303). In the first embodiment, the effect arrangement is performed until it exceeds 95% of the music time length, but the numerical value of 95% can be changed.
The scenario generation unit 1117 determines the array attribute of the effect to be arranged next based on the scenario configuration and the arrangement history (S1304). For example, when the scenario configuration is <“prologue”-“body”-“epilogue”>, the effect placed within 0-30% from the beginning of the music is an effect having an array attribute of “prologue” or “anywhere” It is. In addition, the effect arranged 30 to 80% from the beginning of the music is an effect having an array attribute of “body” or “anywhere”. The effect arranged at 80 to 100% from the beginning of the music is an effect having an array attribute of “epilogue” or “anywhere”.

また、シナリオ生成部1117は、配列履歴を参照して、既に配列されているエフェクトのスピード属性の比率“slow”:“fast”を獲得する。この比率とリズムの示された比率に基づいて次に配列すべきエフェクトのスピード属性を決定する(S1304)。例えば、リズムが<3−1>である場合、エフェクトのスピード属性の比率“slow”:“fast”が3対1になるように選択時の重み付けを決定し、“slow”のスピード属性を持つエフェクトが4回以上連続しないようにする。   Further, the scenario generation unit 1117 refers to the arrangement history to obtain the speed attribute ratio “slow”: “fast” of the effects already arranged. Based on this ratio and the ratio indicated by the rhythm, the speed attribute of the effect to be arranged next is determined (S1304). For example, when the rhythm is <3-1>, the weighting at the time of selection is determined so that the ratio of the speed attribute of the effect “slow”: “fast” is 3 to 1, and the speed attribute of “slow” is provided. Make sure the effect is not repeated more than 4 times.

次に、シナリオ生成部1117は、この決定した配列属性およびスピード属性の論理積によって、スタイルの有する“エフェクトの集合”の中から配列すべきエフェクトを決定する(S1305)。そして、シナリオ生成部1117は、決定したエフェクトをシナリオのエフェクト配列の最後尾に追加して、配列履歴を更新する(S1306)。
エフェクトの配列属性およびスピード属性を決定する処理および配列すべきエフェクトを決定する処理について、音楽の時間長の95%を超えるまでエフェクトの配列を行うと(S1307)、シナリオ生成部1117は、スタイルのスピード属性を読み出し、時間的な調整を行う対象とするエフェクトを決定する(S1308)。例えば、スタイルの動き属性が“slow”である場合は、配列された全てのエフェクトが実行時間を伸張する対象である。スタイルの動き属性が“normal”である場合には、エフェクトのスピード属性が“slow”か“normal”であるエフェクトが対象である。スタイルの動き属性が“fast”である場合には、エフェクトのスピード属性が“slow”であるエフェクトが対象である。
Next, the scenario generation unit 1117 determines an effect to be arranged from the “effect set” of the style based on the logical product of the determined arrangement attribute and speed attribute (S1305). Then, the scenario generation unit 1117 adds the determined effect to the end of the scenario effect array, and updates the array history (S1306).
In the process of determining the effect arrangement attribute and the speed attribute and the process of determining the effect to be arranged, if the effect arrangement is performed until it exceeds 95% of the music time length (S1307), the scenario generation unit 1117 The speed attribute is read, and an effect to be subjected to temporal adjustment is determined (S1308). For example, when the motion attribute of the style is “slow”, all the arranged effects are targets for extending the execution time. When the movement attribute of the style is “normal”, the effect whose speed attribute is “slow” or “normal” is the target. When the motion attribute of the style is “fast”, the effect whose effect speed attribute is “slow” is targeted.

図7は、時間的な調整が行われる前と後での音楽の時間に対するエフェクトの配列の様子を示す概念図であり、スタイルのスピード属性が“fast”である場合の例である。
シナリオ生成部1117は、時間的な調整の対象に決定したエフェクトの実行時間を伸張し、エフェクト配列の総実行時間が音楽と同じになるように調整する(S1309)。これによって、音楽の時間長に合わせて、エフェクトが配置されたことになる。
FIG. 7 is a conceptual diagram showing the effect arrangement with respect to the music time before and after the temporal adjustment, and is an example in the case where the speed attribute of the style is “fast”.
The scenario generation unit 1117 extends the execution time of the effect determined as the temporal adjustment target, and adjusts the total execution time of the effect array to be the same as the music (S1309). As a result, the effects are arranged in accordance with the music time length.

次に、シナリオ生成部1117は、各エフェクト中で定義された画像特徴量を有する静止画をデータベース1109で検索し、決定する。シナリオ生成部1117は、このように各エフェクトと静止画とのリンクを決定した上で、静止画、音楽、スタイルの関係をシナリオとして記述する。
以上のように、シナリオ生成部1117はシナリオを生成する(図5、ステップS1209)。最後に、シナリオ生成部1117は、生成したシナリオをデータベース1109に保存する(S1210)。
Next, the scenario generation unit 1117 searches the database 1109 for a still image having an image feature amount defined in each effect and determines it. The scenario generation unit 1117 determines the link between each effect and a still image as described above, and describes the relationship between the still image, music, and style as a scenario.
As described above, the scenario generation unit 1117 generates a scenario (FIG. 5, step S1209). Finally, the scenario generation unit 1117 stores the generated scenario in the database 1109 (S1210).

次に、上記のように生成されたショートフィルムを再生するときの動作について説明する。
再生部1103のショートフィルム選択部1110は、データベース部1102に登録されているショートフィルムのリストを取得し、ユーザに表示する。ユーザが見たいショートフィルムを選択すると、ショートフィルム選択部1110は、その選択されたショートフィルムのシナリオおよびそこに定義された音楽と静止画との読み出しを指示する。ショートフィルム再生部1112は、データベース1109から読み出されたシナリオをデコードし、読み出された音楽と静止画を用いてショートフィルムを再生し、表示装置1002へ出力する。
Next, an operation when reproducing the short film generated as described above will be described.
The short film selection unit 1110 of the playback unit 1103 acquires a list of short films registered in the database unit 1102 and displays it to the user. When the user selects a short film that the user wants to see, the short film selection unit 1110 instructs to read the scenario of the selected short film and the music and still images defined there. The short film playback unit 1112 decodes the scenario read from the database 1109, plays back the short film using the read music and still images, and outputs the short film to the display device 1002.

以上のように、ユーザが選択した静止画から抽出した画像特徴量に基づいて、静止画に最適なBGMとしての音楽および最適なスタイルを決定し、ショートフィルムを作成しているので、ユーザはショートフィルムを作成するときに膨大な音楽の中から最適な音楽を選んだり、複数のスタイルの中から最適なスタイルを選んだりする煩わしさを避けることができる。また、静止画を選択するだけで静止画に合ったショートフィルムを作成することが可能となり、ユーザにとって快適な作成環境が構築できる。   As described above, based on the image feature amount extracted from the still image selected by the user, the music and the optimal style as the optimum BGM for the still image are determined and the short film is created. When creating a film, it is possible to avoid the hassle of selecting the optimal music from among a large amount of music and selecting the optimal style from a plurality of styles. In addition, it is possible to create a short film suitable for a still image simply by selecting the still image, and a creation environment comfortable for the user can be constructed.

また、上記のようにエフェクトを配列することによって、出来上がったショートフィルムにストーリー性を感じさせることができる。例えば、家族旅行の静止画を使ってショートフィルムを作成する場合、プロローグでは、複数枚の静止画を使って全体を概観できるエフェクトを用意する。本題には、それぞれの静止画をゆっくりと見せるエフェクトを配置し、エピローグでは、家族の集合写真を生かすことができるようなエフェクトを配置する。これによって、ショートフィルムにメリハリを持たせ、見ているユーザにストーリー性を感じさせることができるようになる。   In addition, by arranging the effects as described above, it is possible to make the finished short film feel a story. For example, when creating a short film using a family trip still image, the prologue prepares an effect that allows an overview of the entire image using a plurality of still images. The main theme is an effect that makes each still image appear slowly, and in the epilogue, an effect that can make use of the group photo of the family. As a result, the sharpness of the short film can be given and the user can feel the story.

また、スローなエフェクトとアップテンポなエフェクトとのバランスを考慮してエフェクトを配列することができるので、ユーザを飽きさせることのないショートフィルムを作成することができる。
なお、本実施の形態1では、静止画の持つ画像特徴量の内、色ヒストグラムだけに着目して、静止画の代表色の色感性イメージをベースとして、音楽特徴量、スタイル特徴量に変換している。色ヒストグラムに限らず、空間周波数、オブジェクトの数等、他の特徴量に着目して、音楽特徴量、スタイル特徴量に変換しても構わない。また、それらの複合によって、音楽特徴量、スタイル特徴量に変換する方法であっても構わない。さらに、集計による方法に依らず、特徴的な静止画を抽出して、これを選択された静止画群の代表画像として、音楽特徴量およびスタイル特徴量を決定する方法であっても構わない。
In addition, since the effects can be arranged in consideration of the balance between the slow effect and the uptempo effect, it is possible to create a short film that does not bore the user.
In the first embodiment, focusing on only the color histogram among the image feature amounts of the still image, the music feature amount and the style feature amount are converted based on the color sensitivity image of the representative color of the still image. ing. Not only the color histogram but also other feature quantities such as the spatial frequency and the number of objects may be focused and converted into music feature quantities and style feature quantities. Also, a method of converting them into music feature values and style feature values by combining them may be used. Further, a method may be used in which a characteristic still image is extracted and the music feature value and the style feature value are determined using the selected still image group as a representative image, regardless of the aggregation method.

また、本実施の形態1では、スタイルの属性であるシナリオの構成およびリズムに基づいてエフェクトの配列を決定しているが、これに限られるものではない。例えば、音楽特徴量のテンポに基づいて、スローな部分では、動きがスローで一枚一枚の静止画をゆっくりと見せることができるエフェクトを選択し、逆にアップテンポな部分では、複数枚の静止画を使って躍動感のあるエフェクトを選択するようにすることも可能である。   In the first embodiment, the effect arrangement is determined based on the scenario configuration and rhythm, which are style attributes. However, the present invention is not limited to this. For example, based on the tempo of the music feature amount, in the slow part, select an effect that can slowly show each still image with slow movement, and conversely, in the up-tempo part, multiple effects It is also possible to select a dynamic effect using a still image.

(実施の形態2)
次に、ユーザが音楽を選択することによって、その音楽のイメージに合ったショートフィルムを生成する場合について説明する。
図8は、本発明の実施の形態2に係るショートフィルム生成再生装置の他の構成を示すブロック図である。なお、実施の形態1のショートフィルム生成再生装置1001aと対応する部分に同じ番号を付し、その説明を省略する。
(Embodiment 2)
Next, a case where a user selects music to generate a short film that matches the music image will be described.
FIG. 8 is a block diagram showing another configuration of the short film generating / reproducing apparatus according to Embodiment 2 of the present invention. In addition, the same number is attached | subjected to the part corresponding to the short film production | generation reproduction | regeneration apparatus 1001a of Embodiment 1, and the description is abbreviate | omitted.

図8に示されるショートフィルム生成再生装置1001bにおいては、ショートフィルム生成部1105bの構成が、画像からその画像のイメージに合ったショートフィルムを生成するショートフィルム生成部1105aと相違しており、その他は同様である。
ショートフィルム生成部1105bは、ユーザが音楽を選択することによって、その音楽のイメージに合ったショートフィルムを生成する装置であって、上記したスタイル決定部1116およびシナリオ生成部1117の他、音楽選択部1120、音楽特徴量読出部1121、音楽−画像特徴量変換部1122、音楽−スタイル特徴量変換部1124および画像決定部1123を備えている。
In the short film generation / reproduction device 1001b shown in FIG. 8, the configuration of the short film generation unit 1105b is different from the short film generation unit 1105a that generates a short film that matches the image of the image from the image. It is the same.
The short film generation unit 1105b is a device that generates a short film that matches the image of the music when the user selects music, and includes a music selection unit in addition to the style determination unit 1116 and the scenario generation unit 1117 described above. 1120, a music feature quantity reading unit 1121, a music-image feature quantity conversion unit 1122, a music-style feature quantity conversion unit 1124, and an image determination unit 1123.

音楽選択部1120は、音楽を選択するためのGUIをユーザに提供する。音楽特徴量読出部1121は、ユーザが選択した音楽の特徴量をデータベース1109から読み出す。音楽−画像特徴量変換部1122は、音楽特徴量読出部1121によって読み出された音楽特徴量を画像特徴量に変換する。画像決定部1123は、画像特徴量に基づいてデータベース1109に記録されている静止画を検索し、最適な静止画を決定する。一方、音楽−スタイル特徴量変換部1124は、音楽特徴量読出部1121によって読み出された音楽特徴量をスタイル特徴量に変換する。スタイル決定部1116は、スタイル特徴量に基づいてデータベース1109に記録されているスタイルを検索し、最適なスタイルを決定する。そして、シナリオ生成部1117は、ユーザが選択した音楽、画像決定部1123により決定された静止画およびスタイル決定部1116により決定されたスタイルを用いてシナリオを生成する。   The music selection unit 1120 provides a user with a GUI for selecting music. The music feature quantity reading unit 1121 reads the music feature quantity selected by the user from the database 1109. The music-image feature value conversion unit 1122 converts the music feature value read by the music feature value reading unit 1121 into an image feature value. The image determination unit 1123 searches for a still image recorded in the database 1109 based on the image feature amount, and determines an optimal still image. On the other hand, the music-style feature value conversion unit 1124 converts the music feature value read by the music feature value reading unit 1121 into a style feature value. The style determination unit 1116 searches the style recorded in the database 1109 based on the style feature amount, and determines an optimal style. Then, the scenario generation unit 1117 generates a scenario using the music selected by the user, the still image determined by the image determination unit 1123, and the style determined by the style determination unit 1116.

次に、上記のように構成されたショートフィルム生成部1105bでショートフィルムのシナリオを生成するときの動作について説明する。
図9は、ショートフィルム生成部1105bでのシナリオの生成時のアルゴリズムを示すフローチャートである。
最初に、ユーザは、作成するショートフィルムのBGMとしたい曲(音楽1)を音楽選択部1120により選択する(S1401)。音楽特徴量読出部1121は、選択された音楽1の音楽特徴量をデータベース1109から読み出す(S1402)。なお、本実施の形態2では、音楽特徴量をデータベース1109から読み出す形式としたが、音楽特徴量読出部1121に音楽特徴量を抽出する機能を持たせ、直接に選択された音楽から音楽特徴量を抽出しても構わない。次に、音楽特徴量読出部1121は、読み出した音楽特徴量を音楽感性イメージに変換する(S1403)。
Next, an operation when a short film scenario is generated by the short film generation unit 1105b configured as described above will be described.
FIG. 9 is a flowchart showing an algorithm when a scenario is generated in the short film generation unit 1105b.
First, the user uses the music selection unit 1120 to select a song (music 1) to be used as the BGM of the short film to be created (S1401). The music feature amount reading unit 1121 reads the music feature amount of the selected music 1 from the database 1109 (S1402). In the second embodiment, the music feature value is read from the database 1109. However, the music feature value reading unit 1121 has a function of extracting the music feature value, and the music feature value is directly selected from the music. May be extracted. Next, the music feature amount reading unit 1121 converts the read music feature amount into a music sensitivity image (S1403).

音楽−スタイル特徴量変換部1124は、変換された音楽感性イメージをそのままスタイル特徴量とする(S1404)。これは、本実施の形態2では音楽感性イメージおよびスタイル特徴量共に、「激しさ」、「躍動感」、「爽快さ」、「素朴さ」、「ソフトさ」の5つのキーワードについて、それぞれ5段階のレベルで表しているためである。そして、スタイル決定部1116は、スタイル特徴量(=音楽感性イメージ)をキーとしてデータベース1109を検索して、スタイルを決定する(S1405)。   The music-style feature quantity conversion unit 1124 uses the converted music sensitivity image as it is as the style feature quantity (S1404). This is because, in the second embodiment, both of the music sensitivity image and the style feature amount are 5 for each of the five keywords of “strength”, “dynamic feeling”, “exhilaration”, “simpleness”, and “softness”. This is because the level is expressed in stages. Then, the style determination unit 1116 searches the database 1109 using the style feature quantity (= music sensitivity image) as a key, and determines the style (S1405).

一方、音楽−画像特徴量変換部1122は、変換された音楽感性イメージを画像特徴量に変換する(S1406)。そして、画像決定部1123は、画像特徴量をキーとしてデータベース1109に記録されている静止画を検索し、所定数の静止画を決定する(S1407)。
シナリオ生成部1117は、上記のように決定された静止画、音楽およびスタイルを用いて上記実施の形態1と同様にシナリオを生成する(S1408)。最後に、シナリオ生成部1117は、生成したシナリオをデータベース1109に保存する(S1409)。
On the other hand, the music-image feature amount conversion unit 1122 converts the converted music sensitivity image into an image feature amount (S1406). The image determining unit 1123 searches for still images recorded in the database 1109 using the image feature amount as a key, and determines a predetermined number of still images (S1407).
The scenario generation unit 1117 generates a scenario in the same manner as in the first embodiment using the still image, music, and style determined as described above (S1408). Finally, the scenario generation unit 1117 stores the generated scenario in the database 1109 (S1409).

以上のように、ユーザが選択した音楽の音楽特徴量に基づいて、音楽に最適なスタイルおよび最適な静止画を決定し、ショートフィルムを作成しているので、ユーザはショートフィルムを作成するときに膨大な画像データベースの中から適切な静止画を選んだり、複数のスタイルの中から最適なスタイルを選んだりする煩わしさを避けることができる。また、BGMとなる音楽を選択するだけでその音楽に合ったショートフィルムを作成することが可能となり、ユーザにとって快適な作成環境が構築できる。このように音楽を選択するだけでショートフィルムを作成できるので、例えばカラオケのBGVを生成する場合等に有効である。   As described above, since the optimum style and optimum still image for music are determined based on the music feature amount of the music selected by the user and the short film is created, the user can create the short film when creating the short film. It is possible to avoid the trouble of selecting an appropriate still image from a huge image database or selecting an optimal style from a plurality of styles. Moreover, it is possible to create a short film suitable for the music simply by selecting the music to be BGM, and a comfortable creation environment for the user can be constructed. Since a short film can be created simply by selecting music in this way, it is effective, for example, when generating a karaoke BGV.

なお、本実施の形態2では、画像決定部1123は、画像特徴量をキーとしてデータベース1109に記録されている静止画を検索しているが、これに限られるものではない。例えば、データベース1109に記録されている音楽に意味情報を持たせ、この意味情報と画像特徴量によってデータベース1109に記録されている静止画を検索することも可能である。この場合、例えば音楽の意味情報が「夏」という季節感を含むものであれば、撮影日時を7月から9月に限定して検索することができる。   In the second embodiment, the image determination unit 1123 searches for a still image recorded in the database 1109 using the image feature amount as a key. However, the present invention is not limited to this. For example, music recorded in the database 1109 can be given semantic information, and still images recorded in the database 1109 can be searched based on the semantic information and image feature amounts. In this case, for example, if the semantic information of music includes a seasonal feeling of “summer”, it is possible to search by limiting the shooting date and time from July to September.

(実施の形態3)
次に、ユーザがスタイルを選択することによって、そのスタイルのイメージに沿ったショートフィルムを生成する場合について説明する。
図10は、本発明の実施の形態3に係るショートフィルム生成再生装置の他の構成を示すブロック図である。なお、実施の形態1,2のショートフィルム生成再生装置1001a,1001bと対応する部分に同じ番号を付し、その説明を省略する。
(Embodiment 3)
Next, a case where a user selects a style and generates a short film along the image of the style will be described.
FIG. 10 is a block diagram showing another configuration of the short film generating / reproducing apparatus according to Embodiment 3 of the present invention. In addition, the same number is attached | subjected to the part corresponding to the short film production | generation reproduction | regeneration apparatuses 1001a and 1001b of Embodiment 1, 2, and the description is abbreviate | omitted.

図10に示されるショートフィルム生成再生装置1001cにおいては、ショートフィルム生成部1105cの構成が上記実施の形態1、2に示すショートフィルム生成部1105a,1105bと相違しており、その他は同様である。
ショートフィルム生成部1105cは、ユーザがスタイルを選択することによって、そのスタイルのイメージに沿ったショートフィルムを生成する装置であり、上記画像決定部1123、音楽決定部1119およびシナリオ生成部1117の他、スタイル選択部1125、スタイル特徴量読出部1126、スタイル−画像特徴量変換部1127およびスタイル−音楽特徴量変換部1128を備えている。
In the short film production / reproduction device 1001c shown in FIG. 10, the configuration of the short film production unit 1105c is different from the short film production units 1105a and 1105b shown in the first and second embodiments, and the others are the same.
The short film generation unit 1105c is a device that generates a short film according to an image of the style when the user selects a style. In addition to the image determination unit 1123, the music determination unit 1119, and the scenario generation unit 1117, A style selection unit 1125, a style feature amount reading unit 1126, a style-image feature amount conversion unit 1127, and a style-music feature amount conversion unit 1128 are provided.

スタイル選択部1125は、スタイルを選択するためのGUIをユーザに提供する。スタイル特徴量読出部1126は、ユーザが選択したスタイルの特徴量をデータベース1109から読み出す。スタイル−画像特徴量変換部1127は、スタイル特徴量読出部1126によって読み出されたスタイル特徴量を画像特徴量に変換する。画像決定部1123は、画像特徴量に基づいてデータベース1109に記録されている静止画を検索し、最適な静止画を決定する。一方、スタイル−音楽特徴量変換部1128は、スタイル特徴量読出部1126によって読み出されたスタイル特徴量を音楽特徴量に変換する。音楽決定部1119は、音楽特徴量に基づいてデータベース1109に記録されている音楽を検索し、最適な音楽を決定する。そして、シナリオ生成部1117は、ユーザが選択したスタイル、画像決定部1123により決定された静止画および音楽決定部1119により決定された音楽を用いてシナリオを生成する。   The style selection unit 1125 provides a user with a GUI for selecting a style. The style feature amount reading unit 1126 reads the feature amount of the style selected by the user from the database 1109. The style-image feature value conversion unit 1127 converts the style feature value read by the style feature value reading unit 1126 into an image feature value. The image determination unit 1123 searches for a still image recorded in the database 1109 based on the image feature amount, and determines an optimal still image. On the other hand, the style-music feature value conversion unit 1128 converts the style feature value read by the style feature value reading unit 1126 into a music feature value. The music determination unit 1119 searches the music recorded in the database 1109 based on the music feature amount, and determines the optimal music. Then, the scenario generation unit 1117 generates a scenario using the style selected by the user, the still image determined by the image determination unit 1123, and the music determined by the music determination unit 1119.

次に、上記のように構成されたショートフィルム生成再生装置1001cでショートフィルムのシナリオを生成するときの動作について説明する。
図11は、ショートフィルム生成部1105cでのシナリオの生成時のアルゴリズムを示すフローチャートである。
最初に、ユーザは、作成するショートフィルムで使用したいスタイルをスタイル選択部1125により選択する(S1501)。スタイル特徴量読出部1126は、選択されたスタイルをデータベース1109から読み出し、そのスタイルのヘッダ部分に図2に示すように記述されたスタイル特徴量を取得する(S1502)。次に、スタイル−音楽特徴量変換部1128は、スタイル特徴量を音楽特徴量に変換する(S1503)。本実施の形態3では、スタイル特徴量として、そのスタイルにマッチする音楽感性イメージを記述しておき、その音楽感性イメージを音楽特徴量に変換する。次に、音楽決定部1119は、音楽特徴量をキーとしてデータベース1109を検索し、ショートフィルムのBGMとする一つの音楽を決定する(S1504)。
Next, an operation when a short film scenario is generated by the short film generating / reproducing apparatus 1001c configured as described above will be described.
FIG. 11 is a flowchart showing an algorithm at the time of scenario generation in the short film generation unit 1105c.
First, the user selects a style to be used in the short film to be created by the style selection unit 1125 (S1501). The style feature amount reading unit 1126 reads the selected style from the database 1109, and acquires the style feature amount described in the header portion of the style as shown in FIG. 2 (S1502). Next, the style-music feature value conversion unit 1128 converts the style feature value into a music feature value (S1503). In the third embodiment, a music sensitivity image matching the style is described as a style feature amount, and the music sensitivity image is converted into a music feature amount. Next, the music determination unit 1119 searches the database 1109 using the music feature amount as a key, and determines one music as the BGM of the short film (S1504).

一方、スタイル−画像特徴量変換部1127は、スタイル特徴量(=音楽感性イメージ)を画像特徴量に変換する(S1505)。そして、画像決定部1123は、画像特徴量をキーとしてデータベース1109に記録されている静止画を検索し、所定数の静止画を決定する(S1506)。
シナリオ生成部1117は、上記のように決定された静止画、音楽およびスタイルを用いて上記実施の形態1,2と同様にシナリオを生成する(S1507)。最後に、シナリオ生成部1117は、生成したシナリオをデータベース1109に保存する(S1508)。
On the other hand, the style-image feature value conversion unit 1127 converts the style feature value (= music sensitivity image) into an image feature value (S1505). Then, the image determination unit 1123 searches for still images recorded in the database 1109 using the image feature amount as a key, and determines a predetermined number of still images (S1506).
The scenario generation unit 1117 generates a scenario in the same manner as in the first and second embodiments using the still image, music, and style determined as described above (S1507). Finally, the scenario generation unit 1117 stores the generated scenario in the database 1109 (S1508).

以上のように、ユーザが選択したスタイルのスタイル特徴量に基づいて、スタイルに最適な音楽および最適な静止画を決定し、ショートフィルムを作成しているので、ユーザはショートフィルムを作成するときに膨大な画像および音楽データベースの中から適切な静止画および最適な音楽を選んだりする煩わしさを避けることができる。また、ショートフィルムの全体的なイメージを表すスタイルを選択するだけでそのスタイルに合ったショートフィルムを作成することが可能となり、ユーザにとって快適な作成環境が構築できる。   As described above, based on the style feature amount of the style selected by the user, the music and the optimum still image that are optimal for the style are determined and the short film is created. Therefore, when the user creates the short film, It is possible to avoid the trouble of selecting an appropriate still image and optimal music from a huge image and music database. In addition, it is possible to create a short film suitable for the style simply by selecting a style representing the overall image of the short film, and a comfortable creation environment for the user can be constructed.

なお、本実施の形態3では、音楽決定部1119は、音楽特徴量をキーとしてデータベース1109に記録されている音楽を検索しているが、これに限られるものではない。例えば、データベース1109に記録されている音楽に意味情報を持たせ、音楽決定部1119は、意味情報と音楽特徴量によってデータベース1109に記録されている音楽を検索することも可能である。この場合、例えば音楽決定部1119は、現在の時間情報から現在の季節を取得し、データベース1109を検索する際のキーに追加することで、同じ音楽特徴量であっても季節に応じた曲を選択することができる。   In the third embodiment, the music determination unit 1119 searches for music recorded in the database 1109 using the music feature amount as a key. However, the present invention is not limited to this. For example, the music recorded in the database 1109 can have semantic information, and the music determination unit 1119 can search the music recorded in the database 1109 based on the semantic information and the music feature amount. In this case, for example, the music determination unit 1119 acquires the current season from the current time information, and adds it to the key used when searching the database 1109, so that a song corresponding to the season can be obtained even with the same music feature amount. You can choose.

また、本実施の形態3では、スタイル特徴量をそのスタイルにマッチする音楽感性イメージで表しているが、これに限られるものではない。例えば、スタイル特徴量を音楽感性イメージとは別のキーワードを用いて表し、このスタイル特徴量と音楽特徴量を対比する表に基づいて、スタイル特徴量を音楽特徴量に変換しても構わない。
さらに、本実施の形態3では、画像決定部1123は、画像特徴量をキーとしてデータベース1109に記録されている静止画を検索しているが、これに限られるものではない。例えば、スタイル特徴量の一つとしてオブジェクト情報を定義し、画像決定部1123は、オブジェクト情報と画像特徴量によってデータベース1109に記録されている静止画を検索することも可能である。この場合、スナップ写真を中心とした静止画を見せるスタイルでは、人(顔)のオブジェクトがたくさん含まれる静止画を選択する方が好ましい。
In the third embodiment, the style feature amount is represented by a music sensitivity image that matches the style, but the present invention is not limited to this. For example, the style feature value may be expressed using a keyword different from the music sensitivity image, and the style feature value may be converted into the music feature value based on a table comparing the style feature value and the music feature value.
Furthermore, in the third embodiment, the image determination unit 1123 searches for a still image recorded in the database 1109 using the image feature amount as a key. However, the present invention is not limited to this. For example, object information is defined as one of the style feature amounts, and the image determination unit 1123 can search for a still image recorded in the database 1109 based on the object information and the image feature amounts. In this case, it is preferable to select a still image including a lot of human (face) objects in the style of showing a still image centered on a snapshot.

(実施の形態4)
次に、ユーザがテーマを選択することによって、そのテーマのイメージに沿ったショートフィルムを生成する場合について説明する。
図12は、本発明の実施の形態4に係るショートフィルム生成再生装置の他の構成を示すブロック図である。なお、実施の形態1〜3のショートフィルム生成再生装置1001a〜1001cと対応する部分に同じ番号を付し、その説明を省略する。
(Embodiment 4)
Next, a case where a user selects a theme to generate a short film along the theme image will be described.
FIG. 12 is a block diagram showing another configuration of the short film generating / reproducing apparatus according to Embodiment 4 of the present invention. In addition, the same number is attached | subjected to the part corresponding to the short film production | generation reproduction | regeneration apparatuses 1001a-10001c of Embodiment 1-3, and the description is abbreviate | omitted.

図12に示されるショートフィルム生成再生装置1001dにおいては、ショートフィルム生成部1105dの構成が上記実施の形態1〜3のショートフィルム生成部1105a〜1105cと相違しており、その他は同様である。
ショートフィルム生成部1105dは、ユーザがテーマを選択することによって、そのテーマのイメージに沿ったショートフィルムを生成する装置であり、画像決定部1123、スタイル決定部1116、音楽決定部1119およびシナリオ生成部1117の他、テーマ選択部1129、テーマ特徴量読出部1130、テーマ−画像特徴量変換部1131、テーマ−スタイル特徴量変換部1132およびテーマ−音楽特徴量変換部1133を備えている。
In the short film production | generation reproduction | regeneration apparatus 1001d shown by FIG. 12, the structure of the short film production | generation part 1105d is different from the short film production | generation parts 1105a-1105c of the said Embodiment 1-3, and others are the same.
The short film generation unit 1105d is a device that generates a short film according to an image of the theme when the user selects a theme. The image determination unit 1123, the style determination unit 1116, the music determination unit 1119, and the scenario generation unit In addition to 1117, a theme selection unit 1129, a theme feature amount reading unit 1130, a theme-image feature amount conversion unit 1131, a theme-style feature amount conversion unit 1132, and a theme-music feature amount conversion unit 1133 are provided.

ここで、テーマとは、予め開発者あるいはユーザによって定義され、そのテーマに合わせて画像特徴量、音楽感性イメージ(音楽特徴量)、スタイル特徴量を決定したものである。テーマとしては、例えば季節(春夏秋冬、初夏、晩秋など)、去年の今ごろ、最近の出来事のような曖昧な時期指定のワード、また2000年とか1990年とかのように具体的な西暦年を指定するワード等がある。   Here, the theme is defined in advance by a developer or user, and an image feature amount, a music sensitivity image (music feature amount), and a style feature amount are determined according to the theme. Themes include, for example, seasons (spring / summer / autumn / winter, early summer, late autumn, etc.), a word with an ambiguous time designation such as recent events, or a specific year of the year such as 2000 or 1990. There are words that specify.

テーマ選択部1129は、テーマを選択するためのGUIをユーザに提供する。テーマ特徴量読出部1130は、ユーザが選択したテーマのテーマ定義ファイルをデータベース1109から読み出す。テーマ−画像特徴量変換部1131は、テーマ定義ファイルに記述された画像特徴量を取り出す。画像決定部1123は、画像特徴量に基づいてデータベース1109に記録されている静止画を検索し、最適な静止画を決定する。テーマ−スタイル特徴量変換部1132は、テーマ定義ファイルに記述されたスタイル特徴量を取り出す。一方、スタイル決定部1116は、スタイル特徴量に基づいてデータベース1109に記録されているスタイルを検索し、最適なスタイルを決定する。テーマ−音楽特徴量変換部1133は、テーマ定義ファイルに記述された音楽特徴量を取り出す。他方、音楽決定部1119は、音楽特徴量に基づいてデータベース1109に記録されている音楽を検索し、最適な音楽を決定する。そして、シナリオ生成部1117は、画像決定部1123により決定された静止画、スタイル決定部1116により決定されたスタイルおよび音楽決定部1119により決定された音楽を用いてシナリオを生成する。   The theme selection unit 1129 provides a user with a GUI for selecting a theme. The theme feature amount reading unit 1130 reads the theme definition file of the theme selected by the user from the database 1109. The theme-image feature amount conversion unit 1131 extracts the image feature amount described in the theme definition file. The image determination unit 1123 searches for a still image recorded in the database 1109 based on the image feature amount, and determines an optimal still image. The theme-style feature amount conversion unit 1132 extracts the style feature amount described in the theme definition file. On the other hand, the style determination unit 1116 searches the style recorded in the database 1109 based on the style feature amount, and determines the optimum style. The theme-music feature amount conversion unit 1133 extracts a music feature amount described in the theme definition file. On the other hand, the music determination unit 1119 searches the music recorded in the database 1109 based on the music feature amount and determines the optimum music. Then, the scenario generation unit 1117 generates a scenario using the still image determined by the image determination unit 1123, the style determined by the style determination unit 1116, and the music determined by the music determination unit 1119.

次に、上記のように構成されたショートフィルム生成再生装置1001dでショートフィルムのシナリオを生成するときの動作について説明する。
図13は、ショートフィルム生成部1105dでのシナリオの生成時のアルゴリズムを示すフローチャートである。
最初に、ユーザは、作成するショートフィルムで使用したいテーマをテーマ選択部1129により選択する(S1601)。テーマ特徴量読出部1130は、選択されたテーマのテーマ定義ファイルをデータベース1109から読み出す(S1602)。次に、テーマ−スタイル特徴量変換部1132は、テーマ定義ファイルに記述されたスタイル特徴量を取り出す(S1603)。そして、スタイル決定部1116は、スタイル特徴量をキーとしてデータベースを検索して、スタイルを決定する(S1604)。
Next, an operation when a short film scenario is generated by the short film generating / reproducing apparatus 1001d configured as described above will be described.
FIG. 13 is a flowchart showing an algorithm at the time of scenario generation in the short film generation unit 1105d.
First, the user selects a theme to be used in the short film to be created by the theme selection unit 1129 (S1601). The theme feature amount reading unit 1130 reads the theme definition file of the selected theme from the database 1109 (S1602). Next, the theme-style feature quantity conversion unit 1132 extracts the style feature quantity described in the theme definition file (S1603). Then, the style determination unit 1116 searches the database using the style feature amount as a key, and determines the style (S1604).

次に、テーマ−音楽特徴量変換部1133は、テーマ定義ファイルに記述された音楽感性イメージを取り出し、この音楽感性イメージを音楽特徴量に変換する(S1605)。そして、音楽決定部1119は、音楽特徴量をキーとしてデータベース1109を検索し、ショートフィルムのBGMとする一つの音楽を決定する(S1606)。
次に、テーマ−画像特徴量変換部1131は、テーマ定義ファイルに記述された画像特徴量を取り出す(S1607)。そして、画像決定部1123は、画像特徴量をキーとしてデータベース1109に記録されている静止画を検索し、所定数の静止画を決定する(S1608)。
Next, the theme-music feature amount conversion unit 1133 extracts the music sensitivity image described in the theme definition file, and converts this music sensitivity image into a music feature amount (S1605). Then, the music determination unit 1119 searches the database 1109 using the music feature amount as a key, and determines one music as the BGM of the short film (S1606).
Next, the theme-image feature amount conversion unit 1131 extracts the image feature amount described in the theme definition file (S1607). Then, the image determination unit 1123 searches for still images recorded in the database 1109 using the image feature amount as a key, and determines a predetermined number of still images (S1608).

シナリオ生成部1117は、上記のように決定された静止画、音楽およびスタイルを用いて上記実施の形態1と同様にシナリオを生成する(S1609)。最後に、シナリオ生成部1117は、生成したシナリオをデータベース1109に保存する(S1610)。
以上のように、ユーザが選択したテーマに基づいて、テーマに最適なスタイル、最適な音楽および最適な静止画を決定し、ショートフィルムを作成しているので、ユーザはショートフィルムを作成するときに膨大な画像、音楽およびスタイルの中から最適な静止画、音楽およびスタイルを選んだりする煩わしさを避けることができる。また、テーマを選択するだけでそのテーマに合ったショートフィルムを作成することが可能となり、ユーザにとって快適な作成環境が構築できる。
The scenario generation unit 1117 generates a scenario in the same manner as in the first embodiment using the still image, music, and style determined as described above (S1609). Finally, the scenario generation unit 1117 stores the generated scenario in the database 1109 (S1610).
As described above, based on the theme selected by the user, the optimal style, optimal music, and optimal still image for the theme are determined and the short film is created, so when the user creates the short film, It is possible to avoid the trouble of selecting the optimum still image, music and style from among a large amount of images, music and style. Moreover, it is possible to create a short film suitable for the theme simply by selecting the theme, and a creation environment comfortable for the user can be constructed.

なお、本実施の形態4では、画像決定部1123は、画像特徴量をキーとしてデータベース1109に記録されている静止画を検索しているが、これに限られるものではない。例えば、テーマ定義ファイルにテーマに沿った制限条件を持たせ、この制限条件と画像特徴量によってデータベース1109に記録されている静止画を検索することも可能である。この場合、例えば「夏」をテーマにしたものであれば、撮影日時=6月から9月、撮影場所=山、海、プール、色調=青、白などを制限条件とし、それらの制限によって夏らしい静止画だけを選択できる。   In the fourth embodiment, the image determination unit 1123 searches for a still image recorded in the database 1109 using the image feature amount as a key. However, the present invention is not limited to this. For example, it is possible to provide a restriction condition in accordance with the theme in the theme definition file, and to search for a still image recorded in the database 1109 based on the restriction condition and the image feature amount. In this case, for example, if the theme is “summer”, the shooting date and time = June to September, the shooting location = mountain, the sea, the pool, the color tone = blue, white, etc. are the limiting conditions. You can select only a still image.

また、上記各実施の形態1〜4では、ショートフィルム生成再生装置1001dに表示装置1002を接続する構成としているが、これに限られるものではなく、例えば表示装置1002をショートフィルム生成再生装置1001dに備える構成とすることも可能である。   In the first to fourth embodiments, the display device 1002 is connected to the short film generation / reproduction device 1001d. However, the present invention is not limited to this. For example, the display device 1002 is connected to the short film generation / reproduction device 1001d. It is also possible to provide a configuration.

(実施の形態5)
次に、シナリオ生成部1117におけるエフェクトと静止画の対応付けについて述べる。ここでは、図3に示すエフェクトに静止画を割り当てる場合について説明する。このエフェクトは、上記のように人物が写った1枚の静止画に対して、スポットライトがオブジェクトである顔を探索して、最終的に顔を探し当てて、最後にズームインするエフェクトを示したものである。
(Embodiment 5)
Next, the association between the effect and the still image in the scenario generation unit 1117 will be described. Here, a case where a still image is assigned to the effect shown in FIG. 3 will be described. This effect shows the effect of searching for the face that the spotlight is an object for the single still image in which the person is captured as described above, finally finding the face, and finally zooming in. It is.

図14は、シナリオ生成部1117において、エフェクトに静止画を割り当て、そのオブジェクト情報によって、視覚効果を生成するときのアルゴリズムを示すフローチャートである。
シナリオ生成部1117は、エフェクトの属性を読み出す(S1701)。このエフェクトの属性は、予め設定している静止画の検索ルールであって、例えば表4に示すように“顔の数”、“顔の位置”、“顔の大きさ”、“類似画像の数”等が設定されている。図3に示すエフェクトでは、人が一人で写っている静止画であれば効果的に見せることができるので、例えば検索ルールは「顔の数=1」と設定されている。
FIG. 14 is a flowchart showing an algorithm when the scenario generation unit 1117 assigns a still image to an effect and generates a visual effect based on the object information.
The scenario generation unit 1117 reads the attribute of the effect (S1701). The attribute of this effect is a preset still image search rule. For example, as shown in Table 4, “number of faces”, “position of face”, “face size”, “similar image” Number "etc. are set. In the effect shown in FIG. 3, since a still image in which a person is photographed alone can be shown effectively, for example, the search rule is set to “number of faces = 1”.

Figure 0004261317
シナリオ生成部1117は、上記の検索ルールに基づいてデータベース1109を検索し、本エフェクトに割り当てるべき静止画を決定する(S1702)。次に、シナリオ生成部1117は、決定した静止画のオブジェクト情報をデータベース1109より読み出す(S1703)。シナリオ生成部1117は、エフェクトに必要なオブジェクト情報をエフェクトにセットする(S1704)。図3に示すエフェクトでは、オブジェクトである顔の位置とサイズが必要であるので、それらを静止画のオブジェクト情報から取得して、エフェクトにセットする。
Figure 0004261317
The scenario generation unit 1117 searches the database 1109 based on the search rule described above, and determines a still image to be assigned to this effect (S1702). Next, the scenario generation unit 1117 reads the determined still image object information from the database 1109 (S1703). The scenario generation unit 1117 sets object information necessary for the effect in the effect (S1704). The effect shown in FIG. 3 requires the position and size of the face, which is an object, and is acquired from the object information of the still image and set in the effect.

以上のように、図3に示すエフェクトでは、人が一人で写っている静止画をデータベース1109から選択し、顔のオブジェクト情報(重心の座標位置、半径)をエフェクトにセットするので、あたかも顔の位置、大きさを知って、スポットライトが顔を探索して顔を探し当てて、最後にズームインするという視覚効果を与えているように見せることができる。   As described above, the effect shown in FIG. 3 selects a still image of a person alone from the database 1109 and sets face object information (coordinate position and radius of the center of gravity) in the effect. Knowing the position and size, the spotlight can look like searching for a face, finding the face, and finally zooming in.

このように、エフェクトと最もマッチングの良い静止画をデータベースから選択することができるので、よりエンターテイメント性を高めた視覚効果を与えることができる。また、顔を初めとする静止画内のオブジェクトを認識した上で静止画に効果を付与しているので、よりその楽しさが増す上にストーリーを付与することが可能である。   As described above, the still image having the best matching with the effect can be selected from the database, so that it is possible to provide a visual effect with higher entertainment. In addition, since an effect is given to a still image after recognizing objects in the still image including a face, it is possible to add a story and add a story.

(実施の形態6)
上記各実施の形態1〜5では、シナリオ生成部1117は、上記のように最初にエフェクトを配列し、次にエフェクトに対して、エフェクトの要求する画像特徴量を有する静止画をデータベース1109から選択することによって、エフェクトと静止画とのリンクを確定している。これに対して、本実施の形態6は、最初に静止画を配列した後、静止画の画像特徴量およびオブジェクト情報に基づいてエフェクトを選択することによって、エフェクトと静止画とのリンクを確定する場合である。
(Embodiment 6)
In each of the first to fifth embodiments, the scenario generation unit 1117 first arranges the effects as described above, and then selects a still image having an image feature amount required by the effects from the database 1109 for the effects. By doing so, the link between the effect and the still image is established. On the other hand, in the sixth embodiment, after the still images are first arranged, the effect is selected based on the image feature amount and the object information of the still image, thereby determining the link between the effect and the still image. Is the case.

図15は、時間軸上に並べられた静止画に対するエフェクトの割り当てを示す概念図である。ここで、静止画A〜Fは時間軸上にデータベース1109に登録された順に配列されている。また、それぞれ画像特徴量およびオブジェクト情報に基づいて分類すると、静止画Aは被写体が二人のスナップ写真である。静止画B〜Dは類似性の高い写真である。静止画Eは人が写っていない風景写真である。静止画Fは人が一人写っているスナップ写真である。また、表5は画像特徴量による分類と対応するエフェクトを示す表である。   FIG. 15 is a conceptual diagram showing assignment of effects to still images arranged on the time axis. Here, the still images A to F are arranged in the order registered in the database 1109 on the time axis. Further, when classified based on the image feature amount and the object information, the still image A is a snapshot with two subjects. Still images B to D are photographs with high similarity. The still image E is a landscape photograph in which no person is shown. The still image F is a snapshot that shows a single person. Table 5 is a table showing the effects corresponding to the classification based on the image feature amount.

シナリオ生成部1117が、決定されている静止画、音楽およびスタイルを用いてシナリオを生成するときの動作について説明する。
図16は、静止画に対してエフェクトを割り当てるアルゴリズムを示すフローチャートである。
シナリオ生成部1117は、決定されている静止画(複数)をデータベース1109に登録された順に読み出し、時間軸上に並べる(S1801)。次に、シナリオ生成部1117は、各静止画の画像特徴量およびオブジェクト情報に基づいて静止画の類似性および種類を決定する(S1802)。次に、シナリオ生成部1117は、例えば表5に示すような変換テーブルにより各静止画の類似性および種類に応じたエフェクトを割り当て、エフェクトと静止画とのリンクを確定する(S1803)。図15に示す例では、静止画Aにはスナップ写真(二人)の項から“spotlight2”を選択する。同様に、静止画B〜D、E、Fに“pan ”、“ still ”、 “zoomin1 ”といった視覚効果を選択する。なお、このときのエフェクトの選択は、同一項目内であればどれを選んでも構わないので、例えばランダム、ラウンドロビン等のルールにより選択すればよい。
An operation when the scenario generation unit 1117 generates a scenario using the determined still image, music, and style will be described.
FIG. 16 is a flowchart showing an algorithm for assigning effects to still images.
The scenario generation unit 1117 reads the determined still images (plurality) in the order registered in the database 1109 and arranges them on the time axis (S1801). Next, the scenario generation unit 1117 determines the similarity and type of still images based on the image feature amount and object information of each still image (S1802). Next, the scenario generation unit 1117 assigns effects corresponding to the similarity and type of each still image using a conversion table as shown in Table 5, for example, and determines the link between the effect and the still image (S1803). In the example shown in FIG. 15, “spotlight2” is selected for the still image A from the section of snapshots (two people). Similarly, visual effects such as “pan”, “still”, and “zoomin1” are selected for the still images B to D, E, and F. It should be noted that any effect may be selected at this time as long as it is within the same item, and may be selected according to a rule such as random or round robin.

Figure 0004261317
最後に、シナリオ生成部1117は、配列の確定したエフェクトについて、例えばオブジェクトの位置、サイズ等のオブジェクト情報をセットする(S1804)。
以上のように、最初に静止画を配列した後、静止画の画像特徴量およびオブジェクト情報に基づいてエフェクトと静止画とのリンクを確定しているので、ユーザにより選択された静止画、または画像決定部1123により決定された静止画を全て素材として使用したシナリオを生成することが可能となる。また、静止画の画像特徴量およびオブジェクト情報に基づいて、静止画に適切なエフェクトを選択することができる。
Figure 0004261317
Finally, the scenario generation unit 1117 sets object information such as the position and size of the object for the effect whose arrangement has been determined (S1804).
As described above, after the still images are first arranged, the link between the effect and the still image is determined based on the image feature amount and the object information of the still image. It is possible to generate a scenario using all the still images determined by the determination unit 1123 as materials. Further, it is possible to select an appropriate effect for a still image based on the image feature amount and object information of the still image.

なお、本実施の形態6では、静止画を時間軸上に並べる際に、データベース1109に登録された順に並べているが、これに限られるものではなく、例えば静止画が撮影された日時の順に並べても構わない。
また、最初に静止画を時間軸上に並べずに、静止画の画像特徴量およびオブジェクト情報に基づいてエフェクトと静止画とのリンクを確定した後、リンクが確定したエフェクトのみを時間軸上に配列することによってシナリオを生成しても構わない。
In the sixth embodiment, when still images are arranged on the time axis, they are arranged in the order registered in the database 1109. However, the present invention is not limited to this. For example, the still images are arranged in the order of the date and time when the still images were taken. It doesn't matter.
In addition, without first arranging still images on the time axis, after establishing the link between the effect and the still image based on the image feature amount and object information of the still image, only the effect for which the link has been established is placed on the time axis. Scenarios may be generated by arranging them.

また、上記実施の形態1〜6では、ショートフィルム生成再生装置1001a〜1001dと表示装置1002とを別に構成しているが、これに限られるものではなく、例えば全てを一体に構成しても構わない。   In the first to sixth embodiments, the short film generation / reproduction devices 1001a to 1001d and the display device 1002 are separately configured. However, the present invention is not limited to this, and for example, all may be configured integrally. Absent.

(実施の形態7)
図17は、本発明の実施の形態7に係るショートフィルム生成再生装置の他の構成を示す機能ブロック図である。
(Embodiment 7)
FIG. 17 is a functional block diagram showing another configuration of the short film generation / playback device according to Embodiment 7 of the present invention.

ショートフィルム生成再生装置2001は、入力された1つ以上の静止画を用いて、短編映像(ショートフィルム)のシナリオを生成したり、生成されたシナリオを用いてショートフィルムを再生したりするコンピュータ装置であり、図17に示されるように、入力部2010と、データベース2020と、シナリオ生成部2030と、再生部2040と、表示部2050と、これらの入力部2010〜表示部2050を接続する内部バス2060等とから構成される。なお、ここでは、上記のショートフィルム生成部1105a〜1105dの内、シナリオ生成部1117に対応するシナリオ生成部2030だけが示されている。   The short film generation / playback device 2001 generates a scenario of a short video (short film) using one or more input still images, and plays back a short film using the generated scenario. As shown in FIG. 17, the input unit 2010, the database 2020, the scenario generation unit 2030, the playback unit 2040, the display unit 2050, and the internal bus connecting these input units 2010 to the display unit 2050 2060 and the like. Here, only the scenario generation unit 2030 corresponding to the scenario generation unit 1117 is shown among the short film generation units 1105a to 1105d described above.

ここで、シナリオは、MPEGに代表されるような動画像データそのものではなく、時系列に視覚効果(エフェクト)、エフェクトの動作を規定するパラメータ、エフェクトの対象となる静止画へのポインタなどを、XMLに代表されるようなスクリプト言語によって、記述したものである。そして、本実施の形態7では、時間軸上に配置された「エフェクト」に対して、静止画をマッピングしてシナリオを生成するものである。   Here, the scenario is not the moving image data itself as represented by MPEG, but the time-series visual effects (effects), parameters that define the operation of the effects, pointers to still images that are the targets of the effects, etc. It is described in a script language represented by XML. In the seventh embodiment, a scenario is generated by mapping still images to “effects” arranged on the time axis.

入力部2010は、デジタルカメラや、デジタルカメラによって静止画が記録されているメディアから静止画を入力する部であり、静止画選択部2110と、オブジェクト情報抽出部2120等とからなる。
静止画選択部2110は、メディアに記録されている静止画を本ショートフィルム生成再生装置2001内のメモリ(図示せず)に読み出すとともに、データベース2020に登録する。メディアは、例えば、コンパクトフラッシュ(R)メモリカード、SDメモリカード(R)等の半導体メモリメディア、CD−R/ROM/RW、DVD−R/RAM/RW等の光ディスクメディア、テープ、フレキシブルディスク等の磁気メディア、MO等の光磁気ディスク等である。
The input unit 2010 is a unit that inputs a still image from a digital camera or a medium on which a still image is recorded by the digital camera. The input unit 2010 includes a still image selection unit 2110, an object information extraction unit 2120, and the like.
The still image selection unit 2110 reads a still image recorded on the medium into a memory (not shown) in the short film generation / playback apparatus 2001 and registers it in the database 2020. Examples of the media include semiconductor memory media such as compact flash (R) memory card and SD memory card (R), optical disc media such as CD-R / ROM / RW, DVD-R / RAM / RW, tape, flexible disc, etc. Or a magneto-optical disk such as MO.

なお、静止画選択部2110を介してデータベース2020に登録される静止画2210は、例えばJPEG形式の画像データであり、静止画本体と、その属性を示すメタデータを含み、メタデータの大部分は、静止画を生成した、例えばデジタルスチルカメラ等のデバイスによって生成されたデータである。このメタデータの代表的なデータとしては、撮影日時、撮影場所(GPSによる位置情報)、撮影条件(シャッター速度、焦点距離、露光時間等)など(以下、意味情報という)があり、これらはEXIFとして、JEIDA(日本電子工業振興協会)によって仕様が策定されている。   Note that the still image 2210 registered in the database 2020 via the still image selection unit 2110 is, for example, JPEG format image data, including a still image main body and metadata indicating its attributes, and most of the metadata is , Data generated by a device such as a digital still camera that has generated a still image. Typical data of this metadata includes shooting date and time, shooting location (GPS position information), shooting conditions (shutter speed, focal length, exposure time, etc.) (hereinafter referred to as semantic information), and these are EXIF. The specifications are formulated by JEIDA (Japan Electronics Industry Promotion Association).

オブジェクト情報抽出部2120は、入力された画像データから、例えば人物の顔等のオブジェクトを抽出し、オブジェクト情報を生成する。生成されたオブジェクト情報は、データベース2020に登録される。
図18は、データベース2020に登録されたオブジェクト情報2220の構成例を示す図である。
The object information extraction unit 2120 extracts an object such as a human face from the input image data, and generates object information. The generated object information is registered in the database 2020.
FIG. 18 is a diagram illustrating a configuration example of the object information 2220 registered in the database 2020.

オブジェクト情報2220は、図18に示されるように、抽出したオブジェクトが接する円の中心の座標と、半径の大きさによって表される位置情報2213と、オブジェクトの種類2212と、対応する静止画のファイル名2211とを含んでいる。オブジェクトの種類としては、人の顔であるか否かがある。なお、オブジェクトの位置情報は、円の中心と半径によって表現する方法に依らず、例えば四角形の一つの対角線の始点と終点の座標でも表すことが可能である。   As shown in FIG. 18, the object information 2220 includes the coordinates of the center of the circle that the extracted object touches, the position information 2213 represented by the size of the radius, the object type 2212, and the corresponding still image file. Name 2211. The type of object is whether it is a human face or not. Note that the position information of the object can be expressed by the coordinates of the start point and the end point of one diagonal line of the quadrangle, for example, without depending on the method of expressing it by the center and radius of the circle.

データベース2020は、入力部2010の静止画選択部2110から入力された静止画2210や、オブジェクト情報抽出部2120によって生成されるオブジェクト情報2220の他、エフェクトテーブル2230、ショートフィルム再生時にBGMとして用いられる音楽2240、生成する映像の全体的なイメージを表すスタイル2250、生成する映像のテーマ2260、シナリオ2270などを登録したり、検索したりする機能を有している。   The database 2020 includes a still image 2210 input from the still image selection unit 2110 of the input unit 2010, object information 2220 generated by the object information extraction unit 2120, an effect table 2230, and music used as BGM during short film playback. 2240, a style 2250 that represents the overall image of the video to be generated, a theme 2260 of the video to be generated, a scenario 2270, and the like.

なお、データベース2020は、ハードディスクやRAMなどの記憶媒体で構成することができる。そしてこの場合には、静止画2210等を、記憶媒体に格納したり、記憶媒体から読み出したりする手段を別途設けるようにすればよい。
エフェクトテーブル2230は、エフェクト群に含まれる各エフェクトのエフェクト名と、そのエフェクトが要求するオブジェクトの数との関係を示すテーブルである。
The database 2020 can be configured by a storage medium such as a hard disk or a RAM. In this case, a means for storing the still image 2210 or the like in the storage medium or reading it from the storage medium may be provided separately.
The effect table 2230 is a table showing the relationship between the effect name of each effect included in the effect group and the number of objects required by the effect.

図19は、エフェクトテーブル2230の構成例を示す図である。
図19に示されるように、エフェクトテーブル2230は、エフェクト名の欄と、要求するオブジェクトの数の欄とから構成される。
エフェクト名の欄には、対象となる1枚以上の静止画をどのような視覚効果を用いて再生するかを規定するエフェクト名、例えば、スポットライトeff1、ズームeff2、トリミングeff3、クロストークeff4、スライドインeff5、スライドアウトeff6などの一覧が格納される。要求するオブジェクトの数の欄には、スポットライトeff1〜スライドアウトeff6に対応して、「1〜4」、「1〜4」、「1,2」、「2」、「いくつでもOK」、「いくつでもOK」がそれぞれ格納される。
FIG. 19 is a diagram illustrating a configuration example of the effect table 2230.
As shown in FIG. 19, the effect table 2230 includes an effect name column and a requested object number column.
In the effect name column, effect names that define what visual effect is used to reproduce one or more target still images, for example, spotlight eff1, zoom eff2, trimming eff3, crosstalk eff4, A list of slide-in eff5, slide-out eff6, and the like is stored. In the column of the number of requested objects, “1-4”, “1-4”, “1,2”, “2”, “any number OK”, corresponding to the spotlight eff1 to the slide-out eff6, “Any number of OK” is stored.

例えば、スポットライトeff1は、一つのオブジェクトに着目して、スポットライトが写真内をサーチした後に、最終的にターゲットとなるオブジェクトにフォーカスするエフェクトであって、一つ以上4つまでのオブジェクトが写っている写真がマッピングされる。また、スライドインeff5やスライドアウトeff6は、静止画が縦、横あるいは斜めに分割され、縦、横あるいは斜めにスライドインあるいはスライドアウトしたり、4角写真を4分割し、それぞれの断片を4つのコーナー方向へスライドインあるいはスライドアウトするエフェクトであって、オブジェクトの数が多く写っている写真であってもマッピングされる。   For example, the spotlight eff1 is an effect that focuses on one object, and after the spotlight searches in the photo, it finally focuses on the target object. Photos are mapped. The slide-in eff5 and the slide-out eff6 are obtained by dividing a still image vertically, horizontally, or obliquely, sliding in or out vertically, horizontally, or obliquely, or dividing a quadrilateral photograph into four parts, and dividing each fragment into four parts. An effect that slides in or out of two corners, even if it is a picture with a large number of objects.

なお、静止画全体をいずれかの方向に動かすパンをエフェクト名の欄に格納し、オブジェクトの位置を検出して、最も遠い位置を開始位置とすることによって、動きが大きくなって、見栄えが良くなる視覚効果を得たり、2枚の写真を重ねるとき、オブジェクトのパーツの位置合わせをするモンタージュをエフェクト名の欄に格納し、上位の写真をスライドアウトすると、モンタージュ風に下位の写真が見えてくる視覚効果を得たり、特定のオブジェクトを中心に拡大/縮小するズームイン/アウトをエフェクト名の欄に格納したり、αブレンドしながら、消えていく/見えてくるフェードイン/アウトをエフェクト名の欄に格納し、オブジェクトの座標位置を読み出して、遠い位置からα値を小さくする視覚効果を得たり、特定のオブジェクトにフォーカスしながら、背景をマスクするフォーカスイン/アウトをエフェクト名の欄に格納し、フォーカスする図形の重心位置とオブジェクトの座標位置との関係を決め、両者を重ねず、別な位置に(最も遠い位置など)に設定する視覚効果を得たりするようにしてもよい。この場合には、エフェクトの属性に応じて要求するオブジェクトの数を設定すればよい。   Note that panning that moves the entire still image in either direction is stored in the effect name column, the position of the object is detected, and the farthest position is set as the start position, so that the movement becomes large and the appearance is good. When you get a visual effect or overlap two photos, store the montage that aligns the parts of the object in the effect name column, slide out the upper photo, you can see the lower photo like a montage You can get a visual effect, store zoom-in / out that zooms in / out around a specific object in the effect name column, and fade / in fade-in / out that disappears while alpha blending Stored in the field, read the coordinate position of the object, to obtain a visual effect to reduce the α value from a distant position, or to a specific object The focus in / out masking the background is stored in the effect name column, and the relationship between the center of gravity of the figure to be focused and the coordinate position of the object is determined. A visual effect set to the farthest position or the like may be obtained. In this case, the number of requested objects may be set according to the effect attribute.

シナリオ2270は、音楽の時間長に合わせて、エフェクトの集合からエフェクトをピックアップして配列を決定し、時間軸上に配置されたエフェクトに対して、静止画をマッピングして生成されたものである。
シナリオ生成部2030は、ユーザが予め選択した静止画や、決定されたスタイルおよび音楽あるいは決定されたスタイル、音楽およびテーマを用いてシナリオを生成し、生成したシナリオをデータベース2020に登録するものであり、エフェクト配置部2310と、静止画割当部2320と、パラメータ設定部2330等とを備える。
The scenario 2270 is generated by picking up an effect from a set of effects to determine the arrangement in accordance with the time length of music, and mapping a still image to the effect arranged on the time axis. .
The scenario generation unit 2030 generates a scenario using a still image selected in advance by the user, a determined style and music, or a determined style, music, and theme, and registers the generated scenario in the database 2020. , An effect placement unit 2310, a still image assignment unit 2320, a parameter setting unit 2330, and the like.

エフェクト配置部2310は、予め定められた音楽およびスタイルあるいは音楽、スタイルおよびテーマに基づき、エフェクトの集合から一つのエフェクトを取り出して、時間軸上に配置するブロックであり、これを繰り返していくことにより、ある再生時間の長さを持つシナリオの骨格を形成する。このとき、シナリオの再生時間の長さは、BGMとなる音楽の長さであっても、ユーザ、あるいはシステムが定義する時間長であっても構わない。   The effect placement unit 2310 is a block that extracts one effect from a set of effects based on a predetermined music and style or music, style and theme, and places the effect on the time axis. By repeating this, Form the skeleton of a scenario with a certain length of playback time. At this time, the length of the scenario playback time may be the length of the music to be BGM, or the time length defined by the user or the system.

静止画割当部2320は、エフェクト配置部2310が形成したシナリオの骨格のそれぞれのエフェクトに対して、その属性中の記述を読み出して、そこで要求されている属性を持つ静止画をデータベース2020から検索して、マッピングする。より詳しくは、本実施の形態7では、静止画割当部2320は、各エフェクトが要求するオブジェクトの数に基づいて、静止画を検索し、検索の結果得られた静止画をエフェクトに対して割り当てる。すなわち、マッピングする。したがって、エフェクトがスポットライトである場合、静止画割当部2320は、1つ以上、4つ以下のオブジェクトが写った写真を検索して、その結果得られる写真を1枚決定し、スポットライトにマッピングする。   The still image allocation unit 2320 reads the description in the attribute for each effect of the skeleton of the scenario formed by the effect arrangement unit 2310, and searches the database 2020 for a still image having the required attribute. And map. More specifically, in the seventh embodiment, the still image allocation unit 2320 searches for a still image based on the number of objects requested by each effect, and allocates the still image obtained as a result of the search to the effect. . That is, mapping is performed. Therefore, when the effect is a spotlight, the still image assignment unit 2320 searches for a photograph in which one or more and four or less objects are captured, determines one photograph obtained as a result, and maps it to the spotlight. To do.

パラメータ設定部2330は、エフェクトと静止画のマッピングが確定した状態で呼び出され、シナリオにおける各エフェクトの動作を確定するためのパラメータを決定する。
例えば、エフェクトがスライドアウトeff6である場合を例に挙げると、
1.方向スライドアウトするブロックが動く方向(縦、横、斜め、中央から4角)
2.大きさスライドアウトするブロックの幅
3.順序ブロックがスライドアウトする順序
の3つのパラメータを確定することによって、スライドアウトの動作を確定することができる。
The parameter setting unit 2330 is called in a state where the mapping between the effect and the still image is determined, and determines a parameter for determining the operation of each effect in the scenario.
For example, taking the case where the effect is slide out eff6 as an example,
1. Direction in which the sliding block moves (vertical, horizontal, diagonal, four corners from the center)
2. 2. Width of block to slide out size By confirming the three parameters of the order in which the order block slides out, the operation of the slide out can be confirmed.

再生部2040は、シナリオを読み込んで、複数のフレームデータを生成し、時系列に表示するものであって、ショートフィルム選択部2410と、ショートフィルム再生部2420等とからなる。
ショートフィルム選択部2410は、再生しようとするショートフィルムを選択するためのGUIをユーザに提供する。
The playback unit 2040 reads a scenario, generates a plurality of frame data, and displays them in time series. The playback unit 2040 includes a short film selection unit 2410, a short film playback unit 2420, and the like.
The short film selection unit 2410 provides a user with a GUI for selecting a short film to be reproduced.

ショートフィルム再生部2420は、選択されたショートフィルムのシナリオ、並びにそこに定義された静止画と音楽をデータベース2020から読み出し、シナリオをデコードしてショートフィルムを再生し、表示部2050へ出力する。これによって、ユーザは動画として視聴することができる。
表示部2050は、LCD、ブラウン管など映像を表示するためのデバイスと、内蔵されるスピーカとから構成され、再生されたショートフィルムの映像などを表示する。
The short film playback unit 2420 reads the selected short film scenario and the still image and music defined there from the database 2020, decodes the scenario, plays back the short film, and outputs it to the display unit 2050. Thereby, the user can view as a moving image.
The display unit 2050 includes a device for displaying an image such as an LCD or a cathode ray tube, and a built-in speaker, and displays a reproduced short film image or the like.

次に、上記のように構成されたショートフィルム生成再生装置で静止画を入力するときの動作について説明する。
図20は、入力部2010における静止画入力時のアルゴリズムを示すフローチャートである。
静止画選択部2110およびオブジェクト情報抽出部2120は、メディアに記録されている全ての静止画について、各静止画毎に以下の処理を繰り返し実行する(S2011)。
Next, an operation when a still image is input by the short film generation / playback apparatus configured as described above will be described.
FIG. 20 is a flowchart illustrating an algorithm when inputting a still image in the input unit 2010.
The still image selection unit 2110 and the object information extraction unit 2120 repeatedly execute the following processing for each still image for all the still images recorded on the medium (S2011).

まず、静止画選択部2110は、メディアに記録されている静止画を本ショートフィルム生成再生装置2002内のメモリに読み出し(S2012)、読み出した静止画をデータベース2021に登録する(S2013)。なお、画像データの保存形式は、JPEG形式に代表されるような圧縮形式であっても、非圧縮形式であっても構わない。
次に、オブジェクト情報抽出部2120は、読み出された静止画に含まれるオブジェクト(この実施の形態7では人の顔)を全て抽出し、当該オブジェクトの位置情報などから構成されるオブジェクト情報を生成する(S2014)。オブジェクト情報の生成が終わると、入力部2010は、オブジェクト情報をデータベース2020に登録する(S2015)。これによって、静止画2210に対応するオブジェクト情報2220(図18参照)がデータベース2020に登録される。
First, the still image selection unit 2110 reads the still image recorded on the medium into the memory in the short film generation / playback device 2002 (S2012), and registers the read still image in the database 2021 (S2013). The image data storage format may be a compression format represented by the JPEG format or an uncompressed format.
Next, the object information extraction unit 2120 extracts all the objects included in the read still image (human face in this embodiment 7), and generates object information composed of the position information of the object. (S2014). When the generation of the object information is finished, the input unit 2010 registers the object information in the database 2020 (S2015). As a result, object information 2220 (see FIG. 18) corresponding to the still image 2210 is registered in the database 2020.

全ての静止画について、データベース2020への全ての静止画2210およびオブジェクト情報2220の登録が終わると(S2016)、入力部2010は、静止画のデータ入力処理を終了する。
以上の処理により、画像処理の対象となる全ての静止画につき、それぞれオブジェクトの位置等が取得され、オブジェクトを中心とした画像処理が可能となる。
When all the still images 2210 and the object information 2220 are registered in the database 2020 for all the still images (S2016), the input unit 2010 ends the still image data input process.
With the above processing, the position of the object and the like are obtained for all the still images to be subjected to image processing, and image processing centered on the object becomes possible.

次に、ショートフィルムのシナリオを生成するときの動作について説明する。
図21は、シナリオ生成部2030の各部が実行するシナリオを生成するまでのアルゴリズムを示したフローチャートである。なお、このシナリオ生成処理は、ショートフィルムで使用する静止画の対象範囲の指示をユーザから受け付けたり、このショートフィルムで使用する音楽や、スタイル、テーマが決定された後、実行される。
Next, an operation when generating a short film scenario will be described.
FIG. 21 is a flowchart showing an algorithm until a scenario to be executed by each unit of the scenario generation unit 2030 is generated. This scenario generation process is executed after receiving an instruction from the user for the target range of the still image used on the short film, or after determining the music, style, and theme used on the short film.

最初に、エフェクト配置部2310は、エフェクトテーブル2230に格納されている複数のエフェクトの中からエフェクトを一つ選出し、選出した時間軸上に配置する(S2021)。具体的には、決定された音楽の時間長に合わせて、エフェクトのスティルや、ズーム、スライドイン、スライドアウト、…を、この順番に配置するような場合である。これによって、シナリオの骨格が形成される。   First, the effect placement unit 2310 selects one effect from a plurality of effects stored in the effect table 2230, and places it on the selected time axis (S2021). Specifically, the effect still, zoom, slide-in, slide-out,... Are arranged in this order according to the determined music time length. Thus, a scenario skeleton is formed.

エフェクトの時間軸上への配置が終わると、静止画割当部2320およびパラメータ設定部2330は、時間軸上に配置された全てのエフェクトについてマップする静止画を決定し、種々のパラメータを設定する(S2022)。
まず、静止画割当部2320は、エフェクトの属性情報中のオブジェクトの数をキーとして、要求するオブジェクトの数を満たす静止画をオブジェクト情報2220を用いて検索し、検索により得られた複数の静止画の中から1つ選択した静止画を、マップする静止画に決定する(S2023)。具体的には、エフェクトがスライドアウトeff6である場合、静止画割当部2320は、1つ以上のオブジェクトが写った写真を検索して、その結果得られる写真を1枚決定し、スライドアウトeff6にマッピングする。
When the arrangement of the effects on the time axis ends, the still image assignment unit 2320 and the parameter setting unit 2330 determine the still images to be mapped for all the effects arranged on the time axis, and set various parameters ( S2022).
First, the still image allocation unit 2320 uses the object information 2220 to search for still images that satisfy the number of requested objects using the number of objects in the effect attribute information as a key, and a plurality of still images obtained by the search. A still image selected from among them is determined as a still image to be mapped (S2023). Specifically, when the effect is slide-out eff6, the still image assigning unit 2320 searches for a photograph in which one or more objects are shown, determines one photograph obtained as a result, and assigns it to the slide-out eff6. Map.

次いで、パラメータ設定部2330は、マップされた静止画に対応するオブジェクト情報に基づいて、パラメータを決定する(S2024)。具体的には、パラメータ設定部2330は、マップされた静止画に対応するオブジェクト情報(各オブジェクトの位置情報(重心座標・大きさ)を読み出し、それぞれのエフェクトのパラメータを決定する。
全てのエフェクトについて、マップされる静止画の決定およびパラメータの決定が終わると(S2025)、シナリオが完成したので、シナリオ生成部2030は、生成したシナリオをデータベース2020に登録し(S2026)、シナリオ生成処理を終了する。
Next, the parameter setting unit 2330 determines a parameter based on the object information corresponding to the mapped still image (S2024). Specifically, the parameter setting unit 2330 reads out object information (position information (center of gravity coordinates / size) of each object) corresponding to the mapped still image, and determines the parameter of each effect.
When the determination of still images to be mapped and the determination of parameters are completed for all effects (S2025), the scenario is completed, and the scenario generation unit 2030 registers the generated scenario in the database 2020 (S2026), thereby generating the scenario. The process ends.

次いで、ステップS2024のパラメータ決定処理を説明する。
図22は、パラメータ設定部2330がエフェクトのバリエーションおよびパラメータを決定するアルゴリズムを説明するためのサブルーチンを示すフローチャートである。なお、説明を簡略化するため、「スライドアウト」を例に挙げて、パラメータの決定処理を具体的に説明する。
Next, the parameter determination process in step S2024 will be described.
FIG. 22 is a flowchart showing a subroutine for explaining an algorithm by which parameter setting unit 2330 determines effect variations and parameters. In order to simplify the description, the parameter determination process will be specifically described by taking “slide out” as an example.

ここで、スライドアウトは、表示されている静止画を1〜n個(nは2以上の自然数)のブロックに分割して、そのブロックを順番に画面外へ動かすエフェクトであって、ブロックをスライドアウトする方向によって、縦、横、斜め、4角の4つのバリエーションがある(図23参照)。   Here, slide-out is an effect that divides a displayed still image into 1 to n blocks (n is a natural number of 2 or more) and moves the blocks in order to the outside of the screen. There are four variations of vertical, horizontal, diagonal, and four corners depending on the direction of out (see FIG. 23).

1.縦のバリエーションでは、垂直線によって縦長の長方形のブロックに静止画を分割し、上、あるいは下へブロックを動かす(図23(a))。   1. In the vertical variation, the still image is divided into vertically long rectangular blocks by vertical lines, and the blocks are moved up or down (FIG. 23A).

2.横のバリエーションでは、水平線によって横長の長方形のブロックに静止画を分割し、右、あるいは左にスライドアウトする(図23(b))。   2. In the horizontal variation, the still image is divided into horizontally long rectangular blocks by a horizontal line and slid out to the right or left (FIG. 23B).

3.斜めのバリエーションでは、傾き:θ(0゜<θ<90゜)の直線によって、右斜めに傾いたブロック(台形、両端は三角形になることもある)に分割して、右斜め上方か左斜め下方へブロックを動かす(図23(c))。   3. In the diagonal variation, it is divided into blocks tilted to the right (trapezoids, both ends may be triangular) by a straight line of inclination: θ (0 ° <θ <90 °), and diagonally right upward or diagonally left The block is moved downward (FIG. 23 (c)).

4.4角のバリエーションでは、静止画の重心で交差する水平線と垂直線によって、静止画を均等に4分割して、それぞれを最も近いコーナーの方向へ(従って各ブロックが4方向に動く)動かす(図23(d))。   In the four-corner variation, the still image is equally divided into four by horizontal and vertical lines intersecting at the center of gravity of the still image, and each is moved in the direction of the nearest corner (and thus each block moves in four directions). (FIG. 23 (d)).

なお、斜めのバリエーションにおいて、θ=−90゜,0゜の場合は、それぞれ横、縦のバリエーションと等価であるので、実施の可否については同じアルゴリズム中で考慮する。また、本実施の形態7では、静止画のオブジェクトは人の顔である。   It should be noted that, in the oblique variation, when θ = −90 ° and 0 °, it is equivalent to the horizontal and vertical variations, respectively, and therefore whether or not it can be implemented is considered in the same algorithm. In the seventh embodiment, the still image object is a human face.

まず、パラメータ設定部2330は、オブジェクト情報2220を用いて、エフェクトにマッピングされた静止画に含まれるオブジェクトO[i](i=0,1,2,…)のx−o−y座標系における重心座標x[i],y[i]と、大きさr[i]とを読み出す(S2401)。
次いで、パラメータ設定部2330は、回転角:θ(θ=−90゜,θ=0゜,0゜<θ<90゜)について、ブロック境界線を取得し、縦、横、斜めでのフラグをセットする(S2402)。
First, the parameter setting unit 2330 uses the object information 2220, and the object O [i] (i = 0, 1, 2,...) Included in the still image mapped to the effect in the xy coordinate system. The barycentric coordinates x [i], y [i] and the size r [i] are read (S2401).
Next, the parameter setting unit 2330 obtains a block boundary line for the rotation angle: θ (θ = −90 °, θ = 0 °, 0 ° <θ <90 °), and sets vertical, horizontal, and diagonal flags. Set (S2402).

まず、パラメータ設定部2330は、回転座標(s−o−t)系における各オブジェクトO[i]の重心座標s[i],t[i]を算出する(S2403)。
図24は、オリジナルの座標系(x−o−y)をθ°(0゜<θ<90゜)回転させた回転座標系:s−o−t座標系を説明する図である。
図24(a)において、オブジェクトO[i]は、x−o−y座標系におけるオブジェクトの重心の座標(x[i],y[i])と、オブジェクトに外接する円の半径:r[i]によって表されるものとする。Hは、静止画の高さである。s−o−t座標系における座標(s[i],t[i])は、下記に示される式によって求めることができる。
First, the parameter setting unit 2330 calculates the barycentric coordinates s [i], t [i] of each object O [i] in the rotational coordinate (s-ot) system (S2403).
FIG. 24 is a diagram for explaining a rotating coordinate system: sot coordinate system obtained by rotating the original coordinate system (x-o-y) by θ ° (0 ° <θ <90 °).
In FIG. 24A, an object O [i] is represented by coordinates of the center of gravity (x [i], y [i]) of the object in the x-o-y coordinate system and the radius of the circle circumscribing the object: r [ i]. H is the height of the still image. The coordinates (s [i], t [i]) in the so-t-t coordinate system can be obtained by the following formula.

Figure 0004261317
重心座標の算出が終わると、パラメータ設定部2330は、各オブジェクトO[i]をt軸上にマッピングする(S2404)。なお、図中に示されるt[i]はオブジェクトO[i]のt軸への写像である。これにより、各オブジェクトO[i]がt軸上に並ぶことになる。
Figure 0004261317
When the calculation of the barycentric coordinates ends, the parameter setting unit 2330 maps each object O [i] on the t-axis (S2404). Note that t [i] shown in the figure is a mapping of the object O [i] to the t-axis. As a result, the objects O [i] are arranged on the t-axis.

次いで、パラメータ設定部2330は、各オブジェクトO[i]のt軸上における重心座標t[i]とそれを中心とする±Rの領域を点を置くことができない、すなわちs軸に平行なブロック境界線を引くことができない禁止領域P[i]として設定する(S2405)。ここで、Rは、r[i]よりも大きく、髪の毛等が確実に含まれる値に設定される。   Next, the parameter setting unit 2330 cannot place a point on the center-of-gravity coordinate t [i] on the t-axis of each object O [i] and the region of ± R centered on it, that is, a block parallel to the s-axis It is set as a prohibited area P [i] where a boundary line cannot be drawn (S2405). Here, R is larger than r [i], and is set to a value that reliably includes hair and the like.

このような禁止領域の設定、つまり、禁止帯の設定が終わると、パラメータ設定部2330は、t軸上における各重心座標t[i]について、t軸上の正側にオブジェクトが存在するかを調べた上で、ブロック境界線を取得し、縦、横、斜めでのフラグをセットする(S2406)。
まず、パラメータ設定部2330は、対象のオブジェクトO[i]のt軸上における正側にオブジェクトが存在するか、すなわち、t[i+1]があるか否か判断する(S2407)。t[i+1]が存在する場合(S2407でYes)、オブジェクトO[i]とt軸上における正側のオブジェクトO[i+1]の禁止帯間に隙間があるか否か判断する(S2408)。
When the setting of the prohibited area, that is, the setting of the prohibited band is completed, the parameter setting unit 2330 determines whether an object exists on the positive side on the t-axis with respect to each barycentric coordinate t [i] on the t-axis. After checking, a block boundary line is acquired, and flags in the vertical, horizontal, and diagonal directions are set (S2406).
First, the parameter setting unit 2330 determines whether there is an object on the positive side of the target object O [i] on the t-axis, that is, whether there is t [i + 1] (S2407). If t [i + 1] exists (Yes in S2407), it is determined whether or not there is a gap between the object O [i] and the forbidden band of the positive object O [i + 1] on the t-axis (S2408).

隙間がある場合には(S2408でYes)、その隙間の間の点を通りs軸と平行な直線(傾き:θ)で静止画を分割できることを意味し(図24(b)参照)、オブジェクトを分断することなく静止画をブロック境界線で分割することが可能となる。このため、パラメータ設定部2330は、隙間の中心を算出し、隙間の中心を通るs軸に平行なθでのブロック境界線BL[j]を取得し(S2409)、θでのバリエーションにフラグをセットする(S2410)。なお、ブロック境界線は、y軸上の位置yBL[j]や、x軸上の位置と、θとで規定される。   If there is a gap (Yes in S2408), it means that the still image can be divided by a straight line (tilt: θ) that passes through the points between the gaps and is parallel to the s-axis (see FIG. 24B). It is possible to divide a still image at a block boundary line without dividing. Therefore, the parameter setting unit 2330 calculates the center of the gap, acquires the block boundary line BL [j] at θ parallel to the s-axis passing through the center of the gap (S2409), and flags the variation at θ. Set (S2410). Note that the block boundary line is defined by a position yBL [j] on the y-axis, a position on the x-axis, and θ.

そして、ブロック境界線を取得できた場合や、禁止帯間に隙間がなかった場合(S2408でNo)には、その正側のオブジェクトO[i+1]についてステップS2407〜S2410をt軸上における正側のオブジェクトが存在しなくなるまで繰り返し実行する。なお、静止画の端と、t軸上における正側のオブジェクトの禁止領域との間が予め定められたしきい値より広い場合には、図23(b)中に示されるBL1のように、その中間にブロック境界線を設けるようにしてもよい。   If the block boundary line can be acquired or if there is no gap between the prohibited bands (No in S2408), steps S2407 to S2410 are performed on the positive side on the t-axis for the positive object O [i + 1]. Repeat until no more objects exist. If the distance between the edge of the still image and the prohibited area of the positive object on the t-axis is wider than a predetermined threshold value, as shown in BL1 in FIG. You may make it provide a block boundary line in the middle.

ある回転角θでのブロック境界線の取得およびそのθでのバリエーションにフラグをセットし終わると(S2411)、回転角θを変更し、変更したθでのブロック境界線の取得およびそのθでのバリエーションにフラグをセットを実行する。
全ての回転角θでのブロック境界線の取得およびそのθでのバリエーションにフラグをセットを実行すると(S2412)、パラメータ設定部2330は、静止画の中心を通るx軸に平行なブロック境界線と、y軸に平行なブロック境界線とで、静止画を4ブロックに分割する(S2413)。そして、パラメータ設定部2330は、全てのオブジェクトO[i]が4ブロックのいずれかに収まるか否か判断する(S2414)。
When the acquisition of the block boundary line at a certain rotation angle θ and the flag is set in the variation at that θ (S2411), the rotation angle θ is changed, the block boundary line is acquired at the changed θ, and Run flag set on variation.
When the acquisition of the block boundary line at all the rotation angles θ and the setting of the flag to the variation at the θ are executed (S2412), the parameter setting unit 2330 displays the block boundary line parallel to the x-axis passing through the center of the still image. The still image is divided into four blocks by the block boundary line parallel to the y-axis (S2413). Then, the parameter setting unit 2330 determines whether or not all the objects O [i] can fit in any of the four blocks (S2414).

全てのオブジェクトO[i]が4ブロックのいずれかに収まる場合(S2414でYes)、全てのオブジェクトが分断されることがないので、4角のフラグをセットし(S2415)、ステップS2414に進む。
これに対して、オブジェクトO[i]の少なくとも1つが4ブロックのいずれかに収まらない場合(S2414でNo)、そのオブジェクトが分断されることになるので、4角のフラグをセットすることなく、ステップS2414に進む。
If all the objects O [i] can fit in any of the four blocks (Yes in S2414), since all the objects are not divided, a four-corner flag is set (S2415), and the process proceeds to step S2414.
On the other hand, if at least one of the objects O [i] does not fit in any of the four blocks (No in S2414), the object will be divided, so that the square flag is not set. The process proceeds to step S2414.

実施可能なバリエーションが求まると、パラメータ設定部2330は、実施可能なバリエーションの中から一つのバリエーションをランダムに選択する(S2416)。なお、ここでは、バリエーションの一つを選択するために乱数を使ってランダムに選択する方法を選択したが、実施可能なバリエーションの実施に必要な全ての情報や、エフェクトの履歴を保存することによって、前回に選択したエフェクトのバリエーションと被らないように選択するように設定することも可能である。   When an executable variation is found, the parameter setting unit 2330 randomly selects one variation from the possible variations (S2416). In this case, we selected a random selection method using random numbers to select one of the variations, but by saving all the information necessary for implementing the possible variations and the history of the effects It is also possible to set to select so as not to suffer from the variation of the effect selected last time.

バリエーションが決定したら、パラメータ設定部2330は、スライドアウトするブロックの幅をブロック境界線を元に決定し、スライドアウトするブロックの移動順序および移動する方向をオブジェクトの座標、大きさを元に決定する(S2417)。具体的には、4角のバリエーションを除き、n個のブロックに分割されている場合、最も中央よりにあるオブジェクトを含むブロックをn番(最後にスライドアウトする)として、そのブロックから最も遠い位置にあるブロックを1番にスライドアウトするブロックとする。以下、次に遠い位置にあるブロックを2番、その次に遠いブロックを3番、…と決定する。   When the variation is determined, the parameter setting unit 2330 determines the width of the block to be slid out based on the block boundary line, and determines the moving order and moving direction of the block to be slid out based on the coordinates and size of the object. (S2417). Specifically, except for the four-sided variation, if the block is divided into n blocks, the block that contains the object at the center is the nth (slide out last), and the farthest position from that block The block located at is the block that slides out to the first position. In the following, it is determined that the next farthest block is number 2, the next farthest block is number 3, and so on.

なお、ブロックをスライドアウトさせる順番の決定方法は、本方法によらず、逆に最も中央よりにあるオブジェクトを含むブロックが1番であっても構わない。4角のバリエーションの場合には、4つのブロックを同時に4方向にスライドアウトさせるので、スライドアウトの順序は無関係である。
ブロックの幅、移動順序および移動方向、すなわち、スライドアウトに必要な全てのパラメータの決定が終わると、メインルーチンにリターンする。これによって、スライドアウトを含むシナリオがデータベース2020に登録される。
Note that the method for determining the order in which the blocks are slid out is not limited to this method, and conversely, the block including the object located at the center most may be the first. In the case of the four-angle variation, the four blocks are simultaneously slid out in four directions, so the order of the slide-out is irrelevant.
When the block width, moving order and moving direction, that is, all parameters necessary for the slide-out are determined, the process returns to the main routine. As a result, the scenario including the slide-out is registered in the database 2020.

図25は、データベース2020に登録されたシナリオ2270の構成例を示す図である。なお、シナリオ2270は、上述したようにスクリプトで記載されているが、説明の便宜上、テーブル形式で図示されている。
図25に示されるように、シナリオ2270は、時間軸上の時間割り当てを示す開始時刻および終了時刻と、当該時間軸上に割り当てられるエフェクトと、各エフェクトに割り当てられる静止画と、パラメータとから構成される。エフェクトがスライドアウトeff6の場合、パラメータには、選択されたバリエーション(θでのバリエーションを示すフラグF0=1およびそのθ)の他、スライドアウトするブロックの幅(当該ブロックを規定するブロック境界の位置yBL[j]およびθ)、スライドアウトするブロックの順序(B0、B1、…)、スライドアウトするブロックの方向(B0:右斜め上、B1:右斜め下、…)が記載される。
FIG. 25 is a diagram illustrating a configuration example of a scenario 2270 registered in the database 2020. The scenario 2270 is described in the script as described above, but is illustrated in a table format for convenience of explanation.
As shown in FIG. 25, the scenario 2270 includes a start time and an end time indicating time allocation on the time axis, an effect allocated on the time axis, a still image allocated to each effect, and a parameter. Is done. When the effect is slide-out eff6, parameters include the selected variation (flag F0 = 1 indicating variation at θ and its θ), and the width of the block to be slid out (the position of the block boundary that defines the block) yBL [j] and θ), the order of the blocks to slide out (B0, B1,...), and the direction of the blocks to slide out (B0: diagonally right upward, B1: diagonally downward right,...).

このように構成されたシナリオを用いてショートフィルム再生すると、再生部2040のショートフィルム選択部2410によって、ショートフィルムのシナリオおよびそこに定義された音楽と静止画との読み出しが指示され、ショートフィルム再生部2420は、指示されたシナリオに従って音楽と静止画を用いてショートフィルムを再生し、表示部2050へ出力する。この場合、ショートフィルム再生部2420は、各エフェクト毎の静止画から、そのエフェクトに対応するパラメータで定義されている処理を行ってフレーム画像を生成し、ショートフィルムを再生する。   When a short film is played back using the scenario configured as described above, the short film selection unit 2410 of the playback unit 2040 instructs to read the short film scenario and the music and still images defined there, and plays back the short film. The unit 2420 plays a short film using music and still images according to the instructed scenario, and outputs the short film to the display unit 2050. In this case, the short film playback unit 2420 performs processing defined by parameters corresponding to the effect from the still image for each effect to generate a frame image, and plays back the short film.

このように実施の形態7の発明によれば、静止画のオブジェクト情報に基づいて、エフェクトのバリエーション、エフェクトの動作を確定するパラメータが決定する。
したがって、オブジェクトである人の顔が分断されるような事態が回避され、同じエフェクトであっても、マッピングされている静止画に最適なバリエーションのエフェクトを実行することができる。一方、見る側からすれば、同じエフェクトであってもマッピングされている静止画によって動作が異なることになる。その結果、再生時にユーザが見るショートフィルムは、同じエフェクトが続いた場合でも、あたかも異なるエフェクトが続くように見え、ワンパターンですぐに飽きてしまうものではなく、非常にエンターテイメント性の高いコンテンツを生成できる。さらに、同じエフェクトと静止画のマッピングであっても、複数のバリエーションから選択することも可能であり、異なる見せ方を実現することも可能である。
As described above, according to the seventh embodiment, the parameters for determining the effect variation and the effect operation are determined based on the object information of the still image.
Therefore, a situation in which the face of a person who is an object is divided is avoided, and even with the same effect, it is possible to execute an effect of a variation optimal for a mapped still image. On the other hand, from the viewpoint of the viewer, even if the effect is the same, the operation differs depending on the mapped still image. As a result, the short film that the user sees during playback will appear as if different effects continue even if the same effects continue, and it will not get bored with a single pattern, producing highly entertaining content it can. Furthermore, even when mapping the same effect and still image, it is possible to select from a plurality of variations, and it is possible to realize different ways of showing.

なお、本実施の形態7に係る発明ではバリエーションが有効であるか否かを判定するために回転座標系への変換を行ったが、その他にも、それぞれのバリエーションに対して、テンプレートを用意して、ブロックに分割する直線を一定の範囲内でオブジェクトに重ならないように動かすことが可能であるかどうかを判定する方法もある。
また、図23(c)と逆の傾きのブロック境界線を取得する場合には回転角θを90゜<θ<180゜の範囲で変更するようにすればよい。
In the invention according to the seventh embodiment, the conversion to the rotation coordinate system is performed in order to determine whether the variation is effective or not. In addition, a template is prepared for each variation. There is also a method for determining whether or not the straight line divided into blocks can be moved within a certain range so as not to overlap the object.
Further, in order to acquire a block boundary line having an inclination opposite to that in FIG. 23C, the rotation angle θ may be changed within a range of 90 ° <θ <180 °.

(実施の形態8)
次いで、本発明の実施の形態8に係るショートフィルム生成再生装置について説明する。
図26は、本発明の実施の形態8に係るショートフィルム生成再生装置の他の構成を示す機能ブロック図である。なお、実施の形態7のショートフィルム生成再生装置2001と対応する部分に同じ番号を付し、その説明を省略する。
(Embodiment 8)
Next, a short film producing / reproducing apparatus according to Embodiment 8 of the present invention will be described.
FIG. 26 is a functional block diagram showing another configuration of the short film generation / playback device according to the eighth embodiment of the present invention. In addition, the same number is attached | subjected to the part corresponding to the short film production | generation reproduction | regeneration apparatus 2001 of Embodiment 7, and the description is abbreviate | omitted.

図26に示されるように、ショートフィルム生成再生装置2002は、入力部2011と、データベース2021と、シナリオ生成部2031と、再生部2040と、表示部2050と、これら入力部2011〜表示部2050を接続する内部バス2060等とから構成される。入力部2011は、上記静止画選択部2110およびオブジェクト情報抽出部2120の他、顔特徴点抽出部2130をさらに備えて構成される。シナリオ生成部2031は、エフェクト配置部2310の他、静止画割当部2321およびパラメータ設定部2331を備えて構成される。なお、ここでは、実施の形態7の場合と同様に、上記のショートフィルム生成部1105a〜1105dの内、シナリオ生成部1117に対応するシナリオ生成部2031だけが示されている。   As illustrated in FIG. 26, the short film generation / playback device 2002 includes an input unit 2011, a database 2021, a scenario generation unit 2031, a playback unit 2040, a display unit 2050, and an input unit 2011 to a display unit 2050. And an internal bus 2060 to be connected. The input unit 2011 further includes a face feature point extraction unit 2130 in addition to the still image selection unit 2110 and the object information extraction unit 2120. The scenario generation unit 2031 includes a still image allocation unit 2321 and a parameter setting unit 2331 in addition to the effect arrangement unit 2310. Here, as in the case of the seventh embodiment, only the scenario generation unit 2031 corresponding to the scenario generation unit 1117 is shown among the short film generation units 1105a to 1105d.

ところで、ショートフィルム生成再生装置2001の入力部2010ではオブジェクト(人の顔)の位置だけを抽出するように構成していたが、このショートフィルム生成再生装置2002の入力部2011は、入力部2010の構成に加えて顔の特徴点(顔のパーツ、例えば目、鼻、口等)を抽出する顔特徴点抽出部2130をさらに備えて構成され、この顔特徴点抽出部2130を追加することによって、顔のパーツを意識したエフェクト(例えば、モンタージュ)に対応したシナリオを作成し、このシナリオを用いてショートフィルムを再生する点がショートフィルム生成再生装置2001と大きく異なっている。   By the way, although the input unit 2010 of the short film generation / playback device 2001 is configured to extract only the position of the object (person's face), the input unit 2011 of the short film generation / playback device 2002 includes the input unit 2010. In addition to the configuration, it further comprises a face feature point extraction unit 2130 that extracts facial feature points (face parts, such as eyes, nose, mouth, etc.), and by adding this face feature point extraction unit 2130, The point that a scenario corresponding to an effect (for example, montage) conscious of facial parts is created and a short film is reproduced using this scenario is greatly different from the short film generation and reproduction apparatus 2001.

図27は、その一例を示す絵コンテである。
図27(a)〜図27(g)に示されるように、絵コンテにおいては、頭、目、鼻、口を含むパーツのブロックを順次スライドアウトさせる横のスライドアウトの一種の処理によって、いわゆるモンタージュ風のエフェクトを実現したものが示されている。
本エフェクトでは、顔のパーツである目、鼻、口の位置と大きさを取得することによって、ブロックの幅を決め、モンタージュ風の視覚効果を得ることがミソである。
FIG. 27 is a storyboard showing an example thereof.
As shown in FIGS. 27 (a) to 27 (g), in a storyboard, a so-called horizontal slide-out process that sequentially slides out a block of parts including the head, eyes, nose, and mouth is a so-called process. A montage-like effect is shown.
In this effect, by acquiring the position and size of the face, eyes, nose, and mouth, the width of the block is determined, and a visual effect like a montage is obtained.

このような処理を実現するため、データベース2021に格納されるエフェクトテーブル2231、オブジェクト情報2221およびシナリオ2271は、モンタージュ風のエフェクトが実現されるように構成される。
具体的には、エフェクトテーブル2231は、図28に示されるように、エフェクト名の欄と、要求するオブジェクトの数の欄と、要求するオブジェクトの特徴点の欄から構成される。そして、エフェクト名の欄には、モンタージュeff10が格納され、モンタージュeff10に対応する要求するオブジェクトの数の欄には「1」または「2」が格納され、要求するオブジェクトの特徴点の欄には頭、目、鼻、口が格納される。
In order to realize such processing, the effect table 2231, the object information 2221, and the scenario 2271 stored in the database 2021 are configured to realize a montage-like effect.
Specifically, as shown in FIG. 28, the effect table 2231 includes an effect name field, a requested object number field, and a requested object feature point field. Then, the montage eff10 is stored in the effect name column, "1" or "2" is stored in the column of the number of requested objects corresponding to the montage eff10, and the feature point column of the requested object is stored. The head, eyes, nose and mouth are stored.

図29は、モンタージュ風のエフェクトを実現するオブジェクト情報を生成するアルゴリズムを示すフローチャートである。
静止画選択部2110およびオブジェクト情報抽出部2120は、メディアに記録されている全ての静止画について、各静止画毎に以下の処理を繰り返し実行する(S2011)。
FIG. 29 is a flowchart showing an algorithm for generating object information for realizing a montage-like effect.
The still image selection unit 2110 and the object information extraction unit 2120 repeatedly execute the following processing for each still image for all the still images recorded on the medium (S2011).

まず、静止画選択部2110は、メディアに記録されている静止画を本ショートフィルム生成再生装置2001内のメモリに読み出し(S2012)、読み出した静止画をデータベース2020に登録する(S2013)。次に、オブジェクト情報抽出部2120は、読み出された静止画に含まれるオブジェクトを全て抽出し(S2014)、当該オブジェクトの位置情報(座標・大きさ)などをオブジェクト情報に登録する(S2015)。   First, the still image selection unit 2110 reads the still image recorded on the medium into the memory in the short film generation / playback apparatus 2001 (S2012), and registers the read still image in the database 2020 (S2013). Next, the object information extraction unit 2120 extracts all the objects included in the read still image (S2014), and registers the position information (coordinates / sizes) of the object in the object information (S2015).

オブジェクトが顔であると識別された場合、オブジェクトの位置情報の取得が終わると、顔特徴点抽出部2130は、顔特徴点を抽出し(S2101)、抽出した顔特徴点をオブジェクト情報に登録する(S2102)。ここで、顔特徴点情報は、顔上の特徴点の座標(複数)を含む情報である。例えば、目頭、目尻、鼻の頂点、口の両端、眉の始まりと終わり等である。顔上の特徴点を抽出する技術としては、例えば、センシング技術応用研究会によって主催された2002センシング技術応用セミナー「安心・安全のための危機管理とセキュリティ」において、「顔認識技術とセキュリティへの応用」の中で紹介されている技術があり、このような既存の技術を用いればよい。   When the object is identified as a face, when the acquisition of the position information of the object is completed, the face feature point extraction unit 2130 extracts the face feature points (S2101), and registers the extracted face feature points in the object information. (S2102). Here, the face feature point information is information including the coordinates (a plurality) of feature points on the face. For example, the head of the eye, the corner of the eye, the apex of the nose, the ends of the mouth, the beginning and end of the eyebrows, and the like. As a technology for extracting feature points on the face, for example, in the 2002 Sensing Technology Application Seminar “Crisis Management and Security for Safety and Security” hosted by the Sensing Technology Application Study Group, There are technologies introduced in “Applications”, and such existing technologies may be used.

全てのオブジェクト情報の生成が終わると、入力部2011は、オブジェクト情報をデータベース2021に登録する。これによって、静止画2210に対応するオブジェクト情報2221(図30参照)がデータベース2021に登録される。
全ての静止画について、データベース2021に対してその静止画2210およびオブジェクト情報2221の登録が終わると(S2016)、入力部2011は、データ入力処理を終了する。
When the generation of all object information is completed, the input unit 2011 registers the object information in the database 2021. As a result, object information 2221 (see FIG. 30) corresponding to the still image 2210 is registered in the database 2021.
When registration of the still image 2210 and the object information 2221 with respect to the database 2021 is completed for all still images (S2016), the input unit 2011 ends the data input process.

図30は、上記のデータ入力処理でデータベース2021に格納されたオブジェクト情報2221の構成例を示す図である。
オブジェクト情報2221は、図30に示されるように、抽出したオブジェクトが接する円の中心の座標と、半径の大きさによって表される位置情報と、対応する静止画のファイル名との他、特徴点を含んで構成される。特徴点としては、上記したように目頭、目尻、鼻の頂点、口の両端、眉の始まりと終わりの位置座標である。
FIG. 30 is a diagram showing a configuration example of the object information 2221 stored in the database 2021 by the data input process described above.
As shown in FIG. 30, the object information 2221 includes feature points in addition to the coordinates of the center of the circle that the extracted object touches, the position information represented by the size of the radius, the file name of the corresponding still image, and the like. It is comprised including. As described above, the feature points are the position coordinates of the start and end of the eyebrow, the corner of the eye, the apex of the nose, both ends of the mouth, and the eyebrows.

このように構成されたオブジェクト情報2221により、画像処理の対象となる全ての静止画につき、それぞれオブジェクトの位置および顔特徴点等が取得され、オブジェクトのパーツを中心とした画像処理が可能となる。
次いで、シナリオ生成処理について説明する。
図31は、シナリオ生成部2031の各部が実行するシナリオを生成するまでのアルゴリズムを示したフローチャートである。なお、このシナリオ生成処理は、ショートフィルムで使用する静止画の対象範囲の指示をユーザから受け付けたり、このショートフィルムで使用する音楽や、スタイル、テーマが決定された後、実行される。
With the object information 2221 configured as described above, the position of the object, the facial feature point, and the like are acquired for all the still images to be subjected to image processing, and image processing centering on the object parts becomes possible.
Next, scenario generation processing will be described.
FIG. 31 is a flowchart showing an algorithm for generating a scenario to be executed by each unit of the scenario generation unit 2031. This scenario generation process is executed after receiving an instruction from the user for the target range of the still image used on the short film, or after determining the music, style, and theme used on the short film.

最初に、エフェクト配置部2310は、エフェクトテーブル2230に格納されている複数のエフェクトの中からエフェクトを一つ選出し、選出した時間軸上に配置する(S2021)。具体的には、決定された音楽の時間長に合わせて、エフェクトのモンタージュや、ズーム等を、この順番に配置するような場合である。これによって、シナリオの骨格が形成される。   First, the effect placement unit 2310 selects one effect from a plurality of effects stored in the effect table 2230, and places it on the selected time axis (S2021). Specifically, an effect montage, zoom, and the like are arranged in this order in accordance with the determined music time length. Thus, a scenario skeleton is formed.

エフェクトの時間軸上への配置が終わると、静止画割当部2321およびパラメータ設定部2331は、時間軸上に配置された全てのエフェクトについてマップする静止画を決定し、種々のパラメータを設定する(S2022)。
まず、静止画割当部2321は、エフェクトの属性情報中のオブジェクトの数および特徴点をキーとして、要求するオブジェクトの数を満たす静止画をオブジェクト情報2221を用いて検索し、検索により得られた複数の静止画の中から1つ選択した静止画を、マップする静止画に決定する(S2023)。具体的には、エフェクトの属性が要求するオブジェクトの数および特徴点を有する静止画を検索して、エフェクトにマッピングする。
When the arrangement of the effects on the time axis is completed, the still image assignment unit 2321 and the parameter setting unit 2331 determine still images to be mapped for all the effects arranged on the time axis, and set various parameters ( S2022).
First, the still image allocating unit 2321 uses the object information 2221 to search for still images that satisfy the number of requested objects using the number of objects and feature points in the effect attribute information as keys, and a plurality of images obtained by the search. A still image selected from the still images is determined as a still image to be mapped (S2023). Specifically, a still image having the number of objects and feature points required by the attribute of the effect is searched and mapped to the effect.

次いで、パラメータ設定部2331は、マップされた静止画に対応するオブジェクト情報に基づいて、パラメータを決定する(S2024)。具体的には、パラメータ設定部2331は、まず、オブジェクト情報を読み出す。そして、顔の特徴点中の頭、目、鼻、口に関する情報から、それらの重心座標と大きさを取得し、スライドアウトするブロックの幅と、ブロックがスライドアウトする順序を決定する。ブロックがスライドアウトする順序は、ランダムでもよいが、顔以外の部分を最初に、次に口が含まれるブロック、鼻が含まれるブロック、頭が含まれるブロック、そして最後に目が含まれるブロックというように目が含まれるブロックを最後にスライドアウトさせると、見る側への違和感の少ないエフェクトを実現できる。なお、パーツ間のブロック境界は、パーツの重要度や、重心座標と大きさを勘案し、パーツの分割が少なくなるように定められる。また、オブジェクトの位置情報は、円の中心と半径によって表現する方法に依らず、例えば四角形の一つの対角線の始点と終点の座標でも表すことが可能である。   Next, the parameter setting unit 2331 determines parameters based on object information corresponding to the mapped still image (S2024). Specifically, the parameter setting unit 2331 first reads out object information. Then, from the information about the head, eyes, nose, and mouth in the facial feature points, the coordinates and size of the center of gravity are acquired, and the width of the blocks to be slid out and the order in which the blocks slide out are determined. The order in which the blocks slide out may be random, but the part other than the face is the first, the block containing the mouth, the block containing the nose, the block containing the head, and the block containing the eyes at the end. If you slide out the block that contains the eye like this, you can achieve an effect with less discomfort to the viewer. In addition, the block boundary between parts is determined so that the division of parts is reduced in consideration of the importance of parts and the coordinates and size of the center of gravity. In addition, the position information of the object can be expressed by the coordinates of the start point and the end point of one diagonal line of the quadrangle, for example, without depending on the method of expressing by the center and radius of the circle.

全てのエフェクトについて、マップされる静止画の決定およびパラメータの決定が終わると(S2025)、シナリオが完成したので、シナリオ生成部2031は、生成したシナリオをデータベース2021に登録し(S2026)、シナリオ生成処理を終了する。
図32は、データベース2021に登録されたシナリオ2271の構成例を示す図である。
For all effects, when the determination of the still image to be mapped and the determination of the parameters are completed (S2025), the scenario is completed. Therefore, the scenario generation unit 2031 registers the generated scenario in the database 2021 (S2026) to generate the scenario. The process ends.
FIG. 32 is a diagram illustrating a configuration example of the scenario 2271 registered in the database 2021.

図32に示されるように、シナリオ2271は、時間軸上の時間割り当てを示す開始時刻および終了時刻と、当該時間軸上に割り当てられるエフェクトと、各エフェクトに割り当てられる静止画と、パラメータとから構成される。エフェクトがモンタージュの場合、パラメータには、スライドアウトするブロックの幅、スライドアウトするブロックの順序、スライドアウトするブロックの方向が記載される。   As shown in FIG. 32, the scenario 2271 includes a start time and an end time indicating time allocation on the time axis, an effect allocated on the time axis, a still image allocated to each effect, and a parameter. Is done. When the effect is montage, the parameters describe the width of the block to slide out, the order of the blocks to slide out, and the direction of the blocks to slide out.

このように構成されたシナリオ2271を用いてショートフィルム再生すると、再生部2040のショートフィルム選択部2410によって、ショートフィルムのシナリオおよびそこに定義された音楽と静止画との読み出しが指示され、ショートフィルム再生部2420は、指示されたシナリオに従って音楽と静止画を用いてショートフィルムを再生し、表示部2050へ出力する。この場合、ショートフィルム再生部2420は、各エフェクト毎の静止画から、そのエフェクトに対応するパラメータで定義されているフレーム画像を生成し、ショートフィルムを再生する。そして、フレーム画像を生成する場合、静止画のオブジェクト(顔)中の顔パーツ情報(頭、目、鼻、口)に基づいて、ブロックの位置、大きさを確定するパラメータを決定する。   When a short film is played back using the scenario 2271 configured as described above, the short film selection unit 2410 of the playback unit 2040 instructs to read the short film scenario and the music and still images defined there, and the short film. The playback unit 2420 plays back the short film using music and still images according to the instructed scenario, and outputs the short film to the display unit 2050. In this case, the short film playback unit 2420 generates a frame image defined by parameters corresponding to the effect from the still image for each effect, and plays back the short film. When generating a frame image, parameters for determining the position and size of the block are determined based on face part information (head, eyes, nose, mouth) in the object (face) of the still image.

したがって、本実施の形態8に係る発明によれば、顔の途中で切られるエフェクトでありながら、見るものに違和感を与えず、さらなる面白さを含んだエンターテイメント性の高い視覚効果を生み出すことができる。
なお、図33(a)に示すように、モンタージュにマップされた静止画に2人の顔が含まれている場合、2人の顔の部分をトリミングし、顔の大きさがほぼ同一となるように正規化し、オブジェクトのパーツの位置合わせをして、2枚の写真を重ね(図33(b)参照)、上位の写真をパーツのブロック毎にスライドアウトさせ、下位の写真がパーツ毎に見えてくるモンタージュ風の処理を行うようにしてもよい(図33(c)〜図33(h))。
Therefore, according to the invention according to the eighth embodiment, although it is an effect cut off in the middle of the face, it can produce a visual effect with high entertainment characteristics that does not give a sense of incongruity to what it sees and includes further fun. .
As shown in FIG. 33 (a), when two faces are included in the still image mapped to the montage, the faces of the two people are trimmed so that the face sizes are almost the same. Normalize, align the parts of the object, overlay the two photos (see Fig. 33 (b)), slide out the top photo for each part block, and the bottom photo for each part You may make it perform the process of the montage style which can be seen (FIG.33 (c)-FIG.33 (h)).

このような処理によって、エンターテイメント性がさらに高められた視覚効果を生み出すことができる。
(実施の形態9)
図34は、本発明の実施の形態9に係るショートフィルム生成再生装置2003の機能構成を示すブロック図である。
By such processing, it is possible to produce a visual effect with further enhanced entertainment properties.
(Embodiment 9)
FIG. 34 is a block diagram showing a functional configuration of a short film generation / playback device 2003 according to Embodiment 9 of the present invention.

図34に示されるように、ショートフィルム生成再生装置2003は、入力部2012と、データベース2022と、シナリオ生成部2032と、再生部2040と、表示部2050と、これら入力部2012〜表示部2050を接続する内部バス2060とから構成される。なお、実施の形態7のショートフィルム生成再生装置2001と対応する部分に同じ番号を付し、その説明を省略する。また、ここでは、実施の形態7,8の場合と同様に、上記のショートフィルム生成部1105a〜1105dの内、シナリオ生成部1117に対応するシナリオ生成部2032だけが示されている。   As shown in FIG. 34, the short film generation / playback device 2003 includes an input unit 2012, a database 2022, a scenario generation unit 2032, a playback unit 2040, a display unit 2050, and these input units 2012 to 2050. And an internal bus 2060 to be connected. In addition, the same number is attached | subjected to the part corresponding to the short film production | generation reproduction | regeneration apparatus 2001 of Embodiment 7, and the description is abbreviate | omitted. Here, as in the case of the seventh and eighth embodiments, only the scenario generation unit 2032 corresponding to the scenario generation unit 1117 is shown among the short film generation units 1105a to 1105d.

入力部2012は、上記静止画選択部2110およびオブジェクト情報抽出部2120の他、顔認証部2140をさらに備えて構成される。また、シナリオ生成部2032は、エフェクト配置部2310の他、静止画割当部2322およびパラメータ設定部2332を備えて構成される。
ところで、ショートフィルム生成再生装置2001の入力部2010ではオブジェクト(人の顔)の位置だけを抽出するように構成していたが、このショートフィルム生成再生装置2003の入力部2012は、入力部2010の構成に加えてそのオブジェクトが誰であるかを認証する顔認証部2140をさらに備えて構成され、この顔特徴点抽出部2130を追加することによって、認証された者を意識したエフェクト(例えば、スポットライト)に対応したシナリオを作成し、このシナリオを用いてショートフィルムを再生する点がショートフィルム生成再生装置2001と大きく異なっている。
The input unit 2012 includes a face authentication unit 2140 in addition to the still image selection unit 2110 and the object information extraction unit 2120. In addition to the effect placement unit 2310, the scenario generation unit 2032 includes a still image assignment unit 2322 and a parameter setting unit 2332.
By the way, although the input unit 2010 of the short film generation / playback device 2001 is configured to extract only the position of the object (human face), the input unit 2012 of the short film generation / playback device 2003 In addition to the configuration, a face authentication unit 2140 for authenticating who the object is is configured, and by adding the face feature point extraction unit 2130, an effect (for example, a spot is recognized) A scenario corresponding to “write” is created, and a short film is reproduced using this scenario, which is greatly different from the short film generation and reproduction apparatus 2001.

顔認証部2140は、静止画中で検出された顔をデータベース2022に予め登録された顔情報2280と照合して、誰であるかを判定し、顔情報に加えて、名前をオブジェクト情報の一つとして追加するブロックであり、既存の顔認証技術を用いることができる。ここで、顔認証の技術を用いたアプリケーションは、様々な会社から商品化され、オムロン社のFaceKey、NEC社のNeoFace等がある。これらのアプリケーションは、セキュリティシステムで使用され、予め登録された顔画像と取得した画像中の顔を比較して、登録された人であれば、ドアの施錠を開くものであり、顔認証部2140としてこれらの既存の顔認証の技術を用いることができる。   The face authentication unit 2140 compares the face detected in the still image with the face information 2280 registered in advance in the database 2022, determines who the person is, and adds the name to the object information in addition to the face information. As a block to be added, an existing face authentication technique can be used. Here, applications using the face authentication technology are commercialized from various companies, such as FaceKey of OMRON Corporation and NeoFace of NEC Corporation. These applications are used in the security system, and compare the face image registered in advance with the face in the acquired image. If the person is a registered person, the door is locked, and the face authentication unit 2140 These existing face authentication techniques can be used.

図35は、特定の人にフォーカスするエフェクト(スポットライト)の一例を示す絵コンテである。この絵コンテは、3人(左から、シュチアート,ナッシュ,ニキータとする)が写った静止画があって(図35(a)参照)、その上をスポットライトが動き回り(図35(b)〜図35(d)参照)、最後にニキータさんにスポットライトをフォーカスする(図35(e)参照)様子を示したものである。この効果によって、ニキータさんを含めて複数人が被写体として写っている写真であっても、ニキータさん一人に見るものの注意を集めることができるので、出来上がったショートフィルムは、ニキータさんにフォーカスしたものとなる。   FIG. 35 is a storyboard showing an example of an effect (spotlight) focused on a specific person. This storyboard has a still image of three people (from left, Schiart, Nash, and Nikita) (see Fig. 35 (a)), and a spotlight moves around it (Fig. 35 (b) ~ FIG. 35 (d)) and finally, the state of focusing the spotlight on Mr. Nikita (see FIG. 35 (e)). Because of this effect, it is possible to collect the attention of what Nikita sees even if it is a photograph of multiple people including Nikita as the subject, so the completed short film is focused on Nikita. Become.

本エフェクトでは、人が誰であるかを認証することによって、特定の者にスポットライトを当てるような視覚効果を得ることがミソである。
このような処理を実現するために、データベース2022に格納されているエフェクトテーブル2232、オブジェクト情報2222およびシナリオ2272は、特定の者にスポットライトを当てるようなエフェクトが実現されるように構成される。
In this effect, the key is to obtain a visual effect that shines a spotlight on a specific person by authenticating who the person is.
In order to realize such processing, the effect table 2232, the object information 2222, and the scenario 2272 stored in the database 2022 are configured to realize an effect that shines a spotlight on a specific person.

具体的には、エフェクトテーブル2232は、図36に示されるように、エフェクト名の欄および要求するオブジェクトの数の欄の他、1人へのフォーカスの可否の欄をさらに備えて構成される。1人へのフォーカスの可否の欄には、「可」および「否」のいずれか一方が格納される。例えば、スポットライトeff1の場合には「可」が格納され、この場合には、1人へのフォーカスを行うような視覚効果を得ることが可能となる。   Specifically, as shown in FIG. 36, the effect table 2232 further includes an effect name column and a requested object number column, and further includes a column indicating whether or not one person can focus. One of “permitted” and “not permitted” is stored in the column of whether focus is possible for one person. For example, in the case of the spotlight eff1, “OK” is stored. In this case, it is possible to obtain a visual effect that focuses on one person.

図37は、1人にスポットライトを当てるようなエフェクトを実現するオブジェクト情報を生成するアルゴリズムを示すフローチャートである。
静止画選択部2110、オブジェクト情報抽出部2120および顔認証部2140は、メディアに記録されている全ての静止画について、各静止画毎に以下の処理を繰り返し実行する(S2011)。
FIG. 37 is a flowchart showing an algorithm for generating object information for realizing an effect of shining a spotlight on one person.
The still image selection unit 2110, the object information extraction unit 2120, and the face authentication unit 2140 repeatedly execute the following processing for each still image for all the still images recorded on the medium (S2011).

まず、静止画選択部2110は、メディアに記録されている静止画を本ショートフィルム生成再生装置2003内のメモリに読み出し(S2012)、読み出した静止画をデータベース2022に登録する(S2013)。次に、オブジェクト情報抽出部2120は、読み出された静止画に含まれるオブジェクトを全て抽出し、当該オブジェクトの位置情報などから構成されるオブジェクト情報を生成する(S2014,S2015)。   First, the still image selection unit 2110 reads the still image recorded on the medium into the memory in the short film generation / playback device 2003 (S2012), and registers the read still image in the database 2022 (S2013). Next, the object information extraction unit 2120 extracts all the objects included in the read still image, and generates object information including position information of the objects (S2014, S2015).

オブジェクトが顔であると識別された場合、オブジェクトの位置情報の取得が終わると、顔認証部2140は、顔認証処理を実行し、各オブジェクトの名前を取得し(S2111)、取得した名前をオブジェクト情報に登録する(S2112)。具体的には、顔認証部2140は、データベース2022に予め登録された個人認証用の顔情報2280とオブジェクト情報抽出部2120から渡された顔情報とを比較して、名前を探す。見つかった場合は、名前をオブジェクト情報の一部として、顔情報と一緒にデータベース2022に登録する。なお、見つからなかった場合は、名前を登録しないのはいうまでもない。   When the object is identified as a face, when the acquisition of the position information of the object is completed, the face authentication unit 2140 executes face authentication processing, acquires the name of each object (S2111), and uses the acquired name as the object. Information is registered (S2112). Specifically, face authentication unit 2140 compares face information 2280 for personal authentication registered in advance in database 2022 with face information passed from object information extraction unit 2120 to search for a name. If found, the name is registered in the database 2022 together with the face information as part of the object information. Needless to say, if the name is not found, the name is not registered.

全てのオブジェクト情報の生成が終わると、入力部2012は、オブジェクト情報をデータベース2022に登録する。これによって、静止画2210に対応するオブジェクト情報2222(図38参照)がデータベース2022に登録される。
全ての静止画について、データベース2022への全ての静止画2210およびオブジェクト情報2222の登録が終わると(S2216)、入力部2012は、データ入力処理を終了する。
When the generation of all the object information is completed, the input unit 2012 registers the object information in the database 2022. As a result, object information 2222 (see FIG. 38) corresponding to the still image 2210 is registered in the database 2022.
When all the still images 2210 and the object information 2222 are registered in the database 2022 for all the still images (S2216), the input unit 2012 ends the data input process.

図38は、上記のデータ入力処理でデータベース2022に格納されたオブジェクト情報2222の構成例を示す図である。
オブジェクト情報2222は、図38に示されるように、抽出したオブジェクトが接する円の中心の座標と、半径の大きさによって表される位置情報と、対応する静止画のファイル名との他、名前を含んで構成される。
FIG. 38 is a diagram showing a configuration example of the object information 2222 stored in the database 2022 by the data input process described above.
As shown in FIG. 38, the object information 2222 includes a name in addition to the coordinates of the center of the circle that the extracted object touches, the position information represented by the size of the radius, and the file name of the corresponding still image. Consists of including.

このように構成されたオブジェクト情報2222により、画像処理の対象となる全ての静止画につき、それぞれオブジェクトの位置および名前等が取得され、ユーザにより指定されたオブジェクトの名前を中心とした画像処理が可能となる。
図39は、シナリオ生成部2032の各部が実行するシナリオを生成するまでのアルゴリズムを示したフローチャートである。なお、このシナリオ生成処理は、ショートフィルムで使用する静止画の対象範囲の指示をユーザから受け付けたり、このショートフィルムで使用する音楽や、スタイル、テーマが決定された後、実行される。
With the object information 2222 configured in this way, the position and name of each object are obtained for all still images to be subjected to image processing, and image processing centered on the name of the object specified by the user is possible. It becomes.
FIG. 39 is a flowchart showing an algorithm until a scenario to be executed by each unit of the scenario generation unit 2032 is generated. This scenario generation process is executed after receiving an instruction from the user for the target range of the still image used on the short film, or after determining the music, style, and theme used on the short film.

最初に、エフェクト配置部2310は、エフェクトテーブル2232に格納されている複数のエフェクトの中から一人にフォーカスした視覚効果を実行できるエフェクトを一つ選出し、選出した時間軸上に配置する(S2021)。具体的には、決定された音楽の時間長に合わせて、エフェクトのスポットライトや、ズーム等を、この順番に配置するような場合である。これによって、シナリオの骨格が形成される。   First, the effect placement unit 2310 selects one effect that can execute a visual effect focused on one person from a plurality of effects stored in the effect table 2232, and places the selected effect on the selected time axis (S2021). . Specifically, the effect spotlight, zoom, and the like are arranged in this order in accordance with the determined music time length. Thus, a scenario skeleton is formed.

エフェクトの時間軸上への配置が終わると、静止画割当部2322およびパラメータ設定部2332は、時間軸上に配置された全てのエフェクトについてニキータさんが写った写真をデータベース2022から検索し、マップする静止画を決定し、種々のパラメータを設定する(S2022)。このとき、ニキータさん一人が写った写真だけでなく、ニキータさんを含めて複数人が写った写真であっても構わない。   When the effects are placed on the time axis, the still image assignment unit 2322 and the parameter setting unit 2332 search the database 2022 for photos of all the effects placed on the time axis and map them. A still image is determined and various parameters are set (S2022). At this time, not only a photograph of Nikita alone but also a photograph of a plurality of people including Nikita may be used.

まず、静止画割当部2322は、エフェクトの属性情報をキーとして、要求する属性情報の数を満たす静止画をエフェクトテーブル2232を用いて検索し、検索により得られた複数の静止画の中から1つ選択した静止画を、マップする静止画に決定する(S2023)。具体的には、エフェクトの属性が要求するオブジェクトの数および1人(ニキータさん)へのフォーカスの可否を有する静止画を検索して、エフェクトにマッピングする。   First, the still image allocation unit 2322 searches the effect table 2232 for a still image that satisfies the number of requested attribute information using the attribute information of the effect as a key, and selects one of the plurality of still images obtained by the search. The selected still image is determined as a still image to be mapped (S2023). Specifically, a still image having the number of objects required by the attribute of the effect and whether or not one (Mr. Nikita) can focus is searched and mapped to the effect.

次いで、パラメータ設定部2332は、マップされた静止画に対応するオブジェクト情報に基づいて、パラメータを決定する(S2024)。具体的には、パラメータ設定部2332は、オブジェクト情報を読み出し、そこに含まれるニキータさんの顔の位置、大きさをセットして、スポットライトの到着位置(デスティネーション)を決定する。なお、スポットライトのエフェクトではなく、スライドアウトのエフェクトの場合には、ニキータさんの顔を含むブロックが最後にスライドアウトするように設定することによって、見る側にニキータさんをより長く見せることができ、ニキータさんを印象づけることができる。逆にスライドインのエフェクトの場合には、ニキータさんの顔が含まれるブロックを最初にスライドインするように設定することにより、ニキータさんを長く見せることができ、ニキータさんを印象づけることができる。   Next, the parameter setting unit 2332 determines parameters based on object information corresponding to the mapped still image (S2024). Specifically, the parameter setting unit 2332 reads the object information, sets the position and size of Mr. Nikita's face included therein, and determines the arrival position (destination) of the spotlight. In the case of a slide-out effect instead of a spotlight effect, you can make Nikita look longer on the viewer side by setting the block containing Nikita's face to slide out last. Can impress Nikita. On the other hand, in the case of the slide-in effect, by setting the block including Nikita's face to slide in first, Nikita can be shown long, and Nikita can be impressed.

全てのエフェクトについて、マップされる静止画の決定およびパラメータの決定が終わると(S2025)、シナリオが完成したので、シナリオ生成部2032は、生成したシナリオをデータベース2022に登録し(S2026)、シナリオ生成処理を終了する。
図40は、データベース2022に登録されたシナリオ2272の構成例を示す図である。
When the determination of the still image to be mapped and the determination of the parameters are completed for all the effects (S2025), the scenario is completed. Therefore, the scenario generation unit 2032 registers the generated scenario in the database 2022 (S2026), and generates the scenario. The process ends.
FIG. 40 is a diagram illustrating a configuration example of the scenario 2272 registered in the database 2022.

図40に示されるように、シナリオ2272は、時間軸上の時間割り当てを示す開始時刻および終了時刻と、当該時間軸上に割り当てられるエフェクトと、各エフェクトに割り当てられる静止画と、パラメータとから構成される。エフェクトがスポットライトの場合、パラメータには、スポットライトを当てるオブジェクト(位置、大きさを含む)が記載される。   As shown in FIG. 40, the scenario 2272 includes a start time and an end time indicating time allocation on the time axis, an effect allocated on the time axis, a still image allocated to each effect, and a parameter. Is done. When the effect is a spotlight, an object (including position and size) to which the spotlight is applied is described in the parameter.

このように構成されたシナリオ2272を用いてショートフィルム再生すると、再生部2040のショートフィルム選択部2410によって、ショートフィルムのシナリオおよびそこに定義された音楽と静止画との読み出しが指示され、ショートフィルム再生部2420は、指示されたシナリオに従って音楽と静止画を用いてショートフィルムを再生し、表示部2050へ出力する。この場合、ショートフィルム再生部2420は、各エフェクト毎の静止画から、そのエフェクトに対応するパラメータで定義されているフレーム画像を生成し、ショートフィルムを再生する。そして、フレーム画像を生成する場合、静止画の名前によって特定されるオブジェクト(顔)の位置情報にスポットライトを当てるパラメータを決定する。   When the short film is reproduced using the scenario 2272 configured as described above, the short film selection unit 2410 of the reproduction unit 2040 instructs to read the short film scenario and the music and still image defined therein, and the short film is reproduced. The playback unit 2420 plays back the short film using music and still images according to the instructed scenario, and outputs the short film to the display unit 2050. In this case, the short film playback unit 2420 generates a frame image defined by parameters corresponding to the effect from the still image for each effect, and plays back the short film. Then, when generating a frame image, a parameter for spotlighting the position information of the object (face) specified by the name of the still image is determined.

以上のように、実施の形態9の発明によれば、顔認証部2140によって、静止画内のオブジェクトの名前を認識できるので、任意の人が含まれる写真を使って、その人にフォーカスしたエフェクトを実行することができる。その結果、出来上がったショートフィルムは、任意の人にフォーカスしたものであって、ショートフィルムを再生する目的に沿った使い方が可能となる。例えば、結婚式の披露宴は新郎新婦が主役である場であるので、彼らを含め多数の友人が写った写真を使って生成したショートフィルムであっても、新郎新婦にフォーカスしたショートフィルムであることが望ましい。本発明の実施の形態9に係るショートフィルム生成再生装置2003を使えば、新郎新婦が写った写真を選択した上で、彼らをエフェクトの中心として設定することが可能であるので、新郎新婦にフォーカスしたショートフィルムを容易に生成できる。   As described above, according to the ninth embodiment, the name of the object in the still image can be recognized by the face authentication unit 2140. Therefore, the effect focused on the person using the photo including the arbitrary person. Can be executed. As a result, the completed short film is focused on an arbitrary person and can be used in accordance with the purpose of reproducing the short film. For example, since the wedding reception is a place where the bride and groom are the main characters, even if it is a short film generated using photos taken by many friends including them, it should be a short film focused on the bride and groom Is desirable. If the short film generation / reproduction device 2003 according to Embodiment 9 of the present invention is used, it is possible to select a photograph of the bride and groom and set them as the center of the effect. It is possible to easily produce a short film.

(実施の形態10)
図41は、本発明の実施の形態10に係るショートフィルム生成再生装置2004の機能構成を示すブロック図である。
図41に示されるように、ショートフィルム生成再生装置2004は、入力部2013と、データベース2023と、シナリオ生成部2033と、再生部2040と、表示部2050と、これら入力部2013〜表示部2050を接続する内部バス2060との他、アドレス帳2070を含んで構成される。なお、実施の形態9のショートフィルム生成再生装置2003と対応する部分に同じ番号を付し、その説明を省略する。また、また、ここでは、実施の形態7,8の場合と同様に、上記のショートフィルム生成部1105a〜1105dの内、シナリオ生成部1117に対応するシナリオ生成部2033だけが示されている。
(Embodiment 10)
FIG. 41 is a block diagram showing a functional configuration of a short film generation / playback device 2004 according to Embodiment 10 of the present invention.
As shown in FIG. 41, the short film generation / reproduction device 2004 includes an input unit 2013, a database 2023, a scenario generation unit 2033, a reproduction unit 2040, a display unit 2050, and these input units 2013 to 2050. In addition to the internal bus 2060 to be connected, an address book 2070 is included. In addition, the same number is attached | subjected to the part corresponding to the short film production | generation reproduction | regeneration apparatus 2003 of Embodiment 9, and the description is abbreviate | omitted. Also, here, as in the case of the seventh and eighth embodiments, only the scenario generation unit 2033 corresponding to the scenario generation unit 1117 is shown among the short film generation units 1105a to 1105d.

実施の形態9の入力部2012では顔認証部2140によってオブジェクトの名前を取得していたが、入力部2013では顔認証部2140によって得られた名前を使って、名前と個人のパーソナルデータを登録しているlook up table(例えば、アドレス帳)を検索する個人情報検索部2150をさらに備え、静止画内のオブジェクト(被写体)の属性(例えば、性別、年齢、趣味、所属など)をオブジェクト情報として追加し、追加されたオブジェクト情報を使って、同じエフェクトであっても、さらなる付加価値としての楽しさ、面白さ、エンターテイメント性を追加することが可能となるように構成されている点が大きく異なっている。   In the input unit 2012 of the ninth embodiment, the name of the object is acquired by the face authentication unit 2140. However, the input unit 2013 registers the name and personal data using the name obtained by the face authentication unit 2140. A personal information search unit 2150 for searching a look up table (for example, an address book), and adding attributes (for example, gender, age, hobby, affiliation, etc.) of objects (subjects) in still images as object information However, using the added object information, it is greatly different in that it is configured so that even the same effect can add fun, fun and entertainment as additional value. Yes.

なお、アドレス帳2070は、図42に示されるように、名前の他、住所、電話番号、メールアドレス、性別、年齢、生年月日、所属、趣味などの属性で構成されている。
図43は、性別を用いたエフェクトの一例を示す絵コンテである。本エフェクトは、従来のスライドインのエフェクトに対して、オブジェクトが男女である場合には、その関係を暗示するようなキャラクタ(図43ではハートマーク)を表示するものである。男性の顔が含まれるブロックと女性の顔が含まれるブロックがスライドインしてきて、一枚の絵を生成する(図43(a)、図43(b))。その後、両者の関係を暗示するようなキャラクタ、例えばハートマークなどを表示する(図43(c)、図43(d))。これに対して、性別が男女でない場合には、図44に示されるように、通常の円によって、二人の顔にフォーカスする。
As shown in FIG. 42, the address book 2070 includes attributes such as an address, a telephone number, an e-mail address, sex, age, date of birth, affiliation, and hobby in addition to the name.
FIG. 43 is a storyboard showing an example of an effect using gender. This effect is to display a character (a heart symbol in FIG. 43) that implies the relationship when the object is male and female, compared to the conventional slide-in effect. The block containing the male face and the block containing the female face slide in to generate a single picture (FIGS. 43A and 43B). After that, a character that implies the relationship between them, for example, a heart mark or the like is displayed (FIGS. 43C and 43D). On the other hand, when the sex is not male or female, as shown in FIG. 44, the faces of the two people are focused by a normal circle.

このような処理を実現するために、データベース2023に格納されているエフェクトテーブル2233、オブジェクト情報2223およびシナリオ2273は、特定の者の性別を考慮したエフェクトが実現されるように構成される。
具体的には、エフェクトテーブル2233は、図45に示されるように、エフェクト名の欄および要求するオブジェクトの数の欄の他、要求するオブジェクトの性別およびキャラクタの欄をさらに備えて構成される。要求するオブジェクトの性別の欄には、男1人、かつ女1人や、その他の組み合わせも可が格納され、キャラクタの欄には男女の組の場合には「ハートマーク」が、その他の組み合わせの場合には「○」が格納される。これにより、性別の組み合わせに合致したキャラクタを表示するような視覚効果を得ることが可能となる。
In order to realize such processing, the effect table 2233, the object information 2223, and the scenario 2273 stored in the database 2023 are configured to realize an effect in consideration of the gender of a specific person.
Specifically, as shown in FIG. 45, the effect table 2233 further includes a gender and character column for the requested object in addition to a column for the effect name and the number of requested objects. The requested object's gender column stores one man and one woman, and other combinations are possible, and the character column contains a “heart symbol” for men and women, and other combinations. In this case, “◯” is stored. This makes it possible to obtain a visual effect that displays a character that matches the sex combination.

図46は、性別の組み合わせによって表示されるキャラクタを変えるようなエフェクトを実現するオブジェクト情報を生成するアルゴリズムを示すフローチャートである。
静止画選択部2110、オブジェクト情報抽出部2120、顔認証部2140および個人情報検索部2150は、メディアに記録されている全ての静止画について、各静止画毎に以下の処理を繰り返し実行する(S2011)。
FIG. 46 is a flowchart showing an algorithm for generating object information for realizing an effect of changing a character displayed by a combination of gender.
The still image selection unit 2110, the object information extraction unit 2120, the face authentication unit 2140, and the personal information search unit 2150 repeatedly execute the following processing for each still image for all the still images recorded on the medium (S2011). ).

まず、静止画選択部2110は、メディアに記録されている静止画を本ショートフィルム生成再生装置2004内のメモリに読み出し(S2012)、読み出した静止画をデータベース2023に登録する(S2013)。次に、オブジェクト情報抽出部2120は、読み出された静止画に含まれるオブジェクトを全て抽出し、当該オブジェクトの位置情報などから構成されるオブジェクト情報を生成する(S2014,S2015)。   First, the still image selection unit 2110 reads the still image recorded on the medium into the memory in the short film generation / reproduction device 2004 (S2012), and registers the read still image in the database 2023 (S2013). Next, the object information extraction unit 2120 extracts all the objects included in the read still image, and generates object information including position information of the objects (S2014, S2015).

オブジェクトが顔であると識別された場合、オブジェクトの位置情報の取得が終わると、顔認証部2140は、顔認証処理を実行し、各オブジェクトの名前を取得し(S2111)、取得した名前をオブジェクト情報2223に登録する(S2112)。
名前が登録されると、個人情報検索部2150は、名前でアドレス帳2070を検索し、その名前に対応する個人情報をオブジェクト情報2223に追加する(S2121)。全てのオブジェクト情報の生成が終わると、入力部2013は、オブジェクト情報2223をデータベース2023に登録する。これによって、静止画2210に対応するオブジェクト情報2223(図47参照)かデータベース2023に登録される。
When the object is identified as a face, when the acquisition of the position information of the object is completed, the face authentication unit 2140 executes face authentication processing, acquires the name of each object (S2111), and uses the acquired name as the object. The information is registered in the information 2223 (S2112).
When the name is registered, the personal information search unit 2150 searches the address book 2070 by name, and adds personal information corresponding to the name to the object information 2223 (S2121). When the generation of all object information is completed, the input unit 2013 registers the object information 2223 in the database 2023. As a result, the object information 2223 corresponding to the still image 2210 (see FIG. 47) or the database 2023 is registered.

全ての静止画について、データベース2023への全ての静止画2210およびオブジェクト情報2223の登録が終わると(S2016)、入力部2013は、データ入力処理を終了する。
図47は、上記のデータ入力処理でデータベース2023に格納されたオブジェクト情報2223の構成例を示す図である。
When all the still images 2210 and the object information 2223 are registered in the database 2023 for all the still images (S2016), the input unit 2013 ends the data input process.
FIG. 47 is a diagram showing a configuration example of the object information 2223 stored in the database 2023 by the data input process described above.

オブジェクト情報2223は、図47に示されるように、抽出したオブジェクトが接する円の中心の座標と、半径の大きさによって表される位置情報と、対応する静止画のファイル名と、オブジェクトの名前の他、個人情報、すなわちオブジェクトの属性を含んで構成される。
このように構成されたオブジェクト情報2223により、画像処理の対象となる全ての静止画につき、それぞれオブジェクトの位置および名前等が取得され、ユーザにより指定されたオブジェクトの性別の組を中心とした画像処理が可能となる。
As shown in FIG. 47, the object information 2223 includes the coordinates of the center of the circle that the extracted object touches, the position information represented by the size of the radius, the file name of the corresponding still image, and the name of the object. In addition, it includes personal information, that is, an object attribute.
With the object information 2223 configured in this way, the position and name of each object are acquired for all the still images to be subjected to image processing, and image processing centered on the sex group of the object specified by the user Is possible.

図48は、シナリオ生成部2033の各部が実行するシナリオを生成するまでのアルゴリズムを示したフローチャートである。なお、このシナリオ生成処理は、ショートフィルムで使用する静止画の対象範囲の指示をユーザから受け付けたり、このショートフィルムで使用する音楽や、スタイル、テーマが決定された後、実行される。
最初に、エフェクト配置部2310は、エフェクトテーブル2233に格納されている複数のエフェクトの中からユーザによって指定された性別の組に合致した視覚効果を実行できるエフェクトを一つ選出し、選出した時間軸上に配置する(S2021)。具体的には、決定された音楽の時間長に合わせて、エフェクトのスティルや、ズーム等を、この順番に配置するような場合である。これによって、シナリオの骨格が形成される。
FIG. 48 is a flowchart showing an algorithm until a scenario to be executed by each unit of the scenario generation unit 2033 is generated. This scenario generation process is executed after receiving an instruction from the user for the target range of the still image used on the short film, or after determining the music, style, and theme used on the short film.
First, the effect placement unit 2310 selects one effect that can execute a visual effect that matches a gender set designated by the user from a plurality of effects stored in the effect table 2233, and selects the selected time axis. It is arranged on the top (S2021). Specifically, the effect still, zoom, and the like are arranged in this order in accordance with the determined music time length. Thus, a scenario skeleton is formed.

エフェクトの時間軸上への配置が終わると、静止画割当部2323は、時間軸上に配置された全てのエフェクトについて性別の組に合致した写真を検索し、マップする静止画を決定し、種々のパラメータを設定する(S2211)。具体的には、エフェクトの属性は、そのエフェクトにマッピングすると良い静止画の特徴量を記述したもので、ここでは、オブジェクトの数=2、その性別=男1、女1である。このとき、指定された性別の組を満たす2人が写った写真だけでなく、この2人を含めて複数人が写った写真であっても構わない。   When the effects are placed on the time axis, the still image assignment unit 2323 searches for photos that match the sex group for all the effects placed on the time axis, determines the still images to be mapped, Parameters are set (S2211). Specifically, the attribute of the effect describes the feature quantity of a still image that should be mapped to the effect. Here, the number of objects = 2, the gender = male 1, and the female 1. At this time, it is not limited to a photograph showing two persons satisfying a specified sex group, but may be a photograph showing a plurality of persons including these two persons.

マッピングが終わると、パラメータ設定部2333は、マップされた静止画に対応するオブジェクト情報に基づいて、オブジェクトが男女か否か判断する(S2213)。静止画中のオブジェクトが男女である場合には(S2213でYes)、男女用に定義されたキャラクタであるハートマークを付与する(S2214)。そうでない場合には(S2213でNo)、男女以外用に定義されたキャラクタである「○」を付与する(S2215)。   When the mapping is completed, the parameter setting unit 2333 determines whether the object is male or female based on the object information corresponding to the mapped still image (S2213). If the object in the still image is male or female (Yes in S2213), a heart mark that is a character defined for male and female is assigned (S2214). If not (No in S2213), “◯”, which is a character defined for non-gender characters, is assigned (S2215).

キャラクタの付与が終わると、シナリオが完成したので、シナリオ生成部2033は、生成したシナリオをデータベース2023に登録し(S2026)、シナリオ生成処理を終了する。
このように構成されたシナリオ2273を用いてショートフィルム再生すると、再生部2040のショートフィルム選択部2410によって、ショートフィルムのシナリオおよびそこに定義された音楽と静止画との読み出しが指示され、ショートフィルム再生部2420は、指示されたシナリオに従って音楽と静止画を用いてショートフィルムを再生し、表示部2050へ出力する。この場合、ショートフィルム再生部2420は、各エフェクト毎の静止画から、そのエフェクトに対応するパラメータで定義されているフレーム画像を生成し、ショートフィルムを再生する。そして、フレーム画像を生成する場合、静止画のオブジェクトの性別の組によって特定されるキャラクタを決定する。
When the character assignment ends, the scenario is completed, and the scenario generation unit 2033 registers the generated scenario in the database 2023 (S2026), and ends the scenario generation process.
When the short film is played back using the scenario 2273 configured as described above, the short film selection unit 2410 of the playback unit 2040 instructs to read the short film scenario and the music and still image defined there, and the short film is instructed. The playback unit 2420 plays back a short film using music and still images according to the instructed scenario, and outputs the short film to the display unit 2050. In this case, the short film playback unit 2420 generates a frame image defined by parameters corresponding to the effect from the still image for each effect, and plays back the short film. Then, when generating a frame image, a character specified by the sex group of the still image object is determined.

なお、この実施の形態10においては、オブジェクトの属性として性別を用いたが、年齢、生年月日等の他の属性を用いてシナリオを生成するようにしてもよく、キャラクタとともに名前や、年齢、生年月日等の他の属性を表示するようにしてもよい。
以上のように、実施の形態10の発明によれば、顔認証部2140によって得られた静止画内のオブジェクトの名前を使って、アドレス帳とリンクすることによって、名前に付随する様々な属性(性別、年齢、所属、趣味など)をオブジェクト情報に追加することができる。したがって、それらの情報を使えば、同じエフェクトであっても新たなエンターテイメント性を見出すことができる。
In the tenth embodiment, gender is used as the attribute of the object, but the scenario may be generated using other attributes such as age, date of birth, etc. The name, age, Other attributes such as date of birth may be displayed.
As described above, according to the invention of Embodiment 10, by using the name of the object in the still image obtained by the face authentication unit 2140 and linking with the address book, various attributes ( Gender, age, affiliation, hobby, etc.) can be added to the object information. Therefore, if such information is used, new entertainment properties can be found even with the same effect.

なお、上記実施の形態7〜10では、オブジェクトが人の顔である場合について説明したが、本願発明はオブジェクトが人の顔である場合に限られず、人の姿態全体や、犬、猫等の動物、リンゴ、レモン等の植物、机、椅子等の動産、観光案内地図等の不動産等、あらゆる種類のオブジェクトに適用できるのはいうまでもない。
また、上記実施の形態7では、静止画割当部2320は、エフェクト配置部2310が時間軸上に配置したエフェクト毎に、データベース2020に登録されたオブジェクト情報に基づいて、当該エフェクトが要求するオブジェクトの数を満たす静止画を割り当てるようにしたが、本実施の形態における静止画割当部2320は、エフェクトが要求するオブジェクトの種類、色、形および数の少なくとも1つを満たす静止画を割り当てるようにしてもよい。この場合にはオブジェクト情報抽出部2120でオブジェクトの色および形も抽出するようにすればよい。
In the seventh to tenth embodiments described above, the case where the object is a human face has been described. However, the present invention is not limited to the case where the object is a human face, and the entire human figure, dog, cat, etc. Needless to say, it can be applied to all kinds of objects such as animals, plants such as apples and lemons, movable property such as desks and chairs, and real estate such as tourist information maps.
In the seventh embodiment, the still image allocating unit 2320 uses the object information registered in the database 2020 for each effect arranged by the effect arranging unit 2310 on the time axis. Although still images satisfying the number are allocated, the still image allocation unit 2320 in the present embodiment allocates still images that satisfy at least one of the type, color, shape, and number of objects required by the effect. Also good. In this case, the object information extraction unit 2120 may extract the color and shape of the object.

さらに、静止画割当部2320は、エフェクトが要求する画像の特徴量(色合い、色の広がり、色の位置、明るさ、明るさの位置等を示す画像の指標)を満たす静止画を割り当てるようにしてもよい。この場合には入力部2013で静止画毎に色ヒストグラム、周波数ヒストグラムなどを計算し、画像の特徴量を予め抽出するようにすればよい。
(実施の形態11)
次に、エフェクトブロックを選択することによって、シナリオ、すなわちショートフィルムを生成する場合について説明する。
Further, the still image assigning unit 2320 assigns a still image that satisfies the image feature amount required by the effect (an image index indicating the hue, color spread, color position, brightness, brightness position, etc.). May be. In this case, the input unit 2013 may calculate a color histogram, a frequency histogram, or the like for each still image, and extract an image feature amount in advance.
(Embodiment 11)
Next, a case where a scenario, that is, a short film is generated by selecting an effect block will be described.

ところで、上記実施の形態1〜10では、エフェクトの集合の集合からエフェクト、つまりpan,still,wipein等の視覚的に一つの動きを示した基本エフェクトを選択している。これに対して、本実施の形態11においては、一つ以上の基本エフェクトの並びを複数集めたエフェクトブロックの集合からエフェクトブロックを選択するように構成される点が上記実施の形態1〜10の場合と大きく異なっている。   In the first to tenth embodiments, a basic effect that visually shows one movement such as pan, still, and wipein is selected from the set of effects. In contrast to this, in the eleventh embodiment, it is configured such that an effect block is selected from a set of effect blocks obtained by collecting a plurality of one or more basic effect sequences. It is very different from the case.

データベースは、音楽、画像、エフェクトブロックの集合を記憶している。音楽は音楽特徴量を、画像は画像特徴量をメタデータとして実際の情報に加えて保持している。
エフェクトブロックの集合は、図49に示されるように、一つ以上の基本エフェクトの並びを複数集めたものである。そして、各エフェクトブロックは、pan,still,wipein等の視覚的に一つの動きを示す基本エフェクトと、この基本エフェクトと同じ基本エフェクトや、この基本エフェクトと異なる基本エフェクトを少なくとも1つ組み合わせたものである。エフェクトブロックがその集合に含まれている状態(初期状態)では、それを再生するときのパラメータが何も決まっていない。
The database stores a set of music, images, and effect blocks. In addition to the actual information, the music holds the music feature value and the image holds the image feature value as metadata.
As shown in FIG. 49, the set of effect blocks is a collection of a plurality of one or more basic effects. Each effect block is a combination of at least one basic effect that visually shows one movement, such as pan, still, and wipein, the same basic effect as this basic effect, or a basic effect that is different from this basic effect. is there. In a state where the effect block is included in the set (initial state), no parameters are determined when reproducing the effect block.

このようにエフェクトブロックで構成されている場合、シナリオ生成部は、
音楽特徴量か、画像特徴量のいずれかを元に、下記に示される1)〜4)を順次実行することにより、シナリオ、すなわちショートフィルムを生成することができる。
1)コンテンツを生成するために使用するエフェクトブロック(複数)を選出する。
2)コンテンツの特徴を決定するエフェクトブロックのパラメータを生成する。
3)音楽にマッチするようエフェクトブロックを時間軸上に配列する。
4)エフェクトブロックにマッチした画像をアロケー卜(割り当て)する。
When configured with effect blocks in this way, the scenario generator
A scenario, that is, a short film can be generated by sequentially executing the following 1) to 4) based on either the music feature value or the image feature value.
1) Select effect blocks (plural) to be used to generate content.
2) Generate effect block parameters that determine content characteristics.
3) Arrange the effect blocks on the time axis to match the music.
4) Allocate (assign) an image that matches the effect block.

ここで、音楽特徴量を元にシナリオを生成する例を挙げる。
音楽特徴量は,楽譜的情報と感性的情報の2つに分類できる。楽譜的情報はテンポ、変化点など、楽譜から取得できる情報であり、テンポは音楽全体のリズムの速さを表し、変化点は曲中の曲調が変化するポイントであったり、打楽器等の特徴的な音が入るポイントを示す。一方、感性的情報は、人がその音楽を聴いたときに感じる情報であり、人が音楽を聞いたときに感じるであろう感性を激しさ、躍動感、爽快感、素朴さ、ソフトさ等の感性キーワードについて10段階評価によるポイントによって表す。なお、10段階評価でなく、5段階でも3段階でもよい。他方、エフェクトブロックは1つ以上の基本エフェクトの順列であり、初期状態においては、その順列だけが決定済みであって、実際のエフェクトブロックのあらゆる動作、見え方を定義するパラメータである時間の長さ、開始位置、終了位置、色相などは何一つ未定義である。
Here, an example of generating a scenario based on the music feature amount will be given.
Music features can be classified into two types: musical score information and emotional information. Musical information is information that can be acquired from the score, such as the tempo and change points. The tempo represents the speed of the rhythm of the entire music, and the change point is a point where the tune of the song changes or is characteristic of a percussion instrument, etc. Indicates the point where a special sound enters. Sensitive information, on the other hand, is information that people feel when they listen to the music, and the sensibility that they will feel when they hear the music is intense, dynamic, refreshing, simple, soft, etc. The sensitivity keywords are expressed by points based on a 10-level evaluation. It should be noted that the evaluation may be five or three stages instead of the ten-stage evaluation. On the other hand, an effect block is a permutation of one or more basic effects. In the initial state, only the permutation has been determined, and a length of time that is a parameter that defines all operations and appearances of an actual effect block. The start position, end position, hue, etc. are undefined.

ショートフィルム生成再生装置は、複数のエフェクトブロックを所有する。
基本エフェクトは、Pan、Slidein、Still、Wipein、Focusinなどのように視覚的に一つの動きを示したものである。エフェクトブロックは、任意の個数の基本エフェクトを時間軸上に並べることによって、例えば映画の1シーンのような一連のまとまりのある動きを定義したものである。
The short film generation / playback apparatus has a plurality of effect blocks.
The basic effect visually shows one movement such as Pan, Slidein, Still, Wipein, and Focusin. The effect block defines a series of coherent movements such as one scene of a movie by arranging an arbitrary number of basic effects on the time axis.

例えば、Still → Still → Still → BoxOutと言う4つの基本エフェクトの順列から成るエフェクトブロックは、写真を静止状態で3枚見せた後、最後の一枚を縮小表示しながら消失させることによって、一つのシーンを完結させるものである。
以下、音楽を選択したとき、その音楽特徴量を元に、エフェクトブロック、写真を素材として、ショートフィルム(コンテンツ)を自動生成するための構成およびアルゴリズムを示す。
For example, an effect block consisting of a sequence of four basic effects, Still → Still → Still → BoxOut, shows three pictures in a static state and then disappears while displaying the last one in a reduced size. It completes the scene.
Hereinafter, a configuration and an algorithm for automatically generating a short film (content) using an effect block and a photo as a material based on the music feature amount when music is selected will be described.

図51は、本発明の実施の形態11に係るショートフィルム生成再生装置3000の機能構成を示すブロック図である。
図51に示されるように、ショートフィルム生成再生装置3000は、データベースに格納される音楽特徴量、画像特徴量や上記したエフェクトブロックの集合の他、エフェクトブロック選出部3002、パラメータ決定部3003、エフェクトブロック配列部3004、写真割当部3005および座標データ生成部3006を含んで構成される。なお、ここでは、ショートフィルム生成再生装置3000として、データベースおよびシナリオ生成部の部分だけが示されている。
FIG. 51 is a block diagram showing a functional configuration of a short film generation / playback device 3000 according to Embodiment 11 of the present invention.
As shown in FIG. 51, the short film generation / playback device 3000 includes an effect block selection unit 3002, a parameter determination unit 3003, an effect block, in addition to the music feature amount, the image feature amount, and the effect block set described above. A block arrangement unit 3004, a photo assignment unit 3005, and a coordinate data generation unit 3006 are included. Here, only the database and the scenario generation unit are shown as the short film generation / playback device 3000.

図52は、ショートフィルム生成再生装置3000の各部が実行するショートフィルム生成処理を示すフローチャートである。
ショートフィルム生成再生装置3000は、先ずショートフィルムのBGMとして再生する音楽をデータベースから選出する(S3001)。この選出方法は、ショートフィルム生成再生装置3000がGUIなどのインターフェースを提供して、ユーザが自分で好みの曲を選択する方法であっても、あるいは、ショートフィルム生成再生装置3000によってデータベースから自動的に選出する方法であっても構わない。音楽の選出が終わると、ショートフィルム生成再生装置3000は、音楽データとその音楽特徴量のデータをデータベースから読み出す。なお、データベースに音楽特徴量が存在しないような場合には、データベースから音楽データを読み出した際に、その音楽データから音楽特徴量データを抽出すればよい。
FIG. 52 is a flowchart showing a short film generation process executed by each unit of the short film generation / reproduction device 3000.
The short film generating / reproducing apparatus 3000 first selects music to be reproduced as a short film BGM from the database (S3001). This selection method may be a method in which the short film generation / playback device 3000 provides an interface such as a GUI so that the user can select a favorite song by himself / herself, or the short film generation / playback device 3000 automatically selects from a database. It may be a method to elect. When the music selection is finished, the short film generation / playback device 3000 reads the music data and the data of the music feature amount from the database. If there is no music feature quantity in the database, the music feature quantity data may be extracted from the music data when the music data is read from the database.

音楽データおよび音楽特徴量データを取得すると、エフェクトブロック選出部3002は、音楽特徴量から今回のコンテンツ生成に使用するエフェクトブロックをエフェクトブロックの集合から選出する(S3002、図49参照)。例えば、全てのエフェクトブロックに予め添付するタグ情報の一つとして、テンポ情報を与えておく。このテンポ情報を使って、エフェクトブロック選出部3002は、楽譜的情報からアップテンポな曲の場合は変化の激しいエフェクトブロックを選出し、スローテンポな曲の場合は変化の小さいエフェクトブロックを選出する。   When the music data and the music feature value data are acquired, the effect block selection unit 3002 selects an effect block to be used for generating the current content from the music feature value from the set of effect blocks (see S3002, FIG. 49). For example, tempo information is given as one piece of tag information attached in advance to all effect blocks. Using this tempo information, the effect block selection unit 3002 selects an effect block that changes rapidly in the case of up-tempo music from the musical score information, and selects an effect block that changes little in the case of slow-tempo music.

エフェクトブロックの選出が終わると、パラメータ決定部3003は、選出したエフェクトブロックのパラメータ値を決定する(S3003、図50参照)。より詳しくは、パラメータ決定部3003は、感性的情報を元にコンテンツ全体の色調、フレームパターン、バックグランドカラー等を決定し、また、各基本エフェクトの実行時間の長さ、動き(panの最初と最後の座標値で決まる)、割り当てる写真の検索ルール等を決める。例えば、感性的情報が、激しさ(2)、躍動感(2)、爽快感(3)、素朴さ(8)、ソフトさ(6)である場合、ゆったりとしたモノクロ調のコンテンツのシナリオを生成するために、色調=モノクロ、バックグランドカラー=黒、実行時間=長め、動き=大きく、写真検索ルール=時系列等と、パラメータを決定する。   When the selection of the effect block ends, the parameter determination unit 3003 determines the parameter value of the selected effect block (see S3003, FIG. 50). More specifically, the parameter determination unit 3003 determines the color tone, frame pattern, background color, and the like of the entire content based on the sensibility information. Decide the search rule for the photo to be assigned. For example, if the emotional information is intense (2), dynamic (2), exhilarating (3), naive (8), soft (6), a scenario of a relaxed monochrome content In order to generate the parameters, parameters such as color tone = monochrome, background color = black, execution time = longer, motion = large, photo search rule = time series, and the like are determined.

なお、上記ステップS3002による選出されたエフェクトブロックの集合とステップS3003による決定されたパラメータの集合により、スタイルが生成されることになる。ここで、このスタイルはこの実施の形態においてはエフェクトの上位レイヤとして規定されるが、同じレイヤとして規定してもよい。
パラメータの決定が終わると、エフェクトブロック配列部3004は、音楽特徴量の楽譜的情報を元に選出した複数のエフェクトブロックの中から順次一つを選択して、時間軸上に配列していく(S3004)。より詳しくは、特に変化点の情報により、曲中の曲調が変化するポイントや打楽器のような特徴的な音が入るポイントにおいて、エフェクトの変化が一致するように配置する。例えば、変化点が連続する場合にはstill → still → stillのように表示する静止画が連続的に切り替わるエフェクトブロックを配置する。
A style is generated by the set of effect blocks selected in step S3002 and the set of parameters determined in step S3003. Here, this style is defined as an upper layer of the effect in this embodiment, but may be defined as the same layer.
When the parameters are determined, the effect block arrangement unit 3004 sequentially selects one of the plurality of effect blocks selected based on the musical score of the music feature value and arranges them on the time axis ( S3004). More specifically, the change of the effect is matched at the point where the tone of the song changes or the point where a characteristic sound such as a percussion instrument enters according to the change point information. For example, when the changing points are continuous, an effect block in which a still image to be displayed is continuously switched is arranged in a manner of still → still → still.

エフェクトブロックの時間軸上への配列が終わると、写真割当部3005は、各エフェクトブロックに写真(静止画)を割り当てる(S3005)。より詳しくは、エフェクトブロック中の基本エフェクトが要求する画像特徴量と上記検索ルールに基づき、データベース内の写真を検索する。例えば、focusinは写真内の特定のオブジェクトの中心点を中心として、表示領域を縮小していく基本エフェクトであるが、写真内にオブジェクトが一つ以上あって、その縦もしくは横の長さが静止画に対して60%以上である写真を選出するなどである。   When the arrangement of the effect blocks on the time axis is completed, the photo assignment unit 3005 assigns a photo (still image) to each effect block (S3005). More specifically, a photo in the database is searched based on the image feature amount required by the basic effect in the effect block and the search rule. For example, focusin is a basic effect that reduces the display area around the center point of a specific object in a photo. For example, a photograph that is 60% or more of the image is selected.

写真の割当が終わると、座標データ生成部3006は、割り当てた写真の画像特徴量から、基本エフェクトを実際に動かす上で必要な座標値を生成する(S3006)。より詳しくは、FocusOutを例に挙げると、FocusOutは画像上のいずれかのポイントにフォーカスを当てて、興味領域を指示しておき、徐々にそのフォーカスを表す図形を拡大表示することによって、静止画全体を見せる基本エフェクトであるが、最初と最後のフォーカス図形の大ききを表すための座標値が必要である。なお、図形を正方形や円などに固定した場合、その中心点と最初と最後の半径の大きさでも指定できる。この座標値を取得するために、座標データ生成部3006は、割り当てた画像の画像特徴量のオブジェクト情報から座標値を使用する。   When the photo assignment is completed, the coordinate data generation unit 3006 generates a coordinate value necessary for actually moving the basic effect from the image feature amount of the assigned photo (S3006). More specifically, FocusOut is taken as an example. FocusOut focuses on any point on the image, indicates the region of interest, and gradually enlarges and displays the graphic representing the focus, thereby displaying a still image. Although it is a basic effect that shows the whole, a coordinate value is required to represent the size of the first and last focus figures. If the figure is fixed to a square or circle, you can specify the center point and the size of the first and last radii. In order to acquire the coordinate value, the coordinate data generation unit 3006 uses the coordinate value from the object information of the image feature amount of the assigned image.

座標データの生成が終わると、シナリオの生成を完了し(S3007)、ショートフィルム生成再生装置3000は、生成したシナリオ、すなわちショートフィルムをデータベースに格納し、ショートフィルム生成処理を終了する。
なお、ステップS3002,S3003において,音楽特徴量を用いたが、音楽特徴量に代えて画像特徴量を用いることも可能である。つまり、ステップS3002では、画像特徴量として画像から抽出した代表色を用い、代表色が「赤」の場合には、変化の激しいエフェクトブロックを選出し、代表色が「青」の場合には、変化のゆったりとしたエフェクトブロックを選出するようにしてもよい。
When the generation of the coordinate data is finished, the generation of the scenario is completed (S3007), and the short film generation / playback device 3000 stores the generated scenario, that is, the short film in the database, and ends the short film generation process.
In step S3002 and S3003, the music feature amount is used. However, an image feature amount can be used instead of the music feature amount. That is, in step S3002, the representative color extracted from the image is used as the image feature amount, and when the representative color is “red”, an effect block that changes drastically is selected, and when the representative color is “blue”, You may make it select the effect block with a loose change.

また、ステップS3003では、画像特徴量からエフェクトブロックのパラメータを決定する。例えば、代表色が「赤」の場合、躍動的なコンテンツを生成するため、色調=ノーマル、バックグランドカラー=白、実行時間=短め、動き=大きく、写真検索ルール=時系列などとするようにしてもよい。
したがって、本実施の形態11に係る発明によれば、エフェクトのつながりがスムーズになり、さらなる面白さを含んだエンターテイメント性の高い視覚効果を生み出すことができる。
In step S3003, an effect block parameter is determined from the image feature amount. For example, when the representative color is “red”, dynamic content is generated, so that the color tone is normal, the background color is white, the execution time is short, the motion is large, the photo search rule is time series, and the like. May be.
Therefore, according to the invention according to the eleventh embodiment, the connection of the effects becomes smooth, and it is possible to produce a visual effect with high entertainment properties including further fun.

(実施の形態12)
図53は、本発明の実施の形態に係るショートフィルム生成再生システムの構成を示す機能ブロック図である。なお、上記各実施の形態と同様の部分については同じ記号を付し、説明を省略する。
本実施の形態12のショートフィルム生成再生システムは、上記各実施の形態に示す再生部1103をショートフィルム生成再生装置とは別に表示装置1002とともにショートフィルム再生装置1400として構成し、ショートフィルム生成再生装置1001eに通信部1401を備えている点が上記各実施の形態と相違しており、その他は同様である。
(Embodiment 12)
FIG. 53 is a functional block diagram showing the configuration of the short film generation / playback system according to the embodiment of the present invention. Note that portions similar to those in the above-described embodiments are given the same symbols, and description thereof is omitted.
In the short film generation / playback system of the twelfth embodiment, the playback unit 1103 shown in each of the above embodiments is configured as a short film playback device 1400 together with the display device 1002 separately from the short film generation / playback device. The point that the communication unit 1401 is provided in 1001e is different from each of the above embodiments, and the others are the same.

ショートフィルム生成再生装置1001eの通信部1401は、ネットワーク1402を介して外部の装置との通信を行う。一方、ショートフィルム再生装置1400は、ショートフィルム選択部1110、表示部1111、ショートフィルム再生部1112、記憶部1403および通信部1404を備えている。
ショートフィルム選択部1110は、再生しようとするショートフィルムを選択するためのGUIをユーザに提供する。ショートフィルム再生部1112は、選択されたショートフィルムのシナリオ、並びにそこに定義された静止画と音楽を記憶部1403から読み出し、シナリオをデコードしてショートフィルムを再生する。通信部1404は、ネットワーク1402を介して外部の装置との通信を行う。記憶部1403は、外部の装置より通信部1404を経て受信したデータを一時的に保持する。表示部1111は、LCDなど映像を表示するためのデバイスであり、再生されたショートフィルムを表示する。
The communication unit 1401 of the short film generation / playback apparatus 1001e communicates with an external apparatus via the network 1402. On the other hand, the short film playback apparatus 1400 includes a short film selection unit 1110, a display unit 1111, a short film playback unit 1112, a storage unit 1403, and a communication unit 1404.
The short film selection unit 1110 provides a user with a GUI for selecting a short film to be reproduced. The short film playback unit 1112 reads the selected short film scenario and the still image and music defined there from the storage unit 1403, decodes the scenario, and plays back the short film. The communication unit 1404 performs communication with an external device via the network 1402. The storage unit 1403 temporarily holds data received from an external device via the communication unit 1404. The display unit 1111 is a device for displaying an image such as an LCD, and displays a reproduced short film.

次に、上記のように構成されたショートフィルム再生装置1400でショートフィルムを再生するときの動作について説明する。
ショートフィルム選択部1110は、通信部1404およびネットワーク1402を介して、ショートフィルム生成再生装置1001eのデータベース部1102に登録されているショートフィルムのリストを取得し、ユーザに表示する。ユーザが見たいショートフィルムを選択すると、ショートフィルム選択部1110は、その名前を含む情報を通信部1404を介してショートフィルム生成再生装置1001eに送信し、選択されたショートフィルムのシナリオ、音楽および静止画の送信を要求する。
Next, an operation when a short film is reproduced by the short film reproduction apparatus 1400 configured as described above will be described.
The short film selection unit 1110 acquires a list of short films registered in the database unit 1102 of the short film generation / playback device 1001e via the communication unit 1404 and the network 1402, and displays the list to the user. When the user selects a short film to be viewed, the short film selection unit 1110 transmits information including the name to the short film generation / playback device 1001e via the communication unit 1404, and the selected short film scenario, music, and stillness are selected. Request transmission of the image.

ショートフィルム生成再生装置1001eの通信部1401は、ショートフィルム再生装置1400より要求されたショートフィルムのシナリオ、音楽および静止画をデータベース部1102より読み出し、ショートフィルム再生装置1400へ送信する。
要求したショートフィルムのシナリオ、音楽および静止画を受信したショートフィルム再生装置1400の通信部1404は、そのシナリオ、音楽および静止画を記憶部1403に記憶する。次に、ショートフィルム再生部1112は、選択されたショートフィルムのシナリオ、静止画および音楽を記憶部1403から読み出し、シナリオをデコードしてショートフィルムを再生し、表示部1111へ出力する。
The communication unit 1401 of the short film generation / playback device 1001e reads the short film scenario, music, and still image requested by the short film playback device 1400 from the database unit 1102, and transmits them to the short film playback device 1400.
The communication unit 1404 of the short film playback device 1400 that has received the requested short film scenario, music, and still image stores the scenario, music, and still image in the storage unit 1403. Next, the short film playback unit 1112 reads the scenario, still image, and music of the selected short film from the storage unit 1403, decodes the scenario, plays back the short film, and outputs it to the display unit 1111.

以上のように、再生部1103をショートフィルム生成再生装置とは別に表示装置1002とともにショートフィルム再生装置1400として構成することによって、ユーザはショートフィルム再生装置1400だけを持ち運ぶことができる。また、ショートフィルム再生装置1400を携帯電話として構成することも可能であり、手軽に持ち運ぶことができる。この結果、家庭内で作成したショートフィルムを出かけた先で出会った人々に見せることができ、楽しさ、うれしさが飛躍的に増大する。   As described above, by configuring the playback unit 1103 as the short film playback device 1400 together with the display device 1002 separately from the short film generation / playback device, the user can carry only the short film playback device 1400. Further, the short film playback device 1400 can be configured as a mobile phone and can be easily carried. As a result, it can be shown to people who have met the short film created at home, and the joy and joy will increase dramatically.

(実施の形態13)
次に、上記各実施の形態1〜12のように構成されたショートフィルム生成再生装置でショートフィルムを再生する場合の他の実施の形態について説明する。
図54は、本発明に係るショートフィルム生成再生装置の他の実施の形態の構成を示すブロック図である。なお、上記各実施の形態1〜12と同様の部分については同じ記号を付し、説明を省略する。
(Embodiment 13)
Next, another embodiment in the case where a short film is reproduced by the short film production / reproduction device configured as in each of the above-described embodiments 1 to 12 will be described.
FIG. 54 is a block diagram showing the configuration of another embodiment of the short film generating / reproducing apparatus according to the present invention. In addition, about the part similar to said each Embodiment 1-12, the same symbol is attached | subjected and description is abbreviate | omitted.

ショートフィルム生成再生装置1001fは、表示装置であるテレビ1020に接続されており、リモコン1004の操作信号を受信するリモコン受信部(図示しない)を備えている。
ショートフィルム生成再生装置1001fの再生部1103は、再生したショートフィルムをRF信号に変調してテレビ1020へ出力している。ここで、RF信号はテレビチャンネルの周波数帯に変調された信号である。通常、周波数帯としてU/VHF帯が使われ、テレビのチャンネル(例えば5、7等)に対応する。
The short film generation / playback device 1001f is connected to a television 1020 as a display device, and includes a remote control receiving unit (not shown) that receives an operation signal of the remote control 1004.
The reproduction unit 1103 of the short film generation / reproduction device 1001f modulates the reproduced short film into an RF signal and outputs the RF signal to the television 1020. Here, the RF signal is a signal modulated in the frequency band of the television channel. Usually, a U / VHF band is used as a frequency band and corresponds to a television channel (for example, 5, 7, etc.).

テレビ1020は、チャンネル選択部1021、表示部1022およびリモコン1004の操作信号を受信するリモコン受信部(図示しない)を備えており、チャンネル選択部1021にはアンテナ1003が接続されている。
チャンネル選択部1021は、チューナおよび復調回路等(図示しない)を備えており、ショートフィルム生成再生装置1001fから入力されたRF信号およびアンテナ1003からの信号を受信し、所望の周波数を選択して表示部1022へ出力する。表示部1022は、LCD、ブラウン管など映像を表示するためのデバイスであり、再生されたショートフィルムを表示する。
The television 1020 includes a channel selection unit 1021, a display unit 1022, and a remote control reception unit (not shown) that receives operation signals from the remote control 1004, and an antenna 1003 is connected to the channel selection unit 1021.
The channel selection unit 1021 includes a tuner, a demodulation circuit, and the like (not shown), receives the RF signal input from the short film generation / playback device 1001f and the signal from the antenna 1003, and selects and displays a desired frequency. Output to the unit 1022. The display unit 1022 is a device for displaying an image such as an LCD or a cathode ray tube, and displays a reproduced short film.

リモコン1004は、メニューボタン1041および複数のチャンネルボタン1042を備えている。ユーザは、リモコン1004により操作を行い、メニューボタン1041でショートフィルムのテーマを選択する。また、チャンネルボタン1042の所定のチャンネル(例えば5)には、ショートフィルム生成再生装置1001fから入力されたRF信号が割り当てられており、このチャンネルボタン1042でショートフィルムと通常のテレビ番組との選択を行う。   The remote control 1004 includes a menu button 1041 and a plurality of channel buttons 1042. The user performs an operation with the remote controller 1004 and selects a short film theme with the menu button 1041. An RF signal input from the short film generation / playback apparatus 1001f is assigned to a predetermined channel (for example, 5) of the channel button 1042, and the channel button 1042 is used to select a short film and a normal television program. Do.

上記のように構成されたショートフィルム生成再生装置1001fで、ショートフィルムを再生する場合の動作を説明する。
ユーザは、リモコン1004のチャンネルボタン1042でショートフィルム生成再生装置1001fから入力されたRF信号が割り当てられたチャンネル(例えば5)を押下する。これを受けて、再生部1103のショートフィルム選択部1110は、データベース部1102に登録されているテーマを取得し、テーマ選択画面としてRF信号に変調してテレビ1020へ出力する。このテーマの選択については、後で詳しく説明する。
An operation when a short film is reproduced by the short film generation / reproduction device 1001f configured as described above will be described.
The user presses the channel (for example, 5) to which the RF signal input from the short film generation / playback apparatus 1001f is assigned with the channel button 1042 of the remote controller 1004. In response to this, the short film selection unit 1110 of the playback unit 1103 acquires the theme registered in the database unit 1102, modulates it as an RF signal as a theme selection screen, and outputs it to the television 1020. This theme selection will be described in detail later.

ユーザは、表示部1022に表示されたテーマ選択画面より、見たいテーマをメニューボタン1041により選択する。これを受けて、再生部1103のショートフィルム選択部1110は、その選択されたテーマに該当するショートフィルムのシナリオおよびそこに定義された音楽と静止画との読み出しを指示する。ショートフィルム再生部1112は、データベース1109から読み出されたシナリオをデコードし、読み出された音楽と静止画を用いてショートフィルムを再生し、RF信号に変調してテレビ1020へ出力する。   The user selects a theme to be viewed with the menu button 1041 from the theme selection screen displayed on the display unit 1022. In response to this, the short film selection unit 1110 of the playback unit 1103 instructs to read a scenario of a short film corresponding to the selected theme and music and still images defined there. The short film playback unit 1112 decodes the scenario read from the database 1109, plays back the short film using the read music and still image, modulates the RF film, and outputs the RF signal to the television 1020.

次に、テーマの選択について説明する。
図55はテーマ選択画面の表示イメージ図であり、図56はユーザ選択画面のイメージ図である。
テーマ選択には、手動選択と自動選択とがあり、ユーザは予めどちらかを選択することができる。
Next, the theme selection will be described.
FIG. 55 is a display image diagram of the theme selection screen, and FIG. 56 is an image diagram of the user selection screen.
The theme selection, there is a manual selection and automatic selection, the user can select either in advance.

手動選択には、ユーザが予め設定するテーマ(デフォルト設定)を用いる場合と、ユーザが毎回選択する場合とがある。デフォルト設定の設定例としては、前回のテーマ、よく使うテーマなどの固定テーマである。一方、ユーザが毎回選択する場合は、例えば図55に示すように提示された複数のテーマからメニューボタン1041を操作することにより選択する。テーマとしては、上記実施の形態1で説明したように、例えば時系列的な「去年の今ごろ」「最近の出来事」、イベントである「クリスマス」「運動会」等のテーマがある。   Manual selection includes a case where a theme (default setting) preset by the user is used and a case where the user selects each time. Examples of default settings include fixed themes such as the previous theme and frequently used themes. On the other hand, when the user selects each time, selection is performed by operating the menu button 1041 from a plurality of themes presented as shown in FIG. 55, for example. As the theme, as described in the first embodiment, for example, there are themes such as “Nearly of last year”, “Recent events”, “Christmas” and “Athletic meet” as events.

また、自動選択には、日時によってテーマを変える場合と、見る人によりテーマを変える場合とがある。日時によってテーマを変える場合は、例えば定期イベント(誕生日、クリスマス等)の日には対応するテーマを選択する。一方、見る人によりテーマを変える場合は、例えば図56に示すようなユーザ選択画面でユーザ名を選択し、選択したユーザが生成したショートフィルムや、そのユーザの写っているショートフィルムを中心に再生する。   The automatic selection includes a case where the theme is changed according to the date and time, and a case where the theme is changed depending on the viewer. When changing the theme according to the date and time, for example, the corresponding theme is selected on the day of a regular event (birthday, Christmas, etc.). On the other hand, when changing the theme depending on the viewer, for example, the user name is selected on the user selection screen as shown in FIG. 56, and playback is performed mainly on the short film generated by the selected user or the short film in which the user is reflected. To do.

以上のように、ショートフィルム生成再生装置1001fから再生出力を所定のチャンネルに割り当てているので、ユーザ操作上はテレビ番組とショートフィルムの区別はなく、テレビ操作とほぼ同等の手順でショートフィルムを視聴することができる。また、いわゆるザッピング(明確な目的がなく、チャンネルを頻繁に切り替えて面白そうな番組を探す)の感覚でテレビ番組およびショートフィルムをシームレスに選択、視聴できるので、ユーザの操作の手間を省くことができる。   As described above, since the playback output from the short film generation / playback apparatus 1001f is assigned to a predetermined channel, there is no distinction between the TV program and the short film in terms of user operation, and the short film can be viewed in substantially the same procedure as the TV operation. can do. Also, TV programs and short films can be selected and viewed seamlessly in the sense of so-called zapping (there is no clear purpose, and frequently switches channels to find interesting programs), saving user operations. it can.

なお、上記動作の説明は、手動選択でユーザが毎回テーマを選択する場合を例にしている。これ以外の場合には、ユーザがチャンネルボタン1042でショートフィルム生成再生装置1001fからのRF信号が割り当てられたチャンネルを押下すれば、ショートフィルム再生部1112は、すぐにショートフィルムを再生し、RF信号に変調してテレビ1020へ出力することになる。   The above description of the operation is an example in which the user selects a theme every time by manual selection. In other cases, if the user presses the channel to which the RF signal from the short film generation / playback apparatus 1001f is assigned using the channel button 1042, the short film playback unit 1112 immediately plays back the short film, and the RF signal And output to the television 1020.

また、ショートフィルムに割り当てたチャンネルボタンを押すたびに、再生中のショートフィルムが切り替わるようにすることも可能である。この場合、ユーザは飽きることなくショートフィルムを楽しむことができる。
また、テレビ1020の表示部1022を親子画面として構成し、ショートフィルムの再生を例えば子画面で表示させることも、逆に親画面で表示させることも可能である。
It is also possible to switch the short film being played each time the channel button assigned to the short film is pressed. In this case, the user can enjoy the short film without getting bored.
In addition, the display unit 1022 of the television 1020 can be configured as a parent-child screen so that playback of a short film can be displayed on, for example, a child screen, or vice versa.

(実施の形態14)
図57は、本発明に係るショートフィルム生成再生装置の他の実施の形態の構成を示すブロック図である。上記実施の形態13と同様の部分については同じ記号を付し、説明を省略する。
本実施の形態14は、ショートフィルム生成再生装置1001gからのRF信号出力を複数設けている点が上記実施の形態13と相違しており、その他は同様である。
(Embodiment 14)
FIG. 57 is a block diagram showing a configuration of another embodiment of the short film generating / reproducing apparatus according to the present invention. The same parts as those in the thirteenth embodiment are denoted by the same reference numerals, and the description thereof is omitted.
The fourteenth embodiment is different from the thirteenth embodiment in that a plurality of RF signal outputs from the short film generating / reproducing device 1001g are provided, and the other is the same.

ショートフィルム生成再生装置1001gの再生部1103は、再生したショートフィルムをRF信号に変調してテレビ1020へ出力しており、このRF信号出力を複数設けている。
テレビ1020のチャンネル選択部1021は、ショートフィルム生成再生装置1001gから入力された複数のRF信号およびアンテナ1003からの信号を受信し、所望の周波数を選択して表示部1022へ出力する。
The reproduction unit 1103 of the short film generation / reproduction device 1001g modulates the reproduced short film into an RF signal and outputs the RF signal to the television 1020, and a plurality of RF signal outputs are provided.
The channel selection unit 1021 of the television 1020 receives a plurality of RF signals input from the short film generation / playback device 1001g and the signal from the antenna 1003, selects a desired frequency, and outputs the selected frequency to the display unit 1022.

リモコン1004のチャンネルボタン1042には、所定の複数のチャンネル(例えば5、7等)それぞれに、ショートフィルム生成再生装置1001gから入力された複数のRF信号が割り当てられている。すなわち、ショートフィルムは、例えば異なるチャンネルに異なるテーマに対応するものが割り当てられる。また、テーマ選択はそれぞれのチャンネル毎にメニューボタン1041で行なう。   A plurality of RF signals input from the short film generation / playback apparatus 1001g are assigned to each of a plurality of predetermined channels (for example, 5, 7, etc.) to the channel button 1042 of the remote controller 1004. That is, short films corresponding to different themes are assigned to different channels, for example. The theme selection is performed with the menu button 1041 for each channel.

以上のように、ショートフィルム生成再生装置1001gからのRF信号出力を複数設けているので、チャンネルを変えるとショートフィルムが切り替わるというさらにテレビに近づいた操作感覚でショートフィルムを視聴することができる。
なお、選択中のチャンネルボタン1042を押すたびに、テーマはそのままで再生中のショートフィルムが切り替わるようにすることも可能である。すなわち、チャンネルボタン1042でテーマ選択、同じボタンを押すたびにショートフィルムが切り替わる。この場合、ユーザは飽きることなくショートフィルムを楽しむことができる。
As described above, since a plurality of RF signal outputs from the short film generating / reproducing apparatus 1001g are provided, the short film can be viewed with a sense of operation closer to that of a television where the short film is switched when the channel is changed.
Note that each time the currently selected channel button 1042 is pressed, it is possible to switch the short film being played while keeping the theme as it is. That is, the channel button 1042 selects a theme, and the short film switches each time the same button is pressed. In this case, the user can enjoy the short film without getting bored.

(実施の形態15)
図58は、本発明に係るショートフィルム生成再生装置の他の実施の形態の構成を示すブロック図である。上記実施の形態13と同様の部分については同じ記号を付し、説明を省略する。
本実施の形態15は、ショートフィルム生成再生装置1001hからのショートフィルムの再生出力をビデオ信号で行っている点が上記実施の形態13と相違しており、その他は同様である。
(Embodiment 15)
FIG. 58 is a block diagram showing a configuration of another embodiment of the short film generating / reproducing apparatus according to the present invention. The same parts as those in the thirteenth embodiment are denoted by the same reference numerals, and the description thereof is omitted.
The fifteenth embodiment is different from the thirteenth embodiment in that the short film reproduction output from the short film generating / reproducing apparatus 1001h is performed by a video signal, and the other is the same.

ショートフィルム生成再生装置1001hの再生部1103は、再生したショートフィルムをビデオ信号に変換し、テレビ1020へ出力している。
テレビ1020は、ショートフィルム生成再生装置1001hから入力されたビデオ信号をビデオ入力端子(図示しない)で受信している。
リモコン1004は、メニューボタン1041およびショートフィルムボタン1043を備えている。ユーザは、リモコン1004により操作を行い、メニューボタン1041でショートフィルムのテーマを選択する。また、ショートフィルムボタン1043で、ショートフィルムを視聴する。すなわち、ショートフィルムボタン1043が押されると、テレビ1020は、ショートフィルム生成再生装置1001hから入力されたビデオ信号を選択して、表示する。ここで、ショートフィルムボタン1043を押すたびに再生中のショートフィルムが切り替わるようにすることも可能である。この場合、ユーザは飽きることなくショートフィルムを楽しむことができる。
The reproduction unit 1103 of the short film generation / reproduction device 1001h converts the reproduced short film into a video signal and outputs the video signal to the television 1020.
The television 1020 receives the video signal input from the short film generation / playback device 1001h at a video input terminal (not shown).
The remote control 1004 includes a menu button 1041 and a short film button 1043. The user performs an operation with the remote controller 1004 and selects a short film theme with the menu button 1041. A short film is viewed with the short film button 1043. That is, when the short film button 1043 is pressed, the television 1020 selects and displays the video signal input from the short film generation / playback device 1001h. Here, it is also possible to switch the short film being played each time the short film button 1043 is pressed. In this case, the user can enjoy the short film without getting bored.

以上のように、ショートフィルム生成再生装置1001hからのショートフィルムの再生出力をビデオ信号で行っているので、ビデオを操作する感覚でショートフィルムを視聴することができる。
なお、上記実施の形態13〜15では、ショートフィルム生成再生装置1001e〜1001hとテレビ1020とに分割して別に構成しているが、これに限られるものではなく、例えば全てを一体に構成しても構わない。
As described above, since the short film reproduction output from the short film generation / reproduction device 1001h is performed by the video signal, the short film can be viewed as if the video is operated.
In the thirteenth to fifteenth embodiments, the short film generating / reproducing apparatuses 1001e to 1001h and the television 1020 are separately configured. However, the present invention is not limited to this, and for example, all are integrally configured. It doesn't matter.

また、上記各実施の形態で述べたショートフィルム生成再生装置1001a〜1001h,2001〜2004は、例えばホームサーバ、パーソナルコンピュータ、携帯電話装置、携帯情報端末、カーナビゲーション装置等として実現することが可能である。
また、上記各実施の形態では静止画が記録されているメディアから静止画を入力するようにしたが、カメラ付き携帯電話機のように自装置で撮影した静止画や、メールに添付されて送られてくる静止画、ネットワークを介して受信した静止画などであってもよい。つまり、取得された静止画であれば、その取得の方式の如何に関係なく本願発明の範囲に含まれるのはいうまでもない。
Further, the short film generation / reproduction devices 1001a to 1001h and 2001 to 2004 described in the above embodiments can be realized as, for example, a home server, a personal computer, a mobile phone device, a portable information terminal, a car navigation device, or the like. is there.
In each of the above embodiments, the still image is input from the medium on which the still image is recorded. However, the still image captured by the user's own device such as a mobile phone with a camera or attached to an e-mail is sent. It may be a still image coming or a still image received via a network. That is, it goes without saying that an acquired still image is included in the scope of the present invention regardless of the acquisition method.

さらに、上記実施の形態ではBGMとなる音楽の時間長に基づいてエフェクトやエフェクトブロックを配列したが、この時間長は、GUIなどでユーザによって指定された時間長であってもよいのはいうまでもない。   Furthermore, in the above embodiment, the effects and the effect blocks are arranged based on the time length of the music to be BGM. However, it goes without saying that this time length may be the time length specified by the user on the GUI or the like. Nor.

本発明のショートフィルム生成再生装置は、パーソナルコンピュータや、携帯電話機などの携帯情報端末装置などにおいて、ユーザが保有する膨大な静止画と所望の音楽とからエンターテイメント性を向上した短編の映像を生成し、再生するのに適している。   The short film generation / playback apparatus of the present invention generates a short video with improved entertainment characteristics from a huge amount of still images and desired music held by a user in a personal computer or a portable information terminal device such as a mobile phone. Suitable for playing.

本発明に係るショートフィルム生成再生装置の一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of the short film production | generation reproduction | regeneration apparatus based on this invention. 上記ショートフィルム生成再生装置でのスタイルとシナリオの関係を示した概念図である。It is the conceptual diagram which showed the relationship between the style and scenario in the said short film production | generation reproduction | regeneration apparatus. 上記ショートフィルム生成再生装置でのエフェクトの一例を絵コンテで模式的に示した図である。It is the figure which showed typically an example of the effect in the said short film production | generation reproduction | regeneration apparatus with a storyboard. 上記ショートフィルム生成再生装置の入力部における静止画入力時のアルゴリズムを示すフローチャートである。It is a flowchart which shows the algorithm at the time of the still image input in the input part of the said short film production | generation reproduction | regeneration apparatus. 上記ショートフィルム生成再生装置のショートフィルム生成部でのシナリオの生成時のアルゴリズムを示すフローチャートである。It is a flowchart which shows the algorithm at the time of the production | generation of the scenario in the short film production | generation part of the said short film production | generation reproduction | regeneration apparatus. 上記ショートフィルム生成部におけるエフェクトの配列を決めるアルゴリズムを示すフローチャートである。It is a flowchart which shows the algorithm which determines the arrangement | sequence of the effect in the said short film production | generation part. 上記ショートフィルム生成部で時間的な調整が行われる前と後での音楽の時間に対するエフェクトの配列の様子を示す概念図である。It is a conceptual diagram which shows the mode of the arrangement | sequence of the effect with respect to the music time before and after time adjustment is performed in the said short film production | generation part. 本発明に係るショートフィルム生成再生装置の他の実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of other embodiment of the short film production | generation reproduction | regeneration apparatus based on this invention. 上記ショートフィルム生成再生装置のショートフィルム生成部でのシナリオの生成時のアルゴリズムを示すフローチャートである。It is a flowchart which shows the algorithm at the time of the production | generation of the scenario in the short film production | generation part of the said short film production | generation reproduction | regeneration apparatus. 本発明に係るショートフィルム生成再生装置の他の実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of other embodiment of the short film production | generation reproduction | regeneration apparatus based on this invention. 上記ショートフィルム生成再生装置のショートフィルム生成部でのシナリオの生成時のアルゴリズムを示すフローチャートである。It is a flowchart which shows the algorithm at the time of the production | generation of the scenario in the short film production | generation part of the said short film production | generation reproduction | regeneration apparatus. 本発明に係るショートフィルム生成再生装置の他の実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of other embodiment of the short film production | generation reproduction | regeneration apparatus based on this invention. 上記ショートフィルム生成再生装置のショートフィルム生成部でのシナリオの生成時のアルゴリズムを示すフローチャートである。It is a flowchart which shows the algorithm at the time of the production | generation of the scenario in the short film production | generation part of the said short film production | generation reproduction | regeneration apparatus. 上記ショートフィルム生成再生装置のシナリオ生成部で、オブジェクト情報によって視覚効果を生成するときのアルゴリズムを示すフローチャートである。It is a flowchart which shows the algorithm when the scenario production | generation part of the said short film production | generation reproduction | regeneration apparatus produces | generates a visual effect by object information. 上記ショートフィルム生成再生装置のシナリオ生成部で、時間軸上に並べられた静止画に対するエフェクトの割り当てを示す概念図である。It is a conceptual diagram which shows the assignment of the effect with respect to the still image arranged in the time axis | shaft in the scenario production | generation part of the said short film production | generation reproduction | regeneration apparatus. 上記ショートフィルム生成再生装置のシナリオ生成部で、静止画に対してエフェクトを割り当てるアルゴリズムを示すフローチャートである。It is a flowchart which shows the algorithm which assigns an effect with respect to a still image in the scenario production | generation part of the said short film production | generation reproduction | regeneration apparatus. 本発明の実施の形態7に係るショートフィルム生成再生装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the short film production | generation reproduction | regeneration apparatus which concerns on Embodiment 7 of this invention. データベースに登録されたオブジェクト情報の構成例を示す図である。It is a figure which shows the structural example of the object information registered into the database. エフェクトテーブルの構成例を示す図である。It is a figure which shows the structural example of an effect table. 入力部における静止画入力時のアルゴリズムを示すフローチャートである。It is a flowchart which shows the algorithm at the time of the still image input in an input part. シナリオ生成部の各部が実行するシナリオを生成するまでのアルゴリズムを示したフローチャートである。It is the flowchart which showed the algorithm until it produces | generates the scenario which each part of a scenario production | generation part performs. パラメータ設定部がエフェクトのバリエーションおよびパラメータを決定するアルゴリズムを説明するためのフローチャートである。It is a flowchart for demonstrating the algorithm in which the parameter setting part determines the variation and parameter of an effect. スライドアウトにおける縦、横、斜め、4角の4つのバリエーションを示す図である。It is a figure which shows four variations, vertical, horizontal, diagonal, and four corners in a slide-out. オリジナルの座標系(x−o−y)をθ°(0゜<θ<90゜)回転させた回転座標系:s−o−t座標系を説明する図面である。It is a figure explaining the rotation coordinate system: sot coordinate system which rotated the original coordinate system (x-o-y) (theta) degrees (0 degree <theta <90 degree). データベースに登録されたシナリオの構成例を示す図である。It is a figure which shows the structural example of the scenario registered into the database. 本発明の実施の形態8に係るショートフィルム生成再生装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the short film production | generation reproduction | regeneration apparatus which concerns on Embodiment 8 of this invention. モンタージュにおける一例を示す絵コンテである。A storyboard showing an example of a montage. エフェクトテーブルの構成例を示す図である。It is a figure which shows the structural example of an effect table. モンタージュ風のエフェクトを実現するオブジェクト情報を生成するアルゴリズムを示すフローチャートである。It is a flowchart which shows the algorithm which produces | generates the object information which implement | achieves the effect of a montage style. オブジェクト情報の構成例を示す図である。It is a figure which shows the structural example of object information. シナリオ生成部の各部が実行するシナリオを生成するまでのアルゴリズムを示したフローチャートである。It is the flowchart which showed the algorithm until it produces | generates the scenario which each part of a scenario production | generation part performs. データベースに登録されたシナリオの構成例を示す図である。It is a figure which shows the structural example of the scenario registered into the database. モンタージュにおける変形例を示す絵コンテである。It is a storyboard which shows the modification in a montage. 本発明の実施の形態9に係るショートフィルム生成再生装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the short film production | generation reproduction | regeneration apparatus which concerns on Embodiment 9 of this invention. 特定の人にフォーカスするエフェクト(スポットライト)の一例を示す絵コンテである。It is a storyboard showing an example of an effect (spotlight) focused on a specific person. エフェクトテーブルの構成例を示す図である。It is a figure which shows the structural example of an effect table. 1人にスポットライトを当てるようなエフェクトを実現するオブジェクト情報を生成するアルゴリズムを示すフローチャートである。It is a flowchart which shows the algorithm which produces | generates the object information which implement | achieves the effect which shines a spotlight on one person. オブジェクト情報の構成例を示す図である。It is a figure which shows the structural example of object information. シナリオ生成部の各部が実行するシナリオを生成するまでのアルゴリズムを示したフローチャートである。It is the flowchart which showed the algorithm until it produces | generates the scenario which each part of a scenario production | generation part performs. データベースに登録されたシナリオの構成例を示す図である。It is a figure which shows the structural example of the scenario registered into the database. 本発明の実施の形態10に係るショートフィルム生成再生装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the short film production | generation reproduction | regeneration apparatus which concerns on Embodiment 10 of this invention. アドレス帳の構成例を示す図である。It is a figure which shows the structural example of an address book. 性別(男−女)を用いたエフェクトの一例を示す絵コンテである。It is a storyboard showing an example of an effect using gender (male-female). 性別(男−男)を用いたエフェクトの一例を示す絵コンテである。It is a storyboard showing an example of an effect using gender (male-male). エフェクトテーブルの構成例を示す図である。It is a figure which shows the structural example of an effect table. 性別の組み合わせによって表示されるキャラクタを変えるようなエフェクトを実現するオブジェクト情報を生成するアルゴリズムを示すフローチャートである。It is a flowchart which shows the algorithm which produces | generates the object information which implement | achieves the effect which changes the character displayed according to the combination of sex. データベースに格納されたオブジェクト情報の構成例を示す図である。It is a figure which shows the structural example of the object information stored in the database. シナリオ生成部の各部が実行するシナリオを生成するまでのアルゴリズムを示したフローチャートである。It is the flowchart which showed the algorithm until it produces | generates the scenario which each part of a scenario production | generation part performs. エフェクトブロックの集合およびエフェクトブロックの選択の様子を示す図である。It is a figure which shows the mode of the collection of an effect block, and the selection of an effect block. 選出したエフェクトブロックに対するパラメータ生成および生成したパラメータ値の設定の様子を示す図である。It is a figure which shows the mode of the parameter production | generation with respect to the selected effect block, and the setting of the produced | generated parameter value. 本発明の実施の形態11に係るショートフィルム生成再生装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the short film production | generation reproduction | regeneration apparatus based on Embodiment 11 of this invention. ショートフィルム生成再生装置の各部が実行するショートフィルム生成処理を示すフローチャートである。It is a flowchart which shows the short film production | generation process which each part of a short film production | generation reproduction | regeneration apparatus performs. 本発明に係るショートフィルム生成再生システムの一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of the short film production | generation reproduction | regeneration system based on this invention. 本発明に係るショートフィルム生成再生装置の他の実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of other embodiment of the short film production | generation reproduction | regeneration apparatus based on this invention. 表示部でのテーマ選択画面の表示イメージ図である。It is a display image figure of the theme selection screen in a display part. 表示部でのユーザ選択画面の表示イメージ図である。It is a display image figure of the user selection screen in a display part. 本発明に係るショートフィルム生成再生装置の他の実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of other embodiment of the short film production | generation reproduction | regeneration apparatus based on this invention. 本発明に係るショートフィルム生成再生装置の他の実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of other embodiment of the short film production | generation reproduction | regeneration apparatus based on this invention.

符号の説明Explanation of symbols

1001a〜1001h,
2001〜2004,3000 ショートフィルム生成再生装置
1002 表示装置
1020 テレビ
1022,1111,2050 表示部
1030,1117,2030〜2033 シナリオ生成部
1043 ショートフィルムボタン
1101,2010〜2013 入力部
1103,2040 再生部
1105a〜1105d ショートフィルム生成部
1106 静止画入力部
1107 画像特徴量抽出部
1108 画像内オブジェクト抽出部
1109,2020〜2023 データベース
1110,2410 ショートフィルム選択部
1112,2420 ショートフィルム再生部
1113 画像選択部
1114 画像特徴量読出部
1115 画像−スタイル特徴量変換部
1116 スタイル決定部
1118 画像−音楽特徴量変換部
1119 音楽決定部
1120 音楽選択部
1121 音楽特徴量読出部
1122 音楽−画像特徴量変換部
1123 画像決定部
1124 音楽−スタイル特徴量変換部
1125 スタイル選択部
1126 スタイル特徴量読出部
1127 スタイル−画像特徴量変換部
1128 スタイル−音楽特徴量変換部
1129 テーマ選択部
1130 テーマ特徴量読出部
1131 テーマ−画像特徴量変換部
1132 テーマ−スタイル特徴量変換部
1133 テーマ−音楽特徴量変換部
1202 画像特徴量抽出部
1400 ショートフィルム再生装置
1401,1404 通信部
1603 画像−スタイル特徴量変換部
1604 スタイル決定部
1605 画像−音楽特徴量変換部
1606 音楽決定部
2070 アドレス帳
2110 静止画選択部
2120 オブジェクト情報抽出部
2130 顔特徴点抽出部
2140 顔認証部
2150 個人情報検索部
2210 静止画
2213 位置情報
2220〜2223 オブジェクト情報
2230〜2233 エフェクトテーブル
2240 音楽
2250 スタイル
2260 テーマ
2270〜2273 シナリオ
2280 顔情報
2310 エフェクト配置部
2320〜2323 静止画割当部
2330〜2333 パラメータ設定部
3002 エフェクトブロック選出部
3003 パラメータ決定部
3004 エフェクトブロック配列部
3005 写真割当部
3006 座標データ生成部
1001a to 1001h,
2001-2004, 3000 Short film generation / reproduction device 1002 Display device 1020 Television 1022, 1111, 2050 Display unit 1030, 1117, 2030-2033 Scenario generation unit 1043 Short film button 1101, 2010-2013 Input unit 1103, 2040 Playback unit 1105a- DESCRIPTION OF SYMBOLS 1105d Short film production | generation part 1106 Still image input part 1107 Image feature-value extraction part 1108 In-image object extraction part 1109,2020-2023 Database 1110,2410 Short film selection part 1112,2420 Short film reproduction part 1113 Image selection part 1114 Image feature-value Reading unit 1115 Image-style feature value conversion unit 1116 Style determination unit 1118 Image-music feature value conversion unit 1119 Sound Determination unit 1120 Music selection unit 1121 Music feature amount reading unit 1122 Music-image feature amount conversion unit 1123 Image determination unit 1124 Music-style feature amount conversion unit 1125 Style selection unit 1126 Style feature amount reading unit 1127 Style-image feature amount conversion unit 1128 Style-music feature value conversion unit 1129 Theme selection unit 1130 Theme feature value reading unit 1131 Theme-image feature value conversion unit 1132 Theme-style feature value conversion unit 1133 Theme-music feature value conversion unit 1202 Image feature value extraction unit 1400 Short Film playback devices 1401 and 1404 Communication unit 1603 Image-style feature value conversion unit 1604 Style determination unit 1605 Image-music feature value conversion unit 1606 Music determination unit 2070 Address book 2110 Still image selection unit 2120 Object Information extraction unit 2130 face feature point extraction unit 2140 face authentication unit 2150 personal information search unit 2210 still image 2213 position information 2220 to 2223 object information 2230 to 2233 effect table 2240 music 2250 style 2260 theme 2270 to 2273 scenario 2280 face information 2310 effect Arrangement unit 2320 to 2323 Still image allocation unit 2330 to 2333 Parameter setting unit 3002 Effect block selection unit 3003 Parameter determination unit 3004 Effect block arrangement unit 3005 Photo allocation unit 3006 Coordinate data generation unit

Claims (7)

少なくとも1つの静止画を用いて、映像を生成し、再生するショートフィルム生成再生装置であって、
外部から入力された静止画を入力する入力手段と、
前記静止画、対象となる1つ以上の静止画をどのような視覚効果を用いて再生するかを規定した所定数のエフェクト、および各エフェクトが要求する画像の特徴を示すエフェクトテーブルとを記憶するデータベース手段と、
映像のシナリオの予め決定されたスタイルおよび音楽の特徴に基づいて、前記映像のシナリオを生成するシナリオ生成手段とを備え、
前記入力手段は、
外部から静止画が入力される毎に、当該静止画に含まれるオブジェクトを抽出し、抽出したオブジェクトの特徴と前記静止画とを関連付けて示すオブジェクト情報を前記データベース手段に登録するオブジェクト情報抽出手段を有し、
前記シナリオ生成手段は、
前記予め決定されたスタイルおよび音楽の特徴に基づいて、前記データベース手段に記憶されるエフェクトテーブルの中から1つのエフェクトを1つずつ選択し、選択したエフェクトを時間軸上に順次配置するエフェクト配置手段と、
前記エフェクト配置手段が時間軸上に配置したエフェクト毎に、前記データベース手段に登録されたオブジェクト情報およびエフェクトテーブルに基づいて、当該エフェクトが要求する画像の特徴を満たすオブジェクトの特徴に関連付けられた静止画を割り当てる静止画割当手段と、
前記エフェクト配置手段が時間軸上に配置したエフェクトに合致した、前記静止画中のオブジェクトに対する処理を示すパラメータを記述することによってシナリオを生成し、生成したシナリオを前記データベース手段に登録するパラメータ設定手段とを有する
ことを特徴とするショートフィルム生成再生装置。
A short film generation / playback device that generates and plays back video using at least one still image,
An input means for inputting a still image input from the outside;
Storing said still image, a predetermined number that defines how to play with any visual effects one or more still images to be effect, and the effects table showing characteristics of an image each effect requires Database means to
Based on the predetermined style and music features of the image scenario, and a scenario generation unit for generating a scenario of the image,
The input means includes
Object information extraction means for extracting an object included in the still image every time a still image is input from the outside, and registering object information indicating the feature of the extracted object in association with the still image in the database means Have
The scenario generation means includes:
On the basis of the predetermined style and music feature, the selected one of the single effect from the Rue Effects table stored in the database means, effects arranged sequentially placing the selected effect on the time axis Means,
Each effect the effect positioning means are arranged on the time axis, still based on the object information and effects tables registered in said database means, associated with the characteristics of objects that satisfy the feature of the image to which the effect is required Still image assigning means for assigning images,
Parameter setting means for generating a scenario by describing a parameter indicating processing for an object in the still image that matches the effect arranged on the time axis by the effect arrangement means, and registers the generated scenario in the database means The short film production | generation reproduction | regeneration apparatus characterized by having.
前記オブジェクトの特徴は、オブジェクトの種類、色、形および数の少なくとも1つである
ことを特徴とする請求項記載のショートフィルム生成再生装置。
Features of the object, the short film generation reproduction apparatus according to claim 1, wherein the type of object, the color, that is at least one of the shape and number.
前記入力手段は、さらにオブジェクトに含まれる特徴的な部分を示す特徴点を抽出し、抽出した特徴点を前記オブジェクト情報に登録する特徴点抽出手段を備え、
前記パラメータ設定手段は、オブジェクトに含まれる特徴点の位置に対する処理を示すパラメータを記述することによってシナリオを生成する
ことを特徴とする請求項記載のショートフィルム生成再生装置。
The input means further comprises a feature point extracting means for extracting a feature point indicating a characteristic part included in the object and registering the extracted feature point in the object information,
Said parameter setting means, short film generation reproduction apparatus according to claim 1, wherein the generating the scenario by describing a parameter indicating a processing of a position of a feature point included in the object.
前記データベース手段は、さらに、個人の顔を特定するための個人認証用顔情報を記憶し、
前記入力手段は、さらに、前記オブジェクト情報抽出手段が抽出したオブジェクトが人の顔である場合、前記個人認証用顔情報を用いてオブジェクトの名前を認証し、認証したオブジェクトの名前を前記オブジェクト情報に登録する顔認証手段を有し、
前記パラメータ設定手段は、名前で特定されるオブジェクトに対する処理を示すパラメータを記述することによってシナリオを生成する
ことを特徴とする請求項記載のショートフィルム生成再生装置。
The database means further stores personal authentication face information for specifying a personal face,
The input means further authenticates the name of the object using the personal authentication face information when the object extracted by the object information extraction means is a human face, and uses the authenticated object name as the object information. Having face recognition means to register,
Said parameter setting means, short film generation reproduction apparatus according to claim 1, wherein the generating the scenario by describing the parameters indicating the processing for the object identified by name.
前記ショートフィルム生成再生装置は、さらに個人の名前とその個人の属性とを対応付けた個人情報を記憶する個人情報記憶手段を備え、
前記入力手段は、さらに顔認証手段が認証したオブジェクトの名前に対応する個人の属性を前記個人情報から検索し、検索した個人の属性を前記オブジェクト情報に登録する個人情報検索手段を有し、
前記パラメータ設定手段は、個人の属性で特定されるオブジェクトに対する処理を示すパラメータを記述することによってシナリオを生成する
ことを特徴とする請求項記載のショートフィルム生成再生装置。
The short film generation / playback device further includes personal information storage means for storing personal information in which a person's name is associated with an attribute of the person,
The input means further includes a personal information search means for searching a personal attribute corresponding to the name of the object authenticated by the face authentication means from the personal information, and registering the searched personal attribute in the object information,
The short film generation / playback apparatus according to claim 4 , wherein the parameter setting unit generates a scenario by describing a parameter indicating processing for an object specified by an individual attribute.
少なくとも1つの静止画を用いて、映像を生成し、再生するショートフィルム生成再生方法であって、
外部から入力された静止画を入力する入力ステップと、
前記静止画と、対象となる1つ以上の静止画をどのような視覚効果を用いて再生するかを規定した所定数のエフェクト、および各エフェクトが要求する画像の特徴を示すエフェクトテーブルとを記憶するデータベース手段を用い、
映像のシナリオの予め決定されたスタイルおよび音楽の特徴に基づいて、前記映像のシナリオを生成するシナリオ生成ステップとを含み、
前記入力ステップは、
外部から静止画が入力される毎に、当該静止画に含まれるオブジェクトを抽出し、抽出したオブジェクトの特徴と前記静止画とを関連付けて示すオブジェクト情報を前記データベース手段に登録するオブジェクト情報抽出ステップを含み、
前記シナリオ生成ステップは、
前記予め決定されたスタイルおよび音楽の特徴に基づいて、前記データベース手段に記憶されるエフェクトテーブルの中から1つのエフェクトを1つずつ選択し、選択したエフェクトを時間軸上に順次配置するエフェクト配置ステップと、
前記エフェクト配置ステップ時間軸上に配置されたエフェクト毎に、前記データベース手段に登録されたオブジェクト情報およびエフェクトテーブルに基づいて、当該エフェクトが要求する画像の特徴を満たすオブジェクトの特徴に関連付けられた静止画を割り当てる静止画割当ステップと、
前記エフェクト配置ステップ時間軸上に配置されたエフェクトに合致した、前記静止画中のオブジェクトに対する処理を示すパラメータを記述することによってシナリオを生成し、生成したシナリオを前記データベース手段に登録するパラメータ設定ステップとを含む
ことを特徴とするショートフィルム生成再生方法。
Using at least one still picture, a short film generation reproduction method for generating an image, play,
An input step for inputting a still image input from the outside;
Stores the still image, a predetermined number of effects defining what kind of visual effect is used to reproduce one or more target still images, and an effect table indicating image characteristics required by each effect Using database means to
Based on the predetermined style and music features of video scenarios, and a scenario generation step of generating a scenario of the image,
The input step includes
An object information extraction step of extracting an object included in the still image every time a still image is input from the outside, and registering object information indicating the characteristics of the extracted object in association with the still image in the database unit Including
The scenario generation step includes:
Effect placement step of selecting one effect from the effect table stored in the database means one by one based on the predetermined style and music characteristics, and sequentially placing the selected effect on the time axis When,
For each of the effects which are arranged on the time axis by the effect placement step, still based on the object information and effects tables registered in said database means, associated with the characteristics of objects that satisfy the characteristics of the image to which the effect is required A still image assignment step for assigning images,
It matches the placed on the time axis by the effect placement step effect, parameter settings and generates a scenario by describing the parameters indicating the processing for the object in the still image, and registers the generated scenario in the database means A method for producing and reproducing a short film, comprising: a step.
少なくとも1つの静止画を用いて、映像を生成し、再生するためのプログラムであって、
外部から入力された静止画を入力する入力ステップと、
前記静止画と、対象となる1つ以上の静止画をどのような視覚効果を用いて再生するかを規定した所定数のエフェクト、および各エフェクトが要求する画像の特徴を示すエフェクトテーブルとを記憶するデータベース手段を用い、
映像のシナリオの予め決定されたスタイルおよび音楽の特徴に基づいて、前記映像のシナリオを生成するシナリオ生成ステップとを含み、
前記入力ステップは、
外部から静止画が入力される毎に、当該静止画に含まれるオブジェクトを抽出し、抽出したオブジェクトの特徴と前記静止画とを関連付けて示すオブジェクト情報を前記データベース手段に登録するオブジェクト情報抽出ステップを含み、
前記シナリオ生成ステップは、
前記予め決定されたスタイルおよび音楽の特徴に基づいて、前記データベース手段に記憶されるエフェクトテーブルの中から1つのエフェクトを1つずつ選択し、選択したエフェクトを時間軸上に順次配置するエフェクト配置ステップと、
前記エフェクト配置ステップ時間軸上に配置されたエフェクト毎に、前記データベース手段に登録されたオブジェクト情報およびエフェクトテーブルに基づいて、当該エフェクトが要求する画像の特徴を満たすオブジェクトの特徴に関連付けられた静止画を割り当てる静止画割当ステップと、
前記エフェクト配置ステップ時間軸上に配置されたエフェクトに合致した、前記静止画中のオブジェクトに対する処理を示すパラメータを記述することによってシナリオを生成し、生成したシナリオを前記データベース手段に登録するパラメータ設定ステップ
をコンピュータに実行させることを特徴とするプログラム。
A program for generating and playing back video using at least one still image,
An input step for inputting a still image input from the outside;
Stores the still image, a predetermined number of effects defining what kind of visual effect is used to reproduce one or more target still images, and an effect table indicating image characteristics required by each effect Using database means to
Based on the predetermined style and music features of video scenarios, and a scenario generation step of generating a scenario of the image,
The input step includes
An object information extraction step of extracting an object included in the still image every time a still image is input from the outside, and registering object information indicating the characteristics of the extracted object in association with the still image in the database unit Including
The scenario generation step includes:
Effect placement step of selecting one effect from the effect table stored in the database means one by one based on the predetermined style and music characteristics, and sequentially placing the selected effect on the time axis When,
For each of the effects which are arranged on the time axis by the effect placement step, still based on the object information and effects tables registered in said database means, associated with the characteristics of objects that satisfy the characteristics of the image to which the effect is required A still image assignment step for assigning images,
It matches the placed on the time axis by the effect placement step effect, parameter settings and generates a scenario by describing the parameters indicating the processing for the object in the still image, and registers the generated scenario in the database means a program characterized by executing the steps on a computer.
JP2003379610A 2002-11-25 2003-11-10 Short film generating and reproducing apparatus and method thereof Expired - Fee Related JP4261317B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003379610A JP4261317B2 (en) 2002-11-25 2003-11-10 Short film generating and reproducing apparatus and method thereof

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002341292 2002-11-25
JP2003167825 2003-06-12
JP2003379610A JP4261317B2 (en) 2002-11-25 2003-11-10 Short film generating and reproducing apparatus and method thereof

Publications (2)

Publication Number Publication Date
JP2005025715A JP2005025715A (en) 2005-01-27
JP4261317B2 true JP4261317B2 (en) 2009-04-30

Family

ID=34198699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003379610A Expired - Fee Related JP4261317B2 (en) 2002-11-25 2003-11-10 Short film generating and reproducing apparatus and method thereof

Country Status (1)

Country Link
JP (1) JP4261317B2 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002348400A (en) 2001-05-24 2002-12-04 Hitachi Chem Co Ltd Foamable recycled styrene resin particle, and its production method and molded article
US7694213B2 (en) 2004-11-01 2010-04-06 Advanced Telecommunications Research Institute International Video content creating apparatus
JP2006134146A (en) * 2004-11-08 2006-05-25 Fujitsu Ltd Data processor, information processing system, selection program and selection program-recorded computer-readable recording medium
US7952535B2 (en) 2005-02-20 2011-05-31 Mediatek Singapore Pte Ltd Electronic visual jockey file
JP4926416B2 (en) * 2005-06-15 2012-05-09 キヤノン株式会社 Image display method, program, recording medium, and image display apparatus
JP4595704B2 (en) * 2005-06-22 2010-12-08 カシオ計算機株式会社 Image processing apparatus, imaging apparatus, and program
JP2007295443A (en) * 2006-04-27 2007-11-08 Akiyuki Yamaguchi Special editing machine for home photograph movie
US7668400B2 (en) * 2006-07-31 2010-02-23 Hewlett-Packard Development Company, L.P. Image layout constraint generation
JP4976837B2 (en) * 2006-12-19 2012-07-18 ローランド株式会社 Video creation device
JP5607332B2 (en) * 2009-10-05 2014-10-15 株式会社河合楽器製作所 Movie playback apparatus and computer program
JP2011170690A (en) 2010-02-19 2011-09-01 Sony Corp Information processor, information processing method and program
JP5225330B2 (en) * 2010-06-15 2013-07-03 株式会社東芝 Electronic apparatus and image processing method
JP5764964B2 (en) * 2011-02-18 2015-08-19 株式会社ニコン Image processing apparatus and camera
JP5532344B2 (en) * 2011-09-28 2014-06-25 株式会社東芝 Electronic device, image data display method and program
JP5152394B2 (en) 2011-11-22 2013-02-27 株式会社ユピテル Target notification device and program
JP2014200109A (en) * 2014-07-14 2014-10-23 株式会社ニコン Reproduction rendering program and reproduction rendering device
JP5925275B2 (en) * 2014-10-11 2016-05-25 オリンパス株式会社 Imaging apparatus and imaging method
JP2018107834A (en) * 2018-04-05 2018-07-05 株式会社ニコン Reproduction presentation program and reproduction presentation device
CN110246472B (en) * 2019-05-09 2024-05-24 平安科技(深圳)有限公司 Music style conversion method and device and terminal equipment
JP7197231B1 (en) 2022-07-25 2022-12-27 Jp Games株式会社 Information processing device, information processing method and program

Also Published As

Publication number Publication date
JP2005025715A (en) 2005-01-27

Similar Documents

Publication Publication Date Title
EP1422668B1 (en) Short film generation/reproduction apparatus and method thereof
JP4261317B2 (en) Short film generating and reproducing apparatus and method thereof
CN112449231B (en) Multimedia file material processing method and device, electronic equipment and storage medium
JP4221308B2 (en) Still image reproduction device, still image reproduction method and program
JP4988011B2 (en) Electronic apparatus and image processing method
EP4024879A1 (en) Video processing method and device, terminal and computer readable storage medium
JP5980222B2 (en) Content processing apparatus, content processing method, and program
KR101006293B1 (en) Multimedia reproducing apparatus and menu screen display method
KR101155738B1 (en) Information processing device, method, and program
JP5903187B1 (en) Automatic video content generation system
JP5371174B2 (en) Image display device and image display method
KR101345284B1 (en) Method and apparatus for encoding/playing multimedia contents
JPH07168855A (en) Information recording/reproducing device
US20060039674A1 (en) Image editing apparatus, method, and program
KR20060051304A (en) Information processing apparatus and method and program therefor
US8301995B2 (en) Labeling and sorting items of digital data by use of attached annotations
JP3708854B2 (en) Media production support device and program
US20120106917A1 (en) Electronic Apparatus and Image Processing Method
JP2009004999A (en) Video data management device
JP2006140559A (en) Image reproducing apparatus and image reproducing method
JP2011217183A (en) Electronic device, image output method and program
US20110304644A1 (en) Electronic apparatus and image display method
JP5225330B2 (en) Electronic apparatus and image processing method
JP2000306092A (en) Mirror realized by digital image processing and medium with built-in program for making computer perform the processing
JP2014115388A (en) Information processor, information processing system, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090113

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4261317

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140220

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees