JP2005318295A - Image generation system and method, image generation program, and information recording medium - Google Patents
Image generation system and method, image generation program, and information recording medium Download PDFInfo
- Publication number
- JP2005318295A JP2005318295A JP2004134242A JP2004134242A JP2005318295A JP 2005318295 A JP2005318295 A JP 2005318295A JP 2004134242 A JP2004134242 A JP 2004134242A JP 2004134242 A JP2004134242 A JP 2004134242A JP 2005318295 A JP2005318295 A JP 2005318295A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- music
- template
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本願は、画像生成システム、画像生成方法、画像生成用プログラム並びに情報記録媒体の技術分野に属し、より詳細には、音楽と並行して同時に再生・出力される画像を生成する画像生成システム及び画像生成方法並びに当該画像の生成に用いられる画像生成用プログラム及び当該画像生成用プログラムを記録した情報記録媒体の技術分野に属する。 The present application belongs to the technical field of an image generation system, an image generation method, an image generation program, and an information recording medium, and more specifically, an image generation system and an image for generating an image that is reproduced and output simultaneously with music The present invention belongs to a technical field of a generation method, an image generation program used for generating the image, and an information recording medium on which the image generation program is recorded.
近年のデジタルスチルカメラの普及に伴い、当該デジタルスチルカメラにより撮影された画像と、音楽と、を組み合わせて一つのコンテンツを撮影者独自に作成することも可能となっている。この点に関する従来技術として、以下の特許文献1に開示されているものがある。
この特許文献1に開示されている従来の技術では、音楽の再生時間を取得して対応する画像の再生時間を決定し、その音楽と共に再生(表示)される画像を切り替える切替タイミングを、ある一定の時間、若しくは視聴者が任意に設定した時間、或いは音楽の小節の検知による自動設定、更には音楽の特徴音の検知による自動設定により設定している。また、複数の当該画像の切替パターンについては視聴者が任意に設定する音楽のジャンルにより数種類のパターンから予め設定されている。
In the conventional technique disclosed in
しかしながら、上記した従来の技術によると、視聴者により作成される連続画像の変化のバリエーションが限られてしまい、特に同一音楽に対応する複数の画像を作成する場合、視聴者が任意で編集しない限りその画像の変化態様が単一若しくは似通ったものとなってしまい、結果として、作成した画像を音楽と共に再生しても、その聴取者が飽きてしまう場合が多いと言う問題点があった。 However, according to the above-described conventional technology, variations in the variation of continuous images created by the viewer are limited, and in particular, when creating a plurality of images corresponding to the same music, unless the viewer edits arbitrarily. As a result, there is a problem that the listener is often bored even when the created image is reproduced together with music.
そこで、本願は上記の問題点に鑑みて為されたもので、その目的の一例は、音楽と共に再生される連続画像を視聴者自ら作成する場合に、飽きることがなく変化に富んだ画像を作成することが可能な画像生成システム及び画像生成方法並びに当該画像の生成に用いられる画像生成用プログラム及び当該画像生成用プログラムを記録した情報記録媒体を提供することにある。 Therefore, the present application was made in view of the above problems, and an example of the purpose is to create images that are rich in change without getting bored when viewers themselves create continuous images that are played along with music. An image generation system and an image generation method that can be used, an image generation program used for generating the image, and an information recording medium on which the image generation program is recorded.
上記の課題を解決するために、請求項1に記載の発明は、音楽と並行して出力される画像を生成する画像生成システムにおいて、相互に異なる属性を有する複数種類の前記音楽と並行して夫々出力されるべき前記画像の内容の雛形となる画像テンプレートであって、各種類の前記音楽に夫々対応して予め設定されている複数の画像テンプレートを蓄積するデータベース等の蓄積手段と、前記蓄積されている複数の画像テンプレートの中から、実際に出力される前記音楽と並行して実際に出力されるべき前記画像に対応する一の前記画像テンプレートを抽出テンプレートとして抽出するテンプレート制御部等の抽出手段と、前記抽出された抽出テンプレートを用いて、前記実際に出力されるべき画像に対応する画像情報を生成するテンプレート制御部等の生成手段と、を備える。
In order to solve the above-described problem, the invention according to
上記の課題を解決するために、請求項14に記載の発明は、相互に異なる属性を有する複数種類の前記音楽と並行して夫々出力されるべき前記画像の内容の雛形となる画像テンプレートであって、各種類の前記音楽に夫々対応して予め設定されている複数の画像テンプレートを蓄積する蓄積手段を備え、当該画像テンプレートを用いて前記画像を生成する画像生成システムにおいて実行される画像生成方法であって、前記蓄積されている複数の画像テンプレートの中から、実際に出力される前記音楽と並行して実際に出力されるべき前記画像に対応する一の前記画像テンプレートを抽出テンプレートとして抽出する抽出工程と、前記抽出された抽出テンプレートを用いて、前記実際に出力されるべき画像に対応する画像情報を生成する生成工程と、を備える。
In order to solve the above problem, an invention according to
上記の課題を解決するために、請求項15に記載の発明は、音楽と並行して出力される画像を生成する画像生成システムに含まれるコンピュータを、相互に異なる属性を有する複数種類の前記音楽と並行して夫々出力されるべき前記画像の内容の雛形となる画像テンプレートであって、各種類の前記音楽に夫々対応して予め設定されている複数の画像テンプレートを蓄積する蓄積手段、前記蓄積されている複数の画像テンプレートの中から、実際に出力される前記音楽と並行して実際に出力されるべき前記画像に対応する一の前記画像テンプレートを抽出テンプレートとして抽出する抽出手段、及び、前記抽出された抽出テンプレートを用いて、前記実際に出力されるべき画像に対応する画像情報を生成する生成手段、として機能させる。
In order to solve the above problems, the invention according to
上記の課題を解決するために、請求項16に記載の発明は、請求項15に記載の画像生成用プログラムが前記コンピュータで読取可能に記録されている。
In order to solve the above-mentioned problem, in the invention described in claim 16, the image generation program described in
次に、本願を実施するための最良の形態について、図1乃至図15に基づいて説明する。なお、以下に説明する各実施形態は、音楽としての曲に係る曲情報を複数蓄積し、視聴者からの要求に応じて当該曲を再生すると共に、その曲の内容に相応しい画像をデジタルスチルカメラで撮影され、収録又は保存された画像に基づいて自動作成する画像生成システムに対して本願を適用した場合の実施の形態である。 Next, the best mode for carrying out the present application will be described with reference to FIGS. Each embodiment described below accumulates a plurality of pieces of song information relating to a song as music, reproduces the song in response to a request from a viewer, and displays an image suitable for the content of the song. This is an embodiment in the case where the present application is applied to an image generation system that automatically creates an image based on an image that has been shot and recorded or stored.
(I)第1実施形態
初めに、本願に係る第1実施形態について、図1乃至図7を用いて説明する。なお、図1は実施形態に係る画像生成システムの概要構成を示すブロック図であり、図2は後述するテンプレートの入手元を例示する図であり、図3は実施形態に係る曲情報及び素材画像に付加されている付加情報を例示する図であり、図4は当該画像生成システムにおいて再生する曲等を検索する際に用いられる検索座標空間を示す図であり、図5は当該画像生成システムにおいて再生する曲等を検索する際に用いられるキーワードを例示する図であり、図6は後述するセンサにより検出され得る環境の変化を例示する図であり、図7は第1実施形態に係る曲と画像の再生処理を示すフローチャートである。
(I) First Embodiment First, a first embodiment according to the present application will be described with reference to FIGS. 1 is a block diagram illustrating a schematic configuration of the image generation system according to the embodiment, FIG. 2 is a diagram illustrating a source of a template to be described later, and FIG. 3 is a song information and material image according to the embodiment. FIG. 4 is a diagram illustrating a search coordinate space used when searching for music to be reproduced in the image generation system, and FIG. 5 is a diagram illustrating the additional information added to the image generation system. FIG. 6 is a diagram illustrating keywords used when searching for songs to be played back, FIG. 6 is a diagram illustrating changes in the environment that can be detected by a sensor described later, and FIG. 7 is a diagram illustrating songs according to the first embodiment. It is a flowchart which shows the reproduction | regeneration processing of an image.
図1に示すように、第1実施形態に係る画像生成システムSは、不揮発性のメモリ又はハードディスク等の記録媒体からなる蓄積手段、画像蓄積手段、文字情報蓄積手段及び効果音情報蓄積手段としてのデータベース1と、検索処理部7と、入力手段としての操作部8と、画像入力部9と、インターネット16(又は放送等の外部)から情報を取得する受信部10と、楽曲解析部11と、抽出手段、生成手段、解析手段、素材画像情報抽出手段、キーワード情報抽出手段、付加情報抽出手段、キーワード内容情報生成手段、音楽情報抽出手段、画像情報抽出手段及び効果音情報抽出手段としてのテンプレート制御部12と、テンプレート入出力部13と、ディスプレイ等からなる動作状態表示用の表示部14と、スピーカ17に接続されている再生制御部15と、温度センサ及び時計等の各種検知装置を含む環境変化検出手段としてのセンサ18と、上記各構成部材を相互に情報の授受が可能に接続するバス19と、により構成されている。なお、図示しない外部装置内に、上記受信部10、上記表示部14、上記スピーカ17及び上記センサ18を設けることにより、第1実施形態に係る画像生成システムSから、受信部10、表示部14、スピーカ17及びセンサ18を分離してもよい。
As shown in FIG. 1, the image generation system S according to the first embodiment is a storage unit composed of a recording medium such as a non-volatile memory or a hard disk, an image storage unit, a character information storage unit, and a sound effect information storage unit. A
また、上記データベース1は、複数のテンプレートを蓄積記録するテンプレート記録部2と、デジタルスチルカメラにより撮影された静止画像等であって表示部14において表示される静止画像に対応する静止画像情報を蓄積記録する静止画像記録部3と、表示部14において表示される動画像に対応する動画像情報を記録する動画像記録部4と、表示部14において文字を表示するための文字情報を記録する文字情報記録部5と、曲及び画像と共に再生される効果音に対応する効果音情報を記録する効果音情報記録部6と、により構成されている。
The
次に、全体動作を説明する。 Next, the overall operation will be described.
先ず、データベース1を構成する上記各記録部は、上記テンプレート、静止画像情報、動画像情報、文字情報及び効果音情報を、夫々の属性を示すフォルダ名又はディレクトリ名が冠されている階層構造を形成して夫々記録する。
First, each recording unit constituting the
このとき、当該テンプレートとは、再生・出力されるべき曲と並行して表示部14上に表示されるべき画像(動画像)を生成する際に雛型になるものであり、後述する如く、各曲の属性等に対応するように画像に切換タイミングや表示順序等が予め設定されたものがテンプレート記録部2内に複数格納されている。そして、当該テンプレートとして記述されている情報(切換タイミング等)に則って再生すべき画像が連続して再生されるものである。
At this time, the template is a template for generating an image (moving image) to be displayed on the
また、当該テンプレートは、図2に例示する如く、元々テンプレート記録部2に記録されていたデフォルトテンプレートの他に、図1に示すテンプレート入出力部13を介して外部から取得され得るものである。そして、当該外部から取得されるテンプレートとして具体的には、例えば図2に例示するような単独追加テンプレート、配信単独追加テンプレート又はミュージック付テンプレート等が挙げられる。
In addition to the default template originally recorded in the
一方、静止画像情報記録部3に記録される静止画像は、上記デジタルスチルカメラで撮影されたものが格納されている他に、インターネット16等から画像入力部9を介して入力された静止画像も含まれている。このとき、当該静止画像の夫々には、例えば図3に例示するような付加情報が、静止画像記録部3内に当該静止画像を記録させる際に付加される。
On the other hand, the still image recorded in the still image
更に、動画像記録部4に記録されている動画像は、主としてインターネット16等から画像入力部9を介して入力された動画像である。このとき、当該動画像自体にも、上記静止画像記録部3内に記録されている静止画像と同様の、図3に例示する如き付加情報が付加されている。
Furthermore, the moving image recorded in the moving
更にまた、文字情報記録部5に記録されている文字情報は、画像生成システムSの視聴者が過去において独自に入力したフレーズや、他の動画像と共に取得した字幕等が、別個に文字情報として記録されているものである。
Furthermore, the character information recorded in the character
また、効果音情報記録部6に記録されている効果音情報は、当該視聴者が過去において独自に録音した環境音や、他の動画像と共に取得した音等が、効果音として別個に記録されているものである。
The sound effect information recorded in the sound effect
次に、検索処理部7は、後述する画像生成処理におけるキーワード検索及び曲情報の検索等を、データベース1内に格納されている全ての情報を対象として行う。ここで、当該検索に用いられる検索座標空間について、具体的に図4を用いて説明する。
Next, the
実施形態のデータベース1内に格納されている全ての情報は、図4に示すように、曲のテンポを横軸とし曲のコード構成を縦軸とする座標空間内の座標に一対一に対応付けられている。すなわち、図2においては、データベース1内に記録されている各曲のテンポ(スピード(より具体的にはbit per minute値))の当該各曲内における平均値をX軸とし、更に各曲におけるメジャーコード及びマイナーコードのその曲に占める割合をY軸とした座標空間を予め設定し、データベース1内に記録されているテンプレート、静止画像、動画像、曲、効果音及び文字情報(以下、適宜テンプレート等と称する)の夫々が、その属性として当該座標空間内のどの位置に属するかが、当該各テンプレート等毎に一意に決められている。そして、その座標空間内の座標値(X、Y)が、当該テンプレート等毎に一対一に対応付けられた上でデータベース1内に記録されている。そして、検索処理部7は、当該座標値を手掛かりに、その時に所望されているテンプレート等をデータベース1内において検索する。
As shown in FIG. 4, all the information stored in the
次に、当該検索処理部7における検索処理に用いられるキーワードについて、具体的に図5に例示しつつ説明する。
Next, keywords used for search processing in the
検索処理部7におけるデータベース1を対象とした検索処理においては、先ず、いわゆるフリーキーワードとして予め図5(a)に示す如きキーワードが、大まかな分類項目毎に予め設定されている。そして、検索処理部7は、実際の検索処理においてはこれらのキーワードを候補として表示し視聴者に選ばせても良いし、或いは視聴者から自由に入力されたキーワードと同一又は類似のキーワードを抽出して当該検索処理に用いる。そして、これらのキーワードと、データベース1を構成するフォルダ名又はディレクトリ名等と、を比較しながら、そのキーワードに対応する。
In the search processing for the
一方、図5(a)に例示するキーワードに加えて、実施形態の画像生成システムSでは、図4に示した座標空間に予め対応付けられているキーワード(図5(b)参照。以下、単位座標対応キーワードと称する)をも検索処理に用いる。このとき、当該各座標対応キーワードは、図4に示す座標空間内の一定範囲の夫々について一対一に対応付けられている。図4に示す例では、座標対応キーワード「ノリノリ」の範囲が当該座標空間内の右上方に設定されており、その中には一の曲と一のテンプレートが対応付けられていることになる。 On the other hand, in addition to the keyword illustrated in FIG. 5A, in the image generation system S of the embodiment, the keyword (see FIG. 5B) previously associated with the coordinate space shown in FIG. (Also referred to as a coordinate-corresponding keyword) is also used for the search process. At this time, the coordinate-corresponding keywords are associated one-to-one with respect to each of a certain range in the coordinate space shown in FIG. In the example shown in FIG. 4, the range of the coordinate correspondence keyword “NORNORI” is set at the upper right in the coordinate space, and one song and one template are associated with each other.
次に、センサ18は、上述した如く温度計や、画像生成システムSが車載用である場合の速度計等を含んでおり、後述するトリガとしての機能を有している。このとき、当該センサ18を介して外部から取得する情報としては、例えば図6に示す情報が挙げられる。なお、図6に示す外部環境情報は、実施形態に係る画像生成システムが主に車載用として使用される場合を想定した外部環境情報であり、図示しないいわゆるGPS(Global Positioning System)システム、速度計、室温計、回転計及び照度センサ等から取得されるものである。
Next, the
なお、以下の説明では、図6に示す如き車載用のセンサ18について説明するが、これ以外に、本願に係るセンサとしては、例えば、本願に係る画像生成システムを店舗用として用いる場合には温度・湿度センサ、顧客数センサ、照明又はタイマなどがあり、また本願に係る画像生成システムを家庭用として用いる場合には温度・湿度センサ、生体センサ、照明又はタイマ等がある。
In the following description, an in-
更に、操作部8においては、後述する画像生成処理において必要な操作が視聴者により行われ、当該操作に対応する操作信号がバス19を介して操作対象である各構成部材に出力される。
Further, in the
また、画像入力部9は、必要に応じて静止画像、動画像又は曲を外部から取得してバス19を介してデータベース1等へ出力する。
Further, the image input unit 9 acquires a still image, a moving image, or a song from the outside as necessary, and outputs it to the
次に、曲解析部11は、各曲のスピード及びコード進行を解析し、その結果を検索処理部7等にバス19を介して出力する。
Next, the song analysis unit 11 analyzes the speed and chord progression of each song and outputs the result to the
また、再生制御部15は、後述する画像生成処理において生成されたテンプレートに基づいて画像及び曲等を再生し、再生された曲及び効果音に対応する曲情報及び効果音情報をスピーカ17に出力して放音させると共に、当該画像を表示部14に出力して表示させる。なお、再生制御部15は、再生するべき曲が指定されたとき、これを図示しないCD等の記録媒体から読み出しスピーカ17を介して再生する機能も有している。
Further, the
一方、表示部14は、画像生成システムS自体の動作状態を示す情報を、バス19を介して取得し、当該動作状態に対応する画像を表示部14に出力する。
On the other hand, the
また、テンプレート入出力部13は、上述したようにテンプレートを外部から取得する場合又は外部へ出力する場合に、そのための入出力インターフェースとして機能する。
Further, as described above, the template input /
最後に、テンプレート制御部12は、後述する画像生成処理実行の中心となるものであり、具体的には図示しないCPU及び揮発性メモリ等が構成されている。
Finally, the
次に、第1実施形態に係る画像生成処理について、具体的に図7を用いて説明する。なお、図7に示す画像生成処理は、曲と並行して再生される画像の生成に加えて、当該生成された画像の表示及び対応する曲の再生まで行うものである。 Next, the image generation processing according to the first embodiment will be specifically described with reference to FIG. Note that the image generation processing shown in FIG. 7 includes not only the generation of an image that is played back in parallel with a song, but also the display of the generated image and the playback of the corresponding song.
図7に示すように、第1実施形態に係る画像生成処理においては、初めに、再生されることが所望されている曲に対応する曲情報を再生制御部15において図示しないCD等から読み込み(ステップS1)、これを曲解析部11においてその内容(スピード及びコード構成)を解析する(ステップS2)。 As shown in FIG. 7, in the image generation processing according to the first embodiment, first, song information corresponding to a song desired to be reproduced is read from a CD or the like (not shown) in the reproduction control unit 15 ( In step S1), the contents (speed and chord configuration) are analyzed in the music analysis unit 11 (step S2).
次に、その解析結果と図4に示す座標空間とを比較し、その再生すべき曲の当該座標空間内における座標値を定義する(ステップS3)。 Next, the analysis result is compared with the coordinate space shown in FIG. 4, and the coordinate value in the coordinate space of the music to be reproduced is defined (step S3).
次に、その定義付けられた座標値を有している静止画像又は動画像を静止画像記録部3又は動画像情報記録部4内において検索して読み込み(ステップS4)、更にその定義付けられた座標値を有しているテンプレート(基本テンプレート)をテンプレート記録部2内において検索して読み込む(ステップS5)。
Next, the still image or moving image having the defined coordinate value is retrieved and read in the still
そして、上記ステップS2乃至S4において取得した各情報を用いて、上記基本テンプレートを基にして新たなテンプレートをテンプレート制御部12において作成する(ステップS6)。
Then, a new template is created in the
ここで、当該ステップS6の処理について具体的には、ステップS4において取得した画像の表示切換順序、当該画像の表示切換タイミング、対応する文字情報の表示タイミング、対応する効果音の再生タイミング、当該取得した画像の表示切換パターン並びに当該取得した画像の表示効果態様が、夫々決定される。このとき、画像の表示切換順序、画像の表示切換パターン並びに画像の表示効果態様は、例えば一度表示された画像及び一度採用した表示切換パターン並びに表示効果態様は表示又は採用しないように選択しつつ且つランダムに当該表示切換順序、表示切換パターン及び表示態様効果が決定される。また、画像の表示切換タイミング、文字情報の表示タイミング及び効果音の再生タイミングは、例えばステップS2における解析によって得られたコードの切換タイミングにおいて夫々の表示切換又は再生切換を行うように決定される。 Here, specifically, the processing of step S6 specifically includes the display switching order of the image acquired in step S4, the display switching timing of the image, the display timing of the corresponding character information, the playback timing of the corresponding sound effect, the acquisition The display switching pattern of the acquired image and the display effect mode of the acquired image are respectively determined. At this time, the image display switching order, the image display switching pattern, and the image display effect mode are selected so that, for example, the image displayed once and the display switching pattern and display effect mode adopted once are displayed or not adopted. The display switching order, display switching pattern, and display mode effect are determined at random. Further, the display switching timing of the image, the display timing of the character information, and the playback timing of the sound effect are determined so that the respective display switching or playback switching is performed at the switching timing of the chord obtained by the analysis in step S2, for example.
そして、ステップS6の処理により新たなテンプレートが作成されると、それに沿って再生すべき曲と並行して作成したテンプレートに含まれる切換タイミング及び切換順序に則った画像表示が実行されると共に文字情報又は効果音の出力が実行される(ステップS7)。 When a new template is created by the processing in step S6, image display is executed in accordance with the switching timing and switching order included in the template created in parallel with the music to be reproduced along with the character information. Alternatively, a sound effect is output (step S7).
そして、その曲と画像の再生・表示が完了したとき、曲の再生を終了するか否かを表示部14や図示しないインジケータ等において確認し(ステップS8)、終了するときは(ステップS8;YES)、そのまま第1実施形態に係る画像生成処理並びに曲及び画像の再生・表示処理を終了し、一方、同じ曲について他の画像を用いた再生を行うときは(ステップS8;NO)、再度上記ステップS4に戻って処理を再開する。
Then, when the reproduction and display of the song and the image are completed, it is confirmed on the
以上説明したように、第1実施形態に係る画像生成処理によれば、複数のテンプレートを予め蓄積しておき、実際に出力される曲に対応するテンプレートを抽出してその曲と共に出力されるべき画像を生成するので、曲と共に再生される連続画像を視聴者自ら作成する場合に、飽きることがなく変化に富んだ画像を作成することができる。 As described above, according to the image generation processing according to the first embodiment, a plurality of templates should be accumulated in advance, and a template corresponding to a song that is actually output should be extracted and output together with the song. Since the image is generated, when the viewer himself / herself creates a continuous image to be reproduced together with the music, an image rich in change can be created without getting tired.
また、実際に出力される曲の内容を解析し、その内容に対応するテンプレートを抽出して画像を生成するので、当該曲により相応しい画像を生成することができる。 In addition, since the contents of a song that is actually output are analyzed and a template corresponding to the contents is extracted to generate an image, an image suitable for the song can be generated.
更に、実際に出力される曲の内容に沿った画像を選択してテンプレートを新たに作成し、それを用いて画像を生成するので、最初から画像を作成するよりも簡易にその曲に適した画像を生成することができる。 In addition, since a template is newly created by selecting an image according to the content of the song that is actually output and an image is generated using it, it is more suitable for that song than when creating an image from the beginning. An image can be generated.
(II)第2実施形態
次に、本願に係る他の実施形態である第2実施形態について、図8を用いて説明する。なお、図8は、第2実施形態に係る曲と画像の再生処理を示すフローチャートである。
(II) Second Embodiment Next, a second embodiment which is another embodiment according to the present application will be described with reference to FIG. FIG. 8 is a flowchart showing a music and image reproduction process according to the second embodiment.
また、第2実施形態に係る画像生成システムの構成は、第1実施形態に係る画像生成システムSの構成と同様であるので、細部の説明は省略する。更に、図8に示すフローチャートにおいて、図7に示すフローチャートと同様の処理については、同様のステップ番号を付して細部の説明は省略する。 The configuration of the image generation system according to the second embodiment is the same as the configuration of the image generation system S according to the first embodiment, and thus detailed description thereof is omitted. Further, in the flowchart shown in FIG. 8, the same processing as in the flowchart shown in FIG.
上述した第1実施形態においては、再生すべき曲の内容を解析し、その内容に相応しいテンプレートを新たに作成して画像を生成する場合について説明したが、以下に説明する第2実施形態においては、視聴者が指定したキーワードにより曲と画像を選択する。 In the first embodiment described above, the content of the music to be played back is analyzed, and a template suitable for the content is newly generated to generate an image. However, in the second embodiment described below, , Select a song and an image by a keyword specified by the viewer.
すなわち、図8に示すように、第1実施形態に係る画像生成処理においては、初めに、これから再生しようとする曲を検索するための検索キーワードが操作部8において入力されると(ステップS10)、図示しない曲のデータベース(当該曲のデータベースは実施形態に係るデータベース1内にテンプレート記録部2等と共に構築されていてもよい。)において各曲に付加されている曲名やアーティスト名、或いはジャンル名等の付加情報を読み込み(ステップS11)、その付加情報と入力されたキーワードとを比較して検索処理部7において再生すべき曲を選択する(ステップS12)。
That is, as shown in FIG. 8, in the image generation processing according to the first embodiment, first, when a search keyword for searching for a song to be played is input in the operation unit 8 (step S10). A song name, an artist name, or a genre name added to each song in a song database (not shown) (the song database may be constructed together with the
一方、この曲の選択処理と並行して、データデース1内に含まれている各画像のフォルダ名等を読み込み(ステップS13)、ステップS10において入力されたキーワードと当該読み込んだフォルダ名等とを比較して画像生成に用いるべき画像が格納されているフォルダを選択する(ステップS14)。
On the other hand, in parallel with the music selection process, the folder name of each image included in the
そして、選択したフォルダ内に格納されている画像を読み込み(ステップS4)、更に、ステップS11において読み込んだ付加情報の中から文字情報を抽出し(ステップS15)、その画像と文字情報とから、これらに対応する基本テンプレート又はキーワードに予め対応して初期設定されているテンプレートをテンプレート記録部2内において検索して読み込む(ステップS16)。 Then, the image stored in the selected folder is read (step S4), and character information is extracted from the additional information read in step S11 (step S15). From the image and the character information, these are extracted. A template that is previously set in advance corresponding to a basic template or keyword corresponding to is searched and read in the template recording unit 2 (step S16).
そして、再生すべき曲の当該再生と並行して、その読み込んだテンプレートに含まれる切換タイミング及び切換順序に則った画像表示が実行されると共に文字情報又は効果音の出力が実行される(ステップS7)。 In parallel with the reproduction of the music to be reproduced, image display in accordance with the switching timing and switching order included in the read template is executed and character information or sound effects are output (step S7). ).
そして、その曲と画像の再生・表示が完了したとき、曲の再生を終了するか否かを表示部14において確認し(ステップS8)、終了するときは(ステップS8;YES)、そのまま第1実施形態に係る画像生成処理並びに曲及び画像の再生・表示処理を終了し、一方、同じキーワードについて他の曲や画像を用いた再生を行うときは(ステップS8;NO)、再度上記ステップS11又は13に戻って処理を再開する。
Then, when the reproduction and display of the song and the image are completed, it is confirmed on the
以上説明したように、第2実施形態に係る画像生成処理によれば、第1実施形態の場合と同様に、複数のテンプレートを予め蓄積しておき、実際に出力される曲に対応するテンプレートを抽出してその曲と共に出力されるべき画像を生成するので、曲と共に再生される連続画像を視聴者自ら作成する場合に、飽きることがなく変化に富んだ画像を作成することができる。 As described above, according to the image generation processing according to the second embodiment, as in the case of the first embodiment, a plurality of templates are stored in advance, and a template corresponding to a song to be actually output is stored. Since an image to be extracted and output together with the song is generated, when the viewer himself creates a continuous image reproduced along with the song, an image rich in change can be created without getting tired.
これに加えて第2実施形態に係る画像生成処理によれば、実際に出力される曲の内容を示すキーワードに基づいてテンプレートを抽出し、そのテンプレートを用いて画像を生成するので、曲の内容に適した画像をより簡易に生成することができる。 In addition, according to the image generation processing according to the second embodiment, the template is extracted based on the keyword indicating the content of the song that is actually output, and the image is generated using the template. It is possible to more easily generate an image suitable for.
(III)第3実施形態
次に、本願に係る他の実施形態である第3実施形態について、図9を用いて説明する。なお、図9は、第3実施形態に係る曲と画像の再生処理を示すフローチャートである。
(III) Third Embodiment Next, a third embodiment, which is another embodiment according to the present application, will be described with reference to FIG. FIG. 9 is a flowchart showing the music and image reproduction processing according to the third embodiment.
また、第3実施形態に係る画像生成システムの構成は、第1実施形態に係る画像生成システムSの構成と同様であるので、細部の説明は省略する。更に、図9に示すフローチャートにおいて、図7に示すフローチャートと同様の処理については、同様のステップ番号を付して細部の説明は省略する。 The configuration of the image generation system according to the third embodiment is the same as the configuration of the image generation system S according to the first embodiment, and thus detailed description thereof is omitted. Further, in the flowchart shown in FIG. 9, the same processing as in the flowchart shown in FIG. 7 is denoted by the same step number, and detailed description thereof is omitted.
上述した第1実施形態においては、再生すべき曲の内容を解析し、その内容に相応しいテンプレートを新たに作成して画像を生成する場合について説明したが、以下に説明する第3実施形態においては、視聴者が指定した曲に予め付加されている付加情報に基づいてテンプレートを選択して画像を生成する。 In the first embodiment described above, the contents of a song to be played back are analyzed, and a template suitable for the contents is newly generated to generate an image. However, in the third embodiment described below, Then, a template is selected based on additional information added in advance to the music designated by the viewer to generate an image.
すなわち、図9に示すように、第3実施形態に係る画像生成処理においては、初めに、再生すべき曲に付加されている付加情報(上述したように、曲名、アーティスト名、ジャンル名及びレコード会社名等が含まれている)を読み込み(ステップS20)、その付加情報に含まれている文字情報等に基づいて当該付加情報に相応しい画像を静止画像記録部3及び動画像記録部4内において検索し(ステップS21)、更にその検索した画像と上記付加情報とから、これらに対応する基本テンプレートをテンプレート記録部2内において検索して読み込む(ステップS22)。なお、上記ステップS21の処理に代えて、受信部10を介して外部から当該付加情報に相応しい画像を取得して後続するステップS22の処理に用いてもよい。
That is, as shown in FIG. 9, in the image generation processing according to the third embodiment, first, additional information added to a song to be reproduced (as described above, song name, artist name, genre name, and record). The company name is included) (step S20), and an image suitable for the additional information is stored in the still
そして、再生すべき曲の当該再生と並行して、その読み込んだテンプレートに含まれる切換タイミング及び切換順序に則った画像表示が実行されると共に文字情報又は効果音の出力が実行される(ステップS7)。 In parallel with the reproduction of the music to be reproduced, image display in accordance with the switching timing and switching order included in the read template is executed and character information or sound effects are output (step S7). ).
そして、その曲と画像の再生・表示が完了したとき、曲の再生を終了するか否かを表示部14において確認し(ステップS8)、終了するときは(ステップS8;YES)、そのまま第1実施形態に係る画像生成処理並びに曲及び画像の再生・表示処理を終了し、一方、同じ曲について他の画像を用いた再生を行うときは(ステップS8;NO)、再度上記ステップS20に戻って処理を再開する。
Then, when the reproduction and display of the song and the image are completed, it is confirmed on the
以上説明したように、第3実施形態に係る画像生成処理によれば、第1実施形態の場合と同様に、複数のテンプレートを予め蓄積しておき、実際に出力される曲に対応するテンプレートを抽出してその曲と共に出力されるべき画像を生成するので、曲と共に再生される連続画像を視聴者自ら作成する場合に、飽きることがなく変化に富んだ画像を作成することができる。 As described above, according to the image generation processing according to the third embodiment, as in the case of the first embodiment, a plurality of templates are stored in advance, and a template corresponding to a song to be actually output is stored. Since an image to be extracted and output together with the song is generated, when the viewer himself creates a continuous image reproduced along with the song, an image rich in change can be created without getting tired.
これに加えて第3実施形態に係る画像生成処理によれば、出力される曲の属性を示す付加情報と、予め蓄積されている又は外部から取得した画像と、を用いて曲とともに再生すべき画像を生成するので、その出力される曲に適した画像をより簡易に生成することができる。 In addition to this, according to the image generation processing according to the third embodiment, additional information indicating the attributes of the music to be output and an image stored in advance or acquired from the outside should be used to reproduce with the music. Since the image is generated, an image suitable for the outputted music can be generated more easily.
(IV)第4実施形態
次に、本願に係る他の実施形態である第4実施形態について、図10を用いて説明する。なお、図10は、第4実施形態に係る曲と画像の再生処理を示すフローチャートである。
(IV) Fourth Embodiment Next, a fourth embodiment which is another embodiment according to the present application will be described with reference to FIG. FIG. 10 is a flowchart showing the reproduction processing of music and images according to the fourth embodiment.
また、第4実施形態に係る画像生成システムの構成は、第1実施形態に係る画像生成システムSの構成と同様であるので、細部の説明は省略する。更に、図10に示すフローチャートにおいて、図7に示すフローチャートと同様の処理については、同様のステップ番号を付して細部の説明は省略する。 The configuration of the image generation system according to the fourth embodiment is the same as the configuration of the image generation system S according to the first embodiment, and thus detailed description thereof is omitted. Further, in the flowchart shown in FIG. 10, the same processing as in the flowchart shown in FIG. 7 is denoted by the same step number, and detailed description thereof is omitted.
上述した第1実施形態においては、再生すべき曲の内容を解析し、その内容に相応しいテンプレートを新たに作成して画像を生成する場合について説明したが、以下に説明する第4実施形態においては、基本的には第1実施形態の場合と同様の処理ではあるが、再生用の画像を生成する際における図4に示す座標空間の活用法が異なる。 In the first embodiment described above, the contents of the music to be played back are analyzed, and a template suitable for the contents is newly generated to generate an image. However, in the fourth embodiment described below, Although basically the same processing as in the first embodiment, the method of utilizing the coordinate space shown in FIG. 4 when generating an image for reproduction is different.
すなわち、図10に示すように、第4実施形態に係る画像生成処理においては、初めに、再生されることが所望されている曲に対応する曲情報を再生制御部15において図示しないCD等から読み込み(ステップS1)、これを曲解析部11においてその内容(スピード及びコード構成)を解析する(ステップS2)。
That is, as shown in FIG. 10, in the image generation processing according to the fourth embodiment, first, music information corresponding to a music that is desired to be reproduced is obtained from a CD or the like not shown in the
次に、その解析結果と図4に示す座標空間とを比較し、その再生すべき曲の当該座標空間内における座標値を定義する(ステップS3)。 Next, the analysis result is compared with the coordinate space shown in FIG. 4, and the coordinate value in the coordinate space of the music to be reproduced is defined (step S3).
次に、その定義付けられた座標値の近辺にその座標値を有している静止画像又は動画像を静止画像記録部3又は動画像情報記録部4内において検索して読み込み(ステップS25)、更にその定義付けられた座標値の近辺にその座標値を有している基本テンプレートをテンプレート記録部2内において検索して読み込む(ステップS26)。
Next, a still image or a moving image having the coordinate value in the vicinity of the defined coordinate value is searched and read in the still
そして、上記ステップS1乃至S3及びステップS25乃至S27において取得した各情報を用いて、基本テンプレートを基にして新たなテンプレートをテンプレート制御部12において作成する(ステップS27)。ここで、当該ステップS27において実行されるテンプレートの作成処理の詳細は上述した第1実施形態におけるテンプレート作成処理(ステップS6)と同様であるので、細部の説明は省略する。
Then, a new template is created in the
そして、ステップS27の処理により新たなテンプレートが作成されると、それに沿って再生すべき曲と並行して作成したテンプレートに含まれる切換タイミング及び切換順序に則った画像表示が実行されると共に文字情報又は効果音の出力が実行される(ステップS28)。 When a new template is created by the process of step S27, image display is executed in accordance with the switching timing and switching order included in the template created in parallel with the music to be reproduced along with the character information. Alternatively, a sound effect is output (step S28).
そして、その曲と画像の再生・表示が完了したとき、その画像の表示に用いられていた新たなテンプレートの、図4に示す座標空間内の座標値を新たに定義し(ステップS29)、その定義した座標値と共に当該新たなテンプレートをテンプレート記録部2に格納し(ステップS30)、更に使用した素材画像の使用回数(現状では一回)を示す情報を静止画像記録部3及び動画像記録部4に記録する(ステップS31)。
Then, when the reproduction and display of the music and image are completed, the coordinate value in the coordinate space shown in FIG. 4 of the new template used for displaying the image is newly defined (step S29). The new template is stored in the
使用回数の記録が完了すると、次に、曲の再生を終了するか否かを表示部14において確認し(ステップS32)、終了するときは(ステップS32;YES)、そのまま第4実施形態に係る画像生成処理並びに曲及び画像の再生・表示処理を終了し、一方、同じ曲について他の画像を用いた再生を行うときは(ステップS32;NO)、再度上記ステップS25に戻って処理を再開する。
When the recording of the number of times of use is completed, next, it is confirmed on the
以上説明したように、第4実施形態に係る画像生成処理によれば、第1実施形態の場合と同様に、複数のテンプレートを予め蓄積しておき、実際に出力される曲に対応するテンプレートを抽出してその曲と共に出力されるべき画像を生成するので、曲と共に再生される連続画像を視聴者自ら作成する場合に、飽きることがなく変化に富んだ画像を作成することができる。 As described above, according to the image generation processing according to the fourth embodiment, as in the case of the first embodiment, a plurality of templates are stored in advance, and a template corresponding to a song to be actually output is stored. Since an image to be extracted and output together with the song is generated, when the viewer himself creates a continuous image reproduced along with the song, an image rich in change can be created without getting tired.
また、実際に出力される曲の内容を解析し、その内容に対応するテンプレートを抽出して画像を生成するので、当該曲により相応しい画像を生成することができる。 In addition, since the contents of a song that is actually output are analyzed and a template corresponding to the contents is extracted to generate an image, an image suitable for the song can be generated.
更に、実際に出力される曲の内容に沿った画像を選択してテンプレートを新たに作成し、それを用いて画像を生成するので、最初から画像を作成するよりも簡易にその曲に適した画像を生成することができる。 In addition, since a template is newly created by selecting an image according to the content of the song that is actually output and an image is generated using it, it is more suitable for that song than when creating an image from the beginning. An image can be generated.
更にまた、画像の生成に用いられたテンプレートを蓄積していくので、似通った状態で曲を出力する場合に再度同様のテンプレートを生成する処理を省略して迅速に画像を生成することができる。 Furthermore, since the templates used for generating the images are accumulated, when outputting music in a similar state, it is possible to quickly generate images by omitting the process of generating similar templates again.
(V)第5実施形態
次に、本願に係る他の実施形態である第5実施形態について、図11を用いて説明する。なお、図11は、第5実施形態に係る曲と画像の再生処理を示すフローチャートである。
(V) Fifth Embodiment Next, a fifth embodiment, which is another embodiment according to the present application, will be described with reference to FIG. FIG. 11 is a flowchart showing the reproduction processing of music and images according to the fifth embodiment.
また、第5実施形態に係る画像生成システムの構成は、第1実施形態に係る画像生成システムSの構成と同様であるので、細部の説明は省略する。更に、図11に示すフローチャートにおいて、図10に示すフローチャートと同様の処理については、同様のステップ番号を付して細部の説明は省略する。 The configuration of the image generation system according to the fifth embodiment is the same as the configuration of the image generation system S according to the first embodiment, and thus detailed description thereof is omitted. Further, in the flowchart shown in FIG. 11, the same processing as that in the flowchart shown in FIG. 10 is denoted by the same step number, and detailed description thereof is omitted.
上述した第4実施形態においては、再生すべき曲の内容を解析し、その内容に相応しいテンプレートを新たに作成して画像を生成する場合について説明したが、以下に説明する第5実施形態においては、視聴者が指定したキーワードにより曲と画像を選択する。 In the above-described fourth embodiment, the content of a song to be played back is analyzed, and a template suitable for the content is newly generated to generate an image. However, in the fifth embodiment described below, , Select a song and an image by a keyword specified by the viewer.
すなわち、図11に示すように、第5実施形態に係る画像生成処理においては、初めに、これから再生しようとする曲を検索するための検索キーワードが操作部8において入力されると(ステップS35)、その入力内容と図4に示す座標空間とを比較し、その入力されたキーワードの当該座標空間内における座標値を定義する(ステップS36)。 That is, as shown in FIG. 11, in the image generation processing according to the fifth embodiment, first, when a search keyword for searching for a song to be played is input in the operation unit 8 (step S35). Then, the input content is compared with the coordinate space shown in FIG. 4, and the coordinate value in the coordinate space of the input keyword is defined (step S36).
次に、その定義付けられた座標値の近辺にその座標値を有している曲を図示しない曲のデータベース内において検索して読み込み(ステップS37)、その定義付けられた座標値の近辺にその座標値を有している静止画像又は動画像を静止画像記録部3又は動画像情報記録部4内において検索して読み込み(ステップS25)、更にその定義付けられた座標値の近辺にその座標値を有している基本テンプレートをテンプレート記録部2内において検索して読み込む(ステップS26)。
Next, a song having the coordinate value in the vicinity of the defined coordinate value is searched and read in a song database (not shown) (step S37), and the song is read in the vicinity of the defined coordinate value. A still image or moving image having a coordinate value is searched for and read in the still
これ以後は、上述した第4実施形態におけるステップS27乃至S32の処理が第4実施形態の場合と同様に実行され、一連の画像生成処理及び曲再生処理を完了する。 Thereafter, the processing in steps S27 to S32 in the fourth embodiment described above is executed in the same manner as in the fourth embodiment, and a series of image generation processing and music piece reproduction processing is completed.
以上説明したように、第5実施形態に係る画像生成処理によれば、第1実施形態の場合と同様に、複数のテンプレートを予め蓄積しておき、実際に出力される曲に対応するテンプレートを抽出してその曲と共に出力されるべき画像を生成するので、曲と共に再生される連続画像を視聴者自ら作成する場合に、飽きることがなく変化に富んだ画像を作成することができる。 As described above, according to the image generation processing according to the fifth embodiment, as in the case of the first embodiment, a plurality of templates are accumulated in advance, and a template corresponding to a song to be actually output is stored. Since an image to be extracted and output together with the song is generated, when the viewer himself creates a continuous image reproduced along with the song, an image rich in change can be created without getting tired.
また、出力させる曲を検索するためのキーワードを入力して当該曲を検索し、その曲に対応する画像とその曲の内容の解析結果とを用いて再生用の画像を生成するので、再生すべき曲を選ぶ段階から簡易な処理で必要な曲を選択することができる。 In addition, a keyword for searching for a song to be output is input to search for the song, and a playback image is generated using the image corresponding to the song and the analysis result of the content of the song. Necessary music can be selected with a simple process from the stage of selecting a music.
なお、上述した第5実施形態において、過去に入力されていたキーワードと今般入力されたキーワードとを併せて用いてそれらを解析し、双方に対応する曲の選択及び画像生成を行うように構成することもできる。 In the fifth embodiment described above, a keyword input in the past and a keyword input in the past are used together and analyzed to select a song corresponding to both and generate an image. You can also.
この場合には、異なるタイミングで入力された複数のキーワードを用いて一の曲を検索するので、視聴者の意図をより適切に反映して曲を選択することができる。 In this case, since one song is searched using a plurality of keywords input at different timings, the song can be selected more appropriately reflecting the viewer's intention.
(VI)第6実施形態
次に、本願に係る他の実施形態である第6実施形態について、図12を用いて説明する。なお、図12は、第6実施形態に係る曲と画像の再生処理を示すフローチャートである。
(VI) Sixth Embodiment Next, a sixth embodiment, which is another embodiment according to the present application, will be described with reference to FIG. FIG. 12 is a flowchart showing a music and image reproduction process according to the sixth embodiment.
また、第6実施形態に係る画像生成システムの構成は、第1実施形態に係る画像生成システムSの構成と同様であるので、細部の説明は省略する。 The configuration of the image generation system according to the sixth embodiment is the same as the configuration of the image generation system S according to the first embodiment, and thus detailed description thereof is omitted.
上述した第1実施形態等においては、再生すべき曲の内容を解析し、その内容に相応しいテンプレートを新たに作成して画像を生成する場合について説明したが、以下に説明する第6実施形態においては、曲を再生すると共に画像を視聴しようとしている視聴者のそのときの気分に関する情報が、曲の選択及び画像の生成に活用される。 In the first embodiment and the like described above, the case where the contents of a song to be reproduced is analyzed and a template suitable for the contents is newly generated to generate an image has been described. In the sixth embodiment described below, In this case, information on the mood of a viewer who is playing a song and watching an image at that time is used for selecting a song and generating an image.
すなわち、図12に示すように、第6実施形態に係る画像生成処理においては、初めに、当該視聴者の現在における気分を示す文字情報が気分情報として操作部8において入力される(ステップS40)。 That is, as shown in FIG. 12, in the image generation processing according to the sixth embodiment, first, character information indicating the current mood of the viewer is input as mood information in the operation unit 8 (step S40). .
ここで、当該気分情報とは、具体的には図4に示す座標空間における各象限に記載されている、「幸せ」、「楽しい」、「切ない」又は「哀しい」のいずれかが文字情報として操作部8において入力される。
Here, specifically, the mood information is any of “happy”, “fun”, “cut” or “sad” described in each quadrant in the coordinate space shown in FIG. 4 as character information. It is input at the
次に、その入力された気分情報の座標値の象限にその座標値を有している曲を図示しない曲のデータベース内において検索して読み込む(ステップS41)と共に、その曲の座標値の近辺にその座標値を有している静止画像又は動画像を静止画像記録部3又は動画像情報記録部4内において検索して読み込み(ステップS42)、更にその曲の座標値の近辺にその座標値を有している基本テンプレートをテンプレート記録部2内において検索して読み込む(ステップS43)。
Next, a song having the coordinate value in the quadrant of the coordinate value of the inputted mood information is searched and read in a song database (not shown) (step S41), and in the vicinity of the coordinate value of the song. The still image or moving image having the coordinate value is searched for and read in the still
これに加えて、その曲の座標値の近辺にその座標値を有している文字情報を文字情報記録部5内において検索して読み込む(ステップS44)と共に、その座標値の近辺にその座標値を有している効果音情報を効果音記録部6内において検索して読み込む(ステップS45)。 In addition to this, the character information having the coordinate value in the vicinity of the coordinate value of the music is searched for and read in the character information recording unit 5 (step S44), and the coordinate value is in the vicinity of the coordinate value. Is retrieved and read in the sound effect recording unit 6 (step S45).
そして、上記ステップS42、S44及びS45において選択された画像、文字情報及び効果音情報を用いて作成した画像を、ステップS43において選択されたテンプレートに則ってステップS41において選択した曲を再生しつつ表示する(ステップS46)。 Then, the image created using the image, character information and sound effect information selected in steps S42, S44 and S45 is displayed while reproducing the song selected in step S41 according to the template selected in step S43. (Step S46).
そして、その曲と画像の再生・表示が完了したとき、曲の再生を終了するか否かを表示部14において確認し(ステップS47)、終了しないときは(ステップS47;NO)、前回のステップS41乃至S45の処理で選択された曲、画像、テンプレート、文字情報及び効果音情報が再度選択されないように識別フラグ等を設定する処理を行い(ステップS48)、同じ気分情報に対応する他の曲及び画像が再生・表示されるように上記ステップS41に戻る。
Then, when the reproduction and display of the song and the image are completed, it is confirmed on the
一方、ステップS47の判定において、曲の再生を終了するときは(ステップS47;YES)、直前に再生された画像、文字情報及び効果音情報を、その気分情報及び曲に対応する新たなテンプレートを合成するか否かを使用者に対して確認し(ステップS49)。そして、新たなテンプレートを合成する場合は(ステップS49;YES)当該新テンプレートを合成し(ステップS50)、一連の処理を終了する。 On the other hand, when it is determined in step S47 that the reproduction of the song is to be ended (step S47; YES), the image, character information, and sound effect information reproduced immediately before are used as a new template corresponding to the mood information and the song. It is confirmed with the user whether to synthesize (step S49). If a new template is to be synthesized (step S49; YES), the new template is synthesized (step S50), and the series of processes is terminated.
一方、ステップS49の判定において新たなテンプレートを合成しないときは(ステップS49;NO)そのままそのまま一連の処理を終了する。 On the other hand, when a new template is not synthesized in the determination in step S49 (step S49; NO), the series of processes is terminated as it is.
以上説明したように、第6実施形態に係る画像生成処理によれば、第1実施形態の場合と同様に、複数のテンプレートを予め蓄積しておき、実際に出力される曲に対応するテンプレートを抽出してその曲と共に出力されるべき画像を生成するので、曲と共に再生される連続画像を視聴者自ら作成する場合に、飽きることがなく変化に富んだ画像を作成することができる。 As described above, according to the image generation processing according to the sixth embodiment, as in the case of the first embodiment, a plurality of templates are stored in advance, and a template corresponding to a song that is actually output is stored. Since an image to be extracted and output together with the song is generated, when the viewer himself creates a continuous image reproduced along with the song, an image rich in change can be created without getting tired.
これに加えて第6実施形態に係る画像生成処理によれば、視聴者の気分を示す気分情報を取得し、その気分情報に基づいて曲を抽出すると共に対応するテンプレートを指定して画像を生成するので、視聴者の気分に応じた適切な曲及び画像を出力することができる。 In addition to this, according to the image generation processing according to the sixth embodiment, mood information indicating a viewer's mood is acquired, a song is extracted based on the mood information, and a corresponding template is specified to generate an image. Therefore, it is possible to output an appropriate song and image according to the mood of the viewer.
更に、出力すべき曲に対応する文字又は効果音に基づいてテンプレートを編集し、その編集後のテンプレートを用いて画像を生成するので、実際に視聴される画像及び曲の双方に基づいて画像を生成することができる。 Furthermore, since the template is edited based on the character or sound effect corresponding to the song to be output, and an image is generated using the edited template, the image is based on both the actually viewed image and the song. Can be generated.
(VII)第7実施形態
次に、本願に係る他の実施形態である第7実施形態について、図13を用いて説明する。なお、図13は、第7実施形態に係る曲と画像の再生処理を示すフローチャートである。また、図13に示すフローチャートにおいて、図9に示すフローチャートと同一の処理については、同一のステップ番号を付して細部の説明を省略する。
(VII) Seventh Embodiment Next, a seventh embodiment, which is another embodiment according to the present application, will be described with reference to FIG. FIG. 13 is a flowchart showing a music and image reproduction process according to the seventh embodiment. In the flowchart shown in FIG. 13, the same processing as that in the flowchart shown in FIG.
更に、第7実施形態に係る画像生成システムの構成は、第1実施形態に係る画像生成システムSの構成と同様であるので、細部の説明は省略する。 Furthermore, since the configuration of the image generation system according to the seventh embodiment is the same as the configuration of the image generation system S according to the first embodiment, detailed description thereof is omitted.
上述した第1実施形態等においては、再生すべき曲の内容を解析し、その内容に相応しいテンプレートを新たに作成して画像を生成する場合について説明したが、以下に説明する第7実施形態においては、画像生成システムが設置されている周囲の環境の変化をセンサ18において検出した結果が画像の生成に反映される。
In the first embodiment and the like described above, the case where the content of a song to be reproduced is analyzed and a template suitable for the content is newly generated to generate an image has been described. However, in the seventh embodiment described below, The result of detecting the change in the surrounding environment where the image generation system is installed by the
すなわち、図13に示すように、第7実施形態に係る画像生成処理においては、初めに、センサ18において予め設定されている閾値を、そのときの検出対象となっている環境要因の値が越えたことにより、センサ18からその旨の情報が入力されたか否かが常時監視されており(ステップS55)、その入力が無いときは(ステップS55;NO)そのまま監視を継続し、一方、その監視中において当該情報が入力されたときは(ステップS55;YES)、上記第3実施形態と同様の処理を実行する(ステップS20乃至S22並びにS7及びS8)。
That is, as shown in FIG. 13, in the image generation process according to the seventh embodiment, first, the threshold value preset in the
以上説明したように、第7実施形態に係る画像生成処理によれば、第1実施形態の場合と同様に、複数のテンプレートを予め蓄積しておき、実際に出力される曲に対応するテンプレートを抽出してその曲と共に出力されるべき画像を生成するので、曲と共に再生される連続画像を視聴者自ら作成する場合に、飽きることがなく変化に富んだ画像を作成することができる。 As described above, according to the image generation processing according to the seventh embodiment, as in the case of the first embodiment, a plurality of templates are stored in advance, and a template corresponding to a song to be actually output is stored. Since an image to be extracted and output together with the song is generated, when the viewer himself creates a continuous image reproduced along with the song, an image rich in change can be created without getting tired.
これに加えて第7実施形態に係る画像生成処理によれば、出力される曲の属性を示す付加情報と、予め蓄積されている画像と、を用いて曲とともに再生すべき画像を生成するので、その出力される曲に適した画像をより簡易に生成することができる。 In addition to this, according to the image generation processing according to the seventh embodiment, an image to be reproduced together with the song is generated using the additional information indicating the attribute of the outputted song and the image accumulated in advance. Thus, an image suitable for the outputted music can be generated more easily.
また、周囲の変化に応じて画像の生成タイミングを制御することができるので、周囲の環境により適切に対応して画像を生成することができる。 In addition, since the image generation timing can be controlled in accordance with changes in the surroundings, the image can be generated in a more appropriate manner depending on the surrounding environment.
(VIII)第8実施形態
次に、本願に係る他の実施形態である第8実施形態について、図14を用いて説明する。なお、図14は、第8実施形態に係る曲と画像の再生処理を示すフローチャートである。また、図14に示すフローチャートにおいて、図11に示すフローチャートと同一の処理については、同一のステップ番号を付して細部の説明を省略する。
(VIII) Eighth Embodiment Next, an eighth embodiment which is another embodiment according to the present application will be described with reference to FIG. FIG. 14 is a flowchart showing the music and image reproduction processing according to the eighth embodiment. Further, in the flowchart shown in FIG. 14, the same processes as those in the flowchart shown in FIG.
更に、第8実施形態に係る画像生成システムの構成は、第1実施形態に係る画像生成システムSの構成と同様であるので、細部の説明は省略する。 Furthermore, the configuration of the image generation system according to the eighth embodiment is the same as the configuration of the image generation system S according to the first embodiment, and thus detailed description thereof is omitted.
上述した第5実施形態においては、視聴者が指定したキーワードにより曲と画像を選択する場合について説明したが、以下に説明する第8実施形態においては、画像生成システムが設置されている周囲の環境の変化をセンサ18において検出した結果が画像の生成に反映される。
In the fifth embodiment described above, the case where a song and an image are selected by a keyword specified by the viewer has been described. However, in the eighth embodiment described below, the surrounding environment in which the image generation system is installed is described. The result of detecting the change in the
すなわち、図14に示すように、第8実施形態に係る画像生成処理においては、初めに、そのときの検出対象となっている環境要因の値が越えた旨の情報がセンサ18から入力されたか否かが常時監視されており(ステップS56)、その入力が無いときは(ステップS56;NO)そのまま当該入力を待つべく待機し、一方、当該入力があったときは(ステップS56;YES)、当該入力があったタイミングで、例えばランダムにキーワードを設定して(ステップS57)、後のステップS36以降の処理に移行する。
That is, as shown in FIG. 14, in the image generation processing according to the eighth embodiment, first, information indicating that the value of the environmental factor that is the detection target at that time has been input is input from the
一方、ステップS56の判定において、当該キーワードが入力されたときは(ステップS56;YES)、上記第5実施形態と同様の処理を実行する(ステップS25乃至S32並びにS36及びS39)。 On the other hand, if it is determined in step S56 that the keyword is input (step S56; YES), the same processing as in the fifth embodiment is executed (steps S25 to S32, S36, and S39).
以上説明したように、第8実施形態に係る画像生成処理によれば、第1実施形態の場合と同様に、複数のテンプレートを予め蓄積しておき、実際に出力される曲に対応するテンプレートを抽出してその曲と共に出力されるべき画像を生成するので、曲と共に再生される連続画像を視聴者自ら作成する場合に、飽きることがなく変化に富んだ画像を作成することができる。 As described above, according to the image generation processing according to the eighth embodiment, as in the case of the first embodiment, a plurality of templates are stored in advance, and a template corresponding to a song to be actually output is stored. Since an image to be extracted and output together with the song is generated, when the viewer himself creates a continuous image reproduced along with the song, an image rich in change can be created without getting tired.
また、出力させる曲を検索するためのキーワードを入力して当該曲を検索し、その曲に対応する画像とその曲の内容の解析結果とを用いて再生用の画像を生成するので、再生すべき曲を選ぶ段階から簡易な処理で必要な曲を選択することができる。 In addition, a keyword for searching for a song to be output is input to search for the song, and a playback image is generated using the image corresponding to the song and the analysis result of the content of the song. Necessary music can be selected with a simple process from the stage of selecting a music.
これに加えて第8実施形態に係る画像生成処理によれば、周囲の変化に応じたタイミングでキーワードを設定することができるので、周囲の環境により適切に対応して画像を生成することができる。 In addition to this, according to the image generation processing according to the eighth embodiment, keywords can be set at a timing according to changes in the surroundings, so that an image can be generated appropriately corresponding to the surrounding environment. .
(IX)第9実施形態
最後に、本願に係る他の実施形態である第9実施形態について、図15を用いて説明する。なお、図15は第9実施形態に係る曲と画像の再生処理を示すフローチャートである。また、図15に示すフローチャートにおいて、図12に示すフローチャートと同一の処理については、同一のステップ番号を付して細部の説明を省略する。
(IX) Ninth Embodiment Finally, a ninth embodiment, which is another embodiment according to the present application, will be described with reference to FIG. FIG. 15 is a flowchart showing the music and image reproduction processing according to the ninth embodiment. Further, in the flowchart shown in FIG. 15, the same processes as those in the flowchart shown in FIG.
更に、第9実施形態に係る画像生成システムの構成は、第1実施形態に係る画像生成システムSの構成と同様であるので、細部の説明は省略する。 Furthermore, since the configuration of the image generation system according to the ninth embodiment is the same as the configuration of the image generation system S according to the first embodiment, detailed description thereof is omitted.
上述した第6実施形態においては、曲を再生すると共に画像を視聴しようとしている視聴者のそのときの気分に関する情報が、曲の選択及び画像の生成に活用される場合について説明したが、以下に説明する第9実施形態においては、画像生成システムが設置されている周囲の環境の変化をセンサ18において検出した結果が画像の生成に反映される。
In the sixth embodiment described above, a case has been described in which information related to the mood of a viewer who plays a song and views an image is used for song selection and image generation. In the ninth embodiment to be described, the result of detection by the
すなわち、図15に示すように、第9実施形態に係る画像生成処理においては、初めに、そのときの検出対象となっている環境要因の値が越えた旨の情報がセンサ18から入力されたか否かが常時監視されており(ステップS60)、その入力が無いときは(ステップS60;NO)そのまま当該入力を待つべく待機し、一方、当該入力があったときは(ステップS60;YES)、当該入力があったタイミングで、例えばランダムに四つの中から気分情報を設定して(ステップS61)、後のステップS41以降ステップS50までの処理に移行する。
That is, as shown in FIG. 15, in the image generation processing according to the ninth embodiment, first, was information from the
以上説明したように、第9実施形態に係る画像生成処理によれば、第1実施形態の場合と同様に、複数のテンプレートを予め蓄積しておき、実際に出力される曲に対応するテンプレートを抽出してその曲と共に出力されるべき画像を生成するので、曲と共に再生される連続画像を視聴者自ら作成する場合に、飽きることがなく変化に富んだ画像を作成することができる。 As described above, according to the image generation processing according to the ninth embodiment, as in the case of the first embodiment, a plurality of templates are stored in advance, and a template corresponding to a song to be actually output is stored. Since an image to be extracted and output together with the song is generated, when the viewer himself creates a continuous image reproduced along with the song, an image rich in change can be created without getting tired.
これに加えて第9実施形態に係る画像生成処理によれば、視聴者の気分を示す気分情報を取得し、その気分情報に基づいて曲を抽出すると共に対応するテンプレートを指定して画像を生成するので、視聴者の気分に応じた適切な曲及び画像を出力することができる。 In addition to this, according to the image generation processing according to the ninth embodiment, mood information indicating the mood of the viewer is acquired, a song is extracted based on the mood information and an image is generated by designating a corresponding template. Therefore, it is possible to output an appropriate song and image according to the mood of the viewer.
更に、出力すべき曲に対応する文字又は効果音に基づいてテンプレートを編集し、その編集後のテンプレートを用いて画像を生成するので、実際に視聴される画像及び曲の双方に基づいて画像を生成することができる。 Furthermore, since the template is edited based on the character or sound effect corresponding to the song to be output, and the image is generated using the edited template, the image is based on both the actually viewed image and the song. Can be generated.
更にまた、周囲の変化に応じたタイミングで気分情報を設定することができるので、周囲の環境により適切に対応して画像を生成することができる。 Furthermore, since the mood information can be set at a timing corresponding to a change in the surroundings, it is possible to generate an image corresponding more appropriately to the surrounding environment.
なお、上述した各実施形態において、新たなテンプレートを作成した場合、これを例えば不揮発性の携帯型メモリに記録させておいても良い。この場合には、当該テンプレートを画像生成システムSから切り離すことができ、テンプレートとしての用途を拡大することができる。すなわち、当該テンプレートを個人用に携帯して外出先において新たな画像形成に用いてもよいし、或いは、当該テンプレートを他の者と共有することで、一つのテンプレートが活用される範囲を拡張することができる。 In each of the above-described embodiments, when a new template is created, it may be recorded in, for example, a nonvolatile portable memory. In this case, the template can be separated from the image generation system S, and the use as a template can be expanded. That is, the template can be carried for personal use and used for new image formation on the go, or the template can be shared with others to expand the range of use of one template. be able to.
また、図1に示すデータベース1を、画像生成システムS内ではなく、インターネット上のサーバ内に構築し、必要に応じてこのサーバから各情報を読み出すように構成することもできる。
Further, the
更に、図7乃至図15のフローチャートに対応するプログラムをフレキシブルディスク又はハードディスク等の情報記録媒体に記録しておき、又はインターネット等を介して取得して記録しておき、これらを汎用のコンピュータで読み出して実行することにより、当該コンピュータを実施形態に係るテンプレート制御部12として活用することも可能である。
Further, a program corresponding to the flowcharts of FIGS. 7 to 15 is recorded on an information recording medium such as a flexible disk or a hard disk, or is acquired and recorded via the Internet or the like, and is read by a general-purpose computer. It is possible to utilize the computer as the
1 データベース
2 テンプレート記録部
3 静止画像記録部
4 動画像記録部
5 文字情報記録部
6 効果音情報記録部
7 検索処理部
8 操作部
9 画像入力部
10 受信部
11 曲解析部
12 テンプレート制御部
13 テンプレート入出力部
14 表示部
15 再生制御部
16 インターネット
17 スピーカ
18 センサ
DESCRIPTION OF
Claims (16)
相互に異なる属性を有する複数種類の前記音楽と並行して夫々出力されるべき前記画像の内容の雛形となる画像テンプレートであって、各種類の前記音楽に夫々対応して予め設定されている複数の画像テンプレートを蓄積する蓄積手段と、
前記蓄積されている複数の画像テンプレートの中から、実際に出力される前記音楽と並行して実際に出力されるべき前記画像に対応する一の前記画像テンプレートを抽出テンプレートとして抽出する抽出手段と、
前記抽出された抽出テンプレートを用いて、前記実際に出力されるべき画像に対応する画像情報を生成する生成手段と、
を備えることを特徴とする画像生成システム。 In an image generation system that generates an image output in parallel with music,
An image template that is a template of the contents of the image to be output in parallel with a plurality of types of music having different attributes, and a plurality of preset templates corresponding to each type of music Storage means for storing image templates of
Extraction means for extracting one image template corresponding to the image to be actually output in parallel with the music actually output from the plurality of stored image templates as an extraction template;
Generation means for generating image information corresponding to the image to be actually output using the extracted extraction template;
An image generation system comprising:
前記実際に出力される音楽の内容を解析し、当該内容を示す内容情報を生成する解析手段を更に備え、
前記抽出手段は、前記生成された内容情報に基づいて前記抽出テンプレートを抽出し、
更に前記生成手段は、前記生成された内容情報に基づいて前記抽出テンプレートを編集し、前記画像情報を生成することを特徴とする画像生成システム。 The image generation system according to claim 1,
Analyzing the content of the music that is actually output, further comprising analysis means for generating content information indicating the content,
The extraction means extracts the extraction template based on the generated content information,
Further, the generation means edits the extraction template based on the generated content information to generate the image information.
前記画像情報を構成する素材となる素材画像に対応する素材画像情報を蓄積する画像蓄積手段と、
前記生成された内容情報に基づいて、前記実際に出力される音楽に対応する前記素材画像情報を前記画像蓄積手段から抽出する素材画像情報抽出手段と、
を更に備え、
前記生成手段は、前記生成された内容情報と、前記抽出された素材画像情報と、に基づいて前記抽出テンプレートを編集し、前記画像情報を生成することを特徴とする画像生成システム。 The image generation system according to claim 2,
Image storage means for storing material image information corresponding to a material image as a material constituting the image information;
Material image information extraction means for extracting the material image information corresponding to the actually output music from the image storage means based on the generated content information;
Further comprising
The image generation system, wherein the generation unit edits the extraction template based on the generated content information and the extracted material image information to generate the image information.
前記音楽に対応する音楽情報には、当該音楽の内容を示すキーワードに対応するキーワード情報が付加されていると共に、
前記実際に出力される音楽に対応する前記音楽情報に付加されている前記キーワード情報を当該音楽情報から抽出するキーワード情報抽出手段を更に備え、
前記抽出手段は、前記抽出されたキーワード情報に基づいて前記抽出テンプレートを抽出し、
更に前記生成手段は、前記生成された抽出テンプレートに対応する前記画像情報を生成することを特徴とする画像生成システム。 The image generation system according to claim 1,
The music information corresponding to the music includes keyword information corresponding to a keyword indicating the content of the music,
Further comprising keyword information extraction means for extracting the keyword information added to the music information corresponding to the music that is actually output from the music information;
The extraction means extracts the extraction template based on the extracted keyword information,
Further, the generation means generates the image information corresponding to the generated extraction template.
前記音楽に対応する音楽情報には、当該音楽の属性を少なくとも示す付加情報が付加されていると共に、
前記画像情報を構成する素材となる素材画像に対応する素材画像情報を蓄積する画像蓄積手段と、
前記実際に出力される音楽に対応する前記付加情報を当該音楽情報から抽出する付加情報抽出手段と、
を更に備え、
前記抽出手段は、前記抽出された付加情報と、前記蓄積されている素材画像情報と、に基づいて前記抽出テンプレートを抽出し、
更に前記生成手段は、前記生成された抽出テンプレートに対応する前記画像情報を生成することを特徴とする画像生成システム。 The image generation system according to claim 1,
The music information corresponding to the music is added with additional information indicating at least the attribute of the music,
Image storage means for storing material image information corresponding to a material image as a material constituting the image information;
Additional information extraction means for extracting the additional information corresponding to the music that is actually output from the music information;
Further comprising
The extraction means extracts the extraction template based on the extracted additional information and the accumulated material image information,
Further, the generation means generates the image information corresponding to the generated extraction template.
前記音楽に対応する複数の音楽情報を蓄積する音楽情報蓄積手段と、
前記画像情報を構成する素材となる素材画像に対応する素材画像情報を蓄積する画像蓄積手段と、
実際に出力される前記音楽を検索するためのキーワードを入力するために用いられる入力手段と、
前記入力されたキーワードの内容を解析し、当該内容に対応するキーワード内容情報を生成するキーワード内容情報生成手段と、
前記生成されたキーワード内容情報に基づいて、前記実際に出力される音楽に対応する前記音楽情報を、前記音楽情報蓄積手段から抽出する音楽情報抽出手段と、
前記抽出された音楽情報に対応する前記素材画像情報を、前記画像蓄積手段から抽出する画像情報抽出手段と、
前記抽出された音楽情報の内容を解析し、当該音楽情報の内容を示す音楽内容情報を生成する解析手段と、
を更に備え、
前記抽出手段は、前記抽出された音楽情報に基づいて前記抽出テンプレートを抽出し、
前記生成手段は、前記生成された音楽内容情報に基づき、前記抽出された抽出テンプレートを用いて前記画像情報を生成することを特徴とする画像生成システム。 The image generation system according to claim 1,
Music information storage means for storing a plurality of music information corresponding to the music;
Image storage means for storing material image information corresponding to a material image as a material constituting the image information;
Input means used for inputting a keyword for searching for the music that is actually output;
Analyzing the content of the input keyword and generating keyword content information generating means corresponding to the content;
Music information extraction means for extracting from the music information storage means the music information corresponding to the music that is actually output based on the generated keyword content information;
Image information extraction means for extracting the material image information corresponding to the extracted music information from the image storage means;
Analyzing means for analyzing the content of the extracted music information and generating music content information indicating the content of the music information;
Further comprising
The extraction means extracts the extraction template based on the extracted music information,
The image generation system characterized in that the generation means generates the image information using the extracted extraction template based on the generated music content information.
前記キーワード内容情報生成手段は、異なるタイミングで入力された複数のキーワードの内容を夫々解析し、当該各内容に対応する一の前記キーワード内容情報を生成することを特徴とする画像生成システム。 The image generation system according to claim 6.
The keyword content information generating unit analyzes the contents of a plurality of keywords input at different timings, and generates one keyword content information corresponding to each content.
前記音楽に対応する複数の音楽情報を蓄積する音楽情報蓄積手段と、
前記画像情報を構成する素材となる素材画像に対応する素材画像情報を蓄積する画像蓄積手段と、
前記出力される音楽及び画像を視聴する視聴者の気分を示す気分情報を取得する取得手段と、
前記取得された気分情報の内容を解析し、当該内容に対応する気分内容情報を生成する気分内容情報生成手段と、
前記生成された気分内容情報に基づいて、前記実際に出力される音楽に対応する前記音楽情報を、前記音楽情報蓄積手段から抽出する音楽情報抽出手段と、
前記実際に出力される音楽に対応する前記素材画像情報を、前記生成された気分内容情報に基づき前記画像蓄積手段から抽出する画像情報抽出手段と、
を更に備え、
前記抽出手段は、前記生成された気分内容情報に基づいて前記抽出テンプレートを抽出し、
前記生成手段は、前記抽出された抽出テンプレートを用いて前記画像情報を生成することを特徴とする画像生成システム。 The image generation system according to claim 1,
Music information storage means for storing a plurality of music information corresponding to the music;
Image storage means for storing material image information corresponding to a material image that is a material constituting the image information;
Obtaining means for obtaining mood information indicating a mood of a viewer who views the music and images output;
Analyzing the content of the acquired mood information, and generating mood content information generating means corresponding to the content;
Music information extraction means for extracting from the music information storage means the music information corresponding to the music that is actually output based on the generated mood content information;
Image information extraction means for extracting the material image information corresponding to the music that is actually output from the image storage means based on the generated mood content information;
Further comprising
The extraction means extracts the extraction template based on the generated mood content information,
The image generating system, wherein the generating means generates the image information using the extracted extraction template.
前記音楽及び前記画像と並行して出力される文字に対応する文字情報を蓄積する文字情報蓄積手段と、
前記音楽及び前記画像と並行して出力される効果音に対応する効果音情報を蓄積する効果音情報蓄積手段と、
前記出力される音楽及び画像を視聴する視聴者の気分を示す気分情報を取得する取得手段と、
前記取得された気分情報の内容を解析し、当該内容に対応する気分内容情報を生成する気分内容情報生成手段と、
前記生成された気分内容情報に基づいて、前記実際に出力される音楽に対応する前記音楽情報を、前記音楽情報蓄積手段から抽出する音楽情報抽出手段と、
前記生成された気分内容情報に基づいて、前記実際に出力される音楽に対応する前記文字情報を、前記文字情報蓄積手段から抽出する文字情報抽出手段と、
前記生成された気分内容情報に基づいて、前記実際に出力される音楽に対応する前記効果音情報を、前記効果音情報蓄積手段から抽出する効果音情報抽出手段と、
を更に備え、
前記生成手段は、前記生成された内容情報と、前記抽出された文字情報と、前記抽出された効果音情報と、に基づいて前記抽出テンプレートを編集し、前記画像情報を生成することを特徴とする画像生成システム。 The image generation system according to claim 1,
Character information storage means for storing character information corresponding to characters output in parallel with the music and the image;
Sound effect information storage means for storing sound effect information corresponding to the sound output in parallel with the music and the image;
Acquisition means for acquiring mood information indicating a mood of a viewer who views the output music and images;
Analyzing the content of the acquired mood information, and generating mood content information corresponding to the content; mood content information generating means;
Music information extraction means for extracting from the music information storage means the music information corresponding to the music that is actually output based on the generated mood content information;
Character information extraction means for extracting the character information corresponding to the music that is actually output based on the generated mood content information from the character information storage means;
A sound effect information extracting means for extracting the sound effect information corresponding to the actually output music from the sound effect information accumulating means based on the generated mood content information;
Further comprising
The generation means edits the extraction template based on the generated content information, the extracted character information, and the extracted sound effect information, and generates the image information. Image generation system.
前記気分内容情報生成手段は、異なるタイミングで取得された複数の気分情報の内容を夫々解析し、当該各内容に対応する一の前記気分内容情報を生成することを特徴とする画像生成システム。 The image generation system according to claim 8 or 9,
The mood content information generation means analyzes the contents of a plurality of mood information acquired at different timings, and generates one mood content information corresponding to each content.
前記蓄積手段は、前記画像情報の生成に用いられた前記抽出テンプレートを、新たな前記画像テンプレートとして蓄積することを特徴とする画像生成システム。 The image generation system according to any one of claims 2, 3, 6 to 10,
The storage unit stores the extraction template used for generating the image information as a new image template.
当該画像システムが稼動している周囲の環境の変化を検出し、変化検出信号を生成する環境変化検出手段を更に備え、
前記生成された変化検出信号に基づいて前記画像情報を生成するための処理を実行することを特徴とするが画像生成システム。 In the image generation system according to any one of claims 1 to 11,
An environment change detecting means for detecting a change in the surrounding environment in which the image system is operating and generating a change detection signal;
An image generation system, wherein a process for generating the image information is executed based on the generated change detection signal.
前記蓄積手段に対して前記画像テンプレートを記録させる記録手段と、
を備えることを特徴とする蓄積装置。 The storage means in the image generation system according to any one of claims 1 to 11,
Recording means for causing the storage means to record the image template;
A storage device comprising:
前記蓄積されている複数の画像テンプレートの中から、実際に出力される前記音楽と並行して実際に出力されるべき前記画像に対応する一の前記画像テンプレートを抽出テンプレートとして抽出する抽出工程と、
前記抽出された抽出テンプレートを用いて、前記実際に出力されるべき画像に対応する画像情報を生成する生成工程と、
を備えることを特徴とする画像生成方法。 An image template that is a template of the contents of the image to be output in parallel with a plurality of types of music having different attributes, and a plurality of preset templates corresponding to each type of music An image generation method that is executed in an image generation system that includes storage means for storing the image template and generates the image using the image template,
An extraction step of extracting, as an extraction template, one image template corresponding to the image that is to be actually output in parallel with the music that is actually output, from among the plurality of stored image templates;
Using the extracted extraction template to generate image information corresponding to the image to be actually output;
An image generation method comprising:
相互に異なる属性を有する複数種類の前記音楽と並行して夫々出力されるべき前記画像の内容の雛形となる画像テンプレートであって、各種類の前記音楽に夫々対応して予め設定されている複数の画像テンプレートを蓄積する蓄積手段、
前記蓄積されている複数の画像テンプレートの中から、実際に出力される前記音楽と並行して実際に出力されるべき前記画像に対応する一の前記画像テンプレートを抽出テンプレートとして抽出する抽出手段、及び、
前記抽出された抽出テンプレートを用いて、前記実際に出力されるべき画像に対応する画像情報を生成する生成手段、
として機能させることを特徴とする画像生成用プログラム。 A computer included in an image generation system that generates an image output in parallel with music,
An image template that is a template for the contents of the image to be output in parallel with a plurality of types of music having different attributes, and a plurality of preset templates corresponding to each type of the music Storage means for storing image templates of
Extraction means for extracting one image template corresponding to the image that is to be actually output in parallel with the music that is actually output from the plurality of stored image templates, as an extraction template; and ,
Generating means for generating image information corresponding to the image to be actually output using the extracted extraction template;
An image generation program characterized by being caused to function as a computer program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004134242A JP2005318295A (en) | 2004-04-28 | 2004-04-28 | Image generation system and method, image generation program, and information recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004134242A JP2005318295A (en) | 2004-04-28 | 2004-04-28 | Image generation system and method, image generation program, and information recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005318295A true JP2005318295A (en) | 2005-11-10 |
Family
ID=35445266
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004134242A Pending JP2005318295A (en) | 2004-04-28 | 2004-04-28 | Image generation system and method, image generation program, and information recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005318295A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008048054A (en) * | 2006-08-11 | 2008-02-28 | Fujifilm Corp | Moving image generation method, program and apparatus |
JP2008066956A (en) * | 2006-09-06 | 2008-03-21 | Fujifilm Corp | Method, program, and apparatus for generating music image synchronized moving image scenario |
JP2011082689A (en) * | 2009-10-05 | 2011-04-21 | Kawai Musical Instr Mfg Co Ltd | Moving picture creation apparatus, computer program, and storage medium |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000078530A (en) * | 1998-08-28 | 2000-03-14 | Nec Corp | Information recorder, information recording method and recording medium |
JP2001167565A (en) * | 1999-12-08 | 2001-06-22 | Sanyo Electric Co Ltd | Digital recorder-reproducer using random accessible recording medium and recording-reproducing method of digital data |
JP2002099574A (en) * | 2000-09-26 | 2002-04-05 | Tsutaya Online:Kk | Content search system and collection and control system for content search data |
JP2002142188A (en) * | 2000-11-02 | 2002-05-17 | Canon Inc | Method and device for compiling dynamic image |
JP2002218369A (en) * | 2001-01-15 | 2002-08-02 | Hitachi Ltd | Unit and method for informing no-reproduced recording |
JP2002342206A (en) * | 2001-05-18 | 2002-11-29 | Fujitsu Ltd | Information-providing program, information-providing method and recording medium |
JP2003116099A (en) * | 2001-10-05 | 2003-04-18 | Olympus Optical Co Ltd | Electronic camera and image reproducing device |
JP2003209523A (en) * | 2002-01-17 | 2003-07-25 | Sharp Corp | System for displaying content list corresponding to dynamic state change of user |
JP2003208379A (en) * | 2002-01-17 | 2003-07-25 | Sharp Corp | Contents lists display system and contents viewing system depending on dynamic state of user |
JP2003219327A (en) * | 2001-09-28 | 2003-07-31 | Canon Inc | Image management device, image management method, control program, information processing system, image data management method, adaptor, and server |
JP2003283994A (en) * | 2002-03-27 | 2003-10-03 | Fuji Photo Film Co Ltd | Method and apparatus for compositing moving picture, and program |
JP2004048778A (en) * | 1993-02-04 | 2004-02-12 | Matsushita Electric Ind Co Ltd | Working situation management apparatus |
-
2004
- 2004-04-28 JP JP2004134242A patent/JP2005318295A/en active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004048778A (en) * | 1993-02-04 | 2004-02-12 | Matsushita Electric Ind Co Ltd | Working situation management apparatus |
JP2000078530A (en) * | 1998-08-28 | 2000-03-14 | Nec Corp | Information recorder, information recording method and recording medium |
JP2001167565A (en) * | 1999-12-08 | 2001-06-22 | Sanyo Electric Co Ltd | Digital recorder-reproducer using random accessible recording medium and recording-reproducing method of digital data |
JP2002099574A (en) * | 2000-09-26 | 2002-04-05 | Tsutaya Online:Kk | Content search system and collection and control system for content search data |
JP2002142188A (en) * | 2000-11-02 | 2002-05-17 | Canon Inc | Method and device for compiling dynamic image |
JP2002218369A (en) * | 2001-01-15 | 2002-08-02 | Hitachi Ltd | Unit and method for informing no-reproduced recording |
JP2002342206A (en) * | 2001-05-18 | 2002-11-29 | Fujitsu Ltd | Information-providing program, information-providing method and recording medium |
JP2003219327A (en) * | 2001-09-28 | 2003-07-31 | Canon Inc | Image management device, image management method, control program, information processing system, image data management method, adaptor, and server |
JP2003116099A (en) * | 2001-10-05 | 2003-04-18 | Olympus Optical Co Ltd | Electronic camera and image reproducing device |
JP2003209523A (en) * | 2002-01-17 | 2003-07-25 | Sharp Corp | System for displaying content list corresponding to dynamic state change of user |
JP2003208379A (en) * | 2002-01-17 | 2003-07-25 | Sharp Corp | Contents lists display system and contents viewing system depending on dynamic state of user |
JP2003283994A (en) * | 2002-03-27 | 2003-10-03 | Fuji Photo Film Co Ltd | Method and apparatus for compositing moving picture, and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008048054A (en) * | 2006-08-11 | 2008-02-28 | Fujifilm Corp | Moving image generation method, program and apparatus |
JP2008066956A (en) * | 2006-09-06 | 2008-03-21 | Fujifilm Corp | Method, program, and apparatus for generating music image synchronized moving image scenario |
JP4660861B2 (en) * | 2006-09-06 | 2011-03-30 | 富士フイルム株式会社 | Music image synchronized video scenario generation method, program, and apparatus |
JP2011082689A (en) * | 2009-10-05 | 2011-04-21 | Kawai Musical Instr Mfg Co Ltd | Moving picture creation apparatus, computer program, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102163339B (en) | Signal conditioning package, information processing method and program | |
CN101185138B (en) | Display device | |
US20040175159A1 (en) | Searchable DVD incorporating metadata | |
US8713069B2 (en) | Playlist search device, playlist search method and program | |
KR960038911A (en) | KARAOKE RECORDING MEDIUM, METHOD FOR REPRODUCING KARAOKE DATA FROM THIS RECORDING MEDIUM, AND RECORDING APPARATUS AND METHOD FOR RECORDING KARAOKE DATA IN RECORDING MEDIUM | |
CN1998050A (en) | Method and apparatus for playing multimedia play list and storing media therefor | |
JP2003330777A (en) | Data file reproduction device, recording medium, data file recording device, data file recording program | |
KR20090026942A (en) | Method and apparatus for recording multimedia data by automatically generating/updating metadata | |
JP2009266005A (en) | Image retrieval method, image retrieval program, music player, and article for music retrieval | |
KR20110043897A (en) | Apparatus and method for generating play list for multimedia based on user experience in portable multimedia player | |
JP4196052B2 (en) | Music retrieval / playback apparatus and medium on which system program is recorded | |
JP5146114B2 (en) | Music player | |
JP2004153764A (en) | Meta-data production apparatus and search apparatus | |
JP2005318295A (en) | Image generation system and method, image generation program, and information recording medium | |
JP4973409B2 (en) | Audio apparatus and music playback program | |
US20120271830A1 (en) | Data processing device | |
JP2007226880A (en) | Reproduction device, search method, and computer program | |
JP2005202453A (en) | Content reproduction device, content reproduction method and program | |
CN101925897A (en) | Method of suggesting accompaniment tracks for synchronised rendering with content data item | |
JP6649745B2 (en) | Content data management device, program, and content data management method | |
JP5192033B2 (en) | Content playback apparatus and program | |
JP2008048054A (en) | Moving image generation method, program and apparatus | |
JP2006323792A (en) | Metadata integration device and program | |
JP4263151B2 (en) | Content reproduction pattern generation apparatus, content reproduction system, and content reproduction pattern generation method | |
KR19990070912A (en) | How to display a singer's photo of a song half cycle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070320 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080930 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081201 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090324 |