JP2005318295A - Image generation system and method, image generation program, and information recording medium - Google Patents

Image generation system and method, image generation program, and information recording medium Download PDF

Info

Publication number
JP2005318295A
JP2005318295A JP2004134242A JP2004134242A JP2005318295A JP 2005318295 A JP2005318295 A JP 2005318295A JP 2004134242 A JP2004134242 A JP 2004134242A JP 2004134242 A JP2004134242 A JP 2004134242A JP 2005318295 A JP2005318295 A JP 2005318295A
Authority
JP
Japan
Prior art keywords
image
information
music
template
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004134242A
Other languages
Japanese (ja)
Inventor
Yasushi Ebihara
靖 海老原
Yukiko Oku
由紀子 奥
Izumi Ota
泉 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2004134242A priority Critical patent/JP2005318295A/en
Publication of JP2005318295A publication Critical patent/JP2005318295A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image generation system for enabling a viewer himself or herself to prepare an image which is rich in variety without anxiety in preparing continuous images to be reproduced with music. <P>SOLUTION: This image generation system S for generating an image to be output in parallel with the music includes a database 1 for storing a plurality of templates preliminarily set in accordance with various types of pieces of music being templates as the models of the contents of images to be output in parallel with the plurality of types of pieces of music having mutually different attributes; and a template control part 12 for extracting one template corresponding to an image to be actually output in parallel with the music to be actually output from the plurality of stored templates, and for generating image information corresponding to the image to be actually output by using the extracted extraction template. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本願は、画像生成システム、画像生成方法、画像生成用プログラム並びに情報記録媒体の技術分野に属し、より詳細には、音楽と並行して同時に再生・出力される画像を生成する画像生成システム及び画像生成方法並びに当該画像の生成に用いられる画像生成用プログラム及び当該画像生成用プログラムを記録した情報記録媒体の技術分野に属する。   The present application belongs to the technical field of an image generation system, an image generation method, an image generation program, and an information recording medium, and more specifically, an image generation system and an image for generating an image that is reproduced and output simultaneously with music The present invention belongs to a technical field of a generation method, an image generation program used for generating the image, and an information recording medium on which the image generation program is recorded.

近年のデジタルスチルカメラの普及に伴い、当該デジタルスチルカメラにより撮影された画像と、音楽と、を組み合わせて一つのコンテンツを撮影者独自に作成することも可能となっている。この点に関する従来技術として、以下の特許文献1に開示されているものがある。
特開2001−339682(図2、図7及び図14)
With the spread of digital still cameras in recent years, it is also possible to create one piece of content independently by combining an image photographed by the digital still camera and music. As a prior art regarding this point, there is one disclosed in Patent Document 1 below.
JP-A-2001-339682 (FIGS. 2, 7 and 14)

この特許文献1に開示されている従来の技術では、音楽の再生時間を取得して対応する画像の再生時間を決定し、その音楽と共に再生(表示)される画像を切り替える切替タイミングを、ある一定の時間、若しくは視聴者が任意に設定した時間、或いは音楽の小節の検知による自動設定、更には音楽の特徴音の検知による自動設定により設定している。また、複数の当該画像の切替パターンについては視聴者が任意に設定する音楽のジャンルにより数種類のパターンから予め設定されている。   In the conventional technique disclosed in Patent Document 1, the playback time of music is acquired, the playback time of the corresponding image is determined, and the switching timing for switching the image played back (displayed) with the music is set to a certain level. Or a time arbitrarily set by the viewer, or automatic setting based on detection of a musical measure, and further automatic setting based on detection of a characteristic sound of music. Further, a plurality of switching patterns of the images are set in advance from several types of patterns depending on the music genre arbitrarily set by the viewer.

しかしながら、上記した従来の技術によると、視聴者により作成される連続画像の変化のバリエーションが限られてしまい、特に同一音楽に対応する複数の画像を作成する場合、視聴者が任意で編集しない限りその画像の変化態様が単一若しくは似通ったものとなってしまい、結果として、作成した画像を音楽と共に再生しても、その聴取者が飽きてしまう場合が多いと言う問題点があった。   However, according to the above-described conventional technology, variations in the variation of continuous images created by the viewer are limited, and in particular, when creating a plurality of images corresponding to the same music, unless the viewer edits arbitrarily. As a result, there is a problem that the listener is often bored even when the created image is reproduced together with music.

そこで、本願は上記の問題点に鑑みて為されたもので、その目的の一例は、音楽と共に再生される連続画像を視聴者自ら作成する場合に、飽きることがなく変化に富んだ画像を作成することが可能な画像生成システム及び画像生成方法並びに当該画像の生成に用いられる画像生成用プログラム及び当該画像生成用プログラムを記録した情報記録媒体を提供することにある。   Therefore, the present application was made in view of the above problems, and an example of the purpose is to create images that are rich in change without getting bored when viewers themselves create continuous images that are played along with music. An image generation system and an image generation method that can be used, an image generation program used for generating the image, and an information recording medium on which the image generation program is recorded.

上記の課題を解決するために、請求項1に記載の発明は、音楽と並行して出力される画像を生成する画像生成システムにおいて、相互に異なる属性を有する複数種類の前記音楽と並行して夫々出力されるべき前記画像の内容の雛形となる画像テンプレートであって、各種類の前記音楽に夫々対応して予め設定されている複数の画像テンプレートを蓄積するデータベース等の蓄積手段と、前記蓄積されている複数の画像テンプレートの中から、実際に出力される前記音楽と並行して実際に出力されるべき前記画像に対応する一の前記画像テンプレートを抽出テンプレートとして抽出するテンプレート制御部等の抽出手段と、前記抽出された抽出テンプレートを用いて、前記実際に出力されるべき画像に対応する画像情報を生成するテンプレート制御部等の生成手段と、を備える。   In order to solve the above-described problem, the invention according to claim 1 is an image generation system for generating an image output in parallel with music, and in parallel with a plurality of types of music having different attributes. Storage templates such as a database for storing a plurality of preset image templates corresponding to each type of music, each of which is a template for the contents of the image to be output, and the storage Extraction of a template control unit or the like that extracts one image template corresponding to the image that is actually output in parallel with the music that is actually output from among a plurality of image templates that are actually output And a template for generating image information corresponding to the image to be actually output using the extracted extraction template And a generation means such as control unit.

上記の課題を解決するために、請求項14に記載の発明は、相互に異なる属性を有する複数種類の前記音楽と並行して夫々出力されるべき前記画像の内容の雛形となる画像テンプレートであって、各種類の前記音楽に夫々対応して予め設定されている複数の画像テンプレートを蓄積する蓄積手段を備え、当該画像テンプレートを用いて前記画像を生成する画像生成システムにおいて実行される画像生成方法であって、前記蓄積されている複数の画像テンプレートの中から、実際に出力される前記音楽と並行して実際に出力されるべき前記画像に対応する一の前記画像テンプレートを抽出テンプレートとして抽出する抽出工程と、前記抽出された抽出テンプレートを用いて、前記実際に出力されるべき画像に対応する画像情報を生成する生成工程と、を備える。   In order to solve the above problem, an invention according to claim 14 is an image template that is a template of the contents of the image to be output in parallel with the plurality of types of music having different attributes. An image generation method executed in an image generation system that includes a storage unit that stores a plurality of preset image templates corresponding to each type of music, and generates the image using the image template The one image template corresponding to the image to be actually output in parallel with the actually output music is extracted as an extraction template from the plurality of stored image templates. Using the extraction step and the extracted extraction template, a generator that generates image information corresponding to the image to be actually output And, equipped with a.

上記の課題を解決するために、請求項15に記載の発明は、音楽と並行して出力される画像を生成する画像生成システムに含まれるコンピュータを、相互に異なる属性を有する複数種類の前記音楽と並行して夫々出力されるべき前記画像の内容の雛形となる画像テンプレートであって、各種類の前記音楽に夫々対応して予め設定されている複数の画像テンプレートを蓄積する蓄積手段、前記蓄積されている複数の画像テンプレートの中から、実際に出力される前記音楽と並行して実際に出力されるべき前記画像に対応する一の前記画像テンプレートを抽出テンプレートとして抽出する抽出手段、及び、前記抽出された抽出テンプレートを用いて、前記実際に出力されるべき画像に対応する画像情報を生成する生成手段、として機能させる。   In order to solve the above problems, the invention according to claim 15 is directed to a computer included in an image generation system that generates an image output in parallel with music, and a plurality of types of the music having different attributes. Storage means for storing a plurality of preset image templates corresponding to each type of music, each of which is a template of the content of the image to be output in parallel Extraction means for extracting, as an extraction template, one image template corresponding to the image that is to be actually output from the plurality of image templates that are actually output in parallel with the music; and The extracted extraction template is used to function as generation means for generating image information corresponding to the image to be actually output.

上記の課題を解決するために、請求項16に記載の発明は、請求項15に記載の画像生成用プログラムが前記コンピュータで読取可能に記録されている。   In order to solve the above-mentioned problem, in the invention described in claim 16, the image generation program described in claim 15 is recorded so as to be readable by the computer.

次に、本願を実施するための最良の形態について、図1乃至図15に基づいて説明する。なお、以下に説明する各実施形態は、音楽としての曲に係る曲情報を複数蓄積し、視聴者からの要求に応じて当該曲を再生すると共に、その曲の内容に相応しい画像をデジタルスチルカメラで撮影され、収録又は保存された画像に基づいて自動作成する画像生成システムに対して本願を適用した場合の実施の形態である。   Next, the best mode for carrying out the present application will be described with reference to FIGS. Each embodiment described below accumulates a plurality of pieces of song information relating to a song as music, reproduces the song in response to a request from a viewer, and displays an image suitable for the content of the song. This is an embodiment in the case where the present application is applied to an image generation system that automatically creates an image based on an image that has been shot and recorded or stored.

(I)第1実施形態
初めに、本願に係る第1実施形態について、図1乃至図7を用いて説明する。なお、図1は実施形態に係る画像生成システムの概要構成を示すブロック図であり、図2は後述するテンプレートの入手元を例示する図であり、図3は実施形態に係る曲情報及び素材画像に付加されている付加情報を例示する図であり、図4は当該画像生成システムにおいて再生する曲等を検索する際に用いられる検索座標空間を示す図であり、図5は当該画像生成システムにおいて再生する曲等を検索する際に用いられるキーワードを例示する図であり、図6は後述するセンサにより検出され得る環境の変化を例示する図であり、図7は第1実施形態に係る曲と画像の再生処理を示すフローチャートである。
(I) First Embodiment First, a first embodiment according to the present application will be described with reference to FIGS. 1 is a block diagram illustrating a schematic configuration of the image generation system according to the embodiment, FIG. 2 is a diagram illustrating a source of a template to be described later, and FIG. 3 is a song information and material image according to the embodiment. FIG. 4 is a diagram illustrating a search coordinate space used when searching for music to be reproduced in the image generation system, and FIG. 5 is a diagram illustrating the additional information added to the image generation system. FIG. 6 is a diagram illustrating keywords used when searching for songs to be played back, FIG. 6 is a diagram illustrating changes in the environment that can be detected by a sensor described later, and FIG. 7 is a diagram illustrating songs according to the first embodiment. It is a flowchart which shows the reproduction | regeneration processing of an image.

図1に示すように、第1実施形態に係る画像生成システムSは、不揮発性のメモリ又はハードディスク等の記録媒体からなる蓄積手段、画像蓄積手段、文字情報蓄積手段及び効果音情報蓄積手段としてのデータベース1と、検索処理部7と、入力手段としての操作部8と、画像入力部9と、インターネット16(又は放送等の外部)から情報を取得する受信部10と、楽曲解析部11と、抽出手段、生成手段、解析手段、素材画像情報抽出手段、キーワード情報抽出手段、付加情報抽出手段、キーワード内容情報生成手段、音楽情報抽出手段、画像情報抽出手段及び効果音情報抽出手段としてのテンプレート制御部12と、テンプレート入出力部13と、ディスプレイ等からなる動作状態表示用の表示部14と、スピーカ17に接続されている再生制御部15と、温度センサ及び時計等の各種検知装置を含む環境変化検出手段としてのセンサ18と、上記各構成部材を相互に情報の授受が可能に接続するバス19と、により構成されている。なお、図示しない外部装置内に、上記受信部10、上記表示部14、上記スピーカ17及び上記センサ18を設けることにより、第1実施形態に係る画像生成システムSから、受信部10、表示部14、スピーカ17及びセンサ18を分離してもよい。   As shown in FIG. 1, the image generation system S according to the first embodiment is a storage unit composed of a recording medium such as a non-volatile memory or a hard disk, an image storage unit, a character information storage unit, and a sound effect information storage unit. A database 1, a search processing unit 7, an operation unit 8 as input means, an image input unit 9, a receiving unit 10 that acquires information from the Internet 16 (or outside the broadcast etc.), a music analysis unit 11, Template control as extraction means, generation means, analysis means, material image information extraction means, keyword information extraction means, additional information extraction means, keyword content information generation means, music information extraction means, image information extraction means, and sound effect information extraction means Connected to a display unit 14, a template input / output unit 13, a display unit 14 for displaying an operation state, such as a display, and a speaker 17. The reproduction control unit 15, a sensor 18 as an environmental change detection unit including various detection devices such as a temperature sensor and a clock, and a bus 19 that connects the above constituent members to each other so that information can be exchanged between them. Yes. In addition, by providing the receiving unit 10, the display unit 14, the speaker 17, and the sensor 18 in an external device (not shown), the receiving unit 10 and the display unit 14 are provided from the image generation system S according to the first embodiment. The speaker 17 and the sensor 18 may be separated.

また、上記データベース1は、複数のテンプレートを蓄積記録するテンプレート記録部2と、デジタルスチルカメラにより撮影された静止画像等であって表示部14において表示される静止画像に対応する静止画像情報を蓄積記録する静止画像記録部3と、表示部14において表示される動画像に対応する動画像情報を記録する動画像記録部4と、表示部14において文字を表示するための文字情報を記録する文字情報記録部5と、曲及び画像と共に再生される効果音に対応する効果音情報を記録する効果音情報記録部6と、により構成されている。   The database 1 also stores a template recording unit 2 that stores and records a plurality of templates, and still image information corresponding to a still image that is captured by a digital still camera and displayed on the display unit 14. Still image recording unit 3 for recording, moving image recording unit 4 for recording moving image information corresponding to the moving image displayed on display unit 14, and characters for recording character information for displaying characters on display unit 14 An information recording unit 5 and a sound effect information recording unit 6 that records sound effect information corresponding to the sound effect reproduced together with the tune and the image are configured.

次に、全体動作を説明する。   Next, the overall operation will be described.

先ず、データベース1を構成する上記各記録部は、上記テンプレート、静止画像情報、動画像情報、文字情報及び効果音情報を、夫々の属性を示すフォルダ名又はディレクトリ名が冠されている階層構造を形成して夫々記録する。   First, each recording unit constituting the database 1 has a hierarchical structure in which the template, still image information, moving image information, character information, and sound effect information are crowned with folder names or directory names indicating respective attributes. Form and record each.

このとき、当該テンプレートとは、再生・出力されるべき曲と並行して表示部14上に表示されるべき画像(動画像)を生成する際に雛型になるものであり、後述する如く、各曲の属性等に対応するように画像に切換タイミングや表示順序等が予め設定されたものがテンプレート記録部2内に複数格納されている。そして、当該テンプレートとして記述されている情報(切換タイミング等)に則って再生すべき画像が連続して再生されるものである。   At this time, the template is a template for generating an image (moving image) to be displayed on the display unit 14 in parallel with the music to be reproduced / output. A plurality of images whose switching timing, display order, etc. are preset in the image so as to correspond to the attributes of each song are stored in the template recording unit 2. Then, images to be reproduced are continuously reproduced in accordance with information (such as switching timing) described as the template.

また、当該テンプレートは、図2に例示する如く、元々テンプレート記録部2に記録されていたデフォルトテンプレートの他に、図1に示すテンプレート入出力部13を介して外部から取得され得るものである。そして、当該外部から取得されるテンプレートとして具体的には、例えば図2に例示するような単独追加テンプレート、配信単独追加テンプレート又はミュージック付テンプレート等が挙げられる。   In addition to the default template originally recorded in the template recording unit 2, the template can be acquired from the outside via the template input / output unit 13 shown in FIG. 1, as illustrated in FIG. Specific examples of the template acquired from the outside include a single addition template, a distribution single addition template, a template with music, and the like as exemplified in FIG.

一方、静止画像情報記録部3に記録される静止画像は、上記デジタルスチルカメラで撮影されたものが格納されている他に、インターネット16等から画像入力部9を介して入力された静止画像も含まれている。このとき、当該静止画像の夫々には、例えば図3に例示するような付加情報が、静止画像記録部3内に当該静止画像を記録させる際に付加される。   On the other hand, the still image recorded in the still image information recording unit 3 is not only the one captured by the digital still camera, but also the still image input from the Internet 16 or the like via the image input unit 9. include. At this time, additional information as exemplified in FIG. 3 is added to each still image when the still image is recorded in the still image recording unit 3.

更に、動画像記録部4に記録されている動画像は、主としてインターネット16等から画像入力部9を介して入力された動画像である。このとき、当該動画像自体にも、上記静止画像記録部3内に記録されている静止画像と同様の、図3に例示する如き付加情報が付加されている。   Furthermore, the moving image recorded in the moving image recording unit 4 is a moving image input mainly via the image input unit 9 from the Internet 16 or the like. At this time, additional information as illustrated in FIG. 3 is added to the moving image itself, similar to the still image recorded in the still image recording unit 3.

更にまた、文字情報記録部5に記録されている文字情報は、画像生成システムSの視聴者が過去において独自に入力したフレーズや、他の動画像と共に取得した字幕等が、別個に文字情報として記録されているものである。   Furthermore, the character information recorded in the character information recording unit 5 includes, as character information separately, phrases that the viewer of the image generation system S originally input in the past, subtitles acquired together with other moving images, and the like. It is what is recorded.

また、効果音情報記録部6に記録されている効果音情報は、当該視聴者が過去において独自に録音した環境音や、他の動画像と共に取得した音等が、効果音として別個に記録されているものである。   The sound effect information recorded in the sound effect information recording unit 6 is recorded separately as sound effects such as environmental sounds that the viewer originally recorded in the past, sounds acquired together with other moving images, and the like. It is what.

次に、検索処理部7は、後述する画像生成処理におけるキーワード検索及び曲情報の検索等を、データベース1内に格納されている全ての情報を対象として行う。ここで、当該検索に用いられる検索座標空間について、具体的に図4を用いて説明する。   Next, the search processing unit 7 performs keyword search and song information search in an image generation process, which will be described later, on all information stored in the database 1. Here, the search coordinate space used for the search will be specifically described with reference to FIG.

実施形態のデータベース1内に格納されている全ての情報は、図4に示すように、曲のテンポを横軸とし曲のコード構成を縦軸とする座標空間内の座標に一対一に対応付けられている。すなわち、図2においては、データベース1内に記録されている各曲のテンポ(スピード(より具体的にはbit per minute値))の当該各曲内における平均値をX軸とし、更に各曲におけるメジャーコード及びマイナーコードのその曲に占める割合をY軸とした座標空間を予め設定し、データベース1内に記録されているテンプレート、静止画像、動画像、曲、効果音及び文字情報(以下、適宜テンプレート等と称する)の夫々が、その属性として当該座標空間内のどの位置に属するかが、当該各テンプレート等毎に一意に決められている。そして、その座標空間内の座標値(X、Y)が、当該テンプレート等毎に一対一に対応付けられた上でデータベース1内に記録されている。そして、検索処理部7は、当該座標値を手掛かりに、その時に所望されているテンプレート等をデータベース1内において検索する。   As shown in FIG. 4, all the information stored in the database 1 of the embodiment is in one-to-one correspondence with coordinates in a coordinate space in which the tempo of the music is the horizontal axis and the chord configuration of the music is the vertical axis. It has been. That is, in FIG. 2, the average value of the tempo (speed (more specifically, bit per minute value)) of each song recorded in the database 1 is set to the X axis, and further, A coordinate space with the major code and minor code occupying the song as a Y axis is set in advance, and templates, still images, moving images, songs, sound effects, and character information (hereinafter referred to as appropriate) recorded in the database 1 are set. Each position of each of the templates and the like is uniquely determined as to which position in the coordinate space as an attribute. Then, the coordinate values (X, Y) in the coordinate space are recorded in the database 1 in a one-to-one correspondence for each template or the like. Then, the search processing unit 7 searches the database 1 for a template or the like desired at that time using the coordinate value as a clue.

次に、当該検索処理部7における検索処理に用いられるキーワードについて、具体的に図5に例示しつつ説明する。   Next, keywords used for search processing in the search processing unit 7 will be described specifically with reference to FIG.

検索処理部7におけるデータベース1を対象とした検索処理においては、先ず、いわゆるフリーキーワードとして予め図5(a)に示す如きキーワードが、大まかな分類項目毎に予め設定されている。そして、検索処理部7は、実際の検索処理においてはこれらのキーワードを候補として表示し視聴者に選ばせても良いし、或いは視聴者から自由に入力されたキーワードと同一又は類似のキーワードを抽出して当該検索処理に用いる。そして、これらのキーワードと、データベース1を構成するフォルダ名又はディレクトリ名等と、を比較しながら、そのキーワードに対応する。   In the search processing for the database 1 in the search processing unit 7, first, keywords as shown in FIG. 5A are set in advance for each rough classification item as so-called free keywords. Then, in the actual search process, the search processing unit 7 may display these keywords as candidates to be selected by the viewer, or extract a keyword that is the same as or similar to the keyword freely input by the viewer. And used for the search process. Then, these keywords are corresponded to the keywords while comparing the names of folders or directories constituting the database 1.

一方、図5(a)に例示するキーワードに加えて、実施形態の画像生成システムSでは、図4に示した座標空間に予め対応付けられているキーワード(図5(b)参照。以下、単位座標対応キーワードと称する)をも検索処理に用いる。このとき、当該各座標対応キーワードは、図4に示す座標空間内の一定範囲の夫々について一対一に対応付けられている。図4に示す例では、座標対応キーワード「ノリノリ」の範囲が当該座標空間内の右上方に設定されており、その中には一の曲と一のテンプレートが対応付けられていることになる。   On the other hand, in addition to the keyword illustrated in FIG. 5A, in the image generation system S of the embodiment, the keyword (see FIG. 5B) previously associated with the coordinate space shown in FIG. (Also referred to as a coordinate-corresponding keyword) is also used for the search process. At this time, the coordinate-corresponding keywords are associated one-to-one with respect to each of a certain range in the coordinate space shown in FIG. In the example shown in FIG. 4, the range of the coordinate correspondence keyword “NORNORI” is set at the upper right in the coordinate space, and one song and one template are associated with each other.

次に、センサ18は、上述した如く温度計や、画像生成システムSが車載用である場合の速度計等を含んでおり、後述するトリガとしての機能を有している。このとき、当該センサ18を介して外部から取得する情報としては、例えば図6に示す情報が挙げられる。なお、図6に示す外部環境情報は、実施形態に係る画像生成システムが主に車載用として使用される場合を想定した外部環境情報であり、図示しないいわゆるGPS(Global Positioning System)システム、速度計、室温計、回転計及び照度センサ等から取得されるものである。   Next, the sensor 18 includes a thermometer, a speedometer in the case where the image generation system S is for in-vehicle use, and the like as described above, and has a function as a trigger described later. At this time, examples of information acquired from the outside via the sensor 18 include information shown in FIG. The external environment information shown in FIG. 6 is external environment information assuming that the image generation system according to the embodiment is mainly used for in-vehicle use. The so-called GPS (Global Positioning System) system, speedometer (not shown) , Room temperature meter, tachometer, illuminance sensor and the like.

なお、以下の説明では、図6に示す如き車載用のセンサ18について説明するが、これ以外に、本願に係るセンサとしては、例えば、本願に係る画像生成システムを店舗用として用いる場合には温度・湿度センサ、顧客数センサ、照明又はタイマなどがあり、また本願に係る画像生成システムを家庭用として用いる場合には温度・湿度センサ、生体センサ、照明又はタイマ等がある。   In the following description, an in-vehicle sensor 18 as shown in FIG. 6 will be described. In addition to this, as a sensor according to the present application, for example, when the image generation system according to the present application is used for a store, the temperature There are humidity sensors, customer number sensors, lighting or timers, and when the image generation system according to the present application is used for home use, there are temperature / humidity sensors, biological sensors, lighting or timers, and the like.

更に、操作部8においては、後述する画像生成処理において必要な操作が視聴者により行われ、当該操作に対応する操作信号がバス19を介して操作対象である各構成部材に出力される。   Further, in the operation unit 8, an operation necessary for image generation processing described later is performed by the viewer, and an operation signal corresponding to the operation is output to each constituent member to be operated through the bus 19.

また、画像入力部9は、必要に応じて静止画像、動画像又は曲を外部から取得してバス19を介してデータベース1等へ出力する。   Further, the image input unit 9 acquires a still image, a moving image, or a song from the outside as necessary, and outputs it to the database 1 or the like via the bus 19.

次に、曲解析部11は、各曲のスピード及びコード進行を解析し、その結果を検索処理部7等にバス19を介して出力する。   Next, the song analysis unit 11 analyzes the speed and chord progression of each song and outputs the result to the search processing unit 7 and the like via the bus 19.

また、再生制御部15は、後述する画像生成処理において生成されたテンプレートに基づいて画像及び曲等を再生し、再生された曲及び効果音に対応する曲情報及び効果音情報をスピーカ17に出力して放音させると共に、当該画像を表示部14に出力して表示させる。なお、再生制御部15は、再生するべき曲が指定されたとき、これを図示しないCD等の記録媒体から読み出しスピーカ17を介して再生する機能も有している。   Further, the reproduction control unit 15 reproduces an image and a song based on a template generated in an image generation process to be described later, and outputs song information and sound effect information corresponding to the reproduced song and sound effect to the speaker 17. The sound is emitted and the image is output and displayed on the display unit 14. The reproduction control unit 15 also has a function of reading out a song to be reproduced from a recording medium such as a CD (not shown) through the speaker 17 when a song to be reproduced is designated.

一方、表示部14は、画像生成システムS自体の動作状態を示す情報を、バス19を介して取得し、当該動作状態に対応する画像を表示部14に出力する。   On the other hand, the display unit 14 acquires information indicating the operation state of the image generation system S itself via the bus 19 and outputs an image corresponding to the operation state to the display unit 14.

また、テンプレート入出力部13は、上述したようにテンプレートを外部から取得する場合又は外部へ出力する場合に、そのための入出力インターフェースとして機能する。   Further, as described above, the template input / output unit 13 functions as an input / output interface for acquiring a template from the outside or outputting the template to the outside.

最後に、テンプレート制御部12は、後述する画像生成処理実行の中心となるものであり、具体的には図示しないCPU及び揮発性メモリ等が構成されている。   Finally, the template control unit 12 is the center of execution of an image generation process described later, and specifically includes a CPU and a volatile memory (not shown).

次に、第1実施形態に係る画像生成処理について、具体的に図7を用いて説明する。なお、図7に示す画像生成処理は、曲と並行して再生される画像の生成に加えて、当該生成された画像の表示及び対応する曲の再生まで行うものである。   Next, the image generation processing according to the first embodiment will be specifically described with reference to FIG. Note that the image generation processing shown in FIG. 7 includes not only the generation of an image that is played back in parallel with a song, but also the display of the generated image and the playback of the corresponding song.

図7に示すように、第1実施形態に係る画像生成処理においては、初めに、再生されることが所望されている曲に対応する曲情報を再生制御部15において図示しないCD等から読み込み(ステップS1)、これを曲解析部11においてその内容(スピード及びコード構成)を解析する(ステップS2)。   As shown in FIG. 7, in the image generation processing according to the first embodiment, first, song information corresponding to a song desired to be reproduced is read from a CD or the like (not shown) in the reproduction control unit 15 ( In step S1), the contents (speed and chord configuration) are analyzed in the music analysis unit 11 (step S2).

次に、その解析結果と図4に示す座標空間とを比較し、その再生すべき曲の当該座標空間内における座標値を定義する(ステップS3)。   Next, the analysis result is compared with the coordinate space shown in FIG. 4, and the coordinate value in the coordinate space of the music to be reproduced is defined (step S3).

次に、その定義付けられた座標値を有している静止画像又は動画像を静止画像記録部3又は動画像情報記録部4内において検索して読み込み(ステップS4)、更にその定義付けられた座標値を有しているテンプレート(基本テンプレート)をテンプレート記録部2内において検索して読み込む(ステップS5)。   Next, the still image or moving image having the defined coordinate value is retrieved and read in the still image recording unit 3 or the moving image information recording unit 4 (step S4), and further defined. A template having a coordinate value (basic template) is searched and read in the template recording unit 2 (step S5).

そして、上記ステップS2乃至S4において取得した各情報を用いて、上記基本テンプレートを基にして新たなテンプレートをテンプレート制御部12において作成する(ステップS6)。   Then, a new template is created in the template control unit 12 based on the basic template using the information acquired in the steps S2 to S4 (step S6).

ここで、当該ステップS6の処理について具体的には、ステップS4において取得した画像の表示切換順序、当該画像の表示切換タイミング、対応する文字情報の表示タイミング、対応する効果音の再生タイミング、当該取得した画像の表示切換パターン並びに当該取得した画像の表示効果態様が、夫々決定される。このとき、画像の表示切換順序、画像の表示切換パターン並びに画像の表示効果態様は、例えば一度表示された画像及び一度採用した表示切換パターン並びに表示効果態様は表示又は採用しないように選択しつつ且つランダムに当該表示切換順序、表示切換パターン及び表示態様効果が決定される。また、画像の表示切換タイミング、文字情報の表示タイミング及び効果音の再生タイミングは、例えばステップS2における解析によって得られたコードの切換タイミングにおいて夫々の表示切換又は再生切換を行うように決定される。   Here, specifically, the processing of step S6 specifically includes the display switching order of the image acquired in step S4, the display switching timing of the image, the display timing of the corresponding character information, the playback timing of the corresponding sound effect, the acquisition The display switching pattern of the acquired image and the display effect mode of the acquired image are respectively determined. At this time, the image display switching order, the image display switching pattern, and the image display effect mode are selected so that, for example, the image displayed once and the display switching pattern and display effect mode adopted once are displayed or not adopted. The display switching order, display switching pattern, and display mode effect are determined at random. Further, the display switching timing of the image, the display timing of the character information, and the playback timing of the sound effect are determined so that the respective display switching or playback switching is performed at the switching timing of the chord obtained by the analysis in step S2, for example.

そして、ステップS6の処理により新たなテンプレートが作成されると、それに沿って再生すべき曲と並行して作成したテンプレートに含まれる切換タイミング及び切換順序に則った画像表示が実行されると共に文字情報又は効果音の出力が実行される(ステップS7)。   When a new template is created by the processing in step S6, image display is executed in accordance with the switching timing and switching order included in the template created in parallel with the music to be reproduced along with the character information. Alternatively, a sound effect is output (step S7).

そして、その曲と画像の再生・表示が完了したとき、曲の再生を終了するか否かを表示部14や図示しないインジケータ等において確認し(ステップS8)、終了するときは(ステップS8;YES)、そのまま第1実施形態に係る画像生成処理並びに曲及び画像の再生・表示処理を終了し、一方、同じ曲について他の画像を用いた再生を行うときは(ステップS8;NO)、再度上記ステップS4に戻って処理を再開する。   Then, when the reproduction and display of the song and the image are completed, it is confirmed on the display unit 14 and an indicator (not shown) whether or not the reproduction of the song is finished (step S8). ), The image generation process and the music and image playback / display process according to the first embodiment are finished as they are, and when the same music is played back using another image (step S8; NO), the above is repeated. Returning to step S4, the processing is resumed.

以上説明したように、第1実施形態に係る画像生成処理によれば、複数のテンプレートを予め蓄積しておき、実際に出力される曲に対応するテンプレートを抽出してその曲と共に出力されるべき画像を生成するので、曲と共に再生される連続画像を視聴者自ら作成する場合に、飽きることがなく変化に富んだ画像を作成することができる。   As described above, according to the image generation processing according to the first embodiment, a plurality of templates should be accumulated in advance, and a template corresponding to a song that is actually output should be extracted and output together with the song. Since the image is generated, when the viewer himself / herself creates a continuous image to be reproduced together with the music, an image rich in change can be created without getting tired.

また、実際に出力される曲の内容を解析し、その内容に対応するテンプレートを抽出して画像を生成するので、当該曲により相応しい画像を生成することができる。   In addition, since the contents of a song that is actually output are analyzed and a template corresponding to the contents is extracted to generate an image, an image suitable for the song can be generated.

更に、実際に出力される曲の内容に沿った画像を選択してテンプレートを新たに作成し、それを用いて画像を生成するので、最初から画像を作成するよりも簡易にその曲に適した画像を生成することができる。   In addition, since a template is newly created by selecting an image according to the content of the song that is actually output and an image is generated using it, it is more suitable for that song than when creating an image from the beginning. An image can be generated.

(II)第2実施形態
次に、本願に係る他の実施形態である第2実施形態について、図8を用いて説明する。なお、図8は、第2実施形態に係る曲と画像の再生処理を示すフローチャートである。
(II) Second Embodiment Next, a second embodiment which is another embodiment according to the present application will be described with reference to FIG. FIG. 8 is a flowchart showing a music and image reproduction process according to the second embodiment.

また、第2実施形態に係る画像生成システムの構成は、第1実施形態に係る画像生成システムSの構成と同様であるので、細部の説明は省略する。更に、図8に示すフローチャートにおいて、図7に示すフローチャートと同様の処理については、同様のステップ番号を付して細部の説明は省略する。   The configuration of the image generation system according to the second embodiment is the same as the configuration of the image generation system S according to the first embodiment, and thus detailed description thereof is omitted. Further, in the flowchart shown in FIG. 8, the same processing as in the flowchart shown in FIG.

上述した第1実施形態においては、再生すべき曲の内容を解析し、その内容に相応しいテンプレートを新たに作成して画像を生成する場合について説明したが、以下に説明する第2実施形態においては、視聴者が指定したキーワードにより曲と画像を選択する。   In the first embodiment described above, the content of the music to be played back is analyzed, and a template suitable for the content is newly generated to generate an image. However, in the second embodiment described below, , Select a song and an image by a keyword specified by the viewer.

すなわち、図8に示すように、第1実施形態に係る画像生成処理においては、初めに、これから再生しようとする曲を検索するための検索キーワードが操作部8において入力されると(ステップS10)、図示しない曲のデータベース(当該曲のデータベースは実施形態に係るデータベース1内にテンプレート記録部2等と共に構築されていてもよい。)において各曲に付加されている曲名やアーティスト名、或いはジャンル名等の付加情報を読み込み(ステップS11)、その付加情報と入力されたキーワードとを比較して検索処理部7において再生すべき曲を選択する(ステップS12)。   That is, as shown in FIG. 8, in the image generation processing according to the first embodiment, first, when a search keyword for searching for a song to be played is input in the operation unit 8 (step S10). A song name, an artist name, or a genre name added to each song in a song database (not shown) (the song database may be constructed together with the template recording unit 2 or the like in the database 1 according to the embodiment). Is read (step S11), and the additional information and the input keyword are compared to select a song to be reproduced in the search processing unit 7 (step S12).

一方、この曲の選択処理と並行して、データデース1内に含まれている各画像のフォルダ名等を読み込み(ステップS13)、ステップS10において入力されたキーワードと当該読み込んだフォルダ名等とを比較して画像生成に用いるべき画像が格納されているフォルダを選択する(ステップS14)。   On the other hand, in parallel with the music selection process, the folder name of each image included in the data database 1 is read (step S13), and the keyword input in step S10 and the read folder name and the like are read. A folder storing images to be used for image generation in comparison is selected (step S14).

そして、選択したフォルダ内に格納されている画像を読み込み(ステップS4)、更に、ステップS11において読み込んだ付加情報の中から文字情報を抽出し(ステップS15)、その画像と文字情報とから、これらに対応する基本テンプレート又はキーワードに予め対応して初期設定されているテンプレートをテンプレート記録部2内において検索して読み込む(ステップS16)。   Then, the image stored in the selected folder is read (step S4), and character information is extracted from the additional information read in step S11 (step S15). From the image and the character information, these are extracted. A template that is previously set in advance corresponding to a basic template or keyword corresponding to is searched and read in the template recording unit 2 (step S16).

そして、再生すべき曲の当該再生と並行して、その読み込んだテンプレートに含まれる切換タイミング及び切換順序に則った画像表示が実行されると共に文字情報又は効果音の出力が実行される(ステップS7)。   In parallel with the reproduction of the music to be reproduced, image display in accordance with the switching timing and switching order included in the read template is executed and character information or sound effects are output (step S7). ).

そして、その曲と画像の再生・表示が完了したとき、曲の再生を終了するか否かを表示部14において確認し(ステップS8)、終了するときは(ステップS8;YES)、そのまま第1実施形態に係る画像生成処理並びに曲及び画像の再生・表示処理を終了し、一方、同じキーワードについて他の曲や画像を用いた再生を行うときは(ステップS8;NO)、再度上記ステップS11又は13に戻って処理を再開する。   Then, when the reproduction and display of the song and the image are completed, it is confirmed on the display unit 14 whether or not the reproduction of the song is finished (step S8), and when finished (step S8; YES), the first is left as it is. When the image generation processing and the music / image reproduction / display processing according to the embodiment are finished, and when reproduction using another music or image is performed for the same keyword (step S8; NO), the above-described step S11 or again Returning to 13, the process is resumed.

以上説明したように、第2実施形態に係る画像生成処理によれば、第1実施形態の場合と同様に、複数のテンプレートを予め蓄積しておき、実際に出力される曲に対応するテンプレートを抽出してその曲と共に出力されるべき画像を生成するので、曲と共に再生される連続画像を視聴者自ら作成する場合に、飽きることがなく変化に富んだ画像を作成することができる。   As described above, according to the image generation processing according to the second embodiment, as in the case of the first embodiment, a plurality of templates are stored in advance, and a template corresponding to a song to be actually output is stored. Since an image to be extracted and output together with the song is generated, when the viewer himself creates a continuous image reproduced along with the song, an image rich in change can be created without getting tired.

これに加えて第2実施形態に係る画像生成処理によれば、実際に出力される曲の内容を示すキーワードに基づいてテンプレートを抽出し、そのテンプレートを用いて画像を生成するので、曲の内容に適した画像をより簡易に生成することができる。   In addition, according to the image generation processing according to the second embodiment, the template is extracted based on the keyword indicating the content of the song that is actually output, and the image is generated using the template. It is possible to more easily generate an image suitable for.

(III)第3実施形態
次に、本願に係る他の実施形態である第3実施形態について、図9を用いて説明する。なお、図9は、第3実施形態に係る曲と画像の再生処理を示すフローチャートである。
(III) Third Embodiment Next, a third embodiment, which is another embodiment according to the present application, will be described with reference to FIG. FIG. 9 is a flowchart showing the music and image reproduction processing according to the third embodiment.

また、第3実施形態に係る画像生成システムの構成は、第1実施形態に係る画像生成システムSの構成と同様であるので、細部の説明は省略する。更に、図9に示すフローチャートにおいて、図7に示すフローチャートと同様の処理については、同様のステップ番号を付して細部の説明は省略する。   The configuration of the image generation system according to the third embodiment is the same as the configuration of the image generation system S according to the first embodiment, and thus detailed description thereof is omitted. Further, in the flowchart shown in FIG. 9, the same processing as in the flowchart shown in FIG. 7 is denoted by the same step number, and detailed description thereof is omitted.

上述した第1実施形態においては、再生すべき曲の内容を解析し、その内容に相応しいテンプレートを新たに作成して画像を生成する場合について説明したが、以下に説明する第3実施形態においては、視聴者が指定した曲に予め付加されている付加情報に基づいてテンプレートを選択して画像を生成する。   In the first embodiment described above, the contents of a song to be played back are analyzed, and a template suitable for the contents is newly generated to generate an image. However, in the third embodiment described below, Then, a template is selected based on additional information added in advance to the music designated by the viewer to generate an image.

すなわち、図9に示すように、第3実施形態に係る画像生成処理においては、初めに、再生すべき曲に付加されている付加情報(上述したように、曲名、アーティスト名、ジャンル名及びレコード会社名等が含まれている)を読み込み(ステップS20)、その付加情報に含まれている文字情報等に基づいて当該付加情報に相応しい画像を静止画像記録部3及び動画像記録部4内において検索し(ステップS21)、更にその検索した画像と上記付加情報とから、これらに対応する基本テンプレートをテンプレート記録部2内において検索して読み込む(ステップS22)。なお、上記ステップS21の処理に代えて、受信部10を介して外部から当該付加情報に相応しい画像を取得して後続するステップS22の処理に用いてもよい。   That is, as shown in FIG. 9, in the image generation processing according to the third embodiment, first, additional information added to a song to be reproduced (as described above, song name, artist name, genre name, and record). The company name is included) (step S20), and an image suitable for the additional information is stored in the still image recording unit 3 and the moving image recording unit 4 based on the character information included in the additional information. A search is made (step S21), and a basic template corresponding to the searched image and the additional information is searched and read in the template recording unit 2 (step S22). Instead of the process of step S21, an image suitable for the additional information may be acquired from the outside via the receiving unit 10 and used for the subsequent process of step S22.

そして、再生すべき曲の当該再生と並行して、その読み込んだテンプレートに含まれる切換タイミング及び切換順序に則った画像表示が実行されると共に文字情報又は効果音の出力が実行される(ステップS7)。   In parallel with the reproduction of the music to be reproduced, image display in accordance with the switching timing and switching order included in the read template is executed and character information or sound effects are output (step S7). ).

そして、その曲と画像の再生・表示が完了したとき、曲の再生を終了するか否かを表示部14において確認し(ステップS8)、終了するときは(ステップS8;YES)、そのまま第1実施形態に係る画像生成処理並びに曲及び画像の再生・表示処理を終了し、一方、同じ曲について他の画像を用いた再生を行うときは(ステップS8;NO)、再度上記ステップS20に戻って処理を再開する。   Then, when the reproduction and display of the song and the image are completed, it is confirmed on the display unit 14 whether or not the reproduction of the song is finished (step S8), and when finished (step S8; YES), the first is left as it is. When the image generation processing and the music / image reproduction / display processing according to the embodiment are finished, and when reproduction using another image is performed for the same music (step S8; NO), the process returns to step S20 again. Resume processing.

以上説明したように、第3実施形態に係る画像生成処理によれば、第1実施形態の場合と同様に、複数のテンプレートを予め蓄積しておき、実際に出力される曲に対応するテンプレートを抽出してその曲と共に出力されるべき画像を生成するので、曲と共に再生される連続画像を視聴者自ら作成する場合に、飽きることがなく変化に富んだ画像を作成することができる。   As described above, according to the image generation processing according to the third embodiment, as in the case of the first embodiment, a plurality of templates are stored in advance, and a template corresponding to a song to be actually output is stored. Since an image to be extracted and output together with the song is generated, when the viewer himself creates a continuous image reproduced along with the song, an image rich in change can be created without getting tired.

これに加えて第3実施形態に係る画像生成処理によれば、出力される曲の属性を示す付加情報と、予め蓄積されている又は外部から取得した画像と、を用いて曲とともに再生すべき画像を生成するので、その出力される曲に適した画像をより簡易に生成することができる。   In addition to this, according to the image generation processing according to the third embodiment, additional information indicating the attributes of the music to be output and an image stored in advance or acquired from the outside should be used to reproduce with the music. Since the image is generated, an image suitable for the outputted music can be generated more easily.

(IV)第4実施形態
次に、本願に係る他の実施形態である第4実施形態について、図10を用いて説明する。なお、図10は、第4実施形態に係る曲と画像の再生処理を示すフローチャートである。
(IV) Fourth Embodiment Next, a fourth embodiment which is another embodiment according to the present application will be described with reference to FIG. FIG. 10 is a flowchart showing the reproduction processing of music and images according to the fourth embodiment.

また、第4実施形態に係る画像生成システムの構成は、第1実施形態に係る画像生成システムSの構成と同様であるので、細部の説明は省略する。更に、図10に示すフローチャートにおいて、図7に示すフローチャートと同様の処理については、同様のステップ番号を付して細部の説明は省略する。   The configuration of the image generation system according to the fourth embodiment is the same as the configuration of the image generation system S according to the first embodiment, and thus detailed description thereof is omitted. Further, in the flowchart shown in FIG. 10, the same processing as in the flowchart shown in FIG. 7 is denoted by the same step number, and detailed description thereof is omitted.

上述した第1実施形態においては、再生すべき曲の内容を解析し、その内容に相応しいテンプレートを新たに作成して画像を生成する場合について説明したが、以下に説明する第4実施形態においては、基本的には第1実施形態の場合と同様の処理ではあるが、再生用の画像を生成する際における図4に示す座標空間の活用法が異なる。   In the first embodiment described above, the contents of the music to be played back are analyzed, and a template suitable for the contents is newly generated to generate an image. However, in the fourth embodiment described below, Although basically the same processing as in the first embodiment, the method of utilizing the coordinate space shown in FIG. 4 when generating an image for reproduction is different.

すなわち、図10に示すように、第4実施形態に係る画像生成処理においては、初めに、再生されることが所望されている曲に対応する曲情報を再生制御部15において図示しないCD等から読み込み(ステップS1)、これを曲解析部11においてその内容(スピード及びコード構成)を解析する(ステップS2)。   That is, as shown in FIG. 10, in the image generation processing according to the fourth embodiment, first, music information corresponding to a music that is desired to be reproduced is obtained from a CD or the like not shown in the reproduction controller 15. Reading (step S1), the contents (speed and chord configuration) are analyzed in the music analysis unit 11 (step S2).

次に、その解析結果と図4に示す座標空間とを比較し、その再生すべき曲の当該座標空間内における座標値を定義する(ステップS3)。   Next, the analysis result is compared with the coordinate space shown in FIG. 4, and the coordinate value in the coordinate space of the music to be reproduced is defined (step S3).

次に、その定義付けられた座標値の近辺にその座標値を有している静止画像又は動画像を静止画像記録部3又は動画像情報記録部4内において検索して読み込み(ステップS25)、更にその定義付けられた座標値の近辺にその座標値を有している基本テンプレートをテンプレート記録部2内において検索して読み込む(ステップS26)。   Next, a still image or a moving image having the coordinate value in the vicinity of the defined coordinate value is searched and read in the still image recording unit 3 or the moving image information recording unit 4 (step S25), Further, a basic template having the coordinate value in the vicinity of the defined coordinate value is searched and read in the template recording unit 2 (step S26).

そして、上記ステップS1乃至S3及びステップS25乃至S27において取得した各情報を用いて、基本テンプレートを基にして新たなテンプレートをテンプレート制御部12において作成する(ステップS27)。ここで、当該ステップS27において実行されるテンプレートの作成処理の詳細は上述した第1実施形態におけるテンプレート作成処理(ステップS6)と同様であるので、細部の説明は省略する。   Then, a new template is created in the template control unit 12 based on the basic template using each information acquired in steps S1 to S3 and steps S25 to S27 (step S27). Here, the details of the template creation process executed in step S27 are the same as the template creation process (step S6) in the first embodiment described above, and thus detailed description thereof is omitted.

そして、ステップS27の処理により新たなテンプレートが作成されると、それに沿って再生すべき曲と並行して作成したテンプレートに含まれる切換タイミング及び切換順序に則った画像表示が実行されると共に文字情報又は効果音の出力が実行される(ステップS28)。   When a new template is created by the process of step S27, image display is executed in accordance with the switching timing and switching order included in the template created in parallel with the music to be reproduced along with the character information. Alternatively, a sound effect is output (step S28).

そして、その曲と画像の再生・表示が完了したとき、その画像の表示に用いられていた新たなテンプレートの、図4に示す座標空間内の座標値を新たに定義し(ステップS29)、その定義した座標値と共に当該新たなテンプレートをテンプレート記録部2に格納し(ステップS30)、更に使用した素材画像の使用回数(現状では一回)を示す情報を静止画像記録部3及び動画像記録部4に記録する(ステップS31)。   Then, when the reproduction and display of the music and image are completed, the coordinate value in the coordinate space shown in FIG. 4 of the new template used for displaying the image is newly defined (step S29). The new template is stored in the template recording unit 2 together with the defined coordinate values (step S30), and information indicating the number of times of use of the used material image (currently one time) is stored in the still image recording unit 3 and the moving image recording unit. 4 is recorded (step S31).

使用回数の記録が完了すると、次に、曲の再生を終了するか否かを表示部14において確認し(ステップS32)、終了するときは(ステップS32;YES)、そのまま第4実施形態に係る画像生成処理並びに曲及び画像の再生・表示処理を終了し、一方、同じ曲について他の画像を用いた再生を行うときは(ステップS32;NO)、再度上記ステップS25に戻って処理を再開する。   When the recording of the number of times of use is completed, next, it is confirmed on the display unit 14 whether or not the reproduction of the music is to be ended (step S32). When the image generation process and the music / image reproduction / display process are finished, and when the same music is reproduced using another image (step S32; NO), the process returns to step S25 again to resume the process. .

以上説明したように、第4実施形態に係る画像生成処理によれば、第1実施形態の場合と同様に、複数のテンプレートを予め蓄積しておき、実際に出力される曲に対応するテンプレートを抽出してその曲と共に出力されるべき画像を生成するので、曲と共に再生される連続画像を視聴者自ら作成する場合に、飽きることがなく変化に富んだ画像を作成することができる。   As described above, according to the image generation processing according to the fourth embodiment, as in the case of the first embodiment, a plurality of templates are stored in advance, and a template corresponding to a song to be actually output is stored. Since an image to be extracted and output together with the song is generated, when the viewer himself creates a continuous image reproduced along with the song, an image rich in change can be created without getting tired.

また、実際に出力される曲の内容を解析し、その内容に対応するテンプレートを抽出して画像を生成するので、当該曲により相応しい画像を生成することができる。   In addition, since the contents of a song that is actually output are analyzed and a template corresponding to the contents is extracted to generate an image, an image suitable for the song can be generated.

更に、実際に出力される曲の内容に沿った画像を選択してテンプレートを新たに作成し、それを用いて画像を生成するので、最初から画像を作成するよりも簡易にその曲に適した画像を生成することができる。   In addition, since a template is newly created by selecting an image according to the content of the song that is actually output and an image is generated using it, it is more suitable for that song than when creating an image from the beginning. An image can be generated.

更にまた、画像の生成に用いられたテンプレートを蓄積していくので、似通った状態で曲を出力する場合に再度同様のテンプレートを生成する処理を省略して迅速に画像を生成することができる。   Furthermore, since the templates used for generating the images are accumulated, when outputting music in a similar state, it is possible to quickly generate images by omitting the process of generating similar templates again.

(V)第5実施形態
次に、本願に係る他の実施形態である第5実施形態について、図11を用いて説明する。なお、図11は、第5実施形態に係る曲と画像の再生処理を示すフローチャートである。
(V) Fifth Embodiment Next, a fifth embodiment, which is another embodiment according to the present application, will be described with reference to FIG. FIG. 11 is a flowchart showing the reproduction processing of music and images according to the fifth embodiment.

また、第5実施形態に係る画像生成システムの構成は、第1実施形態に係る画像生成システムSの構成と同様であるので、細部の説明は省略する。更に、図11に示すフローチャートにおいて、図10に示すフローチャートと同様の処理については、同様のステップ番号を付して細部の説明は省略する。   The configuration of the image generation system according to the fifth embodiment is the same as the configuration of the image generation system S according to the first embodiment, and thus detailed description thereof is omitted. Further, in the flowchart shown in FIG. 11, the same processing as that in the flowchart shown in FIG. 10 is denoted by the same step number, and detailed description thereof is omitted.

上述した第4実施形態においては、再生すべき曲の内容を解析し、その内容に相応しいテンプレートを新たに作成して画像を生成する場合について説明したが、以下に説明する第5実施形態においては、視聴者が指定したキーワードにより曲と画像を選択する。   In the above-described fourth embodiment, the content of a song to be played back is analyzed, and a template suitable for the content is newly generated to generate an image. However, in the fifth embodiment described below, , Select a song and an image by a keyword specified by the viewer.

すなわち、図11に示すように、第5実施形態に係る画像生成処理においては、初めに、これから再生しようとする曲を検索するための検索キーワードが操作部8において入力されると(ステップS35)、その入力内容と図4に示す座標空間とを比較し、その入力されたキーワードの当該座標空間内における座標値を定義する(ステップS36)。   That is, as shown in FIG. 11, in the image generation processing according to the fifth embodiment, first, when a search keyword for searching for a song to be played is input in the operation unit 8 (step S35). Then, the input content is compared with the coordinate space shown in FIG. 4, and the coordinate value in the coordinate space of the input keyword is defined (step S36).

次に、その定義付けられた座標値の近辺にその座標値を有している曲を図示しない曲のデータベース内において検索して読み込み(ステップS37)、その定義付けられた座標値の近辺にその座標値を有している静止画像又は動画像を静止画像記録部3又は動画像情報記録部4内において検索して読み込み(ステップS25)、更にその定義付けられた座標値の近辺にその座標値を有している基本テンプレートをテンプレート記録部2内において検索して読み込む(ステップS26)。   Next, a song having the coordinate value in the vicinity of the defined coordinate value is searched and read in a song database (not shown) (step S37), and the song is read in the vicinity of the defined coordinate value. A still image or moving image having a coordinate value is searched for and read in the still image recording unit 3 or the moving image information recording unit 4 (step S25), and the coordinate value is in the vicinity of the defined coordinate value. Are searched for and read in the template recording unit 2 (step S26).

これ以後は、上述した第4実施形態におけるステップS27乃至S32の処理が第4実施形態の場合と同様に実行され、一連の画像生成処理及び曲再生処理を完了する。   Thereafter, the processing in steps S27 to S32 in the fourth embodiment described above is executed in the same manner as in the fourth embodiment, and a series of image generation processing and music piece reproduction processing is completed.

以上説明したように、第5実施形態に係る画像生成処理によれば、第1実施形態の場合と同様に、複数のテンプレートを予め蓄積しておき、実際に出力される曲に対応するテンプレートを抽出してその曲と共に出力されるべき画像を生成するので、曲と共に再生される連続画像を視聴者自ら作成する場合に、飽きることがなく変化に富んだ画像を作成することができる。   As described above, according to the image generation processing according to the fifth embodiment, as in the case of the first embodiment, a plurality of templates are accumulated in advance, and a template corresponding to a song to be actually output is stored. Since an image to be extracted and output together with the song is generated, when the viewer himself creates a continuous image reproduced along with the song, an image rich in change can be created without getting tired.

また、出力させる曲を検索するためのキーワードを入力して当該曲を検索し、その曲に対応する画像とその曲の内容の解析結果とを用いて再生用の画像を生成するので、再生すべき曲を選ぶ段階から簡易な処理で必要な曲を選択することができる。   In addition, a keyword for searching for a song to be output is input to search for the song, and a playback image is generated using the image corresponding to the song and the analysis result of the content of the song. Necessary music can be selected with a simple process from the stage of selecting a music.

なお、上述した第5実施形態において、過去に入力されていたキーワードと今般入力されたキーワードとを併せて用いてそれらを解析し、双方に対応する曲の選択及び画像生成を行うように構成することもできる。   In the fifth embodiment described above, a keyword input in the past and a keyword input in the past are used together and analyzed to select a song corresponding to both and generate an image. You can also.

この場合には、異なるタイミングで入力された複数のキーワードを用いて一の曲を検索するので、視聴者の意図をより適切に反映して曲を選択することができる。   In this case, since one song is searched using a plurality of keywords input at different timings, the song can be selected more appropriately reflecting the viewer's intention.

(VI)第6実施形態
次に、本願に係る他の実施形態である第6実施形態について、図12を用いて説明する。なお、図12は、第6実施形態に係る曲と画像の再生処理を示すフローチャートである。
(VI) Sixth Embodiment Next, a sixth embodiment, which is another embodiment according to the present application, will be described with reference to FIG. FIG. 12 is a flowchart showing a music and image reproduction process according to the sixth embodiment.

また、第6実施形態に係る画像生成システムの構成は、第1実施形態に係る画像生成システムSの構成と同様であるので、細部の説明は省略する。   The configuration of the image generation system according to the sixth embodiment is the same as the configuration of the image generation system S according to the first embodiment, and thus detailed description thereof is omitted.

上述した第1実施形態等においては、再生すべき曲の内容を解析し、その内容に相応しいテンプレートを新たに作成して画像を生成する場合について説明したが、以下に説明する第6実施形態においては、曲を再生すると共に画像を視聴しようとしている視聴者のそのときの気分に関する情報が、曲の選択及び画像の生成に活用される。   In the first embodiment and the like described above, the case where the contents of a song to be reproduced is analyzed and a template suitable for the contents is newly generated to generate an image has been described. In the sixth embodiment described below, In this case, information on the mood of a viewer who is playing a song and watching an image at that time is used for selecting a song and generating an image.

すなわち、図12に示すように、第6実施形態に係る画像生成処理においては、初めに、当該視聴者の現在における気分を示す文字情報が気分情報として操作部8において入力される(ステップS40)。   That is, as shown in FIG. 12, in the image generation processing according to the sixth embodiment, first, character information indicating the current mood of the viewer is input as mood information in the operation unit 8 (step S40). .

ここで、当該気分情報とは、具体的には図4に示す座標空間における各象限に記載されている、「幸せ」、「楽しい」、「切ない」又は「哀しい」のいずれかが文字情報として操作部8において入力される。   Here, specifically, the mood information is any of “happy”, “fun”, “cut” or “sad” described in each quadrant in the coordinate space shown in FIG. 4 as character information. It is input at the operation unit 8.

次に、その入力された気分情報の座標値の象限にその座標値を有している曲を図示しない曲のデータベース内において検索して読み込む(ステップS41)と共に、その曲の座標値の近辺にその座標値を有している静止画像又は動画像を静止画像記録部3又は動画像情報記録部4内において検索して読み込み(ステップS42)、更にその曲の座標値の近辺にその座標値を有している基本テンプレートをテンプレート記録部2内において検索して読み込む(ステップS43)。   Next, a song having the coordinate value in the quadrant of the coordinate value of the inputted mood information is searched and read in a song database (not shown) (step S41), and in the vicinity of the coordinate value of the song. The still image or moving image having the coordinate value is searched for and read in the still image recording unit 3 or the moving image information recording unit 4 (step S42), and the coordinate value is set in the vicinity of the coordinate value of the song. The basic template is searched and read in the template recording unit 2 (step S43).

これに加えて、その曲の座標値の近辺にその座標値を有している文字情報を文字情報記録部5内において検索して読み込む(ステップS44)と共に、その座標値の近辺にその座標値を有している効果音情報を効果音記録部6内において検索して読み込む(ステップS45)。   In addition to this, the character information having the coordinate value in the vicinity of the coordinate value of the music is searched for and read in the character information recording unit 5 (step S44), and the coordinate value is in the vicinity of the coordinate value. Is retrieved and read in the sound effect recording unit 6 (step S45).

そして、上記ステップS42、S44及びS45において選択された画像、文字情報及び効果音情報を用いて作成した画像を、ステップS43において選択されたテンプレートに則ってステップS41において選択した曲を再生しつつ表示する(ステップS46)。   Then, the image created using the image, character information and sound effect information selected in steps S42, S44 and S45 is displayed while reproducing the song selected in step S41 according to the template selected in step S43. (Step S46).

そして、その曲と画像の再生・表示が完了したとき、曲の再生を終了するか否かを表示部14において確認し(ステップS47)、終了しないときは(ステップS47;NO)、前回のステップS41乃至S45の処理で選択された曲、画像、テンプレート、文字情報及び効果音情報が再度選択されないように識別フラグ等を設定する処理を行い(ステップS48)、同じ気分情報に対応する他の曲及び画像が再生・表示されるように上記ステップS41に戻る。   Then, when the reproduction and display of the song and the image are completed, it is confirmed on the display unit 14 whether or not the reproduction of the song is finished (step S47). If not finished (step S47; NO), the previous step A process of setting an identification flag or the like is performed so that the music, image, template, character information, and sound effect information selected in the processes of S41 to S45 are not selected again (step S48), and another music corresponding to the same mood information is performed. Then, the process returns to step S41 so that the image is reproduced / displayed.

一方、ステップS47の判定において、曲の再生を終了するときは(ステップS47;YES)、直前に再生された画像、文字情報及び効果音情報を、その気分情報及び曲に対応する新たなテンプレートを合成するか否かを使用者に対して確認し(ステップS49)。そして、新たなテンプレートを合成する場合は(ステップS49;YES)当該新テンプレートを合成し(ステップS50)、一連の処理を終了する。   On the other hand, when it is determined in step S47 that the reproduction of the song is to be ended (step S47; YES), the image, character information, and sound effect information reproduced immediately before are used as a new template corresponding to the mood information and the song. It is confirmed with the user whether to synthesize (step S49). If a new template is to be synthesized (step S49; YES), the new template is synthesized (step S50), and the series of processes is terminated.

一方、ステップS49の判定において新たなテンプレートを合成しないときは(ステップS49;NO)そのままそのまま一連の処理を終了する。   On the other hand, when a new template is not synthesized in the determination in step S49 (step S49; NO), the series of processes is terminated as it is.

以上説明したように、第6実施形態に係る画像生成処理によれば、第1実施形態の場合と同様に、複数のテンプレートを予め蓄積しておき、実際に出力される曲に対応するテンプレートを抽出してその曲と共に出力されるべき画像を生成するので、曲と共に再生される連続画像を視聴者自ら作成する場合に、飽きることがなく変化に富んだ画像を作成することができる。   As described above, according to the image generation processing according to the sixth embodiment, as in the case of the first embodiment, a plurality of templates are stored in advance, and a template corresponding to a song that is actually output is stored. Since an image to be extracted and output together with the song is generated, when the viewer himself creates a continuous image reproduced along with the song, an image rich in change can be created without getting tired.

これに加えて第6実施形態に係る画像生成処理によれば、視聴者の気分を示す気分情報を取得し、その気分情報に基づいて曲を抽出すると共に対応するテンプレートを指定して画像を生成するので、視聴者の気分に応じた適切な曲及び画像を出力することができる。   In addition to this, according to the image generation processing according to the sixth embodiment, mood information indicating a viewer's mood is acquired, a song is extracted based on the mood information, and a corresponding template is specified to generate an image. Therefore, it is possible to output an appropriate song and image according to the mood of the viewer.

更に、出力すべき曲に対応する文字又は効果音に基づいてテンプレートを編集し、その編集後のテンプレートを用いて画像を生成するので、実際に視聴される画像及び曲の双方に基づいて画像を生成することができる。   Furthermore, since the template is edited based on the character or sound effect corresponding to the song to be output, and an image is generated using the edited template, the image is based on both the actually viewed image and the song. Can be generated.

(VII)第7実施形態
次に、本願に係る他の実施形態である第7実施形態について、図13を用いて説明する。なお、図13は、第7実施形態に係る曲と画像の再生処理を示すフローチャートである。また、図13に示すフローチャートにおいて、図9に示すフローチャートと同一の処理については、同一のステップ番号を付して細部の説明を省略する。
(VII) Seventh Embodiment Next, a seventh embodiment, which is another embodiment according to the present application, will be described with reference to FIG. FIG. 13 is a flowchart showing a music and image reproduction process according to the seventh embodiment. In the flowchart shown in FIG. 13, the same processing as that in the flowchart shown in FIG.

更に、第7実施形態に係る画像生成システムの構成は、第1実施形態に係る画像生成システムSの構成と同様であるので、細部の説明は省略する。   Furthermore, since the configuration of the image generation system according to the seventh embodiment is the same as the configuration of the image generation system S according to the first embodiment, detailed description thereof is omitted.

上述した第1実施形態等においては、再生すべき曲の内容を解析し、その内容に相応しいテンプレートを新たに作成して画像を生成する場合について説明したが、以下に説明する第7実施形態においては、画像生成システムが設置されている周囲の環境の変化をセンサ18において検出した結果が画像の生成に反映される。   In the first embodiment and the like described above, the case where the content of a song to be reproduced is analyzed and a template suitable for the content is newly generated to generate an image has been described. However, in the seventh embodiment described below, The result of detecting the change in the surrounding environment where the image generation system is installed by the sensor 18 is reflected in the generation of the image.

すなわち、図13に示すように、第7実施形態に係る画像生成処理においては、初めに、センサ18において予め設定されている閾値を、そのときの検出対象となっている環境要因の値が越えたことにより、センサ18からその旨の情報が入力されたか否かが常時監視されており(ステップS55)、その入力が無いときは(ステップS55;NO)そのまま監視を継続し、一方、その監視中において当該情報が入力されたときは(ステップS55;YES)、上記第3実施形態と同様の処理を実行する(ステップS20乃至S22並びにS7及びS8)。   That is, as shown in FIG. 13, in the image generation process according to the seventh embodiment, first, the threshold value preset in the sensor 18 exceeds the value of the environmental factor that is the detection target at that time. Therefore, it is constantly monitored whether or not the information is input from the sensor 18 (step S55). When there is no input (step S55; NO), the monitoring is continued as it is, while the monitoring is continued. When the information is input (step S55; YES), the same processing as that of the third embodiment is executed (steps S20 to S22 and S7 and S8).

以上説明したように、第7実施形態に係る画像生成処理によれば、第1実施形態の場合と同様に、複数のテンプレートを予め蓄積しておき、実際に出力される曲に対応するテンプレートを抽出してその曲と共に出力されるべき画像を生成するので、曲と共に再生される連続画像を視聴者自ら作成する場合に、飽きることがなく変化に富んだ画像を作成することができる。   As described above, according to the image generation processing according to the seventh embodiment, as in the case of the first embodiment, a plurality of templates are stored in advance, and a template corresponding to a song to be actually output is stored. Since an image to be extracted and output together with the song is generated, when the viewer himself creates a continuous image reproduced along with the song, an image rich in change can be created without getting tired.

これに加えて第7実施形態に係る画像生成処理によれば、出力される曲の属性を示す付加情報と、予め蓄積されている画像と、を用いて曲とともに再生すべき画像を生成するので、その出力される曲に適した画像をより簡易に生成することができる。   In addition to this, according to the image generation processing according to the seventh embodiment, an image to be reproduced together with the song is generated using the additional information indicating the attribute of the outputted song and the image accumulated in advance. Thus, an image suitable for the outputted music can be generated more easily.

また、周囲の変化に応じて画像の生成タイミングを制御することができるので、周囲の環境により適切に対応して画像を生成することができる。   In addition, since the image generation timing can be controlled in accordance with changes in the surroundings, the image can be generated in a more appropriate manner depending on the surrounding environment.

(VIII)第8実施形態
次に、本願に係る他の実施形態である第8実施形態について、図14を用いて説明する。なお、図14は、第8実施形態に係る曲と画像の再生処理を示すフローチャートである。また、図14に示すフローチャートにおいて、図11に示すフローチャートと同一の処理については、同一のステップ番号を付して細部の説明を省略する。
(VIII) Eighth Embodiment Next, an eighth embodiment which is another embodiment according to the present application will be described with reference to FIG. FIG. 14 is a flowchart showing the music and image reproduction processing according to the eighth embodiment. Further, in the flowchart shown in FIG. 14, the same processes as those in the flowchart shown in FIG.

更に、第8実施形態に係る画像生成システムの構成は、第1実施形態に係る画像生成システムSの構成と同様であるので、細部の説明は省略する。   Furthermore, the configuration of the image generation system according to the eighth embodiment is the same as the configuration of the image generation system S according to the first embodiment, and thus detailed description thereof is omitted.

上述した第5実施形態においては、視聴者が指定したキーワードにより曲と画像を選択する場合について説明したが、以下に説明する第8実施形態においては、画像生成システムが設置されている周囲の環境の変化をセンサ18において検出した結果が画像の生成に反映される。   In the fifth embodiment described above, the case where a song and an image are selected by a keyword specified by the viewer has been described. However, in the eighth embodiment described below, the surrounding environment in which the image generation system is installed is described. The result of detecting the change in the sensor 18 is reflected in the generation of the image.

すなわち、図14に示すように、第8実施形態に係る画像生成処理においては、初めに、そのときの検出対象となっている環境要因の値が越えた旨の情報がセンサ18から入力されたか否かが常時監視されており(ステップS56)、その入力が無いときは(ステップS56;NO)そのまま当該入力を待つべく待機し、一方、当該入力があったときは(ステップS56;YES)、当該入力があったタイミングで、例えばランダムにキーワードを設定して(ステップS57)、後のステップS36以降の処理に移行する。   That is, as shown in FIG. 14, in the image generation processing according to the eighth embodiment, first, information indicating that the value of the environmental factor that is the detection target at that time has been input is input from the sensor 18. Whether or not is constantly monitored (step S56), and when there is no input (step S56; NO), it waits for the input as it is, while when there is the input (step S56; YES), At the timing when the input is made, for example, keywords are set at random (step S57), and the process proceeds to the subsequent steps after step S36.

一方、ステップS56の判定において、当該キーワードが入力されたときは(ステップS56;YES)、上記第5実施形態と同様の処理を実行する(ステップS25乃至S32並びにS36及びS39)。   On the other hand, if it is determined in step S56 that the keyword is input (step S56; YES), the same processing as in the fifth embodiment is executed (steps S25 to S32, S36, and S39).

以上説明したように、第8実施形態に係る画像生成処理によれば、第1実施形態の場合と同様に、複数のテンプレートを予め蓄積しておき、実際に出力される曲に対応するテンプレートを抽出してその曲と共に出力されるべき画像を生成するので、曲と共に再生される連続画像を視聴者自ら作成する場合に、飽きることがなく変化に富んだ画像を作成することができる。   As described above, according to the image generation processing according to the eighth embodiment, as in the case of the first embodiment, a plurality of templates are stored in advance, and a template corresponding to a song to be actually output is stored. Since an image to be extracted and output together with the song is generated, when the viewer himself creates a continuous image reproduced along with the song, an image rich in change can be created without getting tired.

また、出力させる曲を検索するためのキーワードを入力して当該曲を検索し、その曲に対応する画像とその曲の内容の解析結果とを用いて再生用の画像を生成するので、再生すべき曲を選ぶ段階から簡易な処理で必要な曲を選択することができる。   In addition, a keyword for searching for a song to be output is input to search for the song, and a playback image is generated using the image corresponding to the song and the analysis result of the content of the song. Necessary music can be selected with a simple process from the stage of selecting a music.

これに加えて第8実施形態に係る画像生成処理によれば、周囲の変化に応じたタイミングでキーワードを設定することができるので、周囲の環境により適切に対応して画像を生成することができる。   In addition to this, according to the image generation processing according to the eighth embodiment, keywords can be set at a timing according to changes in the surroundings, so that an image can be generated appropriately corresponding to the surrounding environment. .

(IX)第9実施形態
最後に、本願に係る他の実施形態である第9実施形態について、図15を用いて説明する。なお、図15は第9実施形態に係る曲と画像の再生処理を示すフローチャートである。また、図15に示すフローチャートにおいて、図12に示すフローチャートと同一の処理については、同一のステップ番号を付して細部の説明を省略する。
(IX) Ninth Embodiment Finally, a ninth embodiment, which is another embodiment according to the present application, will be described with reference to FIG. FIG. 15 is a flowchart showing the music and image reproduction processing according to the ninth embodiment. Further, in the flowchart shown in FIG. 15, the same processes as those in the flowchart shown in FIG.

更に、第9実施形態に係る画像生成システムの構成は、第1実施形態に係る画像生成システムSの構成と同様であるので、細部の説明は省略する。   Furthermore, since the configuration of the image generation system according to the ninth embodiment is the same as the configuration of the image generation system S according to the first embodiment, detailed description thereof is omitted.

上述した第6実施形態においては、曲を再生すると共に画像を視聴しようとしている視聴者のそのときの気分に関する情報が、曲の選択及び画像の生成に活用される場合について説明したが、以下に説明する第9実施形態においては、画像生成システムが設置されている周囲の環境の変化をセンサ18において検出した結果が画像の生成に反映される。   In the sixth embodiment described above, a case has been described in which information related to the mood of a viewer who plays a song and views an image is used for song selection and image generation. In the ninth embodiment to be described, the result of detection by the sensor 18 of a change in the surrounding environment where the image generation system is installed is reflected in image generation.

すなわち、図15に示すように、第9実施形態に係る画像生成処理においては、初めに、そのときの検出対象となっている環境要因の値が越えた旨の情報がセンサ18から入力されたか否かが常時監視されており(ステップS60)、その入力が無いときは(ステップS60;NO)そのまま当該入力を待つべく待機し、一方、当該入力があったときは(ステップS60;YES)、当該入力があったタイミングで、例えばランダムに四つの中から気分情報を設定して(ステップS61)、後のステップS41以降ステップS50までの処理に移行する。   That is, as shown in FIG. 15, in the image generation processing according to the ninth embodiment, first, was information from the sensor 18 indicating that the value of the environmental factor that was the detection target at that time was exceeded. No is constantly monitored (step S60), and when there is no input (step S60; NO), it waits for the input as it is, while when there is the input (step S60; YES), At the timing of the input, for example, mood information is randomly set from four (step S61), and the process proceeds to the processing from the subsequent step S41 to step S50.

以上説明したように、第9実施形態に係る画像生成処理によれば、第1実施形態の場合と同様に、複数のテンプレートを予め蓄積しておき、実際に出力される曲に対応するテンプレートを抽出してその曲と共に出力されるべき画像を生成するので、曲と共に再生される連続画像を視聴者自ら作成する場合に、飽きることがなく変化に富んだ画像を作成することができる。   As described above, according to the image generation processing according to the ninth embodiment, as in the case of the first embodiment, a plurality of templates are stored in advance, and a template corresponding to a song to be actually output is stored. Since an image to be extracted and output together with the song is generated, when the viewer himself creates a continuous image reproduced along with the song, an image rich in change can be created without getting tired.

これに加えて第9実施形態に係る画像生成処理によれば、視聴者の気分を示す気分情報を取得し、その気分情報に基づいて曲を抽出すると共に対応するテンプレートを指定して画像を生成するので、視聴者の気分に応じた適切な曲及び画像を出力することができる。   In addition to this, according to the image generation processing according to the ninth embodiment, mood information indicating the mood of the viewer is acquired, a song is extracted based on the mood information and an image is generated by designating a corresponding template. Therefore, it is possible to output an appropriate song and image according to the mood of the viewer.

更に、出力すべき曲に対応する文字又は効果音に基づいてテンプレートを編集し、その編集後のテンプレートを用いて画像を生成するので、実際に視聴される画像及び曲の双方に基づいて画像を生成することができる。   Furthermore, since the template is edited based on the character or sound effect corresponding to the song to be output, and the image is generated using the edited template, the image is based on both the actually viewed image and the song. Can be generated.

更にまた、周囲の変化に応じたタイミングで気分情報を設定することができるので、周囲の環境により適切に対応して画像を生成することができる。   Furthermore, since the mood information can be set at a timing corresponding to a change in the surroundings, it is possible to generate an image corresponding more appropriately to the surrounding environment.

なお、上述した各実施形態において、新たなテンプレートを作成した場合、これを例えば不揮発性の携帯型メモリに記録させておいても良い。この場合には、当該テンプレートを画像生成システムSから切り離すことができ、テンプレートとしての用途を拡大することができる。すなわち、当該テンプレートを個人用に携帯して外出先において新たな画像形成に用いてもよいし、或いは、当該テンプレートを他の者と共有することで、一つのテンプレートが活用される範囲を拡張することができる。   In each of the above-described embodiments, when a new template is created, it may be recorded in, for example, a nonvolatile portable memory. In this case, the template can be separated from the image generation system S, and the use as a template can be expanded. That is, the template can be carried for personal use and used for new image formation on the go, or the template can be shared with others to expand the range of use of one template. be able to.

また、図1に示すデータベース1を、画像生成システムS内ではなく、インターネット上のサーバ内に構築し、必要に応じてこのサーバから各情報を読み出すように構成することもできる。   Further, the database 1 shown in FIG. 1 can be constructed not in the image generation system S but in a server on the Internet and read out each information from this server as necessary.

更に、図7乃至図15のフローチャートに対応するプログラムをフレキシブルディスク又はハードディスク等の情報記録媒体に記録しておき、又はインターネット等を介して取得して記録しておき、これらを汎用のコンピュータで読み出して実行することにより、当該コンピュータを実施形態に係るテンプレート制御部12として活用することも可能である。   Further, a program corresponding to the flowcharts of FIGS. 7 to 15 is recorded on an information recording medium such as a flexible disk or a hard disk, or is acquired and recorded via the Internet or the like, and is read by a general-purpose computer. It is possible to utilize the computer as the template control unit 12 according to the embodiment.

第1実施形態に係る画像生成システムの概要構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an image generation system according to a first embodiment. 第1実施形態に係るテンプレートの種類を例示する図である。It is a figure which illustrates the kind of template which concerns on 1st Embodiment. 第1実施形態に係る画像の付加情報を例示する図である。It is a figure which illustrates additional information on an image concerning a 1st embodiment. 第1実施形態の検索座標空間を例示する図である。It is a figure which illustrates the search coordinate space of 1st Embodiment. 第1実施形態に係るキーワードを例示する図であり、(a)はフリーキーワードを例示する図であり、(b)は座標対応キーワードを例示する図である。It is a figure which illustrates the keyword which concerns on 1st Embodiment, (a) is a figure which illustrates a free keyword, (b) is a figure which illustrates a coordinate corresponding | compatible keyword. 第1実施形態に係る環境要因を例示する図である。It is a figure which illustrates the environmental factor which concerns on 1st Embodiment. 第1実施形態に係る画像生成処理を示すフローチャートである。It is a flowchart which shows the image generation process which concerns on 1st Embodiment. 第2実施形態に係る画像生成処理を示すフローチャートである。It is a flowchart which shows the image generation process which concerns on 2nd Embodiment. 第3実施形態に係る画像生成処理を示すフローチャートである。It is a flowchart which shows the image generation process which concerns on 3rd Embodiment. 第4実施形態に係る画像生成処理を示すフローチャートである。It is a flowchart which shows the image generation process which concerns on 4th Embodiment. 第5実施形態に係る画像生成処理を示すフローチャートである。It is a flowchart which shows the image generation process which concerns on 5th Embodiment. 第6実施形態に係る画像生成処理を示すフローチャートである。It is a flowchart which shows the image generation process which concerns on 6th Embodiment. 第7実施形態に係る画像生成処理を示すフローチャートである。It is a flowchart which shows the image generation process which concerns on 7th Embodiment. 第8実施形態に係る画像生成処理を示すフローチャートである。It is a flowchart which shows the image generation process which concerns on 8th Embodiment. 第9実施形態に係る画像生成処理を示すフローチャートである。It is a flowchart which shows the image generation process which concerns on 9th Embodiment.

符号の説明Explanation of symbols

1 データベース
2 テンプレート記録部
3 静止画像記録部
4 動画像記録部
5 文字情報記録部
6 効果音情報記録部
7 検索処理部
8 操作部
9 画像入力部
10 受信部
11 曲解析部
12 テンプレート制御部
13 テンプレート入出力部
14 表示部
15 再生制御部
16 インターネット
17 スピーカ
18 センサ
DESCRIPTION OF SYMBOLS 1 Database 2 Template recording part 3 Still image recording part 4 Moving image recording part 5 Character information recording part 6 Sound effect information recording part 7 Search processing part 8 Operation part 9 Image input part 10 Receiving part 11 Song analysis part 12 Template control part 13 Template input / output unit 14 Display unit 15 Playback control unit 16 Internet 17 Speaker 18 Sensor

Claims (16)

音楽と並行して出力される画像を生成する画像生成システムにおいて、
相互に異なる属性を有する複数種類の前記音楽と並行して夫々出力されるべき前記画像の内容の雛形となる画像テンプレートであって、各種類の前記音楽に夫々対応して予め設定されている複数の画像テンプレートを蓄積する蓄積手段と、
前記蓄積されている複数の画像テンプレートの中から、実際に出力される前記音楽と並行して実際に出力されるべき前記画像に対応する一の前記画像テンプレートを抽出テンプレートとして抽出する抽出手段と、
前記抽出された抽出テンプレートを用いて、前記実際に出力されるべき画像に対応する画像情報を生成する生成手段と、
を備えることを特徴とする画像生成システム。
In an image generation system that generates an image output in parallel with music,
An image template that is a template of the contents of the image to be output in parallel with a plurality of types of music having different attributes, and a plurality of preset templates corresponding to each type of music Storage means for storing image templates of
Extraction means for extracting one image template corresponding to the image to be actually output in parallel with the music actually output from the plurality of stored image templates as an extraction template;
Generation means for generating image information corresponding to the image to be actually output using the extracted extraction template;
An image generation system comprising:
請求項1に記載の画像生成システムにおいて、
前記実際に出力される音楽の内容を解析し、当該内容を示す内容情報を生成する解析手段を更に備え、
前記抽出手段は、前記生成された内容情報に基づいて前記抽出テンプレートを抽出し、
更に前記生成手段は、前記生成された内容情報に基づいて前記抽出テンプレートを編集し、前記画像情報を生成することを特徴とする画像生成システム。
The image generation system according to claim 1,
Analyzing the content of the music that is actually output, further comprising analysis means for generating content information indicating the content,
The extraction means extracts the extraction template based on the generated content information,
Further, the generation means edits the extraction template based on the generated content information to generate the image information.
請求項2に記載の画像生成システムにおいて、
前記画像情報を構成する素材となる素材画像に対応する素材画像情報を蓄積する画像蓄積手段と、
前記生成された内容情報に基づいて、前記実際に出力される音楽に対応する前記素材画像情報を前記画像蓄積手段から抽出する素材画像情報抽出手段と、
を更に備え、
前記生成手段は、前記生成された内容情報と、前記抽出された素材画像情報と、に基づいて前記抽出テンプレートを編集し、前記画像情報を生成することを特徴とする画像生成システム。
The image generation system according to claim 2,
Image storage means for storing material image information corresponding to a material image as a material constituting the image information;
Material image information extraction means for extracting the material image information corresponding to the actually output music from the image storage means based on the generated content information;
Further comprising
The image generation system, wherein the generation unit edits the extraction template based on the generated content information and the extracted material image information to generate the image information.
請求項1に記載の画像生成システムにおいて、
前記音楽に対応する音楽情報には、当該音楽の内容を示すキーワードに対応するキーワード情報が付加されていると共に、
前記実際に出力される音楽に対応する前記音楽情報に付加されている前記キーワード情報を当該音楽情報から抽出するキーワード情報抽出手段を更に備え、
前記抽出手段は、前記抽出されたキーワード情報に基づいて前記抽出テンプレートを抽出し、
更に前記生成手段は、前記生成された抽出テンプレートに対応する前記画像情報を生成することを特徴とする画像生成システム。
The image generation system according to claim 1,
The music information corresponding to the music includes keyword information corresponding to a keyword indicating the content of the music,
Further comprising keyword information extraction means for extracting the keyword information added to the music information corresponding to the music that is actually output from the music information;
The extraction means extracts the extraction template based on the extracted keyword information,
Further, the generation means generates the image information corresponding to the generated extraction template.
請求項1に記載の画像生成システムにおいて、
前記音楽に対応する音楽情報には、当該音楽の属性を少なくとも示す付加情報が付加されていると共に、
前記画像情報を構成する素材となる素材画像に対応する素材画像情報を蓄積する画像蓄積手段と、
前記実際に出力される音楽に対応する前記付加情報を当該音楽情報から抽出する付加情報抽出手段と、
を更に備え、
前記抽出手段は、前記抽出された付加情報と、前記蓄積されている素材画像情報と、に基づいて前記抽出テンプレートを抽出し、
更に前記生成手段は、前記生成された抽出テンプレートに対応する前記画像情報を生成することを特徴とする画像生成システム。
The image generation system according to claim 1,
The music information corresponding to the music is added with additional information indicating at least the attribute of the music,
Image storage means for storing material image information corresponding to a material image as a material constituting the image information;
Additional information extraction means for extracting the additional information corresponding to the music that is actually output from the music information;
Further comprising
The extraction means extracts the extraction template based on the extracted additional information and the accumulated material image information,
Further, the generation means generates the image information corresponding to the generated extraction template.
請求項1に記載の画像生成システムにおいて、
前記音楽に対応する複数の音楽情報を蓄積する音楽情報蓄積手段と、
前記画像情報を構成する素材となる素材画像に対応する素材画像情報を蓄積する画像蓄積手段と、
実際に出力される前記音楽を検索するためのキーワードを入力するために用いられる入力手段と、
前記入力されたキーワードの内容を解析し、当該内容に対応するキーワード内容情報を生成するキーワード内容情報生成手段と、
前記生成されたキーワード内容情報に基づいて、前記実際に出力される音楽に対応する前記音楽情報を、前記音楽情報蓄積手段から抽出する音楽情報抽出手段と、
前記抽出された音楽情報に対応する前記素材画像情報を、前記画像蓄積手段から抽出する画像情報抽出手段と、
前記抽出された音楽情報の内容を解析し、当該音楽情報の内容を示す音楽内容情報を生成する解析手段と、
を更に備え、
前記抽出手段は、前記抽出された音楽情報に基づいて前記抽出テンプレートを抽出し、
前記生成手段は、前記生成された音楽内容情報に基づき、前記抽出された抽出テンプレートを用いて前記画像情報を生成することを特徴とする画像生成システム。
The image generation system according to claim 1,
Music information storage means for storing a plurality of music information corresponding to the music;
Image storage means for storing material image information corresponding to a material image as a material constituting the image information;
Input means used for inputting a keyword for searching for the music that is actually output;
Analyzing the content of the input keyword and generating keyword content information generating means corresponding to the content;
Music information extraction means for extracting from the music information storage means the music information corresponding to the music that is actually output based on the generated keyword content information;
Image information extraction means for extracting the material image information corresponding to the extracted music information from the image storage means;
Analyzing means for analyzing the content of the extracted music information and generating music content information indicating the content of the music information;
Further comprising
The extraction means extracts the extraction template based on the extracted music information,
The image generation system characterized in that the generation means generates the image information using the extracted extraction template based on the generated music content information.
請求項6に記載の画像生成システムにおいて、
前記キーワード内容情報生成手段は、異なるタイミングで入力された複数のキーワードの内容を夫々解析し、当該各内容に対応する一の前記キーワード内容情報を生成することを特徴とする画像生成システム。
The image generation system according to claim 6.
The keyword content information generating unit analyzes the contents of a plurality of keywords input at different timings, and generates one keyword content information corresponding to each content.
請求項1に記載の画像生成システムにおいて、
前記音楽に対応する複数の音楽情報を蓄積する音楽情報蓄積手段と、
前記画像情報を構成する素材となる素材画像に対応する素材画像情報を蓄積する画像蓄積手段と、
前記出力される音楽及び画像を視聴する視聴者の気分を示す気分情報を取得する取得手段と、
前記取得された気分情報の内容を解析し、当該内容に対応する気分内容情報を生成する気分内容情報生成手段と、
前記生成された気分内容情報に基づいて、前記実際に出力される音楽に対応する前記音楽情報を、前記音楽情報蓄積手段から抽出する音楽情報抽出手段と、
前記実際に出力される音楽に対応する前記素材画像情報を、前記生成された気分内容情報に基づき前記画像蓄積手段から抽出する画像情報抽出手段と、
を更に備え、
前記抽出手段は、前記生成された気分内容情報に基づいて前記抽出テンプレートを抽出し、
前記生成手段は、前記抽出された抽出テンプレートを用いて前記画像情報を生成することを特徴とする画像生成システム。
The image generation system according to claim 1,
Music information storage means for storing a plurality of music information corresponding to the music;
Image storage means for storing material image information corresponding to a material image that is a material constituting the image information;
Obtaining means for obtaining mood information indicating a mood of a viewer who views the music and images output;
Analyzing the content of the acquired mood information, and generating mood content information generating means corresponding to the content;
Music information extraction means for extracting from the music information storage means the music information corresponding to the music that is actually output based on the generated mood content information;
Image information extraction means for extracting the material image information corresponding to the music that is actually output from the image storage means based on the generated mood content information;
Further comprising
The extraction means extracts the extraction template based on the generated mood content information,
The image generating system, wherein the generating means generates the image information using the extracted extraction template.
請求項1に記載の画像生成システムにおいて、
前記音楽及び前記画像と並行して出力される文字に対応する文字情報を蓄積する文字情報蓄積手段と、
前記音楽及び前記画像と並行して出力される効果音に対応する効果音情報を蓄積する効果音情報蓄積手段と、
前記出力される音楽及び画像を視聴する視聴者の気分を示す気分情報を取得する取得手段と、
前記取得された気分情報の内容を解析し、当該内容に対応する気分内容情報を生成する気分内容情報生成手段と、
前記生成された気分内容情報に基づいて、前記実際に出力される音楽に対応する前記音楽情報を、前記音楽情報蓄積手段から抽出する音楽情報抽出手段と、
前記生成された気分内容情報に基づいて、前記実際に出力される音楽に対応する前記文字情報を、前記文字情報蓄積手段から抽出する文字情報抽出手段と、
前記生成された気分内容情報に基づいて、前記実際に出力される音楽に対応する前記効果音情報を、前記効果音情報蓄積手段から抽出する効果音情報抽出手段と、
を更に備え、
前記生成手段は、前記生成された内容情報と、前記抽出された文字情報と、前記抽出された効果音情報と、に基づいて前記抽出テンプレートを編集し、前記画像情報を生成することを特徴とする画像生成システム。
The image generation system according to claim 1,
Character information storage means for storing character information corresponding to characters output in parallel with the music and the image;
Sound effect information storage means for storing sound effect information corresponding to the sound output in parallel with the music and the image;
Acquisition means for acquiring mood information indicating a mood of a viewer who views the output music and images;
Analyzing the content of the acquired mood information, and generating mood content information corresponding to the content; mood content information generating means;
Music information extraction means for extracting from the music information storage means the music information corresponding to the music that is actually output based on the generated mood content information;
Character information extraction means for extracting the character information corresponding to the music that is actually output based on the generated mood content information from the character information storage means;
A sound effect information extracting means for extracting the sound effect information corresponding to the actually output music from the sound effect information accumulating means based on the generated mood content information;
Further comprising
The generation means edits the extraction template based on the generated content information, the extracted character information, and the extracted sound effect information, and generates the image information. Image generation system.
請求項8又は9に記載の画像生成システムにおいて、
前記気分内容情報生成手段は、異なるタイミングで取得された複数の気分情報の内容を夫々解析し、当該各内容に対応する一の前記気分内容情報を生成することを特徴とする画像生成システム。
The image generation system according to claim 8 or 9,
The mood content information generation means analyzes the contents of a plurality of mood information acquired at different timings, and generates one mood content information corresponding to each content.
請求項2、3、6から10のいずれか一項に記載の画像生成システムにおいて、
前記蓄積手段は、前記画像情報の生成に用いられた前記抽出テンプレートを、新たな前記画像テンプレートとして蓄積することを特徴とする画像生成システム。
The image generation system according to any one of claims 2, 3, 6 to 10,
The storage unit stores the extraction template used for generating the image information as a new image template.
請求項1から11のいずれか一項に記載の画像生成システムにおいて、
当該画像システムが稼動している周囲の環境の変化を検出し、変化検出信号を生成する環境変化検出手段を更に備え、
前記生成された変化検出信号に基づいて前記画像情報を生成するための処理を実行することを特徴とするが画像生成システム。
In the image generation system according to any one of claims 1 to 11,
An environment change detecting means for detecting a change in the surrounding environment in which the image system is operating and generating a change detection signal;
An image generation system, wherein a process for generating the image information is executed based on the generated change detection signal.
請求項1から11のいずれか一項に記載の画像生成システムにおける前記蓄積手段と、
前記蓄積手段に対して前記画像テンプレートを記録させる記録手段と、
を備えることを特徴とする蓄積装置。
The storage means in the image generation system according to any one of claims 1 to 11,
Recording means for causing the storage means to record the image template;
A storage device comprising:
相互に異なる属性を有する複数種類の前記音楽と並行して夫々出力されるべき前記画像の内容の雛形となる画像テンプレートであって、各種類の前記音楽に夫々対応して予め設定されている複数の画像テンプレートを蓄積する蓄積手段を備え、当該画像テンプレートを用いて前記画像を生成する画像生成システムにおいて実行される画像生成方法であって、
前記蓄積されている複数の画像テンプレートの中から、実際に出力される前記音楽と並行して実際に出力されるべき前記画像に対応する一の前記画像テンプレートを抽出テンプレートとして抽出する抽出工程と、
前記抽出された抽出テンプレートを用いて、前記実際に出力されるべき画像に対応する画像情報を生成する生成工程と、
を備えることを特徴とする画像生成方法。
An image template that is a template of the contents of the image to be output in parallel with a plurality of types of music having different attributes, and a plurality of preset templates corresponding to each type of music An image generation method that is executed in an image generation system that includes storage means for storing the image template and generates the image using the image template,
An extraction step of extracting, as an extraction template, one image template corresponding to the image that is to be actually output in parallel with the music that is actually output, from among the plurality of stored image templates;
Using the extracted extraction template to generate image information corresponding to the image to be actually output;
An image generation method comprising:
音楽と並行して出力される画像を生成する画像生成システムに含まれるコンピュータを、
相互に異なる属性を有する複数種類の前記音楽と並行して夫々出力されるべき前記画像の内容の雛形となる画像テンプレートであって、各種類の前記音楽に夫々対応して予め設定されている複数の画像テンプレートを蓄積する蓄積手段、
前記蓄積されている複数の画像テンプレートの中から、実際に出力される前記音楽と並行して実際に出力されるべき前記画像に対応する一の前記画像テンプレートを抽出テンプレートとして抽出する抽出手段、及び、
前記抽出された抽出テンプレートを用いて、前記実際に出力されるべき画像に対応する画像情報を生成する生成手段、
として機能させることを特徴とする画像生成用プログラム。
A computer included in an image generation system that generates an image output in parallel with music,
An image template that is a template for the contents of the image to be output in parallel with a plurality of types of music having different attributes, and a plurality of preset templates corresponding to each type of the music Storage means for storing image templates of
Extraction means for extracting one image template corresponding to the image that is to be actually output in parallel with the music that is actually output from the plurality of stored image templates, as an extraction template; and ,
Generating means for generating image information corresponding to the image to be actually output using the extracted extraction template;
An image generation program characterized by being caused to function as a computer program.
請求項15に記載の画像生成用プログラムが前記コンピュータで読取可能に記録されていることを特徴とする情報記録媒体。   16. An information recording medium in which the image generation program according to claim 15 is recorded so as to be readable by the computer.
JP2004134242A 2004-04-28 2004-04-28 Image generation system and method, image generation program, and information recording medium Pending JP2005318295A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004134242A JP2005318295A (en) 2004-04-28 2004-04-28 Image generation system and method, image generation program, and information recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004134242A JP2005318295A (en) 2004-04-28 2004-04-28 Image generation system and method, image generation program, and information recording medium

Publications (1)

Publication Number Publication Date
JP2005318295A true JP2005318295A (en) 2005-11-10

Family

ID=35445266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004134242A Pending JP2005318295A (en) 2004-04-28 2004-04-28 Image generation system and method, image generation program, and information recording medium

Country Status (1)

Country Link
JP (1) JP2005318295A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008048054A (en) * 2006-08-11 2008-02-28 Fujifilm Corp Moving image generation method, program and apparatus
JP2008066956A (en) * 2006-09-06 2008-03-21 Fujifilm Corp Method, program, and apparatus for generating music image synchronized moving image scenario
JP2011082689A (en) * 2009-10-05 2011-04-21 Kawai Musical Instr Mfg Co Ltd Moving picture creation apparatus, computer program, and storage medium

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000078530A (en) * 1998-08-28 2000-03-14 Nec Corp Information recorder, information recording method and recording medium
JP2001167565A (en) * 1999-12-08 2001-06-22 Sanyo Electric Co Ltd Digital recorder-reproducer using random accessible recording medium and recording-reproducing method of digital data
JP2002099574A (en) * 2000-09-26 2002-04-05 Tsutaya Online:Kk Content search system and collection and control system for content search data
JP2002142188A (en) * 2000-11-02 2002-05-17 Canon Inc Method and device for compiling dynamic image
JP2002218369A (en) * 2001-01-15 2002-08-02 Hitachi Ltd Unit and method for informing no-reproduced recording
JP2002342206A (en) * 2001-05-18 2002-11-29 Fujitsu Ltd Information-providing program, information-providing method and recording medium
JP2003116099A (en) * 2001-10-05 2003-04-18 Olympus Optical Co Ltd Electronic camera and image reproducing device
JP2003209523A (en) * 2002-01-17 2003-07-25 Sharp Corp System for displaying content list corresponding to dynamic state change of user
JP2003208379A (en) * 2002-01-17 2003-07-25 Sharp Corp Contents lists display system and contents viewing system depending on dynamic state of user
JP2003219327A (en) * 2001-09-28 2003-07-31 Canon Inc Image management device, image management method, control program, information processing system, image data management method, adaptor, and server
JP2003283994A (en) * 2002-03-27 2003-10-03 Fuji Photo Film Co Ltd Method and apparatus for compositing moving picture, and program
JP2004048778A (en) * 1993-02-04 2004-02-12 Matsushita Electric Ind Co Ltd Working situation management apparatus

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048778A (en) * 1993-02-04 2004-02-12 Matsushita Electric Ind Co Ltd Working situation management apparatus
JP2000078530A (en) * 1998-08-28 2000-03-14 Nec Corp Information recorder, information recording method and recording medium
JP2001167565A (en) * 1999-12-08 2001-06-22 Sanyo Electric Co Ltd Digital recorder-reproducer using random accessible recording medium and recording-reproducing method of digital data
JP2002099574A (en) * 2000-09-26 2002-04-05 Tsutaya Online:Kk Content search system and collection and control system for content search data
JP2002142188A (en) * 2000-11-02 2002-05-17 Canon Inc Method and device for compiling dynamic image
JP2002218369A (en) * 2001-01-15 2002-08-02 Hitachi Ltd Unit and method for informing no-reproduced recording
JP2002342206A (en) * 2001-05-18 2002-11-29 Fujitsu Ltd Information-providing program, information-providing method and recording medium
JP2003219327A (en) * 2001-09-28 2003-07-31 Canon Inc Image management device, image management method, control program, information processing system, image data management method, adaptor, and server
JP2003116099A (en) * 2001-10-05 2003-04-18 Olympus Optical Co Ltd Electronic camera and image reproducing device
JP2003209523A (en) * 2002-01-17 2003-07-25 Sharp Corp System for displaying content list corresponding to dynamic state change of user
JP2003208379A (en) * 2002-01-17 2003-07-25 Sharp Corp Contents lists display system and contents viewing system depending on dynamic state of user
JP2003283994A (en) * 2002-03-27 2003-10-03 Fuji Photo Film Co Ltd Method and apparatus for compositing moving picture, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008048054A (en) * 2006-08-11 2008-02-28 Fujifilm Corp Moving image generation method, program and apparatus
JP2008066956A (en) * 2006-09-06 2008-03-21 Fujifilm Corp Method, program, and apparatus for generating music image synchronized moving image scenario
JP4660861B2 (en) * 2006-09-06 2011-03-30 富士フイルム株式会社 Music image synchronized video scenario generation method, program, and apparatus
JP2011082689A (en) * 2009-10-05 2011-04-21 Kawai Musical Instr Mfg Co Ltd Moving picture creation apparatus, computer program, and storage medium

Similar Documents

Publication Publication Date Title
CN102163339B (en) Signal conditioning package, information processing method and program
CN101185138B (en) Display device
US20040175159A1 (en) Searchable DVD incorporating metadata
US8713069B2 (en) Playlist search device, playlist search method and program
KR960038911A (en) KARAOKE RECORDING MEDIUM, METHOD FOR REPRODUCING KARAOKE DATA FROM THIS RECORDING MEDIUM, AND RECORDING APPARATUS AND METHOD FOR RECORDING KARAOKE DATA IN RECORDING MEDIUM
CN1998050A (en) Method and apparatus for playing multimedia play list and storing media therefor
JP2003330777A (en) Data file reproduction device, recording medium, data file recording device, data file recording program
KR20090026942A (en) Method and apparatus for recording multimedia data by automatically generating/updating metadata
JP2009266005A (en) Image retrieval method, image retrieval program, music player, and article for music retrieval
KR20110043897A (en) Apparatus and method for generating play list for multimedia based on user experience in portable multimedia player
JP4196052B2 (en) Music retrieval / playback apparatus and medium on which system program is recorded
JP5146114B2 (en) Music player
JP2004153764A (en) Meta-data production apparatus and search apparatus
JP2005318295A (en) Image generation system and method, image generation program, and information recording medium
JP4973409B2 (en) Audio apparatus and music playback program
US20120271830A1 (en) Data processing device
JP2007226880A (en) Reproduction device, search method, and computer program
JP2005202453A (en) Content reproduction device, content reproduction method and program
CN101925897A (en) Method of suggesting accompaniment tracks for synchronised rendering with content data item
JP6649745B2 (en) Content data management device, program, and content data management method
JP5192033B2 (en) Content playback apparatus and program
JP2008048054A (en) Moving image generation method, program and apparatus
JP2006323792A (en) Metadata integration device and program
JP4263151B2 (en) Content reproduction pattern generation apparatus, content reproduction system, and content reproduction pattern generation method
KR19990070912A (en) How to display a singer&#39;s photo of a song half cycle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080930

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090324