JP5022562B2 - Music content providing method, music content providing apparatus, and music content providing program - Google Patents

Music content providing method, music content providing apparatus, and music content providing program Download PDF

Info

Publication number
JP5022562B2
JP5022562B2 JP2004262118A JP2004262118A JP5022562B2 JP 5022562 B2 JP5022562 B2 JP 5022562B2 JP 2004262118 A JP2004262118 A JP 2004262118A JP 2004262118 A JP2004262118 A JP 2004262118A JP 5022562 B2 JP5022562 B2 JP 5022562B2
Authority
JP
Japan
Prior art keywords
vocal
listener
performance
content
script
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004262118A
Other languages
Japanese (ja)
Other versions
JP2006078732A (en
Inventor
章夫 篠原
秀晃 大木
健太 中内
知子 石橋
賢二 小檜山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Keio University
Original Assignee
Nippon Telegraph and Telephone Corp
Keio University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Keio University filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004262118A priority Critical patent/JP5022562B2/en
Publication of JP2006078732A publication Critical patent/JP2006078732A/en
Application granted granted Critical
Publication of JP5022562B2 publication Critical patent/JP5022562B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To dynamically change and provide sound information such as music in a distinguishable form. <P>SOLUTION: A content output device 3 divides contents including the sound information provided from a content distributor 2 into two or more pieces of partial sound information constituting the sound information, stores them, and on the basis of the detected result of a camera 4 which detects the state of the listener of the contents including the sound information, outputs the partial sound information corresponding to the detected result to a speaker 6. <P>COPYRIGHT: (C)2006,JPO&amp;NCIPI

Description

本発明は音楽コンテンツ提供技術に係り、詳しくは音楽それ自体の広告または音楽を効果的に使用した広告を目的としたコンテンツを大画面に出力し、コンテンツが視聴可能な領域にいる人物の動作に応じてコンテンツの音楽出力と画面出力を動的に変化させる音楽コンテンツ提供技術に関するものである。 The present invention relates to a music content providing technique, and more specifically, to output a content intended for an advertisement of music itself or an advertisement using music effectively on a large screen, and for an operation of a person in an area where the content can be viewed. The present invention relates to a music content providing technique that dynamically changes the music output and screen output of the content .

従来、駅構内やビルの入口等の公共空間に設けられたプラズマディスプレイやプロジェクタ等の大画面表示装置を介して広告や案内等のコンテンツを出力し、コンテンツが視聴可能な領域にいる人物(以下、可視聴者と称す。)の動作に応じてコンテンツの出力を動的に変化させるものがある。   Conventionally, content such as advertisements and guidance is output via a large-screen display device such as a plasma display or projector provided in public spaces such as station premises and building entrances, and people in areas where content can be viewed (hereinafter referred to as In some cases, the output of the content is dynamically changed according to the operation of the viewer.

例えば、図6に示すように、大画面のディスプレイ90にコンテンツを表示する一つまたは複数のウインドウ91を表示し、(a)可視聴者92がウインドウ91の前を通るときにウインドウ91のサイズを拡大し、(b)可視聴者92がウインドウ91の前で立ち止まるとコンテンツの詳細情報をウインドウ91に表示し、(c)可視聴者92がウインドウ91の前で長時間滞留したり、ウインドウ91に対して指を差したりすると地図やクーポン情報等のコンテンツに関する有用な情報を表示するものがある。   For example, as shown in FIG. 6, one or a plurality of windows 91 for displaying content is displayed on a large-screen display 90, and (a) the size of the window 91 when the viewer 92 passes in front of the window 91. (B) When the viewable viewer 92 stops in front of the window 91, detailed information of the content is displayed on the window 91. (c) The viewable viewer 92 stays in front of the window 91 for a long time. Some display information useful for content such as a map or coupon information when a finger is pointed at 91.

また、図7に示すように、大画面のディスプレイ90に地図を表示し、(d)可視聴者92が地図上の決められた位置の前に立ち止まると、対応する位置に関する情報を表示するウインドウ91をポップアップ表示し、(e)可視聴者92がウインドウ91に近づくと詳細情報をウインドウ91に表示するものがある。   Also, as shown in FIG. 7, a map is displayed on a large-screen display 90, and (d) a window that displays information about the corresponding position when the viewer 92 stops before a predetermined position on the map. 91 is displayed in a pop-up manner, and (e) when the viewer 92 approaches the window 91, detailed information is displayed on the window 91.

上記のようなサービスを実現するための技術として、例えば、映像または静止画像のマルチメディア情報を提示した複数の画面に囲まれた空間内部で利用者が映像または音楽を視聴するマルチメディア情報空間に情報を入出力するもので、マルチメディア情報空間に存在する複数の利用者の状態を検出し、検出された複数の利用者の状態を指示命令に変換し、変換された指示命令を処理して指示命令に応じてマルチメディア情報空間に出力すべきマルチメディア情報を更新し、更新したマルチメディア情報をマルチメディア情報空間に出力するものがある(例えば、特許文献1参照。)。
特開2001−216527号公報
As a technique for realizing the service as described above, for example, a multimedia information space in which a user views video or music within a space surrounded by a plurality of screens presenting multimedia information of video or still images. It is used to input and output information. It detects the status of multiple users in the multimedia information space, converts the detected status of multiple users into instruction commands, and processes the converted instruction commands. There is one that updates multimedia information to be output to the multimedia information space in response to an instruction command, and outputs the updated multimedia information to the multimedia information space (see, for example, Patent Document 1).
JP 2001-216527 A

しかしながら、上記の従来技術では、映像情報を可視聴者に動的に変化させて視聴させることができるものの、音楽などの音声情報については効果音的な使用方法かBGM的な使用方法などの映像に従属したような提示方法が一般的であり、音楽などの音声情報自体の広告を行いたい場合には以下のような問題があった。   However, in the above prior art, video information can be dynamically changed and viewed by a viewer, but for audio information such as music, video such as an effective sound usage method or a BGM usage method is used. In general, the presentation method subordinate to the above method is generally used, and there is the following problem when it is desired to advertise audio information such as music.

(問題1)
映像だと複数の可視聴者に対し複数の映像を同時に提示することで複数の情報を同時に提示できるが、音楽などの音声情報の場合は同時に複数の異なる音声を提示するとそれぞれの判別が困難または不可能になってしまうため、複数の視聴者に対して音楽などの音声情報を提供する場合はジュークボックスのように順番に音声を再生するのみである。
(Problem 1)
In the case of video, a plurality of information can be presented simultaneously by presenting a plurality of videos to a plurality of viewers at the same time. Therefore, when audio information such as music is provided to a plurality of viewers, the audio is simply played in order like a jukebox.

(問題2)
上記の問題1をふまえて、同時に流す音源を一つにした場合には変化させられるものが映像のみとなってしまうので、視聴者にとって魅力的なものとはならない。
(Problem 2)
In consideration of the above problem 1, if only one sound source is played at the same time, only the video can be changed, which is not attractive to the viewer.

このような問題から、音楽などの音声情報自体の広告を効果的に行うことは難しいという課題が残されてきた。   Due to such problems, there remains a problem that it is difficult to effectively advertise audio information such as music.

本発明はこのような課題を解決するためになされたもので、その目的は、提供したい音楽コンテンツをパート毎に分離して用意しておき、視聴者の動きに応じて動的に構成することで音楽コンテンツ自体の広告に対する、より高い注目度を得られる音楽コンテンツ提供技術を提供することにある。 The present invention has been made to solve such problems, and its purpose is to prepare music contents to be provided separately for each part and dynamically configure them according to the movement of the viewer. The object of the present invention is to provide music content providing technology that can obtain a higher degree of attention with respect to advertisements of music content itself.

上記課題を解決するために、請求項1に記載の発明は、予め定められた複数の領域のいずれかの領域に進入する聴取者を検出するセンサと、前記センサによって検出された聴取者が進入した領域に対応付けられたヴォーカルまたは楽器による演奏を音により再生するコンテンツ出力部と、前記コンテンツ出力部に前記ヴォーカルまたは楽器による演奏を出力させるスクリプトを実行するスクリプト実行部と、を有し、ヴォーカルまたは楽器による演奏を同期させて一つの楽曲を構成し、当該楽曲を音により再生する音楽コンテンツを聴取者に提供する音楽コンテンツ提供装置による音楽コンテンツ提供方法であって、前記センサが、予め定められた複数の領域のうちのいずれか一つの領域に聴取者が進入したことを検出すると、前記スクリプト実行部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を前記コンテンツ出力部に出力させるスクリプトを実行し、前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を音により再生し、前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を音により再生している状態で、前記センサが、前記複数の領域のうちの他の領域に前記聴取者が進入したことを検出すると、前記スクリプト実行部が、前記他の領域に対応付けられたヴォーカルまたは楽器の演奏を、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同期させて、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同時に、前記コンテンツ出力部に出力させるスクリプトを実行し、前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と前記他の領域に対応付けられたヴォーカルまたは楽器の演奏とで構成される一つの楽曲を音楽コンテンツとして前記聴取者に提供する、ことを特徴とする。 In order to solve the above-mentioned problem, the invention according to claim 1 is directed to a sensor that detects a listener who enters any one of a plurality of predetermined areas, and a listener detected by the sensor enters. A content output unit that reproduces the performance of the vocal or musical instrument associated with the region by sound, and a script execution unit that executes a script that causes the content output unit to output the performance of the vocal or musical instrument. Alternatively, a music content providing method by a music content providing apparatus that synchronizes the performance of musical instruments to compose one music and provides the listener with music content for reproducing the music by sound, wherein the sensor is set in advance. and the listener in any one region of the plurality of regions is detected to be entered, the script Execution unit, a playing the associated vocal or instrument to said one region to run the script to be output to the content output unit, the content output section, vocals or instrument associated with said one region In a state where the performance is reproduced by sound, and the content output unit is reproducing the performance of the vocal or the musical instrument associated with the one area by sound, the sensor is the other of the plurality of areas. When it is detected that the listener has entered the area, the script execution unit performs the performance of the vocal or instrument associated with the other area as the performance of the vocal or instrument associated with the one area. synchronously, simultaneously with the playing of vocal or instrument associated with said one region, scan for output to the content output section The content output unit performs music on a piece of music composed of a vocal or musical instrument performance associated with the one area and a vocal or musical instrument performance associated with the other area. The content is provided to the listener as content .

また、請求項2に記載の発明は、聴取者を検出するセンサが、予め定められた複数の領域のいずれかの領域の聴取者を検出する検出ステップと、映像解析部が、前記聴取者の検出結果から当該聴取者の位置を特定する位置特定ステップと、前記位置特定ステップの位置特定結果に基づいて、イベント発生部が、前記複数の領域のいずれかの領域に前記聴取者が進入したことを示すイベントを発生するイベント発生ステップと、スクリプト実行部が前記イベントに対応したスクリプトを実行するスクリプト実行ステップと、コンテンツ出力部が前記スクリプトに対応したコンテンツを出力するコンテンツ出力ステップと、を有する音楽コンテンツ提供方法であって、前記検出ステップで、前記センサが、予め定められた複数の領域のいずれかの領域に進入した聴取者を検出すると、前記位置特定ステップで、前記映像解析部が、前記聴取者の位置に基づいて特定される一つの領域を特定し、前記イベント発生ステップで、前記イベント発生部が、前記一つの領域に前記聴取者が進入したことを示すイベントを発生し、前記スクリプト実行ステップで、前記スクリプト実行部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を前記コンテンツ出力部に出力させるスクリプトを実行し、前記コンテンツ出力ステップで、前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を音により再生し、前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を音により再生している状態で、前記検出ステップで、前記センサが、予め定められた複数の領域の他の領域に前記聴取者が進入したことを検出すると、前記位置特定ステップで、前記映像解析部が、当該聴取者の位置に基づいて特定される他の領域を特定し、前記イベント発生ステップで、前記イベント発生部が、前記他の領域に前記聴取者が進入したことを示すイベントを発生し、前記スクリプト実行ステップで、前記スクリプト実行部が、前記他の領域に対応付けられたヴォーカルまたは楽器の演奏を、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同期させて、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同時に、前記コンテンツ出力部に出力させるスクリプトを実行し、前記コンテンツ出力ステップで、前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と前記他の領域に対応付けられたヴォーカルまたは楽器の演奏とで構成される一つの楽曲を音楽コンテンツとして前記聴取者に提供する、ことを特徴とする。
また、請求項3に記載の発明は、聴取者を検出するセンサが、予め定められた複数の領域のいずれかの領域の聴取者を検出する検出ステップと、映像解析部が、前記聴取者の検出結果から当該聴取者の位置を特定する位置特定ステップと、前記位置特定ステップの位置特定結果に基づいて、イベント発生部が、前記複数の領域のいずれかの領域に前記聴取者が進入したことを示すイベントを発生するイベント発生ステップと、スクリプト実行部が前記イベントに対応したスクリプトを実行するスクリプト実行ステップと、コンテンツ出力部が前記スクリプトに対応したコンテンツを出力するコンテンツ出力ステップと、を有する音楽コンテンツ提供方法であって、前記検出ステップで、前記センサが、予め定められた複数の領域のいずれかの領域に進入した聴取者を検出すると、前記位置特定ステップで、前記映像解析部が、前記聴取者の位置に基づいて特定される一つの領域を特定し、前記イベント発生ステップで、前記イベント発生部が、前記一つの領域に前記聴取者が進入したことを示すイベントを発生し、前記スクリプト実行ステップで、前記スクリプト実行部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を前記コンテンツ出力部に出力させるスクリプトを実行し、前記コンテンツ出力ステップで、前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を音により再生し、前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を音により再生している状態で、前記検出ステップで、前記センサが、予め定められた複数の領域の他の領域に前記聴取者が進入したことを検出すると、前記位置特定ステップで、前記映像解析部が、当該聴取者の位置に基づいて特定される他の領域を特定し、前記イベント発生ステップで、前記イベント発生部が、前記他の領域に前記聴取者が進入したことを示すイベントを発生し、前記スクリプト実行ステップで、前記スクリプト実行部が、前記他の領域に対応付けられたヴォーカルまたは楽器の演奏を、前記コンテンツ出力部に出力させるスクリプトを実行し、前記コンテンツ出力ステップで、前記コンテンツ出力部が、前記他の領域に対応付けられたヴォーカルまたは楽器の演奏を、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同期させて、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同時に、音により再生することで、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と前記他の領域に対応付けられたヴォーカルまたは楽器の演奏とで構成される一つの楽曲が音楽コンテンツとして前記聴取者に提供される、ことを特徴とする。
According to a second aspect of the present invention, there is provided a detection step in which a sensor for detecting a listener detects a listener in any one of a plurality of predetermined regions; Based on the position specifying step for specifying the position of the listener from the detection result and the position specifying result of the position specifying step , the event generating unit has entered the listener into any one of the plurality of areas. music with the event generation step of generating an event indicating and a script execution step of executing the script by the script execution unit corresponding to the event, and a content output step of outputting the content to the content output unit corresponding to the script, the a content providing method, in the detecting step, wherein the sensor is one of a plurality of regions set in advance When a listener who has entered a region is detected, in the position specifying step, the video analysis unit specifies one region specified based on the position of the listener, and in the event generating step, the event generating unit Generates an event indicating that the listener has entered the one area, and in the script execution step, the script execution unit performs a performance of a vocal or a musical instrument associated with the one area. A script to be output to the output unit is executed, and in the content output step, the content output unit reproduces a performance of a vocal or an instrument associated with the one area by sound, and the content output unit In the state where the vocal or musical instrument performance associated with the two areas is being reproduced by sound, the detection step When the sensor detects that the listener has entered another area of the plurality of predetermined areas, the video analysis unit is identified based on the position of the listener in the position identifying step. Specify another region, and in the event generation step, the event generation unit generates an event indicating that the listener has entered the other region, and in the script execution step, the script execution unit includes: The performance of the vocal or instrument associated with the other area is synchronized with the performance of the vocal or instrument associated with the one area, and the performance of the vocal or instrument associated with the one area. At the same time, a script to be output to the content output unit is executed, and in the content output step, the content output unit is set in the one area. One music composed of the performance of the associated vocal or instrument and the performance of the vocal or instrument associated with the other area is provided to the listener as music content .
According to a third aspect of the present invention, there is provided a detection step in which a sensor for detecting a listener detects a listener in any one of a plurality of predetermined regions; Based on the position specifying step for specifying the position of the listener from the detection result and the position specifying result of the position specifying step , the event generating unit has entered the listener into any one of the plurality of areas. music with the event generation step of generating an event indicating and a script execution step of executing the script by the script execution unit corresponding to the event, and a content output step of outputting the content to the content output unit corresponding to the script, the a content providing method, in the detecting step, wherein the sensor is one of a plurality of regions set in advance When a listener who has entered a region is detected, in the position specifying step, the video analysis unit specifies one region specified based on the position of the listener, and in the event generating step, the event generating unit Generates an event indicating that the listener has entered the one area, and in the script execution step, the script execution unit performs a performance of a vocal or a musical instrument associated with the one area. A script to be output to the output unit is executed, and in the content output step, the content output unit reproduces a performance of a vocal or an instrument associated with the one area by sound, and the content output unit In the state where the vocal or musical instrument performance associated with the two areas is being reproduced by sound, the detection step When the sensor detects that the listener has entered another area of the plurality of predetermined areas, the video analysis unit is identified based on the position of the listener in the position identifying step. Specify another region, and in the event generation step, the event generation unit generates an event indicating that the listener has entered the other region , and in the script execution step, the script execution unit includes: A script for outputting the vocal or musical instrument performance associated with the other region to the content output unit is executed, and in the content output step, the content output unit causes the vocal associated with the other region to be output. Alternatively, the musical instrument performance is synchronized with the vocal or musical instrument performance associated with the one area, and is associated with the one area. It is composed of a performance of a vocal or musical instrument associated with the one area and a performance of a vocal or musical instrument associated with the other area by playing back with the sound at the same time as the performance of the designated vocal or musical instrument. One music piece is provided to the listener as music content.

また、請求項4に記載の発明は、ヴォーカルまたは楽器の演奏から構成される楽曲を音により再生する音楽コンテンツを聴取者に提供する音楽コンテンツ提供装置であって、予め定められた複数の領域のいずれかの領域に進入する聴取者を検出するセンサと、前記センサによって検出された聴取者が進入した領域に対応付けられたヴォーカルまたは楽器の演奏を音により再生するコンテンツ出力部と、前記センサが、予め定められた複数の領域のうちのいずれか一つの領域に聴取者が進入したことを検出すると、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を前記コンテンツ出力部に出力させるスクリプトを実行し、前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を出力している状態で、前記センサが、前記複数の領域のうちの他の領域に前記聴取者が進入したことを検出すると、前記他の領域に対応付けられたヴォーカルまたは楽器の演奏を、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同期させて、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同時に、前記コンテンツ出力部に出力させるスクリプトを実行するスクリプト実行部と、を有し、前記コンテンツ出力部から出力される前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と前記他の領域に対応付けられたヴォーカルまたは楽器の演奏とが一つの楽曲を構成し、当該楽曲が音楽コンテンツとして聴取者に提供される、ことを特徴とする。 According to a fourth aspect of the present invention, there is provided a music content providing apparatus that provides a listener with music content for reproducing music composed of vocals or musical instrument performances by means of sound. A sensor for detecting a listener entering any area; a content output unit for reproducing a vocal or musical instrument performance associated with the area detected by the sensor; A script that, when detecting that a listener has entered any one of a plurality of predetermined areas, causes the content output unit to output a vocal or musical instrument performance associated with the one area And the content output unit outputs the performance of the vocal or musical instrument associated with the one area. In the sensor, corresponding to another when the listener is detected that has entered the area, the performance of vocal or instrument associated with the other regions, the one region of the plurality of regions A script execution unit that executes a script to be output to the content output unit simultaneously with the performance of the vocal or instrument associated with the one region, in synchronization with the performance of the attached vocal or instrument , The vocal or musical instrument performance associated with the one area output from the content output unit and the vocal or musical instrument performance associated with the other area constitute one musical composition, and the musical composition is music. It is provided to the listener as content .

また、請求項5に記載の発明は、予め定められた複数の領域のいずれかの領域の聴取者を検出するセンサと、前記聴取者の検出結果から当該聴取者の位置を特定する映像解析部と、前記映像解析部の位置特定結果から、前記複数の領域のいずれかの領域に前記聴取者が進入したことを示すイベントを発生するイベント発生部と、前記イベントに対応したスクリプトを実行するスクリプト実行部と、前記スクリプトに対応したコンテンツを出力するコンテンツ出力部と、を有する音楽コンテンツ提供装置であって、前記イベント発生部で、前記複数の領域のうちのいずれか一つの領域に聴取者が進入したことを示すイベントが発生すると、前記スクリプト実行部は、当該一つの領域に対応付けられたヴォーカルまたは楽器の演奏を前記コンテンツ出力部に出力させるスクリプトを実行し、前記コンテンツ出力部は、前記一つ領域に対応付けられたヴォーカルまたは楽器の演奏を出力し、前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を出力している状態で、前記イベント発生部で、前記複数の領域のうちの他の領域に前記聴取者が進入したことを示すイベントが発生すると、前記スクリプト実行部は、前記他の領域に対応付けられたヴォーカルまたは楽器の演奏を、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同期させて、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同時に、前記コンテンツ出力部に出力させるスクリプトを実行することで、前記コンテンツ出力部から出力される前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と前記他の領域に対応付けられたヴォーカルまたは楽器の演奏とが一つの楽曲を構成し、当該楽曲が音楽コンテンツとして前記聴取者に提供される、ことを特徴とする。
また、請求項6に記載の発明は、予め定められた複数の領域のいずれかの領域の聴取者を検出するセンサと、前記聴取者の検出結果から当該聴取者の位置を特定する映像解析部と、前記映像解析部の位置特定結果から、前記複数の領域のいずれかの領域に前記聴取者が進入したことを示すイベントを発生するイベント発生部と、前記イベントに対応したスクリプトを実行するスクリプト実行部と、前記スクリプトに対応したコンテンツを出力するコンテンツ出力部と、を有する音楽コンテンツ提供装置であって、前記イベント発生部で、前記複数の領域のうちのいずれか一つの領域に聴取者が進入したことを示すイベントが発生すると、前記スクリプト実行部は、当該一つの領域に対応付けられたヴォーカルまたは楽器の演奏を前記コンテンツ出力部に出力させるスクリプトを実行し、前記コンテンツ出力部は、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を出力し、前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を出力している状態で、前記イベント発生部で、前記複数の領域のうちの他の領域に前記聴取者が進入したことを示すイベントが発生すると、前記スクリプト実行部は、前記他の領域に対応付けられたヴォーカルまたは楽器の演奏を、前記コンテンツ出力部に出力させるスクリプトを実行し、前記コンテンツ出力部は、前記他の領域に対応付けられたヴォーカルまたは楽器の演奏を、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同期させて、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同時に、出力することで、前記コンテンツ出力部から出力される前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と前記他の領域に対応付けられたヴォーカルまたは楽器の演奏とが一つの楽曲を構成し、当該楽曲が音楽コンテンツとして前記聴取者に提供される、ことを特徴とする。
The invention according to claim 5 is a sensor for detecting a listener in any one of a plurality of predetermined areas, and a video analysis unit for specifying the position of the listener from the detection result of the listener. An event generating unit that generates an event indicating that the listener has entered one of the plurality of regions based on the position specifying result of the video analysis unit, and a script that executes a script corresponding to the event A music content providing apparatus comprising: an execution unit; and a content output unit that outputs content corresponding to the script, wherein the listener is placed in any one of the plurality of regions in the event generation unit. When an event indicating that an entry has occurred, the script execution unit plays the vocal or musical instrument associated with the one area. Vocals run a script to be output to the output unit, the content output unit outputs the performance of the associated vocal or instrument to said one region, where the content output unit, associated with said one region Alternatively, when an event indicating that the listener has entered another area of the plurality of areas is generated in the event generation unit while the performance of the musical instrument is being output , the script execution unit The performance of the vocal or instrument associated with the other area is synchronized with the performance of the vocal or instrument associated with the one area simultaneously with the performance of the vocal or instrument associated with the one area. the by executing a script to be output to the content output section, versus the one region that is output from the content output unit Tagged vocal or musical performances and the other associated with the region vocal or instrument playing and constitute one of the music, the music is provided to the listener as a music content, and wherein the To do.
The invention according to claim 6 is a sensor that detects a listener in any one of a plurality of predetermined areas, and a video analysis unit that specifies the position of the listener from the detection result of the listener. An event generating unit that generates an event indicating that the listener has entered one of the plurality of regions based on the position specifying result of the video analysis unit, and a script that executes a script corresponding to the event A music content providing apparatus comprising: an execution unit; and a content output unit that outputs content corresponding to the script, wherein the listener is placed in any one of the plurality of regions in the event generation unit. When an event indicating that an entry has occurred, the script execution unit plays the vocal or musical instrument associated with the one area. Run the script to be output to the output section, vocals the content output unit outputs the performance of vocal or instrument associated with said one region, where the content output unit, associated with said one region Alternatively, when an event indicating that the listener has entered another area of the plurality of areas is generated in the event generation unit while the performance of the musical instrument is being output , the script execution unit A script that causes the content output unit to output a vocal or musical instrument performance associated with another region is executed, and the content output unit performs a vocal or musical instrument performance associated with the other region. in synchronization with the vocal or instrument playing associated with one region, associated with said one region Vokaruma The playing instruments simultaneously, by outputting, and the content vocal associated with said one region that is output from the output unit or playing a musical instrument with the other vocal associated with regions or instrument playing Constitutes one piece of music, and the music is provided to the listener as music content .

また、請求項7に記載の発明は、上記の請求項4〜6のいずれかに記載の音楽コンテンツ提供装置の各機能を、コンピュータに実現させるためにコンピュータプログラムで記載してそれを実行可能にしたことを特徴とする。 The invention described in Claim 7, the functions of the music contents providing apparatus according to any one of the claims 4-6, describes a computer program for realizing in the computer it can execute It is characterized by that.

請求項1および請求項4では、センサの検出結果に基づいて音楽コンテンツを構成するヴォーカルまたは楽器の演奏を聴取者に提供するので、聴取者が聴きたいと予想されるヴォーカルまたは楽器の演奏を提供することや、聴取者の状態に応じて提供するヴォーカルまたは楽器の演奏の組合せを変更することが可能となる。また、複数のヴォーカルまたは楽器の演奏を同期させて提供するので、複数のヴォーカルまたは楽器の演奏を重ね合わせて一つの楽曲として同時に情報提供することが可能となる。また、バンド演奏などを、聴取者の位置の検出結果に合わせて各楽器の演奏や全体の演奏など様々な態様で提供することが可能となる。 According to the first and fourth aspects of the present invention, the performance of the vocal or the instrument constituting the music content is provided to the listener based on the detection result of the sensor, so that the performance of the vocal or the instrument that the listener is expected to listen to is provided. It is possible to change the combination of vocals or musical instruments to be provided depending on the listener's condition. In addition, since the performances of a plurality of vocals or instruments are provided in synchronization, it is possible to provide information simultaneously as a single piece of music by superimposing the performances of a plurality of vocals or instruments . Moreover, it becomes possible to provide a band performance etc. in various aspects, such as the performance of each musical instrument, and the whole performance according to the detection result of a listener's position .

なお、聴取者とは音楽コンテンツを聞き取る者である。下記の「発明を実施するための最良の形態」において用いている可視聴者とは画像情報を視認しかつ音楽コンテンツを聞き取る者であり、聴取者は画像情報に関する限定が無い。 A listener is a person who listens to music content . The viewers used in the “Best Mode for Carrying Out the Invention” below are those who visually recognize the image information and listen to the music content , and the listener has no limitation regarding the image information.

請求項2、請求項3、請求項5、及び請求項6では、聴取者の状態に対応したイベントに基づいてスクリプトが実行されるので、聴取者が聴きたいと予想されるヴォーカルまたは楽器の演奏を提供することや、聴取者の状態に応じて提供するヴォーカルまたは楽器の演奏を変更することが可能となる。そして、複数のヴォーカルまたは楽器の演奏を同期させて提供するので、複数のヴォーカルまたは楽器の演奏を重ねあわせて一つの楽曲として同時に情報提供することが可能となる。 In claim 2, claim 3, claim 5, and claim 6 , since the script is executed based on the event corresponding to the state of the listener, the performance of the vocal or instrument that the listener is expected to listen to It is possible to change the performance of vocals or musical instruments to be provided according to the state of the listener. Since the performances of a plurality of vocals or instruments are provided in synchronization, it is possible to provide information simultaneously as a single piece of music by superimposing the performances of a plurality of vocals or instruments .

請求項7では、請求項4〜請求項6の発明の各機能をコンピュータに実行させるプログラムが実現できる。 According to claim 7 , a program for causing a computer to execute the functions of the inventions of claims 4 to 6 can be realized.

本発明によれば、音楽コンテンツ等による広告に対するより高い注目度を得られる音楽コンテンツ提供技術を提供することが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the music content provision technique which can obtain the higher attention degree with respect to the advertisement by music content etc.

以下、本発明の実施形態を図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は本発明の実施形態に係る音声情報出力システム1の構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of an audio information output system 1 according to an embodiment of the present invention.

図1に示すように音声情報出力システム1は、コンテンツを配信するコンテンツ配信装置2と、コンテンツ配信装置2によって配信されたコンテンツを画面出力するコンテンツ出力装置3とを備えている。   As shown in FIG. 1, the audio information output system 1 includes a content distribution device 2 that distributes content, and a content output device 3 that outputs the content distributed by the content distribution device 2 on a screen.

なお、音声情報出力システム1は、複数のコンテンツ配信装置2と、複数のコンテンツ出力装置3を備えることもできるが、本発明を理解しやすくするために以下の説明において音声情報出力システム1は1つのコンテンツ配信装置2と、1つのコンテンツ出力装置3とを備えるものとする。   The audio information output system 1 can include a plurality of content distribution apparatuses 2 and a plurality of content output apparatuses 3. However, in order to facilitate understanding of the present invention, the audio information output system 1 is 1 in the following description. One content distribution device 2 and one content output device 3 are provided.

コンテンツ配信装置2は、複数のコンテンツを記憶する記憶媒体を有するコンピュータ装置によって構成されており、コンテンツ出力装置3に音楽それ自体の広告や音声を効果的に使用した広告を目的とするコンテンツをネットワーク等の伝送路を介して配信するようになっている。   The content distribution device 2 is configured by a computer device having a storage medium for storing a plurality of contents, and the content output device 3 is networked with content intended for advertisement using music itself and advertisements that effectively use sound. Etc. are distributed via a transmission line such as the above.

コンテンツ出力装置3は、コンピュータ装置によって構成され、コンテンツ出力装置3にはカメラ4が設けられている。なお、図1では2台のカメラ4が設置されているが1台1以上のカメラ4を有していればよい。   The content output device 3 is configured by a computer device, and the content output device 3 is provided with a camera 4. In FIG. 1, two cameras 4 are installed, but it is only necessary to have one or more cameras 4.

また、コンテンツ出力装置3は、液晶ディスプレイ、プラズマディスプレイ、プロジェクタ等の大画面のディスプレイ5と、スピーカ6とに接続されており、コンテンツ配信装置2によって配信されたコンテンツをディスプレイ5に画面出力し、スピーカ6に音声出力するようになっている。なお、図1にはコンテンツ出力装置3には1台のスピーカ6が設置されているが、スピーカ6は1台のスピーカでもマルチチャンネルの複数のスピーカでもよい。   The content output device 3 is connected to a large-screen display 5 such as a liquid crystal display, a plasma display, or a projector, and a speaker 6, and outputs the content distributed by the content distribution device 2 to the display 5. Audio is output to the speaker 6. Although one speaker 6 is installed in the content output apparatus 3 in FIG. 1, the speaker 6 may be one speaker or a plurality of multi-channel speakers.

図2は、コンテンツ出力装置3の構成を示すブロック図である。   FIG. 2 is a block diagram showing the configuration of the content output device 3.

図2に示すように、コンテンツ出力装置3はカメラ4によって撮像された映像を解析する映像解析部21と、映像解析部21による解析結果に基づいてイベントを発生するイベント発生部22と、画面出力制御、スピーカ出力制御等が記述されたスクリプトが記憶されたスクリプト記憶部23と、スクリプト記憶部23に記憶されたスクリプトをイベントに応じて実行するスクリプト実行部24と、コンテンツ配信装置2によって配信されたコンテンツを記憶するコンテンツ記憶部25と、スクリプト実行部24からの命令に基づいてコンテンツ記憶部25に記憶されたコンテンツをディスプレイ5およびスピーカ6に出力するコンテンツ出力部26とを備えている。   As shown in FIG. 2, the content output device 3 includes a video analysis unit 21 that analyzes video captured by the camera 4, an event generation unit 22 that generates an event based on the analysis result by the video analysis unit 21, and screen output. Distributed by the content distribution device 2, a script storage unit 23 storing a script describing control, speaker output control, and the like, a script execution unit 24 executing the script stored in the script storage unit 23 according to an event, A content storage unit 25 for storing the content, and a content output unit 26 for outputting the content stored in the content storage unit 25 to the display 5 and the speaker 6 based on a command from the script execution unit 24.

映像解析部21はカメラ4によって撮像された映像を解析することによって可視聴者の位置を特定し、特定した可視聴者の位置から得られた解析結果をイベント発生部22に出力するようになっている。   The video analysis unit 21 identifies the viewer's position by analyzing the video imaged by the camera 4, and outputs the analysis result obtained from the identified viewer's position to the event generation unit 22. ing.

具体的には、映像解析部21はカメラ4によって撮像された映像と、カメラ4の撮像領域に可視聴者がいない状態で撮像された静止画像との差分映像によって、可視聴者の位置を特定するようになっている。なお、音声情報に着目した場合には、可視聴者は聴取者と表現できる。   Specifically, the video analysis unit 21 specifies the position of the viewer based on the difference video between the video captured by the camera 4 and a still image captured in a state where there is no viewer in the imaging area of the camera 4. It is supposed to be. When attention is paid to audio information, the viewer can be expressed as a listener.

また、映像解析部21は差分映像に基づいて可視聴者の特定の領域に対する進入および退出、滞留時間、移動時の速度および加速度、ならびに姿勢を解析するようになっている。   The video analysis unit 21 analyzes the viewer's entry and exit from a specific area, residence time, moving speed and acceleration, and posture based on the difference video.

映像解析部21によって出力された解析結果は、イベント発生部22に入力されるようになっておりイベント発生部22は入力された解析結果に基づいてイベントを発生するようになっている。   The analysis result output by the video analysis unit 21 is input to the event generation unit 22, and the event generation unit 22 generates an event based on the input analysis result.

ここで、イベントとは可視聴者がディスプレイ5に対してどのようなアクションをとったか、即ち、可視聴者の状態を表すもので、例えば、可視聴者が特定の領域に対する進入もしくは退出をしたとき、滞留時間が予め定められた時間を超えた時、予め定められた速度以上もしくは未満の速度で移動した時、予め定められた加速度以上または未満の加速度で移動した時、またはディスプレイ5を指差した姿勢をとったとき等がある。   Here, the event indicates what action the viewer has taken on the display 5, that is, the state of the viewer. For example, the viewer has entered or exited a specific area. When the dwell time exceeds a predetermined time, moves at a speed equal to or higher than a predetermined speed, moves at an acceleration equal to or higher than a predetermined acceleration, or points to the display 5 There are times when you take a different posture.

スクリプト実行部24は、イベント発生部22によって発生されたイベントに応じてスクリプト記憶部23に記憶されたスクリプトを取得し、取得したスクリプトを実行するようになっている。   The script execution unit 24 acquires the script stored in the script storage unit 23 according to the event generated by the event generation unit 22, and executes the acquired script.

ここで、スクリプトには、コンテンツをディスプレイ5上に表示するウインドウの移動やサイズの変更、コンテンツの切り換え、スピーカ6に出力する音声の各パート音量の変更、切り換え等を含む命令が記述されている。   Here, the script includes instructions including movement and size change of the window for displaying the content on the display 5, switching of the content, changing and switching of the volume of each part of the sound output to the speaker 6, and the like. .

例えば、スクリプト実行部24は、所定の領域に可視聴者が進入したことを示すイベントがイベント発生部22によって発生された場合には、ディスプレイ5上の可視聴者が視聴しやすい位置の画像を変化させたり、スピーカ6より音声を出力させるスクリプトをスクリプト記憶部23から取得して実行するようになっている。   For example, when the event generation unit 22 generates an event indicating that a viewer has entered a predetermined area, the script execution unit 24 displays an image on the display 5 at a position that is easily viewable by the viewer. A script for changing or outputting sound from the speaker 6 is acquired from the script storage unit 23 and executed.

コンテンツ出力部26は、スクリプト実行部24によって実行されたスクリプトによる命令に基づいてコンテンツ記憶部25に記憶されたコンテンツをディスプレイ5、スピーカ6に出力するようになっている。   The content output unit 26 is configured to output the content stored in the content storage unit 25 to the display 5 and the speaker 6 based on an instruction by a script executed by the script execution unit 24.

なお、上記の映像解析部21、イベント発生部22、スクリプト実行部24、およびコンテンツ出力部26は、コンテンツ出力装置3を構成するコンピュータ装置が有するCPUによって構成される。   The video analysis unit 21, the event generation unit 22, the script execution unit 24, and the content output unit 26 are configured by a CPU included in a computer device that configures the content output device 3.

また、音声情報出力システム1は、コンテンツ記憶部25によってコンテンツ発生装置を構成することも可能である。 The audio information output system 1 can also configure a content generation device by the content storage unit 25 .

ここで、音声情報出力システム1における画像出力動作の例を図3、図4を用いて説明する。   Here, an example of an image output operation in the audio information output system 1 will be described with reference to FIGS.

図3は、音声情報出力システム1における画面出力動作の例を説明するための説明図である。また、図4は視聴者に提供する音楽コンテンツの例を説明するための説明図である。図4に示すように全パートが揃ったコンテンツ40、およびコンテンツ40の各パート(41〜44)毎に分離したものを用意しておく。   FIG. 3 is an explanatory diagram for explaining an example of a screen output operation in the audio information output system 1. FIG. 4 is an explanatory diagram for explaining an example of music content provided to the viewer. As shown in FIG. 4, the content 40 in which all the parts are arranged, and the parts separated for each part (41 to 44) of the content 40 are prepared.

図3において、可視聴者が誰もいない場合には、映像33〜36は静止画または上にマスクがかかった状態になっている。   In FIG. 3, when there are no viewers, the images 33 to 36 are still images or masked on top.

可視聴者31がディスプレイ5に表示された映像34(ギターの映像)の前の領域に進入すると、可視聴者31が所定領域に進入したことが映像解析部21によって解析され、可視聴者31が映像34の前に進入した旨のイベントがイベント発生部22によって発生される。   When the viewer 31 enters the area before the video 34 (guitar video) displayed on the display 5, the video analysis unit 21 analyzes that the viewer 31 has entered the predetermined area. The event generating unit 22 generates an event indicating that the video has entered before the video 34.

イベント発生部22によって発生されたイベントに応じてスクリプト記憶部23に記憶されたスクリプトがスクリプト実行部24によって取得され、取得されたスクリプトが実行される。   The script stored in the script storage unit 23 is acquired by the script execution unit 24 in accordance with the event generated by the event generation unit 22, and the acquired script is executed.

スクリプト実行部24によって実行されたスクリプトによる命令に基づいてコンテンツ記憶部25に記憶されたコンテンツがコンテンツ出力部26によってディスプレイ5およびスピーカ6に出力される。ディスプレイ5においては、映像34の再生が始まるか、上にかかったマスクがはずれて動画が見えるようになり、スピーカ6からはギターのパート42の再生が行われる。   The content stored in the content storage unit 25 is output to the display 5 and the speaker 6 by the content output unit 26 based on the command by the script executed by the script execution unit 24. On the display 5, the reproduction of the image 34 starts or the mask applied on the display 5 is removed and the moving image can be seen, and the guitar part 42 is reproduced from the speaker 6.

図3において、別の可視聴者32がディスプレイ5に表示された画像36(ヴォーカルの映像)の前の領域に進入すると、可視聴者32が所定領域に進入したことが映像解析部21によって解析され、可視聴者32が映像36の前に進入した旨のイベントがイベント発生部によって発生される。   In FIG. 3, when another viewer 32 enters the area in front of the image 36 (vocal video) displayed on the display 5, the video analysis unit 21 analyzes that the viewer 32 has entered the predetermined area. Then, an event that the viewer 32 has entered before the video 36 is generated by the event generating unit.

イベント発生部22によって発生されたイベントに応じてスクリプト記憶部23に記憶されたスクリプトがスクリプト実行部24によって取得され、取得されたスクリプトが実行される。   The script stored in the script storage unit 23 is acquired by the script execution unit 24 in accordance with the event generated by the event generation unit 22, and the acquired script is executed.

スクリプト実行部24によって実行されたスクリプトによる命令に基づいてコンテンツ記憶部25に記憶されたコンテンツがコンテンツ出力部26によってディスプレイ5およびスピーカ6に出力される。ディスプレイ5においては、映像36の再生が始まるか、上にかかっていたマスクがはずれて動画が見えるようになり、スピーカ6からはヴォーカルのパート44の再生が行われる。この際、可視聴者31がまだ画像34の前にいる場合には、ギターのパート42とヴォーカルのパート44とが重ね合わされて再生される。つまり、スクリプト実行部24がギターのパート42とヴォーカルのパート44とを同期させて再生するスクリプトを実行する、または、コンテンツ出力部26がギターのパート42を再生するスクリプトとヴォーカルのパート44を再生するスクリプトとを受け取ったときは各パートを同期させて出力するようにする。   The content stored in the content storage unit 25 is output to the display 5 and the speaker 6 by the content output unit 26 based on the command by the script executed by the script execution unit 24. On the display 5, the reproduction of the video 36 starts or the mask applied on the display 5 is removed and the moving image can be seen, and the vocal part 44 is reproduced from the speaker 6. At this time, if the viewer 31 is still in front of the image 34, the guitar part 42 and the vocal part 44 are superimposed and reproduced. That is, the script execution unit 24 executes a script that reproduces the guitar part 42 and the vocal part 44 in synchronization, or the content output unit 26 reproduces the script and vocal part 44 that reproduces the guitar part 42. When a script to be received is received, each part is output in synchronization.

本実施形態では、各映像33〜36の前の各領域に全て可視聴者が進入することによって、全パートが重ね合わされて再生されることになる。   In the present embodiment, all viewers enter the respective areas in front of the respective images 33 to 36, so that all the parts are superimposed and reproduced.

ディスプレイ5前の想定される通行者の量によってスクリプトを変更することで、通行者が多いことが想定される場合にはある程度以上の人数がその領域にいる場合に再生が始まるようにすることが可能であり、通行者が少ないことが想定される場合には一度その領域に可視聴者が進入したらその領域から可視聴者が退出しても一定時間は再生を続けることで一人の可視聴者で複数のパートを再生させることも可能である。   By changing the script according to the assumed number of passers-by in front of the display 5, when it is assumed that there are many passers-by, playback may start when a certain number of people are in that area. If it is possible and it is assumed that there are few passers-by, once a viewer enters the area, one viewer can continue by playing for a certain period of time even if the viewer leaves the area. It is also possible to play multiple parts.

また、ディスプレイ5と可視聴者との距離によって再生するパートの音量を変更させることも可能である。   It is also possible to change the volume of the part to be reproduced depending on the distance between the display 5 and the viewer.

これによって、その場の可視聴者たちの動きによって、毎回違うアンサンブルを聴くことが可能となる。   This makes it possible to listen to a different ensemble each time depending on the movement of viewers on the spot.

また、原曲と同じアレンジで再生することが出来た場合には、特典映像やクーポンをディスプレイ5に表示してもよい。   In addition, when it is possible to reproduce with the same arrangement as the original music, a privilege video or a coupon may be displayed on the display 5.

これにより、音楽を単なる効果音やBGMとして使用するよりも、可視聴者の注目を得ることが出来る。   Thereby, a viewer's attention can be acquired rather than using music as a mere sound effect or BGM.

ここで、音声情報出力システム1における動作を図5を用いて説明する。図5は音声情報出力システム1における動作を説明するシーケンス図である。   Here, the operation in the audio information output system 1 will be described with reference to FIG. FIG. 5 is a sequence diagram for explaining the operation in the audio information output system 1.

図5において、まず、映像解析部21がカメラ4で撮影した映像を解析する(S1)。   In FIG. 5, first, the video analysis unit 21 analyzes the video shot by the camera 4 (S1).

映像に変化があるかを判断し(S2)、映像に変化があると判断した場合には後段のS3の処理に移り、映像に変化がないと判断した場合にはS1の処理を行う。   It is determined whether there is a change in the video (S2). If it is determined that there is a change in the video, the process proceeds to the subsequent S3, and if it is determined that there is no change in the video, the process of S1 is performed.

S2で映像に変化があると判断した場合には、イベント発生部22が変化の内容に応じたイベントを発生する(S3)。   If it is determined in S2 that there is a change in the video, the event generator 22 generates an event corresponding to the content of the change (S3).

スクリプト実行部24が、発生したイベントと対応するアクションスクリプトを取得し(S4)、取得したスクリプトを実行する(S5)。   The script execution unit 24 acquires an action script corresponding to the generated event (S4), and executes the acquired script (S5).

その結果、スクリプトにかかれたようにディスプレイ5やスピーカ6にコンテンツが再生される。   As a result, the content is reproduced on the display 5 and the speaker 6 as written in the script.

なお、本発明は図1、図2に示したシステムまたは装置の一部又は全部の処理機能をプログラムとして構成してコンピュータを用いて実現すること、または図3、図5で示した処理手順をプログラムとして構成してコンピュータに実行させることができる。また、コンピュータでその各部の処理機能を実現するためのプログラム、またはコンピュータにその処理手順を実行させるためのプログラムを、そのコンピュータが読み取り可能な記録媒体、例えば、フレキシブルディスク、MO、ROM、メモリカード、CD、DVD、リムーバブルディスクなどに記録して、保存したり、提供したりすることが可能であり、また、インターネットのような通信ネットワークを介して配布したりすることが可能である。   In the present invention, the processing functions shown in FIGS. 3 and 5 are realized by using a computer by configuring some or all of the processing functions of the system or apparatus shown in FIGS. 1 and 2 as a program. It can be configured as a program and executed by a computer. In addition, a computer-readable recording medium such as a flexible disk, MO, ROM, or memory card can be used to store a program for realizing the processing function of each unit by the computer or a program for causing the computer to execute the processing procedure. It can be recorded on a CD, a DVD, a removable disk, etc., stored, provided, and distributed via a communication network such as the Internet.

また、本実施形態では可視聴者の状態を検出するセンサとしてカメラを用いて説明したが、可視聴者の状態を検出することができるセンサであれば、例えば、赤外線(人感)センサ、静電センサ、超音波センサ、無線タグセンサ、タッチセンサ、圧力センサ、スイッチ等、どのようなセンサを用いてもよく、また、これらのセンサを適宜組み合わせて用いてもよい。   In the present embodiment, the camera is used as a sensor for detecting the state of the viewer. However, any sensor that can detect the state of the viewer can be used, for example, an infrared sensor (human sensor), a static sensor, or the like. Any sensor such as an electric sensor, an ultrasonic sensor, a wireless tag sensor, a touch sensor, a pressure sensor, and a switch may be used, and these sensors may be used in appropriate combination.

以上説明したように、本発明の実施形態に係る音声情報出力システム1によれば、提供したい音楽をパート毎に分離して用意しておき、視聴者の動きに応じて動的に構成することで音楽自体の広告に対するより高い注目度を得ることが出来る音楽コンテンツ提供技術を提供することが可能となる。 As described above, according to the audio information output system 1 according to the embodiment of the present invention, music to be provided is prepared separately for each part and dynamically configured according to the movement of the viewer. Therefore, it is possible to provide a music content providing technology that can obtain a higher degree of attention with respect to an advertisement of music itself.

本発明の音声情報出力システムの構成を示すブロック図。The block diagram which shows the structure of the audio | voice information output system of this invention. 本発明の音声情報出力装置の構成を示すブロック図。The block diagram which shows the structure of the audio | voice information output device of this invention. 本発明の音声情報出力システムにおける画面出力動作の例を説明するための説明図。Explanatory drawing for demonstrating the example of the screen output operation | movement in the audio | voice information output system of this invention. 本発明の視聴者に提供する音楽コンテンツの例を説明するための説明図。Explanatory drawing for demonstrating the example of the music content provided to the viewer of this invention. 本発明の音声情報出力システムにおける動作を説明するシーケンス図。The sequence diagram explaining the operation | movement in the audio | voice information output system of this invention. 従来の音声情報出力システムにおける画面出力動作の例を説明するための説明図。Explanatory drawing for demonstrating the example of the screen output operation | movement in the conventional audio | voice information output system. 従来の音声情報出力システムにおける画面出力動作の例を説明するための説明図。Explanatory drawing for demonstrating the example of the screen output operation | movement in the conventional audio | voice information output system.

符号の説明Explanation of symbols

1…音声情報出力システム(音楽コンテンツ出力システム)
2…コンテンツ配信装置
3…コンテンツ出力装置
4…カメラ
5…ディスプレイ
6…スピーカ
21…映像解析部
22…イベント発生部
23…スクリプト記憶部
24…スクリプト実行部
25…コンテンツ記憶部
26…コンテンツ出力部
31、32…可視聴者
33…アコーディオンのパート
34…ギターのパート
35…ドラムスのパート
36…ヴォーカルのパート
40…元の音楽コンテンツ
41…アコーディオンパート
42…ギターパート
43…ドラムスパート
44…ヴォーカルパート
1. Audio information output system ( music content output system)
DESCRIPTION OF SYMBOLS 2 ... Content delivery apparatus 3 ... Content output apparatus 4 ... Camera 5 ... Display 6 ... Speaker 21 ... Video analysis part 22 ... Event generation part 23 ... Script storage part 24 ... Script execution part 25 ... Content storage part 26 ... Content output part 31 , 32 ... Viewers 33 ... Accordion part 34 ... Guitar part 35 ... Drums part 36 ... Vocal part 40 ... Original music content 41 ... Accordion part 42 ... Guitar part 43 ... Drum spart 44 ... Vocal part

Claims (7)

予め定められた複数の領域のいずれかの領域に進入する聴取者を検出するセンサと、
前記センサによって検出された聴取者が進入した領域に対応付けられたヴォーカルまたは楽器による演奏を音により再生するコンテンツ出力部と、
前記コンテンツ出力部に前記ヴォーカルまたは楽器による演奏を出力させるスクリプトを実行するスクリプト実行部と、を有し、ヴォーカルまたは楽器による演奏を同期させて一つの楽曲を構成し、当該楽曲を音により再生する音楽コンテンツを聴取者に提供する音楽コンテンツ提供装置による音楽コンテンツ提供方法であって、
前記センサが、予め定められた複数の領域のうちのいずれか一つの領域に聴取者が進入したことを検出すると、前記スクリプト実行部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を前記コンテンツ出力部に出力させるスクリプトを実行し、前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を音により再生し、
前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を音により再生している状態で、前記センサが、前記複数の領域のうちの他の領域に前記聴取者が進入したことを検出すると、前記スクリプト実行部が、前記他の領域に対応付けられたヴォーカルまたは楽器の演奏を、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同期させて、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同時に、前記コンテンツ出力部に出力させるスクリプトを実行し、前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と前記他の領域に対応付けられたヴォーカルまたは楽器の演奏とで構成される一つの楽曲を音楽コンテンツとして前記聴取者に提供する、
ことを特徴とする音楽コンテンツ提供方法。
A sensor for detecting a listener entering any one of a plurality of predetermined areas;
A content output unit that reproduces a performance by a vocal or a musical instrument associated with an area in which a listener detected by the sensor has entered by sound;
A script execution unit that executes a script that causes the content output unit to output a performance of the vocal or instrument, and synchronizes the performance of the vocal or instrument to compose one piece of music, and reproduces the song with sound A music content providing method by a music content providing device for providing music content to a listener,
When the sensor detects that a listener has entered one of a plurality of predetermined areas, the script execution unit performs a performance of a vocal or a musical instrument associated with the one area. Is executed by the content output unit, and the content output unit reproduces the performance of the vocal or musical instrument associated with the one area by sound,
The content output unit, the performance of vocal or instrument associated with said one region while being reproduced by the sound, the sensor, the listener enters the other areas of the plurality of regions When detecting that the said script execution unit, the other playing the associated vocal or instrument region, in synchronization with the playing of the associated vocal or instrument to said one region, of the one A script to be output to the content output unit is executed simultaneously with the performance of the vocal or instrument associated with the region, and the content output unit performs the performance of the vocal or instrument associated with the one region and the other Providing the listener with one piece of music composed of vocals or musical instrument performances associated with the region as music content
A music content providing method characterized by the above.
聴取者を検出するセンサが、予め定められた複数の領域のいずれかの領域の聴取者を検出する検出ステップと、
映像解析部が、前記聴取者の検出結果から当該聴取者の位置を特定する位置特定ステップと、
前記位置特定ステップの位置特定結果に基づいて、イベント発生部が、前記複数の領域のいずれかの領域に前記聴取者が進入したことを示すイベントを発生するイベント発生ステップと、
スクリプト実行部が前記イベントに対応したスクリプトを実行するスクリプト実行ステップと、
コンテンツ出力部が前記スクリプトに対応したコンテンツを出力するコンテンツ出力ステップと、を有する音楽コンテンツ提供方法であって、
前記検出ステップで、前記センサが、予め定められた複数の領域のいずれかの領域に進入した聴取者を検出すると、前記位置特定ステップで、前記映像解析部が、前記聴取者の位置に基づいて特定される一つの領域を特定し、前記イベント発生ステップで、前記イベント発生部が、前記一つの領域に前記聴取者が進入したことを示すイベントを発生し、前記スクリプト実行ステップで、前記スクリプト実行部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を前記コンテンツ出力部に出力させるスクリプトを実行し、前記コンテンツ出力ステップで、前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を音により再生し、
前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を音により再生している状態で、前記検出ステップで、前記センサが、予め定められた複数の領域の他の領域に前記聴取者が進入したことを検出すると、前記位置特定ステップで、前記映像解析部が、当該聴取者の位置に基づいて特定される他の領域を特定し、前記イベント発生ステップで、前記イベント発生部が、前記他の領域に前記聴取者が進入したことを示すイベントを発生し、前記スクリプト実行ステップで、前記スクリプト実行部が、前記他の領域に対応付けられたヴォーカルまたは楽器の演奏を、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同期させて、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同時に、前記コンテンツ出力部に出力させるスクリプトを実行し、前記コンテンツ出力ステップで、前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と前記他の領域に対応付けられたヴォーカルまたは楽器の演奏とで構成される一つの楽曲を音楽コンテンツとして前記聴取者に提供する、
ことを特徴とする音楽コンテンツ提供方法。
A detection step in which a sensor for detecting a listener detects a listener in any one of a plurality of predetermined regions;
A video specifying unit for specifying a position of the listener from the detection result of the listener;
Based on the position specifying result of the position specifying step, an event generating step generates an event indicating that the listener has entered one of the plurality of areas; and
A script execution step in which the script execution unit executes a script corresponding to the event;
A content output step in which a content output unit outputs content corresponding to the script;
In the detecting step, when the sensor detects a listener who has entered any one of a plurality of predetermined regions, in the position specifying step, the video analysis unit is based on the position of the listener. One specified area is specified, and in the event generating step, the event generating unit generates an event indicating that the listener has entered the one area, and in the script executing step, the script execution is performed. A unit that executes a script that causes the content output unit to output a vocal or musical instrument performance associated with the one region , and in the content output step, the content output unit is associated with the one region. Playing a vocal or instrumental performance with sound,
In the state in which the content output unit reproduces a performance of a vocal or musical instrument associated with the one area by sound, the sensor may detect other areas in the plurality of predetermined areas in the detection step. In the position specifying step, the video analysis unit specifies another area specified based on the position of the listener, and in the event generating step, the event is detected. The generation unit generates an event indicating that the listener has entered the other area, and in the script execution step, the script execution unit plays a vocal or a musical instrument associated with the other area. , in synchronization with the playing of the vocal or instrument associated with said one region, and performance of vocal or instrument associated with said one region Sometimes, execute a script to be output to the content output unit, by the content output step, the content output unit, associated with playing vocal or instrument associated with said one region to the other region Providing the listener with one piece of music composed of vocals or musical instrument performance as music content;
A music content providing method characterized by the above.
聴取者を検出するセンサが、予め定められた複数の領域のいずれかの領域の聴取者を検出する検出ステップと、
映像解析部が、前記聴取者の検出結果から当該聴取者の位置を特定する位置特定ステップと、
前記位置特定ステップの位置特定結果に基づいて、イベント発生部が、前記複数の領域のいずれかの領域に前記聴取者が進入したことを示すイベントを発生するイベント発生ステップと、
スクリプト実行部が前記イベントに対応したスクリプトを実行するスクリプト実行ステップと、
コンテンツ出力部が前記スクリプトに対応したコンテンツを出力するコンテンツ出力ステップと、を有する音楽コンテンツ提供方法であって、
前記検出ステップで、前記センサが、予め定められた複数の領域のいずれかの領域に進入した聴取者を検出すると、前記位置特定ステップで、前記映像解析部が、前記聴取者の位置に基づいて特定される一つの領域を特定し、前記イベント発生ステップで、前記イベント発生部が、前記一つの領域に前記聴取者が進入したことを示すイベントを発生し、前記スクリプト実行ステップで、前記スクリプト実行部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を前記コンテンツ出力部に出力させるスクリプトを実行し、前記コンテンツ出力ステップで、前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を音により再生し、
前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を音により再生している状態で、前記検出ステップで、前記センサが、予め定められた複数の領域の他の領域に前記聴取者が進入したことを検出すると、前記位置特定ステップで、前記映像解析部が、当該聴取者の位置に基づいて特定される他の領域を特定し、前記イベント発生ステップで、前記イベント発生部が、前記他の領域に前記聴取者が進入したことを示すイベントを発生し、前記スクリプト実行ステップで、前記スクリプト実行部が、前記他の領域に対応付けられたヴォーカルまたは楽器の演奏を、前記コンテンツ出力部に出力させるスクリプトを実行し、前記コンテンツ出力ステップで、前記コンテンツ出力部が、前記他の領域に対応付けられたヴォーカルまたは楽器の演奏を、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同期させて、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同時に、音により再生することで、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と前記他の領域に対応付けられたヴォーカルまたは楽器の演奏とで構成される一つの楽曲が音楽コンテンツとして前記聴取者に提供される、
ことを特徴とする音楽コンテンツ提供方法。
A detection step in which a sensor for detecting a listener detects a listener in any one of a plurality of predetermined regions;
A video specifying unit for specifying a position of the listener from the detection result of the listener;
Based on the position specifying result of the position specifying step, an event generating step generates an event indicating that the listener has entered one of the plurality of areas; and
A script execution step in which the script execution unit executes a script corresponding to the event;
A content output step in which a content output unit outputs content corresponding to the script;
In the detecting step, when the sensor detects a listener who has entered any one of a plurality of predetermined regions, in the position specifying step, the video analysis unit is based on the position of the listener. One specified area is specified, and in the event generating step, the event generating unit generates an event indicating that the listener has entered the one area, and in the script executing step, the script execution is performed. A unit that executes a script that causes the content output unit to output a vocal or musical instrument performance associated with the one region , and in the content output step, the content output unit is associated with the one region. Playing a vocal or instrumental performance with sound,
In the state in which the content output unit reproduces a performance of a vocal or musical instrument associated with the one area by sound, the sensor may detect other areas in the plurality of predetermined areas in the detection step. In the position specifying step, the video analysis unit specifies another area specified based on the position of the listener, and in the event generating step, the event is detected. The generation unit generates an event indicating that the listener has entered the other area , and in the script execution step, the script execution unit plays a vocal or a musical instrument associated with the other area. executes a script to be output to the content output unit, by the content output step, the content output unit, the association to the other region Playing vocal or musical instrument, said in synchronization with one of the regions in the associated vocal or instrument playing, at the same time as playing vocal or instrument associated with said one region, it is reproduced by sound Thus, one piece of music composed of the performance of the vocal or instrument associated with the one area and the performance of the vocal or instrument associated with the other area is provided to the listener as music content. ,
A music content providing method characterized by the above.
ヴォーカルまたは楽器の演奏から構成される楽曲を音により再生する音楽コンテンツを聴取者に提供する音楽コンテンツ提供装置であって、
予め定められた複数の領域のいずれかの領域に進入する聴取者を検出するセンサと、
前記センサによって検出された聴取者が進入した領域に対応付けられたヴォーカルまたは楽器の演奏を音により再生するコンテンツ出力部と、
前記センサが、予め定められた複数の領域のうちのいずれか一つの領域に聴取者が進入したことを検出すると、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を前記コンテンツ出力部に出力させるスクリプトを実行し、前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を出力している状態で、前記センサが、前記複数の領域のうちの他の領域に前記聴取者が進入したことを検出すると、前記他の領域に対応付けられたヴォーカルまたは楽器の演奏を、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同期させて、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同時に、前記コンテンツ出力部に出力させるスクリプトを実行するスクリプト実行部と、
を有し、
前記コンテンツ出力部から出力される前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と前記他の領域に対応付けられたヴォーカルまたは楽器の演奏とが一つの楽曲を構成し、当該楽曲が音楽コンテンツとして聴取者に提供される、
ことを特徴とする音楽コンテンツ提供装置。
A music content providing apparatus that provides a listener with music content for reproducing music composed of vocal or musical instrument performance by sound,
A sensor for detecting a listener entering any one of a plurality of predetermined areas ;
A content output unit that reproduces a performance of a vocal or a musical instrument associated with an area where a listener detected by the sensor has entered by sound;
When the sensor detects that a listener has entered one of a plurality of predetermined areas, a vocal or musical instrument performance associated with the one area is sent to the content output unit. In a state where a script to be output is executed and the content output unit outputs a performance of a vocal or a musical instrument associated with the one area, the sensor is moved to another area of the plurality of areas. When detecting that the listener has entered, the performance of the vocal or instrument associated with the other area is synchronized with the performance of the vocal or instrument associated with the one area, and the one area A script execution unit that executes a script to be output to the content output unit simultaneously with the performance of the vocal or musical instrument associated with
Have
The vocal or musical instrument performance associated with the one area output from the content output unit and the vocal or musical instrument performance associated with the other area constitute one musical composition, and the musical composition is music. Provided to listeners as content,
An apparatus for providing music content.
予め定められた複数の領域のいずれかの領域の聴取者を検出するセンサと、
前記聴取者の検出結果から当該聴取者の位置を特定する映像解析部と、
前記映像解析部の位置特定結果から、前記複数の領域のいずれかの領域に前記聴取者が進入したことを示すイベントを発生するイベント発生部と、
前記イベントに対応したスクリプトを実行するスクリプト実行部と、
前記スクリプトに対応したコンテンツを出力するコンテンツ出力部と、を有する音楽コンテンツ提供装置であって、
前記イベント発生部で、前記複数の領域のうちのいずれか一つの領域に聴取者が進入したことを示すイベントが発生すると、前記スクリプト実行部は、当該一つの領域に対応付けられたヴォーカルまたは楽器の演奏を前記コンテンツ出力部に出力させるスクリプトを実行し、前記コンテンツ出力部は、前記一つ領域に対応付けられたヴォーカルまたは楽器の演奏を出力し、
前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を出力している状態で、前記イベント発生部で、前記複数の領域のうちの他の領域に前記聴取者が進入したことを示すイベントが発生すると、前記スクリプト実行部は、前記他の領域に対応付けられたヴォーカルまたは楽器の演奏を、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同期させて、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同時に、前記コンテンツ出力部に出力させるスクリプトを実行することで、前記コンテンツ出力部から出力される前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と前記他の領域に対応付けられたヴォーカルまたは楽器の演奏とが一つの楽曲を構成し、当該楽曲が音楽コンテンツとして前記聴取者に提供される、
ことを特徴とする音楽コンテンツ提供装置。
A sensor for detecting a listener in any one of a plurality of predetermined areas;
A video analysis unit that identifies the position of the listener from the detection result of the listener;
From the position specifying result of the video analysis unit, an event generating unit that generates an event indicating that the listener has entered one of the plurality of regions,
A script execution unit that executes a script corresponding to the event;
A content output unit that outputs content corresponding to the script;
When the event generation unit generates an event indicating that a listener has entered one of the plurality of regions, the script execution unit displays a vocal or musical instrument associated with the one region. A script that causes the content output unit to output the performance of the content, and the content output unit outputs a performance of a vocal or musical instrument associated with the one area,
In a state where the content output unit outputs a performance of a vocal or a musical instrument associated with the one region, the listener enters the other region of the plurality of regions in the event generation unit. When the event indicating that the event has occurred, the script execution unit synchronizes the performance of the vocal or instrument associated with the other area with the performance of the vocal or instrument associated with the one area , By executing a script that is output to the content output unit simultaneously with the performance of the vocal or musical instrument associated with the one region, the vocals associated with the one region output from the content output unit or The performance of the musical instrument and the performance of the vocal or musical instrument associated with the other area constitute one musical piece, and the musical piece It is provided to the listener as effortless content,
The music content provision apparatus characterized by the above-mentioned.
予め定められた複数の領域のいずれかの領域の聴取者を検出するセンサと、
前記聴取者の検出結果から当該聴取者の位置を特定する映像解析部と、
前記映像解析部の位置特定結果から、前記複数の領域のいずれかの領域に前記聴取者が進入したことを示すイベントを発生するイベント発生部と、
前記イベントに対応したスクリプトを実行するスクリプト実行部と、
前記スクリプトに対応したコンテンツを出力するコンテンツ出力部と、を有する音楽コンテンツ提供装置であって、
前記イベント発生部で、前記複数の領域のうちのいずれか一つの領域に聴取者が進入したことを示すイベントが発生すると、前記スクリプト実行部は、当該一つの領域に対応付けられたヴォーカルまたは楽器の演奏を前記コンテンツ出力部に出力させるスクリプトを実行し、前記コンテンツ出力部は、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を出力し、
前記コンテンツ出力部が、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏を出力している状態で、前記イベント発生部で、前記複数の領域のうちの他の領域に前記聴取者が進入したことを示すイベントが発生すると、前記スクリプト実行部は、前記他の領域に対応付けられたヴォーカルまたは楽器の演奏を、前記コンテンツ出力部に出力させるスクリプトを実行し、前記コンテンツ出力部は、前記他の領域に対応付けられたヴォーカルまたは楽器の演奏を、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同期させて、前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と同時に、出力することで、前記コンテンツ出力部から出力される前記一つの領域に対応付けられたヴォーカルまたは楽器の演奏と前記他の領域に対応付けられたヴォーカルまたは楽器の演奏とが一つの楽曲を構成し、当該楽曲が音楽コンテンツとして前記聴取者に提供される、
ことを特徴とする音楽コンテンツ提供装置。
A sensor for detecting a listener in any one of a plurality of predetermined areas;
A video analysis unit that identifies the position of the listener from the detection result of the listener;
From the position specifying result of the video analysis unit, an event generating unit that generates an event indicating that the listener has entered one of the plurality of regions,
A script execution unit that executes a script corresponding to the event;
A content output unit that outputs content corresponding to the script;
When the event generation unit generates an event indicating that a listener has entered one of the plurality of regions, the script execution unit displays a vocal or musical instrument associated with the one region. A script that causes the content output unit to output the performance of the content, the content output unit outputs a performance of a vocal or musical instrument associated with the one region ,
In a state where the content output unit outputs a performance of a vocal or a musical instrument associated with the one region, the listener enters the other region of the plurality of regions in the event generation unit. When an event indicating that the event has occurred is performed, the script execution unit executes a script that causes the content output unit to output a vocal or musical instrument performance associated with the other region, and the content output unit The performance of the vocal or instrument associated with the other area is synchronized with the performance of the vocal or instrument associated with the one area simultaneously with the performance of the vocal or instrument associated with the one area. , by outputting, playing the one vocal or instrument associated with the region to be output from the content output unit The other areas the associated vocal or musical instrument performance and constitute one of the music, the music is provided to the listener as a music content,
The music content provision apparatus characterized by the above-mentioned.
コンピュータに請求項4〜6のいずれかに記載の音楽コンテンツ提供装置の各機能を、実現させるためのプログラム。   The program for making a computer implement | achieve each function of the music content provision apparatus in any one of Claims 4-6.
JP2004262118A 2004-09-09 2004-09-09 Music content providing method, music content providing apparatus, and music content providing program Expired - Fee Related JP5022562B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004262118A JP5022562B2 (en) 2004-09-09 2004-09-09 Music content providing method, music content providing apparatus, and music content providing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004262118A JP5022562B2 (en) 2004-09-09 2004-09-09 Music content providing method, music content providing apparatus, and music content providing program

Publications (2)

Publication Number Publication Date
JP2006078732A JP2006078732A (en) 2006-03-23
JP5022562B2 true JP5022562B2 (en) 2012-09-12

Family

ID=36158245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004262118A Expired - Fee Related JP5022562B2 (en) 2004-09-09 2004-09-09 Music content providing method, music content providing apparatus, and music content providing program

Country Status (1)

Country Link
JP (1) JP5022562B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6885668B2 (en) * 2015-09-24 2021-06-16 カシオ計算機株式会社 Projection system

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6397993A (en) * 1986-10-14 1988-04-28 積水化学工業株式会社 Advertising apparatus
JP3563428B2 (en) * 1993-11-30 2004-09-08 ヤマハ株式会社 Multimedia control device
JP3088409B2 (en) * 1999-02-16 2000-09-18 コナミ株式会社 Music game system, effect instruction interlocking control method in the system, and readable recording medium recording effect instruction interlocking control program in the system
JP2001043384A (en) * 1999-07-29 2001-02-16 Nippon Telegr & Teleph Corp <Ntt> Input method and device of multimedia information space, input and output cooperation method and device, and recording medium recording input program and input and output cooperation program
JP3654143B2 (en) * 2000-06-08 2005-06-02 ヤマハ株式会社 Time-series data read control device, performance control device, video reproduction control device, time-series data read control method, performance control method, and video reproduction control method
JP2001216527A (en) * 2000-02-04 2001-08-10 Nippon Telegr & Teleph Corp <Ntt> Method and device for multi-media information space input/output and recording medium with its program recorded thereon
JP2001269431A (en) * 2000-03-24 2001-10-02 Yamaha Corp Body movement state-evaluating device
JP2002078982A (en) * 2000-09-07 2002-03-19 Toybox:Kk Performance toy
JP2003195845A (en) * 2001-09-27 2003-07-09 Fuji Photo Film Co Ltd Image display method
JP2005303567A (en) * 2004-04-09 2005-10-27 Yamaha Corp Image and sound controller

Also Published As

Publication number Publication date
JP2006078732A (en) 2006-03-23

Similar Documents

Publication Publication Date Title
US8917972B2 (en) Modifying audio in an interactive video using RFID tags
US8339458B2 (en) Technique for allowing the modification of the audio characteristics of items appearing in an interactive video using RFID tags
US20050180462A1 (en) Apparatus and method for reproducing ancillary data in synchronization with an audio signal
Borchers et al. Personal orchestra: a real-time audio/video system for interactive conducting
WO2014061931A1 (en) Device and method for playing sound
EP2743917B1 (en) Information system, information reproducing apparatus, information generating method, and storage medium
JP4318182B2 (en) Terminal device and computer program applied to the terminal device
JP2008299032A (en) Linguistic training aid, and character data regenerator
JP5022562B2 (en) Music content providing method, music content providing apparatus, and music content providing program
JP5371574B2 (en) Karaoke device that displays lyrics subtitles to avoid face images in background video
WO2013008869A1 (en) Electronic device and data generation method
JP4382045B2 (en) DATA OUTPUT DEVICE, DATA OUTPUT METHOD, DATA OUTPUT PROGRAM, AND RECORDING MEDIUM
Walther-Hansen Sound Events, Spatiality and Diegesis–The Creation of Sonic Narratives in Music Productions
JP2002008052A (en) Presentation system and recording medium
Zampronha Ancestral Symbol: Musically Organizing Unpredictable Interactions to Create the Sound of a Paleolithic Cave Sign
JP2017092832A (en) Reproduction method and reproducer
WO2023084933A1 (en) Information processing device, information processing method, and program
JP7377702B2 (en) karaoke equipment
Capra et al. Levels of Detail in Visual Augmentations for the Novice and Expert Audiences
JP2017017387A (en) Video processing apparatus and video processing method
Pigott Sounds of the Projection Box: Liner Notes for a Phonographic Method
JP2013114088A (en) Sound reproducing device
Shriver Digital stereo recording of traditional malaysian musical instruments
JP2004287004A (en) Display system
Ritter Synchronized Multi-Channel Video and Music

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070703

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090526

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090910

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090910

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100928

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110322

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110523

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110614

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120612

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120618

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150622

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees