JP2006078732A - Sound information providing method, sound information providing system, and sound information providing program - Google Patents

Sound information providing method, sound information providing system, and sound information providing program Download PDF

Info

Publication number
JP2006078732A
JP2006078732A JP2004262118A JP2004262118A JP2006078732A JP 2006078732 A JP2006078732 A JP 2006078732A JP 2004262118 A JP2004262118 A JP 2004262118A JP 2004262118 A JP2004262118 A JP 2004262118A JP 2006078732 A JP2006078732 A JP 2006078732A
Authority
JP
Japan
Prior art keywords
audio information
script
partial
listener
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004262118A
Other languages
Japanese (ja)
Other versions
JP5022562B2 (en
Inventor
Akio Shinohara
章夫 篠原
Hideaki Oki
秀晃 大木
Kenta Nakauchi
健太 中内
Tomoko Ishibashi
知子 石橋
Kenji Kobiyama
賢二 小檜山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Keio University
Original Assignee
Nippon Telegraph and Telephone Corp
Keio University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Keio University filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004262118A priority Critical patent/JP5022562B2/en
Publication of JP2006078732A publication Critical patent/JP2006078732A/en
Application granted granted Critical
Publication of JP5022562B2 publication Critical patent/JP5022562B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To dynamically change and provide sound information such as music in a distinguishable form. <P>SOLUTION: A content output device 3 divides contents including the sound information provided from a content distributor 2 into two or more pieces of partial sound information constituting the sound information, stores them, and on the basis of the detected result of a camera 4 which detects the state of the listener of the contents including the sound information, outputs the partial sound information corresponding to the detected result to a speaker 6. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は音声情報提供技術に係り、詳しくは音楽それ自体の広告または音声を効果的に使用した広告を目的としたコンテンツを大画面に出力し、コンテンツが視聴可能な領域にいる人物の動作に応じてコンテンツの音声出力と画面出力を動的に変化させる音声情報提供技術に関するものである。   The present invention relates to a voice information providing technique, and more particularly, to output a content intended for an advertisement of music itself or an advertisement that effectively uses a voice to a large screen, and to an operation of a person in an area where the content can be viewed. The present invention relates to a voice information providing technology that dynamically changes the voice output and the screen output of content.

従来、駅構内やビルの入口等の公共空間に設けられたプラズマディスプレイやプロジェクタ等の大画面表示装置を介して広告や案内等のコンテンツを出力し、コンテンツが視聴可能な領域にいる人物(以下、可視聴者と称す。)の動作に応じてコンテンツの出力を動的に変化させるものがある。   Conventionally, content such as advertisements and guidance is output via a large-screen display device such as a plasma display or projector provided in public spaces such as station premises and building entrances, and people in areas where content can be viewed (hereinafter referred to as In some cases, the output of the content is dynamically changed according to the operation of the viewer.

例えば、図6に示すように、大画面のディスプレイ90にコンテンツを表示する一つまたは複数のウインドウ91を表示し、(a)可視聴者92がウインドウ91の前を通るときにウインドウ91のサイズを拡大し、(b)可視聴者92がウインドウ91の前で立ち止まるとコンテンツの詳細情報をウインドウ91に表示し、(c)可視聴者92がウインドウ91の前で長時間滞留したり、ウインドウ91に対して指を差したりすると地図やクーポン情報等のコンテンツに関する有用な情報を表示するものがある。   For example, as shown in FIG. 6, one or a plurality of windows 91 for displaying contents is displayed on a large-screen display 90, and (a) the size of the window 91 when the viewer 92 passes in front of the window 91. (B) When the viewable viewer 92 stops in front of the window 91, detailed information on the content is displayed on the window 91. (c) The viewable viewer 92 stays in front of the window 91 for a long time, Some display information useful for content such as a map or coupon information when a finger is pointed at 91.

また、図7に示すように、大画面のディスプレイ90に地図を表示し、(d)可視聴者92が地図上の決められた位置の前に立ち止まると、対応する位置に関する情報を表示するウインドウ91をポップアップ表示し、(e)可視聴者92がウインドウ91に近づくと詳細情報をウインドウ91に表示するものがある。   Also, as shown in FIG. 7, a map is displayed on a large-screen display 90, and (d) a window that displays information about the corresponding position when the viewer 92 stops before a predetermined position on the map. 91 is displayed in a pop-up manner, and (e) when the viewer 92 approaches the window 91, detailed information is displayed on the window 91.

上記のようなサービスを実現するための技術として、例えば、映像または静止画像のマルチメディア情報を提示した複数の画面に囲まれた空間内部で利用者が映像または音楽を視聴するマルチメディア情報空間に情報を入出力するもので、マルチメディア情報空間に存在する複数の利用者の状態を検出し、検出された複数の利用者の状態を指示命令に変換し、変換された指示命令を処理して指示命令に応じてマルチメディア情報空間に出力すべきマルチメディア情報を更新し、更新したマルチメディア情報をマルチメディア情報空間に出力するものがある(例えば、特許文献1参照。)。
特開2001−216527号公報
As a technique for realizing the service as described above, for example, a multimedia information space in which a user views video or music within a space surrounded by a plurality of screens presenting multimedia information of video or still images. It is used to input and output information. It detects the status of multiple users in the multimedia information space, converts the detected status of multiple users into instruction commands, and processes the converted instruction commands. There is one that updates multimedia information to be output to the multimedia information space in response to an instruction command, and outputs the updated multimedia information to the multimedia information space (see, for example, Patent Document 1).
JP 2001-216527 A

しかしながら、上記の従来技術では、映像情報を可視聴者に動的に変化させて視聴させることができるものの、音楽などの音声情報については効果音的な使用方法かBGM的な使用方法などの映像に従属したような提示方法が一般的であり、音楽などの音声情報自体の広告を行いたい場合には以下のような問題があった。   However, in the above prior art, video information can be dynamically changed and viewed by a viewer, but for audio information such as music, video such as an effective sound usage method or a BGM usage method is used. In general, the presentation method subordinate to the above method is generally used, and there is the following problem when it is desired to advertise audio information such as music.

(問題1)
映像だと複数の可視聴者に対し複数の映像を同時に提示することで複数の情報を同時に提示できるが、音楽などの音声情報の場合は同時に複数の異なる音声を提示するとそれぞれの判別が困難または不可能になってしまうため、複数の視聴者に対して音楽などの音声情報を提供する場合はジュークボックスのように順番に音声を再生するのみである。
(Problem 1)
In the case of video, a plurality of information can be presented simultaneously by presenting a plurality of videos to a plurality of viewers at the same time, but in the case of audio information such as music, it is difficult to distinguish each of them by presenting a plurality of different sounds at the same time. Therefore, when audio information such as music is provided to a plurality of viewers, the audio is simply played in order like a jukebox.

(問題2)
上記の問題1をふまえて、同時に流す音源を一つにした場合には変化させられるものが映像のみとなってしまうので、視聴者にとって魅力的なものとはならない。
(Problem 2)
In consideration of the above problem 1, if only one sound source is played at the same time, only the video can be changed, which is not attractive to the viewer.

このような問題から、音楽などの音声情報自体の広告を効果的に行うことは難しいという課題が残されてきた。   Due to such problems, there remains a problem that it is difficult to effectively advertise audio information such as music.

本発明はこのような課題を解決するためになされたもので、その目的は、提供したい音楽などの音声情報をパート毎に分離して用意しておき、視聴者の動きに応じて動的に構成することで音楽などの音声情報自体の広告に対する、より高い注目度を得られる音声情報提供技術を提供することにある。   The present invention has been made to solve such problems, and its purpose is to prepare audio information such as music to be provided separately for each part and dynamically according to the movement of the viewer. An object of the present invention is to provide a voice information providing technique that can obtain a higher degree of attention with respect to an advertisement of voice information itself such as music.

上記課題を解決するために、請求項1に記載の発明は、音声情報を含むコンテンツの聴取者の状態を検出するセンサの検出結果に基づいて、前記聴取者に提供する音声情報を変化させる音声情報提供方法であって、前記音声情報を当該音声情報を構成する複数の部分音声情報に分割して記憶しておき、前記検出結果に対応する部分音声情報を前記聴取者に提供する、ことを特徴とする。   In order to solve the above-described problem, the invention according to claim 1 is an audio that changes audio information to be provided to the listener based on a detection result of a sensor that detects a state of a listener of content including audio information. An information providing method, wherein the audio information is divided into a plurality of partial audio information constituting the audio information and stored, and the partial audio information corresponding to the detection result is provided to the listener. Features.

また、請求項2に記載の発明は、前記コンテンツは画像情報を含んでおり、前記検出結果に対応する部分音声情報および画像情報を前記聴取者に提供する、ことを特徴とする。   According to a second aspect of the present invention, the content includes image information, and partial audio information and image information corresponding to the detection result are provided to the listener.

また、請求項3に記載の発明は、前記部分音声情報を複数同時に提供するときは、各部分音声情報を同期させて提供する、ことを特徴とする。   The invention according to claim 3 is characterized in that when a plurality of pieces of the partial audio information are provided simultaneously, the partial audio information is provided in synchronization.

また、請求項4に記載の発明は、音声情報を含むコンテンツの聴取者の状態を検出するセンサが聴取者に関する情報を入力するステップと、映像解析部が前記聴取者に関する情報から当該聴取者の状態を解析するステップと、イベント発生部が前記解析結果に対応するイベントを発生するステップと、スクリプト実行部が前記イベントに対応したスクリプトを実行するステップと、コンテンツ出力部が前記スクリプトに対応したコンテンツを出力するステップと、を有する音声情報提供方法であって、前記コンテンツは音声情報を含んでおり、前記音声情報を当該音声情報を構成する複数の部分音声情報に分割して記憶しておき、前記スクリプト実行部は前記イベント発生部から受信したイベントに対応した部分音声情報を出力するスクリプトを実行する、ことを特徴とする。   According to a fourth aspect of the present invention, the sensor for detecting the state of the listener of the content including the audio information inputs the information about the listener, and the video analyzing unit determines the listener's information from the information about the listener. A step of analyzing the state, a step of generating an event corresponding to the analysis result by the event generation unit, a step of executing a script corresponding to the event by the script execution unit, and a content corresponding to the script by the content output unit A method of providing audio information, wherein the content includes audio information, and the audio information is divided into a plurality of partial audio information constituting the audio information and stored. The script execution unit is a script that outputs partial audio information corresponding to the event received from the event generation unit. Is executed, characterized in that.

また、請求項5に記載の発明は、前記コンテンツは画像情報を含んでおり、前記スクリプト実行部は前記イベント発生部から受信したイベントに対応する部分音声情報および画像情報を出力するスクリプトを実行する、ことを特徴とする。   In the invention according to claim 5, the content includes image information, and the script execution unit executes a script that outputs partial audio information and image information corresponding to an event received from the event generation unit. It is characterized by that.

また、請求項6に記載の発明は、前記スクリプト実行部が前記イベント発生部から入力したイベントに基づいて部分音声情報を複数同時に出力するスクリプトを実行するときは、当該スクリプトは各部分音声情報を同期させて出力するものである、ことを特徴とする。   According to a sixth aspect of the present invention, when the script execution unit executes a script that simultaneously outputs a plurality of partial audio information based on an event input from the event generation unit, the script outputs each partial audio information. It is characterized by being output in synchronization.

また、請求項7に記載の発明は、前記コンテンツ出力手段が前記スクリプト実行部から部分音声情報を出力するスクリプトを複数入力したときは、各部分音声情報を同期させて出力する、ことを特徴とする。   The invention according to claim 7 is characterized in that, when the content output means inputs a plurality of scripts for outputting partial audio information from the script execution unit, the partial audio information is output in synchronization with each other. To do.

また、請求項8に記載の発明は、前記音声情報は音楽であり、前記複数の部分音声情報は前記音楽の各パートである、ことを特徴とする。   The invention according to claim 8 is characterized in that the voice information is music and the plurality of pieces of partial voice information are each part of the music.

また、請求項9に記載の発明は、音声情報を含むコンテンツの聴取者の状態を検出するセンサの検出結果に基づいて、前記聴取者に提供する音声情報を変化させる音声情報提供装置であって、前記音声情報を当該音声情報を構成する複数の部分音声情報に分割して記憶しておき、前記検出結果に対応する部分音声情報を前記聴取者に提供する、ことを特徴とする。   The invention according to claim 9 is an audio information providing apparatus that changes audio information provided to the listener based on a detection result of a sensor that detects a state of the listener of the content including the audio information. The audio information is divided into a plurality of partial audio information constituting the audio information and stored, and the partial audio information corresponding to the detection result is provided to the listener.

また、請求項10に記載の発明は、前記コンテンツは画像情報を含んでおり、前記検出結果に対応する部分音声情報および画像情報を前記聴取者に提供する、ことを特徴とする。   The invention according to claim 10 is characterized in that the content includes image information, and provides partial audio information and image information corresponding to the detection result to the listener.

また、請求項11に記載の発明は、前記部分音声情報を複数同時に提供するときは、各部分音声情報を同期させて提供する、ことを特徴とする。   The invention according to claim 11 is characterized in that when a plurality of pieces of the partial audio information are provided simultaneously, the partial audio information is provided in synchronization.

また、請求項12に記載の発明は、音声情報を含むコンテンツの聴取者の状態を検出し、当該聴取者に関する情報を入力するセンサと、前記聴取者に関する情報から当該聴取者の状態を解析する映像解析部と、前記解析結果に対応するイベントを発生するイベント発生部と、前記イベントに対応したスクリプトを実行するスクリプト実行部と、前記スクリプトに対応したコンテンツを出力するコンテンツ出力部と、を有する音声情報提供装置であって、前記コンテンツは音声情報を含んでおり、前記音声情報を当該音声情報を構成する複数の部分音声情報に分割して記憶しておき、前記スクリプト実行部は前記イベント発生部から受信したイベントに対応した部分音声情報を出力するスクリプトを実行する、ことを特徴とする。   According to a twelfth aspect of the present invention, the state of a listener of content including audio information is detected, and the state of the listener is analyzed from the sensor that inputs information about the listener and the information about the listener. A video analysis unit; an event generation unit that generates an event corresponding to the analysis result; a script execution unit that executes a script corresponding to the event; and a content output unit that outputs content corresponding to the script. An audio information providing apparatus, wherein the content includes audio information, the audio information is divided and stored into a plurality of partial audio information constituting the audio information, and the script execution unit generates the event A script that outputs partial audio information corresponding to an event received from the section is executed.

また、請求項13に記載の発明は、前記コンテンツは画像情報を含んでおり、前記スクリプト実行部は前記イベント発生部から受信したイベントに対応する部分音声情報および画像情報を出力するスクリプトを実行する、ことを特徴とする。   The content of the invention includes image information, and the script execution unit executes a script that outputs partial audio information and image information corresponding to an event received from the event generation unit. It is characterized by that.

また、請求項14に記載の発明は、前記スクリプト実行部が前記イベント発生部から入力したイベントに基づいて部分音声情報を複数同時に出力するスクリプトを実行するときは、当該スクリプトは各部分音声情報を同期させて出力するものである、ことを特徴とする。   Further, in the invention described in claim 14, when the script execution unit executes a script that simultaneously outputs a plurality of partial audio information based on an event input from the event generation unit, the script outputs each partial audio information. It is characterized by being output in synchronization.

また、請求項15に記載の発明は、前記コンテンツ出力手段が前記スクリプト実行部から部分音声情報を出力するスクリプトを複数入力したときは、各部分音声情報を同期させて出力する、ことを特徴とする。   The invention according to claim 15 is characterized in that when the content output means inputs a plurality of scripts for outputting partial audio information from the script execution unit, the partial audio information is output in synchronization with each other. To do.

また、請求項16に記載の発明は、前記音声情報は音楽であり、前記複数の部分音声情報は前記音楽の各パートである、ことを特徴とする。   The invention according to claim 16 is characterized in that the voice information is music and the plurality of pieces of partial voice information are each part of the music.

また、請求項17に記載の発明は、上記の請求項1〜16のいずれかに記載の音声情報提供方法または音声情報提供装置を、コンピュータプログラムで記載してそれを実行可能にしたことを特徴とする。   The invention described in claim 17 is characterized in that the audio information providing method or the audio information providing apparatus according to any one of claims 1 to 16 is described in a computer program and can be executed. And

請求項1および請求項9では、センサの検出結果に基づいて音声情報構成する部分音声情報を聴取者に提供するので、聴取者が聴きたいと予想される部分音声情報を提供することや、聴取者の状態に応じて提供する部分音声情報を変更することが可能となる。   According to the first and ninth aspects, since the partial audio information constituting the audio information is provided to the listener based on the detection result of the sensor, the partial audio information expected to be listened to by the listener can be provided, The partial audio information to be provided can be changed according to the person's state.

なお、聴取者とは音声情報を聞き取る者である。下記の「発明を実施するための最良の形態」において用いている可視聴者とは画像情報を視認しかつ音声情報を聞き取る者であり、聴取者は画像情報に関する限定が無い。   The listener is a person who listens to audio information. The viewers used in the “Best Mode for Carrying Out the Invention” below are those who visually recognize the image information and listen to the audio information, and the listener has no limitation on the image information.

請求項2および請求項10では、提供するコンテンツは部分音声情報および画像情報を含んでいるので、画像情報と関連のある部分音声情報を提供することにより聴取者にとってより魅力的な情報提供を行うことが可能となる。   In Claims 2 and 10, since the provided content includes partial audio information and image information, providing partial audio information related to the image information provides more attractive information for the listener. It becomes possible.

請求項3および請求項11では、複数の部分音声情報を同期させて提供するので、複数の部分音声情報を重ね合わせて一つの音声情報として同時に情報提供することができる。   According to the third and eleventh aspects, since a plurality of pieces of partial sound information are provided in synchronization, information can be provided simultaneously as a single piece of sound information by superimposing the plurality of pieces of partial sound information.

請求項4および請求項12では、聴取者の状態に対応したイベントに基づいてスクリプトが実行されるので、聴取者が聴きたいと予想される部分音声情報を提供することや、聴取者の状態に応じて提供する部分音声情報を変更することが可能となる。   In claims 4 and 12, since the script is executed based on an event corresponding to the state of the listener, it is possible to provide partial audio information that the listener is expected to listen to, or to change the state of the listener. It is possible to change the partial audio information provided accordingly.

請求項5および請求項13では、提供するコンテンツは部分音声情報および画像情報を含んでいるので、画像情報と関連のある部分音声情報を提供することにより聴取者にとってより魅力的な情報提供を行うことが可能となる。   In Claims 5 and 13, since the content to be provided includes partial audio information and image information, providing partial audio information related to the image information provides more attractive information for the listener. It becomes possible.

請求項6、請求項7、請求項14、および請求項15では、複数の部分音声情報を同期させて提供するので、複数の部分音声情報を重ねあわせて一つの音声情報として同時に情報提供することが可能となる。   In claim 6, claim 7, claim 14 and claim 15, since a plurality of partial voice information is provided in synchronization, a plurality of partial voice information is overlapped and information is simultaneously provided as one voice information. Is possible.

請求項8および請求項16では、音声情報は音楽で、部分音声情報は各パートであるので、バンド演奏などを、聴取者の状態に合わせて各楽器の演奏や全体の演奏など様々な態様で提供することが可能となる。   In claims 8 and 16, since the sound information is music and the partial sound information is each part, the band performance or the like can be performed in various modes such as the performance of each instrument or the overall performance according to the state of the listener. It becomes possible to provide.

請求項17では、請求項1〜請求項16の発明を実行するプログラムを実現できる。   In the seventeenth aspect, a program for executing the inventions of the first to sixteenth aspects can be realized.

本発明によれば、音楽等の音声情報による広告に対するより高い注目度を得られる音声情報提供技術を提供することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the audio | voice information provision technique which can obtain the higher attention degree with respect to the advertisement by audio | voice information, such as music.

以下、本発明の実施形態を図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は本発明の実施形態に係る音声情報出力システム1の構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of an audio information output system 1 according to an embodiment of the present invention.

図1に示すように音声情報出力システム1は、コンテンツを配信するコンテンツ配信装置2と、コンテンツ配信装置2によって配信されたコンテンツを画面出力するコンテンツ出力装置3とを備えている。   As shown in FIG. 1, the audio information output system 1 includes a content distribution device 2 that distributes content, and a content output device 3 that outputs the content distributed by the content distribution device 2 on a screen.

なお、音声情報出力システム1は、複数のコンテンツ配信装置2と、複数のコンテンツ出力装置3を備えることもできるが、本発明を理解しやすくするために以下の説明において音声情報出力システム1は1つのコンテンツ配信装置2と、1つのコンテンツ出力装置3とを備えるものとする。   The audio information output system 1 can include a plurality of content distribution apparatuses 2 and a plurality of content output apparatuses 3. However, in order to facilitate understanding of the present invention, the audio information output system 1 is 1 in the following description. One content distribution device 2 and one content output device 3 are provided.

コンテンツ配信装置2は、複数のコンテンツを記憶する記憶媒体を有するコンピュータ装置によって構成されており、コンテンツ出力装置3に音楽それ自体の広告や音声を効果的に使用した広告を目的とするコンテンツをネットワーク等の伝送路を介して配信するようになっている。   The content distribution device 2 is configured by a computer device having a storage medium for storing a plurality of contents, and the content output device 3 is networked with content intended for advertisement using music itself and advertisements that effectively use sound. Etc. are distributed via a transmission line such as the above.

コンテンツ出力装置3は、コンピュータ装置によって構成され、コンテンツ出力装置3にはカメラ4が設けられている。なお、図1では2台のカメラ4が設置されているが1台1以上のカメラ4を有していればよい。   The content output device 3 is configured by a computer device, and the content output device 3 is provided with a camera 4. In FIG. 1, two cameras 4 are installed, but it is only necessary to have one or more cameras 4.

また、コンテンツ出力装置3は、液晶ディスプレイ、プラズマディスプレイ、プロジェクタ等の大画面のディスプレイ5と、スピーカ6とに接続されており、コンテンツ配信装置2によって配信されたコンテンツをディスプレイ5に画面出力し、スピーカ6に音声出力するようになっている。なお、図1にはコンテンツ出力装置3には1台のスピーカ6が設置されているが、スピーカ6は1台のスピーカでもマルチチャンネルの複数のスピーカでもよい。   The content output device 3 is connected to a large-screen display 5 such as a liquid crystal display, a plasma display, or a projector, and a speaker 6, and outputs the content distributed by the content distribution device 2 to the display 5. Audio is output to the speaker 6. Although one speaker 6 is installed in the content output apparatus 3 in FIG. 1, the speaker 6 may be one speaker or a plurality of multi-channel speakers.

図2は、コンテンツ出力装置3の構成を示すブロック図である。   FIG. 2 is a block diagram showing the configuration of the content output device 3.

図2に示すように、コンテンツ出力装置3はカメラ4によって撮像された映像を解析する映像解析部21と、映像解析部21による解析結果に基づいてイベントを発生するイベント発生部22と、画面出力制御、スピーカ出力制御等が記述されたスクリプトが記憶されたスクリプト記憶部23と、スクリプト記憶部23に記憶されたスクリプトをイベントに応じて実行するスクリプト実行部24と、コンテンツ配信装置2によって配信されたコンテンツを記憶するコンテンツ記憶部25と、スクリプト実行部24からの命令に基づいてコンテンツ記憶部25に記憶されたコンテンツをディスプレイ5およびスピーカ6に出力するコンテンツ出力部26とを備えている。   As shown in FIG. 2, the content output device 3 includes a video analysis unit 21 that analyzes video captured by the camera 4, an event generation unit 22 that generates an event based on the analysis result by the video analysis unit 21, and screen output. Distributed by the content distribution device 2, a script storage unit 23 storing a script describing control, speaker output control, and the like, a script execution unit 24 executing the script stored in the script storage unit 23 according to an event, A content storage unit 25 for storing the content, and a content output unit 26 for outputting the content stored in the content storage unit 25 to the display 5 and the speaker 6 based on a command from the script execution unit 24.

映像解析部21はカメラ4によって撮像された映像を解析することによって可視聴者の位置を特定し、特定した可視聴者の位置から得られた解析結果をイベント発生部22に出力するようになっている。   The video analysis unit 21 identifies the viewer's position by analyzing the video imaged by the camera 4, and outputs the analysis result obtained from the identified viewer's position to the event generation unit 22. ing.

具体的には、映像解析部21はカメラ4によって撮像された映像と、カメラ4の撮像領域に可視聴者がいない状態で撮像された静止画像との差分映像によって、可視聴者の位置を特定するようになっている。なお、音声情報に着目した場合には、可視聴者は聴取者と表現できる。   Specifically, the video analysis unit 21 specifies the position of the viewer based on the difference video between the video captured by the camera 4 and a still image captured in a state where there is no viewer in the imaging area of the camera 4. It is supposed to be. When attention is paid to audio information, the viewer can be expressed as a listener.

また、映像解析部21は差分映像に基づいて可視聴者の特定の領域に対する進入および退出、滞留時間、移動時の速度および加速度、ならびに姿勢を解析するようになっている。   The video analysis unit 21 analyzes the viewer's entry and exit from a specific area, residence time, moving speed and acceleration, and posture based on the difference video.

映像解析部21によって出力された解析結果は、イベント発生部22に入力されるようになっておりイベント発生部22は入力された解析結果に基づいてイベントを発生するようになっている。   The analysis result output by the video analysis unit 21 is input to the event generation unit 22, and the event generation unit 22 generates an event based on the input analysis result.

ここで、イベントとは可視聴者がディスプレイ5に対してどのようなアクションをとったか、即ち、可視聴者の状態を表すもので、例えば、可視聴者が特定の領域に対する進入もしくは退出をしたとき、滞留時間が予め定められた時間を超えた時、予め定められた速度以上もしくは未満の速度で移動した時、予め定められた加速度以上または未満の加速度で移動した時、またはディスプレイ5を指差した姿勢をとったとき等がある。   Here, the event indicates what action the viewer has taken on the display 5, that is, the state of the viewer. For example, the viewer has entered or exited a specific area. When the dwell time exceeds a predetermined time, moves at a speed equal to or higher than a predetermined speed, moves at an acceleration equal to or higher than a predetermined acceleration, or points to the display 5 There are times when you take a different posture.

スクリプト実行部24は、イベント発生部22によって発生されたイベントに応じてスクリプト記憶部23に記憶されたスクリプトを取得し、取得したスクリプトを実行するようになっている。   The script execution unit 24 acquires the script stored in the script storage unit 23 according to the event generated by the event generation unit 22, and executes the acquired script.

ここで、スクリプトには、コンテンツをディスプレイ5上に表示するウインドウの移動やサイズの変更、コンテンツの切り換え、スピーカ6に出力する音声の各パート音量の変更、切り換え等を含む命令が記述されている。   Here, the script includes instructions including movement and size change of the window for displaying the content on the display 5, switching of the content, changing and switching of the volume of each part of the sound output to the speaker 6, and the like. .

例えば、スクリプト実行部24は、所定の領域に可視聴者が進入したことを示すイベントがイベント発生部22によって発生された場合には、ディスプレイ5上の可視聴者が視聴しやすい位置の画像を変化させたり、スピーカ6より音声を出力させるスクリプトをスクリプト記憶部23から取得して実行するようになっている。   For example, when the event generation unit 22 generates an event indicating that a viewer has entered a predetermined area, the script execution unit 24 displays an image on the display 5 at a position that is easily viewable by the viewer. A script for changing or outputting sound from the speaker 6 is acquired from the script storage unit 23 and executed.

コンテンツ出力部26は、スクリプト実行部24によって実行されたスクリプトによる命令に基づいてコンテンツ記憶部25に記憶されたコンテンツをディスプレイ5、スピーカ6に出力するようになっている。   The content output unit 26 is configured to output the content stored in the content storage unit 25 to the display 5 and the speaker 6 based on an instruction by a script executed by the script execution unit 24.

なお、上記の映像解析部21、イベント発生部22、スクリプト実行部24、およびコンテンツ出力部26は、コンテンツ出力装置3を構成するコンピュータ装置が有するCPUによって構成される。   The video analysis unit 21, the event generation unit 22, the script execution unit 24, and the content output unit 26 are configured by a CPU included in a computer device that configures the content output device 3.

また、音声情報出力システム1は、コンテンツ記憶部25にによってコンテンツ発生装置を構成することも可能である。   Further, the audio information output system 1 can also configure a content generation device by the content storage unit 25.

ここで、音声情報出力システム1における画像出力動作の例を図3、図4を用いて説明する。   Here, an example of an image output operation in the audio information output system 1 will be described with reference to FIGS.

図3は、音声情報出力システム1における画面出力動作の例を説明するための説明図である。また、図4は視聴者に提供する音楽コンテンツの例を説明するための説明図である。図4に示すように全パートが揃ったコンテンツ40、およびコンテンツ40の各パート(41〜44)毎に分離したものを用意しておく。   FIG. 3 is an explanatory diagram for explaining an example of a screen output operation in the audio information output system 1. FIG. 4 is an explanatory diagram for explaining an example of music content provided to the viewer. As shown in FIG. 4, the content 40 in which all the parts are arranged, and the parts separated for each part (41 to 44) of the content 40 are prepared.

図3において、可視聴者が誰もいない場合には、映像33〜36は静止画または上にマスクがかかった状態になっている。   In FIG. 3, when there are no viewers, the images 33 to 36 are still images or masked on top.

可視聴者31がディスプレイ5に表示された映像34(ギターの映像)の前の領域に進入すると、可視聴者31が所定領域に進入したことが映像解析部21によって解析され、可視聴者31が映像34の前に進入した旨のイベントがイベント発生部22によって発生される。   When the viewer 31 enters the area before the video 34 (guitar video) displayed on the display 5, the video analysis unit 21 analyzes that the viewer 31 has entered the predetermined area. The event generating unit 22 generates an event indicating that the video has entered before the video 34.

イベント発生部22によって発生されたイベントに応じてスクリプト記憶部23に記憶されたスクリプトがスクリプト実行部24によって取得され、取得されたスクリプトが実行される。   The script stored in the script storage unit 23 is acquired by the script execution unit 24 in accordance with the event generated by the event generation unit 22, and the acquired script is executed.

スクリプト実行部24によって実行されたスクリプトによる命令に基づいてコンテンツ記憶部25に記憶されたコンテンツがコンテンツ出力部26によってディスプレイ5およびスピーカ6に出力される。ディスプレイ5においては、映像34の再生が始まるか、上にかかったマスクがはずれて動画が見えるようになり、スピーカ6からはギターのパート42の再生が行われる。   The content stored in the content storage unit 25 is output to the display 5 and the speaker 6 by the content output unit 26 based on the command by the script executed by the script execution unit 24. On the display 5, the reproduction of the image 34 starts or the mask applied on the display 5 is removed and the moving image can be seen, and the guitar part 42 is reproduced from the speaker 6.

図3において、別の可視聴者32がディスプレイ5に表示された画像36(ヴォーカルの映像)の前の領域に進入すると、可視聴者32が所定領域に進入したことが映像解析部21によって解析され、可視聴者32が映像36の前に進入した旨のイベントがイベント発生部によって発生される。   In FIG. 3, when another viewer 32 enters the area in front of the image 36 (vocal video) displayed on the display 5, the video analysis unit 21 analyzes that the viewer 32 has entered the predetermined area. Then, an event that the viewer 32 has entered before the video 36 is generated by the event generating unit.

イベント発生部22によって発生されたイベントに応じてスクリプト記憶部23に記憶されたスクリプトがスクリプト実行部24によって取得され、取得されたスクリプトが実行される。   The script stored in the script storage unit 23 is acquired by the script execution unit 24 in accordance with the event generated by the event generation unit 22, and the acquired script is executed.

スクリプト実行部24によって実行されたスクリプトによる命令に基づいてコンテンツ記憶部25に記憶されたコンテンツがコンテンツ出力部26によってディスプレイ5およびスピーカ6に出力される。ディスプレイ5においては、映像36の再生が始まるか、上にかかっていたマスクがはずれて動画が見えるようになり、スピーカ6からはヴォーカルのパート44の再生が行われる。この際、可視聴者31がまだ画像34の前にいる場合には、ギターのパート42とヴォーカルのパート44とが重ね合わされて再生される。つまり、スクリプト実行部24がギターのパート42とヴォーカルのパート44とを同期させて再生するスクリプトを実行する、または、コンテンツ出力部26がギターのパート42を再生するスクリプトとヴォーカルのパート44を再生するスクリプトとを受け取ったときは各パートを同期させて出力するようにする。   The content stored in the content storage unit 25 is output to the display 5 and the speaker 6 by the content output unit 26 based on the command by the script executed by the script execution unit 24. On the display 5, the reproduction of the video 36 starts or the mask applied on the display 5 is removed and the moving image can be seen, and the vocal part 44 is reproduced from the speaker 6. At this time, if the viewer 31 is still in front of the image 34, the guitar part 42 and the vocal part 44 are superimposed and reproduced. That is, the script execution unit 24 executes a script that reproduces the guitar part 42 and the vocal part 44 in synchronization, or the content output unit 26 reproduces the script and vocal part 44 that reproduces the guitar part 42. When a script to be received is received, each part is output in synchronization.

本実施形態では、各映像33〜36の前の各領域に全て可視聴者が進入することによって、全パートが重ね合わされて再生されることになる。   In the present embodiment, all viewers enter the respective areas in front of the respective images 33 to 36, so that all the parts are superimposed and reproduced.

ディスプレイ5前の想定される通行者の量によってスクリプトを変更することで、通行者が多いことが想定される場合にはある程度以上の人数がその領域にいる場合に再生が始まるようにすることが可能であり、通行者が少ないことが想定される場合には一度その領域に可視聴者が進入したらその領域から可視聴者が退出しても一定時間は再生を続けることで一人の可視聴者で複数のパートを再生させることも可能である。   By changing the script according to the assumed number of passers-by in front of the display 5, when it is assumed that there are many passers-by, playback may start when a certain number of people are in that area. If it is possible and it is assumed that there are few passers-by, once a viewer enters the area, even if the viewer leaves the area, one viewer can continue by playing for a certain period of time. It is also possible to play multiple parts.

また、ディスプレイ5と可視聴者との距離によって再生するパートの音量を変更させることも可能である。   It is also possible to change the volume of the part to be reproduced depending on the distance between the display 5 and the viewer.

これによって、その場の可視聴者たちの動きによって、毎回違うアンサンブルを聴くことが可能となる。   This makes it possible to listen to a different ensemble each time depending on the movement of viewers on the spot.

また、原曲と同じアレンジで再生することが出来た場合には、特典映像やクーポンをディスプレイ5に表示してもよい。   In addition, when it is possible to reproduce with the same arrangement as the original music, a privilege video or a coupon may be displayed on the display 5.

これにより、音楽を単なる効果音やBGMとして使用するよりも、可視聴者の注目を得ることが出来る。   Thereby, a viewer's attention can be acquired rather than using music as a mere sound effect or BGM.

ここで、音声情報出力システム1における動作を図5を用いて説明する。図5は音声情報出力システム1における動作を説明するシーケンス図である。   Here, the operation in the audio information output system 1 will be described with reference to FIG. FIG. 5 is a sequence diagram for explaining the operation in the audio information output system 1.

図5において、まず、映像解析部21がカメラ4で撮影した映像を解析する(S1)。   In FIG. 5, first, the video analysis unit 21 analyzes the video shot by the camera 4 (S1).

映像に変化があるかを判断し(S2)、映像に変化があると判断した場合には後段のS3の処理に移り、映像に変化がないと判断した場合にはS1の処理を行う。   It is determined whether there is a change in the video (S2). If it is determined that there is a change in the video, the process proceeds to the subsequent S3, and if it is determined that there is no change in the video, the process of S1 is performed.

S2で映像に変化があると判断した場合には、イベント発生部22が変化の内容に応じたイベントを発生する(S3)。   If it is determined in S2 that there is a change in the video, the event generator 22 generates an event corresponding to the content of the change (S3).

スクリプト実行部24が、発生したイベントと対応するアクションスクリプトを取得し(S4)、取得したスクリプトを実行する(S5)。   The script execution unit 24 acquires an action script corresponding to the generated event (S4), and executes the acquired script (S5).

その結果、スクリプトにかかれたようにディスプレイ5やスピーカ6にコンテンツが再生される。   As a result, the content is reproduced on the display 5 and the speaker 6 as written in the script.

なお、本発明は図1、図2に示したシステムまたは装置の一部又は全部の処理機能をプログラムとして構成してコンピュータを用いて実現すること、または図3、図5で示した処理手順をプログラムとして構成してコンピュータに実行させることができる。また、コンピュータでその各部の処理機能を実現するためのプログラム、またはコンピュータにその処理手順を実行させるためのプログラムを、そのコンピュータが読み取り可能な記録媒体、例えば、フレキシブルディスク、MO、ROM、メモリカード、CD、DVD、リムーバブルディスクなどに記録して、保存したり、提供したりすることが可能であり、また、インターネットのような通信ネットワークを介して配布したりすることが可能である。   In the present invention, the processing functions shown in FIGS. 3 and 5 are realized by using a computer by configuring some or all of the processing functions of the system or apparatus shown in FIGS. 1 and 2 as a program. It can be configured as a program and executed by a computer. In addition, a computer-readable recording medium such as a flexible disk, MO, ROM, or memory card can be used to store a program for realizing the processing function of each unit by the computer or a program for causing the computer to execute the processing procedure. It can be recorded on a CD, a DVD, a removable disk, etc., stored, provided, and distributed via a communication network such as the Internet.

また、本実施形態では可視聴者の状態を検出するセンサとしてカメラを用いて説明したが、可視聴者の状態を検出することができるセンサであれば、例えば、赤外線(人感)センサ、静電センサ、超音波センサ、無線タグセンサ、タッチセンサ、圧力センサ、スイッチ等、どのようなセンサを用いてもよく、また、これらのセンサを適宜組み合わせて用いてもよい。   In the present embodiment, the camera is used as a sensor for detecting the state of the viewer. However, any sensor that can detect the state of the viewer can be used, for example, an infrared sensor (human sensor), a static sensor, or the like. Any sensor such as an electric sensor, an ultrasonic sensor, a wireless tag sensor, a touch sensor, a pressure sensor, and a switch may be used, and these sensors may be used in appropriate combination.

以上説明したように、本発明の実施形態に係る音声情報出力システム1によれば、提供したい音楽や音声をパート毎に分離して用意しておき、視聴者の動きに応じて動的に構成することで音楽自体の広告に対するより高い注目度を得ることが出来る音声情報提供技術を提供することが可能となる。   As described above, according to the audio information output system 1 according to the embodiment of the present invention, music and audio to be provided are prepared separately for each part and dynamically configured according to the movement of the viewer. By doing so, it is possible to provide a voice information providing technology that can obtain a higher degree of attention to the advertisement of the music itself.

本発明の音声情報出力システムの構成を示すブロック図。The block diagram which shows the structure of the audio | voice information output system of this invention. 本発明の音声情報出力装置の構成を示すブロック図。The block diagram which shows the structure of the audio | voice information output device of this invention. 本発明の音声情報出力システムにおける画面出力動作の例を説明するための説明図。Explanatory drawing for demonstrating the example of the screen output operation | movement in the audio | voice information output system of this invention. 本発明の視聴者に提供する音楽コンテンツの例を説明するための説明図。Explanatory drawing for demonstrating the example of the music content provided to the viewer of this invention. 本発明の音声情報出力システムにおける動作を説明するシーケンス図。The sequence diagram explaining the operation | movement in the audio | voice information output system of this invention. 従来の音声情報出力システムにおける画面出力動作の例を説明するための説明図。Explanatory drawing for demonstrating the example of the screen output operation | movement in the conventional audio | voice information output system. 従来の音声情報出力システムにおける画面出力動作の例を説明するための説明図。Explanatory drawing for demonstrating the example of the screen output operation | movement in the conventional audio | voice information output system.

符号の説明Explanation of symbols

1…音声情報出力システム
2…コンテンツ配信装置
3…コンテンツ出力装置
4…カメラ
5…ディスプレイ
6…スピーカ
21…映像解析部
22…イベント発生部
23…スクリプト記憶部
24…スクリプト実行部
25…コンテンツ記憶部
26…コンテンツ出力部
31、32…可視聴者
33…アコーディオンのパート
34…ギターのパート
35…ドラムスのパート
36…ヴォーカルのパート
40…元の音楽コンテンツ
41…アコーディオンパート
42…ギターパート
43…ドラムスパート
44…ヴォーカルパート
DESCRIPTION OF SYMBOLS 1 ... Audio | voice information output system 2 ... Content distribution apparatus 3 ... Content output apparatus 4 ... Camera 5 ... Display 6 ... Speaker 21 ... Image | video analysis part 22 ... Event generation part 23 ... Script storage part 24 ... Script execution part 25 ... Content storage part 26 ... Content output section 31, 32 ... Audible viewer 33 ... Accordion part 34 ... Guitar part 35 ... Drums part 36 ... Vocal part 40 ... Original music content 41 ... Accordion part 42 ... Guitar part 43 ... Drum part 44 ... Vocal part

Claims (17)

音声情報を含むコンテンツの聴取者の状態を検出するセンサの検出結果に基づいて、前記聴取者に提供する音声情報を変化させる音声情報提供方法であって、
前記音声情報を当該音声情報を構成する複数の部分音声情報に分割して記憶しておき、前記検出結果に対応する部分音声情報を前記聴取者に提供する、ことを特徴とする音声情報提供方法。
An audio information providing method for changing audio information to be provided to the listener based on a detection result of a sensor that detects a state of a listener of content including audio information,
The audio information providing method, wherein the audio information is divided into a plurality of partial audio information constituting the audio information and stored, and partial audio information corresponding to the detection result is provided to the listener. .
前記コンテンツは画像情報を含んでおり、
前記検出結果に対応する部分音声情報および画像情報を前記聴取者に提供する、ことを特徴とする請求項1に記載の音声情報提供方法。
The content includes image information,
2. The audio information providing method according to claim 1, wherein partial audio information and image information corresponding to the detection result are provided to the listener.
前記部分音声情報を複数同時に提供するときは、各部分音声情報を同期させて提供する、ことを特徴とする請求項1または2に記載の音声情報提供方法。   3. The audio information providing method according to claim 1, wherein when a plurality of pieces of the partial audio information are simultaneously provided, the partial audio information is provided in synchronization. 音声情報を含むコンテンツの聴取者の状態を検出するセンサが聴取者に関する情報を入力するステップと、
映像解析部が前記聴取者に関する情報から当該聴取者の状態を解析するステップと、
イベント発生部が前記解析結果に対応するイベントを発生するステップと、
スクリプト実行部が前記イベントに対応したスクリプトを実行するステップと、
コンテンツ出力部が前記スクリプトに対応したコンテンツを出力するステップと、を有する音声情報提供方法であって、
前記コンテンツは音声情報を含んでおり、前記音声情報を当該音声情報を構成する複数の部分音声情報に分割して記憶しておき、
前記スクリプト実行部は前記イベント発生部から受信したイベントに対応した部分音声情報を出力するスクリプトを実行する、ことを特徴とする音声情報提供方法。
A sensor for detecting the state of the listener of the content containing the audio information inputs information about the listener;
A step of analyzing a state of the listener from information on the listener by the video analysis unit;
An event generating unit generating an event corresponding to the analysis result;
A script execution unit executing a script corresponding to the event;
A content output unit that outputs a content corresponding to the script;
The content includes audio information, and the audio information is divided into a plurality of partial audio information constituting the audio information and stored.
The audio information providing method, wherein the script execution unit executes a script that outputs partial audio information corresponding to an event received from the event generation unit.
前記コンテンツは画像情報を含んでおり、
前記スクリプト実行部は前記イベント発生部から受信したイベントに対応する部分音声情報および画像情報を出力するスクリプトを実行する、ことを特徴とする請求項4に記載の音声情報提供方法。
The content includes image information,
5. The audio information providing method according to claim 4, wherein the script execution unit executes a script that outputs partial audio information and image information corresponding to an event received from the event generation unit.
前記スクリプト実行部が前記イベント発生部から入力したイベントに基づいて部分音声情報を複数同時に出力するスクリプトを実行するときは、当該スクリプトは各部分音声情報を同期させて出力するものである、ことを特徴とする請求項4または5に記載の音声情報提供方法。   When the script execution unit executes a script that simultaneously outputs a plurality of partial audio information based on an event input from the event generation unit, the script outputs the partial audio information in synchronization. The audio information providing method according to claim 4 or 5, characterized in that: 前記コンテンツ出力手段が前記スクリプト実行部から部分音声情報を出力するスクリプトを複数入力したときは、各部分音声情報を同期させて出力する、ことを特徴とする請求項4または5に記載の音声情報提供方法。   The audio information according to claim 4 or 5, wherein when the content output means inputs a plurality of scripts for outputting partial audio information from the script execution unit, the partial audio information is output in synchronization with each other. How to provide. 前記音声情報は音楽であり、
前記複数の部分音声情報は前記音楽の各パートである、ことを特徴とする請求項1〜7いずれかに記載の音声情報提供方法。
The audio information is music;
The audio information providing method according to claim 1, wherein the plurality of partial audio information are each part of the music.
音声情報を含むコンテンツの聴取者の状態を検出するセンサの検出結果に基づいて、前記聴取者に提供する音声情報を変化させる音声情報提供装置であって、
前記音声情報を当該音声情報を構成する複数の部分音声情報に分割して記憶しておき、前記検出結果に対応する部分音声情報を前記聴取者に提供する、ことを特徴とする音声情報提供装置。
An audio information providing apparatus that changes audio information to be provided to the listener based on a detection result of a sensor that detects a state of a listener of content including audio information,
The audio information providing apparatus, wherein the audio information is divided and stored into a plurality of partial audio information constituting the audio information, and the partial audio information corresponding to the detection result is provided to the listener. .
前記コンテンツは画像情報を含んでおり、
前記検出結果に対応する部分音声情報および画像情報を前記聴取者に提供する、ことを特徴とする請求項10に記載の音声情報提供装置。
The content includes image information,
The audio information providing apparatus according to claim 10, wherein partial audio information and image information corresponding to the detection result are provided to the listener.
前記部分音声情報を複数同時に提供するときは、各部分音声情報を同期させて提供する、ことを特徴とする請求項9または10に記載の音声情報提供装置。   The audio information providing apparatus according to claim 9 or 10, wherein when providing a plurality of pieces of the partial audio information simultaneously, the partial audio information is provided in synchronization. 音声情報を含むコンテンツの聴取者の状態を検出し、当該聴取者に関する情報を入力するセンサと、
前記聴取者に関する情報から当該聴取者の状態を解析する映像解析部と、
前記解析結果に対応するイベントを発生するイベント発生部と、
前記イベントに対応したスクリプトを実行するスクリプト実行部と、
前記スクリプトに対応したコンテンツを出力するコンテンツ出力部と、を有する音声情報提供装置であって、
前記コンテンツは音声情報を含んでおり、前記音声情報を当該音声情報を構成する複数の部分音声情報に分割して記憶しておき、
前記スクリプト実行部は前記イベント発生部から受信したイベントに対応した部分音声情報を出力するスクリプトを実行する、ことを特徴とする音声情報提供装置。
A sensor for detecting a state of a listener of content including audio information and inputting information related to the listener;
A video analysis unit that analyzes the state of the listener from information about the listener;
An event generator for generating an event corresponding to the analysis result;
A script execution unit that executes a script corresponding to the event;
A content output unit that outputs content corresponding to the script,
The content includes audio information, and the audio information is divided into a plurality of partial audio information constituting the audio information and stored.
The audio information providing apparatus, wherein the script execution unit executes a script that outputs partial audio information corresponding to an event received from the event generation unit.
前記コンテンツは画像情報を含んでおり、
前記スクリプト実行部は前記イベント発生部から受信したイベントに対応する部分音声情報および画像情報を出力するスクリプトを実行する、ことを特徴とする請求項12に記載の音声情報提供装置。
The content includes image information,
13. The audio information providing apparatus according to claim 12, wherein the script execution unit executes a script that outputs partial audio information and image information corresponding to an event received from the event generation unit.
前記スクリプト実行部が前記イベント発生部から入力したイベントに基づいて部分音声情報を複数同時に出力するスクリプトを実行するときは、当該スクリプトは各部分音声情報を同期させて出力するものである、ことを特徴とする請求項12または13に記載の音声情報提供装置。   When the script execution unit executes a script that simultaneously outputs a plurality of partial audio information based on an event input from the event generation unit, the script outputs the partial audio information in synchronization. The audio information providing apparatus according to claim 12 or 13, characterized in that: 前記コンテンツ出力手段が前記スクリプト実行部から部分音声情報を出力するスクリプトを複数入力したときは、各部分音声情報を同期させて出力する、ことを特徴とする請求項12または13に記載の音声情報提供装置。   The audio information according to claim 12 or 13, wherein when the content output unit inputs a plurality of scripts for outputting partial audio information from the script execution unit, the partial audio information is output in synchronization with each other. Providing device. 前記音声情報は音楽であり、
前記複数の部分音声情報は前記音楽の各パートである、ことを特徴とする請求項9〜15いずれかに記載の音声情報提供方法。
The audio information is music;
16. The audio information providing method according to claim 9, wherein the plurality of partial audio information are each part of the music.
上記の請求項1〜16のいずれかに記載の音声情報提供方法または音声情報提供装置を、コンピュータプログラムで記載してそれを実行可能にしたことを特徴とするプログラム。   A program characterized in that the voice information providing method or the voice information providing apparatus according to any one of claims 1 to 16 is described as a computer program and is executable.
JP2004262118A 2004-09-09 2004-09-09 Music content providing method, music content providing apparatus, and music content providing program Expired - Fee Related JP5022562B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004262118A JP5022562B2 (en) 2004-09-09 2004-09-09 Music content providing method, music content providing apparatus, and music content providing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004262118A JP5022562B2 (en) 2004-09-09 2004-09-09 Music content providing method, music content providing apparatus, and music content providing program

Publications (2)

Publication Number Publication Date
JP2006078732A true JP2006078732A (en) 2006-03-23
JP5022562B2 JP5022562B2 (en) 2012-09-12

Family

ID=36158245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004262118A Expired - Fee Related JP5022562B2 (en) 2004-09-09 2004-09-09 Music content providing method, music content providing apparatus, and music content providing program

Country Status (1)

Country Link
JP (1) JP5022562B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017062319A (en) * 2015-09-24 2017-03-30 カシオ計算機株式会社 Projection system

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6397993A (en) * 1986-10-14 1988-04-28 積水化学工業株式会社 Advertising apparatus
JPH07152369A (en) * 1993-11-30 1995-06-16 Yamaha Corp Multi-media controller
JP2000237454A (en) * 1999-02-16 2000-09-05 Konami Co Ltd Music game system, production instruction interlocking and controlling method in the system, and readable recording medium recording production instruction interlocking and controlling program in the system
JP2001043384A (en) * 1999-07-29 2001-02-16 Nippon Telegr & Teleph Corp <Ntt> Input method and device of multimedia information space, input and output cooperation method and device, and recording medium recording input program and input and output cooperation program
JP2001216527A (en) * 2000-02-04 2001-08-10 Nippon Telegr & Teleph Corp <Ntt> Method and device for multi-media information space input/output and recording medium with its program recorded thereon
JP2001269431A (en) * 2000-03-24 2001-10-02 Yamaha Corp Body movement state-evaluating device
JP2001350474A (en) * 2000-06-08 2001-12-21 Yamaha Corp Time-series data read control device, performance control device, and video reproduction control device
JP2002078982A (en) * 2000-09-07 2002-03-19 Toybox:Kk Performance toy
JP2003195845A (en) * 2001-09-27 2003-07-09 Fuji Photo Film Co Ltd Image display method
JP2005303567A (en) * 2004-04-09 2005-10-27 Yamaha Corp Image and sound controller

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6397993A (en) * 1986-10-14 1988-04-28 積水化学工業株式会社 Advertising apparatus
JPH07152369A (en) * 1993-11-30 1995-06-16 Yamaha Corp Multi-media controller
JP2000237454A (en) * 1999-02-16 2000-09-05 Konami Co Ltd Music game system, production instruction interlocking and controlling method in the system, and readable recording medium recording production instruction interlocking and controlling program in the system
JP2001043384A (en) * 1999-07-29 2001-02-16 Nippon Telegr & Teleph Corp <Ntt> Input method and device of multimedia information space, input and output cooperation method and device, and recording medium recording input program and input and output cooperation program
JP2001216527A (en) * 2000-02-04 2001-08-10 Nippon Telegr & Teleph Corp <Ntt> Method and device for multi-media information space input/output and recording medium with its program recorded thereon
JP2001269431A (en) * 2000-03-24 2001-10-02 Yamaha Corp Body movement state-evaluating device
JP2001350474A (en) * 2000-06-08 2001-12-21 Yamaha Corp Time-series data read control device, performance control device, and video reproduction control device
JP2002078982A (en) * 2000-09-07 2002-03-19 Toybox:Kk Performance toy
JP2003195845A (en) * 2001-09-27 2003-07-09 Fuji Photo Film Co Ltd Image display method
JP2005303567A (en) * 2004-04-09 2005-10-27 Yamaha Corp Image and sound controller

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017062319A (en) * 2015-09-24 2017-03-30 カシオ計算機株式会社 Projection system

Also Published As

Publication number Publication date
JP5022562B2 (en) 2012-09-12

Similar Documents

Publication Publication Date Title
US8917972B2 (en) Modifying audio in an interactive video using RFID tags
US20050180462A1 (en) Apparatus and method for reproducing ancillary data in synchronization with an audio signal
KR20160111294A (en) Foreign language learning system and foreign language learning method
WO2009040372A1 (en) Technique for allowing the modification of the audio characteristics of items appearing in an interactive video using rfid tags
WO2014061931A1 (en) Device and method for playing sound
WO2018043112A1 (en) Information presentation apparatus and information presentation method
EP2743917B1 (en) Information system, information reproducing apparatus, information generating method, and storage medium
JP2011040921A (en) Content generator, content generating method, and content generating program
JP2010015076A (en) Display system, display control device, and display control method
JP4318182B2 (en) Terminal device and computer program applied to the terminal device
JP2001306211A (en) Display method for touch panel type display
JP5022562B2 (en) Music content providing method, music content providing apparatus, and music content providing program
WO2013008869A1 (en) Electronic device and data generation method
JP6367748B2 (en) Recognition device, video content presentation system
JP5371574B2 (en) Karaoke device that displays lyrics subtitles to avoid face images in background video
JP4382045B2 (en) DATA OUTPUT DEVICE, DATA OUTPUT METHOD, DATA OUTPUT PROGRAM, AND RECORDING MEDIUM
JP2002008052A (en) Presentation system and recording medium
JP2013097240A (en) Hearing-impaired person support device and operation method thereof
Zampronha Ancestral Symbol: Musically Organizing Unpredictable Interactions to Create the Sound of a Paleolithic Cave Sign
WO2023084933A1 (en) Information processing device, information processing method, and program
JP2004287004A (en) Display system
JP2009045245A (en) Image display device
JP2017017387A (en) Video processing apparatus and video processing method
JP2009017438A (en) Information transmission apparatus
JP2015049515A (en) Language learning program and computer readable recording medium recording the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070703

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090526

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090910

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090910

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100928

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110322

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110523

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110614

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120612

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120618

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150622

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees