JP6736196B1 - Audio reproduction method, audio reproduction system, and program - Google Patents
Audio reproduction method, audio reproduction system, and program Download PDFInfo
- Publication number
- JP6736196B1 JP6736196B1 JP2020039346A JP2020039346A JP6736196B1 JP 6736196 B1 JP6736196 B1 JP 6736196B1 JP 2020039346 A JP2020039346 A JP 2020039346A JP 2020039346 A JP2020039346 A JP 2020039346A JP 6736196 B1 JP6736196 B1 JP 6736196B1
- Authority
- JP
- Japan
- Prior art keywords
- audio
- voice
- data
- reproduction
- tempo
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Circuit For Audible Band Transducer (AREA)
Abstract
【課題】複数の音声を異なるスピーカを用いて再生する技術において、より快適な空間を利用者に提供することを可能ならしめる。【解決手段】音声再生方法(S1)は、一又は複数のプロセッサが、一又は複数のストレージに格納された音声データ群から、特定のキーに属する音声を表す複数の音声データを選択するデータ選択ステップ(S102)と、データ選択ステップ(S102)にて選択された各音声データの表す音声を異なるスピーカを用いて再生する再生ステップ(S103)と、を含んでいる。【選択図】図2PROBLEM TO BE SOLVED: To provide a more comfortable space to a user in a technique of reproducing a plurality of voices using different speakers. SOLUTION: A voice reproduction method (S1) is a data selection in which one or more processors select a plurality of voice data representing a voice belonging to a specific key from a voice data group stored in one or a plurality of storages. It includes a step (S102) and a reproduction step (S103) of reproducing the voice represented by each voice data selected in the data selection step (S102) by using different speakers. [Selection diagram] Figure 2
Description
本発明は、音声を再生する技術に関する。 The present invention relates to a technique for reproducing sound.
商業空間、ホテル、飲食店、オフィス、展示会場などの各種施設において、より快適な空間を利用者に提供するために、バックグラウンドミュージック(以下、「BGM」と記載)等の音声を再生することが広く行われている。 Playing background music (hereinafter referred to as "BGM") and other sounds in order to provide users with a more comfortable space in various facilities such as commercial spaces, hotels, restaurants, offices, exhibition halls, etc. Is widely practiced.
しかしながら、施設全体において単一の音声を再生すると、利用者に単調な印象を与えかねない。そこで、施設内に複数のスピーカを設置したうえで、複数の音声を異なるスピーカを用いて同時に再生することが考えられる。 However, playing a single sound throughout the facility may give the user a monotonous impression. Therefore, it is possible to install a plurality of speakers in the facility and simultaneously reproduce a plurality of voices using different speakers.
例えば、特許文献1には、飲食店においてテーブル毎に異なる音声を提供する技術が開示されている。特許文献1に記載の技術においは、各テーブルについて、そのテーブルで飲食する客にふさわしいジャンルのBGMが自動的に選択され、選択されたBGMがそのテーブルに設置されたスピーカを用いて再生される。
For example,
しかしながら、複数の音声を異なるスピーカを用いて再生する技術においては、以下のような問題を生じ得る。すなわち、2つ以上のスピーカのサービスエリアの重複領域に居る利用者には、2つ以上の音声が同時に聴こえる。これにより、利用者に不快感を与えてしまい、より快適な空間を利用者に提供するという本来の目的を達成することが困難になる場合がある。例えば、音程が調和しない2つ以上の音声が同時に聴こえた場合、多くの利用者が不快感を抱くことになる。 However, the following problems may occur in the technique of reproducing a plurality of voices using different speakers. That is, a user in the overlapping area of the service areas of two or more speakers can hear two or more voices at the same time. As a result, the user may feel uncomfortable, and it may be difficult to achieve the original purpose of providing a more comfortable space to the user. For example, when two or more voices whose pitches are not in harmony are heard at the same time, many users feel uncomfortable.
本発明の一態様は、上記の問題に鑑みてなされたものであり、複数の音声を異なるスピーカを用いて再生する技術において、より快適な空間を利用者に提供することを可能ならしめることを目的とする。 One aspect of the present invention has been made in view of the above problems, and it is possible to provide a more comfortable space to a user in a technique of reproducing a plurality of voices using different speakers. To aim.
上記の課題を解決するために、本発明の一態様に係る音声再生方法は、一又は複数のプロセッサが、一又は複数のストレージに格納された音声データ群から、特定のキーに属する音声を表す複数の音声データを選択するデータ選択ステップと、前記データ選択ステップにて選択された各音声データの表す音声を異なるスピーカを用いて再生する再生ステップと、実行する。 In order to solve the above problems, in a sound reproduction method according to an aspect of the present invention, one or a plurality of processors represents a sound belonging to a specific key from a sound data group stored in one or a plurality of storages. A data selection step of selecting a plurality of audio data and a reproduction step of reproducing the audio represented by each audio data selected in the data selection step by using different speakers are executed.
また、上記の課題を解決するために、本発明の一態様に係る音声再生システムは、一又は複数のストレージと、一又は複数のプロセッサと、を備え、前記プロセッサは、前記ストレージに格納された音声データ群から、特定のキーに属する音声を表す複数の音声データを選択するデータ選択ステップと、前記データ選択ステップにて選択された各音声データの表す音声を異なるスピーカを用いて再生する再生ステップと、を実行する。 In order to solve the above problems, a sound reproduction system according to one aspect of the present invention includes one or more storages and one or more processors, and the processor is stored in the storages. A data selecting step of selecting a plurality of audio data representing audio belonging to a specific key from the audio data group, and a reproducing step of reproducing the audio represented by each audio data selected in the data selecting step using different speakers. And execute.
上記の課題を解決するために、本発明の一態様に係るプログラムは、上述した音声再生方法をコンピュータに実行させる。 In order to solve the above problems, a program according to an aspect of the present invention causes a computer to execute the above-described audio reproduction method.
本発明の一態様によれば、より快適な空間を利用者に提供することが可能になる。 According to one aspect of the present invention, it becomes possible to provide the user with a more comfortable space.
〔実施形態〕
<用語の定義>
本発明の実施形態の説明に入る前に、以下の説明に登場する幾つかの用語について、その定義を説明する。
[Embodiment]
<Definition of terms>
Before describing the embodiments of the present invention, the definitions of some terms appearing in the following description will be described.
(キー)
キーとは、主音および音階の組み合わせのことを指し、調とも呼ばれる。主音は、そのキーにおいて中心となる音である。また、音階とは、ある音からそのオクターブ上の音までの間を特定の秩序によって並べた音列であり、一例として、長調、短調等がある。キーは、例えば、伝統的な西洋音楽の用語を用いれば、ハ長調、ハ短調等のように表現される。また、キーは、ジャズ、ポピュラーミュージック等の用語を用いれば、C(シー)、Cm(シーマイナー)等といったコードネームで表現される。本明細書においては、後者の用語を用いる。
(Key)
A key refers to a combination of a tonic and a scale, and is also called a key. The tonic is the central sound at that key. In addition, a scale is a sequence of notes arranged from a certain note to a note on its octave in a specific order, and examples thereof include major and minor keys. The key is expressed, for example, in C major or C minor using traditional Western music terms. Further, the key is expressed by a code name such as C (sea), Cm (sea minor), etc., using the terms such as jazz and popular music. In this specification, the latter term is used.
(音声データ)
音声データとは、音声を表すデータのことを指す。音声は、楽曲を構成するものであってもよいし、楽曲を構成しないものであってもよい。楽曲を構成しない音声の例としては、例えば、ステムと呼ばれる音素材が挙げられる。音声データは、特定のキーに属する音声を表すものと、特定のキーに属さない音声を表すものとに分類できる。また、音声データは、有テンポ音声を表すものと、無テンポ音声を表すものとに分類できる。本実施形態においては、特定のキーに属する無テンポ音声を表す音声データと、特定のキーに属さない有テンポ音声を表す音声データとを、主たる再生対象として想定する。なお、有テンポ音声および無テンポ音声の定義については、後述する。
(Voice data)
Voice data refers to data representing voice. The voice may or may not compose music. An example of the sound that does not form a music is a sound material called stem. The voice data can be classified into data that represents a voice that belongs to a specific key and data that represents a voice that does not belong to a specific key. In addition, the audio data can be classified into data that represents tempo audio and data that represents non-tempo audio. In the present embodiment, audio data representing non-tempo audio that belongs to a specific key and audio data representing tempo audio that does not belong to a specific key are assumed to be main reproduction targets. The definitions of tempo voice and non-tempo voice will be described later.
(音声が属するキー)
音声が属するキーは、その音声に含まれる音の組み合わせに基づいて特定可能である。ここで、音の組み合わせとは、同時再生される音の組み合わせ(例えば、和音を構成する音の組み合わせ)であってもよいし、順次再生される音の組み合わせ(例えば、旋律を構成する音の組み合わせ)であってもよい。なお、音声が属するキーは、一意に特定できない場合がある。例えば、C音とその倍音により構成される音声は、Cキーに属する音声と見做すこともできるし、Cmキーに属する音声と見做すこともできる。
(Key to which the voice belongs)
The key to which the voice belongs can be identified based on the combination of sounds included in the voice. Here, the combination of sounds may be a combination of sounds that are simultaneously reproduced (for example, a combination of sounds that form a chord), or a combination of sounds that are sequentially reproduced (for example, a combination of sounds that form a melody). Combination). The key to which the voice belongs may not be uniquely specified. For example, the sound composed of the C sound and its overtone can be regarded as the sound belonging to the C key or the sound belonging to the Cm key.
(有テンポ音声および無テンポ音声)
有テンポ音声とは、テンポを司る一連の音の進行を含む音声のことを指す。有テンポ音声は、聴者がテンポまたはリズムの存在を感じる音声と言い換えることもできる。有テンポ音声は、特定のキーに属する音声であってもよいし、特定のキーに属さない音声であってもよい。特定のキーに属する有テンポ音声の例としては、例えば、カッティングギター音が挙げられる。また、特定のキーに属さない有テンポ音声の例としては、例えば、ドラム音が挙げられる。一方、無テンポ音声とは、テンポを司る一連の音の進行を含まない音声のことを指す。無テンポ音声は、聴者がテンポまたはリズムの存在を感じない音声と言い換えることもできる。
(Voice with tempo and voice without tempo)
The tempo voice is a voice including a series of sounds that control the tempo. The tempo voice can be rephrased as a voice that the listener feels the presence of tempo or rhythm. The tempo voice may be a voice that belongs to a specific key or a voice that does not belong to a specific key. An example of the tempo voice belonging to a specific key is a cutting guitar sound, for example. An example of the tempo voice that does not belong to a particular key is a drum sound. On the other hand, non-tempo voice refers to voice that does not include the progression of a series of sounds that control the tempo. The non-tempo voice can be rephrased as a voice in which the listener does not feel the presence of tempo or rhythm.
(非同期再生)
複数の音声の非同期再生とは、これら複数の音声を、再生開始タイミングを一致させずに再生期間を重複させて再生することをいう。なお、これら複数の音声の一部について再生開始タイミングを一致させる態様は、非同期再生に含まれるが、これら複数の全部について再生タイミングを一致させる態様は、非同期再生に含まれない。例えば、右チャンネル用の音声と左チャンネル用の音声とについて、これら音声を左右のスピーカから再生タイミングを一致させて出力するステレオ再生は、非同期再生に含まれない。なお、複数の音声の非同期再生は、例えば、これら複数の音声の各々の再生を、音声毎にランダムに決定したタイミングで開始することにより実現される。
(Asynchronous playback)
Asynchronous reproduction of a plurality of voices means reproduction of a plurality of these voices with their reproduction start timings not coincident with each other and the reproduction periods thereof being overlapped. It should be noted that the mode in which the reproduction start timings of some of the plurality of sounds are matched is included in the asynchronous reproduction, but the mode of matching the reproduction timings in all of the plurality of sounds is not included in the asynchronous reproduction. For example, with respect to the sound for the right channel and the sound for the left channel, stereo reproduction in which these sounds are output from the left and right speakers at the same reproduction timing is not included in the asynchronous reproduction. The asynchronous reproduction of a plurality of voices is realized by, for example, starting the reproduction of each of the plurality of voices at a timing randomly determined for each voice.
<音声再生システム1の構成>
本発明の一実施形態に係る音声再生システム1の構成について、図1を参照して説明する。図1は、音声再生システム1の構成を示すブロック図である。
<Structure of
The configuration of the
音声再生システム1は、図1に示すように、コンピュータ10と、ストレージ20と、複数のスピーカ30_1,30_2,…,30_nと、を含む。複数のスピーカ30_1,30_2,…,30_nの個数nは、任意である。コンピュータ10は、ネットワークN1を介して、ストレージ20に接続されている。また、コンピュータ10は、ケーブルを介して、各スピーカ30_i(i=1,2,…,n)に接続されている。ネットワークN1は、無線LAN(Local Area Network)、有線LAN、モバイルデータ通信網、公衆回線網、インターネット、またはこれらの一部または全部の組み合わせであってもよい。
As shown in FIG. 1, the
なお、本実施形態においては、コンピュータ10から各スピーカ30_iに音声データがアナログ信号として提供される構成を採用しているが、本発明は、これに限定されない。すなわち、コンピュータ10から各スピーカ30_iに音声データがデジタル信号として提供される構成を採用してもよい。この場合、コンピュータ10は、ネットワークN1を介して、各スピーカ30_iに接続されてもよい。
In addition, in the present embodiment, the configuration in which the audio data is provided from the
(コンピュータ10の構成)
コンピュータ10は、プロセッサ101と、主メモリ102と、補助メモリ103と、通信インタフェース(IF:interface)104と、複数のDAC(digital to analog converter)105_1,105_2,…,105_nと、を含む。プロセッサ101、主メモリ102、補助メモリ103、通信IF104、および各DAC105_iは、不図示のバスを介して互いに接続されている。なお、コンピュータ10の一例として、メインフレームコンピュータ、パーソナルコンピュータ、タブレット、スマートフォン等が挙げられるが、これらに限られない。
(Configuration of computer 10)
The
プロセッサ101としては、例えば、マイクロプロセッサ、デジタルシグナルプロセッサ、マイクロコントローラ、またはこれらの組み合わせ等が用いられる。主メモリ102としては、例えば、半導体RAM(random access memory)等が用いられる。補助メモリ103としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、またはこれらの組み合わせ等が用いられる。補助メモリ103には、後述する音声再生方法S1をコンピュータ10に実行させるためのプログラムが格納されている。プロセッサ101は、このプログラムを主メモリ102上に展開し、展開したプログラムに含まれる各命令を実行することにより、後述する音声再生方法S1をコンピュータ10に実行させる。
As the
通信IF104は、ネットワークN1に接続された装置からデータを取得(ダウンロード)したり、ネットワークN1に接続された装置にデータを提供(アップロード)したりするためのハードウェアである。本実施形態において、通信IF104は、ストレージ20から音声データを取得するために利用される。
The communication IF 104 is hardware for acquiring (downloading) data from a device connected to the network N1 and providing (uploading) data to a device connected to the network N1. In the present embodiment, the communication IF 104 is used to acquire audio data from the
DAC105_iは、デジタル音声信号をアナログ音声信号に変換するためのハードウェアである。本実施形態において、DAC105_iは、ストレージ20から取得した音声データをアナログ音声信号に変換するために利用される。DAC105_iにて得られたアナログ信号は、対応するスピーカ30_iに供給される。
The DAC 105_i is hardware for converting a digital audio signal into an analog audio signal. In the present embodiment, the DAC 105_i is used to convert the audio data acquired from the
なお、プロセッサ101は、不図示の入力装置に接続され、この入力装置をユーザが操作することで入力される入力情報を、この入力装置から取得するように構成されていてもよい。この場合、入力情報は、後述する音声再生方法S1において、プロセッサ101により参照される。また、プロセッサ101は、不図示の表示装置に接続され、この表示装置がユーザに提示する表示画面を、この表示装置に提供するように構成されていてもよい。この場合、表示画面は、後述する音声再生方法S1において、プロセッサ101により生成される。
It should be noted that the
(ストレージ20の構成)
ストレージ20は、音声データ群を格納する装置である。ストレージ20は、コンピュータ10からの要求により、音声データ群に含まれる音声データをコンピュータ10に提供する機能を有する。ストレージ20は、例えば、ネットワークストレージによって構成されてもよいし、サーバコンピュータによって構成されてもよい。
(Structure of storage 20)
The
本実施形態において、ストレージ20には、特定のキーに属する無テンポ音声を表す複数の音声データと、特定のキーに属さない有テンポ音声を表す複数の音声データと、が格納されている。図1においては、特定のキーに属する無テンポ音声を表す音声データとして、C(シー)キーに属する無テンポ音声を表す音声データC、Am(エー・マイナー)キーに属する無テンポ音声を表す複数の音声データAm、Dm(ディー・マイナー)キーに属する無テンポ音声を表す複数の音声データDmを例示している。また、図2においては、特定のキーに属さない有テンポ音声を表す音声データとして、ドラム音を表す音声データTを例示している。
In the present embodiment, the
以降、複数の音声データX(X=C、Am、…、Dm、T)をそれぞれ区別する必要がある場合には、音声データX−i(i=1、2、…・)とも記載する。例えば、音声データC−1は、Cキーに属する音声を表す1つ目の音声データであり、音声データC−2は、Cキーに属する音声を表す2つ目の音声データである。 Hereinafter, when it is necessary to distinguish a plurality of audio data X (X=C, Am,..., Dm, T), they are also described as audio data X-i (i=1, 2,... ). For example, the audio data C-1 is the first audio data representing the audio belonging to the C key, and the audio data C-2 is the second audio data representing the audio belonging to the C key.
なお、図1には、音声データC、Am、Dm、Tをそれぞれ5つずつ示しているが、これに限定されない。各キーに属する音声を表す音声データの個数、および、有テンポ音声を表す音声データの個数は、任意である。また、音声データC、Am、Dm、Tを特に区別しない場合には、それぞれを単に音声データとも記載する。 Note that FIG. 1 shows five pieces of audio data C, Am, Dm, and T, but the present invention is not limited to this. The number of voice data representing voices belonging to each key and the number of voice data representing tempo voices are arbitrary. Further, when the audio data C, Am, Dm, and T are not particularly distinguished, each is simply referred to as audio data.
(音声データとキー等との関連付け)
ストレージ20は、各音声データを、その音声データの表す音声が属するキー、および、その音声データの表す音声が有テンポ音声であるか無テンポ音声であるかを特定可能に格納している。
(Associating voice data with keys etc.)
The
例えば、ストレージ20は、各音声データの識別子(例えばファイル名)と、その音声データの表す音声の属するキーの識別子と、を関連付けたテーブルを記憶していてもよい。また、ストレージ20は、各音声データの識別子と、その音声データの表す音声が有テンポ音声であるか無テンポ音声であるかを示すフラグと、を関連付けたテーブルを記憶していてもよい。
For example, the
あるいは、ストレージ20において、各音声データの識別子は、その音声データの表す音声の属するキーの識別子を含んでいてもよい。また、ストレージ20において、各音声データの識別子は、その音声データの表す音声が有テンポ音声であるか無テンポ音声であるかを示すフラグを含んでいてもよい。この場合、一例として、音声データC−1の識別子(ファイル名)は、「tempo=0_key=C_id=1.mp3」などとなり、音声データT−2の識別子は、「tempo=1_id=2.mp3」などとなる。
Alternatively, in the
あるいは、ストレージ20において、各音声データは、その音声データの表す音声の属するキーに対応するフォルダ(ディレクトリ)に格納されていてもよい。また、ストレージにおいて、有テンポ音声を表す音声データと無テンポ音声を表す音声データとが異なるフォルダに格納されていてもよい。この場合、一例として、音声データC−1は、「/sound/tempo=0/c/」に格納され、音声データT−2は、「/sound/tempo=1/」に格納される。
Alternatively, in the
(スピーカ30_iの構成)
スピーカ30_iは、コンピュータ10から出力される音声を出力する装置である。複数のスピーカ30_1〜30_nは、各種施設に分散して設置される。想定される施設としては、商業空間、ホテル、飲食店、オフィス、展示会場などが挙げられる。なお、複数のスピーカ30_1〜30_nは、単一の施設の異なるフロアに分散して設置されてもよいし、複数の施設に分散して設置されてもよい。
(Structure of speaker 30_i)
The speaker 30_i is a device that outputs the sound output from the
なお、複数のスピーカ30_1〜30_nは、いずれのスピーカ30_iのサービスエリアにも含まれない領域ができるだけ生じないように、施設内に分散して設置されていることが望ましい。これにより、施設内の何処にいる利用者に対しても、より快適な空間を提供することが可能になる。 In addition, it is desirable that the plurality of speakers 30_1 to 30_n are dispersedly installed in the facility so that an area that is not included in the service area of any of the speakers 30_i is generated as much as possible. This makes it possible to provide a more comfortable space to users anywhere in the facility.
<音声再生方法S1の流れ>
本発明の一実施形態に係る音声再生方法S1について、図2を参照して説明する。図2は、音声再生方法S1の流れを示すフローチャートである。
<Flow of audio reproduction method S1>
A sound reproduction method S1 according to an embodiment of the present invention will be described with reference to FIG. FIG. 2 is a flowchart showing the flow of the audio reproduction method S1.
音声再生方法S1は、上述した音声再生システム1を用いて、複数の音声を再生する方法である。音声再生方法S1は、図2に示すように、キー選択ステップS101と、データ選択ステップS102と、再生ステップS103とを含む。
The voice reproduction method S1 is a method of reproducing a plurality of voices using the
(キー選択ステップS101)
キー選択ステップS101は、プロセッサ101が特定のキーを選択するステップである。キー選択ステップS101において、プロセッサ101は、例えば、予め定められた複数のキーの中から、特定のキーを選択する。図2においては、プロセッサ101が、Cキー、Amキー、…、Dmキーの中から、Gキーを選択する様子を例示している。
(Key selection step S101)
The key selection step S101 is a step in which the
なお、キー選択ステップS101にて選択されるキーは、(1)利用者により指定されたキーであってもよいし、(2)ランダムに選択されたキーであってもよいし、(3)再生日時、再生環境、又はユーザバイタルに応じて選択されたキーであってもよし、(4)それ以外の任意の方法で選択されたキーであってもよい。 The key selected in the key selection step S101 may be (1) a key designated by the user, (2) a randomly selected key, or (3). The key may be selected according to the reproduction date and time, the reproduction environment, or user vitals, or (4) the key may be selected by any other method.
(データ選択ステップS102)
データ選択ステップS102は、プロセッサ101が、ストレージ20に格納された音声データ群から、キー選択ステップS101にて選択された特定のキーに属する音声を表す音声データを選択するステップである。図2においては、プロセッサ101が、Gキーに属する音声を表す音声データG−1,G−2,…の中から、音声データG−1,G−3,G5を選択する様子を例示している。
(Data selection step S102)
The data selection step S102 is a step in which the
なお、データ選択ステップS102においては、プロセッサ101が、キー選択ステップS101にて選択された特定のキーに属する音声を表す音声データを選択する処理に加えて、プロセッサ101が、有テンポ音を表す音声データを選択する処理を実行してもよい。図2においては、プロセッサ101が、有テンポ音を表す音声データT−1,T−2,…の中から、音声データT−4を選択する様子を例示している。ここで、有テンポ音を表す音声データを選択する処理は、あくまでオプションであり、データ選択ステップS102において無テンポ音を表す音声データのみを選択してもよい。
Note that in the data selection step S102, in addition to the processing in which the
なお、データ選択ステップS102において選択される音声データは、(1)ランダムに決定された音声データであってもよいし、(2)再生日時、再生環境、又はユーザバイタルに応じて選択された音声データであってもよいし、(3)それ以外の任意の方法で選択された音声データであってもよい。 The audio data selected in the data selection step S102 may be (1) randomly determined audio data, or (2) audio selected according to the reproduction date/time, reproduction environment, or user vitals. It may be data or (3) audio data selected by any other method.
(再生ステップS103)
再生ステップS103は、プロセッサ101が、データ選択ステップS102において選択された各音声データの表す音声を、異なるスピーカ30_1〜30_nを用いて非同期再生するステップである。図2においては、プロセッサ101が、(1)音声データG−1の表す音声をスピーカ30_1を用いて再生し、(2)音声データG−3の表す音声をスピーカ30_3を用いて再生し、(3)音声データG−5の表す音声をスピーカ30−3を用いて再生し、(4)音声データT−4の表す音声をスピーカ30−4を用いて再生する様子を例示している。
(Playback step S103)
The reproduction step S103 is a step in which the
<音声再生システム1の効果>
本実施形態に係る音声再生システム1によれば、複数の音声が異なるスピーカ30_1,30_2,…,30_nを用いて再生される。このため、音声再生システム1が導入された施設を移動する利用者は、あたかも移りゆく景色を眺めるように、各所に配置されたスピーカ30_1,30_2,…,30_nから流れる音声を感じることができる。
<Effects of
According to the
しかも、本実施形態に係る音声再生システム1によれば、特定のキーに属する複数の音声が異なるスピーカ30_1,30_2,…,30_nを用いて再生される。このため、2つ以上のスピーカ(例えば、スピーカ30_1,30_2)のサービスエリアの重複領域に居る利用者に対して、音程が調和しない2つ以上の音声を同時に聴かせ、その結果、その利用者に不快感を与えてしまうという事態を回避することができる。
Moreover, according to the
更に、本実施形態に係る音声再生システム1によれば、異なるスピーカ30_1,30_2,…,30_nを用いて再生される複数の音声に含まれる有テンポ音声は高々1つである。このため、2つ以上のスピーカ(例えば、スピーカ30_1,30_2)のサービスエリアの重複領域に居る利用者に対して、リズムが調和しない2つ以上の音声を同時に聴かせ、その結果、その利用者に不快感を与えてしまうという事態を回避することができる。
Furthermore, according to the
また、音声再生システム1によれば、異なるスピーカ30_1,30_2,…,30_nを用いて再生される音声の組み合わせは、無数に存在する。したがって、音声再生システム1によって創造されるサウンドイメージは、絶え間なく変化し続け、利用者を飽きさせることがない。この点は、楽曲のシャッフル再生等では得ることのできない、音声再生システム1の利点であると言える。
Further, according to the
〔変形例〕
上述した実施形態に係る音声再生システム1は、再生日時、再生環境、又はユーザバイタルに応じた音声を再生するよう変形することができる。以下、このような変形例について説明する。
[Modification]
The
<音声再生システム1Aの構成>
本変形例に係る音声再生システム1Aの構成について、図3を参照して説明する。図3は、本変形例に係る音声再生システム1Aの構成を示すブロック図である。
<Structure of audio reproduction system 1A>
The configuration of the audio reproduction system 1A according to this modification will be described with reference to FIG. FIG. 3 is a block diagram showing the configuration of the audio reproduction system 1A according to this modification.
音声再生システム1Aは、図1に示した音声再生システム1の構成に加えて、センサ40_i(i=1、2、…)を有する。なお、音声再生システム1Aは、1または複数のセンサ40_iを備えていればよく、その個数は限定されない。コンピュータ10は、各センサ40_iと通信可能に接続される。コンピュータ10および各センサ40_iは、例えば、無線LAN、有線LAN、USB(Universal Serial Bus)インタフェース、赤外線もしくはBluetooth(登録商標)等の近距離通信インタフェース、またはこれらの組み合わせによって接続される。
The audio reproduction system 1A has a sensor 40_i (i=1, 2,...) In addition to the configuration of the
(センサ40_iの構成)
センサ40_iは、再生環境又はユーザバイタルを検出する装置である。
(Configuration of sensor 40_i)
The sensor 40_i is a device that detects a reproduction environment or user vitals.
再生環境を検出するためのセンサ40_iとしては、例えば、照度センサ、温度センサ、湿度センサ、人感センサ、音量センサ、カメラ、GPS等が挙げられる。再生環境を検出する各センサ40_iは、例えば、音声再生システム1Aが導入された施設内に分散して配置される。なお、音量センサは、例えば、騒音レベルを検出するために利用することができる。また、カメラは、例えば、周囲に存在する人の密度を検出するために利用することができる。また、GPSは、その地点の天候を検出する(ウェブサービスから取得する)ために利用することができる。 Examples of the sensor 40_i for detecting the reproduction environment include an illuminance sensor, a temperature sensor, a humidity sensor, a human sensor, a volume sensor, a camera, and a GPS. The respective sensors 40_i that detect the reproduction environment are, for example, dispersedly arranged in the facility where the audio reproduction system 1A is installed. The volume sensor can be used, for example, to detect a noise level. Further, the camera can be used, for example, to detect the density of people existing in the surroundings. GPS can also be used to detect the weather at that location (obtain from web services).
ユーザバイタルを検出するためのセンサ40_iとしては、例えば、体温センサ、血圧センサ、脈拍センサ、加速度センサ、脳波センサ等が挙げられる。ユーザバイタルを検出する各センサ40_iは、例えば、音声再生システム1Aが導入された施設の利用者に装着される。なお、施設の利用者が装着するスマートウォッチや施設の利用者が携帯するスマートフォンなどのデバイスに内蔵されたセンサを、ユーザバイタルを検出するために利用してもよい。 Examples of the sensor 40_i for detecting user vitals include a body temperature sensor, a blood pressure sensor, a pulse sensor, an acceleration sensor, and an electroencephalogram sensor. Each sensor 40_i that detects user vitals is attached to, for example, a user of a facility where the audio reproduction system 1A is installed. Note that a sensor built in a device such as a smart watch worn by a user of the facility or a smartphone carried by the user of the facility may be used to detect user vitals.
(コンピュータ10の構成)
本変形例において、コンピュータ10に含まれるプロセッサ101は、音声再生方法S1に代えて、音声再生方法S2を実行する。音声再生方法S2については後述する。
(Configuration of computer 10)
In the present modification, the
(補助メモリ103に記憶されるテーブル)
補助メモリ103は、再生日時の範囲(例えば、午前中、午後、夜間等)、再生環境を示す数値の範囲(例えば、照度の範囲)、および、ユーザバイタルを示す数値の範囲(例えば、血圧の範囲)と、選択すべきキー、および、選択すべき音声データの属性とを関連付けるテーブルを記憶する。
(Table stored in auxiliary memory 103)
The
(ストレージ20の構成)
ストレージ20に記憶される音声データのそれぞれには、その音声データの属性が関連付けられている。ここで、音声データの属性としては、例えば、その音声データの表す音声のジャンル、ムード、作成者等が挙げられる。
(Structure of storage 20)
Each of the audio data stored in the
<音声再生方法S2の流れ>
本変形例に係る音声再生方法S2の流れについて、図4を参照して説明する。図4は、本変形例に係る音声再生方法S2の流れを示すフローチャートである。
<Flow of audio reproduction method S2>
The flow of the audio reproduction method S2 according to this modification will be described with reference to FIG. FIG. 4 is a flowchart showing the flow of the audio reproducing method S2 according to this modification.
音声再生方法S2は、本変形例に係る音声再生システム1Aを用いて、複数の音声を再生する方法である。音声再生方法S2は、図4に示すように、特定ステップS201と、キー選択ステップS202と、データ選択ステップS203と、再生ステップS204とを含む。 The voice reproduction method S2 is a method of reproducing a plurality of voices by using the voice reproduction system 1A according to this modification. As shown in FIG. 4, the audio reproducing method S2 includes a specifying step S201, a key selecting step S202, a data selecting step S203, and a reproducing step S204.
(特定ステップS201)
特定ステップS201は、プロセッサ101が、再生日時、再生環境、およびユーザバイタルの少なくとも何れかを特定するステップである。
(Specific step S201)
The identifying step S201 is a step in which the
具体的には、プロセッサ101は、当該ステップを実行時における日時を、再生日時として特定する。また、プロセッサ101は、再生環境を検出するためのセンサ40_iを介して取得される数値を、再生環境を示す数値として特定する。また、プロセッサ101は、ユーザバイタルを検出するためのセンサ40_iを介して取得される数値を、ユーザバイタルを示す数値として特定する。
Specifically, the
(キー選択ステップS202)
キー選択ステップS202は、プロセッサ101が、特定ステップS201の結果に応じて、特定のキーを選択するステップである。
(Key selection step S202)
The key selecting step S202 is a step in which the
再生日時に応じたキーの選択:
具体的には、プロセッサ101は、再生日時に応じてキーを選択する。例えば、プロセッサ101は、上述したテーブルにおいて再生日時を含む範囲に関連付けられたキーを選択する。
Select the key according to the playback date and time:
Specifically, the
再生環境に応じたキーの選択:
また、プロセッサ101は、再生環境を示す数値に応じてキーを選択する。例えば、プロセッサ101は、上述したテーブルにおいて再生環境を示す数値を含む範囲に関連付けられたキーを選択する。
Key selection according to the playback environment:
Further, the
ユーザバイタルに応じたキーの選択:
また、プロセッサ101は、ユーザバイタルを示す数値に応じてキーを選択する。例えば、プロセッサ101は、上述したテーブルにおいてユーザバイタルを示す数値を含む範囲に関連付けられたキーを選択する。
Key selection according to user vitals:
Further, the
(データ選択ステップS203)
データ選択ステップS203は、プロセッサ101が、特定ステップS201の結果に応じて、特定のキーに属する音声を表す音声データを選択するステップである。
(Data selection step S203)
The data selection step S203 is a step in which the
再生日時に応じたデータの選択:
具体的には、プロセッサ101は、再生日時に応じて、特定のキーに属する音声を表す音声データを選択する。例えば、プロセッサ101は、特定のキーに属する音声を表す音声データのうち、上述したテーブルにおいて再生日時に関連付けられた属性を有する音声データを選択する。
Select data according to playback date and time:
Specifically, the
再生環境に応じたキーの選択:
また、プロセッサ101は、再生環境を示す数値に応じて、特定のキーに属する音声を表す音声データを選択する。例えば、プロセッサ101は、特定のキーに属する音声を表す音声データのうち、上述したテーブルにおいて再生環境を示す数値の範囲に関連付けられた音声データを選択する。
Key selection according to the playback environment:
Further, the
ユーザバイタルに応じたキーの選択:
また、プロセッサ101は、ユーザバイタルを示す数値に応じて、特定のキーに属する音声を表す音声データを選択する。例えば、プロセッサ101は、上述したテーブルにおいてユーザバイタルを示す数値に関連付けられた属性を有する音声データを選択する。
Key selection according to user vitals:
Further, the
(再生ステップS204)
再生ステップS204の詳細は、音声再生方法S1における再生ステップS103と同様であるため、詳細な説明を繰り返さない。
(Playback step S204)
The details of the reproduction step S204 are the same as those of the reproduction step S103 in the audio reproduction method S1, and therefore detailed description will not be repeated.
<音声再生システム1Aの効果>
本変形例は、音声再生システム1Aにおいて選択されるキーおよび音声データを、再生日時、再生環境、およびユーザバイタルの少なくとも何れかに応じて変化させることができる。その結果、本変形例では、再生時の状況に適合した複数の音声データが再生される。これにより、利用者に対してより快適な環境を提供することが可能になる。
<Effects of audio reproduction system 1A>
In this modification, the key and audio data selected in the audio reproduction system 1A can be changed according to at least one of reproduction date and time, reproduction environment, and user vital. As a result, in this modified example, a plurality of audio data suitable for the situation at the time of reproduction are reproduced. This makes it possible to provide the user with a more comfortable environment.
〔その他の変形例〕
なお、本実施形態においては、音声データとして、(1)特定のキーに属する無テンポ音声を表すもの、および(2)特定のキーに属さない有テンポ音声を表すものを用いる例について説明した。しかしながら、本発明は、これに限定されない。例えば、特定のキーに属さない有テンポ音声を用いる代わりに、特定のキーに属する有テンポ音声を用いてもよい。この場合、ストレージ20は、有テンポ音声を表す音声データTに代えて、特定のキーに属する有テンポ音声を表す音声データを格納する。この場合、プロセッサ101は、図2のステップS102、または、図4のステップS203において、特定のキーに属する1または複数の無テンポ音声を表す音声データと、特定のキーに属する唯一の有テンポ音声を表す音声データとを選択する。
[Other modifications]
In the present embodiment, an example in which (1) non-tempo voice that belongs to a specific key and (2) tempo voice that does not belong to a specific key are used as audio data have been described. However, the present invention is not limited to this. For example, instead of using the tempo voice that does not belong to a specific key, the tempo voice that belongs to a specific key may be used. In this case, the
また、本実施形態においては、複数の音声を単一のコンピュータを用いて再生する例について説明した。しかしながら、本発明は、これに限定されない。例えば、複数の音声を単一のコンピュータを用いて再生する構成を採用する代わりに、複数の音声をそれと同数のコンピュータを用いて再生する構成を採用してもよい。この場合、各コンピュータは、そのコンピュータに対応するスピーカから出力される音声を再生することになる。なお、この場合、キーの選択及び音声データの選択を、これらのコンピュータの何れか1つ、又は、これらのコンピュータを統括する別のコンピュータを用いて行い、音声の再生のみを、各スピーカに対応するコンピュータにて行うようにしてもよい。或いは、キーの選択のみを、これらのコンピュータの何れか1つ、又は、これらのコンピュータを統括する別のコンピュータを用いて行い、音声データの選択及び音声の再生を、各スピーカに対応するコンピュータにて行うようにしてもよい。 Further, in the present embodiment, an example in which a plurality of voices are reproduced using a single computer has been described. However, the present invention is not limited to this. For example, instead of adopting the configuration of reproducing a plurality of voices using a single computer, a configuration of reproducing a plurality of voices using the same number of computers may be employed. In this case, each computer reproduces the sound output from the speaker corresponding to the computer. In this case, key selection and audio data selection are performed using any one of these computers or another computer that supervises these computers, and only audio reproduction is supported for each speaker. It may be performed by a computer. Alternatively, only key selection is performed using any one of these computers or another computer that controls these computers, and audio data selection and audio reproduction are performed by the computer corresponding to each speaker. It may be performed as follows.
〔ソフトウェアまたはハードウェアによる実現例〕
上述した実施形態および各変形例では、プロセッサ101が、補助メモリ103に記憶されたプログラムを読み込んで実行することにより、音声再生方法S1、S2を実行する例、すなわち、音声再生方法S1、S2を実行するコンピュータ10をソフトウェアにより実現する例について説明した。ただし、音声再生方法S1、S2を実行するコンピュータ10は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよい。
[Example of implementation by software or hardware]
In the above-described embodiment and each modified example, the
なお、コンピュータ10をソフトウェアにより実現する場合、プロセッサ101が読み取るプログラムを格納する記録媒体は、補助メモリ103に限られない。記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介してコンピュータ10に供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
When the
〔まとめ〕
上記の課題を解決するために、本発明の一態様に係る音声再生方法は、一又は複数のプロセッサが、一又は複数のストレージに格納された音声データ群から、特定のキーに属する音声を表す複数の音声データを選択するデータ選択ステップと、前記データ選択ステップにて選択された各音声データの表す音声を異なるスピーカを用いて再生する再生ステップと、を実行する。
[Summary]
In order to solve the above problems, in a sound reproduction method according to an aspect of the present invention, one or a plurality of processors represents a sound belonging to a specific key from a sound data group stored in one or a plurality of storages. A data selection step of selecting a plurality of audio data and a reproduction step of reproducing the audio represented by each audio data selected in the data selection step by using different speakers are executed.
上記の構成によれば、特定のキーに属する複数の音声が異なるスピーカを用いて再生される。このため、2つ以上のスピーカのサービスエリアの重複領域に居る利用者に対して、音程が調和しない2つ以上の音声を同時に聴かせ、その結果、その利用者に不快感を与えてしまうという事態を回避することができる。これにより、より快適な空間を利用者に提供することが可能になる。 According to the above configuration, a plurality of voices belonging to a specific key are reproduced using different speakers. For this reason, the user in the overlapping area of the service areas of the two or more speakers is made to hear two or more voices whose pitches are not in harmony at the same time, and as a result, the user is uncomfortable. The situation can be avoided. This makes it possible to provide the user with a more comfortable space.
本発明の一態様に係る音声再生方法において、前記プロセッサは、前記データ選択ステップに先行して、前記特定のキーを選択するキー選択ステップを更に実行する、ことが好ましい。 In the audio reproduction method according to the aspect of the present invention, it is preferable that the processor further execute a key selection step of selecting the specific key, prior to the data selection step.
上記の構成によれば、再生する複数の音声が属するキーを選択することが可能になる。 According to the above configuration, it is possible to select a key to which a plurality of sounds to be reproduced belong.
本発明の一態様に係る音声再生方法において、前記プロセッサは、前記再生ステップにおいて、前記データ選択ステップにて選択された各音声データの表す音声を、異なるスピーカを用いて非同期再生する、ことが好ましい。 In the audio reproducing method according to one aspect of the present invention, it is preferable that the processor asynchronously reproduces the audio represented by each audio data selected in the data selecting step by using different speakers in the reproducing step. ..
上記の構成によれば、再生する複数の音声の再生時間を揃えるなど、複数の音声を同期再生することに伴う困難を回避することができる。 According to the above configuration, it is possible to avoid difficulties associated with synchronous reproduction of a plurality of sounds, such as making reproduction times of a plurality of sounds to be reproduced uniform.
本発明の一態様に係る音声再生方法において、前記プロセッサは、前記データ選択ステップにおいて、テンポを司る音の進行を含む有テンポ音声を表す唯一つの音声データと、テンポを司る音の進行を含まない無テンポ音声を表す一つ以上の音声データとを、前記複数の音声データとして選択する、ことが好ましい。 In the audio reproducing method according to an aspect of the present invention, the processor does not include, in the data selecting step, only audio data representing tempo audio including a progression of a sound controlling tempo and a progression of a sound controlling tempo. It is preferable to select one or more voice data representing non-tempo voice as the plurality of voice data.
上記の構成によれば、異なるスピーカを用いて再生される複数の音声に含まれる有テンポ音声は高々1つである。このため、2つ以上のスピーカのサービスエリアの重複領域に居る利用者に対して、リズムが調和しない2つ以上の音声を同時に聴かせ、その結果、その利用者に不快感を与えてしまうという事態を回避することができる。これにより、更に快適な空間を利用者に提供することが可能になる。 According to the above configuration, at most one tempo voice is included in a plurality of voices reproduced using different speakers. For this reason, the user in the overlapping area of the service areas of the two or more speakers is made to hear two or more voices whose rhythms are not in harmony at the same time, and as a result, the user is annoyed. The situation can be avoided. This makes it possible to provide the user with a more comfortable space.
本発明の一態様に係る音声再生方法において、前記プロセッサは、前記選択ステップにおいて、テンポを司る音の進行を含まない無テンポ音声を表す複数の音声データを、前記複数の音声データとして選択すると共に、テンポを司る音の進行を含む有テンポ音声を表す唯一つの音声データを、前記複数の音声データに加えて選択する、ことが好ましい。 In the audio reproducing method according to one aspect of the present invention, the processor selects, in the selecting step, a plurality of audio data representing non-tempo audio that does not include a progression of sounds that control tempo as the plurality of audio data. It is preferable to select, in addition to the plurality of audio data, only one audio data representing the tempo audio including the progress of the sound that controls the tempo.
上記の構成によれば、異なるスピーカを用いて再生される複数の音声に含まれる有テンポ音声は高々1つである。このため、2つ以上のスピーカのサービスエリアの重複領域に居る利用者に対して、リズムが調和しない2つ以上の音声を同時に聴かせ、その結果、その利用者に不快感を与えてしまうという事態を回避することができる。これにより、更に快適な空間を利用者に提供することが可能になる。 According to the above configuration, at most one tempo voice is included in a plurality of voices reproduced using different speakers. For this reason, the user in the overlapping area of the service areas of the two or more speakers is made to hear two or more voices whose rhythms are not in harmony at the same time, and as a result, the user is annoyed. The situation can be avoided. This makes it possible to provide the user with a more comfortable space.
本発明の一態様に係る音声再生方法において、前記プロセッサは、再生日時、再生環境、又はユーザバイタルを特定する特定ステップを更に実行し、前記プロセッサは、前記特定ステップの結果に応じて、前記データ選択ステップにて選択する音声データを決定する、ことが好ましい。 In the audio reproduction method according to an aspect of the present invention, the processor further executes a specific step of specifying a reproduction date/time, a reproduction environment, or user vitals, and the processor determines the data according to a result of the specific step. It is preferable to determine the audio data to be selected in the selection step.
上記の構成によれば、再生日時、再生環境、又はユーザバイタルに応じた複数の音声が異なるスピーカを用いて再生される。これにより、再生時の状況に応じて更に快適な空間を利用者に提供することが可能になる。 According to the above configuration, a plurality of voices according to the reproduction date and time, the reproduction environment, or the user vitals are reproduced using different speakers. This makes it possible to provide the user with a more comfortable space according to the situation at the time of reproduction.
本発明の一態様に係る音声再生方法において、前記プロセッサは、再生日時、再生環境、又はユーザバイタルを特定する特定ステップを更に実行し、前記プロセッサは、前記特定ステップの結果に応じて、前記キー選択ステップにて選択するキーを決定する、ことが好ましい。 In the audio reproducing method according to an aspect of the present invention, the processor further executes a specifying step of specifying a reproduction date/time, a reproduction environment, or user vitals, and the processor determines the key according to a result of the specifying step. It is preferable to determine the key to be selected in the selection step.
上記の構成によれば、再生日時、再生環境、又はユーザバイタルに応じたキーに属する複数の音声が異なるスピーカを用いて再生される。これにより、再生時の状況に応じて更に快適な空間を利用者に提供することが可能になる。 According to the above configuration, a plurality of voices belonging to a key according to a reproduction date/time, a reproduction environment, or user vitals are reproduced using different speakers. This makes it possible to provide the user with a more comfortable space according to the situation at the time of reproduction.
上記の課題を解決するために、本発明の一態様に係る音声再生システムは、一又は複数のストレージと、一又は複数のプロセッサと、を備え、前記プロセッサは、前記ストレージに格納された音声データ群から、特定のキーに属する音声を表す複数の音声データを選択するデータ選択ステップと、前記データ選択ステップにて選択された各音声データの表す音声を異なるスピーカを用いて再生する再生ステップと、を実行する。 In order to solve the above problems, a sound reproduction system according to an aspect of the present invention includes one or a plurality of storages and one or a plurality of processors, and the processor is sound data stored in the storages. From the group, a data selecting step of selecting a plurality of audio data representing audio belonging to a specific key, and a reproducing step of reproducing audio represented by each audio data selected in the data selecting step using different speakers, To execute.
上記の構成によれば、上述した音声再生方法と同様の効果を奏する。 According to the above configuration, the same effect as that of the above-described audio reproducing method can be obtained.
上記の課題を解決するために、本発明の一態様に係るプログラムは、上述した音声再生方法をコンピュータに実行させる。 In order to solve the above problems, a program according to an aspect of the present invention causes a computer to execute the above-described audio reproduction method.
上記の構成によれば、上述した音声再生方法と同様の効果を奏する。 According to the above configuration, the same effect as that of the above-described audio reproducing method can be obtained.
〔付記事項〕
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
[Appendix]
The present invention is not limited to the above-described embodiments, but various modifications can be made within the scope of the claims, and embodiments obtained by appropriately combining the technical means disclosed in the different embodiments Is also included in the technical scope of the present invention.
1、1A、1B 音声再生システム
10、50_i コンピュータ
20 ストレージ
30_i スピーカ
40_i センサ
101 プロセッサ
102 主メモリ
103 補助メモリ
104 通信インタフェース
1, 1A, 1B
Claims (9)
前記データ選択ステップにて選択された各音声データの表す音声を異なるスピーカを用いて再生する再生ステップと、を実行する、
ことを特徴とする音声再生方法。 A data selection step in which one or more processors select a plurality of audio data representing audio belonging to a specific key from the audio data group stored in one or more storages;
A reproduction step of reproducing the voice represented by each voice data selected in the data selection step using different speakers,
A voice reproduction method characterized by the above.
ことを特徴とする請求項1に記載の音声再生方法。 The processor further performs a key selection step of selecting the particular key prior to the data selection step,
The audio reproducing method according to claim 1, wherein
ことを特徴とする請求項1又は2に記載の音声再生方法。 In the reproducing step, the processor asynchronously reproduces the sound represented by each audio data selected in the data selecting step using different speakers,
The audio reproducing method according to claim 1 or 2, characterized in that.
ことを特徴とする請求項1〜3の何れか一項に記載の音声再生方法。 The processor, in the data selection step, a single voice data representing a tempo voice including the progression of the sound that controls the tempo, and one or more voice data representing a non-tempo voice that does not include the progression of the sound that controls the tempo. Is selected as the plurality of audio data,
The audio reproducing method according to any one of claims 1 to 3, wherein:
ことを特徴とする請求項1〜3の何れか一項に記載の音声再生方法。 In the data selection step, the processor selects, as the plurality of audio data, a plurality of audio data representing a non-tempo voice that does not include a progression of a sound that controls a tempo, and has a tempo that includes a progression of a sound that controls a tempo. Select only one voice data representing voice in addition to the plurality of voice data,
The audio reproducing method according to any one of claims 1 to 3, wherein:
前記プロセッサは、前記特定ステップの結果に応じて、前記データ選択ステップにて選択する音声データを決定する、
ことを特徴とする請求項1〜5の何れか1項に記載の音声再生方法。 The processor further executes a specific step of specifying a reproduction date/time, a reproduction environment, or a user vital,
The processor determines audio data to be selected in the data selecting step according to the result of the specific step,
The audio reproducing method according to any one of claims 1 to 5, wherein:
前記プロセッサは、前記特定ステップの結果に応じて、前記キー選択ステップにて選択するキーを決定する、
ことを特徴とする請求項2に記載の音声再生方法。 The processor further executes a specific step of specifying a reproduction date/time, a reproduction environment, or a user vital,
The processor determines a key to be selected in the key selecting step according to the result of the specific step,
The audio reproducing method according to claim 2, wherein
前記プロセッサは、
前記ストレージに格納された音声データ群から、特定のキーに属する音声を表す複数の音声データを選択するデータ選択ステップと、
前記データ選択ステップにて選択された各音声データの表す音声を異なるスピーカを用いて再生する再生ステップと、を実行する、
ことを特徴とする音声再生システム。 Comprising one or more storages and one or more processors,
The processor is
A data selection step of selecting a plurality of audio data representing audio belonging to a specific key from the audio data group stored in the storage;
A reproduction step of reproducing the voice represented by each voice data selected in the data selection step using different speakers,
A voice reproduction system characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020039346A JP6736196B1 (en) | 2020-03-06 | 2020-03-06 | Audio reproduction method, audio reproduction system, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020039346A JP6736196B1 (en) | 2020-03-06 | 2020-03-06 | Audio reproduction method, audio reproduction system, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6736196B1 true JP6736196B1 (en) | 2020-08-05 |
JP2021140090A JP2021140090A (en) | 2021-09-16 |
Family
ID=71892416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020039346A Active JP6736196B1 (en) | 2020-03-06 | 2020-03-06 | Audio reproduction method, audio reproduction system, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6736196B1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3799761B2 (en) * | 1997-08-11 | 2006-07-19 | ヤマハ株式会社 | Performance device, karaoke device and recording medium |
JP2000098950A (en) * | 1998-09-21 | 2000-04-07 | Toshiba Tec Corp | Background music system |
JP2006084749A (en) * | 2004-09-16 | 2006-03-30 | Sony Corp | Content generation device and content generation method |
JP5007563B2 (en) * | 2006-12-28 | 2012-08-22 | ソニー株式会社 | Music editing apparatus and method, and program |
-
2020
- 2020-03-06 JP JP2020039346A patent/JP6736196B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2021140090A (en) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11812240B2 (en) | Playback of generative media content | |
US11755280B2 (en) | Media content system for enhancing rest | |
JP6452229B2 (en) | Karaoke sound effect setting system | |
JP2018519536A (en) | Audio processing method, apparatus, and system | |
JP2010014823A (en) | Musical piece information control device | |
US20240348861A1 (en) | Playback of synthetic media content via muliple devices | |
JP2009204936A (en) | Karaoke machine and booking music piece search method | |
JP6736196B1 (en) | Audio reproduction method, audio reproduction system, and program | |
JP3783267B2 (en) | BGM terminal device | |
Ćaleta | Klapa Singing and Ča-val: The Mediterranean Dimension of Popular Music in Croatia | |
JP2000099050A (en) | Karaoke device selectively reproducing and outputting plural vocal parts | |
Laudadio | “Sounds like a human performance”: The electronic music synthesizer in mid-twentieth-century science fiction | |
JP2013024935A (en) | Karaoke apparatus | |
McGraw | Radio Java | |
KR101975193B1 (en) | Automatic composition apparatus and computer-executable automatic composition method | |
JP2010176042A (en) | Singing sound recording karaoke system | |
JP2002278566A (en) | Music distribution method and system thereof | |
JP2021122093A (en) | Broadcast control device, broadcasting system and broadcast control method | |
JP6474292B2 (en) | Karaoke equipment | |
Walker et al. | Musique Concrète Choir: An Interactive Performance Environment for Any Number of People | |
Houge | Food Opera: Transforming the restaurant soundscape | |
WO2023010949A1 (en) | Method and apparatus for processing audio data | |
JP7197688B2 (en) | Playback control device, program and playback control method | |
JP2004005832A (en) | Data-reproducing device, and system, method and program therefor, and recording medium recorded with the program | |
Rice | The History of Listening to Music: Displaying Data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200325 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200325 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200623 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200630 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200710 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6736196 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |