JP4529528B2 - Sound localization terminal - Google Patents

Sound localization terminal Download PDF

Info

Publication number
JP4529528B2
JP4529528B2 JP2004129970A JP2004129970A JP4529528B2 JP 4529528 B2 JP4529528 B2 JP 4529528B2 JP 2004129970 A JP2004129970 A JP 2004129970A JP 2004129970 A JP2004129970 A JP 2004129970A JP 4529528 B2 JP4529528 B2 JP 4529528B2
Authority
JP
Japan
Prior art keywords
terminal
sound
sound data
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004129970A
Other languages
Japanese (ja)
Other versions
JP2005311974A (en
Inventor
あかね 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2004129970A priority Critical patent/JP4529528B2/en
Publication of JP2005311974A publication Critical patent/JP2005311974A/en
Application granted granted Critical
Publication of JP4529528B2 publication Critical patent/JP4529528B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、音像を定位させる音像定位技術に関する。     The present invention relates to a sound image localization technique for localizing a sound image.

従来から、無線通信網を介してストリーム配信された楽曲などのオーディオデータを移動端末において受信し、該移動端末に接続されたヘッドフォンなどから音として出力するオーディオ配信システムが知られている(例えば、特許文献1参照)。このようなオーディオ配信システムによれば、ユーザは、外出時などにおいても、音楽を手軽に楽しむことができる。   2. Description of the Related Art Conventionally, an audio distribution system that receives audio data such as music streamed via a wireless communication network at a mobile terminal and outputs it as sound from headphones connected to the mobile terminal is known (for example, Patent Document 1). According to such an audio distribution system, the user can easily enjoy music even when going out.

特開平9−181510号公報(第3図)Japanese Patent Laid-Open No. 9-181510 (FIG. 3)

しかしながら、従来のオーディオ配信システムにあっては、配信されたオーディオデータを移動端末において忠実に再生することはできても、ユーザがオーディオデータの生成に参加するなどといった娯楽性をユーザに提供することはできなかった。   However, in the conventional audio distribution system, even if the distributed audio data can be faithfully reproduced on the mobile terminal, entertainment such as the user participating in the generation of the audio data is provided to the user. I couldn't.

本発明は上述した事情に鑑みてなされたものであり、その目的は娯楽性の高い音響アミューズメントを提供することにある。   The present invention has been made in view of the above-described circumstances, and an object thereof is to provide a highly amusement acoustic amusement.

上述した問題を解決するため、本発明に係る音像定位端末は、サウンドシステムを構成する他端末から、当該他端末を識別するための端末識別情報、当該他端末の位置をあらわす端末位置情報、当該他端末の方位をあらわす方位情報を受信する受信手段と、前記サウンドシステムを構成する自端末の位置及び方位を検出する位置・方位検出手段と、複数のサウンドデータを予め記憶するとともに、各サウンドデータの選択条件として各サウンドデータに対応する前記端末識別情報を各サウンドデータに対応づけて予め記憶する記憶手段と、受信された前記他端末の前記端末識別情報に対応づけて記憶されているサウンドデータを前記記憶手段から選択する選択手段と、前記自端末の位置及び方位を基準として、受信された前記端末位置情報及び方位情報に示される前記他端末の位置及び方位に、選択された前記サウンドデータに対応する音の音像を定位させる定位手段とを具備することを特徴とする。 In order to solve the above-described problem, the sound image localization terminal according to the present invention includes terminal identification information for identifying the other terminal from other terminals constituting the sound system, terminal position information indicating the position of the other terminal, Receiving means for receiving azimuth information representing the azimuth of another terminal, position / orientation detecting means for detecting the position and azimuth of the terminal constituting the sound system, a plurality of sound data, and each sound data Storage means for previously storing the terminal identification information corresponding to each sound data in association with each sound data as a selection condition , and the sound data stored in association with the received terminal identification information of the other terminal a selection means for selecting from said storing means, with reference to the position and orientation of the own terminal, received the terminal location information及The position and orientation of the other terminal shown in azimuth information, characterized by comprising a localization means for localizing a sound image of the sound corresponding to said selected sound data.

かかる構成によれば、他端末との間で通信を行う際、自端末に予め格納された複数のサウンドデータの中から選択条件(例えば、端末ID)に合致等するサウンドデータが選択され、選択されたサウンドデータに対応する音の音像が前記他端末の位置及び方位に定位される。自端末を所持等するユーザは、出力される楽音の種類、音像定位位置等を把握することで、どのようなユーザが接近等しているのかを認識することができる。   According to this configuration, when communicating with another terminal, sound data that matches a selection condition (for example, terminal ID) is selected and selected from a plurality of sound data stored in advance in the terminal itself. The sound image of the sound corresponding to the recorded sound data is localized at the position and orientation of the other terminal. A user who owns the terminal can recognize what kind of user is approaching by grasping the type of musical sound to be output, the sound image localization position, and the like.

以上説明したように、本発明によれば、娯楽性の高い音響アミューズメントを提供することが可能となる。   As described above, according to the present invention, it is possible to provide a highly entertaining acoustic amusement.

以下、本発明に係る実施の形態について図面を参照しながら説明する。   Embodiments according to the present invention will be described below with reference to the drawings.

<サウンドデータ配信システムの概略構成>
はじめに、本実施形態にかかるサウンドデータ配信システムの概略構成について図1を参照して説明する。この図において、衛星群400は、GPS(Global Positioning System)などのGNSS(Global Navigation Satellite System)に対応した人口衛星であり、図示しない地上制御局によって管制制御され、地上に向けて衛星信号を送出する。この衛星信号には、衛星から送出された時刻や、当該信号を送出した衛星の軌道位置などを示す情報が含まれている。
<Schematic configuration of sound data distribution system>
First, a schematic configuration of a sound data distribution system according to the present embodiment will be described with reference to FIG. In this figure, a satellite group 400 is an artificial satellite corresponding to GNSS (Global Navigation Satellite System) such as GPS (Global Positioning System), is controlled and controlled by a ground control station (not shown), and transmits satellite signals to the ground. To do. This satellite signal includes information indicating the time transmitted from the satellite and the orbital position of the satellite that transmitted the signal.

一方、移動通信網500は、基地局制御装置など、データ通信サービスを提供するための各種装置を含んでおり、多数の基地局510が接続されている。サウンドデータ配信サーバ300は、移動通信網500および基地局510を介して、サウンドデータを端末100にストリーム配信する。ここで、サウンドデータとは、3次元座標によって規定された仮想的な発音地点から出力される音を表す情報である。   On the other hand, the mobile communication network 500 includes various devices for providing a data communication service, such as a base station control device, to which a large number of base stations 510 are connected. The sound data distribution server 300 streams sound data to the terminal 100 via the mobile communication network 500 and the base station 510. Here, the sound data is information representing sound output from a virtual sounding point defined by three-dimensional coordinates.

端末100は、携帯型の無線通信端末であり、いずれかの基地局510を介して、端末100の位置を示す端末位置情報などをサウンドデータ配信サーバ300に送信したり、サウンドデータ配信サーバ300からサウンドデータなどを受信したりする。端末100は、後述するように、サウンドデータを受信すると、当該サウンドデータに対応する発音地点の位置から発せられると想定される音の音像を定位させたオーディオ信号をサウンドデータから生成する。   The terminal 100 is a portable wireless communication terminal, and transmits terminal position information indicating the position of the terminal 100 to the sound data distribution server 300 via the base station 510 or from the sound data distribution server 300. Receive sound data. As will be described later, when the terminal 100 receives sound data, the terminal 100 generates an audio signal from the sound data in which a sound image of a sound that is supposed to be emitted from the position of the sound generation point corresponding to the sound data is localized.

また、端末100は、ステレオ形式のヘッドフォン200が接続可能になされており、サウンドデータから生成されたオーディオ信号を、ヘッドフォン200を介して放音する。このヘッドフォン200は、ユーザの頭に装着された使用状態において、ユーザの顔の向く方向を検出する方位センサ210を有しており、オーディオ信号が入力される間にわたり、検出した方位を示す信号を端末100に送信する。また、端末100は、衛星群400から送出される衛星信号を受信するための受信機を備えている。
なお、この図においては、端末100およびヘッドフォン200の組として、2人のユーザ、すなわち、ユーザU1に用いられる組と、ユーザU2に用いられる組との2組が例示されているが、端末100とヘッドフォン200との組は、1組であっても良いし、3組以上であっても良い。
The terminal 100 can be connected to a stereo headphone 200, and emits an audio signal generated from the sound data via the headphone 200. The headphone 200 has an orientation sensor 210 that detects a direction in which the user's face faces in a use state worn on the user's head, and outputs a signal indicating the detected orientation while the audio signal is input. It transmits to the terminal 100. The terminal 100 includes a receiver for receiving satellite signals transmitted from the satellite group 400.
In this figure, as a set of the terminal 100 and the headphones 200, two sets of two users, ie, a set used for the user U1 and a set used for the user U2, are illustrated. And headphones 200 may be one set or three or more sets.

<サウンドデータ配信サーバの構成>
図2は、サウンドデータ配信サーバ300の構成を示すブロック図である。この図において、制御部310は、バスB3を介して各部を制御する。また、制御部310は、後述するように発音地点を選択するための処理や、サウンドデータのデータ量を変換するための処理などを実行する。
<Configuration of sound data distribution server>
FIG. 2 is a block diagram illustrating a configuration of the sound data distribution server 300. In this figure, the control unit 310 controls each unit via a bus B3. In addition, the control unit 310 performs processing for selecting a sounding point and processing for converting the amount of sound data as described later.

通信部320は、移動通信網500を介して、端末100から送信された端末位置情報などの情報を受信する。また、通信部320は、後述するように制御部310によって選択された4つの発音地点に対応するサウンドデータの各々を並列して、端末100に送信する。記憶部330は、磁気ディスクなどから構成され、各種情報を記憶する。   The communication unit 320 receives information such as terminal location information transmitted from the terminal 100 via the mobile communication network 500. In addition, the communication unit 320 transmits the sound data corresponding to the four sound generation points selected by the control unit 310 in parallel to the terminal 100 as will be described later. The storage unit 330 is composed of a magnetic disk or the like and stores various types of information.

図3は、記憶部330に記憶される情報の一部を示す図である。この図に示されるように、記憶部330には、複数の発音地点IDと、各々の発音地点IDに対応付けられた発音位置情報およびサウンドデータが記憶されている。このうち、発音地点IDは、発音地点を識別するためのものである。本実施形態においては、各発音地点は、街中における構造物(例えば、店舗や、ビルなど)に対応する位置に規定されており、それらの構造物を示す「ミニストアA」や、「ビルA」などの構造物名が、発音地点IDとして登録されている。なお、発音地点の配置場所は、構造物に対応する位置に限られず、任意に設定することが可能である。また、発音位置情報は、例えば、緯度、経度、高度などからなり、3次元座標によって発音地点の位置を規定するものである。   FIG. 3 is a diagram illustrating a part of information stored in the storage unit 330. As shown in this figure, the storage unit 330 stores a plurality of sound generation point IDs, sound generation position information and sound data associated with each sound generation point ID. Of these, the pronunciation point ID is for identifying the pronunciation point. In the present embodiment, each sound generation point is defined at a position corresponding to a structure (for example, a store or a building) in the city, and “mini store A” or “building A” indicating the structure. The structure name such as “” is registered as the pronunciation point ID. Note that the location of the sound generation point is not limited to the position corresponding to the structure, and can be arbitrarily set. The pronunciation position information includes, for example, latitude, longitude, altitude, etc., and defines the position of the pronunciation point by three-dimensional coordinates.

サウンドデータは、発音地点から発せられると想定される音を表すデータであり、所定の周波数(例えば、44.1kHz)でサンプリングされたデータである。サウンドデータは、楽曲、楽音、音声などの音を表すデータであればどのようなデータであっても良く、本実施形態においては、サウンドデータとして「買い物マーチ(楽曲)」、「太鼓音(楽音)」、「犬の鳴き声(音声)」、「チャイム(電子音)」などが記録されている。サウンドデータ配信サーバ300は、記憶部330に記憶されるサウンドデータのうち、4つのサウンドデータを端末100に配信する。そして、端末100おいては、配信された4つのサウンドデータを加工・混合した後、ヘッドフォン200を介して放音する。   The sound data is data representing a sound that is assumed to be emitted from the sound generation point, and is data sampled at a predetermined frequency (for example, 44.1 kHz). The sound data may be any data as long as it represents data such as music, music, and voice. In this embodiment, the sound data includes “shopping march (music)” and “taiko (music). ) "," Dog cries (voice) "," chimes (electronic sounds) ", etc. are recorded. The sound data distribution server 300 distributes four sound data among the sound data stored in the storage unit 330 to the terminal 100. The terminal 100 processes and mixes the four distributed sound data and then emits the sound through the headphones 200.

また、記憶部330には、サウンドデータのデータ量変換に使用されるデータ量変換テーブルが記憶されている。図4は、データ量変換テーブルの構成を示す図である。この図に示されるように、データ量変換テーブルTBLは、端末100および発音地点の距離Dと、当該発音地点に対応するサウンドデータが変換されるべきサンプリング周波数とが対応付けられたテーブルである。例えば、図4においては、「0」以上「L1(>0)」未満の距離Dには、サンプリング周波数「f1(=44.1kHz)」が対応付けられており、「L1」以上「L2(>L1)」未満の距離Dには、サンプリング周波数「f2(=22kHz)」が対応付けられている。制御部310は、データ量変換テーブルTBLに従って、後述するデータ量変換処理において、サウンドデータのデータ量を変換する。なお、図4における「L1」、「L2」、「L3」および「L4」の各々は、「0」<「L1」<「L2」<「L3」<「L4」の関係を満たしている。   The storage unit 330 stores a data amount conversion table used for converting the amount of sound data. FIG. 4 is a diagram showing the configuration of the data amount conversion table. As shown in this figure, the data amount conversion table TBL is a table in which the distance D between the terminal 100 and the sounding point is associated with the sampling frequency at which sound data corresponding to the sounding point is to be converted. For example, in FIG. 4, the sampling frequency “f1 (= 44.1 kHz)” is associated with the distance D of “0” or more and less than “L1 (> 0)”, and “L1” or more and “L2 ( > L1) ”is associated with the sampling frequency“ f2 (= 22 kHz) ”. The control unit 310 converts the data amount of the sound data in a data amount conversion process described later according to the data amount conversion table TBL. Note that “L1”, “L2”, “L3”, and “L4” in FIG. 4 satisfy the relationship of “0” <“L1” <“L2” <“L3” <“L4”.

<端末の構成>
図5は、端末100の構成を示すブロック図である。この図において制御部110は、バスB1を介して各部を制御する。また、衛星電波受信部145は、衛星群400に含まれる複数の衛星の各々から、並列して衛星信号を受信し、受信された各々の信号を測位部140に入力する。測位部140は、衛星電波受信部145から入力された各々の衛星信号に含まれる送出時刻や軌道位置などの情報を用いて、端末100の位置を示す端末位置情報を生成する。この際、測位部140は、端末100から各々の衛星信号が送出された衛星までの距離(擬似距離)を測定し、測定された各々の距離を測位方程式に代入して、3次元座標による端末位置情報を生成する。
ここで、端末100は、ユーザに携帯されて使用される。このため、測位部140によって測定された端末100の位置は、ユーザの位置(中心位置)と等しいものとみなすことができる。
<Terminal configuration>
FIG. 5 is a block diagram illustrating a configuration of the terminal 100. In this figure, the control unit 110 controls each unit via the bus B1. Satellite radio wave receiver 145 receives satellite signals in parallel from each of a plurality of satellites included in satellite group 400, and inputs each received signal to positioning unit 140. The positioning unit 140 generates terminal position information indicating the position of the terminal 100 using information such as a transmission time and an orbital position included in each satellite signal input from the satellite radio wave receiving unit 145. At this time, the positioning unit 140 measures the distance (pseudo distance) from the terminal 100 to the satellite to which each satellite signal is transmitted, and substitutes each measured distance into the positioning equation to determine the terminal using three-dimensional coordinates. Generate location information.
Here, the terminal 100 is used by being carried by a user. For this reason, the position of the terminal 100 measured by the positioning unit 140 can be regarded as being equal to the position (center position) of the user.

指示入力部120は、操作ボタンなどから構成され、オーディオ信号の生成開始を指示する生成開始信号などを制御部110に入力する。ここで、オーディオ信号の生成とは、発音地点から出力される音の音像を定位させたオーディオ信号を、サウンドデータから生成する処理である。制御部110は、指示入力部120を介して与えられるユーザからの指示に従って、端末100全体を制御する。   The instruction input unit 120 includes operation buttons and the like, and inputs a generation start signal and the like for instructing the start of audio signal generation to the control unit 110. Here, the generation of an audio signal is a process of generating an audio signal obtained by localizing a sound image output from a sound generation point from sound data. The control unit 110 controls the entire terminal 100 in accordance with an instruction from the user given via the instruction input unit 120.

方位検出部150は、ヘッドフォン200に備えられた方位センサ210によって、ヘッドフォンを装着したユーザの顔がいずれの方向を向いているのかを検出し、方位情報としてバスB1に供給する。なお、ヘッドフォン200に備えられる方位センサ210としては、地磁気を検出する手法や、ジャイロスコープを用いる手法の他、次の手法を用いることも可能である。すなわち、複数の測位部をヘッドフォン200に設け、各測位部により検出された位置の相対的な変化量を用いて、ユーザの顔の向く方向を検出することも可能である。   The azimuth detecting unit 150 detects which direction the face of the user wearing the headphones is facing by using the azimuth sensor 210 provided in the headphones 200, and supplies the detected direction to the bus B1 as azimuth information. As the direction sensor 210 provided in the headphones 200, the following method can be used in addition to the method of detecting geomagnetism and the method of using a gyroscope. That is, it is also possible to provide a plurality of positioning units in the headphones 200 and detect the direction in which the user's face is directed using the relative change amount of the position detected by each positioning unit.

無線通信部130は、制御部110の制御の下、端末100が在圏するエリアの基地局510との間に無線リンクを確立し、これを経由して、端末位置情報をサウンドデータ配信サーバ300に送信したり、4つのサウンドデータを並行してサウンドデータ配信サーバ300から受信したりする。   The wireless communication unit 130 establishes a wireless link with the base station 510 in the area where the terminal 100 is located under the control of the control unit 110, and transmits the terminal location information to the sound data distribution server 300 via this. Or four sound data are received from the sound data distribution server 300 in parallel.

オーディオ信号生成部160は、無線通信部130から並列して入力された4つのサウンドデータの各々から、2チャネルのオーディオ信号を生成し、生成したオーディオ信号をバスB1に供給する。この際、オーディオ信号生成部160は、左耳用のオーディオ信号であるLチャネル信号と、右耳用のオーディオ信号であるRチャネル信号とを別個独立に生成し、その各々をバスB1に供給する。バスB1に供給されたLチャネル信号およびRチャネル信号の各々は、オーディオ信号出力部190を介して、ヘッドフォン200から音として出力される。   The audio signal generation unit 160 generates a 2-channel audio signal from each of the four sound data input in parallel from the wireless communication unit 130, and supplies the generated audio signal to the bus B1. At this time, the audio signal generation unit 160 separately generates an L channel signal that is an audio signal for the left ear and an R channel signal that is an audio signal for the right ear, and supplies each of them to the bus B1. . Each of the L channel signal and the R channel signal supplied to the bus B1 is output as sound from the headphones 200 via the audio signal output unit 190.

次に、オーディオ信号生成部160の詳細構成について、図6を参照して説明する。この図に示されるように、オーディオ信号生成部160には、端末100がサウンドデータ配信サーバ300から並行して受信するサウンドデータ数と等しい4つの加工部170-1、170-2、170-3、170-4が含まれている。これらの加工部170-1、170-2、170-3、170-4の各々は、4つのサウンドデータのうちいずれかひとつのサウンドデータを加工して、発音地点から発せられると想定される音の音像を定位させたオーディオ信号を生成する。いずれの加工部170-1、170-2、170-3、170-4が、いずれのサウンドデータを加工するかについては、各発音地点と端末100との距離に応じて、加工部170-1、170-2、170-3、170-4の順に、端末100との距離が長くなる発音地点に対応するサウンドデータを割り当てるなどの構成が考えられる。なお、以下の説明においては、加工部170-1、170-2、170-3、170-4の各々を区別する必要のない場合には、単に、その符号を170と記すことにする。   Next, a detailed configuration of the audio signal generation unit 160 will be described with reference to FIG. As shown in this figure, the audio signal generation unit 160 includes four processing units 170-1, 170-2, and 170-3 that are equal to the number of sound data that the terminal 100 receives in parallel from the sound data distribution server 300. , 170-4. Each of these processing units 170-1, 170-2, 170-3, 170-4 processes any one of the four sound data, and is assumed to be emitted from the sounding point. An audio signal in which the sound image is localized is generated. Which processing unit 170-1, 170-2, 170-3, and 170-4 processes which sound data is processed according to the distance between each sounding point and the terminal 100 is the processing unit 170-1. , 170-2, 170-3, and 170-4 may be configured in such a manner that sound data corresponding to the sound generation point where the distance from the terminal 100 becomes longer is assigned. In the following description, when it is not necessary to distinguish each of the processing parts 170-1, 170-2, 170-3, and 170-4, the reference numeral is simply denoted as 170.

ここで、加工部170の詳細説明に先立って、ある地点(音源)から実際に出力された音を聴いた聴取者が、当該音源の方向や音源までの距離を知覚する仕組み、すなわち、音像定位について説明する。例えば、聴取者の右方に音源が位置する場合、聴取者の右耳から音源までの距離は、左耳から音源までの距離より近くなる。このため、ある時点に音源から出力された音が、右耳に到達するのにかかる時間は、左耳に到達するのにかかる時間より短くなる。このような左耳と右耳との間に生じる遅延時間により、聴取者は、音源の方向を知覚する。また、聴取者の近くに位置する音源と、遠くに位置する音源との2つの音源がある場合を想定する。この場合、ある音量(音圧)の音が各々の音源から出力されたとき、聴取者の位置においては、聴取者の遠くに位置する音源による音の音量より、近くに位置する音源による音の音量のほうが大きいものとなる。このような音量の差により、聴取者は、音源までの距離を知覚する。   Here, prior to detailed description of the processing unit 170, a mechanism in which a listener who has actually listened to sound output from a certain point (sound source) perceives the direction of the sound source and the distance to the sound source, that is, sound image localization. Will be described. For example, when the sound source is located on the right side of the listener, the distance from the listener's right ear to the sound source is closer than the distance from the left ear to the sound source. For this reason, the time taken for the sound output from the sound source to reach the right ear at a certain time is shorter than the time taken to reach the left ear. The listener perceives the direction of the sound source by such a delay time generated between the left ear and the right ear. Further, it is assumed that there are two sound sources, a sound source located near the listener and a sound source located far away. In this case, when a sound of a certain volume (sound pressure) is output from each sound source, the sound volume of the sound source located nearer than the sound volume of the sound source located far from the listener at the position of the listener. The volume is higher. Due to such a difference in volume, the listener perceives the distance to the sound source.

そこで、本実施形態における各々の加工部170は、あたかも発音地点が実在するかのようにユーザが体感することができるように、各々の発音地点について、当該発音地点の位置と、ユーザ(聴取者)の左右の耳の位置とに応じて、左右の耳で生じる遅延時間および音量が規定されたオーディオ信号を生成する。以下、ひとつの加工部170に着目して、ひとつの発音地点に関するオーディオ信号の生成について説明する。   Therefore, each processing unit 170 in the present embodiment, for each sounding point, and the position of the sounding point and the user (listener) so that the user can feel as if the sounding point actually exists. ) In accordance with the positions of the left and right ears), an audio signal in which the delay time and volume produced by the left and right ears are defined is generated. Hereinafter, with reference to one processing unit 170, generation of an audio signal related to one sound generation point will be described.

図7に示されるように、端末位置情報によって示されるユーザUの中心位置P(XP,YP,ZP)と、方位情報によって示されるユーザの顔方向Aとが与えられた場合、左耳と右耳との距離をeとしたとき、ユーザUの左耳の位置L(XL,YL,ZL)は、中心位置P(XP,YP,ZP)から水平、かつ、方向Aと垂直にe/2の距離だけ左側の位置によって特定され、右耳の位置R(XR,YR,ZR)は、中心位置P(XP,YP,ZP)から水平、かつ、方向Aと垂直にe/2の距離だけ右側の位置によって特定される。ここで、発音地点S(XS,YS,ZS)とユーザ(中心位置P)との距離が十分離れていることを想定し、音は平面波としてユーザの耳に到達するものとする。また、ユーザからみて発音地点Sが右前方に位置し、このとき、ユーザの顔の向いている方向Aとユーザからみた発音地点Sの方向との成す角がθであると仮定する。このとき、発音地点Sから音が出力されると、右耳と左耳との間に生じる音の到達する時間差(遅延時間)Δtは、到達経路の距離の差dおよび音速cを用いて、   As shown in FIG. 7, when the center position P (XP, YP, ZP) of the user U indicated by the terminal position information and the user's face direction A indicated by the orientation information are given, the left ear and the right When the distance from the ear is e, the position L (XL, YL, ZL) of the left ear of the user U is e / 2 horizontally from the center position P (XP, YP, ZP) and perpendicular to the direction A. The right ear position R (X R, Y R, Z R) is determined by the distance of e / 2 in the horizontal direction and perpendicular to the direction A from the center position P (XP, YP, Z R). It is specified by the position on the right side. Here, assuming that the distance between the sound generation point S (XS, YS, ZS) and the user (center position P) is sufficiently large, the sound reaches the user's ear as a plane wave. Further, it is assumed that the sound generation point S is located on the right front as viewed from the user, and at this time, the angle formed by the direction A facing the user's face and the direction of the sound generation point S as viewed from the user is θ. At this time, when a sound is output from the sound generation point S, the time difference (delay time) Δt of the sound that occurs between the right ear and the left ear reaches the distance d of the arrival path and the sound speed c,

Figure 0004529528
Figure 0004529528

と表現される。ここで、d=e・sinθが成り立つので、遅延時間Δtは、   It is expressed as Here, since d = e · sin θ holds, the delay time Δt is

Figure 0004529528
Figure 0004529528

となる。
また、発音地点Sからユーザの左右各々の耳までの距離を、それぞれDL、DRとし、時刻をt、球面波の波動方程式をfとした場合、左耳で生じる音圧PL、および、右耳で生じる音圧PRの各々は、以下のように表すことができる。
すなわち、
It becomes.
Further, when the distance from the sound generation point S to the left and right ears of the user is DL and DR, the time is t, and the wave equation of the spherical wave is f, the sound pressure PL generated in the left ear and the right ear Each of the sound pressures PR generated in can be expressed as follows.
That is,

Figure 0004529528
Figure 0004529528

Figure 0004529528
Figure 0004529528

と表現することができる。
加工部170は、これらの遅延時間Δt式(2)、音圧PL式(3)および音圧PR式(4)を表現するオーディオ信号を、サウンドデータから生成する。これにより、ユーザにおいては、発音位置情報で示される位置から発音しているかのように、仮想的な発音地点による音像が定位する。
It can be expressed as
The processing unit 170 generates an audio signal expressing the delay time Δt expression (2), the sound pressure PL expression (3), and the sound pressure PR expression (4) from the sound data. As a result, the sound image at the virtual sounding point is localized as if the user is sounding from the position indicated by the sounding position information.

再び説明を図6に戻す。各々の加工部170には、パラメータ生成部172、遅延部176およびアンプ178が含まれている。このうち、パラメータ生成部172には、さらに、ディレイパラメータ生成部173およびアンプパラメータ生成部174が含まれている。ディレイパラメータ生成部173は、Lチャネル信号およびRチャネル信号の各々の遅延時間Δtを規定するパラメータを生成する。より詳細には、ディレイパラメータ生成部173は、サウンドデータ配信サーバ300から受信した発音位置情報と、方位検出部150によって検出された方位情報と、測位部140によって検出された端末位置情報と、左右両耳間の距離eとを入力して、左右の耳間における遅延時間Δtを規定するパラメータDPを式(2)により生成し、パラメータDPを遅延部176に送信する。   The description returns to FIG. 6 again. Each processing unit 170 includes a parameter generation unit 172, a delay unit 176, and an amplifier 178. Among these, the parameter generation unit 172 further includes a delay parameter generation unit 173 and an amplifier parameter generation unit 174. The delay parameter generation unit 173 generates a parameter that defines the delay time Δt of each of the L channel signal and the R channel signal. More specifically, the delay parameter generation unit 173 includes the sound generation position information received from the sound data distribution server 300, the direction information detected by the direction detection unit 150, the terminal position information detected by the positioning unit 140, the left and right The distance e between both ears is input, a parameter DP that defines the delay time Δt between the left and right ears is generated by the equation (2), and the parameter DP is transmitted to the delay unit 176.

一方、アンプパラメータ生成部174は、Lチャネル信号およびRチャネル信号の各々が放音されたときの音圧を表すパラメータを生成する。より詳細には、アンプパラメータ生成部174は、サウンドデータ配信サーバ300から受信した発音位置情報と、方位検出部150によって検出された方位情報と、測位部140によって検出された端末位置情報と、左右両耳間の距離eとを入力して、左耳において生じる音圧PLを規定するパラメータALと、右耳において生じる音圧PRを規定するパラメータARを式(3)および式(4)により生成し、パラメータAL、ARをアンプ178に送信する。
なお、パラメータ生成部172に入力されるユーザの左右の耳間の距離eは、制御部110に含まれるROM(Read Only Memory)などに記憶され、ROMなどから読み出される構成としても良いし、指示入力部120を介してユーザが入力する構成としても良い。また、上述した、左右の耳の位置の特定方法、遅延時間Δt、音圧PLおよびPRを表す式(2、3および4)は、あくまでも一例であり、さらに、頭部伝達関数や、周波数スペクトルの変化による音の質的変化、直接音と残響音との比による影響を取り入れるなどの各種の変更や改良を加えることが可能である。
On the other hand, the amplifier parameter generation unit 174 generates a parameter representing the sound pressure when each of the L channel signal and the R channel signal is emitted. More specifically, the amplifier parameter generation unit 174 generates the sound generation position information received from the sound data distribution server 300, the direction information detected by the direction detection unit 150, the terminal position information detected by the positioning unit 140, the left and right By inputting the distance e between both ears, a parameter AL for defining the sound pressure PL generated in the left ear and a parameter AR for defining the sound pressure PR generated in the right ear are generated by the equations (3) and (4). The parameters AL and AR are transmitted to the amplifier 178.
The distance e between the user's left and right ears input to the parameter generation unit 172 may be stored in a ROM (Read Only Memory) included in the control unit 110 and read from the ROM or the like. A configuration in which the user inputs via the input unit 120 may be adopted. Further, the above-described methods for specifying the positions of the left and right ears, the delay time Δt, and the sound pressures PL and PR (2, 3, and 4) are merely examples, and further, the head-related transfer function and the frequency spectrum It is possible to add various changes and improvements such as incorporating the qualitative change of the sound due to the change of the sound and the influence of the ratio of the direct sound and the reverberant sound.

遅延部176は、無線通信部130を介して入力したサウンドデータから、左耳用のLチャネル信号SL1および右耳用のRチャネル信号SR1を生成し、その各々をアンプ178に送信する。より具体的には、遅延部176は、ディレイパラメータ生成部173から受け取ったディレイパラメータDPに応じて、Lチャネル信号SL1とRチャネル信号SR1とにおいて遅延が生じるように各々の信号を生成する。これにより、ひとつのサウンドデータについてのLチャネル信号SL1およびRチャネル信号SR1が、ユーザの左右の耳の位置に応じて、あたかも発音地点から到達時間の差が生じているかのように、すなわち、ユーザからみて、ある方向に位置する発音地点から出力された音であるかのように生成される。   The delay unit 176 generates an L channel signal SL1 for the left ear and an R channel signal SR1 for the right ear from the sound data input via the wireless communication unit 130, and transmits each of them to the amplifier 178. More specifically, the delay unit 176 generates each signal such that a delay occurs in the L channel signal SL1 and the R channel signal SR1 according to the delay parameter DP received from the delay parameter generation unit 173. As a result, the L channel signal SL1 and the R channel signal SR1 for one sound data, as if the arrival time difference from the sounding point is generated according to the position of the left and right ears of the user, that is, the user From the viewpoint of the sound, the sound is generated as if it were output from a sounding point located in a certain direction.

アンプ178は、遅延部176から受け取ったLチャネル信号SL1を、アンプパラメータ生成部174から受け取ったパラメータALによって増幅する一方、遅延部176から受け取ったRチャネル信号SR1を、アンプパラメータ生成部174から受け取ったパラメータARによって増幅し、それぞれLチャネル信号SL2およびRチャネル信号SR2として混合部180に送信する。これにより、Lチャネル信号SL2およびRチャネル信号SR2の各々が、ユーザの左右の耳の位置と各々の発音地点との距離に応じて、音圧レベルが異なるかのように生成される。なお、このようなアンプ178による音圧レベルの調整は、加工部170-1、170-2、170-3、170-4ごとに行われる。このため、各々の加工部170-1、170-2、170-3、170-4において生成されるオーディオ信号によって、ユーザに対して、あたかも各々の発音地点までの距離が異なるかのような感覚を与えることが可能となる。   The amplifier 178 amplifies the L channel signal SL1 received from the delay unit 176 by the parameter AL received from the amplifier parameter generation unit 174, while receiving the R channel signal SR1 received from the delay unit 176 from the amplifier parameter generation unit 174. Are amplified by the parameter AR and transmitted to the mixing unit 180 as an L channel signal SL2 and an R channel signal SR2, respectively. Thereby, each of the L channel signal SL2 and the R channel signal SR2 is generated as if the sound pressure level differs according to the distance between the position of the user's left and right ears and the respective sound generation points. Such adjustment of the sound pressure level by the amplifier 178 is performed for each of the processing units 170-1, 170-2, 170-3, and 170-4. Therefore, the user feels as if the distance to each sounding point is different depending on the audio signal generated in each of the processing units 170-1, 170-2, 170-3, and 170-4. Can be given.

混合部180は、4つの加工部170から送信された4つのLチャネル信号SL2を混合し、Lチャネル信号SL3としてオーディオ信号出力部190に送信する一方で、4つのRチャネル信号SR2を混合し、Rチャネル信号SR3としてオーディオ信号出力部190に送信する。この際、混合部180は、ユーザの耳に障害を与えないように、混合されたLチャネル信号SL3およびRチャネル信号SR3の信号レベルに制限をかけることが好ましい。混合部180から送信されたLチャネル信号SL3およびRチャネル信号SR3の各々は、オーディオ信号出力部190によって、D/A(Digital / Analog)変換された後、ヘッドフォン200に出力され、左耳用の放音部220および右耳用の放音部230を介して放音される。
なお、確認的ではあるが、オーディオ信号生成部160による処理は、無線通信部130によるサウンドデータの受信や、測位部140による端末位置情報の生成、方位検出部150による方位情報の生成などの各種処理と並列して実行され、オーディオ信号は、サウンドデータからストリーム形式で生成される。このため、ユーザが移動すると、それに応じて端末位置情報や方位情報などが更新され、ユーザがいずれの位置に移動しようとも、また、いずれの方向に顔を向けようとも、ユーザからみて、各々の発音地点から出力される音の音像が定位するようにオーディオ信号が生成される。
The mixing unit 180 mixes the four L channel signals SL2 transmitted from the four processing units 170, and transmits the L channel signal SL3 to the audio signal output unit 190, while mixing the four R channel signals SR2. The R channel signal SR3 is transmitted to the audio signal output unit 190. At this time, the mixing unit 180 preferably limits the signal levels of the mixed L channel signal SL3 and R channel signal SR3 so as not to damage the user's ear. Each of the L channel signal SL3 and the R channel signal SR3 transmitted from the mixing unit 180 is D / A (Digital / Analog) converted by the audio signal output unit 190, and then output to the headphone 200 for the left ear. Sound is emitted through the sound emitting unit 220 and the sound emitting unit 230 for the right ear.
Although confirming, the processing by the audio signal generation unit 160 includes various processes such as reception of sound data by the wireless communication unit 130, generation of terminal position information by the positioning unit 140, generation of direction information by the direction detection unit 150, and the like. Performed in parallel with the processing, the audio signal is generated from the sound data in a stream format. For this reason, when the user moves, the terminal position information, the direction information, and the like are updated accordingly, regardless of the position the user moves to, or in which direction the face faces, An audio signal is generated so that the sound image of the sound output from the sound generation point is localized.

<サウンドデータ配信システムの動作>
次にサウンドデータ配信システムの動作について、図8を参照して説明する。この動作は、サウンドデータ配信サーバ300から端末100にサウンドデータを配信し、端末100において、端末位置情報や方位情報を更新しつつ、配信されたサウンドデータからオーディオ信号を生成する処理である。なお、この動作は、端末100の指示入力部120から入力される生成開始信号をトリガとして処理を開始し、その後、端末100によって、タイマ割り込みされる処理である。また、サウンドデータ配信サーバ300と端末100との接続認証や端末認証などの、一般的な移動通信システムにおいて実行される各種処理は、本件発明と直接関係しないため、それらの説明については省略することとする。
<Operation of sound data distribution system>
Next, the operation of the sound data distribution system will be described with reference to FIG. This operation is a process of distributing sound data from the sound data distribution server 300 to the terminal 100 and generating an audio signal from the distributed sound data in the terminal 100 while updating the terminal position information and orientation information. This operation is a process in which a process is started by using a generation start signal input from the instruction input unit 120 of the terminal 100 as a trigger, and then a timer interrupt is performed by the terminal 100. Further, various processes executed in a general mobile communication system, such as connection authentication between the sound data distribution server 300 and the terminal 100 and terminal authentication, are not directly related to the present invention, and thus description thereof will be omitted. And

まず、端末100の制御部110は、ステップSA1において、衛星群400から送信される衛星信号を衛星電波受信部145により受信し、衛星信号を取得する。次に、端末100の制御部110は、ステップSA2において、取得した衛星信号に応じて端末100の位置を示す端末位置情報SPを測位部140により生成する。次いで、端末100の制御部110は、ステップSA3において、生成した端末位置情報SPを基地局510に送信する。
基地局510は、端末100から端末位置情報SPを受信すると、ステップSA4において、端末位置情報SPをサウンドデータ配信サーバ300に転送する。
First, in step SA1, the control unit 110 of the terminal 100 receives the satellite signal transmitted from the satellite group 400 by the satellite radio wave reception unit 145, and acquires the satellite signal. Next, the control part 110 of the terminal 100 produces | generates the terminal position information SP which shows the position of the terminal 100 by the positioning part 140 according to the acquired satellite signal in step SA2. Next, the control unit 110 of the terminal 100 transmits the generated terminal location information SP to the base station 510 in step SA3.
When receiving the terminal location information SP from the terminal 100, the base station 510 transfers the terminal location information SP to the sound data distribution server 300 in step SA4.

サウンドデータ配信サーバ300の制御部310は、基地局510から転送された端末位置情報SPを受信すると、ステップSA5において、発音地点選択処理を実行する。この発音地点選択処理は、受信した端末位置情報SPによる端末100の位置と、発音位置情報による発音地点の位置とに応じて、発音地点を所定数に達するまで選択する処理である。ここで、サウンドデータ配信サーバ300の制御部310が実行する発音地点選択処理を、図9を参照して説明する。   When the control unit 310 of the sound data distribution server 300 receives the terminal position information SP transferred from the base station 510, the control unit 310 executes sound generation point selection processing in step SA5. The sounding point selection process is a process of selecting sounding points until a predetermined number is reached according to the position of the terminal 100 based on the received terminal position information SP and the position of the sounding point based on the sounding position information. Here, the sound generation point selection process executed by the control unit 310 of the sound data distribution server 300 will be described with reference to FIG.

まず、制御部310は、ステップSA51において、選択された発音地点の数を示す選択数nを「0」にし、選択数nを初期化する。次に、制御部310は、ステップSA52において、この時点で未選択の発音地点のうち、最も近い発音地点を選択する。この際、制御部310は、受信した端末100の端末位置情報SPと、記憶部330に記憶される各発音地点の発音位置情報とを用いて発音地点を選択する。例えば、いま、図11に示されるように、端末100の周りに、8つの発音地点S1、S2、…、S8が配置されている場合を想定する。これらの発音地点S1、S2、…、S8の各々は、この順で端末100から遠ざかる様に配置されているものとする。このとき、制御部310は、いずれの発音地点S1、S2、…、S8も未選択(選択数n=0)であれば、ステップSA52において、発音地点S1を選択する。   First, in step SA51, the control unit 310 sets a selection number n indicating the number of selected pronunciation points to “0” and initializes the selection number n. Next, in step SA52, the control unit 310 selects the nearest sounding point among the sounding points not selected at this time. At this time, the control unit 310 selects a sound generation point using the received terminal position information SP of the terminal 100 and the sound generation position information of each sound generation point stored in the storage unit 330. For example, as shown in FIG. 11, it is assumed that eight sound generation points S1, S2,..., S8 are arranged around the terminal 100. These sound generation points S1, S2,..., S8 are arranged so as to be away from the terminal 100 in this order. At this time, if any of the sound generation points S1, S2,..., S8 is not selected (the number of selections n = 0), the control unit 310 selects the sound generation point S1 in step SA52.

次に、制御部310は、ステップSA53において、選択数nを「1」だけインクリメントする。次いで、制御部310は、ステップSA54において、選択数nが所定数(本実施形態では4つ)に達したか否かを判別する。この判別結果が否定的であれば、制御部310は、処理手順をステップSA52に戻し、選択数nが所定数に達するまで、ステップSA52からステップSA54までの処理を繰り返す。   Next, in step SA53, the control unit 310 increments the selection number n by “1”. Next, in step SA54, the controller 310 determines whether or not the selection number n has reached a predetermined number (four in this embodiment). If the determination result is negative, control unit 310 returns the processing procedure to step SA52, and repeats the processing from step SA52 to step SA54 until the selected number n reaches a predetermined number.

一方、ステップSA54の判別結果が肯定的となれば、制御部310は、所定数の発音地点が選択されたため、発音地点選択処理を終了する。例えば、図11においては、制御部310は、8つの発音地点S1、S2、…、S8のうち、端末100に近い、黒丸で示される4つの発音地点S1、S2、S3およびS4を選択する。なお、本実施形態においては、制御部310によって4つの発音地点が選択されるが、選択される発音地点の数は任意に設定することが可能である。   On the other hand, if the determination result in step SA54 is affirmative, control unit 310 ends the sounding point selection process because a predetermined number of sounding points have been selected. For example, in FIG. 11, the control unit 310 selects four sound generation points S1, S2, S3, and S4 indicated by black circles that are close to the terminal 100 among the eight sound generation points S1, S2,. In the present embodiment, four sound generation points are selected by the control unit 310, but the number of sound generation points to be selected can be arbitrarily set.

さて、再び図8において、サウンドデータ配信サーバ300の制御部310は、発音地点選択処理(ステップSA5)が終了すると、次に、ステップSA6において、データ量変換処理を実行する。このデータ量変換処理は、選択された発音地点に対応するサウンドデータのデータ量、すなわち、端末100に配信されるサウンドデータのデータ量を変換する処理である。ここで、サウンドデータ配信サーバ300の制御部310が実行するデータ量変換処理を、図10を参照して説明する。この説明においては、サウンドデータ配信サーバ300の記憶部330に予め記録されるサウンドデータのサンプリング周波数は、44.1kHz以上であるものとする。   Now, in FIG. 8 again, the control unit 310 of the sound data distribution server 300 performs the data amount conversion process in step SA6 after the sounding point selection process (step SA5) is completed. This data amount conversion process is a process of converting the data amount of sound data corresponding to the selected sounding point, that is, the data amount of sound data distributed to the terminal 100. Here, the data amount conversion processing executed by the control unit 310 of the sound data distribution server 300 will be described with reference to FIG. In this description, it is assumed that the sampling frequency of sound data recorded in advance in the storage unit 330 of the sound data distribution server 300 is 44.1 kHz or higher.

まず、制御部310は、ステップSA61において、発音地点選択処理によって選択された各々の発音地点と端末100との距離Dを、発音位置情報および端末位置情報SPを用いて求める。次に、制御部310は、ステップSA62において、図4に示されるデータ量変換テーブルTBLを参照し、各々の発音地点から端末100までの距離Dに応じて、各発音地点のサウンドデータが変換されるべきサンプリング周波数を特定する。例えば、いま、図11において、端末100と発音地点S1との距離Dが「0」以上「L1」未満であり、端末100と発音地点S2との距離Dが「L1」以上「L2」未満であり、端末100と発音地点S3との距離Dが「L2」以上「L3」未満であり、端末100と発音地点S4との距離Dが「L3」以上「L4」未満であるものとする。このとき、制御部310は、データ量変換テーブルTBLを参照して、発音地点S1のサウンドデータについてのサンプリング周波数をf1(44.1kHz)に特定し、発音地点S2のサウンドデータについてのサンプリング周波数をf2(22kHz)に特定し、発音地点S3のサウンドデータについてのサンプリング周波数をf3(10Hz)に特定し、発音地点S4のサウンドデータについてのサンプリング周波数をf4(5kHz)に特定する。   First, in step SA61, the control unit 310 obtains the distance D between each sound generation point selected by the sound generation point selection process and the terminal 100 using the sound generation position information and the terminal position information SP. Next, in step SA62, the control unit 310 refers to the data amount conversion table TBL shown in FIG. 4, and the sound data of each sounding point is converted according to the distance D from each sounding point to the terminal 100. Specify the sampling frequency to be used. For example, in FIG. 11, the distance D between the terminal 100 and the pronunciation point S1 is “0” or more and less than “L1”, and the distance D between the terminal 100 and the pronunciation point S2 is “L1” or more and less than “L2”. Yes, it is assumed that the distance D between the terminal 100 and the pronunciation point S3 is not less than “L2” and less than “L3”, and the distance D between the terminal 100 and the pronunciation point S4 is not less than “L3” and less than “L4”. At this time, the control unit 310 refers to the data amount conversion table TBL, specifies the sampling frequency for the sound data at the sound generation point S1 as f1 (44.1 kHz), and sets the sampling frequency for the sound data at the sound generation point S2. The sampling frequency for the sound data at the sound generation point S3 is specified as f3 (10 kHz), and the sampling frequency for the sound data at the sound generation point S4 is specified as f4 (5 kHz).

次に、制御部310は、ステップSA63において、記憶部330に予め記録される各々の発音地点のサウンドデータから、ステップSA62において特定されたサンプリング周波数のサウンドデータを生成する。これにより、生成されたサウンドデータは、端末100からの距離が遠い発音地点のサウンドデータほど、サンプリング周波数が低下するため、端末100からの距離が遠い発音地点のサンプリングデータほど、そのデータ量が縮減される。これにより、サウンドデータ配信サーバ300から配信されるサウンドデータの総データ量が縮減され、結果として、サウンドデータの配信にかかる移動通信網500におけるネットワークトラフィック、および、サウンドデータの送信にかかるサウンドデータ配信サーバ300の負荷が低減されることとなる。
なお、一般に、オーディオ信号のサンプリング周波数が低下すると、当該オーディオ信号が放音されたときの音質は劣化するが、本実施形態においては、端末100に配信されたサウンドデータは、端末100の加工部170によって、端末100から遠くに位置する発音地点のサウンドデータほど小さな音量となるように加工される。このため、端末100から遠くに位置する発音地点のサウンドデータのサンプリング周波数を低下させても、端末100において生成されるオーディオ信号が放音されたときの音質に、ほとんど影響することがない。言い換えれば、データ量変換処理によれば、音質を不当に損なうことなく、サウンドデータのデータ量を縮減させ、サウンドデータの配信によるネットワークトラフィックおよびサウンドデータ配信サーバ300の負荷を低減することができる。
Next, in step SA63, the control unit 310 generates sound data of the sampling frequency specified in step SA62 from the sound data of each sounding point recorded in advance in the storage unit 330. As a result, the generated sound data has a lower sampling frequency as the sound data of the sounding point farther from the terminal 100 decreases. Therefore, the amount of data decreases as the sampling data of the sounding point farther from the terminal 100 Is done. As a result, the total amount of sound data distributed from the sound data distribution server 300 is reduced, and as a result, the network traffic in the mobile communication network 500 related to the distribution of the sound data and the sound data distribution related to the transmission of the sound data. The load on the server 300 will be reduced.
In general, when the sampling frequency of the audio signal is lowered, the sound quality when the audio signal is emitted is deteriorated. However, in the present embodiment, the sound data distributed to the terminal 100 is the processing unit of the terminal 100. According to 170, the sound data of the sound generation point located farther from the terminal 100 is processed so as to have a smaller volume. For this reason, even if the sampling frequency of the sound data at the sound generation point located far from the terminal 100 is lowered, the sound quality when the audio signal generated in the terminal 100 is emitted is hardly affected. In other words, according to the data amount conversion process, the amount of sound data can be reduced without unduly impairing the sound quality, and the network traffic due to the distribution of sound data and the load on the sound data distribution server 300 can be reduced.

さて、再び図8において、サウンドデータ配信サーバ300の制御部310は、データ量変換処理(ステップSA6)が終了すると、次に、ステップSA7において、データ量が変換された4つのサウンドデータSD1、SD2、SD3、SD4の各々を、並列に基地局510に送信する。この際、制御部310は、各サウンドデータSD1、SD2、SD3、SD4に、記憶部330に記録される発音位置情報を付加した後、サウンドデータSD1、SD2、SD3、SD4をストリーム形式で送信する。例えば、図3において、基地局510に送信すべきサウンドデータが、発音地点ID「ミニストアA」に対応する「買い物マーチ」であれば、制御部310は、「買い物マーチ」に発音位置情報(x1,y1,z1)を付加した後、「買い物マーチ」を送信する。
基地局510は、サウンドデータ配信サーバ300から送信されたサウンドデータSD1、SD2、SD3、SD4を受信すると、ステップSA8において、それらのサウンドデータSD1、SD2、SD3、SD4を端末100に転送する。
Now, in FIG. 8 again, when the data amount conversion process (step SA6) is completed, the control unit 310 of the sound data distribution server 300 next, in step SA7, the four sound data SD1 and SD2 whose data amounts have been converted. , SD3, and SD4 are transmitted to base station 510 in parallel. At this time, the control unit 310 adds sound position information recorded in the storage unit 330 to each sound data SD1, SD2, SD3, SD4, and then transmits the sound data SD1, SD2, SD3, SD4 in a stream format. . For example, in FIG. 3, if the sound data to be transmitted to the base station 510 is “shopping march” corresponding to the pronunciation point ID “ministore A”, the control unit 310 transmits the pronunciation position information ( After adding x1, y1, z1), "shopping march" is transmitted.
When the base station 510 receives the sound data SD1, SD2, SD3, SD4 transmitted from the sound data distribution server 300, the base station 510 transfers the sound data SD1, SD2, SD3, SD4 to the terminal 100 in step SA8.

一方、端末100の制御部110は、ステップSA3において端末位置情報SPを基地局510に送信すると、次に、ステップSA9において、ユーザの顔方向を示す方位情報を方位検出部150によって生成する。次いで、端末100の制御部110は、ステップSA10において、基地局510から受信したサウンドデータSD1、SD2、SD3、SD4からオーディオ信号を生成する。この際、端末100の制御部110は、端末位置情報SP、方位情報および発音位置情報に応じて、オーディオ信号生成部160によりオーディオ信号をストリーム形式で生成する。次に、端末100の制御部110は、ステップSA11において、オーディオ信号出力部190からオーディオ信号を出力する。端末100から出力されたオーディオ信号は、ヘッドフォン200を介して音として出力される。   On the other hand, when the control unit 110 of the terminal 100 transmits the terminal position information SP to the base station 510 in step SA3, next, in step SA9, the azimuth detection unit 150 generates azimuth information indicating the user's face direction. Next, in step SA10, the control unit 110 of the terminal 100 generates an audio signal from the sound data SD1, SD2, SD3, SD4 received from the base station 510. At this time, the control unit 110 of the terminal 100 generates an audio signal in a stream format by the audio signal generation unit 160 according to the terminal position information SP, the direction information, and the sound generation position information. Next, the control unit 110 of the terminal 100 outputs an audio signal from the audio signal output unit 190 in step SA11. The audio signal output from the terminal 100 is output as sound via the headphones 200.

例えば、いま、図12に示されるように、発音地点S1、S2、S3、S4の位置が設定されており、端末位置情報SPによって端末100(ユーザ)の位置、方位情報によってユーザの顔の向く方向Aが与えられたものとする。また、このとき、ユーザから各発音地点S1、S2、S3、S4までの距離は、左右両耳とも、この順で遠くなるものとする。この際、ヘッドフォン200から出力される各発音地点のサウンドデータの音圧(音量)は、発音地点S1に対応するサウンドデータの音圧が最も大きくなり、発音地点S4に対応するサウンドデータの音圧が最も小さくなる。これにより、ユーザは、発音地点S1が最も近くに位置し、発音地点S4が最も遠くに位置するように知覚する。また、発音地点S1からユーザの右耳までの距離は、左耳までの距離より短いため、発音地点S1のサウンドデータについてのLチャネル信号は、Rチャネル信号より遅延したものとなる。これにより、ユーザは、発音地点S1が右側に位置することを知覚する。同様に、Lチャネル信号とRチャネル信号との間の遅延量(遅延時間Δt)により、ユーザは発音地点S4が左側に位置することを知覚する。   For example, as shown in FIG. 12, the positions of the sound generation points S1, S2, S3, and S4 are set, and the position of the terminal 100 (user) is determined by the terminal position information SP, and the face of the user is directed by the direction information. It is assumed that direction A is given. At this time, it is assumed that the distance from the user to each of the sound generation points S1, S2, S3, S4 increases in this order for both the left and right ears. At this time, the sound pressure (volume) of the sound data at each sounding point output from the headphones 200 has the highest sound pressure of the sound data corresponding to the sounding point S1, and the sound pressure of the sound data corresponding to the sounding point S4. Becomes the smallest. As a result, the user perceives that the sounding point S1 is located closest and the sounding point S4 is located farthest. Further, since the distance from the sound generation point S1 to the user's right ear is shorter than the distance to the left ear, the L channel signal for the sound data at the sound generation point S1 is delayed from the R channel signal. Thereby, the user perceives that the pronunciation point S1 is located on the right side. Similarly, the user perceives that the sound generation point S4 is located on the left side by the delay amount (delay time Δt) between the L channel signal and the R channel signal.

次に、図13に示されるように、ユーザが、発音地点S4の方向を向いたとする。このとき、方位検出部150によって、ユーザの顔の向く方向Aが更新されるため、Lチャネル信号とRチャネル信号との間における各サウンドデータの遅延量(遅延時間Δt)が更新される。これにより、ユーザは、発音地点S2が右側に位置し、発音地点S3が左側に位置することを知覚する。   Next, as shown in FIG. 13, it is assumed that the user faces the sounding point S4. At this time, since the direction A toward the user's face is updated by the azimuth detection unit 150, the delay amount (delay time Δt) of each sound data between the L channel signal and the R channel signal is updated. Thereby, the user perceives that the sound generation point S2 is located on the right side and the sound generation point S3 is located on the left side.

次いで、図14に示されるように、ユーザが、発音地点S4に近づき、ユーザから各発音地点S1、S2、S3、S4までの距離が、発音地点S4、発音地点S2、発音地点S3、発音地点S1の順で遠くなる位置に移動したものとする。このようにユーザが移動すると、発音地点S1から遠ざかるため、発音地点S1のサウンドデータの音圧(音量)は小さくなる一方、発音地点S4に近づくため、発音地点S4のサウンドデータの音圧は大きくなる。これにより、ユーザは、発音地点S1から離れ、発音地点S4に近づいたことを知覚する。   Next, as shown in FIG. 14, the user approaches the sounding point S4, and the distance from the user to each sounding point S1, S2, S3, S4 is the sounding point S4, the sounding point S2, the sounding point S3, the sounding point. It is assumed that it has moved to a position farther away in the order of S1. When the user moves in this manner, the sound pressure (sound volume) of the sound data at the sound generation point S1 decreases because the user moves away from the sound generation point S1, whereas the sound pressure of the sound data at the sound generation point S4 increases because the sound pressure approaches the sound generation point S4. Become. Accordingly, the user perceives that the user has left the sound generation point S1 and has approached the sound generation point S4.

以上説明したように、本実施形態によれば、ユーザの位置およびユーザの向く方向と、発音地点の位置とに応じて、ユーザからみて、発音位置情報で示される位置から発音しているかのように定位させたオーディオ信号が生成される。これにより、ユーザは、あたかも発音地点の各々が、規定された位置に実在するかのような感覚を得ることができる。例えば、ある領域に発音地点としてオーケストラの各パートを配置した場合、ユーザが当該領域内を移動すれば、ユーザは、あたかも各パートが配置された空間内を移動するかのような感覚を得ることが可能となり、ユーザがオーディオデータの生成に参加でき、変化に富んだ楽しい音響アミューズメントを提供することができる。   As described above, according to the present embodiment, it is as if the user is sounding from the position indicated by the sound generation position information according to the position of the user, the direction of the user, and the position of the sound generation point. An audio signal localized in is generated. As a result, the user can obtain a feeling as if each of the sound generation points actually exists at the specified position. For example, if each part of an orchestra is placed as a sounding point in a certain area, if the user moves within the area, the user gets a feeling as if moving in the space where each part is placed. This enables a user to participate in the generation of audio data and provide a varied and enjoyable acoustic amusement.

また、本実施形態においては、発音地点の音像が定位されるため、音声でユーザの目標物の位置を指示する音声情報システムに適用した場合、目標物が右側に位置すれば、「右方向、ガソリンスタンドの手前を右折です。」などの音声が、あたかも右側から出力されたかのように聞こえる。これにより、従来における音像を考慮しない音声情報システムと比較して、より直感的に方向に関する情報をユーザに与えることが可能となり、音声指示の効率が向上する。
さらに、サウンドデータ配信システムを視覚障害者向けガイドとしても使用できる。例えば、駅における切符自販機、駅員室、改札口などに、それら各々を表す音声を出力するような発音地点を配置する構成としても良い。このような構成にすれば、音声によって、目で見るのと同様に位置を案内することができるため、ユーザは自主的に目標物に近づくことができる。
Further, in this embodiment, since the sound image of the sound generation point is localized, when applied to a voice information system that indicates the position of the target object of the user by voice, if the target object is positioned on the right side, “right direction, You will hear a sound like "It is right before the gas station." This makes it possible to more intuitively give information on the direction to the user as compared with a conventional voice information system that does not consider a sound image, and the efficiency of voice instructions is improved.
Furthermore, the sound data distribution system can be used as a guide for visually impaired people. For example, it is good also as a structure which arrange | positions the pronunciation point which outputs the audio | voice showing each of them in the ticket vending machine in a station, a station staff room, a ticket gate, etc. With such a configuration, the user can voluntarily approach the target because the position can be guided by voice in the same manner as when viewed with the eyes.

くわえて、発音地点を商店などの位置に配置し、当該商店の広告を示す音声を出力する構成としても良い。これにより、あたかも商店から音声が出力されたかのように聞こえるため、ユーザは、例えばビルの2階などの目に付きにくい場所に立地する商店を探しやすくなる。一方、商店においては、広告効果が期待でき、商売が活性化することとなる。また、聴覚に働きかける広告が、呼び込みなどの実際の音から、仮想的な発音地点の広告に転換されることにより、街中における騒音が低減される。   In addition, the sound generation point may be arranged at a location such as a store and a sound indicating an advertisement of the store may be output. As a result, since it sounds as if sound is output from the store, the user can easily find a store located in a place that is difficult to see, such as the second floor of a building. On the other hand, in the store, an advertising effect can be expected, and the business is activated. In addition, the advertisement that works on hearing is converted from an actual sound such as a call to an advertisement of a virtual pronunciation point, thereby reducing noise in the city.

<第1実施形態の変形例>
なお、上述した第1実施形態においては、サウンドデータの配信によるネットワークトラッフィックおよびサウンドデータ配信サーバの負荷を緩和するために、データ量変換処理においてサウンドデータのデータ量を縮減する例を示した。しかし、これらが問題とならない場合には、データ量変換処理を省略することができる。
<Modification of First Embodiment>
In the first embodiment described above, an example in which the data amount of sound data is reduced in the data amount conversion processing has been shown in order to reduce the load on the network traffic and the sound data distribution server due to the distribution of the sound data. However, if these do not cause a problem, the data amount conversion process can be omitted.

<第2実施形態>
<サウンドデータ配信システムの構成>
上述した第1実施形態においては、ひとつのサウンドデータ配信サーバ300から端末100にサウンドデータを配信するサウンドデータ配信システムについて説明した。これに対し、第2実施形態では、複数のサウンドデータ配信サーバの各々から端末100にサウンドデータを配信するサウンドデータ配信システムについて説明する。
なお、第2実施形態におけるサウンドデータ配信システムの構成のうち、第1実施形態に係るシステムと共通するものについては同一の符号が付されている。
<Second Embodiment>
<Configuration of sound data distribution system>
In the first embodiment described above, the sound data distribution system that distributes sound data from one sound data distribution server 300 to the terminal 100 has been described. In contrast, in the second embodiment, a sound data distribution system that distributes sound data from each of a plurality of sound data distribution servers to the terminal 100 will be described.
In addition, the same code | symbol is attached | subjected about the thing which is common in the system which concerns on 1st Embodiment among the structures of the sound data delivery system in 2nd Embodiment.

図15は、第2実施形態におけるサウンドデータ配信システムの概略構成を示す図である。この図に示されるように、移動通信網500には、大別して2種類のサーバ装置が接続されている。すなわち、コントロールサーバ600と、サウンドデータ配信サーバ610A、610B、610Cとである。このうち、サウンドデータ配信サーバ610A、610B、610Cの各々は、端末100に配信されるサウンドデータであり、互いに異なる発音地点に対応したサウンドデータを記憶している。また、コントロールサーバ600は、サウンドデータ配信サーバ610A、610B、610Cから端末100へのサウンドデータの配信を管理するものである。詳述すると、コントロールサーバ600は、端末100の位置と、各々の発音地点の位置とに応じて、所定数(例えば2つ)の発音地点を選択する。サウンドデータ配信サーバ610A、610B、610Cは、コントロールサーバ600によって選択された発音地点に対応するサウンドデータを、端末100に配信する。なお、これらのコントロールサーバ600、サウンドデータ配信サーバ610A、610B、610Cの各々には、移動通信網500において各々を特定するためのサーバIDが割り当てられている。
なお、説明の便宜上、第2実施形態においては、サウンドデータ配信サーバ610A、610B、610Cは、移動通信網500に直接接続されているが、サウンドデータ配信サーバ610A、610B、610Cは、インターネットなどを介して移動通信網500に接続される構成としても良い。また、第2実施形態においては、サウンドデータ配信サーバ610A、610B、610Cの数が3つである例を説明するが、サウンドデータ配信サーバ610A、610B、610Cの数は、3つに限られるものではなく、それ以外の数であってもよい。
FIG. 15 is a diagram showing a schematic configuration of a sound data distribution system in the second embodiment. As shown in this figure, the mobile communication network 500 is roughly connected with two types of server devices. That is, the control server 600 and the sound data distribution servers 610A, 610B, and 610C. Among these, each of the sound data distribution servers 610A, 610B, and 610C is sound data distributed to the terminal 100, and stores sound data corresponding to different sound generation points. The control server 600 manages the distribution of sound data from the sound data distribution servers 610A, 610B, and 610C to the terminal 100. More specifically, the control server 600 selects a predetermined number (for example, two) of sound generation points according to the position of the terminal 100 and the position of each sound generation point. The sound data distribution servers 610A, 610B, and 610C distribute sound data corresponding to the sound generation point selected by the control server 600 to the terminal 100. Each of the control server 600 and the sound data distribution servers 610A, 610B, and 610C is assigned a server ID for identifying each in the mobile communication network 500.
For convenience of explanation, in the second embodiment, the sound data distribution servers 610A, 610B, and 610C are directly connected to the mobile communication network 500, but the sound data distribution servers 610A, 610B, and 610C are connected to the Internet or the like. It is good also as a structure connected to the mobile communication network 500 via. In the second embodiment, an example in which the number of sound data distribution servers 610A, 610B, and 610C is three will be described. However, the number of sound data distribution servers 610A, 610B, and 610C is limited to three. Instead, other numbers may be used.

まず、サウンドデータ配信サーバ610A、610B、610Cの構成について説明する。第2実施形態におけるサウンドデータ配信サーバ610A、610B、610Cは、第1実施形態におけるサウンドデータ配信サーバ300(図2参照)と同様の構成をしており、各部を制御する制御部と、移動通信網とデータを授受する通信部と、各種情報を記憶する記憶部とを備えている。   First, the configuration of the sound data distribution servers 610A, 610B, and 610C will be described. The sound data distribution servers 610A, 610B, and 610C in the second embodiment have the same configuration as the sound data distribution server 300 (see FIG. 2) in the first embodiment, a control unit that controls each unit, and mobile communication A communication unit that exchanges data with the network and a storage unit that stores various types of information are provided.

図16は、サウンドデータ配信サーバ610Aの記憶部に記憶される情報のうち主要なものを示す図であり、図17は、サウンドデータ配信サーバ610Bの記憶部に記憶される情報のうち主要なものを示す図である。なお、図示しないが、サウンドデータ配信サーバ610Cにおける記憶部もサウンドデータ配信サーバ610A、610Bと同様な情報が記憶されている。これらの図に示されるように、各サウンドデータ配信サーバ610A、610Bの記憶部には、発音地点IDと、各々の発音地点IDに対応付けられたサウンドデータとが記憶される。この記憶部が、第1実施形態におけるサウンドデータ配信サーバ300の記憶部330と比較して特徴的なのは、発音位置情報を記憶していない点にある。   16 is a diagram showing main information stored in the storage unit of the sound data distribution server 610A, and FIG. 17 is main information stored in the storage unit of the sound data distribution server 610B. FIG. Although not shown, the storage unit in the sound data distribution server 610C stores the same information as the sound data distribution servers 610A and 610B. As shown in these drawings, the storage units of the sound data distribution servers 610A and 610B store a sound generation point ID and sound data associated with each sound generation point ID. This storage unit is characteristic in comparison with the storage unit 330 of the sound data distribution server 300 in the first embodiment in that it does not store pronunciation position information.

次いで、コントロールサーバ600の構成について説明する。コントロールサーバ600は、サウンドデータ配信サーバ610の構成と同様の構成をしており、各部を制御する制御部と、移動通信網500とデータを授受する通信部と、各種情報を記憶する記憶部とを備えている。   Next, the configuration of the control server 600 will be described. The control server 600 has the same configuration as that of the sound data distribution server 610, a control unit that controls each unit, a communication unit that exchanges data with the mobile communication network 500, and a storage unit that stores various types of information. It has.

図18は、コントロールサーバ600の記憶部に記憶される情報のうち、主要なものを示す図である。この図に示されるように、記憶部には、発音地点IDと、各々の発音地点IDに対応付けられた発音位置情報およびサーバIDが記憶されている。コントロールサーバ600の記憶部が、第1実施形態におけるサウンドデータ配信サーバ300の記憶部330と比較して特徴的な点は、サウンドデータを記憶していない点と、サーバIDを記憶している点にある。発音地点IDは、サウンドデータ配信サーバ610A、610B、610Cに記憶される発音地点を特定するためのものである。また、サーバIDは、発音地点IDによって特定される発音地点のサウンドデータが、いずれのサウンドデータ配信サーバ610A、610B、610Cに記憶されているかを示す情報である。この図におけるサーバID「A」は、サウンドデータ配信サーバ610Aを示し、サーバID「B」は、サウンドデータ配信サーバ610Bを示し、サーバID「C」は、サウンドデータ配信サーバ610Cを示している。例えば、この図においては、発音地点ID「ミニストアA」の発音地点は、座標(x1,y1,z1)に位置し、そのサウンドデータはサウンドデータ配信サーバ610Aに記憶されることを示し、発音地点ID「ミニストアB」の発音地点は、座標(x2,y2,z2)に位置し、そのサウンドデータはサウンドデータ配信サーバ610Bに記憶されることを示している。   FIG. 18 is a diagram showing main information stored in the storage unit of the control server 600. As shown in this figure, the storage unit stores a sound generation point ID, sound generation position information and a server ID associated with each sound generation point ID. The storage unit of the control server 600 is different from the storage unit 330 of the sound data distribution server 300 in the first embodiment in that it does not store sound data and stores a server ID. It is in. The pronunciation point ID is used to specify the pronunciation point stored in the sound data distribution servers 610A, 610B, and 610C. The server ID is information indicating in which sound data distribution server 610A, 610B, 610C the sound data of the sound generation point specified by the sound generation point ID is stored. In this figure, the server ID “A” indicates the sound data distribution server 610A, the server ID “B” indicates the sound data distribution server 610B, and the server ID “C” indicates the sound data distribution server 610C. For example, in this figure, the pronunciation point of the pronunciation point ID “ministore A” is located at the coordinates (x1, y1, z1), and the sound data is stored in the sound data distribution server 610A. The sounding point of the point ID “ministore B” is located at coordinates (x2, y2, z2), and indicates that the sound data is stored in the sound data distribution server 610B.

<サウンドデータ配信システムの動作>
第2実施形態におけるサウンドデータ配信システムの動作について図19を参照して説明する。この動作は、コントロールサーバ600によって選択された発音地点に対応するサウンドデータを、サウンドデータ配信サーバ610から端末100に配信し、端末100において、配信されたサウンドデータからオーディオ信号を生成する処理である。なお、この動作は、ユーザが端末100の指示入力部120を介して、オーディオ信号の生成の開始を指示する生成開始信号を入力すると処理を開始し、その後、端末100によって、タイマ割り込みされる処理である。また、コントロールサーバ600と端末100との間における接続認証や端末認証などの、一般的な移動通信システムにおいて実行される各種処理は、本件発明と直接関係しないため、それらの説明については省略することとする。
<Operation of sound data distribution system>
The operation of the sound data distribution system in the second embodiment will be described with reference to FIG. This operation is a process of distributing sound data corresponding to the sounding point selected by the control server 600 from the sound data distribution server 610 to the terminal 100, and generating an audio signal from the distributed sound data in the terminal 100. . Note that this operation starts when a user inputs a generation start signal instructing the start of audio signal generation via the instruction input unit 120 of the terminal 100, and then a process in which a timer interrupt is performed by the terminal 100. It is. Further, various processes executed in a general mobile communication system, such as connection authentication and terminal authentication between the control server 600 and the terminal 100, are not directly related to the present invention, and thus description thereof will be omitted. And

まず、端末100の制御部110は、ステップSB1において、衛星群400から送信される衛星信号を、衛星電波受信部145により受信し、衛星信号を取得する。次に、端末100の制御部110は、ステップSB2において、取得した衛星信号に応じて端末100の3次元位置を示す端末位置情報SPを測位部140により生成する。   First, in step SB1, the control unit 110 of the terminal 100 receives the satellite signal transmitted from the satellite group 400 by the satellite radio wave reception unit 145, and acquires the satellite signal. Next, in step SB2, the control unit 110 of the terminal 100 uses the positioning unit 140 to generate terminal position information SP indicating the three-dimensional position of the terminal 100 according to the acquired satellite signal.

次に、端末100の制御部110は、ステップSB3において、端末位置情報SPを、その情報の送信先であるコントロールサーバ600を示すサーバIDと共に基地局510に送信する。基地局510は、端末位置情報SPを端末100から受信すると、ステップSB4において、その情報をコントロールサーバ600に転送する。   Next, in step SB3, control unit 110 of terminal 100 transmits terminal location information SP to base station 510 together with a server ID indicating control server 600 that is the transmission destination of the information. When receiving the terminal location information SP from the terminal 100, the base station 510 transfers the information to the control server 600 in step SB4.

コントロールサーバ600の制御部は、端末位置情報SPを受信すると、ステップSB5において、受け取った端末位置情報SPと、記憶部に記憶される発音位置情報とに応じて、発音地点選択処理を実行する。この発音地点選択処理は、上述した第1実施形態における発音地点選択処理(図9参照)と同様の処理であり、端末100に近い発音地点から順に、所定数(2つ)に達するまで発音地点を選択する処理である。この動作説明においては、例として、コントロールサーバ600の制御部は、図18に示される発音地点IDのうち「ミニストアA」と「ビルB」との2つの発音地点を選択したものとして、すなわち、サウンドデータ配信サーバ610Aに記憶される「買い物マーチA(図16参照)」と、サウンドデータ配信サーバ610Bに記憶される「太鼓音B(図17参照)」とが端末100に配信されるものとして説明する。なお、コントロールサーバ600の制御部によって選択される発音地点の数は、2つに限られず、任意に設定することが可能である。   When receiving the terminal position information SP, the control unit of the control server 600 executes a pronunciation point selection process according to the received terminal position information SP and the pronunciation position information stored in the storage unit in step SB5. This sounding point selection process is the same process as the sounding point selection process (see FIG. 9) in the first embodiment described above, and in order from the sounding points close to the terminal 100 until the predetermined number (two) is reached. Is the process of selecting. In this description of the operation, for example, the control unit of the control server 600 selects two sound generation points “ministore A” and “building B” from the sound generation point IDs shown in FIG. The “shopping march A (see FIG. 16)” stored in the sound data distribution server 610A and the “taiko B (see FIG. 17)” stored in the sound data distribution server 610B are distributed to the terminal 100. Will be described. Note that the number of sound generation points selected by the control unit of the control server 600 is not limited to two and can be arbitrarily set.

次に、コントロールサーバ600の制御部は、ステップSB6において、選択された発音地点のサウンドデータを有するサウンドデータ配信サーバ610のサーバID_SIDを基地局510に送信する。この際、コントロールサーバ600の制御部は、サーバID_SIDに対して、その記憶部に記憶される発音地点IDおよび発音位置情報を付加した後、サーバID_SIDを送信する。すなわち、コントロールサーバ600の制御部は、図18におけるサーバID「A」に発音地点ID「ミニストアA」と発音位置情報(x1,y1,z1)とを付加すると共に、サーバID「B」に発音地点ID「ビルB」と発音位置情報(x2,y2,z2)とを付加した後、サーバID「A」およびサーバID「B」を基地局510に送信する。
基地局510は、各サーバID_SIDをコントロールサーバ600から受信すると、ステップSB7において、それらを端末100に転送する。
Next, the control unit of the control server 600 transmits the server ID_SID of the sound data distribution server 610 having the sound data of the selected pronunciation point to the base station 510 in step SB6. At this time, the control unit of the control server 600 adds the pronunciation point ID and the pronunciation position information stored in the storage unit to the server ID_SID, and then transmits the server ID_SID. That is, the control unit of the control server 600 adds the pronunciation point ID “ministore A” and the pronunciation position information (x1, y1, z1) to the server ID “A” in FIG. 18 and also adds to the server ID “B”. After adding the pronunciation point ID “Bill B” and the sound generation position information (x2, y2, z2), the server ID “A” and the server ID “B” are transmitted to the base station 510.
When receiving each server ID_SID from the control server 600, the base station 510 transfers them to the terminal 100 in step SB7.

端末100の制御部110は、基地局510によって転送されたサーバID_SIDを受信すると、ステップSB8において、当該サーバID_SIDによって特定されるサウンドデータ配信サーバ610A、610Bの各々にサウンドデータの配信を要求すべく、配信要求DRA、DRBを基地局510に送信する。すなわち、端末100の制御部110は、サウンドデータ配信サーバ610Aに対する「買い物マーチA」の配信要求DRAと、サウンドデータ配信サーバ610Bに対する「太鼓音B」の配信要求DRBとを基地局510に送信する。   When receiving the server ID_SID transferred by the base station 510, the control unit 110 of the terminal 100 requests the sound data distribution servers 610A and 610B specified by the server ID_SID to distribute sound data in step SB8. The distribution requests DRA and DRB are transmitted to the base station 510. That is, the control unit 110 of the terminal 100 transmits the “shopping march A” distribution request DRA to the sound data distribution server 610A and the “taiko B” distribution request DRB to the sound data distribution server 610B to the base station 510. .

基地局510は、配信要求DRA、DRBを端末100から受け取ると、ステップSB9およびステップSB10において、受け取った配信要求DRA、DRBの各々を、対応するサウンドデータ配信サーバ610A、610Bに転送する。すなわち、基地局510は、ステップSB9において、配信要求DRAをサウンドデータ配信サーバ610Aに転送する一方、ステップSB10において、配信要求DRBをサウンドデータ配信サーバ610Bに転送する。   When receiving the distribution requests DRA and DRB from the terminal 100, the base station 510 transfers the received distribution requests DRA and DRB to the corresponding sound data distribution servers 610A and 610B in step SB9 and step SB10. That is, the base station 510 transfers the distribution request DRA to the sound data distribution server 610A in step SB9, and transfers the distribution request DRB to the sound data distribution server 610B in step SB10.

サウンドデータ配信サーバ610Aの制御部は、基地局510から配信要求DRAを受け取ると、ステップSB11において、当該配信要求DRAによって示されるサウンドデータSDA(ここでは「買い物マーチA」)を基地局510にストリーム形式で送信する。基地局510は、サウンドデータ配信サーバ610AからサウンドデータSDAを受け取ると、ステップSB12において、サウンドデータSDAを端末100に転送する。   When receiving the distribution request DRA from the base station 510, the control unit of the sound data distribution server 610A streams the sound data SDA (here, “shopping march A”) indicated by the distribution request DRA to the base station 510 in step SB11. Send in format. Upon receiving the sound data SDA from the sound data distribution server 610A, the base station 510 transfers the sound data SDA to the terminal 100 in step SB12.

一方、サウンドデータ配信サーバ610Bの制御部は、基地局510から配信要求DRBを受け取ると、ステップSB13において、当該配信要求DRBによって示されるサウンドデータSDB(ここでは「太鼓音B」)を基地局510にストリーム形式で送信する。基地局510は、サウンドデータ配信サーバ610BからサウンドデータSDBを受け取ると、ステップSB14において、サウンドデータSDBを端末100に転送する。これらのステップSB13およびステップSB14の処理は、上述したステップSB11およびステップSB12の処理と並列して実行される。   On the other hand, when receiving the distribution request DRB from the base station 510, the control unit of the sound data distribution server 610B receives the sound data SDB (here, “taiko B”) indicated by the distribution request DRB in step SB13. Send in stream format. Upon receiving the sound data SDB from the sound data distribution server 610B, the base station 510 transfers the sound data SDB to the terminal 100 in step SB14. The processes of step SB13 and step SB14 are executed in parallel with the processes of step SB11 and step SB12 described above.

なお、第1実施形態と同様に、サウンドデータSDA、SDBを送信する前に、サウンドデータ配信サーバ610A、610Bにおいて、データ量変換処理を実行しても良い。すなわち、サウンドデータ配信サーバ610A、610Bの各々において、端末100と発音地点との距離に応じて、各々のサウンドデータSDA、SDBのデータ量を縮減した後、サウンドデータを基地局510に送信する構成としても良い。   Similar to the first embodiment, the data amount conversion processing may be executed in the sound data distribution servers 610A and 610B before the sound data SDA and SDB are transmitted. That is, each of the sound data distribution servers 610A and 610B is configured to transmit the sound data to the base station 510 after reducing the data amount of each of the sound data SDA and SDB according to the distance between the terminal 100 and the sounding point. It is also good.

端末100の制御部110は、サウンドデータ配信サーバ610Aから送信されたサウンドデータSDA(ここでは「買い物マーチA」)と、サウンドデータ配信サーバ610Bから送信されたサウンドデータSDB(ここでは「太鼓音B」)とを、基地局510を介して並列に受信すると、ステップSB15において、それらのサウンドデータをオーディオ信号生成部160に入力して、左右2チャネルのオーディオ信号を生成する。この際、「買い物マーチA」と「太鼓音B」との各々のサウンドデータは、オーディオ信号生成部160に含まれる2つの加工部170のいずれか一方によって処理される。そして、端末100の制御部110は、ステップSB16において、オーディオ信号出力部190からオーディオ信号を出力する。端末100から出力されたオーディオ信号は、ヘッドフォン200を介して音として出力される。   The control unit 110 of the terminal 100 transmits the sound data SDA transmitted from the sound data distribution server 610A (here “shopping march A”) and the sound data SDB transmitted from the sound data distribution server 610B (here “drum sound B”). ”) Is received in parallel via the base station 510, in step SB15, the sound data is input to the audio signal generation unit 160 to generate left and right two-channel audio signals. At this time, the sound data of “shopping march A” and “drum sound B” is processed by one of the two processing units 170 included in the audio signal generation unit 160. And the control part 110 of the terminal 100 outputs an audio signal from the audio signal output part 190 in step SB16. The audio signal output from the terminal 100 is output as sound via the headphones 200.

このように第2実施形態においては、コントロールサーバ600の管理の下、各サウンドデータ配信サーバ610A、610B、610Cから端末100にサウンドデータが配信され、端末100において、ユーザの位置および顔の向く方向Aに応じて、仮想的な発音地点による音像を定位させたオーディオ信号が生成される。これにより、上述した第1実施形態と同様に、ユーザは、あたかも発音地点が実在するかのような空間を移動することができ、従来にない音響アミューズメントを提供することができる。   As described above, in the second embodiment, the sound data is distributed from the sound data distribution servers 610A, 610B, and 610C to the terminal 100 under the control of the control server 600. In the terminal 100, the position of the user and the direction of the face In accordance with A, an audio signal in which a sound image from a virtual sound generation point is localized is generated. As a result, as in the first embodiment described above, the user can move in a space as if the sound generation point actually exists, and can provide an unprecedented acoustic amusement.

また、第2実施形態においては、複数のサウンドデータ配信サーバ610A、610B、610Cからサウンドデータが配信される。このため、複数の端末100が、ひとつのサウンドデータ配信サーバから集中的にサウンドデータの配信を受ける事態が回避され、サウンドデータ配信サーバにかかる負荷が分散されることとなる。さらに、コントロールサーバ600によってサウンドデータの配信が一括管理されるため、サウンドデータの管理が容易となり、サウンドデータを容易に増加することができる。これにより、端末100に配信されるサウンドデータの種類や内容が充実したものとなる。   In the second embodiment, sound data is distributed from a plurality of sound data distribution servers 610A, 610B, and 610C. For this reason, the situation in which the plurality of terminals 100 receive sound data distribution from one sound data distribution server is avoided, and the load on the sound data distribution server is distributed. Furthermore, since the distribution of the sound data is collectively managed by the control server 600, the sound data can be easily managed, and the sound data can be easily increased. As a result, the types and contents of the sound data distributed to the terminal 100 are enriched.

<第1および第2実施形態の変形例>
なお、上述した第1および第2実施形態においては、端末位置情報SPを、GNSSによって端末100において生成する例を示したが、これに限られない。例えば、サウンドデータ配信サーバ300やコントロールサーバ600において、端末100が無線リンクを確立する基地局510の位置などに応じて、端末位置情報SPを生成する構成としても良い。
<Modification of First and Second Embodiments>
In the first and second embodiments described above, the example in which the terminal location information SP is generated in the terminal 100 by GNSS is shown, but the present invention is not limited to this. For example, the sound data distribution server 300 or the control server 600 may generate the terminal position information SP according to the position of the base station 510 where the terminal 100 establishes a wireless link.

また、上述した第1および第2実施形態においては、基地局510と無線通信する無線通信部130を備えた端末100を説明したが、これに限られない。例えば、PDA(Personal Digital Assistants)などの無線通信機能を有さない携帯端末と、当該携帯端末に着脱可能な通信モジュールを取り付けて、サウンドデータ配信サーバ300などとデータを授受する構成としても良い。   In the first and second embodiments described above, the terminal 100 including the wireless communication unit 130 that wirelessly communicates with the base station 510 has been described. However, the present invention is not limited to this. For example, a portable terminal that does not have a wireless communication function such as PDA (Personal Digital Assistants) and a removable communication module may be attached to the portable terminal so that data can be exchanged with the sound data distribution server 300 or the like.

上述した第1および第2実施形態においては、サウンドデータをストリーム形式で配信する例を示したが、端末100にサウンドデータを記憶する記憶部を設けて、記憶部にキャッシュされたサウンドデータによりオーディオ信号を生成する構成としても良い。   In the first and second embodiments described above, the example in which the sound data is distributed in the stream format has been shown. However, the storage unit that stores the sound data is provided in the terminal 100, and the audio is generated by the sound data cached in the storage unit. It is good also as a structure which produces | generates a signal.

くわえて、上述した第1および第2実施形態においては、端末100と発音地点との距離に応じて、サウンドデータ配信サーバ300、610Aなどにおいて、端末100に配信するサウンドデータのデータ量を変換する例を示したがこれに限られない。例えば、サウンドデータ配信サーバ300の記憶部330に、同一の音を表すサウンドデータであって、データ量が互いに異なる複数のサウンドデータ(例えば、サンプリング周波数が互いに異なる複数のサウンドデータ)を予め記憶させておき、このうちのいずれかを、端末100と発音地点との距離に応じて選択し、選択されたサウンドデータを端末100に送信する構成としても良い。これにより、上述した各実施形態と同様に、ネットワークトラフィックが低減されることとなる。   In addition, in the first and second embodiments described above, the amount of sound data distributed to the terminal 100 is converted by the sound data distribution server 300, 610A or the like according to the distance between the terminal 100 and the sound generation point. An example is shown, but the present invention is not limited to this. For example, the storage unit 330 of the sound data distribution server 300 stores in advance a plurality of sound data representing the same sound and having different data amounts (for example, a plurality of sound data having different sampling frequencies). Any one of these may be selected according to the distance between the terminal 100 and the sound generation point, and the selected sound data may be transmitted to the terminal 100. Thereby, network traffic will be reduced like each embodiment mentioned above.

<第3実施形態>
上述した第1、第2実施形態においては、無線通信網500を介してサウンドデータ配信サーバ300、610からサウンドデータを受信し、受信したサウンドデータからオーディオ信号を生成する態様について説明した。これに対し、以下に示す第3実施形態においては、端末内の記憶部に記憶されているサウンドデータからオーディオ信号を生成する態様について説明する。
<Third Embodiment>
In the first and second embodiments described above, the aspect in which sound data is received from the sound data distribution servers 300 and 610 via the wireless communication network 500 and an audio signal is generated from the received sound data has been described. On the other hand, in the following third embodiment, an aspect of generating an audio signal from sound data stored in a storage unit in the terminal will be described.

図20は、第3実施形態に係るサウンドシステムの概略構成を示す図である。サウンドシステムは、端末を識別するための端末ID、端末位置情報及び方位情報を授受することができる複数の端末700によって構成されている。   FIG. 20 is a diagram illustrating a schematic configuration of a sound system according to the third embodiment. The sound system includes a plurality of terminals 700 that can exchange terminal IDs for identifying terminals, terminal position information, and direction information.

各端末700は、他端末700から受け取る端末ID、端末位置情報及び方位情報に基づいて、自端末700の記憶部に記憶されている複数のサウンドデータの中から適合するサウンドデータを選択し、選択したサウンドデータからオーディオ信号を生成する機能を備えている。なお、以下の説明では、便宜上、自端末700A及び他端末700Bと記述する。   Each terminal 700 selects and selects suitable sound data from among a plurality of sound data stored in the storage unit of its own terminal 700 based on the terminal ID, terminal position information, and direction information received from the other terminal 700 It has a function to generate an audio signal from the sound data. In the following description, it is described as the own terminal 700A and the other terminal 700B for convenience.

図21は、端末(音像定位端末)700の構成を示す図である。端末700は、前掲図5に示す端末100に対してサウンドデータ管理部720、受信部730、送信部740を設けたものである。その他の構成は、図5と同様であるため、対応する部分には同一符号を付し説明を省略する。
送信部740は、自端末700Aの端末ID、端末位置情報及び方位情報を他端末700Bに送信する手段である。ここで、送信部740に供給される端末位置情報は、自端末700Aの位置をあらわす情報であり、測位部(位置・方位検出手段)140において生成される情報である。一方、送信部740に供給される方位情報は、自端末700Aのヘッドフォン200を装着するユーザの顔の向きをあらわす情報(いいかえれば、端末の方位をあらわす情報)であり、方位検出部(位置・方位検出手段)150において生成される情報である。
FIG. 21 is a diagram showing a configuration of a terminal (sound image localization terminal) 700. The terminal 700 is provided with a sound data management unit 720, a receiving unit 730, and a transmitting unit 740 with respect to the terminal 100 shown in FIG. Since other configurations are the same as those in FIG. 5, corresponding portions are denoted by the same reference numerals, and description thereof is omitted.
The transmission unit 740 is means for transmitting the terminal ID, terminal position information, and direction information of the own terminal 700A to the other terminal 700B. Here, the terminal position information supplied to the transmission unit 740 is information indicating the position of the own terminal 700 </ b> A and information generated in the positioning unit (position / orientation detection means) 140. On the other hand, the orientation information supplied to the transmission unit 740 is information representing the orientation of the face of the user wearing the headphone 200 of the terminal 700A (in other words, information representing the orientation of the terminal), and the orientation detection unit (position / This is information generated in (azimuth detecting means) 150.

詳述すると、制御部110は、他端末700Bと通信を行う際、自端末700Aの端末IDを図示せぬメモリから読み出し、これを送信部740に転送する。また、制御部110は、測位部140から供給される自端末700Aの端末位置情報、及び方位検出部150から供給される自端末700Aの方位情報を送信部740に転送する。送信部740は、制御部110から受け取った端末ID、端末位置情報及び方位情報を、Bluetooth(登録商標)やIrDA(Infrared Data Association)等を利用して他端末700B宛てに送信する。   Specifically, when communicating with the other terminal 700B, the control unit 110 reads the terminal ID of the own terminal 700A from a memory (not shown) and transfers it to the transmission unit 740. Further, the control unit 110 transfers the terminal position information of the own terminal 700 </ b> A supplied from the positioning unit 140 and the direction information of the own terminal 700 </ b> A supplied from the direction detection unit 150 to the transmission unit 740. The transmission unit 740 transmits the terminal ID, terminal position information, and direction information received from the control unit 110 to the other terminal 700B using Bluetooth (registered trademark), IrDA (Infrared Data Association), or the like.

受信部730は、他端末700Bから送信される他端末700Bを識別するための端末ID(属性情報)、該他端末700Bの位置をあらわす端末位置情報及び該他端末700Bの方位をあらわす方位情報を受信する手段である。制御部110は、受信部730からこれらの情報を受け取ると、受け取った他端末700Bの端末IDをサウンドデータ管理部720に供給する一方、受け取った他端末700Bの端末位置情報及び方位情報をオーディオ信号生成部160に供給する。   The receiving unit 730 receives terminal ID (attribute information) for identifying the other terminal 700B transmitted from the other terminal 700B, terminal position information indicating the position of the other terminal 700B, and direction information indicating the direction of the other terminal 700B. Means for receiving. Upon receiving these pieces of information from the receiving unit 730, the control unit 110 supplies the received terminal ID of the other terminal 700B to the sound data management unit 720, while transmitting the received terminal position information and direction information of the other terminal 700B as an audio signal. The data is supplied to the generation unit 160.

サウンドデータ管理部720は、様々な種類のサウンドデータ(例えば、楽曲1、楽曲2、・・・)を管理する手段である。図22は、サウンドデータ管理部720に登録されているサウンドデータ管理テーブルTAの内容を例示した図である。   The sound data management unit 720 is means for managing various types of sound data (for example, music 1, music 2,...). FIG. 22 is a diagram illustrating the contents of the sound data management table TA registered in the sound data management unit 720.

サウンドデータ管理テーブル(記憶手段)TAには、複数のサウンドデータと各サウンドデータの選択条件をあらわす条件情報(図22では、各端末を識別するための端末ID)とが対応づけて登録されている。なお、本実施形態では、サウンドデータの選択条件として端末ID(すなわち、サウンドデータに対応する端末識別情報)を設定しているが、他のパラメータを設定しても良いのはもちろんである(後述)。   In the sound data management table (storage means) TA, a plurality of sound data and condition information (terminal ID for identifying each terminal in FIG. 22) indicating the selection condition of each sound data are registered in association with each other. Yes. In this embodiment, the terminal ID (that is, terminal identification information corresponding to the sound data) is set as the selection condition of the sound data. However, other parameters may be set (described later). ).

サウンドデータ管理部(選択手段)720は、制御部110から他端末700Bの端末ID(例えば、端末ID−3)を受け取ると、受け取った端末IDとサウンドデータ管理テーブルTAに登録されている各端末IDとを比較する。そして、サウンドデータ管理部720は、比較結果に基づいて、該端末IDに対応づけて登録されているサウンドデータ(例えば、楽曲3)をサウンドデータ管理テーブル(記憶手段)TAから取得(選択)し、これをオーディオ信号生成部160に供給する。   When the sound data management unit (selection unit) 720 receives the terminal ID (for example, terminal ID-3) of the other terminal 700B from the control unit 110, each terminal registered in the received terminal ID and the sound data management table TA. Compare the ID. Then, based on the comparison result, the sound data management unit 720 acquires (selects) the sound data (for example, the music piece 3) registered in association with the terminal ID from the sound data management table (storage means) TA. This is supplied to the audio signal generator 160.

オーディオ信号生成部160は、受信部730から他端末700Bの端末位置情報及び方位情報を受け取る一方、測位部140及び方位検出部150から自端末700Aの端末位置情報及び方位情報を受け取る。オーディオ信号生成部160は、受け取ったこれらの情報とサウンドデータ管理部720から供給されるサウンドデータとに基づいて、オーディオ信号を生成する。すなわち、オーディオ信号生成部(定位手段)160は、自端末700Aの位置及び方位を基準として、他端末700Bの端末位置情報及び方位情報に示される位置及び方位に、該サウンドデータに対応する音の音像が定位するようにオーディオ信号を生成・加工する。なお、オーディオ信号生成部160の動作は、第1実施形態等において詳細を明らかにしたため、これ以上の説明は割愛する。   The audio signal generation unit 160 receives the terminal position information and direction information of the other terminal 700B from the reception unit 730, and receives the terminal position information and direction information of the own terminal 700A from the positioning unit 140 and the direction detection unit 150. The audio signal generation unit 160 generates an audio signal based on the received information and the sound data supplied from the sound data management unit 720. That is, the audio signal generation unit (localization means) 160 uses the position and orientation of the own terminal 700A as a reference, and the sound corresponding to the sound data is displayed at the position and orientation indicated in the terminal position information and orientation information of the other terminal 700B. Audio signal is generated and processed so that the sound image is localized. Since the details of the operation of the audio signal generation unit 160 have been clarified in the first embodiment and the like, further explanation is omitted.

以上説明したように、第3実施形態に係るサウンドシステムによれば、各端末700は、自端末700Aに予め格納されているサウンドデータを用いて様々なオーディオ信号を生成する。これにより、上記第1実施形態及び第2実施形態と同様に、従来にない音響アミューズメントを提供することができる。さらに、サウンドデータを配信する構成が必要ないため、システムの構成を簡略化することができる。   As described above, according to the sound system according to the third embodiment, each terminal 700 generates various audio signals using sound data stored in advance in its own terminal 700A. Thereby, like the first embodiment and the second embodiment, an unprecedented acoustic amusement can be provided. Furthermore, since a configuration for distributing sound data is not required, the configuration of the system can be simplified.

なお、本実施形態では、サウンドデータの選択条件として端末IDを設定した場合について説明したが、該端末IDの代わりに、各端末が属するグループ(例えば、グループA、グループB、・・・)を識別するためのグループIDを設定しても良い。かかる場合、自端末700Aの受信部730は、上述した他端末700Bの端末IDの代わりに(あるいは加えて)、他端末700Bが属するグループのグループID(属性情報)を受信する。かかる構成によれば、グループ毎に同じ種類の楽音が出力されるため、端末700を所持する各ユーザは、ヘッドフォン200を介して聴取する楽音の種類から、いずれのグループに属するユーザが接近してきたか等を把握することができる。   In the present embodiment, the case where the terminal ID is set as the sound data selection condition has been described. However, instead of the terminal ID, the group to which each terminal belongs (for example, group A, group B,...). A group ID for identification may be set. In such a case, the receiving unit 730 of the own terminal 700A receives the group ID (attribute information) of the group to which the other terminal 700B belongs, instead of (or in addition to) the terminal ID of the other terminal 700B. According to such a configuration, since the same type of musical sound is output for each group, each user who owns the terminal 700 determines which group the user belongs to from the type of musical sound to be listened to through the headphones 200. Etc. can be grasped.

<第4実施形態>
図23は、第4実施形態に係る端末(音像定位端末)800の構成を示す図である。端末800は、前掲図21に示すサウンドデータ管理部720の代わりに、記憶部810を設けたものである。その他の構成は、図21と同様であるため、対応する部分には同一符号を付し説明を省略する。なお、以下の説明では、便宜上、自端末800A及び他端末800Bと記述する。
記憶部810は、自サウンドデータ記憶部811と他サウンドデータ記憶部812とを具備している。自サウンドデータ記憶部811には、自端末800Aに固有のサウンドデータ(例えば、楽曲1)が記憶される。一方、他サウンドデータ記憶部812には、他端末800Bを識別するための識別ID(例えば、端末ID−2、端末ID−3等)と各他端末800Bに固有のサウンドデータ(例えば、楽曲2、楽曲3等)とが対応づけて記憶される。各端末800は、他端末800Bと通信を行う際、次のような動作を行う。
<Fourth embodiment>
FIG. 23 is a diagram showing a configuration of a terminal (sound image localization terminal) 800 according to the fourth embodiment. The terminal 800 is provided with a storage unit 810 instead of the sound data management unit 720 shown in FIG. Since other configurations are the same as those in FIG. 21, corresponding portions are denoted by the same reference numerals and description thereof is omitted. In the following description, it is described as own terminal 800A and other terminal 800B for convenience.
The storage unit 810 includes a local sound data storage unit 811 and another sound data storage unit 812. The own sound data storage unit 811 stores sound data (for example, music 1) unique to the own terminal 800A. On the other hand, the other sound data storage unit 812 has an identification ID (for example, terminal ID-2, terminal ID-3, etc.) for identifying the other terminal 800B and sound data (for example, music 2) unique to each other terminal 800B. , Music 3 etc.) are stored in association with each other. Each terminal 800 performs the following operation when communicating with another terminal 800B.

自端末800Aの制御部110は、自サウンドデータ記憶部811から固有のサウンドデータを読み出し、送信部740に送る。さらに、制御部110は、測位部(位置・方位検出手段)140において生成される自端末800Aの端末位置情報、方位検出部(位置・方位検出手段)150において生成される自端末800Aの方位情報をそれぞれ送信部740に送る。送信部740は、制御部110からこれらの情報を受け取ると、これらの情報に自端末800Aを識別するための端末IDを付加し、他端末800B宛てに送信する。一方、受信部(受信手段)730は、他端末800Bから送信される他端末800Bの端末ID、端末位置情報、方位情報及びサウンドデータを受信する。制御部110は、受信部730からこれらの情報を受け取ると、他端末800Bの端末位置情報、方位情報及びサウンドデータをオーディオ信号生成部160に転送する一方、他端末Bの端末ID及びサウンドデータを他サウンドデータ記憶部812に対応づけて格納する。   The control unit 110 of the own terminal 800 </ b> A reads unique sound data from the own sound data storage unit 811 and sends it to the transmission unit 740. Further, the control unit 110 includes terminal position information of the own terminal 800A generated by the positioning unit (position / orientation detection means) 140, and direction information of the own terminal 800A generated by the direction detection unit (position / orientation detection means) 150. Are sent to the transmission unit 740, respectively. Upon receiving these pieces of information from the control unit 110, the transmission unit 740 adds a terminal ID for identifying the own terminal 800A to these pieces of information, and transmits the information to the other terminal 800B. On the other hand, the receiving unit (receiving unit) 730 receives the terminal ID, terminal position information, orientation information, and sound data of the other terminal 800B transmitted from the other terminal 800B. Upon receiving these pieces of information from the receiving unit 730, the control unit 110 transfers the terminal position information, direction information, and sound data of the other terminal 800B to the audio signal generation unit 160, while the terminal ID and sound data of the other terminal B are transferred. Stored in association with the other sound data storage unit 812.

オーディオ信号生成部160は、受信部730から他端末800Bの端末位置情報、方位情報、及びサウンドデータを受け取る一方、測位部140及び方位検出部150から自端末800Aの端末位置情報及び方位情報を受け取る。オーディオ信号生成部160は、これら各情報に基づいてオーディオ信号を生成する。すなわち、オーディオ信号生成部(定位手段)160は、自端末800Aの位置及び方位を基準として、他端末800Bの端末位置情報及び方位情報に示される位置及び方位に、他端末800Bから受信したサウンドデータに対応する音の音像が定位するようにオーディオ信号を生成・加工する。オーディオ信号生成部160は、このように生成したオーディオ信号をヘッドフォン200を介して外部に出力する。各ユーザは、ヘッドフォン200から出力される楽音の種類、音像定位位置等を把握し、これにより、どのようなユーザが接近等するのかを認識することができる。以上説明したように、各端末800の間で固有のサウンドデータを交換し、交換したサウンドデータからオーディオ信号を生成しても良い。   The audio signal generation unit 160 receives the terminal position information, direction information, and sound data of the other terminal 800B from the reception unit 730, and receives the terminal position information and direction information of the own terminal 800A from the positioning unit 140 and the direction detection unit 150. . The audio signal generation unit 160 generates an audio signal based on these pieces of information. That is, the audio signal generation unit (localization means) 160 receives the sound data received from the other terminal 800B at the position and orientation indicated in the terminal position information and orientation information of the other terminal 800B with reference to the position and orientation of the own terminal 800A. The audio signal is generated and processed so that the sound image corresponding to the sound is localized. The audio signal generation unit 160 outputs the audio signal thus generated to the outside via the headphones 200. Each user can grasp the type of musical sound output from the headphones 200, the sound image localization position, and the like, thereby recognizing which user is approaching. As described above, unique sound data may be exchanged between the terminals 800, and an audio signal may be generated from the exchanged sound data.

<第1〜第4実施形態に共通する変形例>
(変形例1)
上述した各実施形態においては、GPSを利用して自端末の位置を求める態様を例示したが、GPS衛星から発信される電波を受信する場所(例えば、屋内等)によっては、大きな誤差が生じたり、位置測定が不可能な場合もある。このような場合には、限られた範囲での位置測定に有効な超音波センサや赤外線センサ等を用いて自端末の位置を求めるようにしても良い。
<Modification common to the first to fourth embodiments>
(Modification 1)
In each of the above-described embodiments, an example in which the position of the terminal is obtained using GPS has been illustrated. However, depending on a place where a radio wave transmitted from a GPS satellite is received (for example, indoors), a large error may occur. In some cases, position measurement is impossible. In such a case, the position of the terminal itself may be obtained using an ultrasonic sensor, an infrared sensor, or the like that is effective for position measurement within a limited range.

(変形例2)
また、自端末の位置、方位を測定するのではなく、他端末との相対的な距離、方位のみを測定しても良い。図24は、変形例2に係る端末(音像定位端末)900の構成を示す図である。端末900は、前掲図21に示す端末700の測位部140、衛生電波受信部145、方位検出部150の代わりに、超音波発生器910、相対距離・方向算出部920を設けたものである。その他の構成は、図21に示す端末700とほぼ同様であるため、対応する部分には同一符号を付し説明を省略する。また、以下の説明では、便宜上、自端末900A及び他端末900Bと記述する。
(Modification 2)
Also, instead of measuring the position and orientation of the terminal itself, only the relative distance and orientation with other terminals may be measured. FIG. 24 is a diagram illustrating a configuration of a terminal (sound image localization terminal) 900 according to the second modification. The terminal 900 is provided with an ultrasonic generator 910 and a relative distance / direction calculation unit 920 instead of the positioning unit 140, the sanitary radio wave reception unit 145, and the direction detection unit 150 of the terminal 700 shown in FIG. Since other configurations are substantially the same as those of the terminal 700 shown in FIG. 21, the corresponding parts are denoted by the same reference numerals and description thereof is omitted. Further, in the following description, for the sake of convenience, it is described as the own terminal 900A and the other terminal 900B.

超音波発生器910は、図25に示すように、自端末900Aを中心として異なる波長の超音波f1〜fp(1≦p)を各方向(図25では、8方向)に出力する手段である。なお、超音波を出力する方向やその数などについては、必要とされる位置検出の精度等に応じて適宜変更可能である。
受信部730は、他端末900Bから他端末900Bの端末ID、端末位置情報及び方位情報を受信する代わりに、他端末900Bの端末ID及び超音波情報(後述)を受信する。
As shown in FIG. 25, the ultrasonic generator 910 is a means for outputting ultrasonic waves f1 to fp (1 ≦ p) having different wavelengths around the terminal 900A in each direction (eight directions in FIG. 25). . Note that the direction and the number of ultrasonic waves to be output can be appropriately changed according to the required position detection accuracy and the like.
The receiving unit 730 receives the terminal ID and ultrasonic information (described later) of the other terminal 900B instead of receiving the terminal ID, terminal position information, and direction information of the other terminal 900B from the other terminal 900B.

例えば、図25に示すように自端末900Aからみて右斜め前方に他端末900Bが存在する場合、他端末900Bは超音波f2を主に受信することになる。他端末900Bは、各超音波の受信強度を比較などして超音波f2の受信強度が最も高いと判断すると、受信強度が最も高い超音波の種類、受信強度をあらわす超音波情報を生成し、これを自端末900A宛てに送信する。自端末900Aの受信部730は、他端末900Bから端末ID及び超音波情報を受信すると、受信した端末IDをサウンドデータ管理部720に供給する一方、受信した超音波情報を相対距離・方位算出部920に送る。   For example, as shown in FIG. 25, when the other terminal 900B exists diagonally forward to the right when viewed from the own terminal 900A, the other terminal 900B mainly receives the ultrasonic wave f2. When the other terminal 900B determines that the reception intensity of the ultrasonic wave f2 is the highest by comparing the reception intensity of each ultrasonic wave or the like, the other terminal 900B generates ultrasonic information indicating the type and reception intensity of the ultrasonic wave having the highest reception intensity, This is transmitted to the own terminal 900A. Upon receiving the terminal ID and the ultrasonic information from the other terminal 900B, the receiving unit 730 of the own terminal 900A supplies the received terminal ID to the sound data management unit 720, while the received ultrasonic information is used as a relative distance / azimuth calculating unit. Send to 920.

サウンドデータ管理部(選択手段)720は、受信部730を介して端末ID(属性情報)を受け取ると、この端末IDに対応するサウンドデータ(例えば、楽曲3)をサウンドデータ管理テーブルTA(記憶手段)から取得(選択)し、オーディオ信号生成部160に供給する。   When the sound data management unit (selection unit) 720 receives the terminal ID (attribute information) via the reception unit 730, the sound data management table TA (storage unit) stores the sound data (for example, the music piece 3) corresponding to the terminal ID. ) Obtained (selected) and supplied to the audio signal generator 160.

一方、相対距離・方向算出部(相対距離・方向算出手段)920は、受信部730から供給される超音波情報に基づいて、自端末900Aと他端末900Bとの相対的な距離及び方向を求める。詳述すると、相対位置・方向算出部920は、超音波情報に示される超音波の種類(例えば、超音波f2)から他端末の相対的な方向(例えば、右斜め前方)を求める一方、超音波情報に示される受信強度から相対的な距離(例えば、○×m)を求める。そして、相対距離・方向算出部920は、求めた相対的な方向及び相対的な距離をオーディオ信号生成部160に供給する。オーディオ信号生成部160は、相対距離・方位算出部920から供給される相対的な方向、相対的な距離、及びサウンドデータ管理部720から供給されるサウンドデータに基づいて、オーディオ信号を生成する。すなわち、オーディオ信号生成部(定位手段)160は、自端末900Aの位置及び方位を基準として、上記の如く求めた方向に求めた距離だけ離れた位置に、上記サウンドデータに対応する音の音像が定位するようにオーディオ信号を生成・加工する。なお、その後の動作については、各実施形態と同様に説明することができるため割愛する。   On the other hand, the relative distance / direction calculating unit (relative distance / direction calculating unit) 920 obtains the relative distance and direction between the terminal 900A and the other terminal 900B based on the ultrasonic information supplied from the receiving unit 730. . More specifically, the relative position / direction calculation unit 920 obtains the relative direction (for example, the right front side) of the other terminal from the type of the ultrasonic wave (for example, the ultrasonic wave f2) indicated in the ultrasonic information, A relative distance (for example, ○ × m) is obtained from the reception intensity indicated in the sound wave information. Then, the relative distance / direction calculation unit 920 supplies the obtained relative direction and relative distance to the audio signal generation unit 160. The audio signal generation unit 160 generates an audio signal based on the relative direction and the relative distance supplied from the relative distance / azimuth calculation unit 920 and the sound data supplied from the sound data management unit 720. That is, the audio signal generation unit (localization means) 160 uses the position and orientation of the terminal 900A as a reference, and the sound image of the sound corresponding to the sound data is located at a position separated by the distance obtained in the direction obtained as described above. Generate and process audio signals to localize. Since the subsequent operation can be described in the same manner as each embodiment, it is omitted.

このように、他端末との相対的な距離、方向を測定することにより、各実施形態と同様な音響アミューズメントを提供するようにしても良い。なお、上記例では、自端末900Aにおいて相対的な距離、方向を求める場合について説明したが、他端末900Bにおいて自端末900Aとの相対的な距離、方向を直接求め、求めた相対的な距離、方向を自端末900Aに通知するようにしても良い。また、上記例では、超音波のみを利用して他端末900Bとの相対的な距離、方向を求める態様を例示したが、例えば赤外線等を利用して他端末との相対的な距離、方向を求めても良く、さらには、超音波と赤外線とを併用し、超音波と赤外線の信号の到着時差を利用して他端末900Bとの相対的な距離、方向を求めても良い。   Thus, you may make it provide the acoustic amusement similar to each embodiment by measuring a relative distance and direction with another terminal. In the above example, the case of obtaining the relative distance and direction in the own terminal 900A has been described. However, in the other terminal 900B, the relative distance and direction from the own terminal 900A are directly obtained, and the obtained relative distance, The direction may be notified to the own terminal 900A. Further, in the above example, an example in which the relative distance and direction with respect to the other terminal 900B are obtained using only the ultrasonic wave is illustrated, but for example, the relative distance and direction with respect to the other terminal using infrared rays or the like can be determined. Further, the relative distance and direction from the other terminal 900B may be obtained by using ultrasonic waves and infrared rays together and using the arrival time difference between the ultrasonic and infrared signals.

(変形例3)
以上説明した本実施形態及び変形例に係る各端末の諸機能は、CPU(若しくはDSP)がメモリに格納されたプログラムを実行することによって実現されるため、かかるプログラムについてCD−ROM等の記録媒体に記録して頒布したり、インターネット等の通信ネットワークを介して頒布しても良い。
(Modification 3)
Since the various functions of each terminal according to this embodiment and the modification described above are realized by the CPU (or DSP) executing the program stored in the memory, the recording medium such as a CD-ROM is used for such a program. It may be recorded and distributed on the Internet or distributed via a communication network such as the Internet.

本発明の第1実施形態におけるサウンドデータ配信システムの構成を示す図である。It is a figure which shows the structure of the sound data delivery system in 1st Embodiment of this invention. 同サウンドデータ配信システムに含まれるサウンドデータ配信サーバの構成を示す図である。It is a figure which shows the structure of the sound data delivery server contained in the sound data delivery system. 同サウンドデータ配信サーバの記憶部に記憶される情報を示す図である。It is a figure which shows the information memorize | stored in the memory | storage part of the sound data delivery server. 同サウンドデータ配信サーバの記憶部に記憶されるデータ量変換テーブルを示す図である。It is a figure which shows the data amount conversion table memorize | stored in the memory | storage part of the sound data delivery server. 同サウンドデータ配信システムに含まれる端末の構成を示す図である。It is a figure which shows the structure of the terminal contained in the sound data delivery system. 同端末に含まれるオーディオ信号生成部などの構成を示す図である。It is a figure which shows structures, such as an audio signal production | generation part contained in the terminal. 同オーディオ信号生成部による処理を説明するための図である。It is a figure for demonstrating the process by the audio signal generation part. 同サウンドデータ配信システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the sound data delivery system. 同サウンドデータ配信サーバが実行する発音地点選択処理を示すフローチャートである。It is a flowchart which shows the sounding point selection process which the sound data delivery server performs. 同サウンドデータ配信サーバが実行するデータ量変換処理を示すフローチャートである。It is a flowchart which shows the data amount conversion process which the sound data delivery server performs. 同サウンドデータ配信サーバによって選択された発音地点の様子を示す図である。It is a figure which shows the mode of the sounding point selected by the sound data delivery server. 同端末が生成するオーディオ信号による音像定位を説明するための図である。It is a figure for demonstrating the sound image localization by the audio signal which the terminal produces | generates. 同音像定位を説明するための図である。It is a figure for demonstrating the same sound image localization. 同音像定位を説明するための図である。It is a figure for demonstrating the same sound image localization. 本発明の第2実施形態におけるサウンドデータ配信システムの構成を示す図である。It is a figure which shows the structure of the sound data delivery system in 2nd Embodiment of this invention. 同サウンドデータ配信システムに含まれるサウンドデータ配信サーバに記憶される情報を示す図である。It is a figure which shows the information memorize | stored in the sound data delivery server contained in the sound data delivery system. 同サウンドデータ配信サーバに記憶される情報を示す図である。It is a figure which shows the information memorize | stored in the sound data delivery server. 同サウンドデータ配信システムに含まれるコントロールサーバに記憶される情報を示す図である。It is a figure which shows the information memorize | stored in the control server contained in the sound data delivery system. 同サウンドデータ配信システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the sound data delivery system. 本発明の第3実施形態におけるサウンドデータシステムの構成を示す図である。It is a figure which shows the structure of the sound data system in 3rd Embodiment of this invention. 同端末の構成を示す図である。It is a figure which shows the structure of the terminal. 同サウンドデータ管理テーブルの内容を例示した図である。It is the figure which illustrated the contents of the sound data management table. 本発明の第4実施形態における端末の構成を示す図である。It is a figure which shows the structure of the terminal in 4th Embodiment of this invention. 本発明の変形例2における端末の構成を示す図である。It is a figure which shows the structure of the terminal in the modification 2 of this invention. 同超音波発生器から発生される超音波を説明するための図である。It is a figure for demonstrating the ultrasonic wave generate | occur | produced from the ultrasonic generator.

符号の説明Explanation of symbols

100,700,800,900…端末、110…制御部、120…指示入力部、130…無線通信部、140…測位部、145…衛星電波受信部、150…方位検出部、160…オーディオ信号生成部、170…加工部、172…パラメータ生成部、173…ディレイパラメータ生成部、174…アンプパラメータ生成部、176…遅延部、178…アンプ、180…混合部、190…オーディオ信号出力部、200…ヘッドフォン、210…方位センサ、220,230…放音部、300,610A,610B,610C…サウンドデータ配信サーバ、310…制御部、320…通信部、330…記憶部、400…衛星群、500…移動通信網、510…基地局、600…コントロールサーバ、710,810…記憶部、720…サウンドデータ管理部、730…受信部、740…送信部記憶部、811…自サウンドデータ記憶部、812…他サウンドデータ記憶部、910…超音波発生器、920…相対距離・方位算出部。

DESCRIPTION OF SYMBOLS 100,700,800,900 ... Terminal, 110 ... Control part, 120 ... Instruction input part, 130 ... Wireless communication part, 140 ... Positioning part, 145 ... Satellite radio wave receiving part, 150 ... Direction detection part, 160 ... Audio signal generation 170, processing unit, 172 ... parameter generation unit, 173 ... delay parameter generation unit, 174 ... amplifier parameter generation unit, 176 ... delay unit, 178 ... amplifier, 180 ... mixing unit, 190 ... audio signal output unit, 200 ... Headphone, 210 ... Direction sensor, 220, 230 ... Sound emitting unit, 300, 610A, 610B, 610C ... Sound data distribution server, 310 ... Control unit, 320 ... Communication unit, 330 ... Storage unit, 400 ... Satellite group, 500 ... Mobile communication network, 510 ... base station, 600 ... control server, 710, 810 ... storage unit, 720 ... sound Data management unit, 730 ... receiver, 740 ... transmitting unit storage section, 811 ... own sound data storage section, 812 ... other sound data storage section, 910 ... ultrasonic generator, 920 ... the relative distance and orientation calculation unit.

Claims (2)

サウンドシステムを構成する他端末から、当該他端末を識別するための端末識別情報、当該他端末の位置をあらわす端末位置情報、当該他端末の方位をあらわす方位情報を受信する受信手段と、
前記サウンドシステムを構成する自端末の位置及び方位を検出する位置・方位検出手段と、
複数のサウンドデータを予め記憶するとともに、各サウンドデータの選択条件として各サウンドデータに対応する前記端末識別情報を各サウンドデータに対応づけて予め記憶する記憶手段と、
受信された前記他端末の前記端末識別情報に対応づけて記憶されているサウンドデータを前記記憶手段から選択する選択手段と、
前記自端末の位置及び方位を基準として、受信された前記端末位置情報及び方位情報に示される前記他端末の位置及び方位に、選択された前記サウンドデータに対応する音の音像を定位させる定位手段と
を具備することを特徴とする音像定位端末。
Receiving means for receiving terminal identification information for identifying the other terminal, terminal position information representing the position of the other terminal, direction information representing the direction of the other terminal, from another terminal constituting the sound system;
Position / orientation detection means for detecting the position and orientation of the terminal constituting the sound system;
Storage means for storing a plurality of sound data in advance and storing the terminal identification information corresponding to each sound data in advance as a selection condition for each sound data in association with each sound data;
Selecting means for selecting, from the storage means, sound data stored in association with the received terminal identification information of the other terminal ;
Localization means for localizing the sound image of the sound corresponding to the selected sound data at the position and orientation of the other terminal indicated in the received terminal location information and orientation information with reference to the location and orientation of the terminal itself And a sound image localization terminal comprising:
サウンドシステムを構成する他端末から、当該他端末を識別するための端末識別情報を受信する受信手段と、
複数のサウンドデータを予め記憶するとともに、各サウンドデータの選択条件として各サウンドデータに対応する前記端末識別情報を各サウンドデータに対応づけて予め記憶する記憶手段と、
受信された前記他端末の前記端末識別情報に対応づけて記憶されているサウンドデータを前記記憶手段から選択する選択手段と、
サウンドシステムを構成する自端末と他端末との相対的な距離及び方向を求める相対距離・方向算出手段と、
前記自端末の位置及び方位を基準として、前記求めた方向に前記求めた距離だけ離れた位置に、選択された前記サウンドデータに対応する音の音像を定位させる定位手段と
を具備することを特徴とする音像定位端末。
Receiving means for receiving terminal identification information for identifying the other terminal from another terminal constituting the sound system;
Storage means for storing a plurality of sound data in advance and storing the terminal identification information corresponding to each sound data in advance as a selection condition for each sound data in association with each sound data;
Selecting means for selecting, from the storage means, sound data stored in association with the received terminal identification information of the other terminal ;
A relative distance / direction calculating means for obtaining a relative distance and direction between the own terminal and another terminal constituting the sound system;
Localization means for localizing a sound image of the sound corresponding to the selected sound data at a position separated by the determined distance in the determined direction with reference to the position and orientation of the terminal. Sound image localization terminal.
JP2004129970A 2004-04-26 2004-04-26 Sound localization terminal Expired - Fee Related JP4529528B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004129970A JP4529528B2 (en) 2004-04-26 2004-04-26 Sound localization terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004129970A JP4529528B2 (en) 2004-04-26 2004-04-26 Sound localization terminal

Publications (2)

Publication Number Publication Date
JP2005311974A JP2005311974A (en) 2005-11-04
JP4529528B2 true JP4529528B2 (en) 2010-08-25

Family

ID=35440182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004129970A Expired - Fee Related JP4529528B2 (en) 2004-04-26 2004-04-26 Sound localization terminal

Country Status (1)

Country Link
JP (1) JP4529528B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4892537B2 (en) * 2008-11-14 2012-03-07 ヤフー株式会社 Server, method, and system for managing location information of a plurality of moving users
JP5245808B2 (en) * 2008-12-25 2013-07-24 ヤマハ株式会社 Pointing system
WO2022070319A1 (en) * 2020-09-30 2022-04-07 日本電気株式会社 Information processing device, control method, non-transitory computer-readable medium, and information processing system
JP7434595B2 (en) 2020-10-26 2024-02-20 株式会社ジェイテクト Audio advertisement distribution system, method and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006132A (en) * 2001-06-25 2003-01-10 Matsushita Electric Ind Co Ltd Chatting device using voice, chat program and chatting method
WO2003058473A1 (en) * 2002-01-09 2003-07-17 Lake Technology Limited Interactive spatalized audiovisual system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5347306A (en) * 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP3182736B2 (en) * 1994-01-14 2001-07-03 日本電信電話株式会社 Virtual space display system
JP3070719B2 (en) * 1995-07-05 2000-07-31 日本電信電話株式会社 Virtual space sharing method and apparatus for implementing the method
JP3027793B2 (en) * 1994-08-03 2000-04-04 日本電信電話株式会社 Virtual space sharing device
JPH0934868A (en) * 1995-07-14 1997-02-07 Nippon Telegr & Teleph Corp <Ntt> Distributed cooperation learning aid method and system
JP3834848B2 (en) * 1995-09-20 2006-10-18 株式会社日立製作所 Sound information providing apparatus and sound information selecting method
JP3932462B2 (en) * 1997-05-27 2007-06-20 ソニー株式会社 Client device, image display control method, shared virtual space providing device and method, and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006132A (en) * 2001-06-25 2003-01-10 Matsushita Electric Ind Co Ltd Chatting device using voice, chat program and chatting method
WO2003058473A1 (en) * 2002-01-09 2003-07-17 Lake Technology Limited Interactive spatalized audiovisual system
JP2005514702A (en) * 2002-01-09 2005-05-19 レイク テクノロジー リミティド Interactive stereoscopic audiovisual system

Also Published As

Publication number Publication date
JP2005311974A (en) 2005-11-04

Similar Documents

Publication Publication Date Title
US20150326963A1 (en) Real-time Control Of An Acoustic Environment
JP4438816B2 (en) Sound data distribution system
CN105637903B (en) System and method for generating sound
Loomis et al. Navigation system for the blind: Auditory display modes and guidance
EP2669634A1 (en) A personal navigation system with a hearing device
CN101256082B (en) Method of direction-guidance using 3D sound and navigation system using the method
US20140025287A1 (en) Hearing device providing spoken information on selected points of interest
US20140107916A1 (en) Navigation system with a hearing device
EP2725818A1 (en) A hearing device with a distance measurement unit
US20140219485A1 (en) Personal communications unit for observing from a point of view and team communications system comprising multiple personal communications units for observing from a point of view
US8886451B2 (en) Hearing device providing spoken information on the surroundings
WO2006075606A1 (en) Audio guide device, audio guide method, and audio guide program
JP2007035043A (en) Receiver, transmitter, and location recognition system and method
JP4529528B2 (en) Sound localization terminal
JP3982431B2 (en) Sound data distribution system and sound data distribution apparatus
JP4449536B2 (en) Volume control device
JP2010128952A (en) Receiver and voice guide system
JP2018160714A (en) Acoustic system, headphone device, speaker device, and acoustic output method
JPH11145893A (en) Sound reproducing device and sound reproducing system
Villegas et al. GABRIEL: Geo-Aware Broadcasting For In-Vehicle Entertainment And Localizability
JP3750198B2 (en) Sound image localization device
JP6701756B2 (en) INFORMATION PROVIDING SYSTEM, INFORMATION PROVIDING DEVICE, AND INFORMATION PROVIDING METHOD
JP5332565B2 (en) Voice guide device and voice guide system
JP6866947B2 (en) Information provision system and information provision method
JP7063353B2 (en) Voice navigation system and voice navigation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091020

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100518

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100531

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140618

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees