JP7463796B2 - DEVICE SYSTEM, SOUND QUALITY CONTROL METHOD AND SOUND QUALITY CONTROL PROGRAM - Google Patents

DEVICE SYSTEM, SOUND QUALITY CONTROL METHOD AND SOUND QUALITY CONTROL PROGRAM Download PDF

Info

Publication number
JP7463796B2
JP7463796B2 JP2020054233A JP2020054233A JP7463796B2 JP 7463796 B2 JP7463796 B2 JP 7463796B2 JP 2020054233 A JP2020054233 A JP 2020054233A JP 2020054233 A JP2020054233 A JP 2020054233A JP 7463796 B2 JP7463796 B2 JP 7463796B2
Authority
JP
Japan
Prior art keywords
sound
user
sound quality
door
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020054233A
Other languages
Japanese (ja)
Other versions
JP2021158426A (en
Inventor
幸生 多田
和也 粂原
光希 有田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2020054233A priority Critical patent/JP7463796B2/en
Priority to US17/210,368 priority patent/US11693621B2/en
Publication of JP2021158426A publication Critical patent/JP2021158426A/en
Application granted granted Critical
Publication of JP7463796B2 publication Critical patent/JP7463796B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • H04S7/306For headphones
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Stereophonic System (AREA)

Description

この発明の一実施形態は、遮蔽物および遮蔽物によって隠されている仮想音源の移動に応じて、仮想音源の音質を変化させる音響デバイスおよび音質制御方法に関する。 One embodiment of the present invention relates to an acoustic device and a sound quality control method that changes the sound quality of a virtual sound source in response to the movement of an obstruction and the movement of the virtual sound source that is hidden by the obstruction.

ユーザに、ヘッドホンまたはイヤホンなどの音響デバイスを装用させて、拡張現実(AR:Augmented Reality)を体験させるARシステムが提案されている。ARシステムは、ユーザが滞在している場所に応じた音声を音響デバイスから放音する。ARシステムは、仮想音源を所定の定位位置に定位させるために、ユーザの現在位置およびユーザの頭部の向きを検出する。ARシステムは、検出された位置や頭部の向きに応じた頭部伝達関数を用いて音声に特定の信号処理を加えることで仮想音源を所定位置に定位させている。 An AR system has been proposed that allows a user to experience augmented reality (AR) by wearing an acoustic device such as headphones or earphones. The AR system emits sound from the acoustic device according to the location where the user is staying. The AR system detects the user's current position and the direction of the user's head in order to localize a virtual sound source at a predetermined localization position. The AR system localizes the virtual sound source at a predetermined position by applying specific signal processing to the sound using a head-related transfer function according to the detected position and head direction.

頭部伝達関数とは、音源位置からユーザの両耳の外耳道までの音声の伝達関数である。音源位置で発生した音声がユーザの耳に到達するまでの間に、頭部形状、耳介形状などによりその音源方向に応じた特性で周波数特性が変化する。頭部伝達関数は、音声がユーザの耳に到達するまでの間に変化を受けた周波数特性を表した関数であり、音源方向毎に用意されている。ユーザは、各音源方向特有の周波数特性を聞き分けて、音声の到来方向を判断している。したがって、ARシステムが、音声を所定方向の頭部伝達関数を用いて加工して再生することにより、ユーザにさも所定方向から音声が聞こえてきたかのような感覚をもたせることができる。 The head-related transfer function is the transfer function of sound from the sound source position to the ear canals of both user's ears. When sound generated at the sound source position reaches the user's ears, the frequency characteristics change with characteristics according to the direction of the sound source due to the head shape, auricle shape, etc. The head-related transfer function is a function that represents the frequency characteristics that change before the sound reaches the user's ears, and is prepared for each sound source direction. The user determines the direction from which the sound is coming by listening to the frequency characteristics specific to each sound source direction. Therefore, by processing the sound using the head-related transfer function for a specified direction and playing it back, the AR system can give the user the sensation that the sound is coming from the specified direction.

ユーザの位置と仮想音源との間に、現実のまたは仮想的な遮蔽物がある場合、遮蔽物の影響が音質に反映されることが好ましい。例えば、特許文献1には、ユーザが滞在している場所に応じた道順を提示することにより、ユーザをナビゲーションする音声ナビゲーションシステムが開示されている。この文献では、目的物(目的地)についてのガイド音声が再生される際、目的物とユーザの位置との間に遮蔽物がある場合、音質を変化(減衰)させることが提案されている。なお、特許文献1のシステムは、目的物とユーザの位置との間に遮蔽物がある場合にナビゲーション音声を減衰させるものであり、目的物の位置にナビゲーション音声を定位するものではない。 When there is a real or virtual obstruction between the user's position and the virtual sound source, it is preferable that the effect of the obstruction is reflected in the sound quality. For example, Patent Document 1 discloses a voice navigation system that navigates the user by presenting a route according to the location where the user is staying. This document proposes that when a guide voice for an object (destination) is played back, if there is an obstruction between the object and the user's position, the sound quality is changed (attenuated). Note that the system of Patent Document 1 attenuates the navigation voice when there is an obstruction between the object and the user's position, but does not localize the navigation voice to the object's position.

国際公開第2017/018298International Publication No. 2017/018298

従来のARシステムは、仮想音源の定位位置が現実のまたは仮想的な扉や窓などの遮蔽物によって遮蔽された場所であるか否かを考慮して仮想音源の音質を制御していなかった。このため、拡張現実のリアリティが低下してしまう問題があった。 Conventional AR systems do not control the sound quality of virtual sound sources by taking into account whether the location of the virtual sound source is blocked by a real or virtual door, window, or other obstruction. This causes a problem of reducing the realism of augmented reality.

そこで、本発明の一実施形態に係る目的の一つは、現実世界の扉や窓などの遮蔽物による仮想音源の遮蔽状態を考慮して、仮想音源の聞こえ方をよりリアルに加工できるようにすることにある。 Therefore, one of the objectives of one embodiment of the present invention is to make it possible to process the way a virtual sound source sounds more realistically by taking into account the state of obstruction of the virtual sound source by obstacles such as doors and windows in the real world.

本発明の一実施形態に係るデバイスシステムは、デバイス、センサおよび音声生成手段を備える。デバイスは、ユーザが装用する。センサは、移動可能な遮蔽物の移動を検出する。音声処理部は、遮蔽物の反対側に定位された仮想音源から遮蔽物で遮蔽された場合の第1の音質の音声を生成してデバイスから放音し、遮蔽物が仮想音源を遮蔽する位置から移動したことをセンサが検出したとき、音声の音質を、遮蔽物で遮蔽された音質から遮蔽されない場合の第2の音質に変化させる。 A device system according to one embodiment of the present invention includes a device, a sensor, and a sound generating means. The device is worn by a user. The sensor detects the movement of a movable obstruction. The sound processing unit generates sound of a first sound quality when a virtual sound source located on the opposite side of the obstruction is obstructed by the obstruction and emits the sound from the device, and when the sensor detects that the obstruction has moved from a position obstructing the virtual sound source, changes the sound quality of the sound from the sound quality when obstructed by the obstruction to a second sound quality when not obstructed.

本発明の一実施形態に係る音質制御方法は、ユーザが装用する音響デバイスおよび移動可能な遮蔽物の移動を検出するセンサを含むデバイスシステムが、遮蔽物の反対側に定位された仮想音源から遮蔽物で遮蔽された場合の第1の音質の音声を生成して音響デバイスから放音し、遮蔽物が移動したことをセンサが検出したとき、音声の音質を第1の音質から遮蔽物に遮蔽されない場合の第2の音質に変化させることを特徴とする。 A sound quality control method according to one embodiment of the present invention is characterized in that a device system including an acoustic device worn by a user and a sensor for detecting the movement of a movable obstruction generates sound of a first sound quality when obstructed by an obstruction from a virtual sound source positioned on the opposite side of the obstruction, emits the sound from the acoustic device, and when the sensor detects that the obstruction has moved, changes the sound quality of the sound from the first sound quality to a second sound quality when not obstructed by an obstruction.

本発明の一実施形態に係る音質制御プログラムは、ユーザが装用する音響デバイスおよび移動可能な遮蔽物の移動を検出するセンサと通信する携帯端末装置の制御部を、遮蔽物の反対側に定位された仮想音源から遮蔽物で遮蔽された場合の第1の音質の音声を生成して音響デバイスから放音し、遮蔽物が移動したことをセンサが検出したとき、音声の音質を第1の音質から遮蔽物に遮蔽されない場合の第2の音質に変化させる音声制御手段として機能させることを特徴とする。 A sound quality control program according to one embodiment of the present invention is characterized in that it causes a control unit of a mobile terminal device that communicates with an acoustic device worn by a user and a sensor that detects the movement of a movable obstruction to function as a sound control means that generates sound of a first sound quality when obstructed by an obstruction from a virtual sound source positioned on the opposite side of the obstruction, emits the sound from the acoustic device, and when the sensor detects that the obstruction has moved, changes the sound quality of the sound from the first sound quality to a second sound quality when not obstructed by an obstruction.

この発明の一実施形態によれば、遮蔽物による仮想音源の遮蔽状態を考慮して、仮想音源の聞こえ方をよりリアルに加工することが可能となる。 According to one embodiment of the present invention, it is possible to process the way a virtual sound source sounds more realistically by taking into account the state of obstruction of the virtual sound source by an obstruction object.

図1は、この発明の実施形態である音声再生システムの構成を示す図である。FIG. 1 is a diagram showing the configuration of an audio reproduction system according to an embodiment of the present invention. 図2は、音声再生システムの携帯端末装置のブロック図である。FIG. 2 is a block diagram of a portable terminal device of the audio reproduction system. 図3は、音声再生システムのヘッドホンのブロック図である。FIG. 3 is a block diagram of a headphone of the audio reproduction system. 図4は、音声再生システムのドアセンサのブロック図である。FIG. 4 is a block diagram of a door sensor of the audio playback system. 図5は、音声再生システムが使用される建物の平面図である。FIG. 5 is a plan view of a building in which the audio reproduction system is used. 図6は、音声再生システムにおける間接音を説明する図である。FIG. 6 is a diagram for explaining indirect sound in a sound reproduction system. 図7は、音声再生システムにおける直接音を説明する図である。FIG. 7 is a diagram for explaining a direct sound in an audio reproduction system. 図8は、音声再生システムにおける透過音を説明する図である。FIG. 8 is a diagram for explaining transmitted sound in an audio reproduction system. 図9は、携帯端末装置の信号処理部の構成を示す図である。FIG. 9 is a diagram showing the configuration of a signal processing unit of the portable terminal device. 図10は、携帯端末装置の処理動作を示すフローチャートである。FIG. 10 is a flowchart showing the processing operation of the mobile terminal device. 図11は、携帯端末装置の処理動作を示すフローチャートである。FIG. 11 is a flowchart showing the processing operation of the mobile terminal device. 図12は、携帯端末装置の処理動作を示すフローチャートである。FIG. 12 is a flowchart showing the processing operation of the mobile terminal device. 図13は、音声再生システムにおいて音源が移動する場合の建物の平面図である。FIG. 13 is a plan view of a building in an audio reproduction system in which a sound source moves.

図1は、本発明が適用される音声再生システム1の構成を示す図である。図2は、音声再生システム1の携帯端末装置10のブロック図である。音声再生システム1は、携帯端末装置10、音響デバイスであるヘッドホン20、および、ドアセンサ30を含む。図1は、ユーザLが、携帯端末装置10を手に持ち、ヘッドホン20を装用した例を示している。ユーザLは、この装備で図5に示す部屋201に入る。ユーザLが部屋201に入ると、携帯端末装置10は、シナリオファイル72(単に、シナリオ72とも言う)に基づいて、部屋202に定位する音声を再生する。ヘッドホン20が本発明の音響デバイスに対応する。 Fig. 1 is a diagram showing the configuration of an audio reproduction system 1 to which the present invention is applied. Fig. 2 is a block diagram of a mobile terminal device 10 of the audio reproduction system 1. The audio reproduction system 1 includes the mobile terminal device 10, headphones 20 which are an acoustic device, and a door sensor 30. Fig. 1 shows an example in which a user L holds the mobile terminal device 10 in his/her hand and wears the headphones 20. With this equipment, the user L enters a room 201 shown in Fig. 5. When the user L enters the room 201, the mobile terminal device 10 reproduces audio localized in the room 202 based on a scenario file 72 (also simply referred to as the scenario 72). The headphones 20 correspond to the acoustic device of the present invention.

携帯端末装置10は、例えば、スマートホン(多機能携帯電話)が用いられる。携帯端末装置10とヘッドホン20とは、Bluetooth(登録商標)で接続されており、相互に通信可能である。携帯端末装置10とヘッドホン20との接続は、Bluetoothに限定されず、他の無線通信規格または有線でもよい。ヘッドホン20は、2個のスピーカ21R,21Lとヘッドバンド22とを組み合わせた、いわゆる耳掛け型である。ヘッドホン20は、ヘッドバンド22に姿勢センサ23を有し、ユーザLの頭部の向きをトラッキング可能である。姿勢センサ23は、3軸ジャイロ(角速度)センサ、6軸センサ(3軸ジャイロセンサ+3軸モーション(加速度)センサ)、および、9軸センサ(3軸ジャイロセンサ+3軸モーションセンサ+3軸コンパス(方位)センサ)のいずれが用いられてもよい。音響デバイスとして、ヘッドホン20に代えてイヤホンが用いられてもよい。 The mobile terminal device 10 is, for example, a smartphone (multi-function mobile phone). The mobile terminal device 10 and the headphones 20 are connected by Bluetooth (registered trademark) and can communicate with each other. The connection between the mobile terminal device 10 and the headphones 20 is not limited to Bluetooth, and may be other wireless communication standards or wired. The headphones 20 are a so-called ear-hook type that combines two speakers 21R and 21L with a headband 22. The headphones 20 have a posture sensor 23 on the headband 22 and can track the orientation of the user L's head. The posture sensor 23 may be any of a three-axis gyro (angular velocity) sensor, a six-axis sensor (three-axis gyro sensor + three-axis motion (acceleration) sensor), and a nine-axis sensor (three-axis gyro sensor + three-axis motion sensor + three-axis compass (direction) sensor). An earphone may be used as the acoustic device instead of the headphones 20.

ドアセンサ30は、固定壁501(図5参照)に設けられたドア502の開閉状態を検出する。ドアセンサ30は、携帯端末装置10にドア502の開閉状態の情報を送信する。ドアセンサ30と携帯端末装置10とは、Bluetooth Low Energy(BLE)で接続されている。BLEおよび通常のBluetoothは、一つのデバイスで併用可能である。この実施形態でBluetoothは、上述のように、携帯端末装置10とヘッドホン20との接続に用いられている。ドアセンサ30と携帯端末装置10との接続形態は、BLEに限定されない。例えばドアセンサ30と携帯端末装置10は、Wi-Fi(登録商標)または携帯通信ネットワーク等、インターネットを介して接続してもよい。 The door sensor 30 detects the open/closed state of a door 502 provided on a fixed wall 501 (see FIG. 5). The door sensor 30 transmits information on the open/closed state of the door 502 to the mobile terminal device 10. The door sensor 30 and the mobile terminal device 10 are connected by Bluetooth Low Energy (BLE). BLE and normal Bluetooth can be used together in one device. In this embodiment, Bluetooth is used to connect the mobile terminal device 10 and the headphones 20, as described above. The connection between the door sensor 30 and the mobile terminal device 10 is not limited to BLE. For example, the door sensor 30 and the mobile terminal device 10 may be connected via the Internet, such as Wi-Fi (registered trademark) or a mobile communication network.

図2は、携帯端末装置10のブロック図である。携帯端末装置10は、ハードウェア的には、制御部100、記憶部103、音声生成部105、信号処理部106および通信処理部107などを備えたスマートホンである。制御部100は、CPUを備えている。記憶部103は、ROM、RAMおよびフラッシュメモリを備えている。 Figure 2 is a block diagram of the mobile terminal device 10. In terms of hardware, the mobile terminal device 10 is a smartphone equipped with a control unit 100, a memory unit 103, a voice generation unit 105, a signal processing unit 106, and a communication processing unit 107. The control unit 100 includes a CPU. The memory unit 103 includes a ROM, a RAM, and a flash memory.

携帯端末装置10、ヘッドホン20およびドアセンサ30は、携帯端末装置10が、記憶部103に記憶されているプログラム70を起動することにより音声再生システム1として機能する。 The mobile terminal device 10, the headphones 20, and the door sensor 30 function as the audio playback system 1 when the mobile terminal device 10 activates the program 70 stored in the memory unit 103.

記憶部103は、上述のプログラム70を記憶しているとともに、シナリオファイル72、および、音声データ73を記憶する。プログラム70は、携帯端末装置10、ヘッドホン20およびドアセンサ30を音声再生システムとして機能させるためのアプリケーションプログラムである。シナリオファイル72は、ユーザLに対して所定の音声を順次再生するための手順が記載されたファイルである。シナリオファイル72は、音声を再生する場所、例えば、図5に示す建物200の形状や壁500の配置などが記載されたレイアウトテーブル72Aを含んでいる。音声データ73は、シナリオファイル72にしたがって再生される音声のデータである。音声データ73は、たとえばPCMやMP4のような音声信号であってもよく、音声生成部105をシンセサイザとして利用する音声合成データであってもよい。なお、音声データ73が音声信号の場合、制御部100が、音声生成部105として、音声データ73を読み出してもよい。 The storage unit 103 stores the above-mentioned program 70, as well as a scenario file 72 and audio data 73. The program 70 is an application program for causing the mobile terminal device 10, the headphones 20, and the door sensor 30 to function as an audio playback system. The scenario file 72 is a file in which a procedure for sequentially playing back predetermined audio for the user L is described. The scenario file 72 includes a layout table 72A in which the location where the audio is to be played back, for example, the shape of the building 200 and the arrangement of the walls 500 shown in FIG. 5, are described. The audio data 73 is data of audio played back according to the scenario file 72. The audio data 73 may be, for example, an audio signal such as PCM or MP4, or may be audio synthesis data using the audio generation unit 105 as a synthesizer. When the audio data 73 is an audio signal, the control unit 100 may read out the audio data 73 as the audio generation unit 105.

フィルタ係数71は、頭部伝達関数および部屋201の所定位置におけるインパルス応答を含んでいる。これらのフィルタ係数は、図5等に示す仮想音源SP1をユーザLに対して所定の位置に定位させるために使用される。フィルタ係数71は、信号処理部106において使用される。なお、以下の記載において、SP1を仮想音源位置とも言う。 The filter coefficients 71 include a head-related transfer function and an impulse response at a predetermined position in the room 201. These filter coefficients are used to localize the virtual sound source SP1 shown in FIG. 5 etc. at a predetermined position relative to the user L. The filter coefficients 71 are used in the signal processing unit 106. In the following description, SP1 is also referred to as the virtual sound source position.

制御部100は、携帯端末装置10の動作を制御する。制御部100は、プログラム70が起動されることにより、位置決定部101、頭部方向決定部102としても機能する。位置決定部101は、携帯端末装置10の現在位置を決定する。音声再生システム1では、携帯端末装置10の位置がユーザLの位置として使用される。位置決定部101は、屋外であれば、GPS、みちびき等の衛星測位システムが用いられればよい。位置決定部101は、屋内であれば、屋内に設置されたビーコン等の位置測定システムが用いられればよい。屋内の場合でも、位置決定部101は、まず屋外で衛星測位システムを用いて正確な位置を決定しておき(キャリブレーション)、その後は姿勢センサ23を用いてユーザLの移動をトレースして屋内での位置を決定してもよい。ユーザLの移動をトレースする場合、姿勢センサ23は、ユーザLのモーションを検出できる6軸センサまたは9軸センサが好適である。 The control unit 100 controls the operation of the mobile terminal device 10. When the program 70 is started, the control unit 100 also functions as a position determination unit 101 and a head direction determination unit 102. The position determination unit 101 determines the current position of the mobile terminal device 10. In the audio reproduction system 1, the position of the mobile terminal device 10 is used as the position of the user L. If the position determination unit 101 is outdoors, a satellite positioning system such as GPS or Michibiki may be used. If the position determination unit 101 is indoors, a position measurement system such as a beacon installed indoors may be used. Even if indoors, the position determination unit 101 may first determine an accurate position using a satellite positioning system outdoors (calibration), and then use the attitude sensor 23 to trace the movement of the user L to determine the indoor position. When tracing the movement of the user L, the attitude sensor 23 is preferably a 6-axis sensor or 9-axis sensor that can detect the motion of the user L.

頭部方向決定部102は、ヘッドホン20から取得した姿勢センサ23の検出値に基づいてユーザLの頭部の向きを決定する。姿勢センサ23が3軸のジャイロセンサの場合、制御部100は、最初にユーザLに所定の方向を向かせて頭部方向を決定する(キャリブレーション)。その後、制御部100は、姿勢センサ23から角速度情報を取得し、この角速度情報を頭部方向に積算することで現在のユーザLの頭部の向きを決定する。姿勢センサ23がジャイロセンサおよびコンパスセンサを含む場合、応答の速いジャイロセンサでユーザLの頭部方向の変化に追従しつつ、応答の遅いコンパスセンサでジャイロセンサの積分誤差をキャンセルするようにすればよい。 The head direction determination unit 102 determines the orientation of the user L's head based on the detection value of the orientation sensor 23 acquired from the headphones 20. If the orientation sensor 23 is a three-axis gyro sensor, the control unit 100 first determines the head direction by having the user L face a specified direction (calibration). The control unit 100 then acquires angular velocity information from the orientation sensor 23 and determines the current orientation of the user L's head by integrating this angular velocity information with the head direction. If the orientation sensor 23 includes a gyro sensor and a compass sensor, it is sufficient to use the fast-response gyro sensor to follow changes in the head direction of the user L, while canceling the integral error of the gyro sensor with the slow-response compass sensor.

音声生成部105は、音声データ73を再生する。音声データ73は、たとえばPCMやMP4のような音声信号であってもよく、音声生成部105をシンセサイザとして利用する音声合成データであってもよい。信号処理部106は、仮想音源SP1(図5参照)およびユーザLの位置に応じて、音声の音質を制御する。また、信号処理部106は、位置決定部101、頭部方向決定部102から取得したユーザLの位置および向きに応じて音声の定位を決定し、定位方向の頭部伝達関数を読み出して、音声をフィルタリングする。音声生成部105および信号処理部106が、本発明の音声処理部に対応する。 The sound generation unit 105 plays back the sound data 73. The sound data 73 may be a sound signal such as PCM or MP4, or may be sound synthesis data using the sound generation unit 105 as a synthesizer. The signal processing unit 106 controls the quality of the sound according to the position of the virtual sound source SP1 (see FIG. 5) and the user L. The signal processing unit 106 also determines the localization of the sound according to the position and orientation of the user L acquired from the position determination unit 101 and the head direction determination unit 102, reads out the head related transfer function of the localization direction, and filters the sound. The sound generation unit 105 and the signal processing unit 106 correspond to the sound processing unit of the present invention.

音声再生システム1は、シナリオファイル72に基づき、部屋201にいるユーザLに対して、壁500で隔てられた隣の部屋202に音声を定位させる(図5-8等参照)。壁500にはドア502が設けられている。ドア502が閉じているとき、音声再生システムは、壁500で遮られた向こうの部屋から聞こえてくるような音質で音声を再生する。ドア502が開いているとき、音声再生システムは、部屋202で響いている音声がドア枠503を通って聞こえてくるような音質で音声を再生する。携帯端末装置10(通信処理部107)は、処理された音声をヘッドホン20に送信する。ヘッドホン20は、受信した音声をスピーカ21R,21Lから出力する。これにより、ユーザLは、シナリオファイル72にしたがって、予め決められた定位位置から聞こえてくる聴感で音声を聞くことができる。 Based on the scenario file 72, the audio reproduction system 1 localizes audio to the adjacent room 202 separated by a wall 500 for the user L in the room 201 (see FIG. 5-8, etc.). The wall 500 is provided with a door 502. When the door 502 is closed, the audio reproduction system reproduces audio with a sound quality that sounds like the audio is coming from the other room blocked by the wall 500. When the door 502 is open, the audio reproduction system reproduces audio with a sound quality that sounds like the audio reverberating in the room 202 is coming through the door frame 503. The mobile terminal device 10 (communication processing unit 107) transmits the processed audio to the headphones 20. The headphones 20 output the received audio from the speakers 21R and 21L. This allows the user L to hear the audio with an auditory sensation of coming from a predetermined localization position according to the scenario file 72.

通信処理部107は、Bluetooth対応機器であるヘッドホン20、および、ドアセンサ30と通信する。通信処理部107は、ヘッドホン20の通信処理部24とBluetoothで通信する。通信処理部107は、ドアセンサ30の通信処理部32とBluetooth BLEで通信する。通信処理部107は、ヘッドホン20に対してオーディオ信号の送信を行うとともに、ヘッドホン20から姿勢センサ23の検出値を受信する。通信処理部107は、ドアセンサ30からドア502の開閉状態の情報を受信する。 The communication processing unit 107 communicates with the headphones 20 and the door sensor 30, which are Bluetooth-compatible devices. The communication processing unit 107 communicates with the communication processing unit 24 of the headphones 20 via Bluetooth. The communication processing unit 107 communicates with the communication processing unit 32 of the door sensor 30 via Bluetooth BLE. The communication processing unit 107 transmits an audio signal to the headphones 20 and receives the detection value of the attitude sensor 23 from the headphones 20. The communication processing unit 107 receives information on the open/closed state of the door 502 from the door sensor 30.

図3は、ヘッドホン20の構成を示すブロック図である。ヘッドホン20は、スピーカ21L,21R、姿勢センサ23、通信処理部24、AIF25、DAC26L,26R、アンプ27L,27Rを備えている。 Figure 3 is a block diagram showing the configuration of the headphones 20. The headphones 20 include speakers 21L and 21R, a position sensor 23, a communication processing unit 24, an AIF 25, DACs 26L and 26R, and amplifiers 27L and 27R.

通信処理部24は、BluetoothまたはBLEで携帯端末装置10(通信処理部107)と通信する。AIF(Audio Interface)25は、携帯端末装置10から受信した音声信号を左右チャンネルの信号に分離してDAC26L,26Rに送信する。DAC(Digtal to Analog Converter)26L,26Rは、AIF25から入力されたデジタル信号をアナログ信号に変換する。アンプ27L,27Rは、DAC26L,26Rから入力されたアナログ信号を増幅してスピーカ21L,21Lに供給する。これにより、携帯端末装置10から受信した音声信号は、音響としてスピーカ21L,21Rから放音される。ヘッドホン20は、ユーザLの頭部に装用されているため、スピーカ21,21Rから放音された音声はユーザLの左右の耳で聴取される。 The communication processing unit 24 communicates with the mobile terminal device 10 (communication processing unit 107) via Bluetooth or BLE. The AIF (Audio Interface) 25 separates the audio signal received from the mobile terminal device 10 into left and right channel signals and transmits them to the DACs 26L and 26R. The DACs (Digital to Analog Converters) 26L and 26R convert the digital signal input from the AIF 25 into an analog signal. The amplifiers 27L and 27R amplify the analog signal input from the DACs 26L and 26R and supply it to the speakers 21L and 21L. As a result, the audio signal received from the mobile terminal device 10 is emitted as sound from the speakers 21L and 21R. Since the headphones 20 are worn on the head of the user L, the sound emitted from the speakers 21 and 21R is heard by the left and right ears of the user L.

図4は、ドアセンサ30ブロック図である。ドアセンサ30は、図5に示されるように、ドア502のヒンジ近傍に取り付けられ、ドア502の固定壁501に対する開閉状態の情報を検出および出力する。開閉状態の情報は、固定壁501に対する角度で表される。ドアセンサ30は、センサモジュール31および通信処理部32を備えている。センサモジュール31は、ドア502の開閉状態を検出する。センサモジュール31は、例えば、ロータリエンコーダ、半導体センサ、または、光電センサなどで構成される。ロータリエンコーダは、ドア502のヒンジと同軸で回転してドア502の回転角度または絶対角度を検出する。半導体センサは、ドア502の開閉による角速度を検出し、この角速度を積分してドア502の角度を算出する。光学センサは、ドア502および固定壁501にそれぞれ発光部および受光部を有し、発光部から受光部に至る光の位置の変化によってドア502の角度を検出する。センサモジュール31は、上に述べたものに限定されない。たとえば、センサモジュール31が、ポテンショメータであってもよい。また、センサモジュール31が、ドア502が完全に閉じているか、少しでも開いているかのみを検出すればよい場合、センサモジュール31はリミットスイッチでもよい。通信処理部32は、センサモジュール31が検出したドア502の開閉状態の情報を携帯端末装置10に送信する。 Figure 4 is a block diagram of the door sensor 30. As shown in Figure 5, the door sensor 30 is attached near the hinge of the door 502, and detects and outputs information on the open/closed state of the door 502 relative to the fixed wall 501. The information on the open/closed state is expressed as an angle relative to the fixed wall 501. The door sensor 30 includes a sensor module 31 and a communication processing unit 32. The sensor module 31 detects the open/closed state of the door 502. The sensor module 31 is composed of, for example, a rotary encoder, a semiconductor sensor, or a photoelectric sensor. The rotary encoder rotates coaxially with the hinge of the door 502 to detect the rotation angle or absolute angle of the door 502. The semiconductor sensor detects the angular velocity due to the opening and closing of the door 502, and calculates the angle of the door 502 by integrating this angular velocity. The optical sensor has a light emitting unit and a light receiving unit on the door 502 and the fixed wall 501, respectively, and detects the angle of the door 502 by the change in the position of the light from the light emitting unit to the light receiving unit. The sensor module 31 is not limited to the above. For example, the sensor module 31 may be a potentiometer. Also, if the sensor module 31 only needs to detect whether the door 502 is completely closed or slightly open, the sensor module 31 may be a limit switch. The communication processing unit 32 transmits information on the open/closed state of the door 502 detected by the sensor module 31 to the mobile terminal device 10.

図5は、本発明の音声再生システムでユーザLを導き入れてシナリオが実行される建物200の平面図である。建物200には、部屋201および部屋202が設けられている。部屋201および部屋202は、壁500で仕切られている。壁500は、固定壁501と固定壁501の一部に設けられたドア502とを有している。ドア502は、固定壁501に形成されたドア枠503に取り付けられている。ドア502は、部屋201側に揺動自在である。壁500が本発明の遮蔽物に対応する。 Figure 5 is a plan view of a building 200 into which a user L is guided and a scenario is executed by the audio playback system of the present invention. Building 200 is provided with rooms 201 and 202. Rooms 201 and 202 are separated by a wall 500. Wall 500 has a fixed wall 501 and a door 502 provided in a part of fixed wall 501. Door 502 is attached to a door frame 503 formed on fixed wall 501. Door 502 can freely swing towards room 201. Wall 500 corresponds to a shield of the present invention.

建物200およびその内部の位置はXY座標で特定される。XY座標は、図5左下に示されるように、図中左右方向に設定されたX軸、上下方向に設定されたY軸に基づいて決定される。部屋201、202の形状、壁500の位置、ドア502の位置は全てXY座標で表され、レイアウトテーブル72Aに記憶されている。本実施形態の音声再生システム1は、音声の定位処理を二次元、すなわち、音源の位置、ユーザLの耳の位置などは全て同じ高さにあるとみなして音像定位処理を行っている。音像定位を高さを含む三次元で行う場合は、図面の表裏方向に高さ方向のZ軸を設定すればよい。 The building 200 and positions within it are specified by XY coordinates. As shown in the lower left of FIG. 5, the XY coordinates are determined based on the X axis set in the left-right direction in the figure and the Y axis set in the up-down direction. The shapes of the rooms 201 and 202, the positions of the walls 500, and the doors 502 are all expressed in XY coordinates and stored in the layout table 72A. The audio reproduction system 1 of this embodiment performs audio localization processing in two dimensions, that is, performs sound image localization processing by assuming that the positions of the sound source and the ears of the user L are all at the same height. If sound image localization is performed in three dimensions including height, the Z axis in the height direction can be set in the front-to-back direction of the drawing.

ドア502には、ドア502の開閉状態を検出するためのドアセンサ30が設けられている。図5では、ドア502は部屋201側に開かれている。ドア502はユーザLによって手動で開かれてもよく、図示しないアクチュエータなどによって自動的に開かれてもよい。 The door 502 is provided with a door sensor 30 for detecting whether the door 502 is open or closed. In FIG. 5, the door 502 is open toward the room 201. The door 502 may be opened manually by the user L, or may be opened automatically by an actuator (not shown).

ユーザLは、部屋201を移動しつつ、音声再生システム1によって再生される音声を聴く。音声再生システム1は、ユーザLの位置、時刻等でシナリオファイル72を参照し、シナリオファイル72によって指示された音声を再生する。図5に示した場面では、音声再生システム1は、部屋202の仮想音源位置SP1に定位するピアノ演奏音を再生する。図5では、仮想音源位置SP1の場所に、実際のピアノ300が設置されているが、実際のピアノ300は必須ではない。 User L listens to the sound reproduced by the sound reproduction system 1 while moving around the room 201. The sound reproduction system 1 refers to the scenario file 72 based on the position, time, etc. of the user L, and reproduces the sound specified by the scenario file 72. In the scene shown in FIG. 5, the sound reproduction system 1 reproduces the sound of a piano performance localized at a virtual sound source position SP1 in the room 202. In FIG. 5, an actual piano 300 is placed at the location of the virtual sound source position SP1, but an actual piano 300 is not required.

図5において、ユーザLは、ヘッドホン20からピアノ演奏音が聞こえてくると、ドア502の近くの位置LP1へ移動してドア502を開ける(図5はドア502が開いた状態を示している)。これにより、ユーザLは、部屋202でピアノ300が鳴っていることを認識するが、ユーザLは、固定壁501で遮られて、位置LP1からピアノ300(仮想音源位置SP1)を直接見ることができない。ユーザLは、ドア502を開けたのち、音声が鳴っている場所を探すため、位置LP2へ移動する。位置LP2へ移動したユーザLは、ドア枠503を介して部屋202の中を見ることによって、ピアノ300(仮想音源位置SP1)を発見する。 In FIG. 5, when user L hears the sound of a piano being played through headphones 20, he moves to position LP1 near door 502 and opens door 502 (FIG. 5 shows door 502 open). This allows user L to recognize that piano 300 is playing in room 202, but user L cannot directly see piano 300 (virtual sound source position SP1) from position LP1 because fixed wall 501 blocks the view. After opening door 502, user L moves to position LP2 to find the location where the sound is being played. Having moved to position LP2, user L finds piano 300 (virtual sound source position SP1) by looking inside room 202 through door frame 503.

ユーザLが上のような行動をした場合の、音声再生システム1による音声(ピアノ演奏音)の音質の制御態様は、以下のとおりである。ドア502が閉じているとき、音声再生システム1は、ユーザLに対して、壁500の向こう側でピアノ300が演奏され、壁500(ドア502)から漏れてくるような音質でピアノ演奏音を再生する。ドア502が開かれたとき、音声再生システム1は、部屋202で響いているピアノ演奏音がドア枠503を介して聞こえてくるような音質で、ピアノ演奏音を再生する。ただし、位置LP1では、ユーザLは、仮想音源位置SP1に定位されているピアノ演奏音の直接音を聴くことができない。その後、ユーザLは、ピアノ300が見える位置である位置LP2に移動する。ユーザLが位置LP2に移動したとき、音声再生システム1は、ピアノ演奏音の直接音をユーザLに対して再生する。 When the user L behaves as described above, the sound quality of the sound (piano performance sound) controlled by the sound reproduction system 1 is as follows. When the door 502 is closed, the sound reproduction system 1 reproduces the piano performance sound with a sound quality that makes it seem as if the piano 300 is being played on the other side of the wall 500 and is leaking through the wall 500 (door 502) for the user L. When the door 502 is open, the sound reproduction system 1 reproduces the piano performance sound with a sound quality that makes it seem as if the piano performance sound reverberating in the room 202 is being heard through the door frame 503. However, at position LP1, the user L cannot hear the direct sound of the piano performance sound localized at the virtual sound source position SP1. After that, the user L moves to position LP2 where the piano 300 is visible. When the user L moves to position LP2, the sound reproduction system 1 reproduces the direct sound of the piano performance sound for the user L.

図6-8を参照して、ドア502が閉じているとき、ドア502が開かれユーザLが位置LP1にいるとき、および、ユーザLが位置LP2に移動したときの仮想音源位置SP1で発生した音声の伝達形態を説明する。以下の説明では、仮想音源位置SP1で発生した音声を音声S(SP1)と呼ぶ。なお、図5-9、および、図13の記載において、音声S(SP1)等の括弧“()”は、“-”で代用される。 With reference to Figures 6-8, the transmission mode of sound generated at virtual sound source position SP1 when door 502 is closed, when door 502 is open and user L is at position LP1, and when user L moves to position LP2 will be described. In the following description, the sound generated at virtual sound source position SP1 will be referred to as sound S (SP1). Note that in the descriptions in Figures 5-9 and 13, parentheses "( )" around sound S (SP1), etc. will be replaced with "-".

図6は、ドア502が開かれた状態のドア枠503を介してユーザLに聞こえてくる音声(間接音)を説明する図である。音声S(SP1)は、部屋202全体に伝わり、壁で反射するなどして部屋202内に響きを形成する。ドア枠503の位置SP2においても、位置SP2における響きの音声が鳴動する。以下、位置SP2で聴取される音声を音声S(SP2)と呼ぶ。仮想音源位置SP1から位置SP2への音声の伝搬は、仮想音源位置SP1に発音源を設置し、位置SP2にマイクを設置して測定されたインパルス応答で表される。このインパルス応答を、以下、インパルス応答IR(1-2)と呼ぶ。インパルス応答IR(1-2)は、上述したように、部屋202に響いているピアノ演奏音S(SP1)を位置SP2で聴取した場合の応答波形を表している。音声S(SP2)は、音声S(SP1)にインパルス応答IR(1-2)を畳み込むFIRフィルタでフィルタリングすることによって得られる。 Figure 6 is a diagram explaining the sound (indirect sound) heard by the user L through the door frame 503 when the door 502 is open. The sound S (SP1) is transmitted throughout the room 202 and forms a reverberation in the room 202 by, for example, reflecting off the walls. The sound reverberating at position SP2 also sounds at position SP2 of the door frame 503. Hereinafter, the sound heard at position SP2 is referred to as sound S (SP2). The propagation of sound from the virtual sound source position SP1 to position SP2 is represented by an impulse response measured by placing a sound source at the virtual sound source position SP1 and a microphone at position SP2. Hereinafter, this impulse response is referred to as impulse response IR (1-2). As described above, impulse response IR (1-2) represents the response waveform when the piano performance sound S (SP1) reverberating in the room 202 is heard at position SP2. Audio S(SP2) is obtained by filtering audio S(SP1) with an FIR filter that convolves the impulse response IR(1-2).

ドア502が開かれている場合、ドア枠503に到達した音声S(SP2)が、部屋201に伝わり、ユーザLまで到達する。ドア枠503の位置SP2から、ユーザLの両耳までの音声の伝搬は、ユーザLの位置およびユーザLの頭部の向きに応じた頭部伝達関数によって表される。このときの頭部伝達関数を、以下、頭部伝達関数HRTF(2-L)と呼ぶ。開いたドア502(ドア枠503)からユーザLに聞こえてくる音声である間接音S(L open)は、音声S(SP2)を頭部伝達関数HRTF(2-L)で処理することによって得られる。具体的には、頭部伝達関数HRTF(2-L)を時間領域の係数列に変換した頭部インパルス応答を音声S(SP2)に畳み込むFIRフィルタでフィルタリングすることによって、間接音S(L open)が得られる。なお、処理を容易にするため、部屋201における残響(インパルス応答)は、考慮しないものとする。 When the door 502 is open, the sound S (SP2) that has reached the door frame 503 is transmitted to the room 201 and reaches the user L. The propagation of the sound from the position SP2 of the door frame 503 to both ears of the user L is represented by a head-related transfer function according to the position of the user L and the direction of the user L's head. The head-related transfer function at this time is hereinafter referred to as the head-related transfer function HRTF (2-L). The indirect sound S (L open), which is the sound that the user L hears from the open door 502 (door frame 503), is obtained by processing the sound S (SP2) with the head-related transfer function HRTF (2-L). Specifically, the indirect sound S (L open) is obtained by filtering the head impulse response, which is a time-domain coefficient sequence of the head-related transfer function HRTF (2-L), with an FIR filter that convolves the sound S (SP2) with the head impulse response. Note that, in order to simplify the processing, the reverberation (impulse response) in the room 201 is not taken into consideration.

図7は、音源から直接ユーザLに聞こえてくる音声(直接音)を説明する図である。ユーザLが位置LP2にいる場合、仮想音源位置SP1を直接目視可能であるため、音声S(SP1)の直接音が聞こえる。直接音の伝搬は、仮想音源位置SP1からユーザLの位置およびユーザLの頭部の向きに応じた頭部伝達関数によって表される。このときの頭部伝達関数を、以下、頭部伝達関数HRTF(1-L)と呼ぶ。直接音S(L direct)は、音声S(SP1)を頭部伝達関数HRTF(1-L)で処理することによって得られる。具体的には、頭部伝達関数HRTF(1-L)を時間領域の係数列に変換した頭部インパルス応答を音声S(SP1)に畳み込むFIRフィルタでフィルタリングすることによって、直接音S(L direct)が得られる。 Figure 7 is a diagram explaining the sound (direct sound) that the user L hears directly from the sound source. When the user L is at position LP2, the virtual sound source position SP1 is directly visible, and the direct sound of the sound S (SP1) is heard. The propagation of the direct sound is represented by a head-related transfer function according to the position of the user L from the virtual sound source position SP1 and the direction of the user L's head. Hereinafter, the head-related transfer function at this time is referred to as the head-related transfer function HRTF (1-L). The direct sound S (L direct) is obtained by processing the sound S (SP1) with the head-related transfer function HRTF (1-L). Specifically, the direct sound S (L direct) is obtained by filtering the sound S (SP1) with an FIR filter that convolves the head impulse response, which is a time-domain coefficient sequence of the head-related transfer function HRTF (1-L), with the sound S (SP1).

図8は、閉じられたドア502を透過してユーザLに聞こえてくる音声(透過音)を説明する図である。この実施形態では、固定壁501は、全く音声を透過しないとする。ドア502が閉じている場合、部屋201に居るユーザLは、部屋202からドア502を抜けて伝わってくる音声を聴く。ドア502に到達する音声は、上記のように音声S(SP2)である。透過音S(L door)は、音声S(SP2)がドア502に到達し、閉じているドア502を通過してドア表面(部屋201側)SP20に伝わり、ドア表面SP20からユーザLに伝わったものである。したがって、音声S(L door)の伝搬は、以下の3つのインパルス応答で表される。仮想音源位置SP1からドア502(SP2)までのインパルス応答、ドア502(SP2)からドア表面SP20までのインパルス応答、および、ドア表面SP20からユーザLまでの頭部伝達関数HRTF(20-L)。なお、処理を容易にするため、部屋201における残響(インパルス応答)は、考慮しないものとする。 Figure 8 is a diagram explaining the sound (transmitted sound) that is heard by the user L through a closed door 502. In this embodiment, it is assumed that the fixed wall 501 does not transmit sound at all. When the door 502 is closed, the user L in the room 201 hears the sound that travels from the room 202 through the door 502. The sound that reaches the door 502 is the sound S (SP2) as described above. The transmitted sound S (L door) is the sound S (SP2) that reaches the door 502, passes through the closed door 502, travels to the door surface (room 201 side) SP20, and is transmitted from the door surface SP20 to the user L. Therefore, the propagation of the sound S (L door) is expressed by the following three impulse responses. The impulse response from the virtual sound source position SP1 to the door 502 (SP2), the impulse response from the door 502 (SP2) to the door surface SP20, and the head-related transfer function HRTF (20-L) from the door surface SP20 to the user L. Note that, to simplify the processing, the reverberation (impulse response) in the room 201 is not taken into consideration.

頭部伝達関数HRTF(20-L)は、図6の頭部伝達関数HRTF(2-L)とほぼ同じと考えられる。したがって、頭部伝達関数HRTF(2-L)が頭部伝達関数HRTF(20-L)として用いられてもよい。 The head-related transfer function HRTF(20-L) is considered to be approximately the same as the head-related transfer function HRTF(2-L) in FIG. 6. Therefore, the head-related transfer function HRTF(2-L) may be used as the head-related transfer function HRTF(20-L).

なお、ドア502(SP2)からドア表面SP20までのインパルス応答は、ドア502の遮音特性である。ドア502の遮音特性のインパルス応答を、以下、インパルス応答IR(door)と呼ぶ。 The impulse response from door 502 (SP2) to door surface SP20 is the sound insulation characteristic of door 502. Hereinafter, the impulse response of the sound insulation characteristic of door 502 is referred to as impulse response IR (door).

閉じたドア502を透過してユーザLに聞こえてくる音声である間接音S(L door)は、音声S(SP20)を頭部伝達関数HRTF(20-L)で処理することによって得られる。具体的には、頭部伝達関数HRTF(20-L)を時間領域の係数列に変換した頭部インパルス応答を音声S(SP20)に畳み込むFIRフィルタでフィルタリングすることによって、透過音S(L door)が得られる。 Indirect sound S (L door), which is sound that passes through the closed door 502 and is heard by the user L, is obtained by processing the sound S (SP20) with a head-related transfer function HRTF (20-L). Specifically, the transmitted sound S (L door) is obtained by filtering with an FIR filter that convolves the head impulse response, which is a time-domain coefficient sequence obtained by converting the head-related transfer function HRTF (20-L), with the sound S (SP20).

図8に示したように、ドア502が、閉じているとき、音声再生システム1は、ユーザLに対して、透過音S(L door)のみを再生する。 As shown in FIG. 8, when the door 502 is closed, the audio reproduction system 1 reproduces only the transmitted sound S (L door) for the user L.

図6に示したように、ドア502が開いているが、ユーザLが、ピアノ300が見えない場所(たとえば場所LP1)にいるとき、音声再生システム1は、ユーザLに対して、ドア枠503から聞こえてくる間接音S(L open)を再生する。 As shown in FIG. 6, when the door 502 is open but the user L is in a location (e.g., location LP1) where the piano 300 is not visible, the audio playback system 1 plays for the user L an indirect sound S (L open) heard from the door frame 503.

図7に示したように、ドア502が開いていて、ユーザLが、ピアノ300の見える位置(たとえば位置LP2)にいるとき、音声再生システム1は、ユーザLに対して、仮想音源位置SP1(ピアノ300)からの直接音S(L direct)、および、間接音S(L open)を再生する。これは、ユーザLがピアノ300を目視できる位置にいる場合であっても、間接音S(L open)は、ユーザLに聞こえてくるためである。 As shown in FIG. 7, when the door 502 is open and the user L is in a position where the piano 300 can be seen (e.g., position LP2), the sound reproduction system 1 reproduces for the user L a direct sound S (L direct) from the virtual sound source position SP1 (piano 300) and an indirect sound S (L open). This is because the indirect sound S (L open) can be heard by the user L even if the user L is in a position where the piano 300 can be seen.

ユーザLが、ピアノ300(仮想音源位置SP1)が完全に見える位置にいるか、一部のみ見える位置にいるかで直接音S(L direct)のゲインを変えてもよい。また、この場合に、音質が、周波数領域で高音域の少し減衰させるなどの調整がされてもよい。 The gain of the direct sound S (L direct) may be changed depending on whether the user L is in a position where the piano 300 (virtual sound source position SP1) is completely visible or only partially visible. In this case, the sound quality may be adjusted in the frequency domain, such as by slightly attenuating the high-pitched sounds.

図9は、信号処理部106の機能ブロック図である。信号処理部106は、たとえばDSP(degitalsignal processor)で構成されており、プログラムにより、音声生成部105で生成された音声の信号処理を行うための種々の機能部が構成される。音声生成部105は、上述したように、ピアノ演奏音などの音声を生成する。信号処理部106は、音声を処理して、透過音S(L door)、間接音S(L open)、および、直接音S(L direct)を生成する。図示のフィルタ64-69は、全てFIRフィルタである。図9では信号の流れを一重線で表しているが、処理される音声信号は左右2チャンネルの信号である。 Figure 9 is a functional block diagram of the signal processing unit 106. The signal processing unit 106 is composed of, for example, a DSP (digital signal processor), and various functional units are configured by a program to perform signal processing of the sound generated by the sound generation unit 105. As described above, the sound generation unit 105 generates sounds such as piano performance sounds. The signal processing unit 106 processes the sounds to generate transmitted sound S (L door), indirect sound S (L open), and direct sound S (L direct). The filters 64-69 shown in the figure are all FIR filters. In Figure 9, the signal flow is represented by a single line, but the sound signals to be processed are two-channel signals, left and right.

直列に接続されたフィルタ64-66は、ドア502が閉じられている場合の透過音S(L door)を生成する。フィルタ64には、仮想音源位置SP1からドア502の位置SP2までのインパルス応答IR(1-2)がセットされる。フィルタ64は、音声S(SP1)をフィルタリングして音声S(SP2)を生成する。フィルタ65には、ドア502の遮音特性であるインパルス応答IR(door)がセットされる。フィルタ65は、音声S(SP2)をフィルタリングして音声S(SP20)を生成する。フィルタ66には、ドア502の部屋201側の位置SP20からユーザLの位置および頭部の向きに応じた頭部伝達関数(頭部インパルス応答)HRTF(20-L)がセットされる。フィルタ66は、音声S(SP20)をフィルタリングして透過音S(L door)を生成する。この実施形態では、インパルス応答IR(1-2)、インパルス応答(遮音特性)IR(door)、および、頭部伝達関数HRTF(20-L)の演算ために、3つのフィルタ64-66が設けられている。しかし、これらのフィルタ係数を合成した1つのフィルタで透過音S(L door)が生成されてもよい。 The serially connected filters 64-66 generate a transmitted sound S (L door) when the door 502 is closed. The filter 64 is set with an impulse response IR (1-2) from the virtual sound source position SP1 to the position SP2 of the door 502. The filter 64 filters the sound S (SP1) to generate a sound S (SP2). The filter 65 is set with an impulse response IR (door) which is the sound insulation characteristic of the door 502. The filter 65 filters the sound S (SP2) to generate a sound S (SP20). The filter 66 is set with a head-related transfer function (head impulse response) HRTF (20-L) according to the position and head direction of the user L from the position SP20 on the room 201 side of the door 502. The filter 66 filters the sound S (SP20) to generate a transmitted sound S (L door). In this embodiment, three filters 64-66 are provided to calculate the impulse response IR(1-2), the impulse response (sound insulation characteristics) IR(door), and the head-related transfer function HRTF(20-L). However, the transmitted sound S(L door) may be generated by a single filter that combines these filter coefficients.

直列に接続されたフィルタ67,68は、ドア502が開かれている場合の間接音S(L open)を生成する。フィルタ67には、仮想音源位置SP1からドア502の位置SP2までのインパルス応答IR(1-2)がセットされる。フィルタ67は、音声S(SP1)をフィルタリングして音声S(SP2)を生成する。フィルタ68には、ドア502の位置SP2からユーザLの位置および頭部の向きに応じた頭部伝達関数(頭部インパルス応答)HRTF(2-L)がセットされる。フィルタ68は、音声S(SP2)をフィルタリングして間接音S(L open)を生成する。この実施形態では、インパルス応答IR(1-2)、および、頭部伝達関数HRTF(2-L)のために、2つのフィルタ66、67が設けられている。しかし、これらのフィルタ係数を合成した1つのフィルタで間接音S(L open)が生成されてもよい。 The serially connected filters 67 and 68 generate an indirect sound S (L open) when the door 502 is open. An impulse response IR (1-2) from the virtual sound source position SP1 to the position SP2 of the door 502 is set in the filter 67. The filter 67 filters the sound S (SP1) to generate the sound S (SP2). A head-related transfer function (head impulse response) HRTF (2-L) according to the position of the user L and the direction of the head from the position SP2 of the door 502 is set in the filter 68. The filter 68 filters the sound S (SP2) to generate the indirect sound S (L open). In this embodiment, two filters 66 and 67 are provided for the impulse response IR (1-2) and the head-related transfer function HRTF (2-L). However, the indirect sound S (L open) may be generated by a single filter that combines these filter coefficients.

フィルタ69は、直接音S(L direct)を生成する。フィルタ68には、仮想音源位置SP1からユーザLの位置およびユーザLの頭部の向きに応じた頭部伝達関数(頭部インパルス応答)HRTF(1-L)がセットされる。フィルタ69は、音声S(SP1)をフィルタリングして直接音S(L direct)を生成する。 The filter 69 generates a direct sound S (L direct). A head-related transfer function (head impulse response) HRTF (1-L) corresponding to the position of the user L from the virtual sound source position SP1 and the direction of the head of the user L is set in the filter 68. The filter 69 filters the sound S (SP1) to generate the direct sound S (L direct).

ゲイン調整部61-63は、生成された透過音S(L door)、間接音S(L open)、および、直接音S(L direct)のゲインをそれぞれオン/オフおよびゲイン調整する。インパルス応答や頭部伝達関数には、音量制御の要素が含まれているため、信号処理部106は、通常は透過音S(L door)などの生成後にゲインを調整しなくてもよい。ゲイン調整部61-63は、ドア502の開角に応じて間接音S(L open)のゲインを調整する場合、透過音S(L door)および間接音S(L open)をクロスフェードする場合などに使用される。 The gain adjustment units 61-63 turn on/off and adjust the gain of the generated transmitted sound S (L door), indirect sound S (L open), and direct sound S (L direct). Since the impulse response and head-related transfer function include an element of volume control, the signal processing unit 106 does not usually need to adjust the gain after generating the transmitted sound S (L door), etc. The gain adjustment units 61-63 are used when adjusting the gain of the indirect sound S (L open) according to the opening angle of the door 502, when cross-fading the transmitted sound S (L door) and the indirect sound S (L open), etc.

加算部80は、ゲイン調整部61-63でゲインを調整された透過音S(L door)、間接音S(L open)、直接音S(L direct)を加算して、ヘッドホン20に出力される音声S(L)を生成する。信号処理部106は、音声S(L)を通信処理部107に入力する。通信処理部107は、音声S(L)をヘッドホン20に送信する。信号処理部106は、全てのフィルタ64-69および全てのゲイン調整部61-63のフィルタ係数およびゲイン値を合成して一つのフィルタ係数を算出することも可能である。信号処理部106は、このフィルタ係数を用いて一つのFIRフィルタで音声S(L)を生成することも可能である。 The adder 80 adds the transmitted sound S (L door), the indirect sound S (L open), and the direct sound S (L direct) whose gains have been adjusted by the gain adjustment units 61-63, to generate the sound S (L) to be output to the headphones 20. The signal processing unit 106 inputs the sound S (L) to the communication processing unit 107. The communication processing unit 107 transmits the sound S (L) to the headphones 20. The signal processing unit 106 can also calculate one filter coefficient by combining the filter coefficients and gain values of all the filters 64-69 and all the gain adjustment units 61-63. The signal processing unit 106 can also generate the sound S (L) with one FIR filter using this filter coefficient.

図10は、携帯端末装置10の音声信号処理動作を示すフローチャートである。この処理はシナリオファイル72に基づいて音声が生成されているときに実行される。この処理は、定期的に、例えば20ミリ秒ごとに、携帯端末装置10の制御部100および信号処理部106などによって実行される。 Figure 10 is a flowchart showing the audio signal processing operation of the mobile terminal device 10. This process is executed when audio is being generated based on the scenario file 72. This process is executed periodically, for example every 20 milliseconds, by the control unit 100 and signal processing unit 106 of the mobile terminal device 10.

制御部100は、ユーザLの現在位置および頭部方向を取得する(ステップS11,S12)。以下、このフローチャートにおいて、ステップSn(nは任意の数値)を単にSnと言う。制御部100は、ドアセンサ30から受信した信号を判断しドア502が開いているか否かを判断する(S13)。ドア502が閉じている場合は(S13でNO)、ユーザLには透過音のみが聞こえるため、図9に示す信号処理部106に透過音S(L door)の生成を指示する(S14)。信号処理部106から出力された透過音S(L door)は、通信処理部107に出力される(S15)。 The control unit 100 acquires the current position and head direction of the user L (steps S11, S12). Hereinafter, in this flowchart, step Sn (n is an arbitrary numerical value) will be simply referred to as Sn. The control unit 100 judges the signal received from the door sensor 30 and judges whether the door 502 is open or not (S13). If the door 502 is closed (NO in S13), the user L will only hear the transmitted sound, and therefore instructs the signal processing unit 106 shown in FIG. 9 to generate the transmitted sound S (L door) (S14). The transmitted sound S (L door) output from the signal processing unit 106 is output to the communication processing unit 107 (S15).

ドア502が開いている場合は(S13でYES)、制御部100は、ユーザLが仮想音源位置SP1(ピアノ300)を直視できる位置にいるかを判断する(S21)。直視できる位置にいる場合(S21でYES)、制御部100は、処理をS25に進める。直視できない位置にいる場合(S21でNO)、制御部100は、処理をS22に進める。 If the door 502 is open (YES in S13), the control unit 100 determines whether the user L is in a position where the virtual sound source position SP1 (piano 300) can be viewed directly (S21). If the user L is in a position where the virtual sound source position SP1 can be viewed directly (YES in S21), the control unit 100 advances the process to S25. If the user L is in a position where the virtual sound source position SP1 cannot be viewed directly (NO in S21), the control unit 100 advances the process to S22.

ユーザLが仮想音源位置SP1を直視できない位置にいる場合(S21でNO)、制御部100は、信号処理部106に間接音S(L open)の生成を指示する(S22)。このとき、制御部100は、ユーザLの位置および頭部の向きに基づいて1つの頭部伝達関数を選択し、フィルタ68にセットする。信号処理部106から出力された間接音S(L open)は、通信処理部107に出力される(S15)。 If the user L is in a position where he/she cannot look directly at the virtual sound source position SP1 (NO in S21), the control unit 100 instructs the signal processing unit 106 to generate an indirect sound S(L open) (S22). At this time, the control unit 100 selects one head-related transfer function based on the position and head direction of the user L, and sets it in the filter 68. The indirect sound S(L open) output from the signal processing unit 106 is output to the communication processing unit 107 (S15).

ドア502が開いており、ユーザLが仮想音源位置SP1を直視できる位置にいる場合(S21でYES)、制御部100は、信号処理部106に直接音S(L direct)および間接音S(L open)の生成を指示する(S25、S26)。このとき、制御部100は、ユーザLの位置および頭部の向きに基づき、フィルタ68,69にそれぞれ1つの頭部伝達関数をセットする。信号処理部106は、生成された直接音S(L direct)および間接音S(L open)を加算して音声S(L)を生成して(S27)、通信処理部107に出力する(S27)。 When the door 502 is open and the user L is in a position where he or she can look directly at the virtual sound source position SP1 (YES in S21), the control unit 100 instructs the signal processing unit 106 to generate a direct sound S (L direct) and an indirect sound S (L open) (S25, S26). At this time, the control unit 100 sets one head-related transfer function to each of the filters 68 and 69 based on the position and head direction of the user L. The signal processing unit 106 adds the generated direct sound S (L direct) and indirect sound S (L open) to generate a sound S (L) (S27) and outputs it to the communication processing unit 107 (S27).

制御部100は、図10のステップS13で、ドア502が開いているか閉じているかを判断している。制御部100は、ドア502が開いている場合、どの程度の角度で開いているかを判断し、その角度に応じて間接音S(L open)のゲインを調節してもよい。さらに、制御部100は、ドア502の開角に応じて間接音S(L open)の音質を調節してもよい。 In step S13 of FIG. 10, the control unit 100 determines whether the door 502 is open or closed. If the door 502 is open, the control unit 100 may determine the angle at which the door 502 is open and adjust the gain of the indirect sound S (L open) according to the angle. Furthermore, the control unit 100 may adjust the sound quality of the indirect sound S (L open) according to the opening angle of the door 502.

図11は、ドア502の開角で間接音S(L open)のゲインを調節する処理を示すフローチャートである。制御部100は、ドアセンサ30からドア502の開角を取得する(S31)。制御部100は、取得された開角に基づき、ゲイン調整部62にこの開角に応じたゲインを設定する(S32)。このとき、制御部100は、ドア502の開角が大きくなるに従って、間接音S(L open)のゲインを大きくするとともに、透過音S(L door)のゲインを小さくする処理(クロスフェード)をしてもよい。 Figure 11 is a flowchart showing the process of adjusting the gain of the indirect sound S (L open) depending on the opening angle of the door 502. The control unit 100 acquires the opening angle of the door 502 from the door sensor 30 (S31). Based on the acquired opening angle, the control unit 100 sets a gain corresponding to this opening angle in the gain adjustment unit 62 (S32). At this time, the control unit 100 may perform a process (cross-fade) of increasing the gain of the indirect sound S (L open) and decreasing the gain of the transmitted sound S (L door) as the opening angle of the door 502 increases.

制御部100は、図10のステップS21で、ユーザLが仮想音源SP1を直視できる位置にいるか否かを判断している。制御部100は、仮想音源SP1にピアノ300のような所定の大きさを持たせ、ユーザLが仮想音源SP1をどの程度直視できているかに応じて直接音S(L direct)のゲインを調節してもよい。さらに、制御部100は、ユーザLが仮想音源SP1をどの程度直視できているかに応じて直接音S(L direct)の音質を調節してもよい。 In step S21 of FIG. 10, the control unit 100 determines whether the user L is in a position where he or she can look directly at the virtual sound source SP1. The control unit 100 may give the virtual sound source SP1 a predetermined size, such as a piano 300, and adjust the gain of the direct sound S (L direct) depending on how directly the user L can look at the virtual sound source SP1. Furthermore, the control unit 100 may adjust the sound quality of the direct sound S (L direct) depending on how directly the user L can look at the virtual sound source SP1.

図12は、ユーザLが仮想音源SP1をどの程度直視できているかに応じて直接音S(L direct)のゲインを調節する処理を示すフローチャートである。制御部100は、ユーザLの位置から仮想音源SP1をどの程度直視できるかを算出する(S33)。直視範囲の算出は、ユーザL、仮想音源SP1、および、ドア枠503の座標に基づいて行われる。制御部100は、算出した直視範囲に応じてゲイン調整部62にゲインを設定する(S34)。すなわち、制御部100は、ユーザLが仮想音源SP1全体を直視できる場合は、100%のゲインを設定し、ユーザLが直視できる仮想音源SP1の範囲が狭くなるに従って設定されるゲインが小さくなるようにすればよい。 Figure 12 is a flowchart showing the process of adjusting the gain of the direct sound S (L direct) depending on the extent to which the user L can view the virtual sound source SP1 directly. The control unit 100 calculates the extent to which the virtual sound source SP1 can be viewed directly from the position of the user L (S33). The direct viewing range is calculated based on the coordinates of the user L, the virtual sound source SP1, and the door frame 503. The control unit 100 sets a gain in the gain adjustment unit 62 depending on the calculated direct viewing range (S34). That is, when the user L can view the entire virtual sound source SP1 directly, the control unit 100 sets a gain of 100%, and sets a smaller gain as the range of the virtual sound source SP1 that the user L can view directly becomes narrower.

上の実施形態は、仮想音源SP1(ピアノ300)が移動しない場合について説明した。以下の実施形態は、仮想音源SP1が移動する場合について説明する。この実施形態において上の実施形態と同様の構成の部分は同一番号を付して説明を省略する。 The above embodiment describes a case where the virtual sound source SP1 (piano 300) does not move. The following embodiment describes a case where the virtual sound source SP1 moves. In this embodiment, parts with configurations similar to those in the above embodiment are given the same numbers and will not be described.

図13は建物200内の仮想音源SP10およびユーザLの配置を示す図である。部屋のレイアウトは、図5に示したものと同じである。図13において、鳥の外観で記載されている仮想音源SP10は、位置SP10(1)から位置SP10(2)へ移動する。ドア502は開いている。図6、7の実施形態では、ユーザL自身が移動することにより、仮想音源SP1を直視できるようになる。この実施形態では、仮想音源SP10が移動することにより、ユーザLが仮想音源SP10を直視できるようになる。 Figure 13 is a diagram showing the arrangement of a virtual sound source SP10 and a user L in a building 200. The layout of the room is the same as that shown in Figure 5. In Figure 13, the virtual sound source SP10, depicted with the appearance of a bird, moves from position SP10(1) to position SP10(2). The door 502 is open. In the embodiment of Figures 6 and 7, the user L moves so that he or she can look directly at the virtual sound source SP1. In this embodiment, the virtual sound source SP10 moves so that the user L can look directly at the virtual sound source SP10.

ユーザLは、位置LP10に留まっている。仮想音源SP10が、位置SP10(1)にあるとき、ユーザLは、仮想音源SP10を直視することができず、ユーザLには間接音S(L open)が聴こえる。間接音S(L open)は、図6で説明したものと同じであり、SP2における仮想音源SP10(1)のインパルス応答、および、SP2からユーザLまでの頭部伝達関数で算出される。仮想音源SP10が、位置SP10(2)へ移動したとき、ユーザLは、ドア枠503を介して仮想音源SP10を直視することができる。ユーザLは、直接音S(L direct)が聴こえる。直接音S(L direct)は、図7で説明したものと同じであり、SP10(2)からユーザLまでの頭部伝達関数で算出される。また、直接音が聴こえているときも、間接音が併行して聴こえている。この間接音は、SP2における仮想音源SP10(2)のインパルス応答、および、SP2からユーザLまでの頭部伝達関数で算出される。 The user L remains at position LP10. When the virtual sound source SP10 is at position SP10(1), the user L cannot look directly at the virtual sound source SP10, and hears indirect sound S (L open). The indirect sound S (L open) is the same as that described in FIG. 6, and is calculated using the impulse response of the virtual sound source SP10(1) at SP2 and the head-related transfer function from SP2 to the user L. When the virtual sound source SP10 moves to position SP10(2), the user L can look directly at the virtual sound source SP10 through the door frame 503. The user L hears direct sound S (L direct). The direct sound S (L direct) is the same as that described in FIG. 7, and is calculated using the head-related transfer function from SP10(2) to the user L. In addition, when the direct sound is heard, the indirect sound is heard in parallel. This indirect sound is calculated using the impulse response of the virtual sound source SP10(2) in SP2 and the head-related transfer function from SP2 to the user L.

仮想音源SP10が移動する場合、制御部100は、図10のフローチャートにおいて、S10、11と併行して仮想音源SP10の位置を取得して、ユーザLが仮想音源SP10を直視できるか否かを計算すればよい。 When the virtual sound source SP10 moves, the control unit 100 acquires the position of the virtual sound source SP10 in parallel with S10 and S11 in the flowchart of FIG. 10, and calculates whether the user L can look directly at the virtual sound source SP10.

図13の例は、ユーザLが停止している例を示した。さらに、ユーザLが図5-8と同様に移動し、さらに仮想音源SP10が移動する実施形態も実現可能である。 The example in FIG. 13 shows an example in which the user L is stationary. Furthermore, an embodiment in which the user L moves in the same manner as in FIG. 5-8 and the virtual sound source SP10 also moves can also be realized.

実施形態のドア502は、蝶番を用いた揺動式である。ドア502は、揺動式だけでなく、引き戸など他の機構で開閉するものも含む。ドア502が常に開放された実施形態、および、ドア502が無い実施形態、すなわちドア枠503(開口部)のみの実施形態も実現可能である。 The door 502 in this embodiment is of a swinging type that uses hinges. The door 502 is not limited to a swinging type, but also includes doors that open and close using other mechanisms, such as a sliding door. It is also possible to realize an embodiment in which the door 502 is always open, and an embodiment without the door 502, i.e., an embodiment with only a door frame 503 (opening).

図5の例は、ユーザLがドア502を開く場合についてのものであった。ユーザLが開いているドア502を閉じる実施形態も実現可能である。 The example in FIG. 5 was for a case where user L opens door 502. An embodiment in which user L closes an open door 502 is also possible.

図8の例は、ドア502を閉じたとき、ドア502のみから透過音が聴こえてくる実施形態である。ドア502を閉じたとき、壁500全体から透過音が聴こえてくる実施形態も実現可能である。 The example in Figure 8 is an embodiment in which transmitted sound can be heard only through the door 502 when the door 502 is closed. It is also possible to realize an embodiment in which transmitted sound can be heard through the entire wall 500 when the door 502 is closed.

以上の実施形態では、音声生成部105および信号処理部106が、携帯端末装置10に設けられている。これら音声生成部105および信号処理部106が、ヘッドホン20に設けられてもよい。 In the above embodiment, the audio generation unit 105 and the signal processing unit 106 are provided in the mobile terminal device 10. The audio generation unit 105 and the signal processing unit 106 may also be provided in the headphones 20.

以上の実施形態では、建物200、部屋201、202、壁500、ドア502等が実際に存在する例が説明された。本発明をVR(ヴァーチャル・リアリティ)に適用する場合、建物200、部屋201、202、壁500、ドア502等は、バーチャルであってもよい。 In the above embodiment, an example has been described in which the building 200, the rooms 201 and 202, the walls 500, the doors 502, etc. actually exist. When the present invention is applied to VR (virtual reality), the building 200, the rooms 201 and 202, the walls 500, the doors 502, etc. may be virtual.

以上の実施形態では、遮蔽物に遮蔽されない場合の第2の音質に変化させる音声処理部として、頭部伝達関数を示した。しかし、例えば音量を変える処理も、当該音声処理の一例である。 In the above embodiment, a head-related transfer function is used as an audio processing unit that changes the sound quality to the second sound quality when the sound is not blocked by an obstruction. However, for example, a process of changing the volume is also an example of the audio processing.

以上詳述した実施形態から、以下のような態様が把握される。 From the embodiment described above in detail, the following aspects can be understood:

《態様1》
本開示の態様1に係るデバイスシステムは、デバイス、センサおよび音声生成手段を備える。デバイスは、ユーザが装用する。センサは、移動可能な遮蔽物の移動を検出する。音声処理部は、遮蔽物の反対側に定位された仮想音源から遮蔽物で遮蔽された場合の第1の音質の音声を生成してデバイスから放音し、遮蔽物が仮想音源を遮蔽する位置から移動したことをセンサが検出したとき、音声の音質を、遮蔽物で遮蔽された音質から遮蔽されない場合の第2の音質に変化させる。
<<Aspect 1>>
A device system according to a first aspect of the present disclosure includes a device, a sensor, and a sound generating means. The device is worn by a user. The sensor detects the movement of a movable obstruction. The sound processing unit generates a sound of a first sound quality when a virtual sound source located on the opposite side of the obstruction is obstructed by the obstruction and emits the sound from the device, and when the sensor detects that the obstruction has moved from a position obstructing the virtual sound source, changes the sound quality of the sound from the sound quality when obstructed by the obstruction to a second sound quality when not obstructed.

《態様2》
本開示の態様2に係るデバイスシステムは、遮蔽物、ユーザおよび仮想音源のうち少なくとも一つが移動したことにより、ユーザが仮想音源の定位位置を直視できるようになった場合、第2の音質に代えて仮想音源の定位位置を直視できる場合の第3の音質の音声を生成する。これにより直接音をユーザに聴かせることができる。
Aspect 2
In the device system according to the second aspect of the present disclosure, when at least one of the obstruction, the user, and the virtual sound source moves and the user is able to directly view the localization position of the virtual sound source, the device system generates sound of a third sound quality for the case where the localization position of the virtual sound source can be directly viewed, instead of the second sound quality. This allows the user to hear the direct sound.

《態様3》
本開示の態様3に係るデバイスシステムは、遮蔽物として、ユーザがいる第1の空間、および、仮想音源が定位される第2の空間を仕切る壁、および、壁に設けられたドアを用いる。センサとして、ドアの開閉を検出するセンサを用いる。これにより、部屋を隔てて音声を聴く場合の音質が実現される。
Aspect 3
The device system according to the third aspect of the present disclosure uses, as the shielding object, a wall separating a first space in which a user is present from a second space in which a virtual sound source is located, and a door provided on the wall. As the sensor, a sensor that detects the opening and closing of the door is used. This realizes sound quality equivalent to that when listening to sound across a room.

《態様4》
本開示の態様4に係るデバイスシステムは、センサとして、ドアの開閉の程度を検出するものを用いる。音声処理部は、センサが検出したドアの開閉の程度に応じて、第1の音質および第2の音質をクロスフェードした音質の音声を生成する。これにより、ドア502が少し開かれた場合や徐々に開かれた場合の音質の変化が実現される。
Aspect 4
The device system according to the fourth aspect of the present disclosure uses a sensor that detects the degree of opening and closing of the door. The audio processing unit generates audio with a sound quality obtained by cross-fading the first sound quality and the second sound quality according to the degree of opening and closing of the door detected by the sensor. This realizes a change in sound quality when the door 502 is opened slightly or gradually.

《態様5》
本開示の態様5に係るデバイスシステムは、開かれたドアの位置SP2における仮想音源の第2の空間内のインパルス応答と、位置SP2からユーザまでの頭部伝達関数とでフィルタリングして第2の音質を実現する。
Aspect 5
The device system according to aspect 5 of the present disclosure achieves a second sound quality by filtering the impulse response in a second space of a virtual sound source at position SP2 of the open door and a head-related transfer function from position SP2 to the user.

1 音声再生システム
10 携帯端末装置(スマートホン)
20 ヘッドホン
21 スピーカ
23 姿勢センサ
24 通信処理部
30 ドアセンサ
31 センサモジュール
30 通信処理部
70 アプリケーションプログラム
100 制御部
106 信号処理部
500 壁
501 固定壁
502 ドア
503 ドア枠
SP1,SP10 仮想音源
1 Audio playback system 10 Mobile terminal device (smartphone)
20 Headphones 21 Speaker 23 Attitude sensor 24 Communication processing unit 30 Door sensor 31 Sensor module 30 Communication processing unit 70 Application program 100 Control unit 106 Signal processing unit 500 Wall 501 Fixed wall 502 Door 503 Door frames SP1, SP10 Virtual sound source

Claims (11)

ユーザが装用する音響デバイスと、
開閉可能な遮蔽物の移動を検出するセンサと、
前記遮蔽物の反対側に定位された仮想音源から前記遮蔽物で遮蔽された場合の第1の音質の音声を生成して前記音響デバイスから放音し、前記遮蔽物が前記仮想音源を遮蔽する位置から移動したことを前記センサが検出したとき、前記音声の音質を、前記第1の音質から前記遮蔽物に遮蔽されない場合の第2の音質に変化させる音声処理部と、
を備えたデバイスシステムであって、
前記遮蔽物、前記ユーザおよび前記仮想音源のうち少なくとも一つが移動したことにより、前記ユーザが前記仮想音源の定位位置を直視できるようになった場合、前記第2の音質に代えて、前記仮想音源の定位位置を直視できる場合の第3の音質の音声を生成する、
デバイスシステム。
An acoustic device worn by a user;
A sensor for detecting the movement of an openable/ closable obstruction;
a sound processing unit that generates a sound of a first sound quality from a virtual sound source located on the opposite side of the obstruction when the virtual sound source is obstructed by the obstruction, emits the sound from the acoustic device, and changes the sound quality of the sound from the first sound quality to a second sound quality when the virtual sound source is not obstructed by the obstruction when the sensor detects that the obstruction has moved from a position obstructing the virtual sound source;
A device system comprising:
When at least one of the obstruction, the user, and the virtual sound source moves and the user is able to directly view the localization position of the virtual sound source, a sound of a third sound quality for when the user can directly view the localization position of the virtual sound source is generated instead of the second sound quality.
Device system.
前記遮蔽物は、前記ユーザがいる第1の空間、および、前記仮想音源が定位される第2の空間を仕切る壁、および、該壁に設けられたドアであり、
前記センサは、前記ドアの開閉を検出するセンサである
請求項1に記載のデバイスシステム。
the obstruction is a wall that separates a first space in which the user is present from a second space in which the virtual sound source is located, and a door provided on the wall;
The device system according to claim 1 , wherein the sensor detects whether the door is open or closed.
前記センサは、前記ドアの開閉の程度を検出するものであり、
前記音声処理部は、前記センサが検出した前記ドアの開閉の程度に応じて、前記第1の音質および前記第2の音質をクロスフェードした音質の音声を生成する
請求項に記載のデバイスシステム。
The sensor detects the degree of opening and closing of the door,
The device system according to claim 2 , wherein the audio processing unit generates audio having a sound quality obtained by cross-fading the first sound quality and the second sound quality in accordance with the degree of opening and closing of the door detected by the sensor.
前記第2の音質は、
前記開かれたドアの位置における前記仮想音源の第2の空間内のインパルス応答と、
前記開かれたドアの位置から前記ユーザまでの頭部伝達関数と、
でフィルタリングされた音質である請求項または請求項に記載のデバイスシステム。
The second sound quality is
an impulse response in a second space of the virtual sound source at the position of the open door;
A head-related transfer function from the position of the open door to the user;
The device system according to claim 2 or 3 , wherein the sound quality is filtered by
前記第1の音質は、前記開かれたドアの位置における前記仮想音源の第2の空間内のインパルス応答と、前記遮蔽物の遮音特性のインパルス応答と、前記開かれたドアの位置から前記ユーザまでの頭部伝達関数と、でフィルタリングされた音質であり、The first sound quality is a sound quality filtered by an impulse response of the virtual sound source in the second space at the position of the open door, an impulse response of the sound insulation characteristic of the obstruction, and a head-related transfer function from the position of the open door to the user;
前記第3の音質は、前記仮想音源の定位位置から前記ユーザまでの頭部伝達関数でフィルタリングされた音質である、The third sound quality is a sound quality filtered by a head-related transfer function from the localization position of the virtual sound source to the user.
請求項4に記載のデバイスシステム。The device system according to claim 4 .
ユーザが装用する音響デバイスおよび移動可能な遮蔽物の移動を検出するセンサを含むデバイスシステムが、
前記遮蔽物の反対側に定位された仮想音源から前記遮蔽物で遮蔽された場合の第1の音質の音声を生成して前記音響デバイスから放音し、前記遮蔽物が前記仮想音源を遮蔽する位置から移動したことを前記センサが検出したとき、前記音声の音質を、前記第1の音質から遮蔽物に遮蔽されない場合の第2の音質に変化させる
音質制御方法であって、
前記ユーザが前記仮想音源の定位位置を直視できる位置にいる場合、前記第2の音質に代えて、前記仮想音源の定位位置を直視できる場合の第3の音質の音声を生成する、
音質制御方法
A device system including an acoustic device worn by a user and a sensor for detecting movement of a movable obstruction,
A sound quality control method comprising: generating a sound of a first sound quality when a virtual sound source is blocked by the blocking object from a virtual sound source located on an opposite side of the blocking object, emitting the sound from the acoustic device; and changing a sound quality of the sound from the first sound quality to a second sound quality when the virtual sound source is not blocked by the blocking object when the sensor detects that the blocking object has moved from a position blocking the virtual sound source.
When the user is in a position where the user can directly view the localization position of the virtual sound source, a sound of a third sound quality for when the user can directly view the localization position of the virtual sound source is generated instead of the second sound quality.
Sound quality control method .
前記遮蔽物として、前記ユーザがいる第1の空間、および、前記仮想音源が定位される第2の空間を仕切る壁、および、該壁に設けられたドアが用いられ、
前記センサとして、前記ドアの開閉を検出するセンサが用いられる
請求項6に記載の音質制御方法。
As the shield, a wall separating a first space in which the user is present from a second space in which the virtual sound source is located, and a door provided on the wall are used,
The sound quality control method according to claim 6 , wherein the sensor is a sensor that detects whether the door is open or closed.
前記センサとして、前記ドアの開閉の程度を検出するものが用いられ、
前記センサが検出した前記ドアの開閉の程度に応じて、前記第1の音質および前記第2の音質をクロスフェードした音質の音声を生成する
請求項に記載の音質制御方法。
The sensor detects the degree of opening and closing of the door,
The sound quality control method according to claim 7 , further comprising generating a sound quality obtained by cross-fading the first sound quality and the second sound quality in accordance with the degree of opening and closing of the door detected by the sensor.
前記第2の音質、前記開かれたドアの位置における前記仮想音源の第2の空間内のインパルス応答、および、前記開かれたドアの位置から前記ユーザまでの頭部伝達関数でフィルタリングされた音質である請求項または請求項に記載の音質制御方法。 The sound quality control method according to claim 7 or 8, wherein the second sound quality is a sound quality filtered by an impulse response in the second space of the virtual sound source at the position of the open door and a head- related transfer function from the position of the open door to the user. 前記第1の音質は、前記開かれたドアの位置における前記仮想音源の第2の空間内のインパルス応答と、前記遮蔽物の遮音特性のインパルス応答と、前記開かれたドアの位置から前記ユーザまでの頭部伝達関数と、でフィルタリングされた音質であり、The first sound quality is a sound quality filtered by an impulse response of the virtual sound source in the second space at the position of the open door, an impulse response of the sound insulation characteristic of the obstruction, and a head related transfer function from the position of the open door to the user;
前記第3の音質は、前記仮想音源の定位位置から前記ユーザまでの頭部伝達関数でフィルタリングされた音質である、The third sound quality is a sound quality filtered by a head-related transfer function from the localization position of the virtual sound source to the user.
請求項9に記載の音質制御方法。The sound quality control method according to claim 9.
ユーザが装用する音響デバイスおよび移動可能な遮蔽物の移動を検出するセンサと通信する携帯端末装置の制御部を、
前記遮蔽物の反対側に定位された仮想音源から前記遮蔽物で遮蔽された場合の第1の音質の音声を生成して前記音響デバイスから放音し、
前記遮蔽物が前記仮想音源を遮蔽する位置から移動したことを前記センサが検出したとき、前記音声の音質を、前記第1の音質から遮蔽物に遮蔽されない場合の第2の音質に変化させる
として機能させる音質制御プログラムであって、
該音質制御プログラムは、前記制御部に、前記ユーザが前記仮想音源の定位位置を直視できる位置にいる場合、前記第2の音質に代えて、前記仮想音源の定位位置を直視できる場合の第3の音質の音声を生成させる、
音質制御プログラム
A control unit of a mobile terminal device that communicates with an acoustic device worn by a user and a sensor that detects the movement of a movable obstruction,
generating a sound having a first sound quality when the sound source is blocked by the obstruction from a virtual sound source located on the opposite side of the obstruction, and emitting the sound from the acoustic device;
When the sensor detects that the obstruction has moved from a position obstructing the virtual sound source, the sound quality of the sound is changed from the first sound quality to a second sound quality when the virtual sound source is not obstructed by the obstruction ,
The sound quality control program causes the control unit to generate, when the user is in a position where the user can directly view the localization position of the virtual sound source, a sound of a third sound quality for when the user can directly view the localization position of the virtual sound source, instead of the second sound quality.
Sound quality control program .
JP2020054233A 2020-03-25 2020-03-25 DEVICE SYSTEM, SOUND QUALITY CONTROL METHOD AND SOUND QUALITY CONTROL PROGRAM Active JP7463796B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020054233A JP7463796B2 (en) 2020-03-25 2020-03-25 DEVICE SYSTEM, SOUND QUALITY CONTROL METHOD AND SOUND QUALITY CONTROL PROGRAM
US17/210,368 US11693621B2 (en) 2020-03-25 2021-03-23 Sound reproduction system and sound quality control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020054233A JP7463796B2 (en) 2020-03-25 2020-03-25 DEVICE SYSTEM, SOUND QUALITY CONTROL METHOD AND SOUND QUALITY CONTROL PROGRAM

Publications (2)

Publication Number Publication Date
JP2021158426A JP2021158426A (en) 2021-10-07
JP7463796B2 true JP7463796B2 (en) 2024-04-09

Family

ID=77857085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020054233A Active JP7463796B2 (en) 2020-03-25 2020-03-25 DEVICE SYSTEM, SOUND QUALITY CONTROL METHOD AND SOUND QUALITY CONTROL PROGRAM

Country Status (2)

Country Link
US (1) US11693621B2 (en)
JP (1) JP7463796B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004317911A (en) 2003-04-18 2004-11-11 Chiba Inst Of Technology Device and method for sound field simulation, computer program, and program recording medium
JP2012505617A (en) 2008-10-14 2012-03-01 ヴェーデクス・アクティーセルスカプ Method for rendering binaural stereo in a hearing aid system and hearing aid system
JP2017522771A (en) 2014-05-28 2017-08-10 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン Determine and use room-optimized transfer functions
WO2019079523A1 (en) 2017-10-17 2019-04-25 Magic Leap, Inc. Mixed reality spatial audio
WO2019121773A1 (en) 2017-12-18 2019-06-27 Dolby International Ab Method and system for handling local transitions between listening positions in a virtual reality environment
WO2019156992A2 (en) 2018-02-06 2019-08-15 Magic Leap, Inc. Systems and methods for augmented reality
WO2019161314A1 (en) 2018-02-15 2019-08-22 Magic Leap, Inc. Dual listener positions for mixed reality

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6475337B2 (en) 2015-07-27 2019-02-27 シャープ株式会社 Voice navigation apparatus and voice navigation program
WO2019126671A1 (en) * 2017-12-22 2019-06-27 Magic Leap, Inc. Caching and updating of dense 3d reconstruction data

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004317911A (en) 2003-04-18 2004-11-11 Chiba Inst Of Technology Device and method for sound field simulation, computer program, and program recording medium
JP2012505617A (en) 2008-10-14 2012-03-01 ヴェーデクス・アクティーセルスカプ Method for rendering binaural stereo in a hearing aid system and hearing aid system
JP2017522771A (en) 2014-05-28 2017-08-10 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン Determine and use room-optimized transfer functions
WO2019079523A1 (en) 2017-10-17 2019-04-25 Magic Leap, Inc. Mixed reality spatial audio
WO2019121773A1 (en) 2017-12-18 2019-06-27 Dolby International Ab Method and system for handling local transitions between listening positions in a virtual reality environment
WO2019156992A2 (en) 2018-02-06 2019-08-15 Magic Leap, Inc. Systems and methods for augmented reality
WO2019161314A1 (en) 2018-02-15 2019-08-22 Magic Leap, Inc. Dual listener positions for mixed reality

Also Published As

Publication number Publication date
US20210301581A1 (en) 2021-09-30
US11693621B2 (en) 2023-07-04
JP2021158426A (en) 2021-10-07

Similar Documents

Publication Publication Date Title
US11024282B2 (en) Apparatus, method and computer program for adjustable noise cancellation
CN107018460B (en) Binaural headphone rendering with head tracking
JP6204618B2 (en) Conversation support system
JP2023175935A (en) Non-blocking dual driver earphones
US8587631B2 (en) Facilitating communications using a portable communication device and directed sound output
Ranjan et al. Natural listening over headphones in augmented reality using adaptive filtering techniques
US20150326963A1 (en) Real-time Control Of An Acoustic Environment
JP4916547B2 (en) Method for transmitting binaural information to a user and binaural sound system
JP7047383B2 (en) Sound output device, sound output method, program
CA2295092C (en) System for producing an artificial sound environment
US10959035B2 (en) System, method, and apparatus for generating and digitally processing a head related audio transfer function
US20080118078A1 (en) Acoustic system, acoustic apparatus, and optimum sound field generation method
US20120128166A1 (en) Systems, methods, apparatus, and computer-readable media for head tracking based on recorded sound signals
US11523244B1 (en) Own voice reinforcement using extra-aural speakers
US11546703B2 (en) Methods for obtaining and reproducing a binaural recording
US11322129B2 (en) Sound reproducing apparatus, sound reproducing method, and sound reproducing system
JP7463796B2 (en) DEVICE SYSTEM, SOUND QUALITY CONTROL METHOD AND SOUND QUALITY CONTROL PROGRAM
US6983054B2 (en) Means for compensating rear sound effect
Ranjan et al. Applying active noise control technique for augmented reality headphones
JP2023080769A (en) Reproduction control device, out-of-head normal position processing system, and reproduction control method
JP2003199186A (en) Means for compensating rear sound effect
JPH03236700A (en) Acoustic signal reproducing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240311

R150 Certificate of patent or registration of utility model

Ref document number: 7463796

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150