JP7463796B2 - DEVICE SYSTEM, SOUND QUALITY CONTROL METHOD AND SOUND QUALITY CONTROL PROGRAM - Google Patents
DEVICE SYSTEM, SOUND QUALITY CONTROL METHOD AND SOUND QUALITY CONTROL PROGRAM Download PDFInfo
- Publication number
- JP7463796B2 JP7463796B2 JP2020054233A JP2020054233A JP7463796B2 JP 7463796 B2 JP7463796 B2 JP 7463796B2 JP 2020054233 A JP2020054233 A JP 2020054233A JP 2020054233 A JP2020054233 A JP 2020054233A JP 7463796 B2 JP7463796 B2 JP 7463796B2
- Authority
- JP
- Japan
- Prior art keywords
- sound
- user
- sound quality
- door
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003908 quality control method Methods 0.000 title claims description 13
- 238000012545 processing Methods 0.000 claims description 66
- 238000012546 transfer Methods 0.000 claims description 43
- 230000004044 response Effects 0.000 claims description 41
- 230000004807 localization Effects 0.000 claims description 17
- 230000033001 locomotion Effects 0.000 claims description 14
- 238000009413 insulation Methods 0.000 claims description 6
- 238000005562 fading Methods 0.000 claims description 4
- 230000000903 blocking effect Effects 0.000 claims 5
- 210000003128 head Anatomy 0.000 description 64
- 230000006870 function Effects 0.000 description 42
- 238000004891 communication Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 18
- 238000000034 method Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 230000005236 sound signal Effects 0.000 description 8
- 210000005069 ears Anatomy 0.000 description 6
- 238000001914 filtration Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 210000000613 ear canal Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/305—Electronic adaptation of stereophonic audio signals to reverberation of the listening space
- H04S7/306—For headphones
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3629—Guidance using speech or audio output, e.g. text-to-speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Automation & Control Theory (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Stereophonic System (AREA)
Description
この発明の一実施形態は、遮蔽物および遮蔽物によって隠されている仮想音源の移動に応じて、仮想音源の音質を変化させる音響デバイスおよび音質制御方法に関する。 One embodiment of the present invention relates to an acoustic device and a sound quality control method that changes the sound quality of a virtual sound source in response to the movement of an obstruction and the movement of the virtual sound source that is hidden by the obstruction.
ユーザに、ヘッドホンまたはイヤホンなどの音響デバイスを装用させて、拡張現実(AR:Augmented Reality)を体験させるARシステムが提案されている。ARシステムは、ユーザが滞在している場所に応じた音声を音響デバイスから放音する。ARシステムは、仮想音源を所定の定位位置に定位させるために、ユーザの現在位置およびユーザの頭部の向きを検出する。ARシステムは、検出された位置や頭部の向きに応じた頭部伝達関数を用いて音声に特定の信号処理を加えることで仮想音源を所定位置に定位させている。 An AR system has been proposed that allows a user to experience augmented reality (AR) by wearing an acoustic device such as headphones or earphones. The AR system emits sound from the acoustic device according to the location where the user is staying. The AR system detects the user's current position and the direction of the user's head in order to localize a virtual sound source at a predetermined localization position. The AR system localizes the virtual sound source at a predetermined position by applying specific signal processing to the sound using a head-related transfer function according to the detected position and head direction.
頭部伝達関数とは、音源位置からユーザの両耳の外耳道までの音声の伝達関数である。音源位置で発生した音声がユーザの耳に到達するまでの間に、頭部形状、耳介形状などによりその音源方向に応じた特性で周波数特性が変化する。頭部伝達関数は、音声がユーザの耳に到達するまでの間に変化を受けた周波数特性を表した関数であり、音源方向毎に用意されている。ユーザは、各音源方向特有の周波数特性を聞き分けて、音声の到来方向を判断している。したがって、ARシステムが、音声を所定方向の頭部伝達関数を用いて加工して再生することにより、ユーザにさも所定方向から音声が聞こえてきたかのような感覚をもたせることができる。 The head-related transfer function is the transfer function of sound from the sound source position to the ear canals of both user's ears. When sound generated at the sound source position reaches the user's ears, the frequency characteristics change with characteristics according to the direction of the sound source due to the head shape, auricle shape, etc. The head-related transfer function is a function that represents the frequency characteristics that change before the sound reaches the user's ears, and is prepared for each sound source direction. The user determines the direction from which the sound is coming by listening to the frequency characteristics specific to each sound source direction. Therefore, by processing the sound using the head-related transfer function for a specified direction and playing it back, the AR system can give the user the sensation that the sound is coming from the specified direction.
ユーザの位置と仮想音源との間に、現実のまたは仮想的な遮蔽物がある場合、遮蔽物の影響が音質に反映されることが好ましい。例えば、特許文献1には、ユーザが滞在している場所に応じた道順を提示することにより、ユーザをナビゲーションする音声ナビゲーションシステムが開示されている。この文献では、目的物(目的地)についてのガイド音声が再生される際、目的物とユーザの位置との間に遮蔽物がある場合、音質を変化(減衰)させることが提案されている。なお、特許文献1のシステムは、目的物とユーザの位置との間に遮蔽物がある場合にナビゲーション音声を減衰させるものであり、目的物の位置にナビゲーション音声を定位するものではない。
When there is a real or virtual obstruction between the user's position and the virtual sound source, it is preferable that the effect of the obstruction is reflected in the sound quality. For example,
従来のARシステムは、仮想音源の定位位置が現実のまたは仮想的な扉や窓などの遮蔽物によって遮蔽された場所であるか否かを考慮して仮想音源の音質を制御していなかった。このため、拡張現実のリアリティが低下してしまう問題があった。 Conventional AR systems do not control the sound quality of virtual sound sources by taking into account whether the location of the virtual sound source is blocked by a real or virtual door, window, or other obstruction. This causes a problem of reducing the realism of augmented reality.
そこで、本発明の一実施形態に係る目的の一つは、現実世界の扉や窓などの遮蔽物による仮想音源の遮蔽状態を考慮して、仮想音源の聞こえ方をよりリアルに加工できるようにすることにある。 Therefore, one of the objectives of one embodiment of the present invention is to make it possible to process the way a virtual sound source sounds more realistically by taking into account the state of obstruction of the virtual sound source by obstacles such as doors and windows in the real world.
本発明の一実施形態に係るデバイスシステムは、デバイス、センサおよび音声生成手段を備える。デバイスは、ユーザが装用する。センサは、移動可能な遮蔽物の移動を検出する。音声処理部は、遮蔽物の反対側に定位された仮想音源から遮蔽物で遮蔽された場合の第1の音質の音声を生成してデバイスから放音し、遮蔽物が仮想音源を遮蔽する位置から移動したことをセンサが検出したとき、音声の音質を、遮蔽物で遮蔽された音質から遮蔽されない場合の第2の音質に変化させる。 A device system according to one embodiment of the present invention includes a device, a sensor, and a sound generating means. The device is worn by a user. The sensor detects the movement of a movable obstruction. The sound processing unit generates sound of a first sound quality when a virtual sound source located on the opposite side of the obstruction is obstructed by the obstruction and emits the sound from the device, and when the sensor detects that the obstruction has moved from a position obstructing the virtual sound source, changes the sound quality of the sound from the sound quality when obstructed by the obstruction to a second sound quality when not obstructed.
本発明の一実施形態に係る音質制御方法は、ユーザが装用する音響デバイスおよび移動可能な遮蔽物の移動を検出するセンサを含むデバイスシステムが、遮蔽物の反対側に定位された仮想音源から遮蔽物で遮蔽された場合の第1の音質の音声を生成して音響デバイスから放音し、遮蔽物が移動したことをセンサが検出したとき、音声の音質を第1の音質から遮蔽物に遮蔽されない場合の第2の音質に変化させることを特徴とする。 A sound quality control method according to one embodiment of the present invention is characterized in that a device system including an acoustic device worn by a user and a sensor for detecting the movement of a movable obstruction generates sound of a first sound quality when obstructed by an obstruction from a virtual sound source positioned on the opposite side of the obstruction, emits the sound from the acoustic device, and when the sensor detects that the obstruction has moved, changes the sound quality of the sound from the first sound quality to a second sound quality when not obstructed by an obstruction.
本発明の一実施形態に係る音質制御プログラムは、ユーザが装用する音響デバイスおよび移動可能な遮蔽物の移動を検出するセンサと通信する携帯端末装置の制御部を、遮蔽物の反対側に定位された仮想音源から遮蔽物で遮蔽された場合の第1の音質の音声を生成して音響デバイスから放音し、遮蔽物が移動したことをセンサが検出したとき、音声の音質を第1の音質から遮蔽物に遮蔽されない場合の第2の音質に変化させる音声制御手段として機能させることを特徴とする。 A sound quality control program according to one embodiment of the present invention is characterized in that it causes a control unit of a mobile terminal device that communicates with an acoustic device worn by a user and a sensor that detects the movement of a movable obstruction to function as a sound control means that generates sound of a first sound quality when obstructed by an obstruction from a virtual sound source positioned on the opposite side of the obstruction, emits the sound from the acoustic device, and when the sensor detects that the obstruction has moved, changes the sound quality of the sound from the first sound quality to a second sound quality when not obstructed by an obstruction.
この発明の一実施形態によれば、遮蔽物による仮想音源の遮蔽状態を考慮して、仮想音源の聞こえ方をよりリアルに加工することが可能となる。 According to one embodiment of the present invention, it is possible to process the way a virtual sound source sounds more realistically by taking into account the state of obstruction of the virtual sound source by an obstruction object.
図1は、本発明が適用される音声再生システム1の構成を示す図である。図2は、音声再生システム1の携帯端末装置10のブロック図である。音声再生システム1は、携帯端末装置10、音響デバイスであるヘッドホン20、および、ドアセンサ30を含む。図1は、ユーザLが、携帯端末装置10を手に持ち、ヘッドホン20を装用した例を示している。ユーザLは、この装備で図5に示す部屋201に入る。ユーザLが部屋201に入ると、携帯端末装置10は、シナリオファイル72(単に、シナリオ72とも言う)に基づいて、部屋202に定位する音声を再生する。ヘッドホン20が本発明の音響デバイスに対応する。
Fig. 1 is a diagram showing the configuration of an
携帯端末装置10は、例えば、スマートホン(多機能携帯電話)が用いられる。携帯端末装置10とヘッドホン20とは、Bluetooth(登録商標)で接続されており、相互に通信可能である。携帯端末装置10とヘッドホン20との接続は、Bluetoothに限定されず、他の無線通信規格または有線でもよい。ヘッドホン20は、2個のスピーカ21R,21Lとヘッドバンド22とを組み合わせた、いわゆる耳掛け型である。ヘッドホン20は、ヘッドバンド22に姿勢センサ23を有し、ユーザLの頭部の向きをトラッキング可能である。姿勢センサ23は、3軸ジャイロ(角速度)センサ、6軸センサ(3軸ジャイロセンサ+3軸モーション(加速度)センサ)、および、9軸センサ(3軸ジャイロセンサ+3軸モーションセンサ+3軸コンパス(方位)センサ)のいずれが用いられてもよい。音響デバイスとして、ヘッドホン20に代えてイヤホンが用いられてもよい。
The
ドアセンサ30は、固定壁501(図5参照)に設けられたドア502の開閉状態を検出する。ドアセンサ30は、携帯端末装置10にドア502の開閉状態の情報を送信する。ドアセンサ30と携帯端末装置10とは、Bluetooth Low Energy(BLE)で接続されている。BLEおよび通常のBluetoothは、一つのデバイスで併用可能である。この実施形態でBluetoothは、上述のように、携帯端末装置10とヘッドホン20との接続に用いられている。ドアセンサ30と携帯端末装置10との接続形態は、BLEに限定されない。例えばドアセンサ30と携帯端末装置10は、Wi-Fi(登録商標)または携帯通信ネットワーク等、インターネットを介して接続してもよい。
The
図2は、携帯端末装置10のブロック図である。携帯端末装置10は、ハードウェア的には、制御部100、記憶部103、音声生成部105、信号処理部106および通信処理部107などを備えたスマートホンである。制御部100は、CPUを備えている。記憶部103は、ROM、RAMおよびフラッシュメモリを備えている。
Figure 2 is a block diagram of the
携帯端末装置10、ヘッドホン20およびドアセンサ30は、携帯端末装置10が、記憶部103に記憶されているプログラム70を起動することにより音声再生システム1として機能する。
The
記憶部103は、上述のプログラム70を記憶しているとともに、シナリオファイル72、および、音声データ73を記憶する。プログラム70は、携帯端末装置10、ヘッドホン20およびドアセンサ30を音声再生システムとして機能させるためのアプリケーションプログラムである。シナリオファイル72は、ユーザLに対して所定の音声を順次再生するための手順が記載されたファイルである。シナリオファイル72は、音声を再生する場所、例えば、図5に示す建物200の形状や壁500の配置などが記載されたレイアウトテーブル72Aを含んでいる。音声データ73は、シナリオファイル72にしたがって再生される音声のデータである。音声データ73は、たとえばPCMやMP4のような音声信号であってもよく、音声生成部105をシンセサイザとして利用する音声合成データであってもよい。なお、音声データ73が音声信号の場合、制御部100が、音声生成部105として、音声データ73を読み出してもよい。
The
フィルタ係数71は、頭部伝達関数および部屋201の所定位置におけるインパルス応答を含んでいる。これらのフィルタ係数は、図5等に示す仮想音源SP1をユーザLに対して所定の位置に定位させるために使用される。フィルタ係数71は、信号処理部106において使用される。なお、以下の記載において、SP1を仮想音源位置とも言う。
The filter coefficients 71 include a head-related transfer function and an impulse response at a predetermined position in the
制御部100は、携帯端末装置10の動作を制御する。制御部100は、プログラム70が起動されることにより、位置決定部101、頭部方向決定部102としても機能する。位置決定部101は、携帯端末装置10の現在位置を決定する。音声再生システム1では、携帯端末装置10の位置がユーザLの位置として使用される。位置決定部101は、屋外であれば、GPS、みちびき等の衛星測位システムが用いられればよい。位置決定部101は、屋内であれば、屋内に設置されたビーコン等の位置測定システムが用いられればよい。屋内の場合でも、位置決定部101は、まず屋外で衛星測位システムを用いて正確な位置を決定しておき(キャリブレーション)、その後は姿勢センサ23を用いてユーザLの移動をトレースして屋内での位置を決定してもよい。ユーザLの移動をトレースする場合、姿勢センサ23は、ユーザLのモーションを検出できる6軸センサまたは9軸センサが好適である。
The
頭部方向決定部102は、ヘッドホン20から取得した姿勢センサ23の検出値に基づいてユーザLの頭部の向きを決定する。姿勢センサ23が3軸のジャイロセンサの場合、制御部100は、最初にユーザLに所定の方向を向かせて頭部方向を決定する(キャリブレーション)。その後、制御部100は、姿勢センサ23から角速度情報を取得し、この角速度情報を頭部方向に積算することで現在のユーザLの頭部の向きを決定する。姿勢センサ23がジャイロセンサおよびコンパスセンサを含む場合、応答の速いジャイロセンサでユーザLの頭部方向の変化に追従しつつ、応答の遅いコンパスセンサでジャイロセンサの積分誤差をキャンセルするようにすればよい。
The head
音声生成部105は、音声データ73を再生する。音声データ73は、たとえばPCMやMP4のような音声信号であってもよく、音声生成部105をシンセサイザとして利用する音声合成データであってもよい。信号処理部106は、仮想音源SP1(図5参照)およびユーザLの位置に応じて、音声の音質を制御する。また、信号処理部106は、位置決定部101、頭部方向決定部102から取得したユーザLの位置および向きに応じて音声の定位を決定し、定位方向の頭部伝達関数を読み出して、音声をフィルタリングする。音声生成部105および信号処理部106が、本発明の音声処理部に対応する。
The
音声再生システム1は、シナリオファイル72に基づき、部屋201にいるユーザLに対して、壁500で隔てられた隣の部屋202に音声を定位させる(図5-8等参照)。壁500にはドア502が設けられている。ドア502が閉じているとき、音声再生システムは、壁500で遮られた向こうの部屋から聞こえてくるような音質で音声を再生する。ドア502が開いているとき、音声再生システムは、部屋202で響いている音声がドア枠503を通って聞こえてくるような音質で音声を再生する。携帯端末装置10(通信処理部107)は、処理された音声をヘッドホン20に送信する。ヘッドホン20は、受信した音声をスピーカ21R,21Lから出力する。これにより、ユーザLは、シナリオファイル72にしたがって、予め決められた定位位置から聞こえてくる聴感で音声を聞くことができる。
Based on the
通信処理部107は、Bluetooth対応機器であるヘッドホン20、および、ドアセンサ30と通信する。通信処理部107は、ヘッドホン20の通信処理部24とBluetoothで通信する。通信処理部107は、ドアセンサ30の通信処理部32とBluetooth BLEで通信する。通信処理部107は、ヘッドホン20に対してオーディオ信号の送信を行うとともに、ヘッドホン20から姿勢センサ23の検出値を受信する。通信処理部107は、ドアセンサ30からドア502の開閉状態の情報を受信する。
The
図3は、ヘッドホン20の構成を示すブロック図である。ヘッドホン20は、スピーカ21L,21R、姿勢センサ23、通信処理部24、AIF25、DAC26L,26R、アンプ27L,27Rを備えている。
Figure 3 is a block diagram showing the configuration of the
通信処理部24は、BluetoothまたはBLEで携帯端末装置10(通信処理部107)と通信する。AIF(Audio Interface)25は、携帯端末装置10から受信した音声信号を左右チャンネルの信号に分離してDAC26L,26Rに送信する。DAC(Digtal to Analog Converter)26L,26Rは、AIF25から入力されたデジタル信号をアナログ信号に変換する。アンプ27L,27Rは、DAC26L,26Rから入力されたアナログ信号を増幅してスピーカ21L,21Lに供給する。これにより、携帯端末装置10から受信した音声信号は、音響としてスピーカ21L,21Rから放音される。ヘッドホン20は、ユーザLの頭部に装用されているため、スピーカ21,21Rから放音された音声はユーザLの左右の耳で聴取される。
The
図4は、ドアセンサ30ブロック図である。ドアセンサ30は、図5に示されるように、ドア502のヒンジ近傍に取り付けられ、ドア502の固定壁501に対する開閉状態の情報を検出および出力する。開閉状態の情報は、固定壁501に対する角度で表される。ドアセンサ30は、センサモジュール31および通信処理部32を備えている。センサモジュール31は、ドア502の開閉状態を検出する。センサモジュール31は、例えば、ロータリエンコーダ、半導体センサ、または、光電センサなどで構成される。ロータリエンコーダは、ドア502のヒンジと同軸で回転してドア502の回転角度または絶対角度を検出する。半導体センサは、ドア502の開閉による角速度を検出し、この角速度を積分してドア502の角度を算出する。光学センサは、ドア502および固定壁501にそれぞれ発光部および受光部を有し、発光部から受光部に至る光の位置の変化によってドア502の角度を検出する。センサモジュール31は、上に述べたものに限定されない。たとえば、センサモジュール31が、ポテンショメータであってもよい。また、センサモジュール31が、ドア502が完全に閉じているか、少しでも開いているかのみを検出すればよい場合、センサモジュール31はリミットスイッチでもよい。通信処理部32は、センサモジュール31が検出したドア502の開閉状態の情報を携帯端末装置10に送信する。
Figure 4 is a block diagram of the
図5は、本発明の音声再生システムでユーザLを導き入れてシナリオが実行される建物200の平面図である。建物200には、部屋201および部屋202が設けられている。部屋201および部屋202は、壁500で仕切られている。壁500は、固定壁501と固定壁501の一部に設けられたドア502とを有している。ドア502は、固定壁501に形成されたドア枠503に取り付けられている。ドア502は、部屋201側に揺動自在である。壁500が本発明の遮蔽物に対応する。
Figure 5 is a plan view of a
建物200およびその内部の位置はXY座標で特定される。XY座標は、図5左下に示されるように、図中左右方向に設定されたX軸、上下方向に設定されたY軸に基づいて決定される。部屋201、202の形状、壁500の位置、ドア502の位置は全てXY座標で表され、レイアウトテーブル72Aに記憶されている。本実施形態の音声再生システム1は、音声の定位処理を二次元、すなわち、音源の位置、ユーザLの耳の位置などは全て同じ高さにあるとみなして音像定位処理を行っている。音像定位を高さを含む三次元で行う場合は、図面の表裏方向に高さ方向のZ軸を設定すればよい。
The
ドア502には、ドア502の開閉状態を検出するためのドアセンサ30が設けられている。図5では、ドア502は部屋201側に開かれている。ドア502はユーザLによって手動で開かれてもよく、図示しないアクチュエータなどによって自動的に開かれてもよい。
The
ユーザLは、部屋201を移動しつつ、音声再生システム1によって再生される音声を聴く。音声再生システム1は、ユーザLの位置、時刻等でシナリオファイル72を参照し、シナリオファイル72によって指示された音声を再生する。図5に示した場面では、音声再生システム1は、部屋202の仮想音源位置SP1に定位するピアノ演奏音を再生する。図5では、仮想音源位置SP1の場所に、実際のピアノ300が設置されているが、実際のピアノ300は必須ではない。
User L listens to the sound reproduced by the
図5において、ユーザLは、ヘッドホン20からピアノ演奏音が聞こえてくると、ドア502の近くの位置LP1へ移動してドア502を開ける(図5はドア502が開いた状態を示している)。これにより、ユーザLは、部屋202でピアノ300が鳴っていることを認識するが、ユーザLは、固定壁501で遮られて、位置LP1からピアノ300(仮想音源位置SP1)を直接見ることができない。ユーザLは、ドア502を開けたのち、音声が鳴っている場所を探すため、位置LP2へ移動する。位置LP2へ移動したユーザLは、ドア枠503を介して部屋202の中を見ることによって、ピアノ300(仮想音源位置SP1)を発見する。
In FIG. 5, when user L hears the sound of a piano being played through
ユーザLが上のような行動をした場合の、音声再生システム1による音声(ピアノ演奏音)の音質の制御態様は、以下のとおりである。ドア502が閉じているとき、音声再生システム1は、ユーザLに対して、壁500の向こう側でピアノ300が演奏され、壁500(ドア502)から漏れてくるような音質でピアノ演奏音を再生する。ドア502が開かれたとき、音声再生システム1は、部屋202で響いているピアノ演奏音がドア枠503を介して聞こえてくるような音質で、ピアノ演奏音を再生する。ただし、位置LP1では、ユーザLは、仮想音源位置SP1に定位されているピアノ演奏音の直接音を聴くことができない。その後、ユーザLは、ピアノ300が見える位置である位置LP2に移動する。ユーザLが位置LP2に移動したとき、音声再生システム1は、ピアノ演奏音の直接音をユーザLに対して再生する。
When the user L behaves as described above, the sound quality of the sound (piano performance sound) controlled by the
図6-8を参照して、ドア502が閉じているとき、ドア502が開かれユーザLが位置LP1にいるとき、および、ユーザLが位置LP2に移動したときの仮想音源位置SP1で発生した音声の伝達形態を説明する。以下の説明では、仮想音源位置SP1で発生した音声を音声S(SP1)と呼ぶ。なお、図5-9、および、図13の記載において、音声S(SP1)等の括弧“()”は、“-”で代用される。
With reference to Figures 6-8, the transmission mode of sound generated at virtual sound source position SP1 when
図6は、ドア502が開かれた状態のドア枠503を介してユーザLに聞こえてくる音声(間接音)を説明する図である。音声S(SP1)は、部屋202全体に伝わり、壁で反射するなどして部屋202内に響きを形成する。ドア枠503の位置SP2においても、位置SP2における響きの音声が鳴動する。以下、位置SP2で聴取される音声を音声S(SP2)と呼ぶ。仮想音源位置SP1から位置SP2への音声の伝搬は、仮想音源位置SP1に発音源を設置し、位置SP2にマイクを設置して測定されたインパルス応答で表される。このインパルス応答を、以下、インパルス応答IR(1-2)と呼ぶ。インパルス応答IR(1-2)は、上述したように、部屋202に響いているピアノ演奏音S(SP1)を位置SP2で聴取した場合の応答波形を表している。音声S(SP2)は、音声S(SP1)にインパルス応答IR(1-2)を畳み込むFIRフィルタでフィルタリングすることによって得られる。
Figure 6 is a diagram explaining the sound (indirect sound) heard by the user L through the
ドア502が開かれている場合、ドア枠503に到達した音声S(SP2)が、部屋201に伝わり、ユーザLまで到達する。ドア枠503の位置SP2から、ユーザLの両耳までの音声の伝搬は、ユーザLの位置およびユーザLの頭部の向きに応じた頭部伝達関数によって表される。このときの頭部伝達関数を、以下、頭部伝達関数HRTF(2-L)と呼ぶ。開いたドア502(ドア枠503)からユーザLに聞こえてくる音声である間接音S(L open)は、音声S(SP2)を頭部伝達関数HRTF(2-L)で処理することによって得られる。具体的には、頭部伝達関数HRTF(2-L)を時間領域の係数列に変換した頭部インパルス応答を音声S(SP2)に畳み込むFIRフィルタでフィルタリングすることによって、間接音S(L open)が得られる。なお、処理を容易にするため、部屋201における残響(インパルス応答)は、考慮しないものとする。
When the
図7は、音源から直接ユーザLに聞こえてくる音声(直接音)を説明する図である。ユーザLが位置LP2にいる場合、仮想音源位置SP1を直接目視可能であるため、音声S(SP1)の直接音が聞こえる。直接音の伝搬は、仮想音源位置SP1からユーザLの位置およびユーザLの頭部の向きに応じた頭部伝達関数によって表される。このときの頭部伝達関数を、以下、頭部伝達関数HRTF(1-L)と呼ぶ。直接音S(L direct)は、音声S(SP1)を頭部伝達関数HRTF(1-L)で処理することによって得られる。具体的には、頭部伝達関数HRTF(1-L)を時間領域の係数列に変換した頭部インパルス応答を音声S(SP1)に畳み込むFIRフィルタでフィルタリングすることによって、直接音S(L direct)が得られる。 Figure 7 is a diagram explaining the sound (direct sound) that the user L hears directly from the sound source. When the user L is at position LP2, the virtual sound source position SP1 is directly visible, and the direct sound of the sound S (SP1) is heard. The propagation of the direct sound is represented by a head-related transfer function according to the position of the user L from the virtual sound source position SP1 and the direction of the user L's head. Hereinafter, the head-related transfer function at this time is referred to as the head-related transfer function HRTF (1-L). The direct sound S (L direct) is obtained by processing the sound S (SP1) with the head-related transfer function HRTF (1-L). Specifically, the direct sound S (L direct) is obtained by filtering the sound S (SP1) with an FIR filter that convolves the head impulse response, which is a time-domain coefficient sequence of the head-related transfer function HRTF (1-L), with the sound S (SP1).
図8は、閉じられたドア502を透過してユーザLに聞こえてくる音声(透過音)を説明する図である。この実施形態では、固定壁501は、全く音声を透過しないとする。ドア502が閉じている場合、部屋201に居るユーザLは、部屋202からドア502を抜けて伝わってくる音声を聴く。ドア502に到達する音声は、上記のように音声S(SP2)である。透過音S(L door)は、音声S(SP2)がドア502に到達し、閉じているドア502を通過してドア表面(部屋201側)SP20に伝わり、ドア表面SP20からユーザLに伝わったものである。したがって、音声S(L door)の伝搬は、以下の3つのインパルス応答で表される。仮想音源位置SP1からドア502(SP2)までのインパルス応答、ドア502(SP2)からドア表面SP20までのインパルス応答、および、ドア表面SP20からユーザLまでの頭部伝達関数HRTF(20-L)。なお、処理を容易にするため、部屋201における残響(インパルス応答)は、考慮しないものとする。
Figure 8 is a diagram explaining the sound (transmitted sound) that is heard by the user L through a
頭部伝達関数HRTF(20-L)は、図6の頭部伝達関数HRTF(2-L)とほぼ同じと考えられる。したがって、頭部伝達関数HRTF(2-L)が頭部伝達関数HRTF(20-L)として用いられてもよい。 The head-related transfer function HRTF(20-L) is considered to be approximately the same as the head-related transfer function HRTF(2-L) in FIG. 6. Therefore, the head-related transfer function HRTF(2-L) may be used as the head-related transfer function HRTF(20-L).
なお、ドア502(SP2)からドア表面SP20までのインパルス応答は、ドア502の遮音特性である。ドア502の遮音特性のインパルス応答を、以下、インパルス応答IR(door)と呼ぶ。
The impulse response from door 502 (SP2) to door surface SP20 is the sound insulation characteristic of
閉じたドア502を透過してユーザLに聞こえてくる音声である間接音S(L door)は、音声S(SP20)を頭部伝達関数HRTF(20-L)で処理することによって得られる。具体的には、頭部伝達関数HRTF(20-L)を時間領域の係数列に変換した頭部インパルス応答を音声S(SP20)に畳み込むFIRフィルタでフィルタリングすることによって、透過音S(L door)が得られる。
Indirect sound S (L door), which is sound that passes through the
図8に示したように、ドア502が、閉じているとき、音声再生システム1は、ユーザLに対して、透過音S(L door)のみを再生する。
As shown in FIG. 8, when the
図6に示したように、ドア502が開いているが、ユーザLが、ピアノ300が見えない場所(たとえば場所LP1)にいるとき、音声再生システム1は、ユーザLに対して、ドア枠503から聞こえてくる間接音S(L open)を再生する。
As shown in FIG. 6, when the
図7に示したように、ドア502が開いていて、ユーザLが、ピアノ300の見える位置(たとえば位置LP2)にいるとき、音声再生システム1は、ユーザLに対して、仮想音源位置SP1(ピアノ300)からの直接音S(L direct)、および、間接音S(L open)を再生する。これは、ユーザLがピアノ300を目視できる位置にいる場合であっても、間接音S(L open)は、ユーザLに聞こえてくるためである。
As shown in FIG. 7, when the
ユーザLが、ピアノ300(仮想音源位置SP1)が完全に見える位置にいるか、一部のみ見える位置にいるかで直接音S(L direct)のゲインを変えてもよい。また、この場合に、音質が、周波数領域で高音域の少し減衰させるなどの調整がされてもよい。 The gain of the direct sound S (L direct) may be changed depending on whether the user L is in a position where the piano 300 (virtual sound source position SP1) is completely visible or only partially visible. In this case, the sound quality may be adjusted in the frequency domain, such as by slightly attenuating the high-pitched sounds.
図9は、信号処理部106の機能ブロック図である。信号処理部106は、たとえばDSP(degitalsignal processor)で構成されており、プログラムにより、音声生成部105で生成された音声の信号処理を行うための種々の機能部が構成される。音声生成部105は、上述したように、ピアノ演奏音などの音声を生成する。信号処理部106は、音声を処理して、透過音S(L door)、間接音S(L open)、および、直接音S(L direct)を生成する。図示のフィルタ64-69は、全てFIRフィルタである。図9では信号の流れを一重線で表しているが、処理される音声信号は左右2チャンネルの信号である。
Figure 9 is a functional block diagram of the
直列に接続されたフィルタ64-66は、ドア502が閉じられている場合の透過音S(L door)を生成する。フィルタ64には、仮想音源位置SP1からドア502の位置SP2までのインパルス応答IR(1-2)がセットされる。フィルタ64は、音声S(SP1)をフィルタリングして音声S(SP2)を生成する。フィルタ65には、ドア502の遮音特性であるインパルス応答IR(door)がセットされる。フィルタ65は、音声S(SP2)をフィルタリングして音声S(SP20)を生成する。フィルタ66には、ドア502の部屋201側の位置SP20からユーザLの位置および頭部の向きに応じた頭部伝達関数(頭部インパルス応答)HRTF(20-L)がセットされる。フィルタ66は、音声S(SP20)をフィルタリングして透過音S(L door)を生成する。この実施形態では、インパルス応答IR(1-2)、インパルス応答(遮音特性)IR(door)、および、頭部伝達関数HRTF(20-L)の演算ために、3つのフィルタ64-66が設けられている。しかし、これらのフィルタ係数を合成した1つのフィルタで透過音S(L door)が生成されてもよい。
The serially connected filters 64-66 generate a transmitted sound S (L door) when the
直列に接続されたフィルタ67,68は、ドア502が開かれている場合の間接音S(L open)を生成する。フィルタ67には、仮想音源位置SP1からドア502の位置SP2までのインパルス応答IR(1-2)がセットされる。フィルタ67は、音声S(SP1)をフィルタリングして音声S(SP2)を生成する。フィルタ68には、ドア502の位置SP2からユーザLの位置および頭部の向きに応じた頭部伝達関数(頭部インパルス応答)HRTF(2-L)がセットされる。フィルタ68は、音声S(SP2)をフィルタリングして間接音S(L open)を生成する。この実施形態では、インパルス応答IR(1-2)、および、頭部伝達関数HRTF(2-L)のために、2つのフィルタ66、67が設けられている。しかし、これらのフィルタ係数を合成した1つのフィルタで間接音S(L open)が生成されてもよい。
The serially connected filters 67 and 68 generate an indirect sound S (L open) when the
フィルタ69は、直接音S(L direct)を生成する。フィルタ68には、仮想音源位置SP1からユーザLの位置およびユーザLの頭部の向きに応じた頭部伝達関数(頭部インパルス応答)HRTF(1-L)がセットされる。フィルタ69は、音声S(SP1)をフィルタリングして直接音S(L direct)を生成する。
The
ゲイン調整部61-63は、生成された透過音S(L door)、間接音S(L open)、および、直接音S(L direct)のゲインをそれぞれオン/オフおよびゲイン調整する。インパルス応答や頭部伝達関数には、音量制御の要素が含まれているため、信号処理部106は、通常は透過音S(L door)などの生成後にゲインを調整しなくてもよい。ゲイン調整部61-63は、ドア502の開角に応じて間接音S(L open)のゲインを調整する場合、透過音S(L door)および間接音S(L open)をクロスフェードする場合などに使用される。
The gain adjustment units 61-63 turn on/off and adjust the gain of the generated transmitted sound S (L door), indirect sound S (L open), and direct sound S (L direct). Since the impulse response and head-related transfer function include an element of volume control, the
加算部80は、ゲイン調整部61-63でゲインを調整された透過音S(L door)、間接音S(L open)、直接音S(L direct)を加算して、ヘッドホン20に出力される音声S(L)を生成する。信号処理部106は、音声S(L)を通信処理部107に入力する。通信処理部107は、音声S(L)をヘッドホン20に送信する。信号処理部106は、全てのフィルタ64-69および全てのゲイン調整部61-63のフィルタ係数およびゲイン値を合成して一つのフィルタ係数を算出することも可能である。信号処理部106は、このフィルタ係数を用いて一つのFIRフィルタで音声S(L)を生成することも可能である。
The
図10は、携帯端末装置10の音声信号処理動作を示すフローチャートである。この処理はシナリオファイル72に基づいて音声が生成されているときに実行される。この処理は、定期的に、例えば20ミリ秒ごとに、携帯端末装置10の制御部100および信号処理部106などによって実行される。
Figure 10 is a flowchart showing the audio signal processing operation of the mobile
制御部100は、ユーザLの現在位置および頭部方向を取得する(ステップS11,S12)。以下、このフローチャートにおいて、ステップSn(nは任意の数値)を単にSnと言う。制御部100は、ドアセンサ30から受信した信号を判断しドア502が開いているか否かを判断する(S13)。ドア502が閉じている場合は(S13でNO)、ユーザLには透過音のみが聞こえるため、図9に示す信号処理部106に透過音S(L door)の生成を指示する(S14)。信号処理部106から出力された透過音S(L door)は、通信処理部107に出力される(S15)。
The
ドア502が開いている場合は(S13でYES)、制御部100は、ユーザLが仮想音源位置SP1(ピアノ300)を直視できる位置にいるかを判断する(S21)。直視できる位置にいる場合(S21でYES)、制御部100は、処理をS25に進める。直視できない位置にいる場合(S21でNO)、制御部100は、処理をS22に進める。
If the
ユーザLが仮想音源位置SP1を直視できない位置にいる場合(S21でNO)、制御部100は、信号処理部106に間接音S(L open)の生成を指示する(S22)。このとき、制御部100は、ユーザLの位置および頭部の向きに基づいて1つの頭部伝達関数を選択し、フィルタ68にセットする。信号処理部106から出力された間接音S(L open)は、通信処理部107に出力される(S15)。
If the user L is in a position where he/she cannot look directly at the virtual sound source position SP1 (NO in S21), the
ドア502が開いており、ユーザLが仮想音源位置SP1を直視できる位置にいる場合(S21でYES)、制御部100は、信号処理部106に直接音S(L direct)および間接音S(L open)の生成を指示する(S25、S26)。このとき、制御部100は、ユーザLの位置および頭部の向きに基づき、フィルタ68,69にそれぞれ1つの頭部伝達関数をセットする。信号処理部106は、生成された直接音S(L direct)および間接音S(L open)を加算して音声S(L)を生成して(S27)、通信処理部107に出力する(S27)。
When the
制御部100は、図10のステップS13で、ドア502が開いているか閉じているかを判断している。制御部100は、ドア502が開いている場合、どの程度の角度で開いているかを判断し、その角度に応じて間接音S(L open)のゲインを調節してもよい。さらに、制御部100は、ドア502の開角に応じて間接音S(L open)の音質を調節してもよい。
In step S13 of FIG. 10, the
図11は、ドア502の開角で間接音S(L open)のゲインを調節する処理を示すフローチャートである。制御部100は、ドアセンサ30からドア502の開角を取得する(S31)。制御部100は、取得された開角に基づき、ゲイン調整部62にこの開角に応じたゲインを設定する(S32)。このとき、制御部100は、ドア502の開角が大きくなるに従って、間接音S(L open)のゲインを大きくするとともに、透過音S(L door)のゲインを小さくする処理(クロスフェード)をしてもよい。
Figure 11 is a flowchart showing the process of adjusting the gain of the indirect sound S (L open) depending on the opening angle of the
制御部100は、図10のステップS21で、ユーザLが仮想音源SP1を直視できる位置にいるか否かを判断している。制御部100は、仮想音源SP1にピアノ300のような所定の大きさを持たせ、ユーザLが仮想音源SP1をどの程度直視できているかに応じて直接音S(L direct)のゲインを調節してもよい。さらに、制御部100は、ユーザLが仮想音源SP1をどの程度直視できているかに応じて直接音S(L direct)の音質を調節してもよい。
In step S21 of FIG. 10, the
図12は、ユーザLが仮想音源SP1をどの程度直視できているかに応じて直接音S(L direct)のゲインを調節する処理を示すフローチャートである。制御部100は、ユーザLの位置から仮想音源SP1をどの程度直視できるかを算出する(S33)。直視範囲の算出は、ユーザL、仮想音源SP1、および、ドア枠503の座標に基づいて行われる。制御部100は、算出した直視範囲に応じてゲイン調整部62にゲインを設定する(S34)。すなわち、制御部100は、ユーザLが仮想音源SP1全体を直視できる場合は、100%のゲインを設定し、ユーザLが直視できる仮想音源SP1の範囲が狭くなるに従って設定されるゲインが小さくなるようにすればよい。
Figure 12 is a flowchart showing the process of adjusting the gain of the direct sound S (L direct) depending on the extent to which the user L can view the virtual sound source SP1 directly. The
上の実施形態は、仮想音源SP1(ピアノ300)が移動しない場合について説明した。以下の実施形態は、仮想音源SP1が移動する場合について説明する。この実施形態において上の実施形態と同様の構成の部分は同一番号を付して説明を省略する。 The above embodiment describes a case where the virtual sound source SP1 (piano 300) does not move. The following embodiment describes a case where the virtual sound source SP1 moves. In this embodiment, parts with configurations similar to those in the above embodiment are given the same numbers and will not be described.
図13は建物200内の仮想音源SP10およびユーザLの配置を示す図である。部屋のレイアウトは、図5に示したものと同じである。図13において、鳥の外観で記載されている仮想音源SP10は、位置SP10(1)から位置SP10(2)へ移動する。ドア502は開いている。図6、7の実施形態では、ユーザL自身が移動することにより、仮想音源SP1を直視できるようになる。この実施形態では、仮想音源SP10が移動することにより、ユーザLが仮想音源SP10を直視できるようになる。
Figure 13 is a diagram showing the arrangement of a virtual sound source SP10 and a user L in a
ユーザLは、位置LP10に留まっている。仮想音源SP10が、位置SP10(1)にあるとき、ユーザLは、仮想音源SP10を直視することができず、ユーザLには間接音S(L open)が聴こえる。間接音S(L open)は、図6で説明したものと同じであり、SP2における仮想音源SP10(1)のインパルス応答、および、SP2からユーザLまでの頭部伝達関数で算出される。仮想音源SP10が、位置SP10(2)へ移動したとき、ユーザLは、ドア枠503を介して仮想音源SP10を直視することができる。ユーザLは、直接音S(L direct)が聴こえる。直接音S(L direct)は、図7で説明したものと同じであり、SP10(2)からユーザLまでの頭部伝達関数で算出される。また、直接音が聴こえているときも、間接音が併行して聴こえている。この間接音は、SP2における仮想音源SP10(2)のインパルス応答、および、SP2からユーザLまでの頭部伝達関数で算出される。
The user L remains at position LP10. When the virtual sound source SP10 is at position SP10(1), the user L cannot look directly at the virtual sound source SP10, and hears indirect sound S (L open). The indirect sound S (L open) is the same as that described in FIG. 6, and is calculated using the impulse response of the virtual sound source SP10(1) at SP2 and the head-related transfer function from SP2 to the user L. When the virtual sound source SP10 moves to position SP10(2), the user L can look directly at the virtual sound source SP10 through the
仮想音源SP10が移動する場合、制御部100は、図10のフローチャートにおいて、S10、11と併行して仮想音源SP10の位置を取得して、ユーザLが仮想音源SP10を直視できるか否かを計算すればよい。
When the virtual sound source SP10 moves, the
図13の例は、ユーザLが停止している例を示した。さらに、ユーザLが図5-8と同様に移動し、さらに仮想音源SP10が移動する実施形態も実現可能である。 The example in FIG. 13 shows an example in which the user L is stationary. Furthermore, an embodiment in which the user L moves in the same manner as in FIG. 5-8 and the virtual sound source SP10 also moves can also be realized.
実施形態のドア502は、蝶番を用いた揺動式である。ドア502は、揺動式だけでなく、引き戸など他の機構で開閉するものも含む。ドア502が常に開放された実施形態、および、ドア502が無い実施形態、すなわちドア枠503(開口部)のみの実施形態も実現可能である。
The
図5の例は、ユーザLがドア502を開く場合についてのものであった。ユーザLが開いているドア502を閉じる実施形態も実現可能である。
The example in FIG. 5 was for a case where user L opens
図8の例は、ドア502を閉じたとき、ドア502のみから透過音が聴こえてくる実施形態である。ドア502を閉じたとき、壁500全体から透過音が聴こえてくる実施形態も実現可能である。
The example in Figure 8 is an embodiment in which transmitted sound can be heard only through the
以上の実施形態では、音声生成部105および信号処理部106が、携帯端末装置10に設けられている。これら音声生成部105および信号処理部106が、ヘッドホン20に設けられてもよい。
In the above embodiment, the
以上の実施形態では、建物200、部屋201、202、壁500、ドア502等が実際に存在する例が説明された。本発明をVR(ヴァーチャル・リアリティ)に適用する場合、建物200、部屋201、202、壁500、ドア502等は、バーチャルであってもよい。
In the above embodiment, an example has been described in which the
以上の実施形態では、遮蔽物に遮蔽されない場合の第2の音質に変化させる音声処理部として、頭部伝達関数を示した。しかし、例えば音量を変える処理も、当該音声処理の一例である。 In the above embodiment, a head-related transfer function is used as an audio processing unit that changes the sound quality to the second sound quality when the sound is not blocked by an obstruction. However, for example, a process of changing the volume is also an example of the audio processing.
以上詳述した実施形態から、以下のような態様が把握される。 From the embodiment described above in detail, the following aspects can be understood:
《態様1》
本開示の態様1に係るデバイスシステムは、デバイス、センサおよび音声生成手段を備える。デバイスは、ユーザが装用する。センサは、移動可能な遮蔽物の移動を検出する。音声処理部は、遮蔽物の反対側に定位された仮想音源から遮蔽物で遮蔽された場合の第1の音質の音声を生成してデバイスから放音し、遮蔽物が仮想音源を遮蔽する位置から移動したことをセンサが検出したとき、音声の音質を、遮蔽物で遮蔽された音質から遮蔽されない場合の第2の音質に変化させる。
<<
A device system according to a first aspect of the present disclosure includes a device, a sensor, and a sound generating means. The device is worn by a user. The sensor detects the movement of a movable obstruction. The sound processing unit generates a sound of a first sound quality when a virtual sound source located on the opposite side of the obstruction is obstructed by the obstruction and emits the sound from the device, and when the sensor detects that the obstruction has moved from a position obstructing the virtual sound source, changes the sound quality of the sound from the sound quality when obstructed by the obstruction to a second sound quality when not obstructed.
《態様2》
本開示の態様2に係るデバイスシステムは、遮蔽物、ユーザおよび仮想音源のうち少なくとも一つが移動したことにより、ユーザが仮想音源の定位位置を直視できるようになった場合、第2の音質に代えて仮想音源の定位位置を直視できる場合の第3の音質の音声を生成する。これにより直接音をユーザに聴かせることができる。
In the device system according to the second aspect of the present disclosure, when at least one of the obstruction, the user, and the virtual sound source moves and the user is able to directly view the localization position of the virtual sound source, the device system generates sound of a third sound quality for the case where the localization position of the virtual sound source can be directly viewed, instead of the second sound quality. This allows the user to hear the direct sound.
《態様3》
本開示の態様3に係るデバイスシステムは、遮蔽物として、ユーザがいる第1の空間、および、仮想音源が定位される第2の空間を仕切る壁、および、壁に設けられたドアを用いる。センサとして、ドアの開閉を検出するセンサを用いる。これにより、部屋を隔てて音声を聴く場合の音質が実現される。
The device system according to the third aspect of the present disclosure uses, as the shielding object, a wall separating a first space in which a user is present from a second space in which a virtual sound source is located, and a door provided on the wall. As the sensor, a sensor that detects the opening and closing of the door is used. This realizes sound quality equivalent to that when listening to sound across a room.
《態様4》
本開示の態様4に係るデバイスシステムは、センサとして、ドアの開閉の程度を検出するものを用いる。音声処理部は、センサが検出したドアの開閉の程度に応じて、第1の音質および第2の音質をクロスフェードした音質の音声を生成する。これにより、ドア502が少し開かれた場合や徐々に開かれた場合の音質の変化が実現される。
Aspect 4
The device system according to the fourth aspect of the present disclosure uses a sensor that detects the degree of opening and closing of the door. The audio processing unit generates audio with a sound quality obtained by cross-fading the first sound quality and the second sound quality according to the degree of opening and closing of the door detected by the sensor. This realizes a change in sound quality when the
《態様5》
本開示の態様5に係るデバイスシステムは、開かれたドアの位置SP2における仮想音源の第2の空間内のインパルス応答と、位置SP2からユーザまでの頭部伝達関数とでフィルタリングして第2の音質を実現する。
Aspect 5
The device system according to aspect 5 of the present disclosure achieves a second sound quality by filtering the impulse response in a second space of a virtual sound source at position SP2 of the open door and a head-related transfer function from position SP2 to the user.
1 音声再生システム
10 携帯端末装置(スマートホン)
20 ヘッドホン
21 スピーカ
23 姿勢センサ
24 通信処理部
30 ドアセンサ
31 センサモジュール
30 通信処理部
70 アプリケーションプログラム
100 制御部
106 信号処理部
500 壁
501 固定壁
502 ドア
503 ドア枠
SP1,SP10 仮想音源
1
20 Headphones 21
Claims (11)
開閉可能な遮蔽物の移動を検出するセンサと、
前記遮蔽物の反対側に定位された仮想音源から前記遮蔽物で遮蔽された場合の第1の音質の音声を生成して前記音響デバイスから放音し、前記遮蔽物が前記仮想音源を遮蔽する位置から移動したことを前記センサが検出したとき、前記音声の音質を、前記第1の音質から前記遮蔽物に遮蔽されない場合の第2の音質に変化させる音声処理部と、
を備えたデバイスシステムであって、
前記遮蔽物、前記ユーザおよび前記仮想音源のうち少なくとも一つが移動したことにより、前記ユーザが前記仮想音源の定位位置を直視できるようになった場合、前記第2の音質に代えて、前記仮想音源の定位位置を直視できる場合の第3の音質の音声を生成する、
デバイスシステム。 An acoustic device worn by a user;
A sensor for detecting the movement of an openable/ closable obstruction;
a sound processing unit that generates a sound of a first sound quality from a virtual sound source located on the opposite side of the obstruction when the virtual sound source is obstructed by the obstruction, emits the sound from the acoustic device, and changes the sound quality of the sound from the first sound quality to a second sound quality when the virtual sound source is not obstructed by the obstruction when the sensor detects that the obstruction has moved from a position obstructing the virtual sound source;
A device system comprising:
When at least one of the obstruction, the user, and the virtual sound source moves and the user is able to directly view the localization position of the virtual sound source, a sound of a third sound quality for when the user can directly view the localization position of the virtual sound source is generated instead of the second sound quality.
Device system.
前記センサは、前記ドアの開閉を検出するセンサである
請求項1に記載のデバイスシステム。 the obstruction is a wall that separates a first space in which the user is present from a second space in which the virtual sound source is located, and a door provided on the wall;
The device system according to claim 1 , wherein the sensor detects whether the door is open or closed.
前記音声処理部は、前記センサが検出した前記ドアの開閉の程度に応じて、前記第1の音質および前記第2の音質をクロスフェードした音質の音声を生成する
請求項2に記載のデバイスシステム。 The sensor detects the degree of opening and closing of the door,
The device system according to claim 2 , wherein the audio processing unit generates audio having a sound quality obtained by cross-fading the first sound quality and the second sound quality in accordance with the degree of opening and closing of the door detected by the sensor.
前記開かれたドアの位置における前記仮想音源の第2の空間内のインパルス応答と、
前記開かれたドアの位置から前記ユーザまでの頭部伝達関数と、
でフィルタリングされた音質である請求項2または請求項3に記載のデバイスシステム。 The second sound quality is
an impulse response in a second space of the virtual sound source at the position of the open door;
A head-related transfer function from the position of the open door to the user;
The device system according to claim 2 or 3 , wherein the sound quality is filtered by
前記第3の音質は、前記仮想音源の定位位置から前記ユーザまでの頭部伝達関数でフィルタリングされた音質である、The third sound quality is a sound quality filtered by a head-related transfer function from the localization position of the virtual sound source to the user.
請求項4に記載のデバイスシステム。The device system according to claim 4 .
前記遮蔽物の反対側に定位された仮想音源から前記遮蔽物で遮蔽された場合の第1の音質の音声を生成して前記音響デバイスから放音し、前記遮蔽物が前記仮想音源を遮蔽する位置から移動したことを前記センサが検出したとき、前記音声の音質を、前記第1の音質から遮蔽物に遮蔽されない場合の第2の音質に変化させる
音質制御方法であって、
前記ユーザが前記仮想音源の定位位置を直視できる位置にいる場合、前記第2の音質に代えて、前記仮想音源の定位位置を直視できる場合の第3の音質の音声を生成する、
音質制御方法。 A device system including an acoustic device worn by a user and a sensor for detecting movement of a movable obstruction,
A sound quality control method comprising: generating a sound of a first sound quality when a virtual sound source is blocked by the blocking object from a virtual sound source located on an opposite side of the blocking object, emitting the sound from the acoustic device; and changing a sound quality of the sound from the first sound quality to a second sound quality when the virtual sound source is not blocked by the blocking object when the sensor detects that the blocking object has moved from a position blocking the virtual sound source.
When the user is in a position where the user can directly view the localization position of the virtual sound source, a sound of a third sound quality for when the user can directly view the localization position of the virtual sound source is generated instead of the second sound quality.
Sound quality control method .
前記センサとして、前記ドアの開閉を検出するセンサが用いられる
請求項6に記載の音質制御方法。 As the shield, a wall separating a first space in which the user is present from a second space in which the virtual sound source is located, and a door provided on the wall are used,
The sound quality control method according to claim 6 , wherein the sensor is a sensor that detects whether the door is open or closed.
前記センサが検出した前記ドアの開閉の程度に応じて、前記第1の音質および前記第2の音質をクロスフェードした音質の音声を生成する
請求項7に記載の音質制御方法。 The sensor detects the degree of opening and closing of the door,
The sound quality control method according to claim 7 , further comprising generating a sound quality obtained by cross-fading the first sound quality and the second sound quality in accordance with the degree of opening and closing of the door detected by the sensor.
前記第3の音質は、前記仮想音源の定位位置から前記ユーザまでの頭部伝達関数でフィルタリングされた音質である、The third sound quality is a sound quality filtered by a head-related transfer function from the localization position of the virtual sound source to the user.
請求項9に記載の音質制御方法。The sound quality control method according to claim 9.
前記遮蔽物の反対側に定位された仮想音源から前記遮蔽物で遮蔽された場合の第1の音質の音声を生成して前記音響デバイスから放音し、
前記遮蔽物が前記仮想音源を遮蔽する位置から移動したことを前記センサが検出したとき、前記音声の音質を、前記第1の音質から遮蔽物に遮蔽されない場合の第2の音質に変化させる
として機能させる音質制御プログラムであって、
該音質制御プログラムは、前記制御部に、前記ユーザが前記仮想音源の定位位置を直視できる位置にいる場合、前記第2の音質に代えて、前記仮想音源の定位位置を直視できる場合の第3の音質の音声を生成させる、
音質制御プログラム。 A control unit of a mobile terminal device that communicates with an acoustic device worn by a user and a sensor that detects the movement of a movable obstruction,
generating a sound having a first sound quality when the sound source is blocked by the obstruction from a virtual sound source located on the opposite side of the obstruction, and emitting the sound from the acoustic device;
When the sensor detects that the obstruction has moved from a position obstructing the virtual sound source, the sound quality of the sound is changed from the first sound quality to a second sound quality when the virtual sound source is not obstructed by the obstruction ,
The sound quality control program causes the control unit to generate, when the user is in a position where the user can directly view the localization position of the virtual sound source, a sound of a third sound quality for when the user can directly view the localization position of the virtual sound source, instead of the second sound quality.
Sound quality control program .
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020054233A JP7463796B2 (en) | 2020-03-25 | 2020-03-25 | DEVICE SYSTEM, SOUND QUALITY CONTROL METHOD AND SOUND QUALITY CONTROL PROGRAM |
US17/210,368 US11693621B2 (en) | 2020-03-25 | 2021-03-23 | Sound reproduction system and sound quality control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020054233A JP7463796B2 (en) | 2020-03-25 | 2020-03-25 | DEVICE SYSTEM, SOUND QUALITY CONTROL METHOD AND SOUND QUALITY CONTROL PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021158426A JP2021158426A (en) | 2021-10-07 |
JP7463796B2 true JP7463796B2 (en) | 2024-04-09 |
Family
ID=77857085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020054233A Active JP7463796B2 (en) | 2020-03-25 | 2020-03-25 | DEVICE SYSTEM, SOUND QUALITY CONTROL METHOD AND SOUND QUALITY CONTROL PROGRAM |
Country Status (2)
Country | Link |
---|---|
US (1) | US11693621B2 (en) |
JP (1) | JP7463796B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004317911A (en) | 2003-04-18 | 2004-11-11 | Chiba Inst Of Technology | Device and method for sound field simulation, computer program, and program recording medium |
JP2012505617A (en) | 2008-10-14 | 2012-03-01 | ヴェーデクス・アクティーセルスカプ | Method for rendering binaural stereo in a hearing aid system and hearing aid system |
JP2017522771A (en) | 2014-05-28 | 2017-08-10 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | Determine and use room-optimized transfer functions |
WO2019079523A1 (en) | 2017-10-17 | 2019-04-25 | Magic Leap, Inc. | Mixed reality spatial audio |
WO2019121773A1 (en) | 2017-12-18 | 2019-06-27 | Dolby International Ab | Method and system for handling local transitions between listening positions in a virtual reality environment |
WO2019156992A2 (en) | 2018-02-06 | 2019-08-15 | Magic Leap, Inc. | Systems and methods for augmented reality |
WO2019161314A1 (en) | 2018-02-15 | 2019-08-22 | Magic Leap, Inc. | Dual listener positions for mixed reality |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6475337B2 (en) | 2015-07-27 | 2019-02-27 | シャープ株式会社 | Voice navigation apparatus and voice navigation program |
WO2019126671A1 (en) * | 2017-12-22 | 2019-06-27 | Magic Leap, Inc. | Caching and updating of dense 3d reconstruction data |
-
2020
- 2020-03-25 JP JP2020054233A patent/JP7463796B2/en active Active
-
2021
- 2021-03-23 US US17/210,368 patent/US11693621B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004317911A (en) | 2003-04-18 | 2004-11-11 | Chiba Inst Of Technology | Device and method for sound field simulation, computer program, and program recording medium |
JP2012505617A (en) | 2008-10-14 | 2012-03-01 | ヴェーデクス・アクティーセルスカプ | Method for rendering binaural stereo in a hearing aid system and hearing aid system |
JP2017522771A (en) | 2014-05-28 | 2017-08-10 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | Determine and use room-optimized transfer functions |
WO2019079523A1 (en) | 2017-10-17 | 2019-04-25 | Magic Leap, Inc. | Mixed reality spatial audio |
WO2019121773A1 (en) | 2017-12-18 | 2019-06-27 | Dolby International Ab | Method and system for handling local transitions between listening positions in a virtual reality environment |
WO2019156992A2 (en) | 2018-02-06 | 2019-08-15 | Magic Leap, Inc. | Systems and methods for augmented reality |
WO2019161314A1 (en) | 2018-02-15 | 2019-08-22 | Magic Leap, Inc. | Dual listener positions for mixed reality |
Also Published As
Publication number | Publication date |
---|---|
US20210301581A1 (en) | 2021-09-30 |
US11693621B2 (en) | 2023-07-04 |
JP2021158426A (en) | 2021-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11024282B2 (en) | Apparatus, method and computer program for adjustable noise cancellation | |
CN107018460B (en) | Binaural headphone rendering with head tracking | |
JP6204618B2 (en) | Conversation support system | |
JP2023175935A (en) | Non-blocking dual driver earphones | |
US8587631B2 (en) | Facilitating communications using a portable communication device and directed sound output | |
Ranjan et al. | Natural listening over headphones in augmented reality using adaptive filtering techniques | |
US20150326963A1 (en) | Real-time Control Of An Acoustic Environment | |
JP4916547B2 (en) | Method for transmitting binaural information to a user and binaural sound system | |
JP7047383B2 (en) | Sound output device, sound output method, program | |
CA2295092C (en) | System for producing an artificial sound environment | |
US10959035B2 (en) | System, method, and apparatus for generating and digitally processing a head related audio transfer function | |
US20080118078A1 (en) | Acoustic system, acoustic apparatus, and optimum sound field generation method | |
US20120128166A1 (en) | Systems, methods, apparatus, and computer-readable media for head tracking based on recorded sound signals | |
US11523244B1 (en) | Own voice reinforcement using extra-aural speakers | |
US11546703B2 (en) | Methods for obtaining and reproducing a binaural recording | |
US11322129B2 (en) | Sound reproducing apparatus, sound reproducing method, and sound reproducing system | |
JP7463796B2 (en) | DEVICE SYSTEM, SOUND QUALITY CONTROL METHOD AND SOUND QUALITY CONTROL PROGRAM | |
US6983054B2 (en) | Means for compensating rear sound effect | |
Ranjan et al. | Applying active noise control technique for augmented reality headphones | |
JP2023080769A (en) | Reproduction control device, out-of-head normal position processing system, and reproduction control method | |
JP2003199186A (en) | Means for compensating rear sound effect | |
JPH03236700A (en) | Acoustic signal reproducing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230125 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240311 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7463796 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |