JP6730665B2 - headphone - Google Patents

headphone Download PDF

Info

Publication number
JP6730665B2
JP6730665B2 JP2016056716A JP2016056716A JP6730665B2 JP 6730665 B2 JP6730665 B2 JP 6730665B2 JP 2016056716 A JP2016056716 A JP 2016056716A JP 2016056716 A JP2016056716 A JP 2016056716A JP 6730665 B2 JP6730665 B2 JP 6730665B2
Authority
JP
Japan
Prior art keywords
user
musical
musical instrument
sound
instrument
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016056716A
Other languages
Japanese (ja)
Other versions
JP2017175256A (en
Inventor
裕介 小長井
裕介 小長井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2016056716A priority Critical patent/JP6730665B2/en
Publication of JP2017175256A publication Critical patent/JP2017175256A/en
Application granted granted Critical
Publication of JP6730665B2 publication Critical patent/JP6730665B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Headphones And Earphones (AREA)
  • Stereophonic System (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

この発明は、電子楽器などに接続して使用されるヘッドホンに関する。 The present invention relates to headphones that are used by being connected to an electronic musical instrument or the like.

空間に楽音を発しないで、ヘッドホンで演奏者を含む少人数のみに楽音を出力できる楽器がある。典型的には、電子ピアノや電子キーボードがあり、エレキギターやエレキベースはラインアウトからヘッドホンアンプを経由すればそのような使用形態が可能である。また、出願人は、楽音をヘッドホンで聴くことを可能にしたアコースティック楽器(サイレントシリーズ(商標):以下、サイレント楽器)を提供している。 There is a musical instrument that can output music to only a small number of people, including the performer, with headphones, without emitting music to the space. Typically, there are electronic pianos and electronic keyboards, and electric guitars and electric basses can be used in such a manner by going from the line out to the headphone amplifier. Further, the applicant provides an acoustic musical instrument (Silent Series (trademark): hereinafter, silent musical instrument) that enables to listen to a musical sound through headphones.

一方で、上記の楽器、例えば電子ピアノをヘッドホンで使ったとき、聞こえる楽音に違和感を感じるユーザが存在する。これは、ヘッドホンから聞こえて来る楽音が頭内定位してしまい、楽器筐体に設置されたスピーカから楽音を出力した場合と定位感が大きく異なることが主因と考えられる。 On the other hand, there are users who feel uncomfortable with the musical sound heard when using the above musical instrument, for example, an electronic piano with headphones. The main reason for this is that the musical sound heard from the headphones is localized in the head, and the sense of localization is significantly different from the case where the musical sound is output from the speaker installed in the instrument housing.

ヘッドホンの頭内定位を解消し、音像を任意に定位させる技術が提案されている(たとえば特許文献1)。この技術を用いれば、音源に適切な頭部伝達関数を付与して音源の聴感上の定位位置を任意に制御することができる。また、ユーザの姿勢変化(頭部運動)が発生する場合、ユーザの耳と音源を定位させるべき位置との相対位置が変動するが、これは、ユーザの頭部運動を追尾して頭部伝達関数を刻々と変更することで、定位感を維持できることが知られている(非特許文献1参照)。したがって、サイレント楽器にこの頭部運動を追尾可能な頭部伝達関数処理ヘッドホンを組み合わせることで良好な頭外定位可能であると考えられる。 A technique has been proposed in which the in-head localization of headphones is canceled and the sound image is localized arbitrarily (for example, Patent Document 1). By using this technique, an appropriate head related transfer function can be given to the sound source to arbitrarily control the auditory localization position of the sound source. Further, when a change in the user's posture (head movement) occurs, the relative position between the user's ear and the position at which the sound source should be localized fluctuates. It is known that the sense of localization can be maintained by changing the function every moment (see Non-Patent Document 1). Therefore, it is considered that excellent out-of-head localization can be performed by combining the head-related transfer function processing headphones capable of tracking the head movement with the silent musical instrument.

特開平08−009489号公報JP, 08-009489, A

2015年9月、日本音響学会秋季研究発表会講演論文集、691-692ページ「反射音のリアルタイム畳込み機能および頭部回転追従機能を搭載した三次元聴覚ディスプレイの開発」September 2015, Proceedings of Autumn Meeting of Acoustical Society of Japan, pp. 691-692 "Development of 3D auditory display with real-time convolution function of reflected sound and head rotation tracking function"

しかしながら、多くの種類の電子楽器、サイレント楽器が販売されているが、楽器毎に楽音の音像を定位させるべき位置やチャンネル数が異なる。ユーザ(演奏者)が、楽器毎に異なる定位位置を毎回適切に設定できるとは限らない。このため、頭外定位機能を有するヘッドホンを使用しても適切に楽音を定位させることができない場合が生じる。 However, many types of electronic musical instruments and silent musical instruments are sold, but the position and the number of channels for localizing the sound image of a musical sound are different for each musical instrument. The user (performer) may not always be able to properly set the localization position that differs for each musical instrument. Therefore, even if headphones having an out-of-head localization function are used, it may not be possible to properly localize the musical sound.

この発明は、接続される楽器に応じた良好な音像定位感が得られるヘッドホンを提供することを目的とする。 An object of the present invention is to provide a headphone that can obtain a good sound image localization feeling according to a connected musical instrument.

本発明は、サイレント楽器などの楽音が入力され、装耳部に設けられたスピーカから楽音を出力するヘッドホンであって、楽器の演奏者であるユーザの姿勢(耳の位置)を検出する姿勢検出部と、複数の楽器のユーザに対する発音位置を記憶するとともに、各楽器の発音位置が、ユーザの姿勢の変化にかかわらず移動しない固定であるか、ユーザの姿勢の変化に追従して移動する従動であるかを記憶する記憶部と、記憶部から、楽音が入力される楽器のユーザに対する発音位置および従動または固定の情報を読み出す選択部と、楽器の発音位置が固定である場合、ユーザの基本姿勢および選択部によって読み出されたユーザに対する発音位置に基づいて楽器の発音位置を決定し、姿勢検出部で検出されたユーザの姿勢および先に決定した楽器の発音位置に基づいて伝達関数を決定し、この達関数を用いてスピーカから出力される楽音を定位させ、楽器の発音位置が従動である場合、選択部によって読み出されたユーザに対する発音位置に基づいて伝達関数を決定し、この伝達関数を用いてスピーカから出力される楽音を定位させる定位処理部と、を備えたことを特徴とする。
上記発明において、楽器の楽音の入力が開始された時に姿勢検出部によって検出されたユーザの姿勢をユーザの基本姿勢としてもよい。また、楽器の楽音が入力されなくなって一定時間が経過したとき、ユーザの基本姿勢をリセットしてもよい。
The present invention is a headphone that receives a musical sound of a silent musical instrument or the like and outputs the musical sound from a speaker provided in the ear part, and detects the posture (ear position) of a user who is a musical instrument player. Section and the sounding positions of a plurality of musical instruments to the user are stored, and the sounding positions of the respective musical instruments are fixed so that they do not move regardless of changes in the posture of the user, or are driven to follow the changes in the posture of the user. And a selection unit for reading out from the storage unit information about the pronunciation position of the musical instrument to which the musical sound is input and the driven or fixed information from the storage unit, and if the pronunciation position of the musical instrument is fixed, the user's basic The sound position of the musical instrument is determined based on the posture and the pronunciation position of the user read by the selection unit, and the transfer function is determined based on the posture of the user detected by the posture detection unit and the sound position of the musical instrument previously determined. and, by using this transfer function is localized tone output from the speaker, if the sound producing position of the instrument is driven to determine a transfer function based on the sound producing position to the user read by the selection unit, the A localization processing unit that localizes a musical sound output from the speaker using a transfer function .
In the above invention, the posture of the user detected by the posture detection unit when the input of the musical tone of the musical instrument is started may be the basic posture of the user. Further, the basic posture of the user may be reset when a certain period of time elapses after the musical tone of the musical instrument is not input.

記憶部は、楽器の機種を表す識別情報(たとえば型番)に対応づけられた発音位置(機種別発音位置)を記憶してもよく、また、楽器の種類(たとえば楽器の一般名称)に対応づけられた発音位置(汎用発音位置)を記憶してもよい。さらに、楽音が入力される楽器の識別情報または楽器の種類を取得し、取得された識別情報または楽器の種類に基づいて、記憶部から、ユーザに対する発音位置、および、従動または固定の情報を読み出してもよい。 The storage unit may store the pronunciation position (model-specific pronunciation position) associated with the identification information (eg, model number) representing the model of the musical instrument, and also associated with the type of instrument (eg, general name of instrument). The generated sounding position (general-purpose sounding position) may be stored. Furthermore, the identification information of the musical instrument to which the musical sound is input or the type of the musical instrument is acquired, and based on the obtained identification information or the type of the musical instrument, the pronunciation position for the user and the driven or fixed information are read from the storage unit. May be.

記憶部は、ヘッドホンに内蔵の記憶素子であってもよいが、通信によって接続される外部のデータベースを含んでいてもよい。 The storage unit may be a storage element built in the headphones, or may include an external database connected by communication.

定位処理部に設定される発音位置を、任意に入力または調整できるユーザインターフェースを備えてもよい。 A user interface capable of arbitrarily inputting or adjusting the sound generation position set in the localization processing unit may be provided.

この発明によれば、演奏者の姿勢の変化に対する楽器の発音位置の変化の特性を楽器ごとに記憶し、演奏される楽器に合わせた楽音の定位制御を行うことができる。 According to the present invention, it is possible to store the characteristic of the change in the sounding position of the musical instrument with respect to the change in the posture of the player for each musical instrument, and perform the localization control of the musical sound according to the musical instrument to be played.

この発明の実施形態であるヘッドホンの構成および接続形態を示す図である。It is a figure which shows the structure and connection form of the headphones which are embodiment of this invention. 各種楽器のユーザによる演奏形態を示す図である。It is a figure which shows the performance form by the user of various musical instruments. メモリに設けられる発音位置情報テーブルの例を示す図である。It is a figure which shows the example of the pronunciation position information table provided in memory. ヘッドホンの処理動作を示すフローチャートである。It is a flow chart which shows processing operation of headphones. ヘッドホンの処理動作を示すフローチャートである。It is a flow chart which shows processing operation of headphones.

図面を参照してこの発明の実施形態であるヘッドホンについて説明する。図1は、ヘッドホン1の構成および接続形態を示す図である。図2は、各種の楽器2の演奏形態を示す図である。 A headphone according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a configuration and a connection form of headphones 1. FIG. 2 is a diagram showing playing modes of various musical instruments 2.

ヘッドホン1は、一般的なヘッドバンド型の両耳用ヘッドホンの形状をしており、ユーザPの左右の耳にかぶせるように装着される装耳部23L、23R、および、これら装耳部23L、23Rを接続するヘッドバンド24を有している。ヘッドバンド24の頂点付近にはこのヘッドホン1を装用したユーザPの姿勢を検出するためのモーションセンサ21が設けられている。 The headphone 1 is in the shape of a general headband-type binaural headphone, and is equipped with earpieces 23L and 23R that are worn so as to cover the left and right ears of the user P, and these earpieces 23L. It has a headband 24 for connecting 23R. A motion sensor 21 for detecting the posture of the user P wearing the headphones 1 is provided near the apex of the headband 24.

モーションセンサ21は、9軸のジャイロセンサであり、ユーザPの頭部の上下、前後、左右への移動、傾き、回転をそれぞれ検出することができる。モーションセンサ41が検出した姿勢情報41は、定位処理部11に入力される。この実施形態では、ユーザPの頭部の姿勢、すなわち、頭部の位置、傾きおよび回転角度をユーザPの姿勢と呼ぶ。なお、頭部の姿勢は、頭部の位置、傾きおよび回転角度の全ての情報を含んでいるのが望ましいが、含んでいなくてもよく、少なくとも回転角度の情報を含んでいればよい。したがって、モーションセンサ21は、必ずしも9軸センサである必要はなく、少なくとも頭部の水平方向の回転角度を検出できるものであればよい。 The motion sensor 21 is a 9-axis gyro sensor, and can detect movement of the head of the user P up and down, front and back, left and right, tilt, and rotation, respectively. The orientation information 41 detected by the motion sensor 41 is input to the localization processing unit 11. In this embodiment, the posture of the head of the user P, that is, the position, inclination, and rotation angle of the head are referred to as the posture of the user P. It should be noted that the posture of the head preferably includes all information about the position, inclination, and rotation angle of the head, but it does not need to include it, and may include at least information about the rotation angle. Therefore, the motion sensor 21 does not necessarily have to be a 9-axis sensor, and may be any sensor that can detect at least the horizontal rotation angle of the head.

ヘッドホン1は、主として楽器2(主として電子楽器やサイレント楽器)で用いられる。ヘッドホン1は、楽器2が発生した楽音を入力し、この楽音を頭部伝達関数を用いて定位処理して両耳のスピーカ22(22L,22R)から放音する。ここで、サイレント楽器とは、アコースティックな発音機能を有する楽器であるが、発生した楽音(自然音または物理的振動)を電気的にピックアップするとともにその楽音をミュートし、ピックアップされた楽音(電子信号)を増幅してヘッドホン1から出力するものである。サイレント楽器には、専用に製造されたサイレントピアノ(商標)、サイレントバイオリン(商標)や、一般の金管楽器に取り付けられるミュート(消音器)であるサイレントブラス(商標)などがある。なお、サイレントブラスはミュートの名称であるが、以下の説明では、このミュート(サイレントブラス)が取り付けられた金管楽器をサイレントブラスと呼ぶ。 The headphones 1 are mainly used in musical instruments 2 (mainly electronic musical instruments and silent musical instruments). The headphone 1 inputs the musical sound generated by the musical instrument 2, performs localization processing using the head-related transfer function for the musical sound, and emits the sound from the binaural speakers 22 (22L, 22R). Here, the silent musical instrument is a musical instrument having an acoustic sounding function, but the generated musical sound (natural sound or physical vibration) is electrically picked up and the musical sound is muted, and the picked up musical sound (electronic signal ) Is amplified and output from the headphones 1. Examples of silent musical instruments include a silent piano (trademark), a silent violin (trademark), and a silent brass (trademark) that is a mute attached to a general brass musical instrument. Note that silent brass is the name of mute, but in the following description, a brass instrument to which this mute (silent brass) is attached is called a silent brass.

楽器2は、ヘッドホン1が接続されると、楽音を直接外部へ放音せず、専らヘッドホン端子2Aからヘッドホン1に向けて出力する。ヘッドホン1は、入力された楽音を楽器2の通常の発音位置Gから到来したように定位処理してスピーカ22からユーザP(楽器2の演奏者)に対して放音する。上記の「通常の発音位置G」とは、ヘッドホン1が接続されていない状態で楽音が放音される位置のことである。なお、以下の説明では、「通常の発音位置G」を単に「発音位置G」と言う。 When the headphones 1 are connected to the musical instrument 2, the musical sound is not emitted directly to the outside but is output exclusively from the headphone terminal 2A to the headphones 1. The headphones 1 perform localization processing of the input musical sound as if it came from the normal sounding position G of the musical instrument 2, and emit the sound from the speaker 22 to the user P (the player of the musical instrument 2). The above-mentioned "normal sound generation position G" is a position at which a musical sound is emitted when the headphones 1 are not connected. In the following description, the "normal sound generation position G" is simply referred to as the "sound generation position G".

上記のような楽器において、発音位置Gは、電子ピアノなどの電子楽器の場合、その楽器筐体に設けられたスピーカの位置である。サイレントピアノの場合、一般のピアノと同様にそれぞれの弦の位置が発音位置Gである。サイレントブラスの場合、楽器のベル(あさがお)の位置(ミュートが接続されている位置)が発音位置Gである。また、エレキギターも広い意味でのサイレント楽器であり、エレキギターの場合、ユーザPの背後に設置されたギターアンプ231が発音位置Gになる。 In the musical instrument as described above, the sounding position G is the position of the speaker provided in the musical instrument housing in the case of an electronic musical instrument such as an electronic piano. In the case of a silent piano, the position of each string is the sounding position G, as in a general piano. In the case of silent brass, the sounding position G is the position of the musical instrument bell (the position where the mute is connected). The electric guitar is also a silent musical instrument in a broad sense, and in the case of the electric guitar, the guitar amplifier 231 installed behind the user P becomes the sound generation position G.

ヘッドホン1の入力部31は、ステレオミニプラグなどのコネクタを有している。入力部31は、電子楽器2のヘッドホン端子2Aに接続される。入力部31を介して入力された楽音は定位処理部11に入力される。定位処理部11はたとえばDSPで構成される。定位処理部11は、ユーザPがヘッドホン1を装用して楽器2を演奏したとき、ユーザPに対して楽音が発音位置Gから到来しているように楽音を定位させる。定位処理部11で処理された左右2チャンネルの楽音は、アンプ30(30L,30R)で増幅され、左右の装耳部23L、23Rに設けられたスピーカ22(22L,22R)からユーザPの両耳に向けて放音される。なお、図1では、スピーカ22のみが装耳部23内部に収容されている如く記載しているが、実施する場合には、ヘッドホン1の全構成部が装耳部23またはヘッドバンド24の内部に収容されるように構成するのが好ましい。 The input unit 31 of the headphone 1 has a connector such as a stereo mini plug. The input unit 31 is connected to the headphone terminal 2A of the electronic musical instrument 2. The musical sound input via the input unit 31 is input to the localization processing unit 11. The localization processing unit 11 is composed of, for example, a DSP. When the user P wears the headphones 1 and plays the musical instrument 2, the localization processing unit 11 localizes the musical sound to the user P so that the musical sound comes from the sound generation position G. The left and right two-channel musical tones processed by the localization processing unit 11 are amplified by the amplifier 30 (30L, 30R), and are output to both the user P from the speakers 22 (22L, 22R) provided in the left and right earing units 23L, 23R. Sound is emitted toward the ears. Although FIG. 1 illustrates that only the speaker 22 is housed inside the earpiece 23, in the case of implementation, all components of the headphones 1 are inside the earpiece 23 or the headband 24. It is preferable to be configured to be accommodated in the.

発音位置Gは、ユーザPが通常の姿勢で楽器2を演奏している場合に、その楽器2から楽音が発生する位置であり、ユーザPによって装用されるヘッドホン1からの方向と距離で特定される。体格や演奏姿勢の癖などによって、ユーザP毎にヘッドホン1から実際の楽器2までの方向、距離が若干異なるが、全てのユーザPに対して、標準的な体格、標準的な演奏姿勢による規定値を用いて構わない。また、個別のユーザPにおける発音位置Gを測定して用いてもよい。 The sound generation position G is a position where a musical sound is generated from the musical instrument 2 when the user P is playing the musical instrument 2 in a normal posture, and is specified by the direction and distance from the headphones 1 worn by the user P. It Although the direction and distance from the headphones 1 to the actual musical instrument 2 are slightly different for each user P depending on the physique and the habit of the playing posture, the standard physique and the standard playing posture are defined for all the users P. You can use the value. Further, the sound generation position G of each individual user P may be measured and used.

発音位置Gは、図2に示すように、楽器2によって異なるため、楽器毎の発音位置情報がメモリ33およびサーバ5に記憶されている。ユーザPは、ヘッドホン1に接続された(ユーザPが演奏する)楽器の発音位置情報40を選択して定位処理部11に設定すればよい。 As shown in FIG. 2, the sounding position G differs depending on the musical instrument 2, and therefore sounding position information for each musical instrument is stored in the memory 33 and the server 5. The user P may select the sounding position information 40 of the musical instrument (played by the user P) connected to the headphones 1 and set it in the localization processing unit 11.

定位処理部11は、FIRフィルタを有している。FIRフィルタには頭部伝達関数に基づく係数が設定される。頭部伝達関数は、音がユーザPの頭部付近を伝搬してユーザPの耳に到達するまでの周波数特性の変化を表す伝達関数であり、FIRフィルタには、頭部伝達関数をフーリエ変換により時間領域に展開したもの(頭部インパルス応答)がフィルタ係数として設定される。定位処理部11は、所定の角度毎のフィルタ係数(頭部インパルス応答)を記憶しており、楽音の到来方向のフィルタ係数をFIRフィルタにセットして楽音を定位処理する。楽音の到来方向が、いずれかのフィルタ係数と一致する角度でなかった場合には、最も近い角度のフィルタ係数を用いてもよく、近接する2以上のフィルタ係数を補間して到来方向に合わせたフィルタ係数を算出してもよい。なお、FIRフィルタは、「発音位置Gの数(チャンネル数)×2(両耳)」だけ設けられる。 The localization processing unit 11 has an FIR filter. A coefficient based on the head related transfer function is set in the FIR filter. The head-related transfer function is a transfer function that represents a change in frequency characteristics until sound propagates in the vicinity of the head of the user P and reaches the ear of the user P, and the FIR filter includes a Fourier transform of the head-related transfer function. Then, the one expanded in the time domain (head impulse response) is set as the filter coefficient. The localization processing unit 11 stores the filter coefficient (head impulse response) for each predetermined angle, and sets the filter coefficient in the arrival direction of the musical sound in the FIR filter to perform the localization processing of the musical sound. When the arrival direction of the musical sound is not an angle that matches any of the filter coefficients, the filter coefficient of the closest angle may be used, and two or more adjacent filter coefficients are interpolated to match the arrival direction. The filter coefficient may be calculated. It should be noted that the FIR filters are provided by "the number of sound generation positions G (the number of channels) x 2 (both ears)".

図2において、図2(A)は楽器2が電子ピアノ200の場合を示している。電子ピアノ200の場合、発音位置Gは、鍵盤の左右奥にある2つのスピーカ201L,201Rである。電子ピアノ200は、楽音信号を左右スピーカ201L,201Rに入力するレベルをその音高に応じて配分することにより、ピアノの楽音らしい広がり感を出している。図2(B)は、楽器2がサイレントピアノ210の場合を示している。サイレントピアノ210は、一般的にヘッドホン1を用いて演奏されるが、ヘッドホン1の接続有無にかかわらず演奏により小音量の自然楽音が鳴動する。自然楽音は、ピアノの胴内で振動する弦211の音が天板212で反射して演奏者に聞こえてくるものである。したがって、サイレントピアノにおける発音位置Gは、天板212の中央付近の広い範囲となる。 In FIG. 2, FIG. 2A shows the case where the musical instrument 2 is the electronic piano 200. In the case of the electronic piano 200, the sound generation position G is the two speakers 201L and 201R on the left and right sides of the keyboard. The electronic piano 200 distributes the level of inputting the tone signal to the left and right speakers 201L and 201R according to the pitch of the left and right speakers 201L and 201R, thereby giving a feeling of expanse like a tone of a piano. FIG. 2B shows a case where the musical instrument 2 is a silent piano 210. The silent piano 210 is generally played by using the headphones 1. However, regardless of whether the headphones 1 are connected or not, a natural musical sound with a small volume is produced by the performance. The natural musical sound is the sound of the string 211 vibrating in the body of the piano reflected by the top plate 212 and heard by the player. Therefore, the sound generation position G in the silent piano is a wide range near the center of the top plate 212.

電子ピアノ200やサイレントピアノ210などの据え置きの楽器の場合、ユーザPはその前に座って演奏し、ユーザPが演奏中に姿勢や顔の向きを変えても楽器はそれに追従せず、同じ位置に留まる。この発音位置Gの態様を「固定」と呼ぶ。固定の発音位置Gの場合、演奏中にユーザPが姿勢を変えるとユーザPに対する発音位置Gの相対位置が変化する。 In the case of a stationary instrument such as the electronic piano 200 or the silent piano 210, the user P sits in front of it and plays, and even if the user P changes the posture or face direction during the performance, the instrument does not follow it, and the same position is maintained. Stay in. The mode of this sounding position G is called "fixed". In the case of the fixed sound generation position G, if the user P changes the posture during the performance, the relative position of the sound generation position G with respect to the user P changes.

図2(C)は、楽器2がサイレントブラス(この図ではトランペット)220の場合を示している。上述したようにサイレントブラス220はアコースティックな金管楽器のベルに専用のミュートを挿入したものである。発音位置Gは全ての音域でベルの位置であり、また、楽器220はユーザPによって構えられているため、ユーザPの姿勢が変化してもユーザP(の両耳)と発音位置Gとの位置関係は変化しない。この発音位置Gの態様を「従動」と呼ぶ。 FIG. 2C shows the case where the musical instrument 2 is a silent brass (trumpet in this figure) 220. As described above, the silent brass 220 is a bell of an acoustic brass instrument with a dedicated mute inserted. The sound generation position G is a bell position in all the sound range, and the musical instrument 220 is held by the user P. Therefore, even if the posture of the user P changes, the sound generation position G and the user P (both ears) are changed. The positional relationship does not change. The mode of this sounding position G is called "following".

また、図2(D)は、楽器2がエレキギター230の場合を示している。エレキギター230の場合、楽器そのものから楽音は殆ど聞こえず、別に設置されたギターアンプ231から楽音が放音される。したがって、このギターアンプ231の位置が放音位置Gとなる。ギターアンプ231はユーザPが動いても同じ位置に留まるため「固定」である。 2D shows the case where the musical instrument 2 is the electric guitar 230. In the case of the electric guitar 230, almost no musical sound is heard from the musical instrument itself, and the musical sound is emitted from the separately installed guitar amplifier 231. Therefore, the position of the guitar amplifier 231 becomes the sound output position G. The guitar amplifier 231 is “fixed” because it stays in the same position even when the user P moves.

図3は、メモリ33の発音位置情報テーブルに記憶される発音位置情報を示す図である。メモリ33にいくつの発音位置情報を記憶しておくかは任意であるが、この図では5つの発音位置情報を記憶している。発音位置情報は、楽器の識別情報、発音位置座標、チャンネル数、固定/従動情報を有している。 FIG. 3 is a diagram showing sounding position information stored in the sounding position information table of the memory 33. It is arbitrary how much sound generation position information is stored in the memory 33, but in this figure, five sound generation position information are stored. The sounding position information includes musical instrument identification information, sounding position coordinates, the number of channels, and fixed/following information.

識別情報は、型番または汎用の楽器名からなる。型番は楽器2の機種を個別に識別する情報である。たとえば、同じ電子ピアノでも、機種によってスピーカの位置が異なる場合がある。そこで、機種(型番)ごとに発音位置情報(機種別発音位置情報)を設けることにより、その機種にぴったり合った発音位置に楽音を定位させることができる。図示のメモリ33には、5つの発音位置情報が記憶されるが、インターネット4に接続されているサーバ5には多数の機種の発音位置情報が記憶されており、ユーザPは必要に応じてこれらをダウンロードすることができる。発音位置情報のダウンロードは、ヘッドホン1とBLUETOOTH(登録商標)を介して接続される多機能電話機(スマートフォン)3を用いて行えばよい。 The identification information includes a model number or a general instrument name. The model number is information for individually identifying the model of the musical instrument 2. For example, even with the same electronic piano, the position of the speaker may differ depending on the model. Therefore, by providing sounding position information (model-specific sounding position information) for each model (model number), it is possible to localize a musical sound at a sounding position that is suitable for the model. The memory 33 shown in the figure stores five sounding position information, but the server 5 connected to the Internet 4 stores sounding position information of a large number of models, and the user P can use these as necessary. Can be downloaded. The pronunciation position information may be downloaded using a multifunction telephone (smartphone) 3 connected to the headphones 1 via BLUETOOTH (registered trademark).

また、汎用の楽器名で識別される発音位置情報(汎用発音位置情報)は、型番で登録されていない(たとえば旧型の)楽器2に対して適用される発音位置情報である。この発音位置情報は、その楽器で一般的と思われる発音位置座標およびチャンネル数を有している。また、この汎用発音位置情報は、ヘッドホン1がオフラインで使用され、サーバ5から機種別発音位置情報を取得できない場合にも選択される。 Further, the sounding position information identified by the general-purpose instrument name (general-purpose sounding position information) is the sounding position information applied to the musical instrument 2 that is not registered in the model number (for example, old model). This sound generation position information has sound generation position coordinates and the number of channels which are considered to be general for the musical instrument. This general-purpose sounding position information is also selected when the headphones 1 are used offline and the model-specific sounding position information cannot be acquired from the server 5.

発音位置座標は、ヘッドホン1の中心、すなわちユーザPの頭部の中心を原点とした場合の発音位置の座標値である。発音位置(チャンネル)が複数ある場合には、その数の発音位置座標が記憶されている。なお、サイレントピアノの場合、発音位置Gは天板の中央であるが、定位感に広がりを持たせたいため、フィルタ係数を調整して定位を強くかけないようにする。 The sound generation position coordinates are coordinate values of the sound generation position when the center of the headphones 1, that is, the center of the head of the user P is the origin. When there are a plurality of sound generation positions (channels), the number of sound generation position coordinates is stored. In the case of a silent piano, the sound generation position G is at the center of the top plate, but since it is desired to have a wide sense of localization, the filter coefficient is adjusted so that localization is not strongly applied.

また、エレキギターの場合、図2(D)に示したように、発音位置Gはギターアンプ231の位置である。エレキギターの場合、標準的なギターアンプ231の設置位置をギターアンプ231の設置位置を発音位置座標として記憶しておいてもよく、ユーザPに、発音位置座標を自己の好みに合わせて設定させてもよい。ユーザPに設定させる場合、ギターアンプ231を設置する位置(設置すると想定される位置)にヘッドホン1を持って行って所定の操作を行うようにしてもよい。その後、ユーザPが演奏位置に戻ってヘッドホン1を装用すれば、ヘッドホン1のモーションセンサ21がその移動をトレースしているため、その移動ベクトルを発音位置座標として利用することができる。また、BLUETOOTH通信部32を介して接続されるスマートフォン3で、ギターアンプ231の位置を指定するアプリを起動し、スマートフォン3からギターアンプ231の位置が指定されるようにしてもよい。 In the case of an electric guitar, as shown in FIG. 2D, the sound generation position G is the position of the guitar amplifier 231. In the case of an electric guitar, the installation position of the standard guitar amplifier 231 may be stored as the sounding position coordinate, and the user P may set the sounding position coordinate according to his/her preference. May be. When the user P is set, the headphones 1 may be held at a position where the guitar amplifier 231 is installed (a position where the guitar amplifier 231 is supposed to be installed) and a predetermined operation may be performed. After that, when the user P returns to the playing position and wears the headphones 1, since the motion sensor 21 of the headphones 1 traces the movement, the movement vector can be used as the sound generation position coordinates. Alternatively, the smartphone 3 connected via the BLUETOOTH communication unit 32 may activate an application for designating the position of the guitar amplifier 231, and the smartphone 3 may designate the position of the guitar amplifier 231.

図1において、定位処理部11には、接続される楽器2に応じた発音位置情報40が選択部34を介して供給される。選択部34には上述のメモリ33およびBLUETOOTH通信部32が接続されている。接続される楽器2が指定されると、選択部34は、まずメモリ33にその楽器2に対応する発音位置情報があるか否かを検索する。メモリ33にその発音位置情報が記憶されていない場合には、BLUETOOTH通信部32、多機能電話機(スマートフォン)3、および、インターネット4を介してサーバ5から対応する発音位置情報を取得する。サーバ5から取得された発音位置情報は、定位処理部11に供給されるとともに、メモリ33に記憶される。メモリ33の記憶エリアが満杯の場合には、古い情報に上書き記憶されればよい。 In FIG. 1, the localization processing section 11 is supplied with sounding position information 40 corresponding to the connected musical instrument 2 via the selecting section 34. The memory 33 and the BLUETOOTH communication unit 32 described above are connected to the selection unit 34. When the musical instrument 2 to be connected is designated, the selection unit 34 first searches the memory 33 for sounding position information corresponding to the musical instrument 2. If the pronunciation position information is not stored in the memory 33, the corresponding pronunciation position information is acquired from the server 5 via the BLUETOOTH communication unit 32, the multifunctional telephone (smartphone) 3, and the Internet 4. The sound generation position information acquired from the server 5 is supplied to the localization processing unit 11 and stored in the memory 33. When the storage area of the memory 33 is full, old information may be overwritten and stored.

なお、接続される楽器2の選択は、ヘッドホン1(選択部34)にユーザインタフェースを設け、ユーザの操作によって選択されてもよいが、接続される楽器2からBLEなどを用いて発せられる何らかの情報(信号)を受信して、この情報に基づいて選択されてもよい。また、BLUETOOTH通信部32を介して接続されるスマートフォン3で、楽器選択のアプリを起動し、スマートフォン3から接続される楽器2を選択してもよい。 The connected musical instrument 2 may be selected by a user operation by providing a user interface in the headphones 1 (selection unit 34 ), but some information issued from the connected musical instrument 2 using BLE or the like. (Signal) may be received and selected based on this information. In addition, the smartphone 3 connected via the BLUETOOTH communication unit 32 may activate the musical instrument selection application and select the musical instrument 2 to be connected from the smartphone 3.

図4および図5のフローチャートを参照してヘッドホン1の処理動作について説明する。図4は楽器2が選択された場合の動作を示すフローチャートである。S10で接続される楽器2が選択される。楽器2が選択されると、その楽器2がエレキギター230であるか否かを判断する(S11)。エレキギター230であった場合には(S11でYES)、ギターアンプ231の位置の入力を受け付け(S12)、入力された位置を発音位置座標として定位処理部11に設定する(S17)。このときチャンネル数や固定/従動の情報も同時に設定される。 The processing operation of the headphones 1 will be described with reference to the flowcharts of FIGS. 4 and 5. FIG. 4 is a flowchart showing the operation when the musical instrument 2 is selected. The musical instrument 2 to be connected is selected in S10. When the musical instrument 2 is selected, it is determined whether the musical instrument 2 is the electric guitar 230 (S11). If it is the electric guitar 230 (YES in S11), the input of the position of the guitar amplifier 231 is accepted (S12), and the input position is set in the localization processing unit 11 as sound generation position coordinates (S17). At this time, the number of channels and fixed/driven information are also set at the same time.

選択された楽器2がエレキギター230以外であった場合には(S11でNO)、選択された楽器2の型番または汎用名称を用いてメモリ33を検索する(S13)。対応する発音位置情報がメモリ33に記憶されていた場合には(S14でYES)、その発音位置情報をメモリ33から読み出して定位処理部11に設定する(S17)。一方、メモリ33にその発音位置情報が記憶されていなかった場合には(S14でNO)、BLUETOOTH通信部32によりサーバ5から対応する発音位置情報を取得する(S15)。取得した発音位置情報をメモリ33に記憶するとともに(S16)、この発音位置情報を定位処理部11に設定する(S17)。 When the selected musical instrument 2 is other than the electric guitar 230 (NO in S11), the memory 33 is searched using the model number or general name of the selected musical instrument 2 (S13). If the corresponding sounding position information is stored in the memory 33 (YES in S14), the sounding position information is read from the memory 33 and set in the localization processing unit 11 (S17). On the other hand, when the pronunciation position information is not stored in the memory 33 (NO in S14), the BLUETOOTH communication unit 32 acquires the corresponding pronunciation position information from the server 5 (S15). The acquired pronunciation position information is stored in the memory 33 (S16), and this pronunciation position information is set in the localization processing section 11 (S17).

定位処理部11に発音位置情報40が設定されたのち、発音位置が固定であるか従動であるかを判断する(S20)。従動の場合には、発音位置座標からユーザPの両耳に到達する経路のフィルタ係数をFIRフィルタに固定的にセットして(S22)、入力される楽音信号の処理を開始する。一方、楽器2の発音位置が固定であった場合には、ユーザPの姿勢の変化によって、発音位置GとユーザPとの相対位置が変化するため、図5に示す姿勢制御処理を実行する(S21)。 After the sound generation position information 40 is set in the localization processing unit 11, it is determined whether the sound generation position is fixed or driven (S20). In the case of being driven, the filter coefficient of the path reaching the ears of the user P from the sound generation position coordinates is fixedly set in the FIR filter (S22), and the processing of the input musical tone signal is started. On the other hand, when the sounding position of the musical instrument 2 is fixed, the relative position between the sounding position G and the user P changes due to the change in the posture of the user P, so the posture control process shown in FIG. 5 is executed ( S21).

なお、このフローチャートでは、エレキギター230の場合のみユーザに発音位置座標のユーザ設定を許可しているが、他の楽器の場合でも発音位置座標のユーザ設定を許可してもよい。また、一部または全ての楽器において、定位処理部11に設定された発音位置座標に対するユーザの調整を許可してもよい。たとえばエレキギター230の場合、一般的なギターアンプ231の設置場所(発音位置G)がプリセットされ、このプリセット位置をユーザPが自己の好みに合わせて移動させられるようにしてもよい。 In this flowchart, the user is allowed to set the sounding position coordinates only for the electric guitar 230, but the user may be allowed to set the sounding position coordinates for other musical instruments. Further, in some or all of the musical instruments, the user's adjustment of the sound generation position coordinates set in the localization processing unit 11 may be permitted. For example, in the case of the electric guitar 230, the installation location (sound generation position G) of a general guitar amplifier 231 may be preset, and the preset position may be moved by the user P according to his or her preference.

図5は、姿勢制御処理を示すフローチャートである。この姿勢制御処理では、演奏開始時のユーザPの姿勢を基本姿勢として、この姿勢を原点として発音位置座標を当てはめて発音位置Gを決定する。そして、その後演奏中にユーザPの姿勢が変化した場合、ユーザP(ヘッドホン1)と発音位置Gとの相対位置が変化するため、この相対位置の変化に応じたフィルタ係数を逐次定位処理部11に設定する。最初の楽音が入力されたときを演奏開始として発音位置Gを設定し、楽音が入力されている間この発音位置Gを維持する。そして、楽音が入力されない状態が所定時間(たとえば5秒)経過すると、演奏が休止したとして発音位置Gを解除する。再度楽音の入力が開始されたとき、上記の発音位置Gの設定から処理を開始する。 FIG. 5 is a flowchart showing the attitude control process. In this posture control process, the posture of the user P at the start of the performance is set as a basic posture, and the sounding position coordinates are applied with this posture as the origin to determine the sounding position G. Then, when the posture of the user P changes during the performance thereafter, the relative position between the user P (headphones 1) and the sound generation position G changes, and therefore the filter coefficient corresponding to the change in the relative position is sequentially localized by the localization processing unit 11 Set to. The tone generation position G is set with the performance starting when the first tone is input, and this tone generation position G is maintained while the tone is input. Then, when a predetermined time (for example, 5 seconds) elapses in the state where no musical sound is input, the sounding position G is canceled because the performance is paused. When the input of the musical sound is started again, the processing is started from the setting of the tone generation position G.

S31で演奏開始すなわち最初の楽音の入力があるまで待機する。演奏が開始された場合(S31でYES)、そのときヘッドホン1のモーションセンサ21が検出しているユーザPの頭部位置を原点として発音位置座標だけ離れた位置を発音位置Gとする(S32)。そして、この発音位置GからユーザPの両耳に到達する経路のフィルタ係数をFIRフィルタにセットして(S33)、入力される楽音の定位処理を開始する(S34)。 In S31, the performance is started, that is, it waits until the first musical tone is input. When the performance is started (YES in S31), the head position of the user P detected by the motion sensor 21 of the headphones 1 at that time is set as the origin and a position separated by the sounding position coordinates is set as the sounding position G (S32). .. Then, the filter coefficient of the path reaching from the sounding position G to both ears of the user P is set in the FIR filter (S33), and the localization processing of the input musical sound is started (S34).

こののち、楽音の入力がある間は(S35でYES)、演奏休止を判定するタイマをリセットし(S36)、モーションセンサ21の検出値に基づいてユーザPの姿勢を検出する(S37)。そしてこの姿勢に基づいて、ユーザPの頭部とS32で設定された発音位置Gとの相対位置を算出し、この相対位置に対応するフィルタ係数をFIRフィルタに設定する(S38)。 After that, while the musical sound is input (YES in S35), the timer for determining the pause of the performance is reset (S36), and the posture of the user P is detected based on the detection value of the motion sensor 21 (S37). Then, based on this posture, the relative position between the head of the user P and the sounding position G set in S32 is calculated, and the filter coefficient corresponding to this relative position is set in the FIR filter (S38).

一方、楽音が入力されなくなると(S35でNO)、タイマをカウントアップし(S40)、タイムアップ(例えば5秒)したかを判断する(S41)。タイムアップするまで(S41)、S35−S40−S41のルーチンで待機し、楽音が入力されるとS35からS36に進む。楽音が入力されないままタイムアップした場合には(S41でYES)、演奏が休止したとして制御を停止し(S42)、演奏が再開されるまでS31で待機する。 On the other hand, when no musical sound is input (NO in S35), the timer is counted up (S40) and it is determined whether the time is up (for example, 5 seconds) (S41). The routine waits in the routine of S35-S40-S41 until the time is up (S41), and when a musical sound is input, the process proceeds from S35 to S36. When the time is up without inputting any musical sound (YES in S41), the control is stopped because the performance is paused (S42), and the process waits in S31 until the performance is restarted.

以上の構成および処理により、ユーザPがヘッドホン1を用いて楽器2を演奏した場合でも、通常の発音位置Gから、すなわち、電子ピアノ200の場合には、スピーカ201L,Rの位置から、サイレントピアノ210の場合には天板212の中心付近の広い範囲から、楽音が聞こえてくようにすることができる。 With the above configuration and processing, even when the user P plays the musical instrument 2 using the headphones 1, from the normal sounding position G, that is, in the case of the electronic piano 200, from the positions of the speakers 201L and R, the silent piano is performed. In the case of 210, the musical sound can be heard from a wide range near the center of the top plate 212.

また、機種毎に発音位置情報が用意されているため、各機種に最適な定位制御が可能になる。一方で、汎用の発音位置情報も用意されているため、機種別の発音位置情報がない楽器であっても、一般的な(不都合のない)発音位置Gに楽音を定位させることができる。 In addition, since the pronunciation position information is prepared for each model, optimal localization control for each model is possible. On the other hand, since general-purpose sounding position information is also prepared, even a musical instrument having no sounding position information for each model can localize a musical sound to a general (non-inconvenient) sounding position G.

また、楽音の定位処理以外に、接続される楽器2に合わせた音質等の処理を加えてもよい。たとえば、接続される楽器2がエレキギター230である場合には、ギターアンプ231の歪みをヘッドホン再生で再現してもよい。楽音に特殊なステレオ定位補正処理を掛けている楽器の場合、楽音を再処理して最適な再ステレオ化をしてもよい。また、ヘッドホン端子2Aから出力される楽音に対して、その楽器2の付属ヘッドホンに合わせたイコライジングが施されている場合には、このヘッドホン1に合わせた最適な再音色補正をしてもよい。 In addition to the musical sound localization processing, processing such as sound quality matching the connected musical instrument 2 may be added. For example, when the connected musical instrument 2 is the electric guitar 230, the distortion of the guitar amplifier 231 may be reproduced by headphone reproduction. In the case of an instrument in which a musical sound is subjected to a special stereo localization correction process, the musical sound may be reprocessed for optimum re-stereo conversion. In addition, when the musical sound output from the headphone terminal 2A is equalized in accordance with the headphones attached to the musical instrument 2, optimum re-timing correction may be performed in accordance with the headphone 1.

また、発音位置情報に、楽器2の特性情報や音源の録音情報が提供されてもよい。たとえば、モノラル/ステレオ/バイノーラルステレオ/ダウンミックスステレオなどである。定位処理部11は、提供されたこの情報に基づいて、定位に加えて適切な音源加工処理や楽器2のオーディオアンプの特性をシミュレートしてもよい。 Further, the sounding position information may be provided with the characteristic information of the musical instrument 2 or the recording information of the sound source. For example, monaural/stereo/binaural stereo/downmix stereo. The localization processing unit 11 may simulate appropriate sound source processing and characteristics of the audio amplifier of the musical instrument 2 in addition to localization based on the provided information.

1 ヘッドホン
2 楽器
21 モーションセンサ
G 発音位置
1 Headphones 2 Musical instrument 21 Motion sensor G Sound generation position

Claims (7)

楽器の楽音が入力され、装耳部に設けられたスピーカから前記楽音を出力するヘッドホンであって、
前記楽器の演奏者であるユーザの姿勢を検出する姿勢検出部と、
複数の楽器の前記ユーザに対する発音位置を記憶するとともに、各楽器の発音位置が、ユーザの姿勢の変化にかかわらず移動しない固定であるか、ユーザの姿勢の変化に追従して移動する従動であるかを記憶する記憶部と、
前記記憶部から、前記楽音が入力される楽器の前記ユーザに対する発音位置、および、前記従動または固定の情報を読み出す選択部と、
前記楽器の発音位置が固定である場合、前記ユーザの基本姿勢、および、前記選択部によって読み出された前記ユーザに対する発音位置に基づいて前記楽器の発音位置を決定し、前記姿勢検出部で検出されたユーザの姿勢および該決定した楽器の発音位置に基づいて伝達関数を決定し、該伝達関数を用いて前記スピーカから出力される楽音を定位させ
前記楽器の発音位置が従動である場合、前記選択部によって読み出された前記ユーザに対する発音位置に基づいて伝達関数を決定し、該伝達関数を用いて前記スピーカから出力される楽音を定位させる定位処理部と、
を備えたヘッドホン。
A headphone which receives a musical sound of a musical instrument and outputs the musical sound from a speaker provided in an ear part,
A posture detection unit that detects the posture of the user who is the player of the musical instrument;
The pronunciation positions of a plurality of musical instruments with respect to the user are stored, and the pronunciation positions of each musical instrument are fixed so that they do not move regardless of changes in the posture of the user, or they are driven to follow the changes in the posture of the user. A storage unit that stores
From the storage unit, a pronunciation position of the musical instrument to which the musical sound is input to the user, and a selection unit that reads the driven or fixed information,
If pronunciation position of the instrument is fixed, basic posture of the user, and to determine the pronunciation position of the instrument on the basis of the sound producing position with respect to the user which is read by the selection unit, detected by the orientation detection unit A transfer function is determined based on the determined user's posture and the determined sounding position of the musical instrument, and the musical sound output from the speaker is localized using the transfer function ,
When the sounding position of the musical instrument is driven, a transfer function is determined based on the sounding position read out by the selection unit for the user, and localization is performed to localize the musical sound output from the speaker using the transfer function. A processing unit,
Headphones equipped with.
前記楽器の楽音の入力が開始された時に前記姿勢検出部によって検出された前記ユーザの姿勢を前記ユーザの基本姿勢とする請求項1に記載のヘッドホン。 The headphones according to claim 1, wherein the posture of the user detected by the posture detection unit when the input of the musical sound of the musical instrument is started is the basic posture of the user. 前記楽器の楽音が入力されなくなって一定時間が経過したとき、前記ユーザの基本姿勢をリセットする請求項2に記載のヘッドホン。 The headphones according to claim 2, wherein the basic posture of the user is reset when a certain period of time elapses after the musical sound of the musical instrument is not input. 前記記憶部は、前記楽器の機種を表す識別情報に対応づけて、前記ユーザに対する発音位置を記憶しており、
前記選択部は、前記楽音が入力される楽器の識別情報を取得し、この識別情報に基づいて、前記記憶部から、前記楽音が入力される楽器の前記ユーザに対する発音位置、および、前記従動または固定の情報を読み出す
請求項1乃至請求項3のいずれかに記載のヘッドホン。
The storage unit stores a pronunciation position for the user in association with identification information indicating a model of the musical instrument ,
The selection unit acquires identification information of an instrument to which the musical sound is input, and based on the identification information, a sounding position of the musical instrument to which the musical sound is input to the user, and the driven or The headphones according to claim 1, wherein fixed information is read out .
前記記憶部は、前記楽器の種類に対応づけて、前記ユーザに対する発音位置を記憶しており、
前記選択部は、前記楽音が入力される楽器の種類を取得し、この楽器の種類に基づいて、前記記憶部から、前記楽音が入力される楽器の前記ユーザに対する発音位置、および、前記従動または固定の情報を読み出す
請求項1乃至請求項3のいずれかに記載のヘッドホン。
The storage unit stores a pronunciation position for the user in association with the type of the musical instrument ,
The selection unit obtains a type of an instrument to which the musical sound is input, and based on the type of the musical instrument, a sound generation position of the musical instrument to which the musical sound is input from the storage unit, and the driven or The headphones according to claim 1, wherein fixed information is read out .
前記記憶部は、通信によって接続される外部のデータベースを含む請求項1乃至請求項のいずれかに記載のヘッドホン。 The headphones according to any one of claims 1 to 5 , wherein the storage unit includes an external database connected by communication. 前記定位処理部に設定される前記楽器の発音位置を、任意に入力または調整できるユーザインターフェースを備えた請求項1乃至請求項のいずれかに記載のヘッドホン。 Headphones according to any one of the pronunciation position of the instrument to be set to the localization processing unit, according to claim 1 to claim 6 comprising a user interface that can be entered or adjusted arbitrarily.
JP2016056716A 2016-03-22 2016-03-22 headphone Active JP6730665B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016056716A JP6730665B2 (en) 2016-03-22 2016-03-22 headphone

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016056716A JP6730665B2 (en) 2016-03-22 2016-03-22 headphone

Publications (2)

Publication Number Publication Date
JP2017175256A JP2017175256A (en) 2017-09-28
JP6730665B2 true JP6730665B2 (en) 2020-07-29

Family

ID=59972219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016056716A Active JP6730665B2 (en) 2016-03-22 2016-03-22 headphone

Country Status (1)

Country Link
JP (1) JP6730665B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7492330B2 (en) 2019-12-04 2024-05-29 ローランド株式会社 headphone

Also Published As

Publication number Publication date
JP2017175256A (en) 2017-09-28

Similar Documents

Publication Publication Date Title
JP3421799B2 (en) Apparatus and method for automatically adjusting a multi-channel sound system
KR102008771B1 (en) Determination and use of auditory-space-optimized transfer functions
US7602921B2 (en) Sound image localizer
JP5114981B2 (en) Sound image localization processing apparatus, method and program
JP4295798B2 (en) Mixing apparatus, method, and program
JP5549299B2 (en) Headphone
US20050195984A1 (en) Sound reproducing method and apparatus
US20060060070A1 (en) Reproduction apparatus and reproduction system
US10555108B2 (en) Filter generation device, method for generating filter, and program
US10412530B2 (en) Out-of-head localization processing apparatus and filter selection method
JP2003518890A (en) Headphones with integrated microphone
US7327848B2 (en) Visualization of spatialized audio
JP2009177574A (en) Headphone
JP6730665B2 (en) headphone
US20030123676A1 (en) Method of deriving a head-related transfer function
US6925426B1 (en) Process for high fidelity sound recording and reproduction of musical sound
JPS628998B2 (en)
JP3271532B2 (en) Sound localization device for electric stringed instruments
KR100836662B1 (en) Non-directional speaker system
JP6094844B1 (en) Sound reproduction apparatus, sound reproduction method, and program
JP6798561B2 (en) Signal processing equipment, signal processing methods and programs
JPH0772880A (en) Karaoke device
JP3552244B2 (en) Sound field playback device
WO2024185736A1 (en) Sound data generation method
JP6850690B2 (en) Microphone device, karaoke system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200603

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200616

R151 Written notification of patent or utility model registration

Ref document number: 6730665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151