JP6730665B2 - headphone - Google Patents
headphone Download PDFInfo
- Publication number
- JP6730665B2 JP6730665B2 JP2016056716A JP2016056716A JP6730665B2 JP 6730665 B2 JP6730665 B2 JP 6730665B2 JP 2016056716 A JP2016056716 A JP 2016056716A JP 2016056716 A JP2016056716 A JP 2016056716A JP 6730665 B2 JP6730665 B2 JP 6730665B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- musical
- musical instrument
- sound
- instrument
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Headphones And Earphones (AREA)
- Stereophonic System (AREA)
- Electrophonic Musical Instruments (AREA)
Description
この発明は、電子楽器などに接続して使用されるヘッドホンに関する。 The present invention relates to headphones that are used by being connected to an electronic musical instrument or the like.
空間に楽音を発しないで、ヘッドホンで演奏者を含む少人数のみに楽音を出力できる楽器がある。典型的には、電子ピアノや電子キーボードがあり、エレキギターやエレキベースはラインアウトからヘッドホンアンプを経由すればそのような使用形態が可能である。また、出願人は、楽音をヘッドホンで聴くことを可能にしたアコースティック楽器(サイレントシリーズ(商標):以下、サイレント楽器)を提供している。 There is a musical instrument that can output music to only a small number of people, including the performer, with headphones, without emitting music to the space. Typically, there are electronic pianos and electronic keyboards, and electric guitars and electric basses can be used in such a manner by going from the line out to the headphone amplifier. Further, the applicant provides an acoustic musical instrument (Silent Series (trademark): hereinafter, silent musical instrument) that enables to listen to a musical sound through headphones.
一方で、上記の楽器、例えば電子ピアノをヘッドホンで使ったとき、聞こえる楽音に違和感を感じるユーザが存在する。これは、ヘッドホンから聞こえて来る楽音が頭内定位してしまい、楽器筐体に設置されたスピーカから楽音を出力した場合と定位感が大きく異なることが主因と考えられる。 On the other hand, there are users who feel uncomfortable with the musical sound heard when using the above musical instrument, for example, an electronic piano with headphones. The main reason for this is that the musical sound heard from the headphones is localized in the head, and the sense of localization is significantly different from the case where the musical sound is output from the speaker installed in the instrument housing.
ヘッドホンの頭内定位を解消し、音像を任意に定位させる技術が提案されている(たとえば特許文献1)。この技術を用いれば、音源に適切な頭部伝達関数を付与して音源の聴感上の定位位置を任意に制御することができる。また、ユーザの姿勢変化(頭部運動)が発生する場合、ユーザの耳と音源を定位させるべき位置との相対位置が変動するが、これは、ユーザの頭部運動を追尾して頭部伝達関数を刻々と変更することで、定位感を維持できることが知られている(非特許文献1参照)。したがって、サイレント楽器にこの頭部運動を追尾可能な頭部伝達関数処理ヘッドホンを組み合わせることで良好な頭外定位可能であると考えられる。 A technique has been proposed in which the in-head localization of headphones is canceled and the sound image is localized arbitrarily (for example, Patent Document 1). By using this technique, an appropriate head related transfer function can be given to the sound source to arbitrarily control the auditory localization position of the sound source. Further, when a change in the user's posture (head movement) occurs, the relative position between the user's ear and the position at which the sound source should be localized fluctuates. It is known that the sense of localization can be maintained by changing the function every moment (see Non-Patent Document 1). Therefore, it is considered that excellent out-of-head localization can be performed by combining the head-related transfer function processing headphones capable of tracking the head movement with the silent musical instrument.
しかしながら、多くの種類の電子楽器、サイレント楽器が販売されているが、楽器毎に楽音の音像を定位させるべき位置やチャンネル数が異なる。ユーザ(演奏者)が、楽器毎に異なる定位位置を毎回適切に設定できるとは限らない。このため、頭外定位機能を有するヘッドホンを使用しても適切に楽音を定位させることができない場合が生じる。 However, many types of electronic musical instruments and silent musical instruments are sold, but the position and the number of channels for localizing the sound image of a musical sound are different for each musical instrument. The user (performer) may not always be able to properly set the localization position that differs for each musical instrument. Therefore, even if headphones having an out-of-head localization function are used, it may not be possible to properly localize the musical sound.
この発明は、接続される楽器に応じた良好な音像定位感が得られるヘッドホンを提供することを目的とする。 An object of the present invention is to provide a headphone that can obtain a good sound image localization feeling according to a connected musical instrument.
本発明は、サイレント楽器などの楽音が入力され、装耳部に設けられたスピーカから楽音を出力するヘッドホンであって、楽器の演奏者であるユーザの姿勢(耳の位置)を検出する姿勢検出部と、複数の楽器のユーザに対する発音位置を記憶するとともに、各楽器の発音位置が、ユーザの姿勢の変化にかかわらず移動しない固定であるか、ユーザの姿勢の変化に追従して移動する従動であるかを記憶する記憶部と、記憶部から、楽音が入力される楽器のユーザに対する発音位置および従動または固定の情報を読み出す選択部と、楽器の発音位置が固定である場合、ユーザの基本姿勢および選択部によって読み出されたユーザに対する発音位置に基づいて楽器の発音位置を決定し、姿勢検出部で検出されたユーザの姿勢および先に決定した楽器の発音位置に基づいて伝達関数を決定し、この伝達関数を用いてスピーカから出力される楽音を定位させ、楽器の発音位置が従動である場合、選択部によって読み出されたユーザに対する発音位置に基づいて伝達関数を決定し、この伝達関数を用いてスピーカから出力される楽音を定位させる定位処理部と、を備えたことを特徴とする。
上記発明において、楽器の楽音の入力が開始された時に姿勢検出部によって検出されたユーザの姿勢をユーザの基本姿勢としてもよい。また、楽器の楽音が入力されなくなって一定時間が経過したとき、ユーザの基本姿勢をリセットしてもよい。
The present invention is a headphone that receives a musical sound of a silent musical instrument or the like and outputs the musical sound from a speaker provided in the ear part, and detects the posture (ear position) of a user who is a musical instrument player. Section and the sounding positions of a plurality of musical instruments to the user are stored, and the sounding positions of the respective musical instruments are fixed so that they do not move regardless of changes in the posture of the user, or are driven to follow the changes in the posture of the user. And a selection unit for reading out from the storage unit information about the pronunciation position of the musical instrument to which the musical sound is input and the driven or fixed information from the storage unit, and if the pronunciation position of the musical instrument is fixed, the user's basic The sound position of the musical instrument is determined based on the posture and the pronunciation position of the user read by the selection unit, and the transfer function is determined based on the posture of the user detected by the posture detection unit and the sound position of the musical instrument previously determined. and, by using this transfer function is localized tone output from the speaker, if the sound producing position of the instrument is driven to determine a transfer function based on the sound producing position to the user read by the selection unit, the A localization processing unit that localizes a musical sound output from the speaker using a transfer function .
In the above invention, the posture of the user detected by the posture detection unit when the input of the musical tone of the musical instrument is started may be the basic posture of the user. Further, the basic posture of the user may be reset when a certain period of time elapses after the musical tone of the musical instrument is not input.
記憶部は、楽器の機種を表す識別情報(たとえば型番)に対応づけられた発音位置(機種別発音位置)を記憶してもよく、また、楽器の種類(たとえば楽器の一般名称)に対応づけられた発音位置(汎用発音位置)を記憶してもよい。さらに、楽音が入力される楽器の識別情報または楽器の種類を取得し、取得された識別情報または楽器の種類に基づいて、記憶部から、ユーザに対する発音位置、および、従動または固定の情報を読み出してもよい。 The storage unit may store the pronunciation position (model-specific pronunciation position) associated with the identification information (eg, model number) representing the model of the musical instrument, and also associated with the type of instrument (eg, general name of instrument). The generated sounding position (general-purpose sounding position) may be stored. Furthermore, the identification information of the musical instrument to which the musical sound is input or the type of the musical instrument is acquired, and based on the obtained identification information or the type of the musical instrument, the pronunciation position for the user and the driven or fixed information are read from the storage unit. May be.
記憶部は、ヘッドホンに内蔵の記憶素子であってもよいが、通信によって接続される外部のデータベースを含んでいてもよい。 The storage unit may be a storage element built in the headphones, or may include an external database connected by communication.
定位処理部に設定される発音位置を、任意に入力または調整できるユーザインターフェースを備えてもよい。 A user interface capable of arbitrarily inputting or adjusting the sound generation position set in the localization processing unit may be provided.
この発明によれば、演奏者の姿勢の変化に対する楽器の発音位置の変化の特性を楽器ごとに記憶し、演奏される楽器に合わせた楽音の定位制御を行うことができる。 According to the present invention, it is possible to store the characteristic of the change in the sounding position of the musical instrument with respect to the change in the posture of the player for each musical instrument, and perform the localization control of the musical sound according to the musical instrument to be played.
図面を参照してこの発明の実施形態であるヘッドホンについて説明する。図1は、ヘッドホン1の構成および接続形態を示す図である。図2は、各種の楽器2の演奏形態を示す図である。
A headphone according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a configuration and a connection form of
ヘッドホン1は、一般的なヘッドバンド型の両耳用ヘッドホンの形状をしており、ユーザPの左右の耳にかぶせるように装着される装耳部23L、23R、および、これら装耳部23L、23Rを接続するヘッドバンド24を有している。ヘッドバンド24の頂点付近にはこのヘッドホン1を装用したユーザPの姿勢を検出するためのモーションセンサ21が設けられている。
The
モーションセンサ21は、9軸のジャイロセンサであり、ユーザPの頭部の上下、前後、左右への移動、傾き、回転をそれぞれ検出することができる。モーションセンサ41が検出した姿勢情報41は、定位処理部11に入力される。この実施形態では、ユーザPの頭部の姿勢、すなわち、頭部の位置、傾きおよび回転角度をユーザPの姿勢と呼ぶ。なお、頭部の姿勢は、頭部の位置、傾きおよび回転角度の全ての情報を含んでいるのが望ましいが、含んでいなくてもよく、少なくとも回転角度の情報を含んでいればよい。したがって、モーションセンサ21は、必ずしも9軸センサである必要はなく、少なくとも頭部の水平方向の回転角度を検出できるものであればよい。
The
ヘッドホン1は、主として楽器2(主として電子楽器やサイレント楽器)で用いられる。ヘッドホン1は、楽器2が発生した楽音を入力し、この楽音を頭部伝達関数を用いて定位処理して両耳のスピーカ22(22L,22R)から放音する。ここで、サイレント楽器とは、アコースティックな発音機能を有する楽器であるが、発生した楽音(自然音または物理的振動)を電気的にピックアップするとともにその楽音をミュートし、ピックアップされた楽音(電子信号)を増幅してヘッドホン1から出力するものである。サイレント楽器には、専用に製造されたサイレントピアノ(商標)、サイレントバイオリン(商標)や、一般の金管楽器に取り付けられるミュート(消音器)であるサイレントブラス(商標)などがある。なお、サイレントブラスはミュートの名称であるが、以下の説明では、このミュート(サイレントブラス)が取り付けられた金管楽器をサイレントブラスと呼ぶ。
The
楽器2は、ヘッドホン1が接続されると、楽音を直接外部へ放音せず、専らヘッドホン端子2Aからヘッドホン1に向けて出力する。ヘッドホン1は、入力された楽音を楽器2の通常の発音位置Gから到来したように定位処理してスピーカ22からユーザP(楽器2の演奏者)に対して放音する。上記の「通常の発音位置G」とは、ヘッドホン1が接続されていない状態で楽音が放音される位置のことである。なお、以下の説明では、「通常の発音位置G」を単に「発音位置G」と言う。
When the
上記のような楽器において、発音位置Gは、電子ピアノなどの電子楽器の場合、その楽器筐体に設けられたスピーカの位置である。サイレントピアノの場合、一般のピアノと同様にそれぞれの弦の位置が発音位置Gである。サイレントブラスの場合、楽器のベル(あさがお)の位置(ミュートが接続されている位置)が発音位置Gである。また、エレキギターも広い意味でのサイレント楽器であり、エレキギターの場合、ユーザPの背後に設置されたギターアンプ231が発音位置Gになる。
In the musical instrument as described above, the sounding position G is the position of the speaker provided in the musical instrument housing in the case of an electronic musical instrument such as an electronic piano. In the case of a silent piano, the position of each string is the sounding position G, as in a general piano. In the case of silent brass, the sounding position G is the position of the musical instrument bell (the position where the mute is connected). The electric guitar is also a silent musical instrument in a broad sense, and in the case of the electric guitar, the
ヘッドホン1の入力部31は、ステレオミニプラグなどのコネクタを有している。入力部31は、電子楽器2のヘッドホン端子2Aに接続される。入力部31を介して入力された楽音は定位処理部11に入力される。定位処理部11はたとえばDSPで構成される。定位処理部11は、ユーザPがヘッドホン1を装用して楽器2を演奏したとき、ユーザPに対して楽音が発音位置Gから到来しているように楽音を定位させる。定位処理部11で処理された左右2チャンネルの楽音は、アンプ30(30L,30R)で増幅され、左右の装耳部23L、23Rに設けられたスピーカ22(22L,22R)からユーザPの両耳に向けて放音される。なお、図1では、スピーカ22のみが装耳部23内部に収容されている如く記載しているが、実施する場合には、ヘッドホン1の全構成部が装耳部23またはヘッドバンド24の内部に収容されるように構成するのが好ましい。
The
発音位置Gは、ユーザPが通常の姿勢で楽器2を演奏している場合に、その楽器2から楽音が発生する位置であり、ユーザPによって装用されるヘッドホン1からの方向と距離で特定される。体格や演奏姿勢の癖などによって、ユーザP毎にヘッドホン1から実際の楽器2までの方向、距離が若干異なるが、全てのユーザPに対して、標準的な体格、標準的な演奏姿勢による規定値を用いて構わない。また、個別のユーザPにおける発音位置Gを測定して用いてもよい。
The sound generation position G is a position where a musical sound is generated from the
発音位置Gは、図2に示すように、楽器2によって異なるため、楽器毎の発音位置情報がメモリ33およびサーバ5に記憶されている。ユーザPは、ヘッドホン1に接続された(ユーザPが演奏する)楽器の発音位置情報40を選択して定位処理部11に設定すればよい。
As shown in FIG. 2, the sounding position G differs depending on the
定位処理部11は、FIRフィルタを有している。FIRフィルタには頭部伝達関数に基づく係数が設定される。頭部伝達関数は、音がユーザPの頭部付近を伝搬してユーザPの耳に到達するまでの周波数特性の変化を表す伝達関数であり、FIRフィルタには、頭部伝達関数をフーリエ変換により時間領域に展開したもの(頭部インパルス応答)がフィルタ係数として設定される。定位処理部11は、所定の角度毎のフィルタ係数(頭部インパルス応答)を記憶しており、楽音の到来方向のフィルタ係数をFIRフィルタにセットして楽音を定位処理する。楽音の到来方向が、いずれかのフィルタ係数と一致する角度でなかった場合には、最も近い角度のフィルタ係数を用いてもよく、近接する2以上のフィルタ係数を補間して到来方向に合わせたフィルタ係数を算出してもよい。なお、FIRフィルタは、「発音位置Gの数(チャンネル数)×2(両耳)」だけ設けられる。
The
図2において、図2(A)は楽器2が電子ピアノ200の場合を示している。電子ピアノ200の場合、発音位置Gは、鍵盤の左右奥にある2つのスピーカ201L,201Rである。電子ピアノ200は、楽音信号を左右スピーカ201L,201Rに入力するレベルをその音高に応じて配分することにより、ピアノの楽音らしい広がり感を出している。図2(B)は、楽器2がサイレントピアノ210の場合を示している。サイレントピアノ210は、一般的にヘッドホン1を用いて演奏されるが、ヘッドホン1の接続有無にかかわらず演奏により小音量の自然楽音が鳴動する。自然楽音は、ピアノの胴内で振動する弦211の音が天板212で反射して演奏者に聞こえてくるものである。したがって、サイレントピアノにおける発音位置Gは、天板212の中央付近の広い範囲となる。
In FIG. 2, FIG. 2A shows the case where the
電子ピアノ200やサイレントピアノ210などの据え置きの楽器の場合、ユーザPはその前に座って演奏し、ユーザPが演奏中に姿勢や顔の向きを変えても楽器はそれに追従せず、同じ位置に留まる。この発音位置Gの態様を「固定」と呼ぶ。固定の発音位置Gの場合、演奏中にユーザPが姿勢を変えるとユーザPに対する発音位置Gの相対位置が変化する。
In the case of a stationary instrument such as the
図2(C)は、楽器2がサイレントブラス(この図ではトランペット)220の場合を示している。上述したようにサイレントブラス220はアコースティックな金管楽器のベルに専用のミュートを挿入したものである。発音位置Gは全ての音域でベルの位置であり、また、楽器220はユーザPによって構えられているため、ユーザPの姿勢が変化してもユーザP(の両耳)と発音位置Gとの位置関係は変化しない。この発音位置Gの態様を「従動」と呼ぶ。
FIG. 2C shows the case where the
また、図2(D)は、楽器2がエレキギター230の場合を示している。エレキギター230の場合、楽器そのものから楽音は殆ど聞こえず、別に設置されたギターアンプ231から楽音が放音される。したがって、このギターアンプ231の位置が放音位置Gとなる。ギターアンプ231はユーザPが動いても同じ位置に留まるため「固定」である。
2D shows the case where the
図3は、メモリ33の発音位置情報テーブルに記憶される発音位置情報を示す図である。メモリ33にいくつの発音位置情報を記憶しておくかは任意であるが、この図では5つの発音位置情報を記憶している。発音位置情報は、楽器の識別情報、発音位置座標、チャンネル数、固定/従動情報を有している。
FIG. 3 is a diagram showing sounding position information stored in the sounding position information table of the
識別情報は、型番または汎用の楽器名からなる。型番は楽器2の機種を個別に識別する情報である。たとえば、同じ電子ピアノでも、機種によってスピーカの位置が異なる場合がある。そこで、機種(型番)ごとに発音位置情報(機種別発音位置情報)を設けることにより、その機種にぴったり合った発音位置に楽音を定位させることができる。図示のメモリ33には、5つの発音位置情報が記憶されるが、インターネット4に接続されているサーバ5には多数の機種の発音位置情報が記憶されており、ユーザPは必要に応じてこれらをダウンロードすることができる。発音位置情報のダウンロードは、ヘッドホン1とBLUETOOTH(登録商標)を介して接続される多機能電話機(スマートフォン)3を用いて行えばよい。
The identification information includes a model number or a general instrument name. The model number is information for individually identifying the model of the
また、汎用の楽器名で識別される発音位置情報(汎用発音位置情報)は、型番で登録されていない(たとえば旧型の)楽器2に対して適用される発音位置情報である。この発音位置情報は、その楽器で一般的と思われる発音位置座標およびチャンネル数を有している。また、この汎用発音位置情報は、ヘッドホン1がオフラインで使用され、サーバ5から機種別発音位置情報を取得できない場合にも選択される。
Further, the sounding position information identified by the general-purpose instrument name (general-purpose sounding position information) is the sounding position information applied to the
発音位置座標は、ヘッドホン1の中心、すなわちユーザPの頭部の中心を原点とした場合の発音位置の座標値である。発音位置(チャンネル)が複数ある場合には、その数の発音位置座標が記憶されている。なお、サイレントピアノの場合、発音位置Gは天板の中央であるが、定位感に広がりを持たせたいため、フィルタ係数を調整して定位を強くかけないようにする。
The sound generation position coordinates are coordinate values of the sound generation position when the center of the
また、エレキギターの場合、図2(D)に示したように、発音位置Gはギターアンプ231の位置である。エレキギターの場合、標準的なギターアンプ231の設置位置をギターアンプ231の設置位置を発音位置座標として記憶しておいてもよく、ユーザPに、発音位置座標を自己の好みに合わせて設定させてもよい。ユーザPに設定させる場合、ギターアンプ231を設置する位置(設置すると想定される位置)にヘッドホン1を持って行って所定の操作を行うようにしてもよい。その後、ユーザPが演奏位置に戻ってヘッドホン1を装用すれば、ヘッドホン1のモーションセンサ21がその移動をトレースしているため、その移動ベクトルを発音位置座標として利用することができる。また、BLUETOOTH通信部32を介して接続されるスマートフォン3で、ギターアンプ231の位置を指定するアプリを起動し、スマートフォン3からギターアンプ231の位置が指定されるようにしてもよい。
In the case of an electric guitar, as shown in FIG. 2D, the sound generation position G is the position of the
図1において、定位処理部11には、接続される楽器2に応じた発音位置情報40が選択部34を介して供給される。選択部34には上述のメモリ33およびBLUETOOTH通信部32が接続されている。接続される楽器2が指定されると、選択部34は、まずメモリ33にその楽器2に対応する発音位置情報があるか否かを検索する。メモリ33にその発音位置情報が記憶されていない場合には、BLUETOOTH通信部32、多機能電話機(スマートフォン)3、および、インターネット4を介してサーバ5から対応する発音位置情報を取得する。サーバ5から取得された発音位置情報は、定位処理部11に供給されるとともに、メモリ33に記憶される。メモリ33の記憶エリアが満杯の場合には、古い情報に上書き記憶されればよい。
In FIG. 1, the
なお、接続される楽器2の選択は、ヘッドホン1(選択部34)にユーザインタフェースを設け、ユーザの操作によって選択されてもよいが、接続される楽器2からBLEなどを用いて発せられる何らかの情報(信号)を受信して、この情報に基づいて選択されてもよい。また、BLUETOOTH通信部32を介して接続されるスマートフォン3で、楽器選択のアプリを起動し、スマートフォン3から接続される楽器2を選択してもよい。
The connected
図4および図5のフローチャートを参照してヘッドホン1の処理動作について説明する。図4は楽器2が選択された場合の動作を示すフローチャートである。S10で接続される楽器2が選択される。楽器2が選択されると、その楽器2がエレキギター230であるか否かを判断する(S11)。エレキギター230であった場合には(S11でYES)、ギターアンプ231の位置の入力を受け付け(S12)、入力された位置を発音位置座標として定位処理部11に設定する(S17)。このときチャンネル数や固定/従動の情報も同時に設定される。
The processing operation of the
選択された楽器2がエレキギター230以外であった場合には(S11でNO)、選択された楽器2の型番または汎用名称を用いてメモリ33を検索する(S13)。対応する発音位置情報がメモリ33に記憶されていた場合には(S14でYES)、その発音位置情報をメモリ33から読み出して定位処理部11に設定する(S17)。一方、メモリ33にその発音位置情報が記憶されていなかった場合には(S14でNO)、BLUETOOTH通信部32によりサーバ5から対応する発音位置情報を取得する(S15)。取得した発音位置情報をメモリ33に記憶するとともに(S16)、この発音位置情報を定位処理部11に設定する(S17)。
When the selected
定位処理部11に発音位置情報40が設定されたのち、発音位置が固定であるか従動であるかを判断する(S20)。従動の場合には、発音位置座標からユーザPの両耳に到達する経路のフィルタ係数をFIRフィルタに固定的にセットして(S22)、入力される楽音信号の処理を開始する。一方、楽器2の発音位置が固定であった場合には、ユーザPの姿勢の変化によって、発音位置GとユーザPとの相対位置が変化するため、図5に示す姿勢制御処理を実行する(S21)。
After the sound
なお、このフローチャートでは、エレキギター230の場合のみユーザに発音位置座標のユーザ設定を許可しているが、他の楽器の場合でも発音位置座標のユーザ設定を許可してもよい。また、一部または全ての楽器において、定位処理部11に設定された発音位置座標に対するユーザの調整を許可してもよい。たとえばエレキギター230の場合、一般的なギターアンプ231の設置場所(発音位置G)がプリセットされ、このプリセット位置をユーザPが自己の好みに合わせて移動させられるようにしてもよい。
In this flowchart, the user is allowed to set the sounding position coordinates only for the
図5は、姿勢制御処理を示すフローチャートである。この姿勢制御処理では、演奏開始時のユーザPの姿勢を基本姿勢として、この姿勢を原点として発音位置座標を当てはめて発音位置Gを決定する。そして、その後演奏中にユーザPの姿勢が変化した場合、ユーザP(ヘッドホン1)と発音位置Gとの相対位置が変化するため、この相対位置の変化に応じたフィルタ係数を逐次定位処理部11に設定する。最初の楽音が入力されたときを演奏開始として発音位置Gを設定し、楽音が入力されている間この発音位置Gを維持する。そして、楽音が入力されない状態が所定時間(たとえば5秒)経過すると、演奏が休止したとして発音位置Gを解除する。再度楽音の入力が開始されたとき、上記の発音位置Gの設定から処理を開始する。
FIG. 5 is a flowchart showing the attitude control process. In this posture control process, the posture of the user P at the start of the performance is set as a basic posture, and the sounding position coordinates are applied with this posture as the origin to determine the sounding position G. Then, when the posture of the user P changes during the performance thereafter, the relative position between the user P (headphones 1) and the sound generation position G changes, and therefore the filter coefficient corresponding to the change in the relative position is sequentially localized by the
S31で演奏開始すなわち最初の楽音の入力があるまで待機する。演奏が開始された場合(S31でYES)、そのときヘッドホン1のモーションセンサ21が検出しているユーザPの頭部位置を原点として発音位置座標だけ離れた位置を発音位置Gとする(S32)。そして、この発音位置GからユーザPの両耳に到達する経路のフィルタ係数をFIRフィルタにセットして(S33)、入力される楽音の定位処理を開始する(S34)。
In S31, the performance is started, that is, it waits until the first musical tone is input. When the performance is started (YES in S31), the head position of the user P detected by the
こののち、楽音の入力がある間は(S35でYES)、演奏休止を判定するタイマをリセットし(S36)、モーションセンサ21の検出値に基づいてユーザPの姿勢を検出する(S37)。そしてこの姿勢に基づいて、ユーザPの頭部とS32で設定された発音位置Gとの相対位置を算出し、この相対位置に対応するフィルタ係数をFIRフィルタに設定する(S38)。 After that, while the musical sound is input (YES in S35), the timer for determining the pause of the performance is reset (S36), and the posture of the user P is detected based on the detection value of the motion sensor 21 (S37). Then, based on this posture, the relative position between the head of the user P and the sounding position G set in S32 is calculated, and the filter coefficient corresponding to this relative position is set in the FIR filter (S38).
一方、楽音が入力されなくなると(S35でNO)、タイマをカウントアップし(S40)、タイムアップ(例えば5秒)したかを判断する(S41)。タイムアップするまで(S41)、S35−S40−S41のルーチンで待機し、楽音が入力されるとS35からS36に進む。楽音が入力されないままタイムアップした場合には(S41でYES)、演奏が休止したとして制御を停止し(S42)、演奏が再開されるまでS31で待機する。 On the other hand, when no musical sound is input (NO in S35), the timer is counted up (S40) and it is determined whether the time is up (for example, 5 seconds) (S41). The routine waits in the routine of S35-S40-S41 until the time is up (S41), and when a musical sound is input, the process proceeds from S35 to S36. When the time is up without inputting any musical sound (YES in S41), the control is stopped because the performance is paused (S42), and the process waits in S31 until the performance is restarted.
以上の構成および処理により、ユーザPがヘッドホン1を用いて楽器2を演奏した場合でも、通常の発音位置Gから、すなわち、電子ピアノ200の場合には、スピーカ201L,Rの位置から、サイレントピアノ210の場合には天板212の中心付近の広い範囲から、楽音が聞こえてくようにすることができる。
With the above configuration and processing, even when the user P plays the
また、機種毎に発音位置情報が用意されているため、各機種に最適な定位制御が可能になる。一方で、汎用の発音位置情報も用意されているため、機種別の発音位置情報がない楽器であっても、一般的な(不都合のない)発音位置Gに楽音を定位させることができる。 In addition, since the pronunciation position information is prepared for each model, optimal localization control for each model is possible. On the other hand, since general-purpose sounding position information is also prepared, even a musical instrument having no sounding position information for each model can localize a musical sound to a general (non-inconvenient) sounding position G.
また、楽音の定位処理以外に、接続される楽器2に合わせた音質等の処理を加えてもよい。たとえば、接続される楽器2がエレキギター230である場合には、ギターアンプ231の歪みをヘッドホン再生で再現してもよい。楽音に特殊なステレオ定位補正処理を掛けている楽器の場合、楽音を再処理して最適な再ステレオ化をしてもよい。また、ヘッドホン端子2Aから出力される楽音に対して、その楽器2の付属ヘッドホンに合わせたイコライジングが施されている場合には、このヘッドホン1に合わせた最適な再音色補正をしてもよい。
In addition to the musical sound localization processing, processing such as sound quality matching the connected
また、発音位置情報に、楽器2の特性情報や音源の録音情報が提供されてもよい。たとえば、モノラル/ステレオ/バイノーラルステレオ/ダウンミックスステレオなどである。定位処理部11は、提供されたこの情報に基づいて、定位に加えて適切な音源加工処理や楽器2のオーディオアンプの特性をシミュレートしてもよい。
Further, the sounding position information may be provided with the characteristic information of the
1 ヘッドホン
2 楽器
21 モーションセンサ
G 発音位置
1
Claims (7)
前記楽器の演奏者であるユーザの姿勢を検出する姿勢検出部と、
複数の楽器の前記ユーザに対する発音位置を記憶するとともに、各楽器の発音位置が、ユーザの姿勢の変化にかかわらず移動しない固定であるか、ユーザの姿勢の変化に追従して移動する従動であるかを記憶する記憶部と、
前記記憶部から、前記楽音が入力される楽器の前記ユーザに対する発音位置、および、前記従動または固定の情報を読み出す選択部と、
前記楽器の発音位置が固定である場合、前記ユーザの基本姿勢、および、前記選択部によって読み出された前記ユーザに対する発音位置に基づいて前記楽器の発音位置を決定し、前記姿勢検出部で検出されたユーザの姿勢および該決定した楽器の発音位置に基づいて伝達関数を決定し、該伝達関数を用いて前記スピーカから出力される楽音を定位させ、
前記楽器の発音位置が従動である場合、前記選択部によって読み出された前記ユーザに対する発音位置に基づいて伝達関数を決定し、該伝達関数を用いて前記スピーカから出力される楽音を定位させる定位処理部と、
を備えたヘッドホン。 A headphone which receives a musical sound of a musical instrument and outputs the musical sound from a speaker provided in an ear part,
A posture detection unit that detects the posture of the user who is the player of the musical instrument;
The pronunciation positions of a plurality of musical instruments with respect to the user are stored, and the pronunciation positions of each musical instrument are fixed so that they do not move regardless of changes in the posture of the user, or they are driven to follow the changes in the posture of the user. A storage unit that stores
From the storage unit, a pronunciation position of the musical instrument to which the musical sound is input to the user, and a selection unit that reads the driven or fixed information,
If pronunciation position of the instrument is fixed, basic posture of the user, and to determine the pronunciation position of the instrument on the basis of the sound producing position with respect to the user which is read by the selection unit, detected by the orientation detection unit A transfer function is determined based on the determined user's posture and the determined sounding position of the musical instrument, and the musical sound output from the speaker is localized using the transfer function ,
When the sounding position of the musical instrument is driven, a transfer function is determined based on the sounding position read out by the selection unit for the user, and localization is performed to localize the musical sound output from the speaker using the transfer function. A processing unit,
Headphones equipped with.
前記選択部は、前記楽音が入力される楽器の識別情報を取得し、この識別情報に基づいて、前記記憶部から、前記楽音が入力される楽器の前記ユーザに対する発音位置、および、前記従動または固定の情報を読み出す
請求項1乃至請求項3のいずれかに記載のヘッドホン。 The storage unit stores a pronunciation position for the user in association with identification information indicating a model of the musical instrument ,
The selection unit acquires identification information of an instrument to which the musical sound is input, and based on the identification information, a sounding position of the musical instrument to which the musical sound is input to the user, and the driven or The headphones according to claim 1, wherein fixed information is read out .
前記選択部は、前記楽音が入力される楽器の種類を取得し、この楽器の種類に基づいて、前記記憶部から、前記楽音が入力される楽器の前記ユーザに対する発音位置、および、前記従動または固定の情報を読み出す
請求項1乃至請求項3のいずれかに記載のヘッドホン。 The storage unit stores a pronunciation position for the user in association with the type of the musical instrument ,
The selection unit obtains a type of an instrument to which the musical sound is input, and based on the type of the musical instrument, a sound generation position of the musical instrument to which the musical sound is input from the storage unit, and the driven or The headphones according to claim 1, wherein fixed information is read out .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016056716A JP6730665B2 (en) | 2016-03-22 | 2016-03-22 | headphone |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016056716A JP6730665B2 (en) | 2016-03-22 | 2016-03-22 | headphone |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017175256A JP2017175256A (en) | 2017-09-28 |
JP6730665B2 true JP6730665B2 (en) | 2020-07-29 |
Family
ID=59972219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016056716A Active JP6730665B2 (en) | 2016-03-22 | 2016-03-22 | headphone |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6730665B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7492330B2 (en) | 2019-12-04 | 2024-05-29 | ローランド株式会社 | headphone |
-
2016
- 2016-03-22 JP JP2016056716A patent/JP6730665B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017175256A (en) | 2017-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3421799B2 (en) | Apparatus and method for automatically adjusting a multi-channel sound system | |
KR102008771B1 (en) | Determination and use of auditory-space-optimized transfer functions | |
US7602921B2 (en) | Sound image localizer | |
JP5114981B2 (en) | Sound image localization processing apparatus, method and program | |
JP4295798B2 (en) | Mixing apparatus, method, and program | |
JP5549299B2 (en) | Headphone | |
US20050195984A1 (en) | Sound reproducing method and apparatus | |
US20060060070A1 (en) | Reproduction apparatus and reproduction system | |
US10555108B2 (en) | Filter generation device, method for generating filter, and program | |
US10412530B2 (en) | Out-of-head localization processing apparatus and filter selection method | |
JP2003518890A (en) | Headphones with integrated microphone | |
US7327848B2 (en) | Visualization of spatialized audio | |
JP2009177574A (en) | Headphone | |
JP6730665B2 (en) | headphone | |
US20030123676A1 (en) | Method of deriving a head-related transfer function | |
US6925426B1 (en) | Process for high fidelity sound recording and reproduction of musical sound | |
JPS628998B2 (en) | ||
JP3271532B2 (en) | Sound localization device for electric stringed instruments | |
KR100836662B1 (en) | Non-directional speaker system | |
JP6094844B1 (en) | Sound reproduction apparatus, sound reproduction method, and program | |
JP6798561B2 (en) | Signal processing equipment, signal processing methods and programs | |
JPH0772880A (en) | Karaoke device | |
JP3552244B2 (en) | Sound field playback device | |
WO2024185736A1 (en) | Sound data generation method | |
JP6850690B2 (en) | Microphone device, karaoke system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191119 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200603 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200616 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6730665 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |