JP6996501B2 - 情報処理装置および方法 - Google Patents

情報処理装置および方法 Download PDF

Info

Publication number
JP6996501B2
JP6996501B2 JP2018516940A JP2018516940A JP6996501B2 JP 6996501 B2 JP6996501 B2 JP 6996501B2 JP 2018516940 A JP2018516940 A JP 2018516940A JP 2018516940 A JP2018516940 A JP 2018516940A JP 6996501 B2 JP6996501 B2 JP 6996501B2
Authority
JP
Japan
Prior art keywords
recording
metadata
information processing
compensation
binaural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018516940A
Other languages
English (en)
Other versions
JPWO2017195616A1 (ja
Inventor
繁利 林
宏平 浅田
祐史 山邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2017195616A1 publication Critical patent/JPWO2017195616A1/ja
Application granted granted Critical
Publication of JP6996501B2 publication Critical patent/JP6996501B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/307Frequency adjustment, e.g. tone control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/027Spatial or constructional arrangements of microphones, e.g. in dummy heads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S1/005For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Stereophonic Arrangements (AREA)

Description

本開示は、情報処理装置および方法に関し、特に、録音環境によらず、標準的な音に補償することができるようにした情報処理装置および方法に関する。
特許文献1においては、ヘッドホン型の機構を有し、ノイズキャンセルのマイクを使用したバイノーラル録音装置が提案されている。
特開2009-49947号公報
しかしながら、聴衆者の耳の形、耳の大きさといった身体的特徴は録音に使用されたダミーヘッド(または、人間の実耳を使用した録音環境)と異なるため、録音されたコンテンツをそのまま再生しても高い臨場感は得られない恐れがあった。
本開示は、このような状況に鑑みてなされたものであり、録音環境によらず、標準的な音に補償することができるものである。
本技術の一側面の情報処理装置は、バイノーラルコンテンツとともに、前記バイノーラルコンテンツの録音時環境に関するメタデータを送信する送信部を備え、前記送信部は、送信されてきた画像を用いての顔の形状のマッチングにより選択された前記バイノーラルコンテンツを送信する
本技術の他の側面の情報処理装置は、バイノーラルコンテンツとともに、前記バイノーラルコンテンツの録音時環境に関するメタデータを受信する受信部を備え、前記受信部は、送信された画像を用いての顔の形状のマッチングにより選択されて送信されてくる前記バイノーラルコンテンツを受信する
本技術の一側面においては、送信されてきた画像を用いての顔の形状のマッチングにより選択されたバイノーラルコンテンツとともに、前記バイノーラルコンテンツの録音時環境に関するメタデータが送信される。
本技術の他の側面においては、送信された画像を用いての顔の形状のマッチングにより選択されて送信されてくるバイノーラルコンテンツとともに、前記バイノーラルコンテンツの録音時環境に関するメタデータが受信される。
本技術によれば、録音環境によらず、標準的な音に補償することができる。
なお、本明細書に記載された効果は、あくまで例示であり、本技術の効果は、本明細書に記載された効果に限定されるものではなく、付加的な効果があってもよい。
本技術を適用する録音再生システムの構成例を示すブロック図である。 録音時の補償処理の例を説明する図である。 再生時に最適な音圧の調整について説明する図である。 実耳使用時の位置補償について説明する図である。 実耳使用時の位置補償について説明する図である。 再生の際の外耳道に対する影響の補償を説明する図である。 録音時補償処理を伝送前に施す場合の録音再生システムの例を示すブロック図である。 録音装置の録音処理について説明するフローチャートである。 再生装置の再生処理について説明するフローチャートである。 録音時補償処理を伝送後に施す場合の録音再生システムの例を示すブロック図である。 録音装置の録音処理について説明するフローチャートである。 再生装置の再生処理について説明するフローチャートである。 本技術を適用したバイノーラルマッチングシステムの例を示すブロック図である。 スマートフォンの構成例を示すブロック図である。 サーバの構成例を示すブロック図である。 バイノーラルマッチングシステムの処理例を説明するフローチャートである。
以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(概要)
2.第2の実施の形態(システム)
3.第3の実施の形態(応用例)
<1.第1の実施の形態>
<概要>
携帯型の音楽プレイヤが普及している昨今では、音楽の視聴環境が主として家の外であり、ヘッドホンを利用して視聴を行うユーザは多いと考えられる。また、ヘッドホンを利用するユーザ数の増加に伴い、人間頭部の音響効果を再現するダミーヘッドや人間の実耳を利用して録音されたバイノーラルコンテンツを、ステレオ・イヤホンやステレオ・ヘッドホンにて使用するユースケースが今後増加すると考えられる。
ところが、視聴者によってはバイノーラルコンテンツの視聴時に臨場感が損なわれる恐れがあった。これは、録音時に使用されたダミーヘッド(人間の実耳を利用した場合は頭部の形状など)について、視聴者との間に身体的な特徴差が生じることが要因となる。また、収音時の音圧レベルと再生時の音圧レベルに隔たりがあると、臨場感の低下につながる恐れがあった。
さらに一般的に知られている通り、ヘッドホンやイヤホンには周波数特性が存在し、視聴者は好みに合わせたヘッドホンを選択することにより、快適に音楽コンテンツを使用することができる。しかしながら、バイノーラルコンテンツを再生する際は、ヘッドホンの周波数特性がコンテンツに付加されるため、再生ヘッドホンによっては臨場感の低下が生じる恐れがあった。加えて、本来ダミーヘッドを用いて鼓膜位置の音を収音すべきバイノーラル録音において、ノイズキャンセルマイクを用いて録音を行うと、録音位置の鼓膜に対する誤差によって臨場感に影響が生じる恐れがあった。
本技術は、ダミーヘッドや実耳を使用してバイノーラル録音を実施する際に、
1.耳間の距離、頭部の形状といった個人差の要因になる情報
2.収音に使用するマイクの情報(周波数特性、感度など)
などの録音結果に影響がでる、録音環境(状況)に関するデータをメタデータとしてコンテンツに付加し、コンテンツ再生時に取得したメタデータを基に信号を補償することによって、録音機器や録音機材に依存せず、どのような機材を使用して録音しても標準的な音質および音量で録音が可能で、再生時においては、視聴者にとって最適な音量および音質の信号を再生する補償方法に関するものである。
<録音再生システムの構成例>
図1は、本技術を適用する録音再生システムの構成例を示す図である。図1の例において、録音再生システム1は、バイノーラルコンテンツの録音と再生を行う。例えば、音源(source)11、ダミーヘッド12、ダミーヘッド12の鼓膜位置に設置されるマイクロホン13、録音装置14、再生装置15、ユーザ17の耳に装着して使用されるヘッドホン16、およびネットワーク18を含むように構成されている。なお、図1の例においては、録音装置14や再生装置15の表示部や操作部は説明の便宜上その図示は省略されている。
音源11は、音声を出力する。マイクロホン13は、音源11からの音声を収音して、アナログの音声信号として録音装置14に入力する。録音装置14は、バイノーラル録音を行い、バイノーラル録音された音声の音声ファイルを生成する情報処理装置であり、生成された音声ファイルを送信する送信装置である。録音装置14は、バイノーラル録音された音声ファイルに、バイノーラルコンテンツの録音時環境に関するメタデータを付加し、再生装置15に送信する。
録音装置14は、マイクアンプ22、ボリュームスライダ23、ADC(Analog-Digital Convertor)24、メタデータDB25、メタデータ付加部26、送信部27、および記憶部28により構成される。
マイクアンプ22は、ボリュームスライダ23からのユーザによる操作信号に対応した音量となるように、マイクロホン13からの音声信号を増幅し、ADC24に出力する。ボリュームスライダ23は、ユーザ17によるマイクアンプ22のボリュームの操作を受け付け、受け付けた操作信号を、マイクアンプ22に送る。
ADC24は、マイクアンプ22により増幅されたアナログの音声信号をデジタルの音声信号に変換し、メタデータ付加部26に出力する。メタデータDB(データベース)25は、録音に影響するデータであって、録音時の環境(状況)に関するデータを、すなわち、個人差の要因となり得る身体的特徴データ、および収音に使用した機材のデータをメタデータとして保持しており、メタデータ付加部26に供給する。具体的には、メタデータは、ダミーヘッドの型番、ダミーヘッド(または頭部)の耳間距離、頭の大きさ(縦、横)や形、髪型、マイクロホン情報(周波数特性、感度)、マイクアンプ22のゲインなどからなる。
メタデータ付加部26は、メタデータDB25からのメタデータを、ADC24からの音声信号に付加し、音声ファイルとして、送信部27および記憶部28に供給する。送信部27は、メタデータが付加された音声ファイルを、ネットワーク18に送信する。記憶部28は、メモリやハードディスクにより構成され、メタデータが付加された音声ファイルを記憶する。
再生装置15は、バイノーラル録音された音声の音声ファイルを再生する情報処理装置であり、受信装置である。再生装置15は、受信部31、メタデータDB32、補償信号処理部33、DAC(Digital - Analog Convertor)34、およびヘッドホンアンプ35を含むように構成されている。
受信部31は、ネットワーク18から音声ファイルを受信し、受信した音声ファイルから音声信号とメタデータとを取得し、取得した音声信号(デジタル)をDAC34に供給し、取得したメタデータをメタデータDB32に蓄積する。
補償信号処理部33は、受信部31からの音声信号に対して、再生時にメタデータを用いて個人差を補償し、視聴者(リスナ)にとって最適な信号を生成する処理を行う。DAC34は、補償信号処理部33により補償が行われたデジタル信号を、アナログ信号に変換する。ヘッドホンアンプ35は、DAC34からの音声信号を増幅する。ヘッドホン16は、DAC34からの音声信号対応する音声を出力する。
ヘッドホン16は、ステレオ・ヘッドホンまたはステレオ・イヤホンであり、コンテンツ再生時に、再生されたコンテンツが聞けるように、ユーザ17の頭部や耳に装着される。
ネットワーク18は、インターネットに代表されるネットワークである。なお、図1の録音再生システム1においては、ネットワーク18を介して、録音装置14から再生装置15に音声ファイルが送信され、再生装置15において受信されるように構成されているが、録音装置14から図示せぬサーバに音声ファイルが送信され、サーバを介して、再生装置15が音声ファイルを受信するようにしてもよい。
なお、本技術においては、マイクロホンからの信号に対してメタデータを付加するが、このマイクロホンは、ダミーヘッドの鼓膜位置に設定されたものであってもよいし、実耳での使用を想定したバイノーラルマイクや、ノイズキャンセラ用の収音マイクを使用してもよい。さらに、別の目的のために設置されたマイクロホンを機能的に同時に使用する場合にも、本技術は適用される。
図1の録音再生システム1は、上述したように、バイノーラル録音された録音コンテンツに対して、メタデータを付加し、伝送する機能を有する。
<録音時の補償処理>
次に、図2を参照して、メタデータを用いることにより得られる補償処理の例について説明する。図2の例においては、基準となるダミーヘッド12-1でのバイノーラル録音の例と、録音の際に使用されるダミーヘッド12-2でのバイノーラル録音の例とが示されている。
基準となるダミーヘッド12-1の特定位置の音源11からマイクロホン13-1が設置される鼓膜位置までの空間特性Fが測定される。また、録音の際に使用されるダミーヘッド12-2の音源11からマイクロホン13-2が設置される鼓膜位置までの空間特性Gが測定される。
これらの空間特性を事前測定しておき、メタデータとして、メタデータDB25に記録しておくことにより、メタデータから得られる情報を用いて再生時に標準的な音に変換することが可能となる。
録音データの標準化は、信号の伝送前に実施してもよいし、メタデータとして補償に必要なEQ(イコライザ)処理の係数などをメタデータとして付加してもよい。
また、頭部における耳間の距離をメタデータとして保持、付加し、音像を広げる(狭める)処理を行うことで、より標準的な音による録音が可能になる。本機能を便宜上、録音時補償処理と称する。この録音時補償処理を、数式を用いて説明を追加すると、基準となるダミーヘッド12-1を用いて録音した鼓膜位置の音圧Pは、次の式(1)により表される。
Figure 0006996501000001
一方で、標準とは異なるダミーヘッド(例えば、ダミーヘッド12-2)を用いて録音された際の音圧P´は、次の式(2)で表される。
Figure 0006996501000002
ここで、M1は基準となるマイクロホン13-1の感度であり、M2はマイクロホン13-2の感度である。Sは、音源の場所(位置)を表す。Fは上述したように基準となるダミーヘッド12-1の特定位置の音源11からマイクロホン13-1が設置される鼓膜位置までの空間特性である。Gは、録音の際に使用されるダミーヘッド12-2の音源11からマイクロホン13-2が設置される鼓膜位置までの空間特性である。
以上より、録音時に補償処理として、以下の式(3)で表されるEQ1処理(イコライザ処理)を施すことにより、基準と異なるダミーヘッドを使用したとしても標準的な音にて録音が可能となる。
Figure 0006996501000003
なお、EQ1処理に加えて、耳間距離を用い、音像を広げる(狭める)処理実施してもよい。より臨場感が期待できる。
<再生時の補償処理>
次に、図3を参照して、再生時に最適な音圧の調整について説明する。図3の録音再生システム51は、再生装置15において、補償信号処理部33が、再生時補償処理部61に入れ替わった点と、その図示が省略されていた表示部62と操作部63が明示された点が、図1の録画再生システム1と異なっている。
図3の例の録音装置14においては、マイクアンプ22のマイク感度の情報をメタデータとしてメタデータDB25に記録しておき、再生装置15において、そのマイク感度の情報を用いることにより、ヘッドホンアンプ35の再生音圧を、最適値に設定することができる。なお、これを実現するためには、録音時の入力音圧の情報だけでなく、再生用ドライバの感度情報も必要となる。
さらに、例えば、録音装置14において114dBSPLで入力された音源11を、再生装置15において114dBSPLの音声を出力できる。その際、すなわち、再生装置15において最適音量に調整する際は、事前にユーザに確認を呼びかけるメッセージを表示部62に表示させるか、または、音声ガイドとして出力させる。これにより、ユーザを驚かすことなく、音量調整を行うことができる。
<実耳使用時の位置補償>
次に、図4を参照して、実耳使用時の位置補償について説明する。図4の例においては、図2と同様に、基準となるダミーヘッド12-1でのバイノーラル録音の例と、録音の際に使用されるダミーヘッド12-2でのバイノーラル録音と、実耳使用時のバイノーラル録音の例とが示されている。
図4に示されるように、ユーザ81が実耳型のバイノーラルマイク82にて収音する場合、ダミーヘッド12-1や12-2の場合の鼓膜位置と異なり、マイク位置での収音となるため、マイク位置と鼓膜位置での目標音圧になるよう補償が必要となる。
そこで、メタデータとして、実耳型のバイノーラルマイク82にて収音を実施したという実耳録音フラグを用いて、鼓膜位置にて最適な音を聴取するための補償処理が行われる。
なお、この図4の補償処理は、図2を参照して上述した録音時補償処理と等価であるが、図4の補償処理は、以下、録音時位置補償処理と称する。
この録音時位置補償処理を、数式を用いて説明するに、本来鼓膜位置にて録音した場合における鼓膜位置にて録音した場合における鼓膜位置での音圧Pは次の式(4)により表される。
Figure 0006996501000004
一方で、実耳型のバイノーラルマイク82を用いて録音を行った際のマイク位置における音圧P´は、次の式(5)で表される。
Figure 0006996501000005
図2の場合と同様に、M1は基準となるマイクロホン13-1の感度であり、M2はマイクロホン13-2の感度である。Sは、音源の場所(位置)を表す。Fは上述したように基準となるダミーヘッド12-1の特定位置の音源11からマイクロホン13-1が設置される鼓膜位置までの空間特性である。Gは、録音の際に使用されるダミーヘッド12-2の音源11からバイノーラルマイク82(マイクロホン13-2)が設置される鼓膜位置までの空間特性である。
以上より、次の式(6)のEQ2処理を施すことにより、鼓膜位置と異なる位置におけるマイクをしようしたとしても標準な音にて録音することが可能となる。
Figure 0006996501000006
なお、メタデータを用いて、鼓膜位置以外の位置に設置されたマイクの信号を鼓膜位置での標準的な信号に変換する為には、バイノーラル録音を実施したというフラグ、鼓膜位置でなく、実耳を用いて耳介付近に設置したマイクにて録音したというフラグ、そして、音源からバイノーラルマイクまでの空間特性が必要となる。
ここで、ユーザ81が何らかの方法を用いて空間特性を測定できるのであれば、本人のデータを使用しても良い。しかしながら、データを有していない場合を考慮すると、図5のAに示されるように、標準的なダミーヘッド12-2にバイノーラルマイク82を設置し、音源からバイノーラルマイクまでの空間特性を事前測定すると、実耳を用いて録音したデータに対しても、標準的な音として録音が可能となる。
なお、録音時位置補償処理に用いるEQ2の作成例について述べると、EQ2においてM1及びM2の項はマイクの感度差を補償する項となっており、周波数特性の差はF/Gの項に主に表れる。F/Gはマイク位置から鼓膜位置までの特性の差として表すことができるが、図5のBの矢印に示されるように、F/G特性は外耳道共振の影響を大きく受ける特性となる。つまり、標準的なデータとしては、耳介側が開放端、鼓膜側が密閉端とした共振構造を考えて、次のEQ構造を持てばよい。
・3kHz(1乃至4kHz)付近にピークを持つ
・ピークに向けて、200Hz-2kHzの間で3dB/octのカーブを描く
なお、図5および図6の例においては、バイノーラルマイクを用いて説明したが、実耳型のノイズキャンセラ用の収音マイクである場合も同様である。
<再生の際の外耳道に対する影響の補償>
バイノーラルコンテンツ再生時に実施する補償処理は鼓膜位置にて収音されたバイノーラル録音コンテンツおよび人間の実耳を利用して収録したコンテンツ両方に対して必要となる。
すなわち、鼓膜位置で収音されたコンテンツは既に外耳道を経由しており、ヘッドホン等を利用してバイノーラルコンテンツを再生すると、二重に外耳道共振の影響を受けてしまう為である。また、実耳を使用してバイノーラルコンテンツを録音する際については、録音位置と再生位置が異なる為、上記の位置補償を事前に実施する必要がある。
したがって、実耳を使用した録音コンテンツに対しても同様に、本補償処理は必要となる。本補償処理を、以下、便宜上、再生時補償処理と呼ぶものとする。補償処理EQ3について数式を用いて説明を追加すると、図6に示されるように、EQ3はヘッドホンの周波数特性に加え、耳穴密閉時の外耳道特性を補正する処理となる。
吹き出しに記載の長方形は、外耳道を表しており、例えば、左側が耳介側で、固定端、右側が鼓膜側で固定端である。このような外耳道の場合、図6のグラフに示されるように、外耳道特性として、5kHzと7kHz付近に録音EQのディップがくる。
したがって、標準的なデータとしては、耳穴密閉時の外耳道共振である、次の特徴を持たせればよい
・5kHz付近に-5dB程度のディップを持つ
・7kHz付近に-5dB程度のディップを持つ
以上のように補償処理が行われるが、補償処理を行う際には、補償処理を施す位置によって、複数のパターンが考えられる。次に、パターン毎のシステム例について説明する。
<2.第2の実施の形態>
<本技術を適用した録音再生システムの例>
図7は、録音時補償処理を伝送前に施す場合の録音再生システムの例を示す図である。図7の例の録音再生システムにおいては、録音の際にメタデータとして、基準ダミーヘッドと録音時に使用したダミーヘッドの情報が付加されるのではなく、2つのダミーヘッド間の特性差から、伝送前に録音時補償処理が実施されて、標準的な音に変換後、伝送が行われる。
図7の録音再生システム101は、録音装置14において、録音時補償処理部111が追加された点と、再生装置15において、補償信号処理部33が、再生時補償処理部61に入れ替わった点とが、図1の録画再生システム1と異なっている。
また、録音装置14から、再生装置15に送信される音声ファイル102は、ヘッダ部、データ部、フラグを含むメタデータが格納されるメタデータ領域で構成されている。フラグとしては、例えば、バイノーラル録音であるか否かを示すバイノーラル録音フラグ、ダミーヘッドor実耳装着マイクを用いて録音したのかを示す使用判別フラグ、録音時補償処理がなされているか否かを示す録音時補償処理 実施フラグなどがある。図7の音声ファイル102においては、例えば、メタデータ領域において1が示される領域に、バイノーラル録音フラグが格納されており、2が示される領域に、使用判別フラグが格納されており、3が示される領域に、録音時補償処理実施フラグが格納されている。
すなわち、録音装置14のメタデータ付加部26は、メタデータDB25からのメタデータを、ADC24からの音声信号に付加し、音声ファイル102として、録音時補償処理部111に供給する。録音時補償処理部111は、2つのダミーヘッド間の特性差に基づいて、音声ファイル102の音声信号に対して録音時補償処理を行う。そして、録音時補償処理部111は、音声ファイル102のメタデータ領域の3が示される領域に格納されている録音時補償処理 実施フラグをオンに設定する。なお、録音時補償処理 実施フラグは、メタデータとして付加される時点ではオフに設定されている。録音時補償処理部111は、録音時補償処理がなされ、メタデータのうち、録音時補償処理 実施フラグがオンされた音声ファイルを、送信部27および記憶部28に供給する。
再生装置15の受信部31は、ネットワーク18から音声ファイルを受信し、受信した音声ファイルから音声信号とメタデータとを取得し、取得した音声信号(デジタル)をDAC34に出力し、取得したメタデータをメタデータDB32に蓄積する。
補償信号処理部33は、メタデータのうち録音時補償処理 実施フラグを参照することで、録音時補償処理がなされていることがわかる。したがって、補償信号処理部33は、受信部31からの音声信号に対して、再生時補償処理を行い、視聴者(リスナ)にとって最適な信号を生成する処理を行う。
なお、ダミーヘッドor 実耳装着マイクの使用判別フラグが実耳装着マイク示すとき、録音時補償処理には、録音時位置補償処理が含まれる。ダミーヘッドor 実耳装着マイクの使用判別フラグがダミーヘッドの場合には、録音時位置補償処理は必要なくなる。
<録音再生システムの動作例>
次に、図8のフローチャートを参照して、図7の録音装置14の録音処理について説明する。ステップS101において、マイクロホン13は、音源11からの音声を収音して、アナログの音声信号として録音装置14に入力する。
ステップS102において、マイクアンプ22は、ボリュームスライダ23からのユーザによる操作信号に対応した音量で、マイクロホン13からの音声信号を増幅し、ADC24に出力する。
ステップS103において、ADC24は、マイクアンプ22により増幅されたアナログの音声信号に対して、AD変換を行い、デジタルの音声信号に変換し、メタデータ付加部26に出力する。
メタデータ付加部26は、ステップS104において、ADC24からの音声信号に、メタデータDB25からのメタデータを付加し、音声ファイルとして、録音時補償処理部111に出力する。ステップS105において、録音時補償処理部111は、2つのダミーヘッド間の特性差に基づいて、音声ファイル102の音声信号に対して録音時補償処理を行う。その際、録音時補償処理部111は、音声ファイル102のメタデータ領域の3が示される領域に格納されている録音時補償処理 実施フラグをオンに設定し、音声ファイル102を、送信部27および記憶部28に供給する。
ステップS106において、送信部27は、音声ファイル102を、ネットワーク18を介して、再生装置15に送信する。
次に、図9のフローチャートを参照して、図7の再生装置15の再生処理について説明する。
再生装置15の受信部31は、ステップS121において、図8のステップS106において送信されてきた音声ファイル102を、受信し、ステップS122において、受信した音声ファイルから音声信号とメタデータとを取得し、取得した音声信号(デジタル)をDAC34に出力し、取得したメタデータをメタデータDB32に蓄積する。
再生時補償処理部61は、メタデータのうち録音時補償処理 実施フラグを参照することで、録音時補償処理がなされていることがわかる。したがって、補償信号処理部33は、ステップS123において、受信部31からの音声信号に対して、再生時補償処理を行い、視聴者(リスナ)にとって最適な信号を生成する処理を行う。
DAC34は、ステップS124において、補償信号処理部33により補償が行われたデジタル信号を、アナログ信号に変換する。ヘッドホンアンプ35は、DAC34からの音声信号を増幅する。ヘッドホン16は、ステップS126において、DAC34からの音声信号対応する音声を出力する。
<本技術を適用した録音再生システムの他の例>
図10は、録音時補償処理を伝送後に施す場合の録音再生システムの例を示す図である。図10の例の録音再生システムにおいては、録音の際にメタデータとして、基準ダミーヘッドと録音時に使用したダミーヘッドの情報が付加して、伝送後、受信側にて得られたメタデータを基に、録音時補償処理が実施される。
図10の録音再生システム151は、図1の録音再生システム1と基本的に同様に構成されている。録音装置14から、再生装置15に送信される音声ファイル152は、図7の音声ファイル102と同様に構成されている。ただし、音声ファイル152においては、録音時補償処理 実施フラグはオフに設定されている。
<録音再生システムの動作例>
次に、図11のフローチャートを参照して、図10の録音装置14の録音処理について説明する。ステップS151において、マイクロホン13は、音源11からの音声を収音して、アナログの音声信号として録音装置14に入力する。
ステップS152において、マイクアンプ22は、ボリュームスライダ23からのユーザによる操作信号に対応した音量で、マイクロホン13からの音声信号を増幅し、ADC24に出力する。
ステップS153において、ADC24は、マイクアンプ22により増幅されたアナログの音声信号に対して、AD変換を行い、デジタルの音声信号に変換し、メタデータ付加部26に出力する。
メタデータ付加部26は、ステップS154において、ADC24からの音声信号に、メタデータDB25からのメタデータを付加し、音声ファイルとして、送信部27および記憶部28に供給する。ステップS155において、送信部27は、音声ファイル102を、ネットワーク18を介して、再生装置15に送信する。
次に、図12のフローチャートを参照して、図7の再生装置15の再生処理について説明する。
再生装置15の受信部31は、ステップS171において、図10のステップS155において送信されてきた音声ファイル102を受信し、ステップS172において、受信した音声ファイルから音声信号とメタデータとを取得し、取得した音声信号(デジタル)をDAC34に出力し、取得したメタデータをメタデータDB32に蓄積する。
補償信号処理部33は、ステップS173において、受信部31からの音声信号に対して、録音時補償処理と再生時補償処理を行い、視聴者(リスナ)にとって最適な信号を生成する処理を行う。
DAC34は、ステップS174において、補償信号処理部33により補償が行われたデジタル信号を、アナログ信号に変換する。ヘッドホンアンプ35は、DAC34からの音声信号を増幅する。ヘッドホン16は、ステップS175において、DAC34からの音声信号対応する音声を出力する。
なお、ダミーヘッドor 実耳装着マイクの使用判別フラグが実耳装着マイク示すとき、録音時補償処理には、録音時位置補償処理が含まれる。ダミーヘッドor 実耳装着マイクの使用判別フラグがダミーヘッドの場合には、録音時位置補償処理は必要なくなる。
また、再生装置における周波数特性は一般的に未知数であることが多いため、再生装置の情報が得られない場合は、再生時補償処理を施さないという選択肢も存在する。あるいは、再生装置のドライバ特性がフラットという仮定に基づき、外耳道共振の影響のみを補償する処理を実施してもよい。
以上のように、本技術においては、バイノーラルコンテンツ録音時に、コンテンツに対してメタデータを付加するようにしたので、バイノーラルコンテンツにおいて、どのようなダミーヘッドやマイクロホンといった機材を用いて録音を実施しても、標準的な音に補償することができる。
また、録音にしようしたマイクロホンの感度情報をメタデータとして付加することにより、コンテンツの再生時に、出力音圧を適切に調整することができる。
人の実耳を使用してバイノーラルコンテンツを収音した場合に、収音位置と鼓膜位置とのマイク位置の音圧の差を補償することができる。
なお、近年、他人との交流の一手段としてSNSが多く利用されている。本技術のバイノーラルコンテンツにメタデータを付加することにより、以下のようなSNSに近い試みである、バイノーラルマッチングシステムが考えられる。
<3.第3の実施の形態>
<本技術を適用したバイノーラルマッチングシステムの他の例>
図13は、本技術を適用したバイノーラルマッチングシステムの例を示す図である。
図13のバイノーラルマッチングシステム201においては、スマートフォン(多機能携帯電話機)211とサーバ212とが、ネットワーク213を介して接続されている。なお、ネットワーク213には、スマートフォン211とサーバ212とが1台ずつしか接続されていないが、実際には、複数台のスマートフォン211、複数台のサーバ212が接続されている。
スマートフォン211は、タッチパネル221を有しており、いま、図示せぬカメラなどで撮像された自分の顔画像が表示されている。スマートフォン211は、顔画像に対して、画像解析を行い、図1を参照して上述したメタデータ(例えば、ユーザの耳の形状、耳間距離、性別、髪形など、すなわち、顔の形状のメタデータ)を生成して、生成したメタデータを、ネットワーク213を介して、サーバ212に送信する。
スマートフォン211は、送信したメタデータに対して特性が近いとされたメタデータと、メタデータに対応するバイノーラル録音コンテンツを受信し、メタデータを基に、バイノーラル録音コンテンツを再生する。
サーバ212は、例えば、コンテンツDB231およびメタデータDB232を有している。コンテンツDB231には、他のユーザがスマートフォンや携帯型パーソナルコンピュータを用いてライブ会場などでバイノーラル録音して、送信してきたバイノーラル録音コンテンツが登録されている。メタデータDB232には、バイノーラル録音コンテンツDB231に登録されているバイノーラル録音コンテンツに対応させて、そのコンテンツを録音したユーザに関するメタデータ(例えば、耳の形状、耳間距離、性別、髪形など)が登録されている。
サーバ212は、スマートフォン211からのメタデータを受信すると、メタデータDB232から、受信したメタデータに特性の近いメタデータを検索し、そのメタデータが対応するバイノーラル録音コンテンツを、コンテンツDB231から検索する。そして、サーバ212は、コンテンツDB231から、メタデータの特性の近いバイノーラル録音コンテンツを、ネットワーク213を介して、スマートフォン211に送信する。
このようにすることで、骨格や耳の形が似ている他のユーザが録音したバイノーラル録音コンテンツを得ることができる。すなわち、より臨場感の高いコンテンツを受信することができる。
図14は、スマートフォン211の構成例を示すブロック図である。
スマートフォン211は、通信部252、音声コーデック253、カメラ部256、画像処理部257、記録再生部258、記録部259、タッチパネル221(表示装置)、CPU(Central Processing Unit)263を有している。これらは、バス265を介して互いに接続されている。
また、通信部252にはアンテナ251が接続されており、音声コーデック253には、スピーカ254とマイクロホン255が接続されている。さらに、CPU263には、電源ボタンなどの操作部264が接続されている。
スマートフォン211は、通信モード、通話モード、撮影モードなどの各種のモードの処理を行う。
スマートフォン211が通話モードの処理を行う場合、マイクロホン255で生成されたアナログの音声信号が、音声コーデック253に入力される。音声コーデック253は、アナログの音声信号をデジタルの音声データへ変換し、変換後の音声データを圧縮して、通信部252に供給する。通信部252は、圧縮後の音声データの変調処理や周波数変換処理等を行い、送信信号を生成する。そして、通信部252は、送信信号をアンテナ251に供給し、図示しない基地局へ送信する。
通信部252はまた、アンテナ251で受信した受信信号の増幅、周波数変換処理、復調処理等を行うことにより、通話相手から送信されたデジタルの音声データを取得し、音声コーデック253に供給する。音声コーデック253は、音声データを伸張し、伸長後の音声データをアナログの音声信号へ変換して、スピーカ254に出力する。
また、スマートフォン211が通信モードの処理としてメール送信を行う場合、CPU263は、ユーザがタッチパネル221を操作することにより入力した文字を受け付け、その文字をタッチパネル221に表示する。また、CPU263は、ユーザがタッチパネル221を操作することにより入力した指示等に基づいて、メールデータを生成し、通信部252に供給する。通信部252は、メールデータの変調処理や周波数変換処理等を行い、得られた送信信号をアンテナ251から送信する。
通信部252はまた、アンテナ251で受信した受信信号の増幅、周波数変換処理、復調処理等を行い、メールデータを復元する。このメールデータは、タッチパネル221に供給され、表示部262に表示される。
なお、スマートフォン211は、受信したメールデータを、記録再生部258により記録部259に記録させることも可能である。記録部259は、RAM(Random Access Memory)や内蔵型フラッシュメモリ等の半導体メモリ、ハードディスク、磁気ディスク、光磁気ディスク、光ディスク、USB(Universal Serial Bus)メモリ、またはメモリカード等のリムーバブルメディアである。
スマートフォン211が撮影モードの処理を行う場合、CPU263は、撮影準備動作の開始指令を、カメラ部256に供給する。カメラ部256は、通常使用状態におけるスマートフォン211の裏面(タッチパネル221と対向する面)にレンズを有するバックカメラと、表面(タッチパネル221が配置される面)にレンズを有するフロントカメラとからなる。バックカメラは、ユーザが自分以外の被写体を撮影するときに用いられ、フロントカメラは、ユーザが自分を被写体として撮影するときに用いられる。
カメラ部256のバックカメラまたはフロントカメラは、CPU263から供給される撮影準備動作の開始指令に応じて、AF(測距)動作、仮撮影などの撮影準備動作を行う。CPU263は、ユーザがタッチパネル221を操作することにより入力した撮影指令に応じて、撮影指令をカメラ部256に供給する。カメラ部256は、撮影指令に応じて、本撮影を行う。仮撮影や本撮影によって撮影された撮影画像は、タッチパネル221に供給され、表示部262に表示される。また、本撮影によって撮影された撮影画像は、画像処理部257にも供給され、画像処理部257において符号化される。符号化の結果生成される符号化データは、記録再生部258に供給され、記録部259に記録される。
タッチパネル221は、LCDからなる表示部262の上に、タッチセンサ260が積層されて構成されている。
CPU263は、ユーザの操作によるタッチセンサ260からの情報に応じて、タッチ位置を計算することで、タッチ位置を判定する。
また、CPU263は、ユーザにより操作部264の電源ボタンが押下された場合、スマートフォン211の電源をオンまたはオフにする。
CPU263は、上述した処理を、例えば記録部259に記録されているプログラムを実行することにより行う。このプログラムは、有線または無線の伝送媒体を介して、通信部252で受信し、記録部259にインストールすることができる。その他、プログラムは、記録部259に、あらかじめインストールしておくことができる。
図15は、サーバ212のハードウエアの構成例を示すブロック図である。
サーバ212において、CPU301、ROM(Read Only Memory)302、RAM(Random Access Memory)303は、バス304により相互に接続されている。
バス304には、さらに、入出力インタフェース305が接続されている。入出力インタフェース305には、入力部306、出力部307、記憶部308、通信部309、及びドライブ310が接続されている。
入力部306は、キーボード、マウス、マイクロホンなどよりなる。出力部307は、ディスプレイ、スピーカなどよりなる。記憶部308は、ハードディスクや不揮発性のメモリなどよりなる。通信部309は、ネットワークインタフェースなどよりなる。ドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア311を駆動する。
以上のように構成されるサーバ212では、CPU301が、例えば、記憶部308に記憶されているプログラムを、入出力インタフェース305及びバス304を介して、RAM303にロードして実行する。これにより、上述した一連の処理が行われる。
コンピュータ(CPU301)が実行するプログラムは、リムーバブルメディア311に記録して提供することができる。リムーバブルメディア311は、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディア等である。また、あるいは、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータにおいて、プログラムは、リムーバブルメディア311をドライブ310に装着することにより、入出力インタフェース305を介して、記憶部308にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部309で受信し、記憶部308にインストールすることができる。その他、プログラムは、ROM302や記憶部308に、あらかじめインストールしておくことができる。
<バイノーラルマッチングシステムの動作例>
次に、図16のフローチャートを参照して、バイノーラルマッチングシステムの処理例について説明する。
サーバ212にアクセスする際に、ステップS201において、スマートフォン211のCPU263は、自分の顔画像データが登録済みであるか否かを判定する。ステップS201において、顔画像データが登録済みであると判定された場合、ステップS202およびS203はスキップされ、処理は、ステップS204に進む。
ステップS201において、顔画像データは登録済みではないと判定された場合、CPU263は、ステップS202において、自分の顔画像データの登録を行い、ステップS203において、画像処理部257に対し、登録された画像データの解析処理を行わせる。解析結果として、メタデータ(例えば、ユーザの耳の形状、耳間距離、性別など、すなわち、顔の形状のメタデータ)が生成される。
ステップS204において、CPU263は、通信部252を制御し、サーバ212にメタデータを送信して、コンテンツをリクエストする。
サーバ212のCPU301は、ステップS221において、通信部309を介してリクエストを受ける。このとき、通信部309は、メタデータも受信する。ステップS222において、CPU301は、コンテンツDB231に登録されているコンテンツから候補を抽出する。ステップS223において、CPU301は、受信したメタデータと、メタデータDB232のメタデータとのマッチングを行う。ステップS224において、CPU301は、メタデータに関して類似度の高いコンテンツを、スマートフォン211にレスポンスする。
スマートフォン211のCPU263は、ステップS205において、サーバ212からレスポンスがあったか否かを判定する。ステップS205において、レスポンスがあったと判定された場合、処理は、ステップS206に進む。ステップS206において、通信部252を制御して、コンテンツを受信させる。
一方、ステップS205において、レスポンスがないと判定された場合、処理は、ステップS207に進む。ステップS207において、CPU263は、表示部262に、エラーである旨が示されているエラー画像を表示させる。
なお、上記説明では、画像分析を行って抽出されたメタデータを、サーバに送ることでそのメタデータに類似度の高いコンテンツを選ぶ例を説明したが、画像そのものをサーバに送り、サーバにおいて画像分析を行って抽出されたメタデータを用いてコンテンツを選ぶようにしてもよい。すなわち、メタデータ抽出は、ユーザ側で行ってもよいし、サーバ側で行ってもよい。
以上のように、本技術によれば、バイノーラルコンテンツ録音時に、コンテンツに対してメタデータを付加することにより、自撮り画像を解析して、近い特性の録音データを受信する機能を実現することができ、SNSとして利用することができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要な段階で処理が行われるプログラムであっても良い。
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数のデバイス(装置)により構成される装置全体を表すものである。
例えば、本開示は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。つまり、本技術は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、本技術は以下のような構成も取ることができる。
(1) バイノーラルコンテンツとともに、前記バイノーラルコンテンツの録音時環境に関するメタデータを送信する送信部を
備える情報処理装置。
(2) 前記メタデータは、前記バイノーラルコンテンツの録音時に使用されたダミーヘッドまたは頭部の耳間距離である
前記(1)に記載の情報処理装置。
(3) 前記メタデータは、前記バイノーラルコンテンツの録音時にダミーヘッドが使用されたか、実耳が使用されたかを示す使用フラグである
前記(1)または(2)に記載の情報処理装置。
(4) 前記メタデータは、前記バイノーラルコンテンツの録音時におけるマイク位置が鼓膜付近であるか、または耳介付近であるかを示す位置フラグである
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5) 前記位置フラグが耳介付近であることを示す場合、1乃至4kHz付近で補償処理が施される
前記(4)に記載の情報処理装置。
(6) 前記位置フラグに応じて、耳穴密閉時の外耳道特性の補償処理である再生時補償処理が行われる
前記(4)に記載の情報処理装置。
(7) 前記再生時補償処理は、5kHz付近および7kHz付近にディップを持つように行われる
前記(6)に記載の情報処理装置。
(8) 前記メタデータは、前記バイノーラルコンテンツの録音時に使用されたマイクロホンの情報である
前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9) 前記メタデータは、前記バイノーラルコンテンツの録音時に使用されたマイクアンプのゲイン情報である
前記(1)乃至(8)のいずれかに記載の情報処理装置。
(10) 録音時の音源からマイクロホンの位置までの音圧差を補償するための録音時補償処理を行う補償処理部を
さらに備え、
前記メタデータは、前記録音時補償処理が済んでいるか否かを示す補償フラグである
前記(1)乃至(9)のいずれかに記載の情報処理装置。
(11) 情報処理装置が、
バイノーラルコンテンツとともに、前記バイノーラルコンテンツの録音時環境に関するメタデータを送信する
情報処理方法。
(12) バイノーラルコンテンツとともに、前記バイノーラルコンテンツの録音時環境に関するメタデータを受信する受信部を
備える情報処理装置。
(13) 前記メタデータに応じて、補償処理を行う補償処理部
をさらに備える
前記(12)に記載の情報処理装置。
(14) 送信された画像を用いてのマッチングにより選択されて送信されてくるコンテンツを受信する
前記(12)または(13)に記載の情報処理装置。
(15) 情報処理装置が、
バイノーラルコンテンツとともに、前記バイノーラルコンテンツの録音時環境に関するメタデータを受信する
情報処理方法。
1 録音再生システム, 11 音源, 12,12-1,12-2 ダミーヘッド, 13,13-1,13-2 マイクロホン, 14 録音装置, 15 再生装置, 16 ヘッドホン, 17 ユーザ, 18 ネットワーク, 22 マイクアンプ, 23 スライダ, 24 ADC, 25 メタデータDB, 26 メタデータ付加部, 27 送信部, 28 記憶部, 31 受信部, 32 メタデータDB, 33 補償信号処理部, 34 DAC, 35 ヘッドホンアンプ, 51 録音再生システム, 61 再生時補償処理部, 62 表示部, 63 操作部, 81 ユーザ, 82 バイノーラルマイク, 101 録音再生システム, 102 音声ファイル, 111 録音時補償処理部, 151 録音再生システム, 152 音声ファイル, 201 バイノーラルマッチングシステム, 211 スマートフォン, 212 サーバ, 213 ネットワーク, 221 タッチパネル, 231 コンテンツDB, 232 メタデータDB, 252 通信部, 257 画像処理部, 263 CPU, 301 CPU, 309 通信部

Claims (14)

  1. バイノーラルコンテンツとともに、前記バイノーラルコンテンツの録音時環境に関するメタデータを送信する送信部を備え、
    前記送信部は、送信されてきた画像を用いての顔の形状のマッチングにより選択された前記バイノーラルコンテンツを送信する
    情報処理装置。
  2. 前記メタデータは、前記バイノーラルコンテンツの録音時に使用されたダミーヘッドまたは頭部の耳間距離である
    請求項1に記載の情報処理装置。
  3. 前記メタデータは、前記バイノーラルコンテンツの録音時にダミーヘッドが使用されたか、実耳が使用されたかを示す使用フラグである
    請求項1または2に記載の情報処理装置。
  4. 前記メタデータは、前記バイノーラルコンテンツの録音時におけるマイク位置が鼓膜付近であるか、または耳介付近であるかを示す位置フラグである
    請求項1乃至3のいずれかに記載の情報処理装置。
  5. 前記位置フラグが前記耳介付近であることを示す場合、1乃至4kHz付近で補償処理が施される
    請求項4に記載の情報処理装置。
  6. 前記位置フラグに応じて、耳穴密閉時の外耳道特性の補償処理である再生時補償処理が行われる
    請求項4に記載の情報処理装置。
  7. 前記再生時補償処理は、5kHz付近および7kHz付近にディップを持つように行われる
    請求項6に記載の情報処理装置。
  8. 前記メタデータは、前記バイノーラルコンテンツの録音時に使用されたマイクロホンの情報である
    請求項1乃至7のいずれかに記載の情報処理装置。
  9. 前記メタデータは、前記バイノーラルコンテンツの録音時に使用されたマイクアンプのゲイン情報である
    請求項1乃至8のいずれかに記載の情報処理装置。
  10. 録音時の音源からマイクロホンの位置までの音圧差を補償するための録音時補償処理を行う補償処理部を
    さらに備え、
    前記メタデータは、前記録音時補償処理が済んでいるか否かを示す補償フラグである
    請求項1乃至9のいずれかに記載の情報処理装置。
  11. 情報処理装置が、
    送信されてきた画像を用いての顔の形状のマッチングにより選択されたバイノーラルコンテンツとともに、前記バイノーラルコンテンツの録音時環境に関する
    メタデータを送信する
    情報処理方法。
  12. バイノーラルコンテンツとともに、前記バイノーラルコンテンツの録音時環境に関するメタデータを受信する受信部を備え
    前記受信部は、送信された画像を用いての顔の形状のマッチングにより選択されて送信されてくる前記バイノーラルコンテンツを受信する
    情報処理装置。
  13. 前記メタデータに応じて、補償処理を行う補償処理部
    をさらに備える請求項12に記載の情報処理装置。
  14. 情報処理装置が、
    送信された画像を用いての顔の形状のマッチングにより選択されて送信されてくるバイノーラルコンテンツとともに、前記バイノーラルコンテンツの録音時環境に関するメタデータを受信する
    情報処理方法。
JP2018516940A 2016-05-11 2017-04-27 情報処理装置および方法 Active JP6996501B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016095430 2016-05-11
JP2016095430 2016-05-11
PCT/JP2017/016666 WO2017195616A1 (ja) 2016-05-11 2017-04-27 情報処理装置および方法

Publications (2)

Publication Number Publication Date
JPWO2017195616A1 JPWO2017195616A1 (ja) 2019-03-14
JP6996501B2 true JP6996501B2 (ja) 2022-01-17

Family

ID=60267247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018516940A Active JP6996501B2 (ja) 2016-05-11 2017-04-27 情報処理装置および方法

Country Status (3)

Country Link
US (1) US10798516B2 (ja)
JP (1) JP6996501B2 (ja)
WO (1) WO2017195616A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2563635A (en) * 2017-06-21 2018-12-26 Nokia Technologies Oy Recording and rendering audio signals
US10652686B2 (en) * 2018-02-06 2020-05-12 Sony Interactive Entertainment Inc. Method of improving localization of surround sound
KR102559685B1 (ko) * 2018-12-19 2023-07-27 현대자동차주식회사 차량 및 그 제어방법
WO2021010562A1 (en) 2019-07-15 2021-01-21 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
KR20210008788A (ko) 2019-07-15 2021-01-25 삼성전자주식회사 전자 장치 및 그 제어 방법
JP7432225B2 (ja) * 2020-01-22 2024-02-16 クレプシードラ株式会社 音再生記録装置、及びプログラム
WO2023182300A1 (ja) * 2022-03-25 2023-09-28 クレプシードラ株式会社 信号処理システム、信号処理方法、及びプログラム
US20240305942A1 (en) * 2023-03-10 2024-09-12 Meta Platforms Technologies, Llc Spatial audio capture using pairs of symmetrically positioned acoustic sensors on a headset frame

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002095085A (ja) 2000-09-12 2002-03-29 Victor Co Of Japan Ltd ステレオヘッドホン及びステレオヘッドホン再生システム
JP2002291100A (ja) 2001-03-27 2002-10-04 Victor Co Of Japan Ltd オーディオ信号再生方法、及びパッケージメディア
JP2005244664A (ja) 2004-02-26 2005-09-08 Toshiba Corp 音配信装置およびその方法、音再生装置、バイノーラルシステム、バイノーラル音響配信装置およびその方法、バイノーラル音響再生装置、記録媒体作成装置およびその方法、画像配信装置、画像表示装置
JP2006350592A (ja) 2005-06-15 2006-12-28 Hitachi Eng Co Ltd 音楽情報提供装置
JP2007219393A (ja) 2006-02-20 2007-08-30 Doshisha 画像から音楽を生成する音楽生成装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5280001A (en) * 1975-12-26 1977-07-05 Victor Co Of Japan Ltd Binaural system
JPS5458402A (en) 1977-10-18 1979-05-11 Torio Kk Binaural signal corrector
US4388494A (en) * 1980-01-12 1983-06-14 Schoene Peter Process and apparatus for improved dummy head stereophonic reproduction
GB9709848D0 (en) 1997-05-15 1997-07-09 Central Research Lab Ltd Improved artificial ear and auditory canal system and means of manufacturing the same
WO2001049066A2 (en) * 1999-12-24 2001-07-05 Koninklijke Philips Electronics N.V. Headphones with integrated microphones
AUPQ938000A0 (en) * 2000-08-14 2000-09-07 Moorthy, Surya Method and system for recording and reproduction of binaural sound
JP2003264899A (ja) 2002-03-11 2003-09-19 Matsushita Electric Ind Co Ltd 情報提示装置および情報提示方法
CN1771763A (zh) * 2003-04-11 2006-05-10 皇家飞利浦电子股份有限公司 包括声音再现构件和耳塞式麦克风的系统
EP1667487A4 (en) * 2003-09-08 2010-07-14 Panasonic Corp AUDIO PICTURE DEVICE DEVICE TOOL AND AUDIO PICTURE CONTROLLER
JP2007187749A (ja) 2006-01-11 2007-07-26 Matsushita Electric Ind Co Ltd マルチチャンネル符号化における頭部伝達関数をサポートするための新装置
US20080004866A1 (en) * 2006-06-30 2008-01-03 Nokia Corporation Artificial Bandwidth Expansion Method For A Multichannel Signal
JP4469898B2 (ja) * 2008-02-15 2010-06-02 株式会社東芝 外耳道共鳴補正装置
JP4709927B1 (ja) * 2010-01-13 2011-06-29 株式会社東芝 音信号補正装置、及び音信号補正方法
US9055382B2 (en) * 2011-06-29 2015-06-09 Richard Lane Calibration of headphones to improve accuracy of recorded audio content
WO2013149645A1 (en) * 2012-04-02 2013-10-10 Phonak Ag Method for estimating the shape of an individual ear
FR2998438A1 (fr) * 2012-11-16 2014-05-23 France Telecom Acquisition de donnees sonores spatialisees
US9591427B1 (en) * 2016-02-20 2017-03-07 Philip Scott Lyren Capturing audio impulse responses of a person with a smartphone
US10080086B2 (en) * 2016-09-01 2018-09-18 Philip Scott Lyren Dummy head that captures binaural sound

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002095085A (ja) 2000-09-12 2002-03-29 Victor Co Of Japan Ltd ステレオヘッドホン及びステレオヘッドホン再生システム
JP2002291100A (ja) 2001-03-27 2002-10-04 Victor Co Of Japan Ltd オーディオ信号再生方法、及びパッケージメディア
JP2005244664A (ja) 2004-02-26 2005-09-08 Toshiba Corp 音配信装置およびその方法、音再生装置、バイノーラルシステム、バイノーラル音響配信装置およびその方法、バイノーラル音響再生装置、記録媒体作成装置およびその方法、画像配信装置、画像表示装置
JP2006350592A (ja) 2005-06-15 2006-12-28 Hitachi Eng Co Ltd 音楽情報提供装置
JP2007219393A (ja) 2006-02-20 2007-08-30 Doshisha 画像から音楽を生成する音楽生成装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
栗山 譲二,バイノーラルマイクによる高臨場感コンテンツ制作事例,日本音響学会 2015年 春季研究発表会講演論文集CD-ROM [CD-ROM],日本,一般社団法人日本音響学会,2015年03月18日,pp.1367-1368

Also Published As

Publication number Publication date
US10798516B2 (en) 2020-10-06
WO2017195616A1 (ja) 2017-11-16
US20190149940A1 (en) 2019-05-16
JPWO2017195616A1 (ja) 2019-03-14

Similar Documents

Publication Publication Date Title
JP6996501B2 (ja) 情報処理装置および方法
US11350234B2 (en) Systems and methods for calibrating speakers
JP6377018B2 (ja) 可搬型メディア再生装置に関するオーディオ・システム等化処理
KR102045600B1 (ko) 이어폰 능동 노이즈 제어
EP2926570B1 (en) Image generation for collaborative sound systems
US9613028B2 (en) Remotely updating a hearing and profile
US9055382B2 (en) Calibration of headphones to improve accuracy of recorded audio content
US7715568B2 (en) Binaural sound reproduction apparatus and method, and recording medium
US9282419B2 (en) Audio processing method and audio processing apparatus
JP6834971B2 (ja) 信号処理装置、信号処理方法、並びにプログラム
US9756437B2 (en) System and method for transmitting environmental acoustical information in digital audio signals
JP2016015711A5 (ja)
US10019222B2 (en) Method for obtaining music data, earphone and music player
US20220070604A1 (en) Audio equalization metadata
CN111147655B (zh) 模型生成方法和装置
EP3497939A1 (en) A method and a system for presenting media
JP2022020259A (ja) 頭外定位フィルタ生成システム、処理装置、頭外定位フィルタ生成方法、及びプログラム
JP6805879B2 (ja) フィルタ生成装置、フィルタ生成方法、及びプログラム
WO2024180668A1 (ja) フィルタ情報決定装置及び方法
CN112673648B (zh) 处理装置、处理方法、再现方法以及存储介质
WO2023085186A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
Brock-Nannestad The Roots of Audio—From Craft to Established Field 1925–1945

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200330

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211129

R151 Written notification of patent or utility model registration

Ref document number: 6996501

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151