JP6636642B2 - カスタム化/個人化頭部関連伝達関数を生成する方法 - Google Patents

カスタム化/個人化頭部関連伝達関数を生成する方法 Download PDF

Info

Publication number
JP6636642B2
JP6636642B2 JP2018534544A JP2018534544A JP6636642B2 JP 6636642 B2 JP6636642 B2 JP 6636642B2 JP 2018534544 A JP2018534544 A JP 2018534544A JP 2018534544 A JP2018534544 A JP 2018534544A JP 6636642 B2 JP6636642 B2 JP 6636642B2
Authority
JP
Japan
Prior art keywords
image
ear
individual
shape model
hrtf
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018534544A
Other languages
English (en)
Other versions
JP2019506050A (ja
Inventor
テック シー リー
テック シー リー
クリストファー チョンガン
クリストファー チョンガン
デズモンド ヒー
デズモンド ヒー
ギース マーク ベンジャミン レスリー
ギース マーク ベンジャミン レスリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Creative Technology Ltd
Original Assignee
Creative Technology Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Creative Technology Ltd filed Critical Creative Technology Ltd
Publication of JP2019506050A publication Critical patent/JP2019506050A/ja
Application granted granted Critical
Publication of JP6636642B2 publication Critical patent/JP6636642B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7553Deformable models or variational models, e.g. snakes or active contours based on shape, e.g. active shape models [ASM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20124Active shape model [ASM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Stereophonic System (AREA)

Description

本開示は、一般に、捕捉された画像に基づいてカスタム化/個人化頭部関連伝達関数(HRTF)を生成する方法に関する。
正確な対話型3D空間オーディオレンダリングは、個人化頭部関連伝達関数(HRTF)を必要とする。
伝統的には、このような個人化HRTFを取得するために、ユーザは、オーディオ信号が無響室内の異なる場所から放出される状態で、無響室内で約半時間の間、動かずに座っている必要がある。ユーザによって聴覚的に知覚されるオーディオ信号を捕捉するために、ユーザの耳内にマイクロフォンが配置される。また、無響室、オーディオ信号源、およびマイクロフォン応答などの要因を考慮する必要がある。このような応答はスプリアス応答と考えられることができ、HRTFにその後に変換されることができる頭部関連インパルス応答(HRIR)を取得するために、このようなスプリアス応答を取り除く必要性がある場合がある。
従来技術の技法は、上記の手法を簡略化するために出現してきた。具体的には、無響室の必要性を取り除き、上述のスプリアス応答などの問題に対処することが望ましい。
1つのこのような従来技術の技法は、「P-HRTF: Efficient Personalized HRTF Computation for High-Fidelity Spatial Sound, Meshram et al. Proc. of IMAR 2014 (http://gamma.cs.unc.edu/HRTF/)」である。この従来技術の技法は、複数の写真から詳細な耳モデルを再構成し、音響シミュレーションを行ってHRTFを得る。高密度に捕捉された写真のセット(SLRキヤノン60D 8MPを用いて、推奨される15度間隔で20数枚の写真)、およびかなりの計算能力が必要になる。
他のこのような従来技術の技法は、「Selection of Head-Related Transfer Function through Ear Contour Matching for Personalized Binaural Rendering. POLITECNICO DI MILANO. Master of Science in Computer Engineering. Dalena Marco. Academic Year 2012/2013」である。この従来技術の技法は、耳および音響効果を物理的にモデル化する代わりに、既存のデータベースを用いた画像ベースのマッチングを行うことが可能となることができることを企図する。既存のデータベースは、対応するHRTFに関連付けられた画像(例えば写真)の集合を含むことができる。画像を所与として、対応するHRTFを取得するように、所与の画像に対するベストマッチ(既存のデータベース内の画像の集合と比べた)を見出すために、一般化ハフ変換が用いられることができる。
しかし上記で論じられた手法/技法は、計算能力の点から多くのリソースが必要になるであろうことが理解できる。さらに、上記で論じられた手法/技法は、ユーザフレンドリおよび/または効率的なやり方での個人化HRTFの作成を容易にすることができない。
従って、上記の問題に対処する解決策をもたらすことが望ましい。
本開示の態様によれば、個人化頭部関連伝達関数(HRTF)を生成する方法が提供される。この方法は、
(1)ポータブルデバイスを用いて耳の画像を捕捉するステップと、
(2)捕捉された画像を自動スケーリングして、耳の物理的幾何形状を決定するステップと、
(3)決定された耳の物理的幾何形状に基づいて、個人化HRTFを取得するステップと
を含むことができる。
本開示の実施形態は、下記の図面を参照して本明細書の以下で述べられる。
本開示の実施形態による、カメラを有するスマートフォンなどのポータブルデバイスを用いて捕捉された画像から、個人化/カスタム化頭部関連伝達関数(HRTF)を作成/生成する方法を示す図である。 本開示の実施形態による、複数のサンプルを用いてトレーニングされることができる、複数の制御点を有するアクティブ形状モデルを示す図である。 本開示の実施形態により、図2aの複数のサンプルは、第1のサンプルおよび第2のサンプルを含むことができることを示す図である。 本開示の実施形態により、ユーザの耳の形状に適合された図2aの制御点を示す図である。
本開示は、カメラを有するスマートフォンなどのポータブルデバイスを用いて捕捉された画像から、個人化/カスタム化頭部関連伝達関数(HRTF)を作成/生成する方法100(図1を参照してさらに詳しく示されるような)に関する。本開示は、ハフ変換に関した従来技術の技法は、複数の写真からの詳細な耳モデルの再構成に関する従来技術の技法、および無響室の使用が関わる従来の手法と比べて、最も簡単であることを企図する。本開示はさらに、ユーザフレンドリおよび/または効率的なやり方で、個人化HRTFの作成/生成を少なくとも容易にするように、ハフ変換に関した従来技術の技法をさらに簡略化する必要性を企図する。
図1を参照すると、本開示の実施形態による、個人化/カスタム化HRTFを作成/生成する方法100が示される。具体的には、個人化/カスタム化HRTFは、ポータブルデバイスを用いて捕捉された画像から作成/生成されることができる。
方法100は、画像捕捉ステップ102、基準決定ステップ104、分析ステップ106、および個人化ステップ108を含むことができる。
画像捕捉ステップ102において、画像捕捉デバイスを有するポータブルデバイスを用いて、耳の少なくとも1つの画像が捕捉されることができる。例えばポータブルデバイスは、カメラを有するスマートフォンに対応しることができる。
基準決定ステップ104において、捕捉された画像に対するスケールファクタが決定されることができる。スケールファクタは、手動測定に依存する必要なしに決定されることが好ましい。スケールファクタは、以下でさらに詳しく論じられるように、自動スケーリングのための基礎として用いられることができる。
一実施形態において、スケールファクタは、目の間隔(すなわち瞳孔間距離)に基づいて決定されることができる。別の実施形態において、スケールファクタは、平均の耳珠長さに基づいて決定されることができる。さらに別の実施形態において、スケールファクタは、画像捕捉デバイスのフォーカスポイントに基づいて決定されることができる。さらなる実施形態においてスケールファクタは、基準被写体(例えば名刺または缶)、および/または既知の焦点長さを有する深度カメラに基づいて決定されることができる。
目の間隔に基づくスケールファクタの決定に関して、ユーザは2つの画像を捕捉することができる。1つの画像は、ユーザの目が検出されることができる、ユーザが彼自身/彼女自身を撮った写真(例えばおおよそ腕の長さの半分だけ離れてポータブルデバイスで撮った自分撮り)とすることができる。もう1つの画像は、例えば第1の画像が捕捉された後に、ユーザに彼/彼女の頭部を回転させることによって撮られた、ユーザの1つの耳の写真とすることができる。具体的には、ユーザが、ユーザの目が検出されることができる、彼自身/彼女自身の自分撮り(すなわち第1の画像)を撮った後、ユーザは彼/彼女の頭部を回転して彼/彼女の耳の画像(すなわち、画像捕捉ステップ102において捕捉される上述の耳の画像に対応することができる第2の画像)を捕捉することができ、ポータブルデバイスは両方の画像のための位置に保持される(すなわち自分撮りが撮られたときのポータブルデバイスの位置は、第2の画像を捕捉するために維持される)。あるいは、走査時にポータブルデバイスとユーザの頭部との間の距離を実質的に一定に保ちながら、ポータブルデバイスを円弧に走査して(すなわち目から耳へ、または耳から目へ)、目と耳の両方の画像を捕捉することも可能である。例えば、ユーザの目が検出されることができる彼自身/彼女自身の自分撮り(すなわち第1の画像)を撮る間、ポータブルデバイスはユーザによって腕の長さにおいて保持することができ、自分撮りが撮られた後、ユーザは彼/彼女の耳の画像(すなわち第2の画像)を捕捉するために、ポータブルデバイスを彼/彼女の頭部の側方に、同じ腕の長さに(第1の画像が捕捉されたときに従って)保ちながら走査することができる。物理的な目の間隔は、成人に対して通常おおよそ6.5cmであることが企図される(子供に対する目の間隔は異なることができることが理解されることができる)。従って、スケールファクタが導出されることができる。例えば、第1の画像に対して、2つの目の間の間隔は、画像的に50画素とすることができる。従って、画像的に50画素は、物理的分離における6.5cmに対応しることができる(すなわち、50画素は、例えば物理的寸法/測定値の観点では6.5cmに対応しることができる)。50画素:6.5cmの画像寸法と物理的寸法の比(すなわち第1の画像に基づく)を用いて、耳の画像(すなわち第2の画像)を物理的寸法に換算することが可能となることができる。
平均の耳珠長さに基づくスケールファクタの決定に関して、耳珠長さは、異なる耳にわたって比較的一定していることが企図される。従って、耳珠長さは、目の間隔に関する前の議論に従って類似のやり方で基準として用いられることができる(すなわち既知/標準の耳珠長さに基づく、耳の画像から物理的寸法への換算)。
画像捕捉デバイスのフォーカスポイントに基づくスケールファクタの決定に関して、画像捕捉デバイス(例えばカメラ)は、オートフォーカス機能を有することができることが企図される。従って、ユーザが画像捕捉デバイスを用いて彼/彼女の耳の画像を捕捉するとき、画像捕捉デバイスは、ユーザの耳にオートフォーカスすることができる。オートフォーカスは、レンズから被写体(すなわちユーザの耳)までの距離に基づく。本開示はスケールファクタを決定するためには、レンズから耳までの距離と、焦点長さ(すなわちレンズの視野)とを知れば十分であることを企図する。
分析ステップ106において、耳の造作および幾何学的特性は、耳の画像に基づいて、アクティブ形状モデル(ASM)を用いて検出されることができる。ASM(1995年にTim CootesおよびChris Taylorによって開発された)は、新たな画像内の被写体の例(例えば捕捉されたユーザの耳の画像)にフィットするように反復して変形し、形状は点分布モデル(PDM)によって制約される、被写体の形状(例えば耳の形状)の分布モデルに対応することが一般に知られている。この点に関して耳甲介の長さ、耳珠の長さ、耳の幅および/または高さなどの画像ベースの幾何学的特性(例えば画素の観点での)は、PDMに従って変形されることができる制御点から抽出/決定されることができる。従って、制御点は、画像捕捉ステップ102において捕捉された画像(すなわち耳の画像)に基づいて、耳の形状に適合することができる。制御点は、後に図2を参照してさらに詳しく論じられる。
個人化ステップ108において、個人化HRTFは、分析ステップ106で決定されたユーザの耳の画像ベースの幾何学的特性(例えば画素の観点での)と、基準決定ステップ104で決定されたスケーリングファクタとに基づいて導出/決定されることができる。これは、例示的シナリオに関連して後にさらに詳しく論じられる。
本開示は、ユーザの耳の物理的寸法が画像ベースの幾何学的特性(例えば画素の観点での)と、スケーリングファクタとに基づいて導出されることができることを企図する。このような物理的寸法は、個人化HRTFを導出/決定するための基礎とすることができる。
さらに、本開示は、ユーザの耳の物理的幾何形状が分析ステップ106または個人化ステップ108において決定されることができることを企図する。
図2aは、図1を参照して先に論じられた、複数の制御点を有するアクティブ形状モデル200を示す。例えば、アクティブ形状モデル200は、第1の制御点200a、第2の制御点200b、第3の制御点200c、第4の制御点200d、および第5の制御点200eを含むことができる。示されるように、アクティブ形状モデル200は、耳の形状に対応することができる。具体的には、複数の制御点は、耳の形状に対応するように配置されることができる。アクティブ形状モデル200は、複数のサンプルを用いたトレーニングに基づいて導出されることができる。サンプルは、複数の耳画像(すなわち2つ以上の耳の画像)に対応することができる。サンプルは、異なる対象から(すなわち異なる人々から)取得されることが好ましい。例えば、アクティブ形状モデル200は、20個の異なる対象(すなわち20個の異なる耳)からトレーニングされることができる。例示的シナリオにおいて、アクティブ形状モデル200は、サンプルのそれぞれにおいて、一貫したやり方で制御点を位置決めすることによって導出されることができる。
具体的には、図2bを参照して、図2aで述べられた複数のサンプルは、第1のサンプル201aおよび第2のサンプル201bを含みることができる。制御点のそれぞれは、耳のそれぞれの異なる場所に一貫して位置決めされることができる。例えば、制御点の1つ(例えばラベル16)は、サンプル201a/201bのそれぞれに示される耳の1つの場所(例えば耳たぶ)に、一貫して位置決めされることができる。各制御点に対してそのようにすることによって、サンプルにわたって耳の実質的に同一の場所(例えば耳たぶ)に位置決めされる同じ制御点(例えばラベル16)に基づいて、平均が取得されることができることが理解されることができる。従って、複数のサンプルを用いたトレーニングから、耳の平均の形状が導出されることができる。この点に関して、アクティブ形状モデル200は、平均の耳(すなわち複数のサンプルを用いたトレーニングに基づく)を表す汎用テンプレートと、それの基礎をなすPDMとに類似するものとなることができる。このような汎用テンプレートは、新たな画像(すなわち画像捕捉ステップ102で捕捉された新たな耳の画像)に対する反復した変形の基本となりることができる。さらに、基礎をなすPDMは、同時に、アクティブ形状モデル200をトレーニングするときに導出される。具体的には、新たな画像(すなわち画像捕捉ステップ102の間に捕捉される新たな耳の画像)に基づく、制御点の分布の反復した変形(すなわちアクティブ形状モデル200に従った制御点の位置の偏位)の制限は、図2cを参照してさらに詳しく論じられるように、複数のサンプルを用いてトレーニングされたPDMによって制約されることができる。
本開示の実施形態によれば、ポータブルデバイスは画面(図示せず)を含むことができ、アクティブ形状モデル200の制御点は、画面に表示されるグラフィックスユーザインターフェース(GUI)を通じて提示されることができる。示されるように、アクティブ形状モデル200は、複数の制御点200a/200b/200c/200d/200eを含むことができる。
図2cは本開示の実施形態による、ユーザの耳の形状(すなわち画像捕捉ステップ102の間に捕捉される上述の耳の画像)に適合された、図2aのアクティブ形状モデル200を示す。
制御点は、図2aで先に論じられた上述の新たな画像に対応することができる。1つの例示的応用例において、導出されたアクティブ形状モデル200(すなわち先に論じられた複数のサンプルを用いたトレーニングに基づく)は、ポータブルデバイスの画面に表示されることができ、ポータブルデバイスを用いるユーザが、彼/彼女の耳の画像(すなわち新たな画像)を捕捉するようにポータブルデバイスを位置決めするときに、画面の少なくとも一部分は、ユーザの耳のリアルタイム画像202を表示することができる。リアルタイム画像202は、どのようにユーザがポータブルデバイスを位置決めするかに従って変化することができることが理解されることができる。従って、アクティブ形状モデル200は、それに従って反復して変形することができる。すなわち、制御点(例えば第1から第5の制御点200a/200b/200c/200d/200e)は、画面に表示されるユーザの耳の画像にマッチするように、反復して変化することができる。従って、例えば、制御点は、制御点がユーザの耳の画像に実質的に重なり合うように、位置において偏位することが視覚的に知覚されることができる。具体的には、図2bに示されるように、アクティブ形状モデル200は、ユーザの耳の画像に実質的に重なり合うようになる。より具体的には、図2aに示されるように、アクティブ形状モデル200の制御点は、ユーザの耳の形状に適合することができる。従って、アクティブ形状モデル200の制御点200a/200b/200c/200d/200eの位置は、ユーザの耳の形状の輪郭を描くように反復して変化されることができる(すなわちユーザの耳のリアルタイム画像202によって示されるように)。
画面に現在表示されている画像が捕捉のために適切かどうかを示すために、安定のインジケーション(例えば「ビープ音」などのオーディオフィードバックの形での)が提供されることができるのが好ましい。例えば、アクティブ形状モデル200の制御点が、位置における変化を止めた(すなわち動きを停止した)とき、安定のインジケーションが提供されることができる。すなわち、アクティブ形状モデル200は、ユーザの耳の形状に実質的に適合したと考えられることができる(すなわちユーザの耳のリアルタイム画像202に従って)。このようにして、何らかの形の「適合度」の測度が提供されることができることが理解されることができる。さらに、このようにして、画像捕捉ステップ102での画像捕捉のための準備において、ユーザがポータブルデバイスを位置決めするのに従って、ユーザの耳のリアルタイム検出を行うことも可能である。
さらに、本開示は、ユーザの耳に似た画像(すなわち実際にはユーザの耳の画像ではない)が捕捉される、「スプリアス」画像捕捉を避けるように、耳検出性能を改善することが望ましいことを企図する。
従って、本開示の実施形態によれば、ポータブルデバイスが適切に位置決めされたかどうかを示すために、さらなるフィードバック信号(すなわち上述の安定のインジケーションに加えて)が提供されることができる。一例において、ポータブルデバイスが適切に位置決めされたかどうかを示すために、ポータブルデバイスによって運ばれるジャイロスコープ/加速度計および/または磁気センサなどの運動センサからのフィードバック信号が提供されることができる。
あるいは、ポータブルデバイスによって運ばれる画像捕捉デバイスに関連付けられたフォーカス距離は、耳検出性能の改善に関連したパラメータとして用いられることができる。具体的にはポータブルデバイスによって運ばれる画像捕捉デバイスに関連付けられたフォーカス距離は、対象の被写体の、捕捉デバイスまでの距離を決定するために用いられることができる。本開示は耳(すなわち対象の被写体)と捕捉デバイスとの間の距離は実際には非常に近く(例えば約10cm離れる)、それによりフォーカス距離がおよそ10cmのときにのみ、捕捉された画像(例えばカメラビデオストリーム)内の耳の存在を考慮する必要がある(例えば2から20cmまでのフォーカス距離のみが考慮される必要がある)ことを企図する。従って、1つの場合において、画像捕捉デバイスの焦点が例えば1.2メートルであるとき、その場合の画像捕捉デバイスによって捕捉されたカメラビデオストリームにおいて、対象の被写体は適切な耳画像に対応しないことが問題なく想定されることができる。
上記は本明細書の以下で、本開示の実施形態による例示的シナリオに基づく関連において示される。
1つの例示的シナリオにおいて、スマートフォンなどのポータブルデバイスは、ユーザが彼/彼女の耳の画像を捕捉するために用いられることができるカメラと、耳に関連するASMを提示するGUIを表示することができる画面とを有する。ユーザは、前の考察に従って、ポータブルデバイスを用いて、スケーリングファクタを取得するように自分撮りを捕捉することができる。スケーリングファクタは、捕捉された耳の画像を自動スケーリングするための基礎として用いられることができる。
本開示の実施形態によればポータブルデバイスは、画面上にGUIを提示し、捕捉されることになるユーザの耳の画像に対してアクティブ形状モデル200の制御点を適合させることができる、ソフトウェアを含むことができる。具体的には、ポータブルデバイスは、捕捉されることになるユーザの耳の画像に従って、制御点がユーザの耳の形状に適合するように、アクティブ形状モデル200を変形するように構成されることができるプロセッサを含むことができる。安定のインジケーションを受け取るとすぐに、ユーザは彼/彼女の耳の画像の捕捉に進むことができるのが好ましい(すなわち画像捕捉ステップ102において)。あるいは、ユーザの耳の画像は、安定のインジケーションの受け取りの後すぐに自動的に捕捉されることができる(例えばクイックレスポンスコードスキャンまたはバーコードスキャナと動作的に同様に)。従って、ユーザの耳の画像(好ましくは図2bに示されるように、アクティブ形状モデル200がユーザの耳の画像に重なり合った状態で)が捕捉されることができる。分析ステップ106において、捕捉されたユーザの耳の画像に基づいて、ユーザの耳の画像ベースの幾何学的特性および/または造作が抽出/決定されることができる(例えば画素の観点で)。さらに、基準決定ステップ104の間に決定されることができるスケーリングファクタに基づいて、ユーザの耳の物理的幾何形状および/または造作を決定するように、捕捉されたユーザの耳の画像の自動スケーリングが行われることができる(例えば画素の観点での幾何学的特性および/または造作は、センチメートルの観点での物理的寸法に変換/換算されることができる)。
ユーザの耳の決定された物理的幾何形状および/または造作に基づいて(これは例えば分析ステップ106において、例えばプロセッサによって行われることができる)、このような物理的幾何形状および/または造作にマッチする/最も密接にマッチするHRTFを見出すために、個人化ステップ108において行われることができる探索が、HRTFデータベース(例えばHRTFの集合/ライブラリを有するオンラインデータベース)内で行われることができる。このようにして、個人化HRTFが作成/生成されることができる。ユーザの各耳(例えばユーザの左および右耳の両方)に対するHRTFを見出すことが望ましい場合、先に論じられた図1の方法100が、それに従って適用されることができることが理解されることができる。各耳に対して見出されたHRTF(例えば先に論じられた、HRTFデータベース内で行われる探索に基づいて)は、同じでありることができるか、または異なりることができることが企図される。
あるいは、個人化HRTFは、既存のHRTF(例えばHRTFデータベース内で利用可能なHRTF)に摂動を加えることによって、個人化ステップ108において作成/生成されることができる。既存のHRTFの摂動は、2つ以上の頭部関連インパルス応答(HRIR)を補間するやり方によるものとすることができる。具体的には、ユーザの耳の決定された物理的幾何形状および/または造作に基づいて、そのような物理的幾何形状および/または造作に最も密接にマッチする2つ以上のHRIR(すなわちHRIR−AおよびHRIR−B)を見出すように、データベース(例えばHRIRの集合/ライブラリを有するオンラインデータベース)内で探索が行われることができる。補間されたHRIR(すなわち「HRIR−Interpolated」)を生成するように、見出されたHRIRのクロスフェードの処理が行われることができる。さらなるフーリエ変換の処理が行われ、HRTFを導出することができる。個人化HRTFは、補間されたHRIRに基づいて作成/生成されることができることが理解されることができる。クロスフェードに関連して、見出されたHRIRの各々に対するフェーディング係数は、距離(例えばユークリッドまたはマハラノビス距離)に反比例するものとすることができる。例えば、
HRIR−A=[a1,a2,a3,...a25];
HRIR−B=[b1,b2,b3,...b25];
HRIR−Interpolated=[a1*c+b1*(1−c),...]、ただし「c」は上述の距離を表し、0から1の範囲である。
他の代替形態において、ユーザの耳の決定された物理的幾何形状および/または造作に基づいて、ユーザの耳の3次元(3D)モデルが構築されることができる。構築された3Dモデルに基づいた3D幾何形状を用いて、個人化HRTFを作成/生成するために、波動伝搬シミュレーション方法(例えば「Efficient and Accurate Sound Propagation Using Adaptive Rectangular Decomposition」 by Raghuvanshi N., Narain R., and Lin M.C. - IEEE Transactions on Visualization and Computer Graphics 2009)が用いられることができる。
従って、これを前提として、単にユーザが例えばスマートフォンを用いて彼/彼女の耳の画像を捕捉するやり方によって、個人化/カスタム化HRTFを取得することが可能である。本開示は、ユーザフレンドリおよび/または効率的なやり方で、個人化HRTFの作成/生成を容易にすることが理解できる。さらに個人化/カスタム化HRTFはまた、リアルタイムで作成/生成されることができる。
上記のようにして、上記の欠点の少なくとも1つに対処するための、本開示の様々な実施形態が述べられた。このような実施形態は、添付の「特許請求の範囲」によって包含され、述べられた部分の特定の形または配置に限定されないことが意図され、および当業者には本開示に鑑みて数多くの変形および/または変更がなされることができ、これらも添付の「特許請求の範囲」によって包含されるよう意図されることが明らかであろう。
例えば、HRIRを補間すること以外に、本開示はまた3Dモーフィング方法(例えば「Cross-Parameterization and Compatible Remeshing of 3D Models」 by Kraevoy V., Sheffer A., ACM Transactions on Graphics (TOG) - Proceedings of ACM SIGGRAPH 2004)を用いて、耳モデルをユーザの耳の造作/幾何形状にマッチするように補間することが可能であること、および音響シミュレーションを行って新たなHRIRを導出することを企図する。新たなHRIRはフーリエ変換されて、HRTFを導出することができる。
他の例において、本開示は、HRTFの質をさらに改善するために、ユーザの頭部の寸法を捕捉する可能性を企図する。具体的には、本開示は、頭部の寸法(頭部幅および奥行き)がHRTF計算のために重要となることができることを企図する。本開示の実施形態によれば、正面および側面画像(すなわち先に論じられた「自分撮り」に関連して)の両方により、頭部寸法の捕捉が可能となることができる。あるいは、頭部検出器(ASMに基づくが代わりに頭部モデルを用いるもの)が、頭部寸法を捕捉するために用いられることができる。

Claims (19)

  1. カスタム化HRTFを生成することによってオーディオレンダリングを強化する方法であって、
    画像捕捉デバイスを用いて個人の少なくとも1つの耳の捕捉された画像を取得するステップであって、前記画像捕捉デバイスは、前記捕捉された画像の予備的バージョンである予備的画像を処理するように構成されるものであり、該ステップは、制御点に基づいて変形させて対象物に適合可能な形状モデルを、前記個人の少なくとも1つの耳の前記予備的画像及び前記捕捉された画像に適用し、前記個人の少なくとも1つの耳の前記予備的画像及び前記捕捉された画像に適合された形状モデルを得ることを含むステップと、
    前記個人の少なくとも1つの耳の捕捉された画像に適合された形状モデルの制御点から、前記個人の少なくとも1つの耳の画像ベースの特性を抽出するステップと、
    複数の個人に対して決定された複数のHRTFデータセットからカスタム化HRTFデータセットを耳の画像ベースの特性に基づいて選択するように構成された選択プロセッサに、前記個人の少なくとも1つの耳の画像ベースの特性を提供するステップと
    を含む、方法。
  2. 前記個人の少なくとも1つの耳の前記捕捉された画像に対応する耳の画像ベースの特性をスケーリングするステップをさらに含み、前記画像捕捉デバイスは、前記捕捉された画像の少なくとも前記予備的バージョンをディスプレイ画面に表示するように構成される、請求項1に記載の方法。
  3. 捕捉された画像を取得するステップは、前記予備的画像の前記個人の少なくとも1つの耳に適合された形状モデルが受け入れられる許容範囲内であるときにユーザにアラインメントされたことのインジケーションを生成するように構成された前記画像捕捉デバイスの前記ディスプレイ画面にリアルタイムで重ね合わされる視覚的ガイドである、制御点テンプレートを生成するステップをさらに含む、請求項2に記載の方法。
  4. 前記スケーリングは、前記捕捉された画像から、従来の寸法の基準被写体の少なくとも1つ;入力画像の焦点合わせに関連付けられた焦点距離データおよび焦点長さ;または前記入力画像における前記耳に対する耳珠長さ、を用いて行われる、請求項2に記載の方法。
  5. 捕捉された画像を取得するステップは、耳の存在の決定、および前記形状モデルの変形の両方を組み合わせる検出ステップを含む、請求項1に記載の方法。
  6. 前記形状モデルはアクティブ形状モデルであり、前記アクティブ形状モデルは前に少なくとも複数の個人の耳画像に対してトレーニングされている、請求項1に記載の方法。
  7. 前記予備的画像は、前記耳の前記予備的画像にマッチするように前記形状モデルを変形することによって反復して処理された、いくつかの予備的画像の1つである、請求項1に記載の方法。
  8. 前記複数のHRTFデータセットからの前記カスタム化HRTFデータセットは、抽出された前記画像ベースの特性の、前記複数のHRTFデータセット内の前記HRTFデータセットのそれぞれに関連付けられた対応する画像ベースの特性に最も近くマッチングすることに基づいて選択される、請求項1に記載の方法。
  9. いくつかのHRTFデータセットが、前記複数のHRTFデータセットから、画像ベースの特性の1つまたは複数を突き合わせることによって選択され、前記カスタム化HRTFは、前記いくつかのHRTFデータセットの少なくとも1つに関する補間または摂動の1つによって生成され、ならびに前記画像ベースの特性は、制御点距離、制御点円弧、制御点角度、制御点幾何学的関係、耳甲介長さ、耳の幅、耳の高さ、前記耳の全体的な物理的寸法、および前記耳の3次元表示の1つまたは複数を含む、請求項1に記載の方法。
  10. カスタム化HRTFを処理するための処理デバイスであって、
    画像処理デバイスを備え、前記画像処理デバイスは、
    個人の少なくとも1つの耳の捕捉された画像を取得し、および前記捕捉された画像の予備的バージョンである少なくとも1つの予備的画像を処理し、
    制御点に基づいて変形させて対象物に適合可能な形状モデルを、前記個人の少なくとも1つの耳の前記予備的画像および前記捕捉された画像に適用することによって、前記個人の少なくとも1つの耳の前記予備的画像および前記捕捉された画像に適合された形状モデルを得て
    前記個人の少なくとも1つの耳の捕捉された画像に適合された形状モデルの制御点から、前記個人の少なくとも1つの耳の画像ベースの特性を抽出し、および
    複数の個人に対して決定された複数のHRTFデータセットからカスタム化HRTFデータセットを耳の画像ベースの特性に基づいて選択するように構成された選択プロセッサに、抽出された前記個人の少なくとも1つの耳の画像ベースの特性を提供する
    ように構成される、処理デバイス。
  11. 前記画像処理デバイスは、前記個人の少なくとも1つの耳の前記捕捉された画像に対応する耳の画像ベースの特性をスケーリングするようにさらに構成され、およびユーザに前記予備的画像を表示するためのディスプレイ画面をさらに備え、前記捕捉された画像を取得することは、前記予備的画像の前記個人の少なくとも1つの耳に適合された形状モデルが受け入れられる許容範囲内であるときに前記ユーザにアラインメントされたことのインジケーションを生成するように構成された前記画像処理デバイスの前記ディスプレイ画面に、アラインメントを補助するためにリアルタイムで重ね合わされる視覚的ガイドである、制御点テンプレートを生成することをさらに含む、請求項10に記載の処理デバイス。
  12. 前記スケーリングは、前記捕捉された画像から、従来の寸法の基準被写体の少なくとも1つ;前記捕捉された画像の焦点合わせに関連付けられた焦点距離データ;または前記捕捉された画像における前記耳に対する耳珠長さ、を用いて行われる、請求項11に記載の処理デバイス。
  13. 前記複数のHRTFデータセットからの前記カスタム化HRTFデータセットは、抽出された前記画像ベースの特性の、前記複数のHRTFデータセット内の前記HRTFデータセットのそれぞれに関連付けられた前記画像ベースの特性に最も近くマッチングすることに基づいて選択される、請求項11に記載の処理デバイス。
  14. 前記形状モデルはアクティブ形状モデルであり、前記アクティブ形状モデルは前に少なくとも複数の個人の画像に対してトレーニングされている、請求項11に記載の処理デバイス。
  15. いくつかのHRTFデータセットが、前記複数のHRTFデータセットから、画像ベースの特性の1つまたは複数を突き合わせることによって選択され、前記カスタム化HRTFは、前記いくつかのHRTFデータセットの少なくとも1つに関する補間または摂動の1つによって生成され、ならびに前記画像ベースの特性は、制御点距離、制御点円弧、制御点角度、制御点幾何学的関係、耳甲介長さ、耳の幅、耳の高さ、前記耳の全体的な物理的寸法、および前記耳の3次元表示の1つまたは複数を含む、請求項11に記載の処理デバイス。
  16. カスタム化HRTFを生成するためのシステムであって、
    個人の少なくとも1つの耳の捕捉された画像を取得するように、および前記捕捉された画像の予備的バージョンである予備的画像を処理するように構成される画像処理デバイスと、
    デバイスプロセッサであって、
    前記予備的画像内の、制御点に基づいて変形させて対象物に適合可能な形状モデルを、前記個人の少なくとも1つの耳の前記予備的画像および前記捕捉された画像に適用することによって、前記個人の少なくとも1つの耳の前記予備的画像および前記捕捉された画像に適合された形状モデルを得ること、および前記個人の少なくとも1つの耳の捕捉された画像に適合された形状モデルの制御点から前記個人の少なくとも1つの耳の画像ベースの特性を抽出することを行うように構成された、デバイスプロセッサと、
    抽出された前記個人の少なくとも1つの耳の画像ベースの特性を受け取るための選択プロセッサであって、複数の個人に対して決定された複数のHRTFデータセットからカスタム化HRTFデータセットを耳の画像ベースの特性に基づいて選択するように構成され、前記デバイスプロセッサおよび前記選択プロセッサは個別のユニットとすることができ、または1つのプロセッサに組み合わされることができる、選択プロセッサと、
    前記選択プロセッサによってアクセス可能であり、前記複数のHRTFデータセットを含んだメモリであって、前記複数のHRTFデータセットは、前記複数のHRTFデータセット内の各HRTFデータセットによって表される耳に対応する画像ベースの特性によってインデックス付けされる、メモリと
    を備える、システム。
  17. 前記個人の少なくとも1つの耳の捕捉された画像を取得することは、前記予備的画像の前記個人の少なくとも1つの耳に適合された形状モデルが受け入れられる許容範囲内であるときにユーザにアラインメントされたことのインジケーションを生成するように構成された前記画像処理デバイスのディスプレイ画面に、アラインメントを補助するためにリアルタイムで重ね合わされる視覚的ガイドである、制御点テンプレートを生成するステップをさらに含む、請求項16に記載のシステム。
  18. 前記複数のHRTFデータセットからの前記カスタム化HRTFデータセットは、抽出された前記画像ベースの特性の、前記複数のHRTFデータセット内の前記HRTFデータセットのそれぞれに関連付けられた対応する画像ベースの特性に最も近くマッチングすることに基づいて選択される、請求項17に記載のシステム。
  19. いくつかのHRTFデータセットが、前記複数のHRTFデータセットから、画像ベースの特性の1つまたは複数を突き合わせることによって選択され、前記カスタム化HRTFは、前記いくつかのHRTFデータセットの少なくとも1つに関する補間または摂動の1つによって生成され、ならびに前記画像ベースの特性は、制御点距離、制御点円弧、制御点角度、制御点幾何学的関係、耳甲介長さ、耳の幅、耳の高さ、前記耳の全体的な物理的寸法、および前記耳の3次元表示の1つまたは複数を含む、請求項16に記載のシステム。
JP2018534544A 2015-12-31 2016-12-28 カスタム化/個人化頭部関連伝達関数を生成する方法 Active JP6636642B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SG10201510822YA SG10201510822YA (en) 2015-12-31 2015-12-31 A method for generating a customized/personalized head related transfer function
SG10201510822Y 2015-12-31
PCT/SG2016/050621 WO2017116308A1 (en) 2015-12-31 2016-12-28 A method for generating a customized/personalized head related transfer function

Publications (2)

Publication Number Publication Date
JP2019506050A JP2019506050A (ja) 2019-02-28
JP6636642B2 true JP6636642B2 (ja) 2020-01-29

Family

ID=59225763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018534544A Active JP6636642B2 (ja) 2015-12-31 2016-12-28 カスタム化/個人化頭部関連伝達関数を生成する方法

Country Status (11)

Country Link
US (4) US20180373957A1 (ja)
EP (1) EP3398353B1 (ja)
JP (1) JP6636642B2 (ja)
KR (1) KR20180100180A (ja)
CN (1) CN108476358B (ja)
DK (1) DK3398353T3 (ja)
ES (1) ES2888916T3 (ja)
HK (1) HK1255064A1 (ja)
PL (1) PL3398353T3 (ja)
SG (1) SG10201510822YA (ja)
WO (1) WO2017116308A1 (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG10201510822YA (en) 2015-12-31 2017-07-28 Creative Tech Ltd A method for generating a customized/personalized head related transfer function
SG10201800147XA (en) 2018-01-05 2019-08-27 Creative Tech Ltd A system and a processing method for customizing audio experience
US10805757B2 (en) 2015-12-31 2020-10-13 Creative Technology Ltd Method for generating a customized/personalized head related transfer function
FI20165211A (fi) 2016-03-15 2017-09-16 Ownsurround Ltd Järjestely HRTF-suodattimien valmistamiseksi
US10104491B2 (en) * 2016-11-13 2018-10-16 EmbodyVR, Inc. Audio based characterization of a human auditory system for personalized audio reproduction
US10390171B2 (en) 2018-01-07 2019-08-20 Creative Technology Ltd Method for generating customized spatial audio with head tracking
US10652686B2 (en) * 2018-02-06 2020-05-12 Sony Interactive Entertainment Inc. Method of improving localization of surround sound
EP3544321A1 (en) 2018-03-19 2019-09-25 Österreichische Akademie der Wissenschaften Method for determining listener-specific head-related transfer functions
FI20185300A1 (fi) * 2018-03-29 2019-09-30 Ownsurround Ltd Järjestely päähän liittyvien siirtofunktiosuodattimien muodostamiseksi
US10917735B2 (en) * 2018-05-11 2021-02-09 Facebook Technologies, Llc Head-related transfer function personalization using simulation
EP3827603A1 (en) 2018-07-25 2021-06-02 Dolby Laboratories Licensing Corporation Personalized hrtfs via optical capture
US11026039B2 (en) 2018-08-13 2021-06-01 Ownsurround Oy Arrangement for distributing head related transfer function filters
US11315277B1 (en) 2018-09-27 2022-04-26 Apple Inc. Device to determine user-specific HRTF based on combined geometric data
US10856097B2 (en) 2018-09-27 2020-12-01 Sony Corporation Generating personalized end user head-related transfer function (HRTV) using panoramic images of ear
CN113039816B (zh) * 2018-10-10 2023-06-06 索尼集团公司 信息处理装置、信息处理方法和信息处理程序
US11503423B2 (en) 2018-10-25 2022-11-15 Creative Technology Ltd Systems and methods for modifying room characteristics for spatial audio rendering over headphones
US10966046B2 (en) * 2018-12-07 2021-03-30 Creative Technology Ltd Spatial repositioning of multiple audio streams
US11418903B2 (en) 2018-12-07 2022-08-16 Creative Technology Ltd Spatial repositioning of multiple audio streams
JPWO2020138258A1 (ja) * 2018-12-28 2021-11-04 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
DE112019006727T5 (de) 2019-01-24 2021-11-04 Sony Group Corporation Audiosystem, audiowiedergabeeinrichtung, servereinrichtung, audiowiedergabeverfahren und audiowiedergabeprogramm
US11113092B2 (en) 2019-02-08 2021-09-07 Sony Corporation Global HRTF repository
US11221820B2 (en) 2019-03-20 2022-01-11 Creative Technology Ltd System and method for processing audio between multiple audio spaces
US11451907B2 (en) 2019-05-29 2022-09-20 Sony Corporation Techniques combining plural head-related transfer function (HRTF) spheres to place audio objects
AU2020203290B2 (en) * 2019-06-10 2022-03-03 Genelec Oy System and method for generating head-related transfer function
US11347832B2 (en) 2019-06-13 2022-05-31 Sony Corporation Head related transfer function (HRTF) as biometric authentication
CN114175142A (zh) * 2019-08-02 2022-03-11 索尼集团公司 音频输出装置和使用该装置的音频输出系统
US11770604B2 (en) 2019-09-06 2023-09-26 Sony Group Corporation Information processing device, information processing method, and information processing program for head-related transfer functions in photography
US11146908B2 (en) 2019-10-24 2021-10-12 Sony Corporation Generating personalized end user head-related transfer function (HRTF) from generic HRTF
US11070930B2 (en) 2019-11-12 2021-07-20 Sony Corporation Generating personalized end user room-related transfer function (RRTF)
USD935485S1 (en) * 2020-06-18 2021-11-09 Apple Inc. Display screen or portion thereof with graphical user interface
USD960920S1 (en) * 2020-06-19 2022-08-16 Apple Inc. Display screen or portion thereof with graphical user interface
WO2022036238A1 (en) * 2020-08-14 2022-02-17 VisiSonics Corporation Systems and methods for head related transfer function personalization
CN112328676A (zh) * 2020-11-27 2021-02-05 江汉大学 一种估计个性化头相关传输函数的方法及相关设备
CN113849767B (zh) * 2021-09-27 2022-08-16 中国科学院声学研究所 基于生理参数和人工头数据的个性化hrtf生成方法和系统
CN115412808B (zh) * 2022-09-05 2024-04-02 天津大学 基于个性化头相关传递函数的虚拟听觉重放方法及系统

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2843262B2 (ja) * 1994-09-16 1999-01-06 株式会社エイ・ティ・アール通信システム研究所 表情再現装置
US5748758A (en) 1996-01-25 1998-05-05 Menasco, Jr.; Lawrence C. Acoustic audio transducer with aerogel diaphragm
US6996244B1 (en) * 1998-08-06 2006-02-07 Vulcan Patents Llc Estimation of head-related transfer functions for spatial sound representative
US20030007648A1 (en) 2001-04-27 2003-01-09 Christopher Currell Virtual audio system and techniques
GB0419346D0 (en) 2004-09-01 2004-09-29 Smyth Stephen M F Method and apparatus for improved headphone virtualisation
CN101116374B (zh) * 2004-12-24 2010-08-18 松下电器产业株式会社 声像定位装置
US7756281B2 (en) 2006-05-20 2010-07-13 Personics Holdings Inc. Method of modifying audio content
US7555354B2 (en) 2006-10-20 2009-06-30 Creative Technology Ltd Method and apparatus for spatial reformatting of multi-channel audio content
US8078188B2 (en) 2007-01-16 2011-12-13 Qualcomm Incorporated User selectable audio mixing
CN101447053A (zh) * 2007-11-26 2009-06-03 谢亦玲 计算机眼镜佩戴装置
CN101847268B (zh) * 2010-04-29 2015-03-04 北京中星微电子有限公司 一种基于人脸图像的卡通人脸图形生成方法和装置
EP2405670B1 (en) 2010-07-08 2012-09-12 Harman Becker Automotive Systems GmbH Vehicle audio system with headrest incorporated loudspeakers
US20120183161A1 (en) * 2010-09-03 2012-07-19 Sony Ericsson Mobile Communications Ab Determining individualized head-related transfer functions
US9030545B2 (en) * 2011-12-30 2015-05-12 GNR Resound A/S Systems and methods for determining head related transfer functions
JP2013157747A (ja) * 2012-01-27 2013-08-15 Denso Corp 音場制御装置及びプログラム
WO2013149645A1 (en) 2012-04-02 2013-10-10 Phonak Ag Method for estimating the shape of an individual ear
JP6085029B2 (ja) 2012-08-31 2017-02-22 ドルビー ラボラトリーズ ライセンシング コーポレイション 種々の聴取環境におけるオブジェクトに基づくオーディオのレンダリング及び再生のためのシステム
CN104010265A (zh) 2013-02-22 2014-08-27 杜比实验室特许公司 音频空间渲染设备及方法
EP2869599B1 (en) 2013-11-05 2020-10-21 Oticon A/s A binaural hearing assistance system comprising a database of head related transfer functions
DE102014214143B4 (de) 2014-03-14 2015-12-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Verarbeiten eines Signals im Frequenzbereich
US9900722B2 (en) 2014-04-29 2018-02-20 Microsoft Technology Licensing, Llc HRTF personalization based on anthropometric features
US9226090B1 (en) 2014-06-23 2015-12-29 Glen A. Norris Sound localization for an electronic call
WO2016089133A1 (ko) * 2014-12-04 2016-06-09 가우디오디오랩 주식회사 개인 특징을 반영한 바이노럴 오디오 신호 처리 방법 및 장치
US9602947B2 (en) 2015-01-30 2017-03-21 Gaudi Audio Lab, Inc. Apparatus and a method for processing audio signal to perform binaural rendering
US9544706B1 (en) * 2015-03-23 2017-01-10 Amazon Technologies, Inc. Customized head-related transfer functions
JP6754619B2 (ja) * 2015-06-24 2020-09-16 三星電子株式会社Samsung Electronics Co.,Ltd. 顔認識方法及び装置
KR20180041668A (ko) * 2015-08-14 2018-04-24 톰슨 라이센싱 포인트 클라우드로부터의 인간의 귀의 3d 복원
FR3040807B1 (fr) 2015-09-07 2022-10-14 3D Sound Labs Procede et systeme d'elaboration d'une fonction de transfert relative a la tete adaptee a un individu
JP6803916B2 (ja) 2015-10-26 2020-12-23 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン エレベーション・レンダリングを実現するフィルタリング済みオーディオ信号を生成する装置および方法
SG10201510822YA (en) 2015-12-31 2017-07-28 Creative Tech Ltd A method for generating a customized/personalized head related transfer function
US10805757B2 (en) * 2015-12-31 2020-10-13 Creative Technology Ltd Method for generating a customized/personalized head related transfer function
SG10201800147XA (en) 2018-01-05 2019-08-27 Creative Tech Ltd A system and a processing method for customizing audio experience
EP3412039B1 (en) 2016-02-02 2020-12-09 DTS, Inc. Augmented reality headphone environment rendering
FR3051951B1 (fr) 2016-05-27 2018-06-15 Mimi Hearing Technologies GmbH Procede d'elaboration d'un modele deformable en trois dimensions d'un element, et systeme associe
US9584946B1 (en) 2016-06-10 2017-02-28 Philip Scott Lyren Audio diarization system that segments audio input
US10327090B2 (en) 2016-09-13 2019-06-18 Lg Electronics Inc. Distance rendering method for audio signal and apparatus for outputting audio signal using same
US10187740B2 (en) 2016-09-23 2019-01-22 Apple Inc. Producing headphone driver signals in a digital audio signal processing binaural rendering environment
US10390171B2 (en) 2018-01-07 2019-08-20 Creative Technology Ltd Method for generating customized spatial audio with head tracking
US11503423B2 (en) 2018-10-25 2022-11-15 Creative Technology Ltd Systems and methods for modifying room characteristics for spatial audio rendering over headphones

Also Published As

Publication number Publication date
EP3398353A1 (en) 2018-11-07
CN108476358B (zh) 2021-12-28
EP3398353A4 (en) 2019-07-03
PL3398353T3 (pl) 2021-12-06
SG10201510822YA (en) 2017-07-28
WO2017116308A1 (en) 2017-07-06
US11468663B2 (en) 2022-10-11
HK1255064A1 (zh) 2019-08-02
CN108476358A (zh) 2018-08-31
DK3398353T3 (da) 2021-11-01
KR20180100180A (ko) 2018-09-07
ES2888916T3 (es) 2022-01-10
US20230050354A1 (en) 2023-02-16
EP3398353B1 (en) 2021-08-18
US11804027B2 (en) 2023-10-31
JP2019506050A (ja) 2019-02-28
US20200250466A1 (en) 2020-08-06
US20180373957A1 (en) 2018-12-27
US20230386174A1 (en) 2023-11-30

Similar Documents

Publication Publication Date Title
JP6636642B2 (ja) カスタム化/個人化頭部関連伝達関数を生成する方法
US11601775B2 (en) Method for generating a customized/personalized head related transfer function
US12096200B2 (en) Personalized HRTFs via optical capture
CN108885690A (zh) 用于产生头相关传递函数滤波器的布置
KR102120046B1 (ko) 오브젝트를 표시하는 방법
US20160150217A1 (en) Systems and methods for 3d capturing of objects and motion sequences using multiple range and rgb cameras
WO2020075622A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
CN116012564B (zh) 一种三维模型与实景照片智能融合的设备与方法
JP2021523392A (ja) シミュレーションを使用した頭部伝達関数の個人化
WO2016184285A1 (zh) 物品图像处理方法、装置和系统
Mäkivirta et al. Accuracy of photogrammetric extraction of the head and torso shape for personal acoustic HRTF modeling
JP4781981B2 (ja) 動画像生成方法及びシステム
Bomhardt et al. Required measurement accuracy of head dimensions for modeling the interaural time difference
WO2022009552A1 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180709

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191218

R150 Certificate of patent or registration of utility model

Ref document number: 6636642

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250