JP6795611B2 - 音声提供装置、音声再生装置、音声提供方法及び音声再生方法 - Google Patents
音声提供装置、音声再生装置、音声提供方法及び音声再生方法 Download PDFInfo
- Publication number
- JP6795611B2 JP6795611B2 JP2018550237A JP2018550237A JP6795611B2 JP 6795611 B2 JP6795611 B2 JP 6795611B2 JP 2018550237 A JP2018550237 A JP 2018550237A JP 2018550237 A JP2018550237 A JP 2018550237A JP 6795611 B2 JP6795611 B2 JP 6795611B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- voice
- providing
- facing
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 37
- 230000008859 change Effects 0.000 claims description 25
- 238000001514 detection method Methods 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 9
- 238000004891 communication Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 230000004048 modification Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000011435 rock Substances 0.000 description 2
- 241000238631 Hexapoda Species 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09F—DISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
- G09F25/00—Audible advertising
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K15/00—Acoustics not otherwise provided for
- G10K15/02—Synthesis of acoustic waves
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/487—Arrangements for providing information services, e.g. recorded voice services or time announcements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/323—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2227/00—Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
- H04R2227/003—Digital PA systems using, e.g. LAN or internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2227/00—Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
- H04R2227/005—Audio distribution systems for home, i.e. multi-room use
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/01—Aspects of volume control, not necessarily automatic, in sound systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Otolaryngology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
次に、図7を参照して本実施形態の動作を説明する。まずユーザは或る方向に対してユーザ端末200を向けて、その方向にあるエリアの音声を取得することを指示する操作を行う。ここで、或る方向とは、例えばユーザから直接見える商業店舗などのエリアがある方向であってもよいし、また、ユーザからは具体的なエリアが直接見えない状態で、ユーザが方向を意識せずにユーザ端末200を向けた方向であってもよい。ユーザ端末200の検出部201はこの取得操作を受け付けると(ステップS11)、ユーザの位置と当該ユーザが向いている方向とを検出する(ステップS12)。前述したように、ここでいうユーザの位置はユーザ端末200の位置であり、ユーザが向いている方向はユーザ端末200が向いている方向である。そして、通知部202は、ユーザの位置及び当該ユーザが向いている方向を、ユーザIDとともにサーバ装置100に通知する(ステップS13)。このユーザIDは記憶部23に予め記憶されたものであってもよいし、ユーザがこの音声提供サービスにログインするときにユーザ端末200に入力したものであってもよい。
上述した実施形態は次のような変形が可能である。また、以下の変形例を互いに組み合わせて実施してもよい。
[変形例1]
実施形態においては、個々のユーザが使用するユーザ端末200に音声データを送信することでそのユーザに音声を提供していたが、例えば各エリア内又はその近傍に設置されたスピーカ等の放音手段によってユーザに音声を提供してもよい。具体的には、各エリアにおいて、音声提供システムは、ユーザの位置とそのユーザが向いている方向とを検出することでこれらを取得する取得部と、取得されたユーザの位置を基準として検出された方向にあるエリアに応じた音声をユーザに提供する提供部という機能を実装する。取得部は、例えば撮像装置と画像処理装置とで実現される。画像処理装置は、撮像装置によって撮像されたユーザの画像を解析し、その画像処理装置自身とユーザとの位置関係からユーザの位置を推定し、さらに、ユーザの顔の向きを画像認識により推定して、ユーザが該当するエリアのほうを向いているか否かを判断する。提供部は、該当するエリア又はその近傍に設置されたスピーカ等の放音手段によって実現され、ユーザが該当するエリアの方向を向いていると判断されると音声を放音する。この場合、提供部を実現する放音手段として指向性スピーカ等を用いることで、主に対象とするユーザに対してのみ音声を提供することが望ましい。
これにより、例えば音声提供装置が店舗の商業店頭に設置され、店外のユーザがその商業店舗が存在する方向を見たときに、音声提供装置はそのユーザに対して商業店舗に関する音声を放音することが可能となる。ユーザは、自身が向いた方向に存在する商業店舗に関する特徴的な音声を聴くことによって、その商業店舗の特徴を把握することができ、商業店舗の運営者は集客効果を期待することができる。
ユーザに提供される音声は記憶部102に予め記憶されているものに限らず、各エリアにおいて放音又は収音されている音声であってもよい。例えば、商業店舗であればその商業店舗で放音されているバックグラウンドミュージックであってもよいし、映画館であれば実際に上映中の映画の音声が放音されてもよいし、遊園地であればリアルタイムに収音した利用客の歓声や園内のアナウンスであってもよいし、川であればリアルタイムに収音したせせらぎ音などであってもよい。
実施形態において、提供部103は、エリアの属性及びユーザの属性に基づいて、抽出した候補エリア群のうちのいずれかのエリアに対応する音声を選択していたが、音声を選択する方法はこれに限らない。例えば提供部103は、ユーザによって指定された位置の範囲を取得し、ユーザの位置を基準としたユーザが向いている方向に存在するエリアに応じた音声群のうち、取得した位置の範囲にあるエリアに応じた音声を選択してもよい。具体的には、ユーザは図7のステップS11において又は予め、自身の位置とエリアとの位置との間の距離を所定の範囲、例えば0m〜200mに指定しておく。提供部103は、ステップS15において、抽出した候補エリア群のうち、上記の範囲に収まるエリアを特定し、そのエリアのエリアIDに対応する音声IDの音声データを選択する。なお、ユーザが指定する内容は、上記のようなユーザの位置とエリアの位置との間の距離の範囲に限らず、例えば、公共交通機関の駅・停留所からエリアまでの距離の範囲を指定するものなど、何らかの基準となる位置とエリアの位置との間の距離の範囲であってもよい。さらに、ユーザが指定する内容は、エリアの属性を指定するものであってもよいし、エリアの位置を直接指定するものであってもよい。なお、上記のようなユーザの指定は、例えば各種の指定内容をリスト化したメニュー或いは地図上で指定するものであってもよい。
実施形態において、提供部103は、エリアの位置及びユーザの位置の間の距離に基づいて音声データの音量を制御していたが、音量を制御する方法はこれに限らない。例えば提供部103は、ユーザの位置を基準としたユーザの向いている方向とエリアとの一致度に応じた音量の音声を前記ユーザに提供するようにしてもよい。具体的には、図8の例の場合、ユーザの向いている方向Dを示す半直線を中心とした所定の角度の範囲(図においては半直線D1及び半直線D2に挟まれた範囲)と、各エリアとが重なる領域の大きさに基づいて音声データの音量を制御する。例えば、提供部103は、音声データに含まれる音量パラメータについて、重なる領域が大きいと音量を大きくし、重なる領域が小さいと音量を小さくするという設定を行う。ここでいう、重なる領域の大きさは、その領域の面積の絶対値であってもよいし、そのエリア全体の面積を分母とし重なる領域の面積を分子とした分数の値であってもよい。
以上のように、提供部103は、ユーザとエリアとの位置関係(両者の位置間の距離や、両者の位置に基づく一致度)に応じた音量の音声をユーザに提供する。
さらに、音声データの音量のみならず、音声データの音色やエフェクトなど、エリア及びユーザの位置関係に基づいて、音声データにおける音響的なパラメータを変化させる音響処理を施すというものでもよい。例えばエリア及びユーザ間の距離に応じてイコライザで低音域を低減させたり(例えば距離が遠いと低い音の成分のみ小さくするなど)とか、エリア及びユーザ間の距離に応じてディレイやリバーブといったエフェクトの強度を異ならせる(例えば距離が遠いとリバーブの強度を高くするなど)ようにしてもよい。
ここにおいても、ユーザとエリアとの位置関係に応じて音響処理を施したのと同様に、提供部103は、ユーザの属性とエリアの属性との関連度に応じた音響処理を施した音声をユーザに提供するようにしてもよい。つまり、例えばユーザの属性とエリアの属性との関連度に応じてイコライザで低音域を低減させたり(例えば関連度が小さいと低い音の成分のみ小さくするなど)とか、ユーザの属性とエリアの属性との関連度に応じてディレイやリバーブといったエフェクトの強度を異ならせる(例えば関連度が小さいとリバーブの強度を高くするなど)ようにしてもよい。
提供部103は、ユーザの向いている方向が変化すると、その変化に応じて連続的に音声を変えながら提供するようにしてもよい。例えばユーザが首を回して自身が向いている方向を変えると、それぞれの方向に応じた音声が連続的に変化しながら放音される。また、ユーザの向いている方向の変化率に応じて音声を提供するようにしてもよい。これにより、例えば、音声提供装置が商業店舗の店頭に設置され、店外のユーザがその商業店舗の方を見たあとにそのほかの商業店舗を見るなどユーザの向いている方向が変わったタイミングや、歩き始めて向く方向が変化したユーザに対して音声を提供するようにしてもよい。また、提供部103は、ユーザの位置が変化すると、その位置に応じて連続的に音声を変えながら提供するようにしてもよい。例えばユーザが移動すると、その移動中のユーザの位置変化に応じた音声が連続的に変化しながら聞こえるようになる。また、ユーザの向いている位置の変化率や速度に応じて音声を提供するようにしてもよい。
本発明の音声提供の仕組みを用いて、ユーザを音声によって或るエリアへと誘導してもよい。例えば、ユーザが向いた方向にあるエリアに応じた音声に対してそのエリアにユーザを誘導する役割を持たせることで、ユーザから見えるエリアへの誘導を複数回繰り返すなどして、最初はユーザからは直接見えなかったエリアへとそのユーザを誘導することが可能となる。
提供部103は、音声データに加えて、エリアに関する音声以外のデータ(例えばエリアに関する情報を記述したテキストデータやそのエリアに関連する画像を表す画像データ)を提供してもよい。
上記実施形態の説明に用いた図6のブロック図は機能単位のブロックを示している。これらの各機能ブロックは、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。従って、本発明に係る音声提供装置又は音声再生装置は、実施形態で説明したようにそれぞれの機能の全てを一体に備えた装置によっても実現可能であるし、それぞれの装置の機能を、さらに複数の装置に分散して実装したシステムであってもよい。また、上記実施形態で説明した処理の手順は、矛盾の無い限り、順序を入れ替えてもよい。実施形態で説明した方法については、例示的な順序で各ステップの要素を提示しており、提示した特定の順序に限定されない。
また、本発明は、音声提供装置又は音声再生装置としてコンピュータを機能させるためのプログラムといった形態でも実施が可能である。かかるプログラムは、光ディスク等の記録媒体に記録した形態で提供されたり、インターネット等の通信網を介して、コンピュータにダウンロードさせ、これをインストールして利用可能にするなどの形態で提供されたりすることが可能である。
11 制御部
12 通信部
13 記憶部
101 取得部
102 記憶部
103 提供部
200 ユーザ端末
21 制御部
22 通信部
23 記憶部
24 再生部
25 方向検出部
26 測位部
27 UI部
201 検出部
202 通知部
203 再生部
900 ネットワーク
Claims (26)
- ユーザの位置と当該ユーザが向いている方向とを取得する取得手段と、
前記ユーザの位置を基準として前記ユーザが向いている方向に存在するエリアに応じた音声を前記ユーザに提供する提供手段と、
を備え、
前記提供手段は、前記ユーザの属性を取得し、前記ユーザの位置を基準として前記ユーザが向いている方向に存在するエリアに応じた音声群のうち、前記ユーザの属性に応じた音声を前記ユーザに提供する
ことを特徴とする音声提供装置。 - ユーザの位置と当該ユーザが向いている方向とを取得する取得手段と、
前記ユーザの位置を基準として前記ユーザが向いている方向に存在するエリアに応じた音声を前記ユーザに提供する提供手段と、
を備え、
前記提供手段は、前記ユーザの属性と前記エリアの属性との関連度に応じた音響処理が施された音声を前記ユーザに提供する
ことを特徴とする音声提供装置。 - 前記取得手段は、前記ユーザによって使用されるユーザ端末から、前記ユーザの位置と前記ユーザが向いている方向とを取得し、
前記提供手段は、前記音声を示す音声データを前記ユーザ端末に提供する
ことを特徴とする請求項1又は2に記載の音声提供装置。 - 前記提供手段は、前記ユーザによって指定された内容を取得し、前記ユーザの位置を基準として前記ユーザが向いている方向に存在するエリアに応じた音声群のうち、取得した内容に対応するエリアに応じた音声を前記ユーザに提供する
ことを特徴とする請求項1〜3のいずれか1項に記載の音声提供装置。 - 前記提供手段は、前記ユーザと前記エリアとの位置関係に応じた音響処理が施された音声を前記ユーザに提供する
ことを特徴とする請求項1〜4のいずれか1項に記載の音声提供装置。 - 前記提供手段は、前記ユーザの属性と前記エリアの属性との関連度に応じた音響処理が施された音声を前記ユーザに提供する
ことを特徴とする請求項1,3,4又は5に記載の音声提供装置。 - 前記提供手段は、前記ユーザの位置の変化又は前記ユーザが向いている方向の変化に応じて音声を提供する
ことを特徴とする請求項1〜6のいずれか1項に記載の音声提供装置。 - 前記提供手段は、前記ユーザの位置の変化又は前記ユーザが向いている方向の変化に応じて、音量が変更された音声を前記ユーザに提供する
ことを特徴とする請求項7に記載の音声提供装置。 - 前記提供手段は、前記ユーザが向いている方向の変化に応じて、前記ユーザが向いている方向に存在するエリアに応じた音声から変更された音声を前記ユーザに提供する
ことを特徴とする請求項7又は8に記載の音声提供装置。 - 前記音声を示す音声データと前記エリアとを対応付けて記憶する記憶手段をさらに備え、
前記提供手段は、前記ユーザの位置を基準として前記ユーザが向いている方向に存在するエリアに対応付けられた音声データを前記記憶手段から読み出して前記ユーザに提供する
ことを特徴とする請求項1〜9のいずれか1項に記載の音声提供装置。 - 前記音声は、前記エリアにおいて放音又は収音されている音声である
ことを特徴とする請求項1〜10のいずれか1項に記載の音声提供装置。 - ユーザの位置と当該ユーザが向いている方向とを検出する検出手段と、
前記ユーザの位置を基準として前記ユーザが向いている方向に存在するエリアに応じた音声データを取得する取得手段と、
前記音声データを再生する再生手段と、
を備え、
前記取得手段は、前記ユーザの属性を取得し、前記ユーザの位置を基準として前記ユーザが向いている方向に存在するエリアに応じた音声群のうち、前記ユーザの属性に応じた音声データを取得する
ことを特徴とする音声再生装置。 - ユーザの位置と当該ユーザが向いている方向とを検出する検出手段と、
前記ユーザの位置を基準として前記ユーザが向いている方向に存在するエリアに応じた音声データを取得する取得手段と、
前記音声データを再生する再生手段と、
を備え、
前記取得手段は、前記ユーザの属性と前記エリアの属性との関連度に応じた音響処理が施された音声データを取得する
ことを特徴とする音声再生装置。 - ユーザの位置と当該ユーザが向いている方向とを取得する取得ステップと、
前記ユーザの位置を基準として前記ユーザが向いている方向に存在するエリアに応じた音声を前記ユーザに提供する提供ステップと、
を備え、
前記提供ステップは、前記ユーザの属性を取得し、前記ユーザの位置を基準として前記ユーザが向いている方向に存在するエリアに応じた音声群のうち、前記ユーザの属性に応じた音声を前記ユーザに提供する
ことを特徴とする音声提供方法。 - ユーザの位置と当該ユーザが向いている方向とを取得する取得ステップと、
前記ユーザの位置を基準として前記ユーザが向いている方向に存在するエリアに応じた音声を前記ユーザに提供する提供ステップと、
を備え、
前記提供ステップは、前記ユーザの属性と前記エリアの属性との関連度に応じた音響処理が施された音声を前記ユーザに提供する
ことを特徴とする音声提供方法。 - 前記取得ステップは、前記ユーザによって使用されるユーザ端末から、前記ユーザの位置と前記ユーザが向いている方向とを取得し、
前記提供ステップは、前記音声を示す音声データを前記ユーザ端末に提供する
ことを特徴とする請求項14又は15に記載の音声提供方法。 - 前記提供ステップは、前記ユーザによって指定された内容を取得し、前記ユーザの位置を基準として前記ユーザが向いている方向に存在するエリアに応じた音声群のうち、取得した内容に対応するエリアに応じた音声を前記ユーザに提供する
ことを特徴とする請求項14〜16のいずれか1項に記載の音声提供方法。 - 前記提供ステップは、前記ユーザと前記エリアとの位置関係に応じた音響処理が施された音声を前記ユーザに提供する
ことを特徴とする請求項14〜17のいずれか1項に記載の音声提供方法。 - 前記提供ステップは、前記ユーザの属性と前記エリアの属性との関連度に応じた音響処理が施された音声を前記ユーザに提供する
ことを特徴とする請求項14,16,17又は18に記載の音声提供方法。 - 前記提供ステップは、前記ユーザの位置の変化又は前記ユーザが向いている方向の変化に応じて音声を提供する
ことを特徴とする請求項14〜19のいずれか1項に記載の音声提供方法。 - 前記提供ステップは、前記ユーザの位置の変化又は前記ユーザが向いている方向の変化に応じて、音量が変更された音声を前記ユーザに提供する
ことを特徴とする請求項20に記載の音声提供方法。 - 前記提供ステップは、前記ユーザが向いている方向の変化に応じて、前記ユーザが向いている方向に存在するエリアに応じた音声から変更された音声を前記ユーザに提供する
ことを特徴とする請求項20又は21に記載の音声提供方法。 - 前記提供ステップは、前記音声を示す音声データと前記エリアとが対応付けて記憶される記憶手段から、前記ユーザの位置を基準として前記ユーザが向いている方向に存在するエリアに対応付けられた音声データを読み出して前記ユーザに提供する
ことを特徴とする請求項14〜22のいずれか1項に記載の音声提供方法。 - 前記音声は、前記エリアにおいて放音又は収音されている音声である
ことを特徴とする請求項14〜23のいずれか1項に記載の音声提供方法。 - ユーザの位置と当該ユーザが向いている方向とを検出するステップと、
検出されたユーザの位置を基準として検出された方向に存在するエリアに応じた音声データを取得するステップと、
取得された音声データを再生するステップと
を備え、
前音声データを取得するステップは、前記ユーザの属性を取得し、前記ユーザの位置を基準として前記ユーザが向いている方向に存在するエリアに応じた音声群のうち、前記ユーザの属性に応じた音声データを取得する
ことを特徴とする音声再生方法。 - ユーザの位置と当該ユーザが向いている方向とを検出するステップと、
検出されたユーザの位置を基準として検出された方向に存在するエリアに応じた音声データを取得するステップと、
取得された音声データを再生するステップと
を備え、
前記音声データを取得するステップは、前記ユーザの属性と前記エリアの属性との関連度に応じた音響処理が施された音声を前記ユーザに提供する
ことを特徴とする音声再生方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016218242 | 2016-11-08 | ||
JP2016218242 | 2016-11-08 | ||
PCT/JP2017/040336 WO2018088450A1 (ja) | 2016-11-08 | 2017-11-08 | 音声提供装置、音声再生装置、音声提供方法及び音声再生方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018088450A1 JPWO2018088450A1 (ja) | 2019-10-03 |
JP6795611B2 true JP6795611B2 (ja) | 2020-12-02 |
Family
ID=62109825
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018550237A Active JP6795611B2 (ja) | 2016-11-08 | 2017-11-08 | 音声提供装置、音声再生装置、音声提供方法及び音声再生方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11134356B2 (ja) |
JP (1) | JP6795611B2 (ja) |
WO (1) | WO2018088450A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10999677B2 (en) | 2019-05-29 | 2021-05-04 | Asahi Kasei Kabushiki Kaisha | Sound reproducing apparatus having multiple directional speakers and sound reproducing method |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3697568B2 (ja) | 2000-02-24 | 2005-09-21 | 株式会社日立製作所 | 情報配信システム |
GB2376123B (en) * | 2001-01-29 | 2004-06-30 | Hewlett Packard Co | Facilitation of speech recognition in user interface |
US8422693B1 (en) * | 2003-09-29 | 2013-04-16 | Hrl Laboratories, Llc | Geo-coded spatialized audio in vehicles |
US7492915B2 (en) * | 2004-02-13 | 2009-02-17 | Texas Instruments Incorporated | Dynamic sound source and listener position based audio rendering |
US8718301B1 (en) * | 2004-10-25 | 2014-05-06 | Hewlett-Packard Development Company, L.P. | Telescopic spatial radio system |
US7876903B2 (en) * | 2006-07-07 | 2011-01-25 | Harris Corporation | Method and apparatus for creating a multi-dimensional communication space for use in a binaural audio system |
US20100292917A1 (en) * | 2009-05-13 | 2010-11-18 | International Business Machines Corporation | System and method for guiding a user through a surrounding environment |
US20110288860A1 (en) * | 2010-05-20 | 2011-11-24 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for processing of speech signals using head-mounted microphone pair |
EP2590432B1 (en) * | 2010-06-30 | 2020-04-08 | Panasonic Intellectual Property Management Co., Ltd. | Conversation detection device, hearing aid and conversation detection method |
US9538133B2 (en) * | 2011-09-23 | 2017-01-03 | Jie Diao | Conveying gaze information in virtual conference |
US8996296B2 (en) * | 2011-12-15 | 2015-03-31 | Qualcomm Incorporated | Navigational soundscaping |
US20130275873A1 (en) * | 2012-04-13 | 2013-10-17 | Qualcomm Incorporated | Systems and methods for displaying a user interface |
US9746916B2 (en) * | 2012-05-11 | 2017-08-29 | Qualcomm Incorporated | Audio user interaction recognition and application interface |
EP2669634A1 (en) * | 2012-05-30 | 2013-12-04 | GN Store Nord A/S | A personal navigation system with a hearing device |
JP5949234B2 (ja) | 2012-07-06 | 2016-07-06 | ソニー株式会社 | サーバ、クライアント端末、およびプログラム |
EP2736276A1 (en) * | 2012-11-27 | 2014-05-28 | GN Store Nord A/S | Personal communications unit for observing from a point of view and team communications system comprising multiple personal communications units for observing from a point of view |
US9301069B2 (en) * | 2012-12-27 | 2016-03-29 | Avaya Inc. | Immersive 3D sound space for searching audio |
US20140270182A1 (en) * | 2013-03-14 | 2014-09-18 | Nokia Corporation | Sound For Map Display |
US10262462B2 (en) * | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9629774B2 (en) * | 2014-01-14 | 2017-04-25 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
US10529359B2 (en) * | 2014-04-17 | 2020-01-07 | Microsoft Technology Licensing, Llc | Conversation detection |
US9905244B2 (en) * | 2016-02-02 | 2018-02-27 | Ebay Inc. | Personalized, real-time audio processing |
WO2018081609A1 (en) * | 2016-10-27 | 2018-05-03 | Livelike Inc. | Spatial audio based advertising in virtual or augmented reality video streams |
US10224033B1 (en) * | 2017-09-05 | 2019-03-05 | Motorola Solutions, Inc. | Associating a user voice query with head direction |
-
2017
- 2017-11-08 JP JP2018550237A patent/JP6795611B2/ja active Active
- 2017-11-08 WO PCT/JP2017/040336 patent/WO2018088450A1/ja active Application Filing
-
2019
- 2019-04-30 US US16/398,443 patent/US11134356B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11134356B2 (en) | 2021-09-28 |
JPWO2018088450A1 (ja) | 2019-10-03 |
WO2018088450A1 (ja) | 2018-05-17 |
US20190261123A1 (en) | 2019-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105163241B (zh) | 音频播放方法及装置、电子设备 | |
KR102037412B1 (ko) | 이동 단말기와 연결된 보청기를 피팅(fitting) 하는 방법 및 이를 수행하는 이동 단말기 | |
US11582281B2 (en) | Location-based tagging and retrieving of media content | |
US20170199934A1 (en) | Method and apparatus for audio summarization | |
US9288594B1 (en) | Auditory environment recognition | |
CN103503503A (zh) | 使用音频信号编码和识别进行的音频定位 | |
WO2019173577A1 (en) | Audio content engine for audio augmented reality | |
EP3989083A1 (en) | Information processing system, information processing method, and recording medium | |
US9594148B2 (en) | Estimation device and estimation method using sound image localization processing | |
JP6795611B2 (ja) | 音声提供装置、音声再生装置、音声提供方法及び音声再生方法 | |
US20140333786A1 (en) | System and method for remotely creating and processing media files | |
WO2019142926A1 (ja) | 音声情報提供システム、音声情報提供装置、及びプログラム | |
US20130332837A1 (en) | Methods and apparatus for sound management | |
JP7037654B2 (ja) | キャプチャされた空間オーディオコンテンツの提示用の装置および関連する方法 | |
US10140083B1 (en) | Platform for tailoring media to environment factors and user preferences | |
US10820132B2 (en) | Voice providing device and voice providing method | |
JP2015023534A (ja) | 情報提供装置、情報提供システム、及び情報提供プログラム | |
JP6990042B2 (ja) | 音声提供装置及び音声提供方法 | |
JP6674557B2 (ja) | 音声再生装置及び音声再生方法 | |
JP7501652B2 (ja) | 情報処理装置、制御方法、制御プログラム、及び情報処理システム | |
US20170024184A1 (en) | Control method and control device | |
US20230305631A1 (en) | Information processing apparatus, information processing system, information processing method, and program | |
JP2015216647A (ja) | 表示制御装置及び表示制御装置の制御方法 | |
CN107111789B (zh) | 用户设备确定标识数据的方法和用户设备 | |
EP2919442A1 (en) | Using audio intervention for creating context awareness |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190515 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190613 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200728 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200918 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201027 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6795611 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |