JPWO2018190099A1 - 音声提供装置、音声提供方法及びプログラム - Google Patents
音声提供装置、音声提供方法及びプログラム Download PDFInfo
- Publication number
- JPWO2018190099A1 JPWO2018190099A1 JP2019512404A JP2019512404A JPWO2018190099A1 JP WO2018190099 A1 JPWO2018190099 A1 JP WO2018190099A1 JP 2019512404 A JP2019512404 A JP 2019512404A JP 2019512404 A JP2019512404 A JP 2019512404A JP WO2018190099 A1 JPWO2018190099 A1 JP WO2018190099A1
- Authority
- JP
- Japan
- Prior art keywords
- user
- voice
- providing
- virtual speaker
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 30
- 230000008569 process Effects 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 12
- 230000008451 emotion Effects 0.000 claims description 5
- 230000009471 action Effects 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 30
- 230000033001 locomotion Effects 0.000 description 16
- 230000004048 modification Effects 0.000 description 14
- 238000012986 modification Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000008859 change Effects 0.000 description 11
- 238000001514 detection method Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 230000006399 behavior Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G31/00—Amusement arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/215—Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/216—Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/424—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/54—Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63J—DEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
- A63J19/00—Puppet, marionette, or shadow shows or theatres
- A63J19/006—Puppets or marionettes therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Transfer Between Computers (AREA)
- Stereophonic System (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
次に、図6を参照して本実施形態の動作を説明する。まずユーザは音声再生装置200を操作して、音声提供サービスを開始するための操作を行う。音声再生装置200においてこの操作が受け付けられると、収音部202は音声を収音して音声データを生成する(ステップS11)。ここで、ユーザが発話した場合にはユーザの音声が収音されるし、ユーザが特に発話しなければ例えばバックグラウンドミュージック等の環境音が収音される。
上述した実施形態は次のような変形が可能である。また、以下の変形例を互いに組み合わせて実施してもよい。
[変形例1]
ユーザを基準として仮想話者の位置を音発生源とする音場を再現してもよい。具体的には、音声再生装置200が複数のスピーカを実装し、それぞれのスピーカからの放音タイミングを時間的に遅延させることで、仮想話者の音声がどの方向から聞こえてくるかという音像定位が可能な音場を実現できるようにする。音声提供装置100の提供部104は、ユーザと仮想話者との位置関係に応じた音像定位を実現するための音場パラメータ(具体的には各スピーカからの放音タイミングの遅延時間)を音声再生装置100に提供する。つまり、提供部104は、仮想話者の音声とともに、ユーザの位置と仮想話者の位置との関係に応じて上記音声の放音処理を行うための音場を提供するための処理を行う。このようにすれば、ユーザは仮想話者がどちらの方向に居るかということを感じることができる。
実施形態においては、個々のユーザに装着される或いはユーザによって携帯される音声再生装置200から放音してユーザに音声を提供していたが、ユーザに音声を放音する装置はこのようなものに限らず、例えばこの音声提供システムが設けられたエリアに設置されたスピーカ等の音声再生装置によってユーザに対して音声を放音してもよい。具体的には、上述したようなスピーカを含む音声再生装置と、個々のユーザに装着或いは携帯されて検出部201の機能を備えた通信端末とを別々の装置として構成し、この音声再生装置及び通信端末においてお互いに無線でデータ通信を行う機能を実装する。通信端末は自身の位置と方向(つまりユーザの位置及びユーザが向いている方向)を検出し、その位置及び方向を、自身が通信可能な音声再生装置(つまりユーザの近くにある音声再生装置)に通知する。音声再生装置は通信端末から通知されたユーザの位置及び方向を音声提供装置100に送信する。音声提供装置100はユーザの位置及び方向と所定の関係となる仮想話者を特定し、その仮想話者がユーザと対話するための音声データを上記音声再生装置に対して指定する。音声再生装置は、指定された音声データを再生する。
実施形態において、音声提供装置100の提供部104は、ユーザと仮想話者とが所定の距離の範囲内にあり、ユーザが向いている方向(例えばユーザが向いている方向を中心として両側にそれぞれ45度の範囲)に仮想話者が存在する場合に音声を提供していた。ただし、音声を提供する条件として、ユーザが向いている方向は必ずしも必須ではない。つまり、提供部104は、ユーザの位置と仮想話者の位置との間の距離が所定の関係となる場合に音声を提供するための処理を行えばよい。
実施形態においては、提供部104は、仮想話者がユーザに応じた内容でそのユーザと対話するための音声を提供するための処理を行っていたが、ここでいう「ユーザに応じた内容」とは、ユーザの発話内容に応じた、という意味である。この「ユーザに応じた内容」は、次に述べるように、ユーザの属性、行動、生体情報又は感情という意味を含んでもよい。
ユーザの移動履歴としては、仮想話者の音声を特定する直前の位置やその位置変化の履歴を利用してもよいし、過去の位置やその位置変化(例えば仮想話者の音声を特定する1時間前や前回の施設来園時など)を利用してもよい。例えば前回の施設来園時の位置を利用する場合、前回の施設来場時の移動履歴として、例えばジェットコースターの乗車場所に近づいた後に、ジェットコースターに乗車せずにその乗車場所から遠ざかった状態を意味する履歴が記録されており、そして、今回の施設来場中の移動履歴では、そのジェットコースターに乗車したことが検出された場合には、提供部104は、「前は乗れなかったのに乗れるようになったね!」というような仮想話者の音声をユーザに提供する。また、行動として、例えばユーザが頭を振る動作を検出したら、提供部104は、「何か困っているの?」のような仮想話者の音声をユーザに提供する。
また、ユーザの動きとは、ユーザの身体の動きであればどのようなものでもよく、例えばユーザの表情、しぐさ、ジェスチャ或いは動作パターンなどである。例えば図6のステップS13においてユーザの動きを示す動きデータが取得され、ステップS15において、提供部104は、その動きデータに基づいて、ユーザに対する仮想話者の音声データを特定する。
実施形態において、更新部103が用いる仮想話者の位置変動アルゴリズムとして、音声提供システムが設置されたエリア内の任意の位置をランダムに選択するようなアルゴリズムや、音声提供システムが設置されたエリア内の所定の経路上の位置を所定の距離ずつ移動させていくようなアルゴリズムを例示したが、これ以外に次のようなものも考えられる。
ここで、例えば施設内を撮像するカメラ等によって施設来場者の混雑状況を検出する場合には、音声再生装置200を所持している施設来場者及び音声再生装置200を所持していない施設来場者の混雑状況を特定することができる。また、例えば各々の音声再生装置200の測位部26が測位した結果に基づいて施設来場者の混雑状況を検出する場合には、音声再生装置200を所持している施設来場者の混雑状況を特定することができる。混雑状況の検出対象となる施設来場者は、上記のどちらでもよい。
また、施設内の地域別の混雑度を検出する手段がない場合であっても、更新部103は、複数のユーザに提供されうるアトラクションやプログラム等のサービスの予定を記憶しておき、そのスケジュールから予想される地域別の混雑度が閾値よりも少ない地域において仮想話者の出現確率が大きくするような位置変動アルゴリズムを採用してもよい。このようにしても、仮想話者とコミュニケーションしたいというユーザの意識を利用して、ユーザを混雑の少ない地域に誘導することが可能となる。
提供部104は、仮想話者の音声データを特定するときに、1の仮想話者の音声を特定するのではなく、ユーザの位置と所定の関係となる複数の仮想話者の音声データを特定し、これらを全てユーザに提供するための処理を行ってもよい。この場合、提供部104は、例えば、仮想話者ごとに音声データの声色を変えるとか、ユーザの位置と仮想話者の位置との間の距離に応じてそれぞれの音声の音量を制御してもよい。
本発明におけるユーザと仮想話者とのコミュニケーションとは、双方向の対話によるものに限らず、一方向の対話によるものであってもよい。
実施形態において、提供部104は、仮想話者の位置及びユーザの位置の間の距離に基づいて音声データの音量を制御していたが、音量を制御する方法はこれに限らない。例えば提供部104は、ユーザの位置を基準としたユーザの向いている方向と仮想話者の位置との一致度(例えばユーザの位置を始点としてユーザの向いている方向を示す半直線と仮想話者の位置との近さ)に応じた音量の音声をユーザに提供する。
また、仮想話者の位置として、水平方向の位置以外に、高さ方向の位置を用いてもよい。この場合、提供部104は、仮想話者の高さ方向の位置を反映させた音響処理を音声データに施すようにしてもよい。提供部104は、例えば仮想話者の位置がユーザの位置よりも高い場合、頭部伝達関数(HRTF:Head−Related Transfer Function)を用いた処理によって、ユーザの上方から仮想話者の声が聞こえるかのようなエフェクトを施してもよい。
実施形態において、提供部104は、仮想話者の位置及びユーザの位置の間の距離に基づいて音声データの音量を制御していたが、音声データの内容を変化させても良い。例えば、提供部104は、ユーザが向いている方向を中心として例えば両側に45度の範囲内で且つユーザからの距離が第1閾値以上の範囲に仮想話者の位置が含まれる場合には「おーい、こっち」という音声データを提供し、ユーザが向いている方向を中心として例えば両側に45度の範囲内で且つユーザからの距離が第2閾値より大きく第1閾値より小さい範囲に仮想話者の位置が含まれる場合には「こっちだよ」という音声データを提供し、ユーザが向いている方向を中心として例えば両側に45度の範囲内で且つユーザからの距離が第2閾値以下の範囲に仮想話者の位置が含まれる場合には「こんにちは」という音声データを提供する。ここで、第2閾値は第1閾値よりも小さい。
なお、提供部104は、仮想話者の位置及びユーザの位置の間の距離に基づいて、音声データの音量と内容の両方を変化させても良い。
実施形態において、ユーザの向いている方向を検出する方向検出部25は方位センサやジャイロセンサなどを含んでいたが、ビーコン発信機を用いてユーザの向いている方向を検出しても良い。具体的には、方向検出部25が、予め設置されたビーコン発信機からの信号を受信する受信部を有してもよい。
例えば、予め複数のビーコン発信機を互いに異なる位置に設置し、方向検出部25は、受信部により複数のビーコン発信機からのビーコン信号を受信して三角測量などの手法によりユーザの向いている方向を検出する。
あるいは、1個のビーコン発信機を予め設置し、ユーザを所定の範囲に誘導するようにしてもよい。この場合、ビーコン信号によりビーコン発信機の方向を検出し、ビーコン発信機の方向に基づきユーザの向いている方向を検出する。ユーザを所定の範囲に誘導する方法としては、例えば、地面にマーキングを施したり、実物あるいは仮想の壁を設けたりする。ユーザを誘導する方法はこれらに限られず、ユーザを所定の範囲に誘導し、ユーザの位置を所定の範囲に制限できれば良い。また、ビーコン発信機や受信部は、ユーザが所定の範囲に入ったときにのみ動作するようにしても良い。
ユーザに提供される音声は音声再生装置200の記憶部23に予め記憶されているものに限らず、音声提供装置100の記憶部13に記憶されていてもよい。この場合、音声提供装置100から例えば図6のステップS16の実行タイミングで、都度、音声再生装置200に音声データを提供してもよい。 また、提供部104は、音声に加えて、ユーザの位置に関する音声以外のデータ(例えばユーザの位置に関する施設内情報を記述したテキストデータやその位置に関連する画像を表す画像データ)を音声再生装置200に提供してもよい。
上記実施形態の説明に用いた図5のブロック図は機能単位のブロックを示している。これらの各機能ブロックは、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現部は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。従って、本発明に係る音声提供装置又は音声再生装置は、実施形態で説明したようにそれぞれの機能の全てを一体に備えた装置によっても実現可能であるし、それぞれの装置の機能を、さらに複数の装置に分散して実装したシステムであってもよい。また、上記実施形態で説明した処理の手順は、矛盾の無い限り、順序を入れ替えてもよい。実施形態で説明した方法については、例示的な順序で各ステップの要素を提示しており、提示した特定の順序に限定されない。
11・・・制御部
12・・・通信部
13・・・記憶部
101・・・取得部
102・・・記憶部
103・・・更新部
104・・・提供部
200・・・音声再生装置
21・・・制御部
22・・・通信部
23・・・記憶部
24・・・再生部
25・・・方向検出部
26・・・測位部
27・・・UI部
28・・・収音部
201・・・検出部
202・・・収音部
203・・・通知部
204・・・再生部
900・・・ネットワーク
Claims (15)
- ユーザの位置を取得する取得手段と、
前記取得手段によって取得された位置と仮想的な話者の位置とが所定の関係となる場合に、前記仮想的な話者が前記ユーザに応じた内容で当該ユーザと対話するための音声を前記ユーザに提供するための処理を行う提供手段とを備えることを特徴とする音声提供装置。 - 前記提供手段は、前記音声とともに、前記取得手段によって取得された位置と前記仮想的な話者の位置との関係に応じて前記音声の放音処理を行うための音場を提供するための処理を行う
を備えることを特徴とする請求項1記載の音声提供装置。 - 前記提供手段は、前記取得手段によって取得された位置と前記仮想的な話者の位置とが所定の範囲内にある場合に、前記音声を提供するための処理を行う
ことを特徴とする請求項1記載の音声提供装置。 - 前記提供手段は、前記取得手段によって取得された位置と前記仮想的な話者の位置とが所定の距離の範囲内にあり、且つ、前記ユーザが向いている方向に前記仮想的な話者の位置が存在する場合に、前記音声を提供するための処理を行う
ことを特徴とする請求項3記載の音声提供装置。 - 前記提供手段は、前記取得手段によって取得された位置と前記仮想的な話者の位置との間の距離に応じて、前記音声の内容を変化させる
ことを特徴とする請求項3又は4記載の音声提供装置。 - 前記提供手段は、前記仮想的な話者が前記ユーザの属性、行動、生体情報又は感情に応じた内容で当該ユーザと対話するための音声を提供するための処理を行う
ことを特徴とする請求項1〜5のいずれか1項に記載の音声提供装置。 - 前記仮想的な話者の位置を更新する更新手段
を備えることを特徴とする請求項1〜6のいずれか1項に記載の音声提供装置。 - 前記更新手段は、各地域の混雑状況に応じて、前記仮想的な話者の位置を更新する
ことを特徴とする請求項7に記載の音声提供装置。 - 前記更新手段は、各地域において提供されうるサービスの状況に応じて、前記仮想的な話者の位置を更新する
ことを特徴とする請求項7に記載の音声提供装置。 - 前記更新手段は、前記仮想的な話者と対話を行っている前記ユーザの移動状況に応じて、当該仮想的な話者の位置を更新する
ことを特徴とする請求項7に記載の音声提供装置。 - ユーザの位置を取得する取得ステップと、
取得された前記位置と仮想的な話者の位置とが所定の関係となる場合に、前記仮想的な話者が前記ユーザに応じた内容で当該ユーザと対話するための音声を前記ユーザに提供するための処理を行う提供ステップとを備えることを特徴とする音声提供方法。 - 前記提供ステップにおいて、前記取得ステップにおいて取得された位置と前記仮想的な話者の位置とが所定の範囲内にある場合に、前記音声を提供するための処理を行う
ことを特徴とする請求項11記載の音声提供装置。 - 前記提供ステップに置いて、前記取得ステップにおいて取得された位置と前記仮想的な話者の位置とが所定の距離の範囲内にあり、且つ、前記ユーザが向いている方向に前記仮想的な話者の位置が存在する場合に、前記音声を提供するための処理を行う
ことを特徴とする請求項12記載の音声提供装置。 - 前記提供ステップにおいて、前記取得ステップにおいて取得された位置と前記仮想的な話者の位置との間の距離に応じて、前記音声の内容を変化させる
ことを特徴とする請求項12又は13記載の音声提供装置。 - コンピュータを、
ユーザの位置を取得する取得手段と、
前記取得手段によって取得された位置と仮想的な話者の位置とが所定の関係となる場合に、前記仮想的な話者が前記ユーザに応じた内容で当該ユーザと対話するための音声を前記ユーザに提供するための処理を行う提供手段として機能させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017077348 | 2017-04-10 | ||
JP2017077348 | 2017-04-10 | ||
PCT/JP2018/011554 WO2018190099A1 (ja) | 2017-04-10 | 2018-03-22 | 音声提供装置、音声提供方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018190099A1 true JPWO2018190099A1 (ja) | 2020-02-27 |
JP6884854B2 JP6884854B2 (ja) | 2021-06-09 |
Family
ID=63792905
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019512404A Active JP6884854B2 (ja) | 2017-04-10 | 2018-03-22 | 音声提供装置、音声提供方法及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10820132B2 (ja) |
EP (1) | EP3611941A4 (ja) |
JP (1) | JP6884854B2 (ja) |
CN (1) | CN110495190B (ja) |
WO (1) | WO2018190099A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7510773B2 (ja) * | 2020-03-30 | 2024-07-04 | 株式会社バンダイナムコエンターテインメント | サーバシステム及びプログラム |
CN112261337B (zh) * | 2020-09-29 | 2023-03-31 | 上海连尚网络科技有限公司 | 一种在多人语音中播放语音信息的方法与设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005148724A (ja) * | 2003-10-21 | 2005-06-09 | Zenrin Datacom Co Ltd | 音声認識を用いた情報入力を伴う情報処理装置 |
JP2007248162A (ja) * | 2006-03-14 | 2007-09-27 | Kenwood Corp | ナビゲーション装置、プログラム及び方法 |
JP2013101248A (ja) * | 2011-11-09 | 2013-05-23 | Sony Corp | 音声制御装置、音声制御方法、およびプログラム |
JP2015049198A (ja) * | 2013-09-03 | 2015-03-16 | 株式会社 ミックウェア | 端末装置、情報処理方法、およびプログラム |
JP2016021169A (ja) * | 2014-07-15 | 2016-02-04 | Kddi株式会社 | 仮想音源を提供情報位置に配置する携帯端末、音声提示プログラム及び音声提示方法 |
WO2016185740A1 (ja) * | 2015-05-18 | 2016-11-24 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2018043112A1 (ja) * | 2016-08-29 | 2018-03-08 | ソニー株式会社 | 情報提示装置、および情報提示方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001136600A (ja) * | 1999-11-05 | 2001-05-18 | Sony Corp | ディスプレイ装置 |
JP3697568B2 (ja) | 2000-02-24 | 2005-09-21 | 株式会社日立製作所 | 情報配信システム |
JP2003234689A (ja) * | 2002-02-07 | 2003-08-22 | Casio Comput Co Ltd | サービスシステム、携帯端末、及び携帯端末処理プログラム |
CN100357863C (zh) * | 2002-05-14 | 2007-12-26 | 皇家飞利浦电子股份有限公司 | 用于电子设备的对话控制装置 |
JP4204541B2 (ja) * | 2004-12-24 | 2009-01-07 | 株式会社東芝 | 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム |
US8279168B2 (en) * | 2005-12-09 | 2012-10-02 | Edge 3 Technologies Llc | Three-dimensional virtual-touch human-machine interface system and method therefor |
JP2007193166A (ja) * | 2006-01-20 | 2007-08-02 | Kenwood Corp | 対話装置、対話方法及びプログラム |
US8140335B2 (en) * | 2007-12-11 | 2012-03-20 | Voicebox Technologies, Inc. | System and method for providing a natural language voice user interface in an integrated voice navigation services environment |
US9037468B2 (en) * | 2008-10-27 | 2015-05-19 | Sony Computer Entertainment Inc. | Sound localization for user in motion |
WO2010108033A1 (en) * | 2009-03-18 | 2010-09-23 | Inxile Entertainment, Inc. | Gaming voice reaction system |
US9901828B2 (en) * | 2010-03-30 | 2018-02-27 | Sony Interactive Entertainment America Llc | Method for an augmented reality character to maintain and exhibit awareness of an observer |
JP5821307B2 (ja) * | 2011-06-13 | 2015-11-24 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US9230368B2 (en) * | 2013-05-23 | 2016-01-05 | Microsoft Technology Licensing, Llc | Hologram anchoring and dynamic positioning |
JP6689589B2 (ja) | 2015-10-20 | 2020-04-28 | オリンパス株式会社 | 内視鏡 |
-
2018
- 2018-03-22 EP EP18785230.6A patent/EP3611941A4/en not_active Withdrawn
- 2018-03-22 CN CN201880024405.5A patent/CN110495190B/zh active Active
- 2018-03-22 WO PCT/JP2018/011554 patent/WO2018190099A1/ja unknown
- 2018-03-22 JP JP2019512404A patent/JP6884854B2/ja active Active
-
2019
- 2019-10-09 US US16/597,394 patent/US10820132B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005148724A (ja) * | 2003-10-21 | 2005-06-09 | Zenrin Datacom Co Ltd | 音声認識を用いた情報入力を伴う情報処理装置 |
JP2007248162A (ja) * | 2006-03-14 | 2007-09-27 | Kenwood Corp | ナビゲーション装置、プログラム及び方法 |
JP2013101248A (ja) * | 2011-11-09 | 2013-05-23 | Sony Corp | 音声制御装置、音声制御方法、およびプログラム |
JP2015049198A (ja) * | 2013-09-03 | 2015-03-16 | 株式会社 ミックウェア | 端末装置、情報処理方法、およびプログラム |
JP2016021169A (ja) * | 2014-07-15 | 2016-02-04 | Kddi株式会社 | 仮想音源を提供情報位置に配置する携帯端末、音声提示プログラム及び音声提示方法 |
WO2016185740A1 (ja) * | 2015-05-18 | 2016-11-24 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2018043112A1 (ja) * | 2016-08-29 | 2018-03-08 | ソニー株式会社 | 情報提示装置、および情報提示方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2018190099A1 (ja) | 2018-10-18 |
EP3611941A1 (en) | 2020-02-19 |
US20200037098A1 (en) | 2020-01-30 |
EP3611941A4 (en) | 2020-12-30 |
JP6884854B2 (ja) | 2021-06-09 |
CN110495190B (zh) | 2021-08-17 |
US10820132B2 (en) | 2020-10-27 |
CN110495190A (zh) | 2019-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11172316B2 (en) | Wearable electronic device displays a 3D zone from where binaural sound emanates | |
US11632470B2 (en) | Methods and apparatus to assist listeners in distinguishing between electronically generated binaural sound and physical environment sound | |
US10915291B2 (en) | User-interfaces for audio-augmented-reality | |
CN108141696A (zh) | 用于空间音频调节的系统和方法 | |
JP6600634B2 (ja) | ユーザが制御可能な聴覚環境のカスタマイズのためのシステム及び方法 | |
TW201820315A (zh) | 改良型音訊耳機裝置及其聲音播放方法、電腦程式 | |
CN107078706A (zh) | 自动音频调整 | |
US20220246135A1 (en) | Information processing system, information processing method, and recording medium | |
JPWO2018180024A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US10820132B2 (en) | Voice providing device and voice providing method | |
US11275554B2 (en) | Information processing apparatus, information processing method, and program | |
CN107027340A (zh) | 可穿戴电子系统 | |
WO2016157678A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20200280814A1 (en) | Augmented reality audio playback control | |
JP2015023534A (ja) | 情報提供装置、情報提供システム、及び情報提供プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191010 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210420 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210512 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6884854 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |