JP7428189B2 - 情報処理装置、制御方法及び制御プログラム - Google Patents
情報処理装置、制御方法及び制御プログラム Download PDFInfo
- Publication number
- JP7428189B2 JP7428189B2 JP2021562705A JP2021562705A JP7428189B2 JP 7428189 B2 JP7428189 B2 JP 7428189B2 JP 2021562705 A JP2021562705 A JP 2021562705A JP 2021562705 A JP2021562705 A JP 2021562705A JP 7428189 B2 JP7428189 B2 JP 7428189B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- position information
- predetermined object
- animal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 63
- 238000000034 method Methods 0.000 title claims description 20
- 238000004891 communication Methods 0.000 claims description 93
- 238000012545 processing Methods 0.000 claims description 8
- 241001465754 Metazoa Species 0.000 description 191
- 238000010586 diagram Methods 0.000 description 19
- 238000003384 imaging method Methods 0.000 description 19
- 230000015654 memory Effects 0.000 description 11
- 210000005069 ears Anatomy 0.000 description 9
- 238000005259 measurement Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 241000894007 species Species 0.000 description 2
- 241000282320 Panthera leo Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/40—Visual indication of stereophonic sound image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
ユーザの位置情報を示す第1位置情報を取得する第1取得部と、
所定の物体の位置情報を示す第2位置情報を取得する第2取得部と、
前記第1位置情報と、前記第2位置情報とに基づいて、前記所定の物体に関連する音声情報であって、前記所定の物体に音像が定位された音声情報を生成する生成部と、
前記生成された音声情報を前記ユーザに対して出力する制御を実行する制御部と、を備える。
ユーザの位置情報を示す第1位置情報を取得し、
所定の物体の位置情報を示す第2位置情報を取得し、
前記第1位置情報と、前記第2位置情報とに基づいて、前記所定の物体に関連する音声情報であって、前記所定の物体に音像が定位された音声情報を生成し、
前記生成された音声情報を前記ユーザに対して出力する制御を実行する、制御方法である。
ユーザの位置情報を示す第1位置情報を取得し、
所定の物体の位置情報を示す第2位置情報を取得し、
前記第1位置情報と、前記第2位置情報とに基づいて、前記所定の物体に関連する音声情報であって、前記所定の物体に音像が定位された音声情報を生成し、
前記生成された音声情報を前記ユーザに対して出力する制御を実行する、処理をコンピュータに実行させる制御プログラムである。
図1を用いて、実施の形態1にかかる情報処理装置1の構成例について説明する。図1は、実施の形態1にかかる情報処理装置の構成例を示す図である。情報処理装置1は、第1取得部11と、第2取得部12と、生成部13と、制御部14とを備える。
第2取得部12は、所定の物体の位置情報を取得する。所定の物体は、音像を定位させる対象物である。第2取得部12は、所定の物体に関連する、位置測定信号、撮像画像、又はセンシングデータに基づいて、所定の物体の位置情報を取得してもよい。なお、第2取得部12は、所定の物体の位置情報を、常時取得してもよいし、所定の物体に関連付けられた所定のエリアにユーザが存在する場合に取得してもよい。
第2取得部12は、音像を定位させる対象の物体の位置情報を取得する(ステップS2)。
制御部14は、生成部13が生成した音声情報をユーザに対して出力する制御を実行する(ステップS4)。
続いて、実施の形態2について説明する。実施の形態2は、実施の形態1を具体的にした実施の形態である。まず、実施の形態2の具体的な構成例を説明する前に、実施の形態2の概要を説明する。
近年、AR技術を用いたサービスが検討されている。AR技術を用いたサービスとして、例えば、動物園において、仮想的に、動物が話しかけてくるサービスが検討されている。実際には、当該動物は、話をすることができないため、当該サービスは現実世界を拡張するARサービスといえ、音響ARサービスと称されてもよい。このようなサービスは、動物園だけでなく、例えば、店舗、観光スポット等においても提供され得る。
次に、図4を用いて、情報処理システム100の構成例について説明する。図4は、実施の形態2にかかる情報処理システムの構成例を示す図である。情報処理システム100は、通信端末40及び50と、サーバ装置60とを備える。
次に、通信端末40の構成例について説明する。通信端末40は、方向情報取得部41と、出力部42とを備える。なお、通信端末40は、左ユニット40Lと、右ユニット40Rとを含むため、左ユニット40L及び右ユニット40Rの両方が、方向情報取得部41、及び出力部42を有する構成であってもよい。
次に、サーバ装置60の構成例について説明する。サーバ装置60は、ユーザ情報取得部61と、ターゲット情報取得部62と、生成部63と、制御部64とを備える。
次に、図5を用いて、サーバ装置60の動作例について説明する。図5は、実施の形態2にかかるサーバ装置の動作例を示すフローチャートである。
実施の形態2において、以下の変形を施してもよい。実施の形態2を以下のように変形しても実施の形態2と同様の効果を奏することができる。
続いて、実施の形態3について説明する。実施の形態3は、実施の形態2と比較して、音像を定位させる対象の動物の位置情報を取得する処理内容が異なる。なお、実施の形態3においても、情報処理システムの構成例、通信端末40及び50の構成例は、実施の形態2と同様である。そのため、情報処理システムの構成例、通信端末40及び50の構成例については説明を適宜割愛する。
次に、実施の形態3にかかるサーバ装置70の構成例について説明する。図6は、実施の形態3にかかるサーバ装置の構成例を示す図である。図6に示すように、サーバ装置70は、ユーザ情報取得部61と、ターゲット情報取得部72と、生成部63と、制御部64とを備える。なお、ユーザ情報取得部61、生成部63、及び制御部64の構成例については、実施の形態2にかかるサーバ装置60と同様である。そのため、ユーザ情報取得部61、生成部63、及び制御部64の構成例については適宜割愛して説明する。
次に、サーバ装置70の動作例について説明する。サーバ装置70が実行する動作は、図5で示した動作例と基本的に同様であるため、図5を参照して説明する。サーバ装置70が実行する動作は、図5で示したステップS12の内容が、実施の形態2と異なる。そのため、図5のステップS12で実施される動作について説明する。
続いて、実施の形態4について説明する。実施の形態4は、実施の形態2及び3の改良例である。実施の形態2及び3では、サーバ装置は、ユーザに対して音声情報を出力する構成であったが、本実施の形態では、ユーザに対して表示情報も出力する。なお、以降の説明では、実施の形態2を用いて、実施の形態2との差分内容を説明する。
図8を用いて、実施の形態4にかかる情報処理システム200の構成例について説明する。図8は、実施の形態4にかかる情報処理システムの構成例を示す図である。情報処理システム200は、実施の形態2にかかる通信端末50及びサーバ装置60のそれぞれが通信端末80及びサーバ装置90に置き換わった構成である。なお、通信端末40の構成例については、実施の形態2と同様であるため、説明を適宜割愛する。
次に、通信端末80の構成例を説明する。通信端末80は、実施の形態2における通信端末50の構成に、撮像部81及び表示部82が加わった構成である。なお、ユーザ位置情報取得部51の構成については、実施の形態2と同様であるため、説明を適宜割愛する。
次に、サーバ装置90の構成例について説明する。サーバ装置90は、ユーザ情報取得部61と、ターゲット情報取得部62と、生成部91と、制御部92とを備える。サーバ装置90は、実施の形態2における生成部63及び制御部64のそれぞれが生成部91及び制御部92に置き換わった構成である。なお、ユーザ情報取得部61及びターゲット情報取得部62の構成例については、実施の形態2と基本的に同様であるため、説明を適宜割愛する。
次に、図9を用いて、実施の形態4にかかるサーバ装置90の動作例について説明する。図9は、実施の形態4にかかるサーバ装置の動作例を示すフローチャートである。図9に示すフローチャートは、図5に対応しており、図5に示したフローチャートのステップS14がステップS22に置き換わっている。また、図9に示すフローチャートは、図5に示したフローチャートにステップS21が加わったフローチャートである。
続いて、実施の形態5について説明する。実施の形態5は、実施の形態2~4の改良例である。実施の形態5は、音像を定位させる対象の動物が複数である場合の実施の形態である。なお、以降の説明では、実施の形態4を用いて、実施の形態4との差分内容を説明する。また、実施の形態5においても、情報処理システムの構成例、通信端末40及び80の構成例は、実施の形態4と同様である。そのため、情報処理システムの構成例、通信端末40及び80の構成例については説明を適宜割愛する。
図10を用いて、実施の形態5にかかるサーバ装置110の構成例について説明する。図10は、実施の形態5にかかるサーバ装置の構成例を示す図である。図10に示すように、サーバ装置110は、ユーザ情報取得部61と、ターゲット情報取得部111と、生成部112と、制御部113とを備える。なお、ユーザ情報取得部61の構成例については、実施の形態4にかかるサーバ装置90と同様である。そのため、ユーザ情報取得部61の構成については適宜割愛して説明する。
次に、図11を用いて、実施の形態5にかかるサーバ装置110の動作例について説明する。図11は、実施の形態5にかかるサーバ装置の動作例を示すフローチャートである。図11に示すフローチャートは、図9に対応しており、図9に示したフローチャートのステップS12、S13、S21及びS22のそれぞれがステップS31、S33~S35に置き換わっている。また、図11に示すフローチャートは、図9に示したフローチャートにステップS32が加わったフローチャートである。
上述した実施の形態において説明した情報処理装置1、通信端末40、50、80、及びサーバ装置60、70、90、110(以下、情報処理装置1等と称する)は、次のようなハードウェア構成を有していてもよい。図12は、本開示の各実施の形態にかかる情報処理装置等のハードウェア構成を例示するブロック図である。
(付記1)
ユーザの位置情報を示す第1位置情報を取得する第1取得部と、
所定の物体の位置情報を示す第2位置情報を取得する第2取得部と、
前記第1位置情報と、前記第2位置情報とに基づいて、前記所定の物体に関連する音声情報であって、前記所定の物体に音像が定位された音声情報を生成する生成部と、
前記生成された音声情報を前記ユーザに対して出力する制御を実行する制御部と、を備える情報処理装置。
(付記2)
前記第1取得部は、前記ユーザの方向情報をさらに取得し、
前記生成部は、前記第1位置情報と、前記第2位置情報と、前記方向情報とに基づいて、前記音声情報を生成する、付記1に記載の情報処理装置。
(付記3)
前記方向情報は、前記ユーザの顔方向を含み、
前記制御部は、前記第1位置情報と、前記顔方向と、前記第2位置情報とに基づいて、前記顔方向に前記所定の物体が存在するか否かに応じた音声情報を出力する、付記2に記載の情報処理装置。
(付記4)
前記方向情報は、前記ユーザの視線方向を含み、
前記制御部は、前記第1位置情報と、前記第2位置情報と、前記視線方向とに基づいて、前記視線方向に前記所定の物体が存在するか否かに応じた音声情報を出力する、付記2又は3に記載の情報処理装置。
(付記5)
前記生成部は、前記所定の物体に関連する表示情報を生成し、
前記制御部は、前記ユーザが所有する通信端末の画面に前記表示情報を表示する制御を実行する、付記1~4のいずれか1項に記載の情報処理装置。
(付記6)
前記制御部は、前記音声情報を出力するタイミングにおいて、前記表示情報を表示可能に制御する、付記5に記載の情報処理装置。
(付記7)
前記制御部は、前記音声情報を出力するタイミングにおいて、前記表示情報が前記画面に表示されることを前記ユーザに通知する、付記5又は6に記載の情報処理装置。
(付記8)
前記所定の物体は、複数の物体を含み、
前記第2取得部は、前記複数の物体の各々の位置情報を取得するとともに、前記複数の物体が同種類であるのか否かを判定し、
前記生成部は、前記第2取得部の判定結果に応じた前記音声情報を生成する、付記1~7のいずれか1項に記載の情報処理装置。
(付記9)
ユーザの位置情報を示す第1位置情報を取得し、
所定の物体の位置情報を示す第2位置情報を取得し、
前記第1位置情報と、前記第2位置情報とに基づいて、前記所定の物体に関連する音声情報であって、前記所定の物体に音像が定位された音声情報を生成し、
前記生成された音声情報を前記ユーザに対して出力する制御を実行する、制御方法。
(付記10)
ユーザの位置情報を示す第1位置情報を取得し、
所定の物体の位置情報を示す第2位置情報を取得し、
前記第1位置情報と、前記第2位置情報とに基づいて、前記所定の物体に関連する音声情報であって、前記所定の物体に音像が定位された音声情報を生成し、
前記生成された音声情報を前記ユーザに対して出力する制御を実行する、処理をコンピュータに実行させる制御プログラム。
11 第1取得部
12 第2取得部
13、63、91、112 生成部
14、64、92、113 制御部
21 エリア
100 情報処理システム
40、50、80 通信端末
41 方向情報取得部
42 出力部
51 ユーザ位置情報取得部
60、90、110 サーバ装置
61 ユーザ情報取得部
62、72、111 ターゲット情報取得部
81 撮像部
82 表示部
Claims (8)
- ユーザの位置情報を示す第1位置情報と、前記ユーザの方向情報とを取得する第1取得手段と、
所定の物体の位置情報を示す第2位置情報を取得する第2取得手段と、
前記第1位置情報と、前記第2位置情報と、前記方向情報とに基づいて、前記所定の物体に関連する音声情報であって、前記所定の物体に音像が定位された音声情報を生成する生成手段と、
前記生成された音声情報を前記ユーザに対して出力する制御を実行する制御手段と、を備え、
前記方向情報は、前記ユーザの顔方向を含み、
前記制御手段は、前記第1位置情報と、前記顔方向と、前記第2位置情報とに基づいて、前記顔方向に前記所定の物体が存在するか否かに応じた音声情報を出力し、
前記方向情報は、前記ユーザの視線方向を含み、
前記ユーザは、複数のユーザであり、
前記第2取得手段は、
前記複数のユーザが撮像された撮像画像に基づいて、前記複数のユーザの各々の視線方向を推定し、前記推定された複数のユーザの各々の視線方向が交わる位置を推定し、前記推定された位置に基づいて前記所定の物体の位置情報を示す第2位置情報を取得する情報処理装置。 - 前記制御手段は、前記第1位置情報と、前記第2位置情報と、前記視線方向とに基づいて、前記視線方向に前記所定の物体が存在するか否かに応じた音声情報を出力する、請求項1に記載の情報処理装置。
- 前記生成手段は、前記所定の物体に関連する表示情報を生成し、
前記制御手段は、前記ユーザが所有する通信端末の画面に前記表示情報を表示する制御を実行する、請求項1又は2に記載の情報処理装置。 - 前記制御手段は、前記音声情報を出力するタイミングにおいて、前記表示情報を表示可能に制御する、請求項3に記載の情報処理装置。
- 前記制御手段は、前記音声情報を出力するタイミングにおいて、前記表示情報が前記画面に表示されることを前記ユーザに通知する、請求項3又は4に記載の情報処理装置。
- 前記所定の物体は、複数の物体を含み、
前記第2取得手段は、前記複数の物体の各々の位置情報を取得するとともに、前記複数の物体が同種類であるのか否かを判定し、
前記生成手段は、前記第2取得手段の判定結果に応じた前記音声情報を生成する、請求項1~5のいずれか1項に記載の情報処理装置。 - ユーザの位置情報を示す第1位置情報と、前記ユーザの方向情報とを取得すること、
所定の物体の位置情報を示す第2位置情報を取得すること、
前記第1位置情報と、前記第2位置情報と、前記方向情報とに基づいて、前記所定の物体に関連する音声情報であって、前記所定の物体に音像が定位された音声情報を生成すること、及び
前記生成された音声情報を前記ユーザに対して出力する制御を実行すること、を含み、
前記方向情報は、前記ユーザの顔方向を含み、
前記制御を実行することは、前記第1位置情報と、前記顔方向と、前記第2位置情報とに基づいて、前記顔方向に前記所定の物体が存在するか否かに応じた音声情報を出力することを含み、
前記方向情報は、前記ユーザの視線方向を含み、
前記ユーザは、複数のユーザであり、
前記所定の物体の位置情報を示す第2位置情報を取得することは、前記複数のユーザが撮像された撮像画像に基づいて、前記複数のユーザの各々の視線方向を推定し、前記推定された複数のユーザの各々の視線方向が交わる位置を推定し、前記推定された位置に基づいて前記所定の物体の位置情報を示す第2位置情報を取得することを含む、制御方法。 - コンピュータに実行させる制御プログラムであって、
前記制御プログラムは、
ユーザの位置情報を示す第1位置情報と、前記ユーザの方向情報とを取得し、
所定の物体の位置情報を示す第2位置情報を取得し、
前記第1位置情報と、前記第2位置情報と、前記方向情報とに基づいて、前記所定の物体に関連する音声情報であって、前記所定の物体に音像が定位された音声情報を生成し、
前記生成された音声情報を前記ユーザに対して出力する制御を実行する、処理を含み、
前記方向情報は、前記ユーザの顔方向を含み、
前記制御を実行する処理は、前記第1位置情報と、前記顔方向と、前記第2位置情報とに基づいて、前記顔方向に前記所定の物体が存在するか否かに応じた音声情報を出力する処理を含み、
前記方向情報は、前記ユーザの視線方向を含み、
前記ユーザは、複数のユーザであり、
前記所定の物体の位置情報を示す第2位置情報を取得する処理は、前記複数のユーザが撮像された撮像画像に基づいて、前記複数のユーザの各々の視線方向を推定し、前記推定された複数のユーザの各々の視線方向が交わる位置を推定し、前記推定された位置に基づいて前記所定の物体の位置情報を示す第2位置情報を取得する処理を含む、制御プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019219107 | 2019-12-03 | ||
JP2019219107 | 2019-12-03 | ||
PCT/JP2020/044988 WO2021112161A1 (ja) | 2019-12-03 | 2020-12-03 | 情報処理装置、制御方法及び非一時的なコンピュータ可読媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021112161A1 JPWO2021112161A1 (ja) | 2021-06-10 |
JPWO2021112161A5 JPWO2021112161A5 (ja) | 2022-08-05 |
JP7428189B2 true JP7428189B2 (ja) | 2024-02-06 |
Family
ID=76222338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021562705A Active JP7428189B2 (ja) | 2019-12-03 | 2020-12-03 | 情報処理装置、制御方法及び制御プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US12108238B2 (ja) |
JP (1) | JP7428189B2 (ja) |
WO (1) | WO2021112161A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002199498A (ja) | 2000-12-25 | 2002-07-12 | Victor Co Of Japan Ltd | 音源の音像定位方法及び音像定位を行うゲーム装置並びに音像定位プログラムの記録された記録媒体並びにかかるプログラムの伝送方法 |
JP2008200255A (ja) | 2007-02-20 | 2008-09-04 | Copcom Co Ltd | ゲーム装置、ゲームプログラムおよび記憶媒体 |
JP2012212237A (ja) | 2011-03-30 | 2012-11-01 | Namco Bandai Games Inc | 画像生成システム、サーバシステム、プログラム及び情報記憶媒体 |
JP2019197478A (ja) | 2018-05-11 | 2019-11-14 | 株式会社ソニー・インタラクティブエンタテインメント | プログラム、及び情報処理装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018097437A (ja) | 2016-12-08 | 2018-06-21 | 株式会社テレパシージャパン | ウェアラブル情報表示端末及びこれを備えるシステム |
WO2020242506A1 (en) * | 2019-05-31 | 2020-12-03 | Dts, Inc. | Foveated audio rendering |
-
2020
- 2020-12-03 WO PCT/JP2020/044988 patent/WO2021112161A1/ja active Application Filing
- 2020-12-03 JP JP2021562705A patent/JP7428189B2/ja active Active
- 2020-12-03 US US17/781,624 patent/US12108238B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002199498A (ja) | 2000-12-25 | 2002-07-12 | Victor Co Of Japan Ltd | 音源の音像定位方法及び音像定位を行うゲーム装置並びに音像定位プログラムの記録された記録媒体並びにかかるプログラムの伝送方法 |
JP2008200255A (ja) | 2007-02-20 | 2008-09-04 | Copcom Co Ltd | ゲーム装置、ゲームプログラムおよび記憶媒体 |
JP2012212237A (ja) | 2011-03-30 | 2012-11-01 | Namco Bandai Games Inc | 画像生成システム、サーバシステム、プログラム及び情報記憶媒体 |
JP2019197478A (ja) | 2018-05-11 | 2019-11-14 | 株式会社ソニー・インタラクティブエンタテインメント | プログラム、及び情報処理装置 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021112161A1 (ja) | 2021-06-10 |
US12108238B2 (en) | 2024-10-01 |
US20230059119A1 (en) | 2023-02-23 |
WO2021112161A1 (ja) | 2021-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11531518B2 (en) | System and method for differentially locating and modifying audio sources | |
JP6747538B2 (ja) | 情報処理装置 | |
CN108141696B (zh) | 用于空间音频调节的系统和方法 | |
US9271103B2 (en) | Audio control based on orientation | |
US10257637B2 (en) | Shoulder-mounted robotic speakers | |
US9774978B2 (en) | Position determination apparatus, audio apparatus, position determination method, and program | |
US12032155B2 (en) | Method and head-mounted unit for assisting a hearing-impaired user | |
US9832587B1 (en) | Assisted near-distance communication using binaural cues | |
JP7100824B2 (ja) | データ処理装置、データ処理方法及びプログラム | |
JP7326922B2 (ja) | 符号化された光線を用いてスピーカアレイ及びマイクロフォンアレイを誘導するシステム、方法、及びプログラム | |
CN117981347A (zh) | 用于对虚拟声源进行空间化的音频系统 | |
US20240031759A1 (en) | Information processing device, information processing method, and information processing system | |
JP2020173656A (ja) | 情報処理装置、情報処理方法、及び記録媒体 | |
EP3113505A1 (en) | A head mounted audio acquisition module | |
JP7384222B2 (ja) | 情報処理装置、制御方法及びプログラム | |
US11415428B2 (en) | Audio information providing system, control method, and non-transitory computer readable medium | |
JP7428189B2 (ja) | 情報処理装置、制御方法及び制御プログラム | |
US10820132B2 (en) | Voice providing device and voice providing method | |
US9992536B2 (en) | Information provision device, information provision method, and information provision system | |
US20230122450A1 (en) | Anchored messages for augmented reality | |
JP2018067157A (ja) | 通信装置およびその制御方法 | |
KR20170022272A (ko) | 녹음 시스템 및 녹음 방법 | |
US20230370798A1 (en) | Information processing device, control method, non-transitory computer-readable medium, and information processing system | |
US20230101693A1 (en) | Sound processing apparatus, sound processing system, sound processing method, and non-transitory computer readable medium storing program | |
WO2024134736A1 (ja) | ヘッドマウントディスプレイ装置および立体音響の制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220601 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A527 Effective date: 20220601 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220601 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240108 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7428189 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |