JP6930547B2 - 情報処理装置、情報処理方法およびそのプログラム - Google Patents
情報処理装置、情報処理方法およびそのプログラム Download PDFInfo
- Publication number
- JP6930547B2 JP6930547B2 JP2018564169A JP2018564169A JP6930547B2 JP 6930547 B2 JP6930547 B2 JP 6930547B2 JP 2018564169 A JP2018564169 A JP 2018564169A JP 2018564169 A JP2018564169 A JP 2018564169A JP 6930547 B2 JP6930547 B2 JP 6930547B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- information processing
- processing device
- image
- visual effect
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/205—3D [Three Dimensional] animation driven by audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/687—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Description
前記認識部は、実空間の物体を認識するように構成される。
前記処理部は、音楽の特徴量に応じて、前記認識部により認識された前記物体の画像である対象物体画像に視覚エフェクト処理を実行するように構成される。
前記処理部は、音楽のデータに付随するメタ情報に応じて、前記認識部により認識された前記物体の画像である対象物体画像に視覚エフェクト処理を実行するように構成される。
音楽の特徴量に応じて、認識された前記物体の画像である対象物体画像に視覚エフェクト処理が実行される。
音楽のデータに付随するメタ情報に応じて、認識された前記物体の画像である対象物体画像に視覚エフェクト処理が実行される。
図1は、本技術の実施形態1に係る情報処理装置の構成を示すブロック図である。情報処理装置100は、例えば、スマートフォン、タブレット型コンピュータ、ヘッドマウントディスプレイデバイス、また、その他の携帯型、ウェアラブル型、または非携帯型のコンピュータである。あるいは、情報処理装置100は、本技術に最適化された専用のデバイスであってもよい。
図3は、視覚エフェクト処理による合成画像の例1を示す。例1に係る実空間画像は夜の道路の風景である。音楽の特徴量は、例えば周波数帯域ごとの信号レベルである。画像認識部11は、街灯や照明(あるいは、所定の面積以上の光源70)の画像を対象物体画像として認識する。処理部13は、再生されている音楽の周波数帯域に応じて、光源70の周囲にエフェクト画像としてリング72を重畳する。すなわち、処理部13は、周波数帯域ごとに複数の異なる光源(対象物体画像)70a、70b、70cを割り当て、それら複数の対象物体画像に視覚エフェクト処理を実行する。
図4は、視覚エフェクト処理による合成画像の例2を示す。例2に係る実空間画像は、ビルディング群の風景である。音楽の特徴量は、例えば周波数帯域ごとの信号レベルである。画像認識部11は、建物75を認識する。処理部13は、再生されている音楽の周波数帯域に応じて、エフェクト画像として、当該建物75の外形またはそれに似た外形を持つ画像77を建物に重畳する。エフェクト画像は、例えば上下に伸縮するようなアニメーション画像で構成される。
図5は、視覚エフェクト処理による合成画像の例3を示す。例3に係る実空間画像は、主に夜空の風景である。画像認識部11は、実空間画像の輝度(または明度)、色、およびその他の条件に基づき夜空を認識する。処理部13は、再生されている音楽の周波数帯域に応じて、エフェクト画像として、異なる大きさの花火80のアニメーションを夜空の画像(対象物体画像)に重畳する。例えば、低音なら大きい花火、高音なら小さい花火のエフェクト画像が生成される。花火80を観る観客の対象物体画像にも、音楽に連動する動く視覚エフェクト処理が実行されてもよい。
図6は、視覚エフェクト処理による合成画像の例4を示す。例4に係る実空間画像は、図3と同様に、対象物体画像として光源70の画像を含む。特徴量抽出部17は、音楽の特徴量として、音源の位置を抽出する。処理部13は、それら音源の位置ごとに光源70の画像(対象物体画像)を割り当て、視覚エフェクト処理を実行する。
特徴量抽出部17は、音楽の特徴量として、テンポ(スピード)を抽出してもよい。図3のような光源70を含む実空間画像を例に挙げると、処理部13は、スローテンポな曲の場合には、大きな面積(または高い輝度)の光源70cにもにリング72を重畳する。一方、処理部13は、アップテンポな曲の場合には、光源70の面積(または輝度)の大小を問わず、それらの光源70にリング72を重畳する。
処理部13は、メタ情報として歌詞またはタイトルを取得したとする。処理部13は、歌詞またはタイトル内のワードに、予め決められたキーワードがあるか否かを判定する。キーワードがあれば、処理部13は、そのキーワードに対応するエフェクト画像を生成する。例えば、キーワードとして「花」がある場合、予め決められた花のエフェクト画像を生成する。処理部13は、その花のエフェクト画像を、任意の実空間画像内に重畳して表示する。
処理部13は、上記処理例1と同様に、メタ情報として歌詞またはタイトルを取得し、かつ、物体IDを取得したとする。処理部13は、この歌詞またはタイトル内のワードに、予め決められたキーワードがあるか否かを判定する。また処理部13は、画像認識部11により認識される対象物体画像の物体の種類が、取得した物体IDと一致するか否かを判定する。歌詞またはタイトル内にキーワードがあり、かつ、対象物体画像の物体の種類が物体IDと一致する場合、処理部13は、キーワードに対応するエフェクト画像を生成する。そして処理部13は、そのエフェクト画像を、その対象物体画像を含む実空間画像に重畳して表示する。
処理部13は、歌詞やタイトル等の音楽データに関する情報の他、視覚エフェクト処理に関する設定情報(視覚エフェクト設定情報)を含むメタ情報を取得する。視覚エフェクト設定情報は、例えば、視覚エフェクトの強度(表示の大きさや面積)、表示スピード、表示頻度、表示色など、視覚エフェクト処理を設定するめの情報である。
例えば、メタ情報に「灯り」のキーワードが含まれている場合、画像認識部11は、そのキーワードに応じて実空間画像内の光源領域を認識してもよい。
情報処理装置は、上述した周辺環境として、ユーザの動きの情報を取得し、その動きの情報、および/または、特徴量に応じて、視覚エフェクトを処理を実行してもよい。ユーザの動きの情報として、例えば心拍数、腕振り、ランニングスピードなどが挙げられる。
情報処理装置が適用されるデバイスは、上述したスマートフォン等だけでなく、プロジェクタであってもよい。プロジェクタにより、窓やドアにプロジェクションマッピングするような視覚エフェクト処理が実行され得る。
ユーザは、情報処理装置を利用して音楽を聴きく傾向が高い場所では、予め設定された視覚エフェクト処理が実行されてもよい。当該場所も予め設定されていてもよい。すなわち、所定の場所でユーザがこの情報処理装置で音楽を聴くと、所定の視覚エフェクト処理が実行される。
例えば、本技術は広告等に利用されるデジタルサイネージにも適用され得る。この場合、情報処理装置の表示部14は、デジタルサイネージに利用される表示部14である。処理部13は、その表示部14に映っている実空間画像に対して、音楽に基づく視覚エフェクト処理が実行される。音楽データは、例えばその広告主や店舗が提供する音楽、あるいは、そのデジタルサイネージのディスプレイの周囲からマイクロフォンで検出される音楽であってもよい。
例えば、音楽はユーザの歌声であってもよい。この場合、情報処理装置は、ユーザの歌声を検出するマイクロフォンと、音楽データとして記憶する記憶部とを備える。記憶部は、クラウド上のサーバにあってもよい。
情報処理装置は、音楽の歌詞内容やタイトル内容を解析する解析部を備えていてもよい。解析部は、その解析に基づき、ストーリーの要約や、キーワードを生成するように構成される。例えば生成された要約やキーワードに「灯り」が含まれる場合であって、かつ、対象物体画像として光源の画像が実空間画像に含まれる場合、処理部13は、その光源の画像に視覚エフェクト処理を実行できる。
上記各実施形態に係る情報処理装置において、例えば画像認識部11、音楽データ記憶部15、デコード部161、特徴量抽出部17、処理部13、メタ情報記憶部20、および上記6.6)例6で説明した解析部のうち少なくとも1つは、情報処理装置がアクセス可能なクラウド上のサーバが有する機能であってもよい。
(1)
実空間の物体を認識するように構成された認識部と、
音楽の特徴量に応じて、前記認識部により認識された前記物体の画像である対象物体画像に視覚エフェクト処理を実行するように構成された処理部と
を具備する情報処理装置。
(2)
前記(1)に記載の情報処理装置であって、
前記処理部は、前記物体の種類に関連付けられた視覚エフェクト処理を実行するように構成される
情報処理装置。
(3)
前記(1)または(2)に記載の情報処理装置であって、
前記処理部は、前記特徴量として前記音楽の周波数帯域を取得し、前記周波数帯域ごとに、複数の物体に対応する複数の対象物体画像を割り当て、それら複数の対象物体画像に前記視覚エフェクト処理を実行するように構成される
情報処理装置。
(4)
前記(1)または(2)に記載の情報処理装置であって、
前記処理部は、前記特徴量として前記音楽の音源の位置情報を取得し、前記音源の位置ごとに、複数の物体に対応する複数の対象物体画像を割り当て、それら複数の対象物体画像に前記視覚エフェクト処理を実行するように構成される
情報処理装置。
(5)
前記(3)または(4)に記載の情報処理装置であって、
前記処理部は、前記複数の対象物体画像に異なる複数の視覚エフェクト処理をそれぞれ実行するように構成される
情報処理装置。
(6)
前記(1)または(2)に記載の情報処理装置であって、
前記処理部は、前記特徴量として前記音楽のテンポの情報を取得し、前記テンポに応じて前記視覚エフェクト処理を実行するように構成される
情報処理装置。
(7)
前記(1)または(2)に記載の情報処理装置であって、
前記処理部は、前記特徴量として前記音楽の調の情報を取得し、前記調に応じて前記視覚エフェクト処理を実行するように構成される
情報処理装置。
(8)
前記(1)から(7)のうちいずれか1項に記載の情報処理装置であって、
前記処理部は、前記音楽のデータに付随するメタ情報を取得し、前記メタ情報に基づき、前記視覚エフェクト処理を実行するように構成される
情報処理装置。
(9)
前記(8)に記載の情報処理装置であって、
前記メタ情報は、前記視覚エフェクト処理に関する設定の情報である視覚エフェクト設定情報を含む
情報処理装置。
(10)
前記(1)から(9)のうちいずれか1項に記載の情報処理装置であって、
前記音楽のデータから前記特徴量を抽出する特徴量抽出部をさらに具備する情報処理装置。
(11)
前記(1)から(10)のうちいずれか1項に記載の情報処理装置であって、
前記特徴量、前記物体、および前記視覚エフェクト処理の内容のうち少なくとも1つを、ユーザーに設定させる処理を実行するように構成された設定部をさらに具備する情報処理装置。
(12)
前記(1)から(10)のうちいずれか1項に記載の情報処理装置であって、
前記情報処理装置の周辺環境の情報を取得するように構成された周辺環境情報取得部をさらに具備し、
前記処理部は、前記周辺環境の情報に基づき、前記視覚エフェクト処理をさらに実行するように構成される
情報処理装置。
(13)
前記(12)に記載の情報処理装置であって、
前記周辺環境取得部は、前記情報処理装置の位置情報、前記情報処理装置が置かれる自然環境情報、または、ユーザーの生体情報を、前記周辺環境の情報として取得するように構成される
情報処理装置。
(14)
実空間の物体を認識するように構成された認識部と、
音楽のデータに付随するメタ情報に応じて、前記認識部により認識された前記物体の画像である対象物体画像に視覚エフェクト処理を実行するように構成された処理部と
を具備する情報処理装置。
(15)
実空間の物体を認識し、
音楽の特徴量に応じて、認識された前記物体の画像である対象物体画像に視覚エフェクト処理を実行する
を具備する情報処理方法。
(16)
実空間の物体を認識し、
音楽のデータに付随するメタ情報に応じて、認識された前記物体の画像である対象物体画像に視覚エフェクト処理を実行する
を具備する情報処理方法。
(17)
実空間の物体を認識し、
音楽の特徴量に応じて、認識された前記物体の画像である対象物体画像に視覚エフェクト処理を実行する
ことを情報処理装置に実行させるプログラム。
(18)
実空間の物体を認識し、
音楽のデータに付随するメタ情報に応じて、認識された前記物体の画像である対象物体画像に視覚エフェクト処理を実行する
ことを情報処理装置に実行させるプログラム。
11…画像認識部
13…処理部
14…表示部
15…音楽データ記憶部
16…再生処理部
17…特徴量抽出部
18…スピーカー
19…操作部
20…メタ情報記憶部
100、200、300…情報処理装置
Claims (11)
- 実空間の物体を認識するように構成された認識部と、
音楽の特徴量に応じて、前記認識部により認識された前記物体の画像である対象物体画像に視覚エフェクト処理を実行するように構成された処理部と
を具備し、
前記処理部は、前記特徴量として前記音楽の周波数帯域を取得し、前記周波数帯域ごとに、複数の物体に対応する複数の対象物体画像を割り当て、それら複数の対象物体画像に前記視覚エフェクト処理を実行するように構成される
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記処理部は、前記物体の種類に関連付けられた視覚エフェクト処理を実行するように構成される
情報処理装置。 - 請求項1又は2に記載の情報処理装置であって、
前記処理部は、前記複数の対象物体画像に異なる複数の視覚エフェクト処理をそれぞれ実行するように構成される
情報処理装置。 - 請求項1から3のうちいずれか1項に記載の情報処理装置であって、
前記処理部は、前記音楽のデータに付随するメタ情報を取得し、前記メタ情報に基づき、前記視覚エフェクト処理を実行するように構成される
情報処理装置。 - 請求項4に記載の情報処理装置であって、
前記メタ情報は、前記視覚エフェクト処理に関する設定の情報である視覚エフェクト設定情報を含む
情報処理装置。 - 請求項1から5のうちいずれか1項に記載の情報処理装置であって、
前記音楽のデータから前記特徴量を抽出する特徴量抽出部をさらに具備する情報処理装置。 - 請求項1から6のうちいずれか1項に記載の情報処理装置であって、
前記特徴量、前記物体、および前記視覚エフェクト処理の内容のうち少なくとも1つを、ユーザーに設定させる処理を実行するように構成された設定部をさらに具備する情報処理装置。 - 請求項1から6のうちいずれか1項に記載の情報処理装置であって、
前記情報処理装置の周辺環境の情報を取得するように構成された周辺環境情報取得部をさらに具備し、
前記処理部は、前記周辺環境の情報に基づき、前記視覚エフェクト処理をさらに実行するように構成される
情報処理装置。 - 請求項8に記載の情報処理装置であって、
前記周辺環境情報取得部は、前記情報処理装置の位置情報、前記情報処理装置が置かれる自然環境情報、または、ユーザーの生体情報を、前記周辺環境の情報として取得するように構成される
情報処理装置。 - コンピュータにより実行される情報処理方法であって、
実空間の物体を認識する認識ステップと、
音楽の特徴量に応じて、認識された前記物体の画像である対象物体画像に視覚エフェクト処理を実行する処理ステップと
を具備し、
前記処理ステップは、前記特徴量として前記音楽の周波数帯域を取得し、前記周波数帯域ごとに、複数の物体に対応する複数の対象物体画像を割り当て、それら複数の対象物体画像に前記視覚エフェクト処理を実行する
情報処理方法。 - コンピュータに情報処理方法を実行させるプログラムであって、
前記情報処理方法は、
実空間の物体を認識する認識ステップと、
音楽の特徴量に応じて、認識された前記物体の画像である対象物体画像に視覚エフェクト処理を実行する処理ステップと
を具備し、
前記処理ステップは、前記特徴量として前記音楽の周波数帯域を取得し、前記周波数帯域ごとに、複数の物体に対応する複数の対象物体画像を割り当て、それら複数の対象物体画像に前記視覚エフェクト処理を実行する
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017013494 | 2017-01-27 | ||
JP2017013494 | 2017-01-27 | ||
PCT/JP2017/045619 WO2018139117A1 (ja) | 2017-01-27 | 2017-12-20 | 情報処理装置、情報処理方法およびそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018139117A1 JPWO2018139117A1 (ja) | 2019-11-14 |
JP6930547B2 true JP6930547B2 (ja) | 2021-09-01 |
Family
ID=62978555
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018564169A Active JP6930547B2 (ja) | 2017-01-27 | 2017-12-20 | 情報処理装置、情報処理方法およびそのプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11037370B2 (ja) |
JP (1) | JP6930547B2 (ja) |
KR (1) | KR102410840B1 (ja) |
CN (1) | CN110214343B (ja) |
WO (1) | WO2018139117A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7456232B2 (ja) | 2020-03-26 | 2024-03-27 | 大日本印刷株式会社 | フォトムービー生成システム、フォトムービー生成装置、ユーザ端末、フォトムービー生成方法、及びプログラム |
CN111540032B (zh) * | 2020-05-27 | 2024-03-15 | 网易(杭州)网络有限公司 | 基于音频的模型控制方法、装置、介质及电子设备 |
CN111833460A (zh) * | 2020-07-10 | 2020-10-27 | 北京字节跳动网络技术有限公司 | 增强现实的图像处理方法、装置、电子设备及存储介质 |
JP2022069007A (ja) * | 2020-10-23 | 2022-05-11 | 株式会社アフェクション | 情報処理システム、情報処理方法および情報処理プログラム |
CN113192152A (zh) * | 2021-05-24 | 2021-07-30 | 腾讯音乐娱乐科技(深圳)有限公司 | 基于音频的图像生成方法、电子设备及存储介质 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4144960B2 (ja) * | 1999-03-18 | 2008-09-03 | 三洋電機株式会社 | 撮像装置及び画像合成装置並びに方法 |
JP2004271901A (ja) * | 2003-03-07 | 2004-09-30 | Matsushita Electric Ind Co Ltd | 地図表示装置 |
JP4221308B2 (ja) * | 2004-01-15 | 2009-02-12 | パナソニック株式会社 | 静止画再生装置、静止画再生方法及びプログラム |
JP4978765B2 (ja) | 2005-07-25 | 2012-07-18 | ソニー株式会社 | 再生制御装置および方法、並びにプログラム |
JP5613991B2 (ja) * | 2009-03-31 | 2014-10-29 | 株式会社ニコン | 再生演出プログラムおよび再生演出装置 |
CN101577114B (zh) * | 2009-06-18 | 2012-01-25 | 无锡中星微电子有限公司 | 一种音频可视化实现方法及装置 |
JP5652097B2 (ja) | 2010-10-01 | 2015-01-14 | ソニー株式会社 | 画像処理装置、プログラム及び画像処理方法 |
KR101343609B1 (ko) * | 2011-08-24 | 2014-02-07 | 주식회사 팬택 | 증강 현실 데이터를 이용할 수 있는 어플리케이션 자동 추천 장치 및 방법 |
WO2014199453A1 (ja) * | 2013-06-11 | 2014-12-18 | Toa株式会社 | マイクロホンアレイ制御装置 |
CN105513583B (zh) * | 2015-11-25 | 2019-12-17 | 福建星网视易信息系统有限公司 | 一种歌曲节奏的显示方法及其系统 |
CN105872838A (zh) * | 2016-04-28 | 2016-08-17 | 徐文波 | 即时视频的媒体特效发送方法和装置 |
-
2017
- 2017-12-20 KR KR1020197020671A patent/KR102410840B1/ko active IP Right Grant
- 2017-12-20 CN CN201780084009.7A patent/CN110214343B/zh active Active
- 2017-12-20 WO PCT/JP2017/045619 patent/WO2018139117A1/ja active Application Filing
- 2017-12-20 JP JP2018564169A patent/JP6930547B2/ja active Active
- 2017-12-20 US US16/478,272 patent/US11037370B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2018139117A1 (ja) | 2018-08-02 |
CN110214343A (zh) | 2019-09-06 |
JPWO2018139117A1 (ja) | 2019-11-14 |
KR102410840B1 (ko) | 2022-06-21 |
US11037370B2 (en) | 2021-06-15 |
CN110214343B (zh) | 2023-02-03 |
KR20190109410A (ko) | 2019-09-25 |
US20200134921A1 (en) | 2020-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6930547B2 (ja) | 情報処理装置、情報処理方法およびそのプログラム | |
US10764230B2 (en) | Low latency audio watermark embedding | |
US20200221247A1 (en) | Method of providing to user 3d sound in virtual environment | |
Bull | The Routledge companion to sound studies | |
Krause | Voices of the wild: animal songs, human din, and the call to save natural soundscapes | |
WO2021103314A1 (zh) | 一种构造听音场景的方法和相关装置 | |
US20150032766A1 (en) | System and methods for the presentation of media in a virtual environment | |
CN110992970B (zh) | 音频合成方法及相关装置 | |
KR20120081874A (ko) | 증강 현실을 이용한 노래방 시스템 및 장치, 이의 노래방 서비스 방법 | |
Nanay | The multimodal experience of art | |
WO2018122452A1 (en) | An apparatus and associated methods | |
US9646585B2 (en) | Information processing apparatus, information processing method, and program | |
US20220246135A1 (en) | Information processing system, information processing method, and recording medium | |
ES2396461T3 (es) | Procedimiento de navegación en un contenido sonoro | |
CN109802987A (zh) | 用于显示装置的内容推送方法、推送装置和显示设备 | |
Zhang et al. | Study on application of audio visualization in new media art | |
US20240071377A1 (en) | Method and device for presenting a cgr environment based on audio data and lyric data | |
WO2022102446A1 (ja) | 情報処理装置、情報処理方法、情報処理システム、及びデータ生成方法 | |
KR102235027B1 (ko) | 박자 시각화 장치, 방법 및 성악용 박자 보표 | |
US20220036659A1 (en) | System and Method for Simulating an Immersive Three-Dimensional Virtual Reality Experience | |
Baker | Staging Narcocorridos: Las Reinas Chulas' Dissident Audio-Visual Performance | |
Miranda | Introduction: Leonardo Music Journal 29 | |
CN116524131A (zh) | 基于ar眼镜增强氛围的方法、装置、设备和存储介质 | |
Osborn | An Open Educational Resource for the Analysis of Music Video | |
Cliffe | Audio augmented objects and the audio augmented reality experience |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210316 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210713 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210726 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6930547 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |