JP7470137B2 - 視覚的特徴をサウンドタグに相関させることによるビデオタグ付け - Google Patents
視覚的特徴をサウンドタグに相関させることによるビデオタグ付け Download PDFInfo
- Publication number
- JP7470137B2 JP7470137B2 JP2021564437A JP2021564437A JP7470137B2 JP 7470137 B2 JP7470137 B2 JP 7470137B2 JP 2021564437 A JP2021564437 A JP 2021564437A JP 2021564437 A JP2021564437 A JP 2021564437A JP 7470137 B2 JP7470137 B2 JP 7470137B2
- Authority
- JP
- Japan
- Prior art keywords
- sfx
- sound
- video
- model
- inputting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 title claims description 30
- 238000005094 computer simulation Methods 0.000 claims description 35
- 238000013527 convolutional neural network Methods 0.000 claims description 35
- 230000000694 effects Effects 0.000 claims description 33
- 238000012549 training Methods 0.000 claims description 33
- 238000013528 artificial neural network Methods 0.000 claims description 25
- 238000000034 method Methods 0.000 claims description 20
- 239000000203 mixture Substances 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 14
- 238000010801 machine learning Methods 0.000 claims description 9
- 230000000306 recurrent effect Effects 0.000 claims description 9
- 239000013598 vector Substances 0.000 claims description 8
- 230000002457 bidirectional effect Effects 0.000 claims description 6
- 238000009877 rendering Methods 0.000 claims 1
- 238000013459 approach Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 230000015654 memory Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000004088 simulation Methods 0.000 description 6
- 230000001413 cellular effect Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000006978 adaptation Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000001931 thermography Methods 0.000 description 2
- 206010039740 Screaming Diseases 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 235000019580 granularity Nutrition 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000013403 standard screening design Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/036—Insert-editing
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/11—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
- H04N9/8211—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a sound signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/87—Regeneration of colour television signals
- H04N9/8715—Regeneration of colour television signals involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal
Description
Claims (18)
- 少なくとも1つのプロセッサと、
命令を含む少なくとも1つのコンピュータストレージと、
を備える装置であって、
前記命令は、前記少なくとも1つのプロセッサに、
サウンドエフェクト(SFX)を分類して、分類されたSFXをレンダリングすることと、
少なくとも1つの機械学習エンジンを使用して、第1のコンピュータシミュレーションの視覚的特徴と前記分類されたSFXとの間の学習された相関関係に基づいて、少なくとも前記第1のコンピュータシミュレーションに対し、前記分類されたSFXのうちの少なくとも第1のSFXを出力することと、
前記視覚的特徴とSFXタグとの間の相関関係を学習するようにトレーニングされる少なくとも第1のニューラルネットワーク(NN)に、サウンドが抽出された前記第1のコンピュータシミュレーションを入力することと、
前記第1のNNに、抽出された前記サウンドを第1の混音SFXモデルに入力することにより前記第1の混音SFXモデルから出力された混音SFXのグラウンドトゥルース分類を入力することと、
を実行させる、前記装置。 - 前記命令は、前記少なくとも1つのプロセッサに、
前記視覚的特徴と、前記分類されたSFXのうちの前記第1のSFXの分類との直接マッピングを使用して、前記第1のコンピュータシミュレーションに対し、前記分類されたSFXのうちの前記第1のSFXを推薦すること、
を実行させる、請求項1に記載の装置。 - 前記命令は、前記少なくとも1つのプロセッサに、
前記第1の混音SFXモデルにトレーニングデータを入力して、前記第1の混音SFXモデルをトレーニングすることを、実行させ、前記トレーニングデータは、1つ以上のコンピュータシミュレーションからのオーディオクリップと、前記1つ以上のコンピュータシミュレーションとは別に生成された合成オーディオクリップとを含む、
請求項1に記載の装置。 - 前記命令は、前記少なくとも1つのプロセッサに、
前記第1の混音SFXモデルの複数の畳み込みNN(CNN)に前記トレーニングデータを入力して第1の出力をレンダリングすることと、
前記第1の出力を分類マッパーに入力して、SFXの予測を含む第2の出力をレンダリングすることと、
を実行させる、請求項3に記載の装置。 - 前記第1の混音SFXモデルは、
複数のゲート付き畳み込みニューラルネットワーク(CNN)と、
前記複数のゲート付きCNNの出力を受信するように構成された少なくとも1つの双方向リカレントニューラルネットワーク(RNN)と、
前記RNNの出力を受信するように構成された複数のアテンションベースのフィードフォワードニューラルネットワーク(FNN)と、
を備える、請求項1に記載の装置。 - 前記第1の混音SFXモデルは、
複数のゲート付き畳み込みニューラルネットワーク(CNN)であって、これらのうちの少なくとも1つは、前記トレーニングデータを受信するように構成される、前記複数のゲート付きCNNと、
前記複数のゲート付きCNNの出力を受信するように構成された少なくとも第1の分類器(CLF)ネットワークと、
前記複数のゲート付きCNNの出力を受信するように構成された少なくとも第2のCLFネットワークと、
を備える、請求項3に記載の装置。 - 前記第1のCLFネットワークは、1つ以上のコンピュータシミュレーションからの前記オーディオクリップと前記合成オーディオクリップとの両方からのデータを入力する前記複数のゲート付きCNNから、出力を受信するように構成された32カテゴリの教師ありネットワークである、請求項6に記載の装置。
- 前記第2のCLFネットワークは、1つ以上のコンピュータシミュレーションの前記オーディオクリップからではなく、前記合成オーディオクリップからのデータを入力する前記複数のゲート付きCNNから、出力を受信するように構成された182カテゴリの教師ありネットワークである、請求項7に記載の装置。
- 少なくとも1つのプロセッサと、
命令を含む少なくとも1つのコンピュータストレージと、
を備える装置であって、
前記命令は、前記少なくとも1つのプロセッサに、
少なくとも第1のサウンドエフェクト(SFX)推薦エンジンをトレーニングすることと、
少なくともサウンドのない第1のビデオに対し、少なくとも1つのSFXを推薦することと、
を実行させ、
前記SFX推薦エンジンをトレーニングすることは、
サイレントビデオフレームと混音SFXラベルを複数の残差ニューラルネットワーク(Resnet)に入力することと、
前記Resnetの出力を少なくとも1つの双方向ゲート付きリカレントユニットに入力して、ベクトルをレンダリングすることと、
を含み、
前記少なくとも1つのSFXを推薦することは、
前記Resnetと前記少なくとも1つの双方向ゲート付きリカレントユニットとをトレーニングした少なくとも1つのトレーニングされるモデルに、少なくともサウンドのない第2のビデオを入力することを含み、
前記トレーニングされるモデルはまた、前記第2のビデオに対する推薦SFXを表す少なくとも1つのSFXタグを出力するように構成される、
前記装置。 - 前記命令は、前記少なくとも1つのプロセッサに、前記推薦SFXを前記第2のビデオと組み合わせることを実行させる、請求項9に記載の装置。
- 前記命令は、前記少なくとも1つのプロセッサに、
第1の混音SFXモデルにトレーニングデータを入力して、前記第1の混音SFXモデルをトレーニングすることを、実行させ、前記トレーニングデータは、1つ以上のコンピュータシミュレーションからのオーディオクリップと、前記1つ以上のコンピュータシミュレーションとは別に生成された合成オーディオクリップとを含む、
請求項9に記載の装置。 - 前記命令は、前記少なくとも1つのプロセッサに、
前記第1の混音SFXモデルの複数の畳み込みNN(CNN)に前記トレーニングデータを入力して第1の出力をレンダリングすることと、
前記第1の出力を分類マッパーに入力して、SFXの予測を含む第2の出力をレンダリングすることと、
を実行させる、請求項11に記載の装置。 - 前記第1の混音SFXモデルは、
複数のゲート付き畳み込みニューラルネットワーク(CNN)であって、これらのうちの少なくとも1つは、前記トレーニングデータを受信するように構成される、前記複数のゲート付きCNNと、
前記複数のゲート付きCNNの出力を受信するように構成された少なくとも第1の分類器(CLF)ネットワークと、
前記複数のゲート付きCNNの出力を受信するように構成された少なくとも第2のCLFネットワークと、
を備える、請求項12に記載の装置。 - 前記第1のCLFネットワークは、1つ以上のコンピュータシミュレーションからの前記オーディオクリップと前記合成オーディオクリップとの両方からのデータを入力する前記複数のゲート付きCNNから、出力を受信するように構成された32カテゴリの教師ありネットワークである、請求項13に記載の装置。
- 前記第2のCLFネットワークは、1つ以上のコンピュータシミュレーションの前記オーディオクリップからではなく、前記合成オーディオクリップからのデータを入力する前記複数のゲート付きCNNから、出力を受信するように構成された細粒度の半教師ありネットワークである、請求項14に記載の装置。
- プロセッサが、
第1のビデオまたは第1のコンピュータシミュレーションにおける第1のサウンドエフェクトと第2のサウンドエフェクトとを分類することと、
前記分類に基づいて、第2のビデオまたは第2のコンピュータシミュレーションのサウンドエフェクト予測を提供することと、
を実行し、
前記分類することは、
コンピュータシミュレーションの視覚的特徴とサウンドエフェクト(SFX)タグとの間の相関関係を学習するようにトレーニングされる少なくとも第1のニューラルネットワーク(NN)に、サウンドが抽出された前記第1のコンピュータシミュレーションと抽出された前記サウンドを第1の混音SFXモデルに入力することにより前記第1の混音SFXモデルから出力された混音SFXのグラウンドトゥルース分類及び/または予測されたSFXタグとを入力することにより、前記第1のNNをトレーニングすることと、
前記第1のNNに前記第1のサウンドエフェクトと前記第2のサウンドエフェクトとを入力することにより、前記分類を取得することと、
を含む、
方法。 - 前記提供することは、前記第2のビデオまたは前記第2のコンピュータシミュレーションにおけるサウンドエフェクトをサウンドエフェクトタグに直接マッピングすることにより前記サウンドエフェクト予測を出力することを含む、請求項16に記載の方法。
- 前記提供することは、前記第2のビデオまたは前記第2のコンピュータシミュレーションの画像認識を行うことにより識別されたオブジェクト、アクション、及びキャプションに基づいて前記サウンドエフェクト予測を出力することを含む、請求項16に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/399,505 US10847186B1 (en) | 2019-04-30 | 2019-04-30 | Video tagging by correlating visual features to sound tags |
US16/399,505 | 2019-04-30 | ||
PCT/US2020/028129 WO2020223007A1 (en) | 2019-04-30 | 2020-04-14 | Video tagging by correlating visual features to sound tags |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022531220A JP2022531220A (ja) | 2022-07-06 |
JP7470137B2 true JP7470137B2 (ja) | 2024-04-17 |
Family
ID=73016085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021564437A Active JP7470137B2 (ja) | 2019-04-30 | 2020-04-14 | 視覚的特徴をサウンドタグに相関させることによるビデオタグ付け |
Country Status (5)
Country | Link |
---|---|
US (2) | US10847186B1 (ja) |
EP (1) | EP3963582A4 (ja) |
JP (1) | JP7470137B2 (ja) |
CN (1) | CN113767434B (ja) |
WO (1) | WO2020223007A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020241073A1 (ja) * | 2019-05-24 | 2020-12-03 | 日本電信電話株式会社 | 音響信号データベース生成装置、音響信号検索装置 |
US11157542B2 (en) * | 2019-06-12 | 2021-10-26 | Spotify Ab | Systems, methods and computer program products for associating media content having different modalities |
US11295756B2 (en) * | 2019-12-27 | 2022-04-05 | Robert Bosch Gmbh | Ontology-aware sound classification |
WO2022158819A1 (en) * | 2021-01-20 | 2022-07-28 | Samsung Electronics Co., Ltd. | Method and electronic device for determining motion saliency and video playback style in video |
CN112784776B (zh) * | 2021-01-26 | 2022-07-08 | 山西三友和智慧信息技术股份有限公司 | 一种基于改进残差网络的bpd面部情绪识别方法 |
CN112883215B (zh) * | 2021-03-17 | 2023-11-03 | 腾讯音乐娱乐科技(深圳)有限公司 | 音效推荐方法 |
US11385891B1 (en) | 2021-04-12 | 2022-07-12 | International Business Machines Corporation | Deep tagged source code issue management |
WO2022221716A1 (en) * | 2021-04-15 | 2022-10-20 | Artiphon, Inc. | Multimedia music creation using visual input |
CN113177478B (zh) * | 2021-04-29 | 2022-08-05 | 西华大学 | 一种基于迁移学习的短视频语义标注方法 |
US20220366881A1 (en) * | 2021-05-13 | 2022-11-17 | Microsoft Technology Licensing, Llc | Artificial intelligence models for composing audio scores |
CN113543137A (zh) * | 2021-07-26 | 2021-10-22 | 国网甘肃省电力公司电力科学研究院 | 一种基于人工智能的新型物联网无线网络攻击检测方法 |
CN113793623B (zh) * | 2021-08-17 | 2023-08-18 | 咪咕音乐有限公司 | 音效设置方法、装置、设备以及计算机可读存储介质 |
CN113723378B (zh) * | 2021-11-02 | 2022-02-08 | 腾讯科技(深圳)有限公司 | 一种模型训练的方法、装置、计算机设备和存储介质 |
WO2023092381A1 (en) * | 2021-11-25 | 2023-06-01 | Nokia Shanghai Bell Co., Ltd. | Devices, methods and computer readable media for vision-assisted data collection for rf sensing |
WO2023239004A1 (en) * | 2022-06-08 | 2023-12-14 | Samsung Electronics Co., Ltd. | System and method for matching a visual source with a sound signal |
GB2623644A (en) * | 2022-09-27 | 2024-04-24 | Samsung Electronics Co Ltd | Method for video action recognition |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190005128A1 (en) | 2017-06-30 | 2019-01-03 | Wipro Limited | Method and system for generating a contextual audio related to an image |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050050419A (ko) * | 2003-11-25 | 2005-05-31 | 엘지전자 주식회사 | 이동 통신 단말기의 통화중 효과음 출력 방법 |
US7818658B2 (en) | 2003-12-09 | 2010-10-19 | Yi-Chih Chen | Multimedia presentation system |
US20050175315A1 (en) * | 2004-02-09 | 2005-08-11 | Glenn Ewing | Electronic entertainment device |
CN101046956A (zh) * | 2006-03-28 | 2007-10-03 | 国际商业机器公司 | 交互式音效产生方法及系统 |
US20110173235A1 (en) | 2008-09-15 | 2011-07-14 | Aman James A | Session automated recording together with rules based indexing, analysis and expression of content |
US8996538B1 (en) | 2009-05-06 | 2015-03-31 | Gracenote, Inc. | Systems, methods, and apparatus for generating an audio-visual presentation using characteristics of audio, visual and symbolic media objects |
US9384214B2 (en) | 2009-07-31 | 2016-07-05 | Yahoo! Inc. | Image similarity from disparate sources |
US9111582B2 (en) | 2009-08-03 | 2015-08-18 | Adobe Systems Incorporated | Methods and systems for previewing content with a dynamic tag cloud |
US9031243B2 (en) * | 2009-09-28 | 2015-05-12 | iZotope, Inc. | Automatic labeling and control of audio algorithms by audio recognition |
US9646209B2 (en) * | 2010-08-26 | 2017-05-09 | Blast Motion Inc. | Sensor and media event detection and tagging system |
US20130073960A1 (en) | 2011-09-20 | 2013-03-21 | Aaron M. Eppolito | Audio meters and parameter controls |
JP6150320B2 (ja) * | 2011-12-27 | 2017-06-21 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
TWI498880B (zh) * | 2012-12-20 | 2015-09-01 | Univ Southern Taiwan Sci & Tec | Automatic Sentiment Classification System with Scale Sound |
US20140181668A1 (en) * | 2012-12-20 | 2014-06-26 | International Business Machines Corporation | Visual summarization of video for quick understanding |
US9378611B2 (en) * | 2013-02-11 | 2016-06-28 | Incredible Technologies, Inc. | Automated adjustment of audio effects in electronic game |
GB201315142D0 (en) | 2013-08-23 | 2013-10-09 | Ucl Business Plc | Audio-Visual Dialogue System and Method |
US9827496B1 (en) | 2015-03-27 | 2017-11-28 | Electronics Arts, Inc. | System for example-based motion synthesis |
GB2539875B (en) * | 2015-06-22 | 2017-09-20 | Time Machine Capital Ltd | Music Context System, Audio Track Structure and method of Real-Time Synchronization of Musical Content |
CN105068798A (zh) * | 2015-07-28 | 2015-11-18 | 珠海金山网络游戏科技有限公司 | 一种基于Fmod控制游戏音量、音效的系统和方法 |
US9858967B1 (en) * | 2015-09-09 | 2018-01-02 | A9.Com, Inc. | Section identification in video content |
US20170092001A1 (en) * | 2015-09-25 | 2017-03-30 | Intel Corporation | Augmented reality with off-screen motion sensing |
US10032081B2 (en) | 2016-02-09 | 2018-07-24 | Oath Inc. | Content-based video representation |
WO2018071557A1 (en) * | 2016-10-12 | 2018-04-19 | Lr Acquisition, Llc | Media creation based on sensor-driven events |
US10699684B2 (en) | 2017-02-06 | 2020-06-30 | Kodak Alaris Inc. | Method for creating audio tracks for accompanying visual imagery |
US10580457B2 (en) * | 2017-06-13 | 2020-03-03 | 3Play Media, Inc. | Efficient audio description systems and methods |
US11856315B2 (en) * | 2017-09-29 | 2023-12-26 | Apple Inc. | Media editing application with anchored timeline for captions and subtitles |
US10671854B1 (en) * | 2018-04-09 | 2020-06-02 | Amazon Technologies, Inc. | Intelligent content rating determination using multi-tiered machine learning |
US10455297B1 (en) * | 2018-08-29 | 2019-10-22 | Amazon Technologies, Inc. | Customized video content summary generation and presentation |
GB2579208B (en) | 2018-11-23 | 2023-01-25 | Sony Interactive Entertainment Inc | Method and system for determining identifiers for tagging video frames with |
US20200213662A1 (en) * | 2018-12-31 | 2020-07-02 | Comcast Cable Communications, Llc | Environmental Data for Media Content |
US11030479B2 (en) | 2019-04-30 | 2021-06-08 | Sony Interactive Entertainment Inc. | Mapping visual tags to sound tags using text similarity |
-
2019
- 2019-04-30 US US16/399,505 patent/US10847186B1/en active Active
-
2020
- 2020-04-14 WO PCT/US2020/028129 patent/WO2020223007A1/en unknown
- 2020-04-14 EP EP20798745.4A patent/EP3963582A4/en active Pending
- 2020-04-14 JP JP2021564437A patent/JP7470137B2/ja active Active
- 2020-04-14 CN CN202080032449.XA patent/CN113767434B/zh active Active
- 2020-10-21 US US17/076,062 patent/US11450353B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190005128A1 (en) | 2017-06-30 | 2019-01-03 | Wipro Limited | Method and system for generating a contextual audio related to an image |
Also Published As
Publication number | Publication date |
---|---|
JP2022531220A (ja) | 2022-07-06 |
WO2020223007A1 (en) | 2020-11-05 |
CN113767434A (zh) | 2021-12-07 |
EP3963582A1 (en) | 2022-03-09 |
US20210035610A1 (en) | 2021-02-04 |
CN113767434B (zh) | 2023-12-08 |
US11450353B2 (en) | 2022-09-20 |
EP3963582A4 (en) | 2023-01-11 |
US10847186B1 (en) | 2020-11-24 |
US20200349975A1 (en) | 2020-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7470137B2 (ja) | 視覚的特徴をサウンドタグに相関させることによるビデオタグ付け | |
US11281709B2 (en) | System and method for converting image data into a natural language description | |
JP7277611B2 (ja) | テキスト類似性を使用した視覚的タグのサウンドタグへのマッピング | |
US20230325663A1 (en) | Systems and methods for domain adaptation in neural networks | |
US11494612B2 (en) | Systems and methods for domain adaptation in neural networks using domain classifier | |
US11640519B2 (en) | Systems and methods for domain adaptation in neural networks using cross-domain batch normalization | |
EP4208817A1 (en) | Multimodal game video summarization with metadata | |
CN116508315A (zh) | 多模式游戏视频摘要 | |
KR102416421B1 (ko) | 터치 패드 입력을 갖는 게임 컨트롤러 | |
US11445269B2 (en) | Context sensitive ads | |
US20240056761A1 (en) | Three-dimensional (3d) sound rendering with multi-channel audio based on mono audio input |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230718 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230913 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240130 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240405 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7470137 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |