JP7450623B2 - 機械学習のための動的視聴覚セグメント・パディング - Google Patents
機械学習のための動的視聴覚セグメント・パディング Download PDFInfo
- Publication number
- JP7450623B2 JP7450623B2 JP2021535241A JP2021535241A JP7450623B2 JP 7450623 B2 JP7450623 B2 JP 7450623B2 JP 2021535241 A JP2021535241 A JP 2021535241A JP 2021535241 A JP2021535241 A JP 2021535241A JP 7450623 B2 JP7450623 B2 JP 7450623B2
- Authority
- JP
- Japan
- Prior art keywords
- segment
- padding
- audiovisual
- audiovisual segment
- unpadded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims description 70
- 238000000034 method Methods 0.000 claims description 50
- 238000004422 calculation algorithm Methods 0.000 claims description 46
- 238000012545 processing Methods 0.000 claims description 29
- 230000015654 memory Effects 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 15
- 239000002131 composite material Substances 0.000 claims description 9
- 239000012634 fragment Substances 0.000 description 32
- 238000004891 communication Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 17
- 238000004458 analytical method Methods 0.000 description 15
- 230000002085 persistent effect Effects 0.000 description 15
- 230000006870 function Effects 0.000 description 7
- 241000282326 Felis catus Species 0.000 description 6
- 241000242583 Scyphozoa Species 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 238000002360 preparation method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 239000004744 fabric Substances 0.000 description 3
- 239000000835 fiber Substances 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000002438 mitochondrial effect Effects 0.000 description 3
- 238000009966 trimming Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000037007 arousal Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 210000003470 mitochondria Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23418—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
- G06V20/47—Detecting features for summarising video content
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/036—Insert-editing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/251—Learning process for intelligent management, e.g. learning user preferences for recommending movies
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8549—Creating video summaries, e.g. movie trailer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/10—Recognition assisted with metadata
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computer Security & Cryptography (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Electrically Operated Instructional Devices (AREA)
Description
本発明は、システム、方法、またはコンピュータ・プログラム製品、あるいはその組合せであってもよい。コンピュータ・プログラム製品は、本発明の態様をプロセッサに実行させるためのコンピュータ可読プログラム命令を有するコンピュータ可読ストレージ媒体(または複数の媒体)を含むことができる。
図2は、本発明による方法を描写する流れ図250を示す。図3は、流れ図250の方法動作のうちの少なくともいくつかを実施するためのプログラム300を示す。本方法および関連するソフトウェアを、次に、図2(方法動作ブロックについて)、図3(ソフトウェア・ブロックについて)、ならびに、例えば、データ・サンプルおよびスクリーン・ショットといった、図4Aから図4Eを広く参照しながら、以下の段落で論じる。
本発明のいくつかの実施形態は、次の事実、潜在的な問題、または、現在の最先端についての改善のための潜在的な領域、あるいはその組合せを認識している。
(i)機械学習モデルが効果的なものになるように、機械学習モデルの入力データの特徴は、正規化されるべきであり、したがって、どの特徴も、その値の範囲に起因して大きすぎるインパクトを持つことはない、(ii)ビデオおよびオーディオを分析するモデルは、期間が長くなると、モデルで使用される重みを膨張させる恐れがあるので、入力データの期間が一貫したものになる必要がある、(iii)この理由から、コンテンツ断片は、分析の前に、等しい期間のセグメントに分割されなければならない、(iv)所与のレイヤにおける特徴分析が、明白でないことがあり、期間などの隠れ変数を含んでいることが、あまり明らかでないので、ディープ・ニューラル・ネットワークを使用するとき、データの準備が特に重要である、(v)様々な期間のコンテンツ断片について、研究者は、等しい期間のセグメントに、どのように達するかを決めなければならない、(vi)共通の選択肢は、(a)コンテンツの一部を捨てること(トリミングとしても知られる)、または(b)任意の画像もしくは無音などのコンテンツを追加すること(ナイーブ・パディングとしても知られる)を含む、(vii)トリミングは、捨てたコンテンツが、分析に重要な役割を果たしていた可能性もあるので、望ましくない、(viii)ナイーブ・パディングも、モデルが、コンテンツ断片との関連性を有していなくても、セグメントの一部としてパディングを分析することになるので、望ましくない、ならびに、(ix)当技術分野におけるいくつかの既知の解決策は、(a)機械学習モデルに取り込まれるいくつかのセグメントの期間が短くなることを受け入れること、(b)コンテンツを捨てることによってセグメントを所望の長さにトリミングすること、および、(c)任意の画像または無音などのナイーブ・パディングを使用することを含む。
(i)プロ・テニス・マッチの最中、短いビデオが、低い興奮スコアで誤って解釈されていたことがわかった、(ii)機械学習および深層学習の中で、モデルへの入力データは、正確な予測のために標準化される必要がある、(iii)ビデオのためのデータ準備の一部は、同じ長さのものであるカットおよびセグメントを作り出すことである、(iv)この例では、ビデオは、声援分析が興奮をランク付けできるように、6秒のセグメントに分けられる、(v)それでも、ビデオが長さ8秒だった場合、最後のセグメントは、最も興奮するコンテンツを含むことがあるが、無音の4秒でパディングされた、ならびに、(vi)結果として、最後の6秒のセグメントについての興奮スコアは、不自然に低かった。
(i)コンテンツ断片の集合体を媒体解釈システムにアップロードする、(ii)セグメント期間が、媒体解釈システムのハイパーパラメータであり、例えば、研究者は、分析を始める前に、この期間を定めることができる、(iii)最大パディングが、パディング生成サブシステムのハイパーパラメータであり、例えば、研究者は、分析を始める前に、この期間を定めることができる、(iv)コンテンツ断片内のビデオ(画像)とオーディオを、独立した分析のために分離する、(v)コンテンツ断片のビデオを、所望の期間のセグメントに分割する、(vi)(a)最後の部分セグメントが存在するかどうか、および、部分セグメントが存在すると決定したかどうか、(b)パディングの量が最大パディングを超過しないこと、を評価することによってパディングを生成するべきかどうかを決定する、(vii)コンテンツ断片の全てのセグメントに対してパディング生成サブシステムを訓練し、ここで、生成ネットワークが最後のセグメントの特徴を使用して、このセグメントに固有のコンテンツを生成することになる、(viii)この特定のセグメントに、生成ネットワークの出力が適しているか否かについて、識別ネットワークが決定することになる、(ix)生成したパディングを最後のセグメントに追加する、(x)パディング済の最後のセグメントを含む全てのセグメントを、媒体解釈モデルに入力として与える、(xi)コンテンツ断片のオーディオ部分を所望の期間のセグメントに分割する代わりに、コンテンツ断片のオーディオ部分について、vからxのステップを繰り返す、(xii)オーディオ分析に使用されるネットワークが、ビデオ分析に使用されるものから独立したものである、または、(xiii)媒体解釈システムが、各コンテンツ断片のスコアをつけるとき、オーディオ分析の結果と、ビデオ分析の結果の両方を最終的に考慮することになる。
(i)この計算は、切り捨て除算(floor division)である:full_duration_segments =content_piece_duration // segment_duration、
(ii)partial_segment_duration = content_piece_duration -(full_duration_segments * segment_duration)、
(iii)padding_duration = segment_duration - partial_segment_duration、または
(iv)padding_percentage = padding_duration / segment_duration、
Claims (16)
- 方法であって、
第1の未パディング視聴覚セグメントを受け取ることと、
前記第1の未パディング視聴覚セグメントの前または後あるいはその両方で生じるパディング時間間隔のセットを決定することと、
パディング時間間隔の前記セットの各所与のパディング時間間隔に対して、
前記所与のパディング時間間隔に対する合成視聴覚セグメントを、訓練済みの敵対的生成ネットワーク(GAN)によって生成することと、
パディング時間間隔の前記セットの各パディング時間間隔に対応する前記合成視聴覚セグメントを用いて、前記第1の未パディング視聴覚セグメントから第1のパディング済視聴覚セグメントを組み立てることと、
全体として考慮して前記第1のパディング済視聴覚セグメントの視聴者関心値を、機械記学習(ML)アルゴリズムにより決定することと
を含む、方法。 - 全体として考慮した前記第1のパディング済視聴覚セグメントの前記視聴者関心値に少なくとも部分的に基づいて、より大きいビデオ上演に含めるために、前記第1の未パディング視聴覚セグメントを選択すること、
をさらに含む、請求項1に記載の方法。 - 前記合成視聴覚セグメントが、人間の視聴者に理解できない、請求項1または2のいずれかに記載の方法。
- (i)前記第1の未パディング視聴覚セグメントの直前に生じる第1のパディング時間間隔、および(ii)前記第1の未パディング視聴覚セグメントの直後に生じる第2のパディング時間間隔、の2つのパディング時間間隔があり、
前記第1および第2のパディング時間間隔は等しい、請求項1ないし3のいずれかに記載の方法。 - 複数の訓練データ・セットで前記MLアルゴリズムを訓練することであって、各訓練データ・セットが、(i)視聴覚セグメント、および(ii)該視聴覚セグメントの視聴者関心値を含む、前記訓練することをさらに含み、
各所与のパディング時間間隔に対する前記合成視聴覚セグメントの前記生成が、前記複数の訓練データ・セットを用いて訓練された訓練済みの前記GANによってなされる、請求項1ないし4のいずれかに記載の方法。 - 訓練済みの前記GANは、前記第1の未パディング視聴覚セグメントと同じドメインの複数の視聴覚セグメントを用いて訓練されている、請求項1ないし4のいずれかに記載の方法。
- 方法であって、
第1の未パディング視聴覚セグメントを受け取ることと、
前記第1の未パディング視聴覚セグメントの前または後あるいはその両方で生じるパディング時間間隔のセットを決定することと、
パディング時間間隔の前記セットの各所与のパディング時間間隔に対して、1つまたは複数の履歴視聴覚セグメントからパディング視聴覚セグメントを生成することであって、前記パディング視聴覚セグメントは、前記第1の未パディング視聴覚セグメントが前記所与のパディング時間間隔を通じて続いた場合前記所与のパディング時間間隔に含まれていたであろうものに似た視聴覚コンテンツを有する、前記生成することと、
パディング時間間隔の前記セットの各パディング時間間隔に対応する前記パディング視聴覚セグメントを用いて、前記第1の未パディング視聴覚セグメントから第1のパディング済視聴覚セグメントを組み立てることと、
全体として考慮して前記第1のパディング済視聴覚セグメントの視聴者関心値を、機械学習(ML)アルゴリズムにより決定することと
を含む、方法。 - 全体として考慮した前記第1のパディング済視聴覚セグメントの前記視聴者関心値に少なくとも部分的に基づいて、より大きいビデオ上演に含めるために、前記第1の未パディング視聴覚セグメントを選択すること
をさらに含む、請求項7に記載の方法。 - 複数の訓練データ・セットで前記MLアルゴリズムを訓練することであって、各訓練データ・セットが、視聴覚セグメント、および該視聴覚セグメントの視聴者関心値を含む、前記訓練することをさらに含み、
前記複数の履歴視聴覚セグメントが、前記複数の訓練データ・セットの複数の前記視聴覚セグメントである、
請求項7または8のいずれかに記載の方法。 - 各所与のパディング時間間隔に対する前記パディング視聴覚セグメントの前記生成が、単一の前記履歴視聴覚セグメントの少なくとも一部を選択することによって実施される、請求項7ないし9のいずれかに記載の方法。
- 各所与のパディング時間間隔に対する前記パディング視聴覚セグメントの前記生成が、複数の前記履歴視聴覚セグメントの一部を組み立てることを含む、請求項7ないし10のいずれかに記載の方法。
- 前記第1の未パディング視聴覚セグメントの直前に生じる第1のパディング時間間隔、および前記第1の未パディング視聴覚セグメントの直後に生じる第2のパディング時間間隔、の2つのパディング時間間隔があり、
前記第1および第2のパディング時間間隔は等しい、請求項7ないし11のいずれかに記載の方法。 - 各所与のパディング時間間隔に対する前記パディング視聴覚セグメントの前記生成が、複数の前記履歴視聴覚セグメントの各々のメタデータと前記第1の未パディング視聴覚セグメントのメタデータとの比較に基づく、請求項7ないし12のいずれかに記載の方法。
- コンピュータ可読ストレージ媒体であって、請求項1ないし13のいずれかに記載の方法を実施するために、処理回路で読み取ることができ、前記処理回路による実行のための命令を格納する、コンピュータ可読ストレージ媒体。
- コンピュータ・プログラムであって、請求項1ないし13のいずれかに記載の方法の各ステップをコンピュータに実行させるための、コンピュータ・プログラム。
- コンピュータ・システムであって、
メモリと、
前記メモリに結合されるプロセッサと
を備え、前記コンピュータ・システムは、前記請求項1ないし13のいずれかに記載の方法を実行するように構成される、コンピュータ・システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/283,912 US10832734B2 (en) | 2019-02-25 | 2019-02-25 | Dynamic audiovisual segment padding for machine learning |
US16/283,912 | 2019-02-25 | ||
PCT/IB2020/051586 WO2020174383A1 (en) | 2019-02-25 | 2020-02-25 | Dynamic audiovisual segment padding for machine learning |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022521120A JP2022521120A (ja) | 2022-04-06 |
JPWO2020174383A5 JPWO2020174383A5 (ja) | 2022-06-06 |
JP7450623B2 true JP7450623B2 (ja) | 2024-03-15 |
Family
ID=72143024
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021535241A Active JP7450623B2 (ja) | 2019-02-25 | 2020-02-25 | 機械学習のための動的視聴覚セグメント・パディング |
Country Status (5)
Country | Link |
---|---|
US (2) | US10832734B2 (ja) |
JP (1) | JP7450623B2 (ja) |
CN (1) | CN113439277A (ja) |
GB (1) | GB2596463B (ja) |
WO (1) | WO2020174383A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10824487B2 (en) | 2018-07-17 | 2020-11-03 | Xandr Inc. | Real-time data processing pipeline and pacing control systems and methods |
US10997464B2 (en) * | 2018-11-09 | 2021-05-04 | Adobe Inc. | Digital image layout training using wireframe rendering within a generative adversarial network (GAN) system |
US10832734B2 (en) * | 2019-02-25 | 2020-11-10 | International Business Machines Corporation | Dynamic audiovisual segment padding for machine learning |
EP4104110A4 (en) * | 2020-02-13 | 2024-02-28 | Stats Llc | DYNAMIC PREDICTION OF SHOT TYPE USING A CUSTOMIZED DEEP NEURAL NETWORK |
US12093883B2 (en) * | 2022-03-10 | 2024-09-17 | International Business Machines Corporation | Automated delivery coordination and meeting scheduling for multiple-recipient orders received at a computer system |
CN118055199A (zh) * | 2022-11-17 | 2024-05-17 | 北京字跳网络技术有限公司 | 视频剪辑方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050185918A1 (en) | 2002-10-04 | 2005-08-25 | Frederick Lowe | System and method for generating and distributing personalized media |
JP2006058874A (ja) | 2004-08-20 | 2006-03-02 | Mitsubishi Electric Research Laboratories Inc | マルチメディア中の事象を検出する方法 |
JP2008529338A (ja) | 2005-01-20 | 2008-07-31 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | プロダクトプレイスメントを含むトレイラの自動生成 |
US20140321831A1 (en) | 2013-04-26 | 2014-10-30 | Microsoft Corporation | Video service with automated video timeline curation |
JP2015527668A (ja) | 2012-09-25 | 2015-09-17 | インテル コーポレイション | 閲覧者の反応推定及びビジュアル・キュー検出によるビデオ・インデクシング |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5327518A (en) | 1991-08-22 | 1994-07-05 | Georgia Tech Research Corporation | Audio analysis/synthesis system |
US5793888A (en) | 1994-11-14 | 1998-08-11 | Massachusetts Institute Of Technology | Machine learning apparatus and method for image searching |
CA2167748A1 (en) | 1995-02-09 | 1996-08-10 | Yoav Freund | Apparatus and methods for machine learning hypotheses |
US5596159A (en) | 1995-11-22 | 1997-01-21 | Invision Interactive, Inc. | Software sound synthesis system |
US6266068B1 (en) | 1998-03-13 | 2001-07-24 | Compaq Computer Corporation | Multi-layer image-based rendering for video synthesis |
US6513025B1 (en) | 1999-12-09 | 2003-01-28 | Teradyne, Inc. | Multistage machine learning process |
US7024033B2 (en) | 2001-12-08 | 2006-04-04 | Microsoft Corp. | Method for boosting the performance of machine-learning classifiers |
US20030131362A1 (en) | 2002-01-09 | 2003-07-10 | Koninklijke Philips Electronics N.V. | Method and apparatus for multimodal story segmentation for linking multimedia content |
US8326775B2 (en) | 2005-10-26 | 2012-12-04 | Cortica Ltd. | Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof |
US9218606B2 (en) | 2005-10-26 | 2015-12-22 | Cortica, Ltd. | System and method for brand monitoring and trend analysis based on deep-content-classification |
US9047374B2 (en) * | 2007-06-08 | 2015-06-02 | Apple Inc. | Assembling video content |
US8207989B2 (en) | 2008-12-12 | 2012-06-26 | Microsoft Corporation | Multi-video synthesis |
US10269390B2 (en) | 2015-06-11 | 2019-04-23 | David M. DeCaprio | Game video processing systems and methods |
EP3475920A4 (en) | 2016-06-23 | 2020-01-15 | Loomai, Inc. | SYSTEMS AND METHODS FOR GENERATING HUMAN HEAD COMPUTER-BASED ANIMATION MODELS FROM CAPTURED DATA IMAGES |
CN107707931B (zh) | 2016-08-08 | 2021-09-10 | 阿里巴巴集团控股有限公司 | 根据视频数据生成解释数据、数据合成方法及装置、电子设备 |
WO2018053340A1 (en) | 2016-09-15 | 2018-03-22 | Twitter, Inc. | Super resolution using a generative adversarial network |
US10074038B2 (en) | 2016-11-23 | 2018-09-11 | General Electric Company | Deep learning medical systems and methods for image reconstruction and quality evaluation |
US10043109B1 (en) | 2017-01-23 | 2018-08-07 | A9.Com, Inc. | Attribute similarity-based search |
US10474881B2 (en) | 2017-03-15 | 2019-11-12 | Nec Corporation | Video retrieval system based on larger pose face frontalization |
CN107464210B (zh) | 2017-07-06 | 2020-02-21 | 浙江工业大学 | 一种基于生成式对抗网络的图像风格迁移方法 |
CN108256627A (zh) | 2017-12-29 | 2018-07-06 | 中国科学院自动化研究所 | 视听信息互生装置及其基于循环对抗生成网络的训练系统 |
US10460235B1 (en) * | 2018-07-06 | 2019-10-29 | Capital One Services, Llc | Data model generation using generative adversarial networks |
US10832734B2 (en) | 2019-02-25 | 2020-11-10 | International Business Machines Corporation | Dynamic audiovisual segment padding for machine learning |
-
2019
- 2019-02-25 US US16/283,912 patent/US10832734B2/en active Active
-
2020
- 2020-02-25 CN CN202080014830.3A patent/CN113439277A/zh active Pending
- 2020-02-25 WO PCT/IB2020/051586 patent/WO2020174383A1/en active Application Filing
- 2020-02-25 JP JP2021535241A patent/JP7450623B2/ja active Active
- 2020-02-25 GB GB2113427.5A patent/GB2596463B/en active Active
- 2020-09-28 US US17/033,933 patent/US11521655B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050185918A1 (en) | 2002-10-04 | 2005-08-25 | Frederick Lowe | System and method for generating and distributing personalized media |
JP2006058874A (ja) | 2004-08-20 | 2006-03-02 | Mitsubishi Electric Research Laboratories Inc | マルチメディア中の事象を検出する方法 |
JP2008529338A (ja) | 2005-01-20 | 2008-07-31 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | プロダクトプレイスメントを含むトレイラの自動生成 |
JP2015527668A (ja) | 2012-09-25 | 2015-09-17 | インテル コーポレイション | 閲覧者の反応推定及びビジュアル・キュー検出によるビデオ・インデクシング |
US20140321831A1 (en) | 2013-04-26 | 2014-10-30 | Microsoft Corporation | Video service with automated video timeline curation |
Also Published As
Publication number | Publication date |
---|---|
US20210012809A1 (en) | 2021-01-14 |
WO2020174383A1 (en) | 2020-09-03 |
CN113439277A (zh) | 2021-09-24 |
US11521655B2 (en) | 2022-12-06 |
US10832734B2 (en) | 2020-11-10 |
JP2022521120A (ja) | 2022-04-06 |
US20200273495A1 (en) | 2020-08-27 |
GB2596463A (en) | 2021-12-29 |
GB2596463B (en) | 2022-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7450623B2 (ja) | 機械学習のための動的視聴覚セグメント・パディング | |
US11663827B2 (en) | Generating a video segment of an action from a video | |
WO2019228267A1 (zh) | 短视频的合成方法、装置、设备及存储介质 | |
JP7033587B2 (ja) | 映像ハイライトを自動的に製作する方法及びシステム | |
Merler et al. | Automatic curation of sports highlights using multimodal excitement features | |
US20170065889A1 (en) | Identifying And Extracting Video Game Highlights Based On Audio Analysis | |
CN110249622A (zh) | 实时的语义感知的相机曝光控制 | |
US20190205652A1 (en) | System and Method for Automatic Generation of Sports Media Highlights | |
CN110012356A (zh) | 视频推荐方法、装置和设备及计算机存储介质 | |
JP6807389B2 (ja) | メディアコンテンツのパフォーマンスの即時予測のための方法及び装置 | |
US20230128721A1 (en) | Custom video workout programs for execution on an exercise machine | |
US20220408131A1 (en) | Image analysis system | |
US20220156503A1 (en) | Reinforcement Learning Techniques for Automated Video Summarization | |
Merler et al. | Automatic curation of golf highlights using multimodal excitement features | |
CN109670623A (zh) | 神经网络预测方法及装置 | |
US11206453B2 (en) | Cognitive broadcasting of an event | |
Ward | Multimodal deep learning approach for event detection in sports using Amazon SageMaker | |
CN109670572A (zh) | 神经网络预测方法及装置 | |
US11270338B2 (en) | Optimizing a digital display | |
CN110019942A (zh) | 一种视频鉴别方法及系统 | |
US20240078806A1 (en) | Automated tolerance-based matching of video streaming events with replays in a video | |
CN117917081B (zh) | 视频中的视频流事件与重放的基于容差的自动匹配 | |
US11475668B2 (en) | System and method for automatic video categorization | |
US20240223851A1 (en) | System And Methods For Recording Viewer Reactions For Concurrent Playback With Original Content | |
US20230047821A1 (en) | Active Learning Event Models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220512 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220527 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220725 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230912 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231010 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240305 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7450623 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |