JP2022521120A - 機械学習のための動的視聴覚セグメント・パディング - Google Patents
機械学習のための動的視聴覚セグメント・パディング Download PDFInfo
- Publication number
- JP2022521120A JP2022521120A JP2021535241A JP2021535241A JP2022521120A JP 2022521120 A JP2022521120 A JP 2022521120A JP 2021535241 A JP2021535241 A JP 2021535241A JP 2021535241 A JP2021535241 A JP 2021535241A JP 2022521120 A JP2022521120 A JP 2022521120A
- Authority
- JP
- Japan
- Prior art keywords
- padding
- segment
- audiovisual
- audiovisual segment
- time interval
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 76
- 238000000034 method Methods 0.000 claims abstract description 59
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 51
- 238000012545 processing Methods 0.000 claims description 27
- 238000012549 training Methods 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 17
- 239000002131 composite material Substances 0.000 abstract description 5
- 239000012634 fragment Substances 0.000 description 33
- 230000015654 memory Effects 0.000 description 20
- 238000004891 communication Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 18
- 238000004458 analytical method Methods 0.000 description 16
- 230000002085 persistent effect Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 8
- 230000036961 partial effect Effects 0.000 description 8
- 241000282326 Felis catus Species 0.000 description 7
- 230000009471 action Effects 0.000 description 7
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 6
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 210000003470 mitochondria Anatomy 0.000 description 4
- 238000002360 preparation method Methods 0.000 description 4
- 238000009966 trimming Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 239000004744 fabric Substances 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 206010020400 Hostility Diseases 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23418—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
- G06V20/47—Detecting features for summarising video content
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/036—Insert-editing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/251—Learning process for intelligent management, e.g. learning user preferences for recommending movies
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8549—Creating video summaries, e.g. movie trailer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/10—Recognition assisted with metadata
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computer Security & Cryptography (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
本発明は、システム、方法、またはコンピュータ・プログラム製品、あるいはその組合せであってもよい。コンピュータ・プログラム製品は、本発明の態様をプロセッサに実行させるためのコンピュータ可読プログラム命令を有するコンピュータ可読ストレージ媒体(または複数の媒体)を含むことができる。
図2は、本発明による方法を描写する流れ図250を示す。図3は、流れ図250の方法動作のうちの少なくともいくつかを実施するためのプログラム300を示す。本方法および関連するソフトウェアを、次に、図2(方法動作ブロックについて)、図3(ソフトウェア・ブロックについて)、ならびに、例えば、データ・サンプルおよびスクリーン・ショットといった、図4Aから図4Eを広く参照しながら、以下の段落で論じる。
本発明のいくつかの実施形態は、次の事実、潜在的な問題、または、現在の最先端についての改善のための潜在的な領域、あるいはその組合せを認識している。
(i)機械学習モデルが効果的なものになるように、機械学習モデルの入力データの特徴は、正規化されるべきであり、したがって、どの特徴も、その値の範囲に起因して大きすぎるインパクトを持つことはない、(ii)ビデオおよびオーディオを分析するモデルは、期間が長くなると、モデルで使用される重みを膨張させる恐れがあるので、入力データの期間が一貫したものになる必要がある、(iii)この理由から、コンテンツ断片は、分析の前に、等しい期間のセグメントに分割されなければならない、(iv)所与のレイヤにおける特徴分析が、明白でないことがあり、期間などの隠れ変数を含んでいることが、あまり明らかでないので、ディープ・ニューラル・ネットワークを使用するとき、データの準備が特に重要である、(v)様々な期間のコンテンツ断片について、研究者は、等しい期間のセグメントに、どのように達するかを決めなければならない、(vi)共通の選択肢は、(a)コンテンツの一部を捨てること(トリミングとしても知られる)、または(b)任意の画像もしくは無音などのコンテンツを追加すること(ナイーブ・パディングとしても知られる)を含む、(vii)トリミングは、捨てたコンテンツが、分析に重要な役割を果たしていた可能性もあるので、望ましくない、(viii)ナイーブ・パディングも、モデルが、コンテンツ断片との関連性を有していなくても、セグメントの一部としてパディングを分析することになるので、望ましくない、ならびに、(ix)当技術分野におけるいくつかの既知の解決策は、(a)機械学習モデルに取り込まれるいくつかのセグメントの期間が短くなることを受け入れること、(b)コンテンツを捨てることによってセグメントを所望の長さにトリミングすること、および、(c)任意の画像または無音などのナイーブ・パディングを使用することを含む。
(i)プロ・テニス・マッチの最中、短いビデオが、低い興奮スコアで誤って解釈されていたことがわかった、(ii)機械学習および深層学習の中で、モデルへの入力データは、正確な予測のために標準化される必要がある、(iii)ビデオのためのデータ準備の一部は、同じ長さのものであるカットおよびセグメントを作り出すことである、(iv)この例では、ビデオは、声援分析が興奮をランク付けできるように、6秒のセグメントに分けられる、(v)それでも、ビデオが長さ8秒だった場合、最後のセグメントは、最も興奮するコンテンツを含むことがあるが、無音の4秒でパディングされた、ならびに、(vi)結果として、最後の6秒のセグメントについての興奮スコアは、不自然に低かった。
(i)コンテンツ断片の集合体を媒体解釈システムにアップロードする、(ii)セグメント期間が、媒体解釈システムのハイパーパラメータであり、例えば、研究者は、分析を始める前に、この期間を定めることができる、(iii)最大パディングが、パディング生成サブシステムのハイパーパラメータであり、例えば、研究者は、分析を始める前に、この期間を定めることができる、(iv)コンテンツ断片内のビデオ(画像)とオーディオを、独立した分析のために分離する、(v)コンテンツ断片のビデオを、所望の期間のセグメントに分割する、(vi)(a)最後の部分セグメントが存在するかどうか、および、部分セグメントが存在すると決定したかどうか、(b)パディングの量が最大パディングを超過しないこと、を評価することによってパディングを生成するべきかどうかを決定する、(vii)コンテンツ断片の全てのセグメントに対してパディング生成サブシステムを訓練し、ここで、生成ネットワークが最後のセグメントの特徴を使用して、このセグメントに固有のコンテンツを生成することになる、(viii)この特定のセグメントに、生成ネットワークの出力が適しているか否かについて、識別ネットワークが決定することになる、(ix)生成したパディングを最後のセグメントに追加する、(x)パディング済の最後のセグメントを含む全てのセグメントを、媒体解釈モデルに入力として与える、(xi)コンテンツ断片のオーディオ部分を所望の期間のセグメントに分割する代わりに、コンテンツ断片のオーディオ部分について、vからxのステップを繰り返す、(xii)オーディオ分析に使用されるネットワークが、ビデオ分析に使用されるものから独立したものである、または、(xiii)媒体解釈システムが、各コンテンツ断片のスコアをつけるとき、オーディオ分析の結果と、ビデオ分析の結果の両方を最終的に考慮することになる。
(i)この計算は、切り捨て除算(floor division)である:full_duration_segments =content_piece_duration // segment_duration、
(ii)partial_segment_duration = content_piece_duration -(full_duration_segments * segment_duration)、
(iii)padding_duration = segment_duration - partial_segment_duration、または
(iv)padding_percentage = padding_duration / segment_duration、
Claims (20)
- 方法であって、
第1の未パディング視聴覚セグメントを示す情報を含んだ第1の未パディング視聴覚セグメント・データ・セットを受け取ることであって、前記第1の未パディング視聴覚セグメントが、人間の聴衆のためにスポーツ大会で記録した視聴覚データに相当する、前記受け取ることと、
前記第1の未パディング・セグメントの前または後あるいはその両方で生じるパディング時間間隔のセットを決定することと、
パディング時間間隔の前記セットの各所与のパディング時間間隔に対して、
前記第1の未パディング視聴覚セグメントが、前記所与のパディング時間間隔を通じて続き、機械学習(ML)アルゴリズムにより決定されるスポーツ視聴者関心値を有する場合に、前記所与のパディング時間間隔を特徴づけるであろうそれぞれの対応する前記スポーツ視聴者関心値を決定すること、および
前記所与のパディング時間間隔に対するパディング視聴覚セグメントが、前記所与のパディング時間間隔に対し決定された前記スポーツ視聴者関心値で特徴づけられるように、前記所与のパディング時間間隔に対する前記パディング視聴覚セグメントを生成することと、
第1のパディング済視聴覚セグメントを示す情報を含んだ第1のパディング済視聴覚セグメント・データ・セットを取得するために、パディング時間間隔の前記セットの各パディング時間間隔に対応する前記パディング視聴覚セグメントで、前記第1の未パディング視聴覚セグメントを組み立てることと、
全体として考慮して前記第1のパディング済視聴覚セグメントのスポーツ視聴者関心値を、前記MLアルゴリズムにより決定することと
を含む、方法。 - 全体として考慮した前記第1のパディング済視聴覚セグメントの前記スポーツ視聴者関心値に少なくとも部分的に基づいて、スポーツ・ハイライト・リールに含めるために、前記第1の未パディング視聴覚セグメントを選択すること
をさらに含む、請求項1に記載の方法。 - 各所与のパディング時間間隔に対する前記パディング視聴覚セグメントの前記生成が、前記所与のパディング時間間隔に対して合成視聴覚セグメントを生成することを含む、請求項1または2のいずれかに記載の方法。
- 各所与のパディング時間間隔に対する前記合成視聴覚セグメントの前記生成が、敵対的生成ネットワーク(GAN)によって実施される、請求項3に記載の方法。
- 各所与のパディング時間間隔に対する前記パディング視聴覚セグメントの前記生成が、前記MLアルゴリズムによって決定される既知のスポーツ視聴者関心値を有する1つまたは複数の既存の視聴覚セグメントを組み立てることを含む、請求項1ないし4のいずれかに記載の方法。
- 前記第1の未パディング視聴覚セグメントの直前に生じる第1のパディング時間間隔、および前記第1の未パディング視聴覚セグメントの直後に生じる第2のパディング時間間隔、の2つのパディング時間間隔があり、
前記第1および第2のパディング時間間隔が、少なくとも実質的に等しい期間である、
請求項1ないし5のいずれかに記載の方法。 - 方法であって、
第1の未パディング視聴覚セグメントを示す情報を含んだ第1の未パディング視聴覚セグメント・データ・セットを受け取ることと、
前記第1の未パディング・セグメントの前または後あるいはその両方で生じるパディング時間間隔のセットを決定することと、
パディング時間間隔の前記セットの各所与のパディング時間間隔に対して、
前記第1の未パディング視聴覚セグメントが、前記所与のパディング時間間隔を通じて続き、機械学習(ML)アルゴリズムにより決定される視聴者関心値を有する場合に、前記所与のパディング時間間隔を特徴づけるであろうそれぞれの対応する前記視聴者関心値を決定すること、および
前記所与のパディング時間間隔に対する合成視聴覚セグメントが、前記所与のパディング時間間隔に対し決定された前記視聴者関心値で特徴づけられるように、前記所与のパディング時間間隔に対する前記合成視聴覚セグメントを生成することと、
第1のパディング済視聴覚セグメントを示す情報を含んだ第1のパディング済視聴覚セグメント・データ・セットを取得するために、パディング時間間隔の前記セットの各パディング時間間隔に対応する前記合成視聴覚セグメントで、前記第1の未パディング視聴覚セグメントを組み立てることと、
全体として考慮して前記第1のパディング済視聴覚セグメントの視聴者関心値を、前記MLアルゴリズムにより決定することと
を含む、方法。 - 全体として考慮した前記第1のパディング済視聴覚セグメントの前記視聴者関心値に少なくとも部分的に基づいて、より大きいビデオ上演に含めるために、前記第1の未パディング視聴覚セグメントを選択すること、
をさらに含む、請求項7に記載の方法。 - 各所与のパディング時間間隔に対する前記合成視聴覚セグメントの前記生成が、敵対的生成ネットワーク(GAN)によって実施される、請求項7または8のいずれかに記載の方法。
- 前記合成視聴覚セグメントが、人間の視聴者に理解できない、請求項7ないし9のいずれかに記載の方法。
- (i)前記第1の未パディング視聴覚セグメントの直前に生じる第1のパディング時間間隔、および(ii)前記第1の未パディング視聴覚セグメントの直後に生じる第2のパディング時間間隔、の2つのパディング時間間隔があり、
前記第1および第2のパディング時間間隔が、少なくとも実質的に等しい期間である、
請求項7ないし10のいずれかに記載の方法。 - 複数の訓練データ・セットで前記MLアルゴリズムを訓練することであって、各訓練データ・セットが、(i)視聴覚セグメントを示す情報を含んだ視聴覚セグメント・データ・セット、および(ii)視聴者関心値を含む、前記訓練すること
をさらに含み、
各所与のパディング時間間隔に対する前記合成視聴覚セグメントの前記生成が、前記複数の訓練データ・セットに基づく、
請求項7ないし11のいずれかに記載の方法。 - 方法であって、
複数の履歴視聴覚セグメント・データ・セットを受け取ることであって、各履歴視聴覚セグメント・データ・セットが、履歴視聴覚セグメントの情報を含む、前記受け取ることと、
第1の未パディング視聴覚セグメントを示す情報を含んだ第1の未パディング視聴覚セグメント・データ・セットを受け取ることと、
前記第1の未パディング・セグメントの前または後あるいはその両方で生じるパディング時間間隔のセットを決定することと、
パディング時間間隔の前記セットの各所与のパディング時間間隔に対して、前記第1の未パディング視聴覚セグメントが前記所与のパディング時間間隔を通じて続いた場合、所与のパディング時間間隔が含んでいたであろうものに似た視聴覚コンテンツを前記パディング視聴覚セグメントが有するように、1つまたは複数の履歴視聴覚セグメントからパディング視聴覚セグメントを生成することと、
第1のパディング済視聴覚セグメントを示す情報を含んだ第1のパディング済視聴覚セグメント・データ・セットを取得するために、パディング時間間隔の前記セットの各パディング時間間隔に対応する前記パディング視聴覚セグメントで、前記第1の未パディング視聴覚セグメントを組み立てることと、
全体として考慮して前記第1のパディング済視聴覚セグメントの視聴者関心値を、MLアルゴリズムにより決定することと
を含む、方法。 - 全体として考慮した前記第1のパディング済視聴覚セグメントの前記視聴者関心値に少なくとも部分的に基づいて、より大きいビデオ上演に含めるために、前記第1の未パディング視聴覚セグメントを選択すること
をさらに含む、請求項13に記載の方法。 - 複数の訓練データ・セットで前記MLアルゴリズムを訓練することであって、各訓練データ・セットが、視聴覚セグメントを示す情報を含んだ視聴覚セグメント・データ・セット、および視聴者関心値を含む、前記訓練すること
をさらに含み、
前記複数の履歴視聴覚セグメント・データ・セットが、前記複数の訓練データ・セットの前記視聴覚セグメントである、
請求項13または14のいずれかに記載の方法。 - 各所与のパディング時間間隔に対する前記パディング視聴覚セグメントの前記生成が、単一の履歴視聴覚セグメントの少なくとも一部を選択することによって実施される、請求項13ないし15のいずれかに記載の方法。
- 各所与のパディング時間間隔に対する前記パディング視聴覚セグメントの前記生成が、複数の履歴視聴覚セグメントの一部を組み立てることを含む、請求項13ないし16のいずれかに記載の方法。
- 前記第1の未パディング視聴覚セグメントの直前に生じる第1のパディング時間間隔、および前記第1の未パディング視聴覚セグメントの直後に生じる第2のパディング時間間隔、の2つのパディング時間間隔があり、
前記第1および第2のパディング時間間隔が、少なくとも実質的に等しい期間である、
請求項13ないし17のいずれかに記載の方法。 - 訓練機械モデルを管理するためのコンピュータ・プログラム製品であって、
請求項1ないし18のいずれかに記載の方法を実施するために、処理回路で読み取ることができ、前記処理回路による実行のための命令を格納するコンピュータ可読ストレージ媒体
を備える、コンピュータ・プログラム製品。 - コンピュータ可読媒体に格納され、デジタル・コンピュータの内部メモリにロードすることができるコンピュータ・プログラムであって、前記プログラムがコンピュータ上で実行されるとき、請求項1ないし18のいずれかに記載の方法を実施するための、ソフトウェア・コード部分を含む、コンピュータ・プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/283,912 | 2019-02-25 | ||
US16/283,912 US10832734B2 (en) | 2019-02-25 | 2019-02-25 | Dynamic audiovisual segment padding for machine learning |
PCT/IB2020/051586 WO2020174383A1 (en) | 2019-02-25 | 2020-02-25 | Dynamic audiovisual segment padding for machine learning |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022521120A true JP2022521120A (ja) | 2022-04-06 |
JPWO2020174383A5 JPWO2020174383A5 (ja) | 2022-06-06 |
JP7450623B2 JP7450623B2 (ja) | 2024-03-15 |
Family
ID=72143024
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021535241A Active JP7450623B2 (ja) | 2019-02-25 | 2020-02-25 | 機械学習のための動的視聴覚セグメント・パディング |
Country Status (5)
Country | Link |
---|---|
US (2) | US10832734B2 (ja) |
JP (1) | JP7450623B2 (ja) |
CN (1) | CN113439277A (ja) |
GB (1) | GB2596463B (ja) |
WO (1) | WO2020174383A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10824487B2 (en) | 2018-07-17 | 2020-11-03 | Xandr Inc. | Real-time data processing pipeline and pacing control systems and methods |
US10997464B2 (en) * | 2018-11-09 | 2021-05-04 | Adobe Inc. | Digital image layout training using wireframe rendering within a generative adversarial network (GAN) system |
US10832734B2 (en) * | 2019-02-25 | 2020-11-10 | International Business Machines Corporation | Dynamic audiovisual segment padding for machine learning |
WO2021162935A1 (en) * | 2020-02-13 | 2021-08-19 | Stats Llc | Dynamically predicting shot type using a personalized deep neural network |
CN118055199A (zh) * | 2022-11-17 | 2024-05-17 | 北京字跳网络技术有限公司 | 视频剪辑方法及装置 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5327518A (en) | 1991-08-22 | 1994-07-05 | Georgia Tech Research Corporation | Audio analysis/synthesis system |
US5793888A (en) | 1994-11-14 | 1998-08-11 | Massachusetts Institute Of Technology | Machine learning apparatus and method for image searching |
CA2167748A1 (en) | 1995-02-09 | 1996-08-10 | Yoav Freund | Apparatus and methods for machine learning hypotheses |
US5596159A (en) | 1995-11-22 | 1997-01-21 | Invision Interactive, Inc. | Software sound synthesis system |
US6266068B1 (en) | 1998-03-13 | 2001-07-24 | Compaq Computer Corporation | Multi-layer image-based rendering for video synthesis |
US6513025B1 (en) | 1999-12-09 | 2003-01-28 | Teradyne, Inc. | Multistage machine learning process |
US7024033B2 (en) | 2001-12-08 | 2006-04-04 | Microsoft Corp. | Method for boosting the performance of machine-learning classifiers |
US20030131362A1 (en) | 2002-01-09 | 2003-07-10 | Koninklijke Philips Electronics N.V. | Method and apparatus for multimodal story segmentation for linking multimedia content |
US7142645B2 (en) * | 2002-10-04 | 2006-11-28 | Frederick Lowe | System and method for generating and distributing personalized media |
JP2006058874A (ja) | 2004-08-20 | 2006-03-02 | Mitsubishi Electric Research Laboratories Inc | マルチメディア中の事象を検出する方法 |
CN101107858A (zh) | 2005-01-20 | 2008-01-16 | 皇家飞利浦电子股份有限公司 | 自动产生包括产品安置的预告片 |
US8326775B2 (en) | 2005-10-26 | 2012-12-04 | Cortica Ltd. | Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof |
US9218606B2 (en) | 2005-10-26 | 2015-12-22 | Cortica, Ltd. | System and method for brand monitoring and trend analysis based on deep-content-classification |
US9047374B2 (en) * | 2007-06-08 | 2015-06-02 | Apple Inc. | Assembling video content |
US8207989B2 (en) | 2008-12-12 | 2012-06-26 | Microsoft Corporation | Multi-video synthesis |
US9247225B2 (en) | 2012-09-25 | 2016-01-26 | Intel Corporation | Video indexing with viewer reaction estimation and visual cue detection |
US10068614B2 (en) * | 2013-04-26 | 2018-09-04 | Microsoft Technology Licensing, Llc | Video service with automated video timeline curation |
US10269390B2 (en) | 2015-06-11 | 2019-04-23 | David M. DeCaprio | Game video processing systems and methods |
EP3475920A4 (en) | 2016-06-23 | 2020-01-15 | Loomai, Inc. | SYSTEMS AND METHODS FOR GENERATING HUMAN HEAD COMPUTER-BASED ANIMATION MODELS FROM CAPTURED DATA IMAGES |
CN107707931B (zh) | 2016-08-08 | 2021-09-10 | 阿里巴巴集团控股有限公司 | 根据视频数据生成解释数据、数据合成方法及装置、电子设备 |
US11024009B2 (en) | 2016-09-15 | 2021-06-01 | Twitter, Inc. | Super resolution using a generative adversarial network |
US10074038B2 (en) | 2016-11-23 | 2018-09-11 | General Electric Company | Deep learning medical systems and methods for image reconstruction and quality evaluation |
US10043109B1 (en) | 2017-01-23 | 2018-08-07 | A9.Com, Inc. | Attribute similarity-based search |
US10474880B2 (en) | 2017-03-15 | 2019-11-12 | Nec Corporation | Face recognition using larger pose face frontalization |
CN107464210B (zh) | 2017-07-06 | 2020-02-21 | 浙江工业大学 | 一种基于生成式对抗网络的图像风格迁移方法 |
CN108256627A (zh) | 2017-12-29 | 2018-07-06 | 中国科学院自动化研究所 | 视听信息互生装置及其基于循环对抗生成网络的训练系统 |
US11615208B2 (en) * | 2018-07-06 | 2023-03-28 | Capital One Services, Llc | Systems and methods for synthetic data generation |
US10832734B2 (en) | 2019-02-25 | 2020-11-10 | International Business Machines Corporation | Dynamic audiovisual segment padding for machine learning |
-
2019
- 2019-02-25 US US16/283,912 patent/US10832734B2/en active Active
-
2020
- 2020-02-25 CN CN202080014830.3A patent/CN113439277A/zh active Pending
- 2020-02-25 JP JP2021535241A patent/JP7450623B2/ja active Active
- 2020-02-25 WO PCT/IB2020/051586 patent/WO2020174383A1/en active Application Filing
- 2020-02-25 GB GB2113427.5A patent/GB2596463B/en active Active
- 2020-09-28 US US17/033,933 patent/US11521655B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7450623B2 (ja) | 2024-03-15 |
GB2596463B (en) | 2022-05-11 |
US20210012809A1 (en) | 2021-01-14 |
US10832734B2 (en) | 2020-11-10 |
GB2596463A (en) | 2021-12-29 |
US20200273495A1 (en) | 2020-08-27 |
WO2020174383A1 (en) | 2020-09-03 |
US11521655B2 (en) | 2022-12-06 |
CN113439277A (zh) | 2021-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7450623B2 (ja) | 機械学習のための動的視聴覚セグメント・パディング | |
US11663827B2 (en) | Generating a video segment of an action from a video | |
EP3473016B1 (en) | Method and system for automatically producing video highlights | |
CN110249622A (zh) | 实时的语义感知的相机曝光控制 | |
WO2019228267A1 (zh) | 短视频的合成方法、装置、设备及存储介质 | |
CN110737783B (zh) | 一种推荐多媒体内容的方法、装置及计算设备 | |
US20170065889A1 (en) | Identifying And Extracting Video Game Highlights Based On Audio Analysis | |
CN109121021A (zh) | 一种视频集锦的生成方法、装置、电子设备及存储介质 | |
CN110012356A (zh) | 视频推荐方法、装置和设备及计算机存储介质 | |
JP6807389B2 (ja) | メディアコンテンツのパフォーマンスの即時予測のための方法及び装置 | |
CN110781321A (zh) | 一种多媒体内容推荐方法及装置 | |
CN107615766A (zh) | 用于创建和分配多媒体内容的系统和方法 | |
CN107463698B (zh) | 基于人工智能推送信息的方法和装置 | |
US11849160B2 (en) | Image analysis system | |
US10743061B2 (en) | Display apparatus and control method thereof | |
CN110169075B (zh) | 在直播中智能插入次要内容 | |
CN105848737B (zh) | 解析装置、记录媒体和解析方法 | |
US11206453B2 (en) | Cognitive broadcasting of an event | |
Godi et al. | Indirect match highlights detection with deep convolutional neural networks | |
Gu et al. | SumBot: Summarize videos like a human | |
US11270338B2 (en) | Optimizing a digital display | |
Wang et al. | Unsupervised Multi-stream Highlight detection for the Game" Honor of Kings" | |
US11475668B2 (en) | System and method for automatic video categorization | |
CN110019942A (zh) | 一种视频鉴别方法及系统 | |
WO2023120263A1 (ja) | 情報処理装置及び情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220512 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220527 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220725 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230912 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231010 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240305 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7450623 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |