JP2022510479A - ビデオカット方法、ビデオカット装置、コンピュータ機器及び記憶媒体 - Google Patents
ビデオカット方法、ビデオカット装置、コンピュータ機器及び記憶媒体 Download PDFInfo
- Publication number
- JP2022510479A JP2022510479A JP2021532494A JP2021532494A JP2022510479A JP 2022510479 A JP2022510479 A JP 2022510479A JP 2021532494 A JP2021532494 A JP 2021532494A JP 2021532494 A JP2021532494 A JP 2021532494A JP 2022510479 A JP2022510479 A JP 2022510479A
- Authority
- JP
- Japan
- Prior art keywords
- data
- dot marking
- video
- dot
- marking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 230000009471 action Effects 0.000 claims abstract description 73
- 230000006399 behavior Effects 0.000 claims description 94
- 238000012545 processing Methods 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 20
- 238000013075 data extraction Methods 0.000 claims description 14
- 238000013519 translation Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000009977 dual effect Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000032683 aging Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/233—Processing of audio elementary streams
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/57—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23418—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/266—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
- H04N21/26603—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel for automatically generating descriptors from content, e.g. when it is not made available by its provider, using content analysis techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/27—Server based end-user applications
- H04N21/274—Storing end-user multimedia data in response to end-user request, e.g. network recorder
- H04N21/2743—Video hosting of uploaded data from client
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8455—Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8549—Creating video summaries, e.g. movie trailer
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Security & Cryptography (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
本願は、2018年12月14日に中国知識財産局に出願された、中国特許出願第201811536818X号の「ビデオカット方法、ビデオカット装置、コンピュータ機器及び記憶媒体」を名称とする中国特許出願の優先権を主張し、本願の全体が参照によりここに組み込まれる。
ビデオストリームデータから認識対象のビデオデータを抽出し、認識対象のビデオデータから映像データとオーディオデータを抽出するステップと、
映像データを所定のドットマーキング行動認識モデルに入力してドットマーキング行動認識結果を取得し、オーディオデータを所定のドットマーキング音声認識モデルに入力してドットマーキング音声認識結果を取得するステップと、
ドットマーキング行動認識結果、ドットマーキング音声認識結果、及び所定のドットマーキングトリガ規則に基づいてドットマーキング認識結果を取得するステップと、
ドットマーキング認識結果のタイプがドットマーキング操作である場合、認識対象のビデオデータにカットドット識別子を追加するステップと、
カットドット識別子に応じてビデオストリームデータをカット処理し、ビデオセグメントデータを取得するステップと、を含む。
ビデオストリームデータから認識対象のビデオデータを抽出し、認識対象のビデオデータから映像データとオーディオデータを抽出するための認識データ抽出モジュールと、
映像データを所定のドットマーキング行動認識モデルに入力してドットマーキング行動認識結果を取得し、オーディオデータを所定のドットマーキング音声認識モデルに入力してドットマーキング音声認識結果を取得するためのドットマーキング認識処理モジュールと、
ドットマーキング行動認識結果、ドットマーキング音声認識結果、及び所定のドットマーキングトリガ規則に基づいてドットマーキング認識結果を取得するためのドットマーキング結果取得モジュールと、
ドットマーキング認識結果のタイプがドットマーキング操作である場合、認識対象のビデオデータにカットドット識別子を追加するためのカット識別子追加モジュールと、
カットドット識別子に応じてビデオストリームデータをカット処理し、ビデオセグメントデータを取得するためのビデオカットモジュールと、を含む。
ビデオストリームデータから認識対象のビデオデータを抽出し、認識対象のビデオデータから映像データとオーディオデータを抽出するステップと、
映像データを所定のドットマーキング行動認識モデルに入力してドットマーキング行動認識結果を取得し、オーディオデータを所定のドットマーキング音声認識モデルに入力してドットマーキング音声認識結果を取得するステップと、
ドットマーキング行動認識結果、ドットマーキング音声認識結果、及び所定のドットマーキングトリガ規則に基づいてドットマーキング認識結果を取得するステップと、
ドットマーキング認識結果のタイプがドットマーキング操作である場合、認識対象のビデオデータにカットドット識別子を追加するステップと、
カットドット識別子に応じてビデオストリームデータをカット処理し、ビデオセグメントデータを取得するステップと、を前記1つ又は複数のプロセッサに実行させる。
ビデオストリームデータから認識対象のビデオデータを抽出し、認識対象のビデオデータから映像データとオーディオデータを抽出するステップと、
映像データを所定のドットマーキング行動認識モデルに入力してドットマーキング行動認識結果を取得し、オーディオデータを所定のドットマーキング音声認識モデルに入力してドットマーキング音声認識結果を取得するステップと、
ドットマーキング行動認識結果、ドットマーキング音声認識結果、及び所定のドットマーキングトリガ規則に基づいてドットマーキング認識結果を取得するステップと、
ドットマーキング認識結果のタイプがドットマーキング操作である場合、認識対象のビデオデータにカットドット識別子を追加するステップと、
カットドット識別子に応じてビデオストリームデータをカット処理し、ビデオセグメントデータを取得するステップと、を1つ又は複数のプロセッサに実行させる。
Claims (20)
- ビデオカット方法であって、
ビデオストリームデータから認識対象のビデオデータを抽出し、前記認識対象のビデオデータから映像データとオーディオデータを抽出するステップと、
前記映像データを所定のドットマーキング行動認識モデルに入力してドットマーキング行動認識結果を取得し、前記オーディオデータを所定のドットマーキング音声認識モデルに入力してドットマーキング音声認識結果を取得するステップと、
前記ドットマーキング行動認識結果、前記ドットマーキング音声認識結果、及び所定のドットマーキングトリガ規則に基づいてドットマーキング認識結果を取得するステップと、
前記ドットマーキング認識結果のタイプがドットマーキング操作である場合、前記認識対象のビデオデータにカットドット識別子を追加するステップと、
前記カットドット識別子に応じて前記ビデオストリームデータをカット処理し、ビデオセグメントデータを取得するステップと、を含む、
ビデオカット方法。 - ビデオストリームデータから認識対象のビデオデータを抽出する前記ステップは、
ビデオストリームデータを取得するステップと、
ビデオストリーム認識長を決定するステップと、
前記ビデオストリーム認識長に従って、前記ビデオストリームデータから認識対象のビデオデータを抽出するステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 前記映像データを所定のドットマーキング行動認識モデルに入力してドットマーキング行動認識結果を取得し、前記オーディオデータを所定のドットマーキング音声認識モデルに入力してドットマーキング音声認識結果を取得する前記ステップは、
前記認識対象のビデオデータに対応する所属の業務員の身分識別情報を決定するステップと、
前記身分識別情報のそれぞれに対応する所定のドットマーキング行動認識モデルとドットマーキング音声認識モデルを照会するステップと、
前記映像データから映像特徴データを抽出し、前記オーディオデータからオーディオ特徴データを抽出するステップと、
前記映像特徴データを前記ドットマーキング行動認識モデルに入力し、ドットマーキング行動認識結果を得て、前記オーディオ特徴データを前記ドットマーキング音声認識モデルに入力し、ドットマーキング音声認識結果を得るステップと、
ことを特徴とする請求項1に記載の方法。 - 前記身分識別情報のそれぞれに対応する所定のドットマーキング行動認識モデルとドットマーキング音声認識モデルを照会する前記ステップの前に、前記方法は、さらに、
業務システムから履歴行動映像データと履歴ドットマーキング音声データを取得するステップと、
前記履歴行動映像データと前記履歴ドットマーキング音声データを業務員によってそれぞれ分類し、各業務員に対応する履歴行動映像データと各業務員に対応する履歴ドットマーキング音声データを取得するステップと、
前記各業務員に対応する履歴行動映像データを訓練して前記ドットマーキング行動認識モデルを取得するステップと、
前記各業務員に対応する履歴ドットマーキング音声データを訓練して前記ドットマーキング音声認識モデルを取得するステップと、を含む、
ことを特徴とする請求項3に記載の方法。 - 前記ドットマーキング行動認識結果、前記ドットマーキング音声認識結果、及び所定のドットマーキングトリガ規則に基づいてドットマーキング認識結果を取得する前記ステップは、
行動トリガ規則と音声トリガ規則とを含む所定のドットマーキングトリガ規則を照会するステップと、
前記ドットマーキング行動認識結果と前記行動トリガ規則を比較して、行動トリガ結果を得るステップと、
前記ドットマーキング音声認識結果と前記音声トリガ規則を比較して、音声トリガ結果を得るステップと、
前記行動トリガ結果と前記音声トリガ結果に基づいて、ドットマーキング認識結果を得るステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 前記行動トリガ結果と前記音声トリガ結果に基づいて、ドットマーキング認識結果を得る前記ステップは、
前記行動トリガ結果と前記音声トリガ結果のいずれか一方を演算して、ドットマーキング認識結果を得るステップ、を含む、
ことを特徴とする請求項5に記載の方法。 - 前記ドットマーキング認識結果のタイプがドットマーキング操作である場合、前記認識対象のビデオデータにカットドット識別子を追加する前記ステップは、
前記ドットマーキング認識結果のタイプを決定するステップと、
前記ドットマーキング認識結果のタイプがドットマーキング操作である場合、所定のラベル追加規則を照会するステップと、
前記ラベル追加規則に基づいて、前記認識対象のビデオデータからキーフレームを決定し、前記キーフレームにカットラベルを追加し、前記カットドット識別子は、前記カットラベルを含むステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - ドットマーキングカット命令を受信すると、前記ドットマーキングカット命令のカット時刻値を決定するステップと、
前記認識対象のビデオデータにおいて、前記カット時刻値に対応するカットビデオフレームを決定するステップと、
前記カットビデオフレームにカットドット識別子を追加するステップと、
前記カットドット識別子に応じて前記ビデオストリームデータをカット処理する前記ステップに戻り、ビデオセグメントデータを取得するステップと、をさらに含む、
ことを特徴とする請求項1乃至7のいずれか1項に記載の方法。 - ビデオセグメントデータを取得する前記ステップの後、前記方法は、
前記ビデオセグメントデータからオーディオセグメントデータを抽出するステップと、
所定の音声認識モデルを照会するステップと、
前記オーディオセグメントデータを前記音声認識モデルに入力して、前記ビデオセグメントデータの訳文データを取得するステップと、
前記訳文データに基づいて前記ビデオセグメントデータに対応する業務タイプを決定し、前記ビデオセグメントデータを前記業務タイプに対応する記憶位置に記憶するステップと、をさらに含む、
ことを特徴とする請求項8に記載の方法。 - 前記訳文データに基づいて前記ビデオセグメントデータに対応する業務タイプを決定し、前記ビデオセグメントデータを前記業務タイプに対応する記憶位置に記憶する前記ステップは、
前記訳文データから業務キーワードを抽出するステップと、
前記業務キーワードに基づいて前記ビデオセグメントデータに対応する業務タイプを決定するステップと、
前記業務タイプに対応する所定の記憶位置を照会するステップと、
前記ビデオセグメントデータを前記記憶位置に記憶するステップと、を含む、
ことを特徴とする請求項9に記載の方法。 - ビデオカット装置であって、
ビデオストリームデータから認識対象のビデオデータを抽出し、前記認識対象のビデオデータから映像データとオーディオデータを抽出するための認識データ抽出モジュールと、
前記映像データを所定のドットマーキング行動認識モデルに入力してドットマーキング行動認識結果を取得し、前記オーディオデータを所定のドットマーキング音声認識モデルに入力してドットマーキング音声認識結果を取得するためのドットマーキング認識処理モジュールと、
前記ドットマーキング行動認識結果、前記ドットマーキング音声認識結果、及び所定のドットマーキングトリガ規則に基づいてドットマーキング認識結果を取得するためのドットマーキング結果取得モジュールと、
前記ドットマーキング認識結果のタイプがドットマーキング操作である場合、前記認識対象のビデオデータにカットドット識別子を追加するためのカット識別子追加モジュールと、
前記カットドット識別子に応じて前記ビデオストリームデータをカット処理し、ビデオセグメントデータを取得するためのビデオカットモジュールと、を含む、
ビデオカット装置。 - 前記認識データ抽出モジュールは、
ビデオストリームデータを取得するためのビデオストリーム取得ユニットと、
ビデオストリーム認識長を決定するための認識長決定ユニットと、
前記ビデオストリーム認識長に従って、前記ビデオストリームデータから認識対象のビデオデータを抽出するための認識データ抽出ユニットと、を含む、
ことを特徴とする請求項11に記載の装置。 - 前記ドットマーキング認識処理モジュールは、
前記認識対象のビデオデータに対応する所属の業務員の身分識別情報を決定するための身分識別決定ユニットと、
前記身分識別情報のそれぞれに対応する所定のドットマーキング行動認識モデルとドットマーキング音声認識モデルを照会するための認識モデル照会ユニットと、
前記映像データから映像特徴データを抽出し、前記オーディオデータからオーディオ特徴データを抽出するための特徴データ抽出ユニットと、
前記映像特徴データを前記ドットマーキング行動認識モデルに入力し、ドットマーキング行動認識結果を得て、前記オーディオ特徴データを前記ドットマーキング音声認識モデルに入力し、ドットマーキング音声認識結果を得るためのドットマーキング認識ユニットと、を含む、
ことを特徴とする請求項11に記載の装置。 - 前記装置は、
業務システムから履歴行動映像データと履歴ドットマーキング音声データを取得するための履歴データ取得モジュールと、
前記履歴行動映像データと前記履歴ドットマーキング音声データをそれぞれ業務員によって分類し、各業務員に対応する履歴行動映像データと各業務員に対応する履歴ドットマーキング音声データを取得するための履歴データ分類モジュールと、
前記各業務員に対応する履歴行動映像データを訓練し、前記ドットマーキング行動認識モデルを取得するための行動認識モデル訓練モジュールと、
前記各業務員に対応する履歴ドットマーキング音声データを訓練し、前記ドットマーキング音声認識モデルを取得するための音声認識モデル訓練モジュールと、をさらに含む、
ことを特徴とする請求項13に記載の装置。 - コンピュータ機器であって、メモリと1つ又は複数のプロセッサとを含み、前記メモリは、コンピュータ読み取り可能な命令を記憶し、前記コンピュータ読み取り可能な命令は、前記1つ又は複数のプロセッサによって実行されると、
ビデオストリームデータから認識対象のビデオデータを抽出し、前記認識対象のビデオデータから映像データとオーディオデータを抽出するステップと、
前記映像データを所定のドットマーキング行動認識モデルに入力してドットマーキング行動認識結果を取得し、前記オーディオデータを所定のドットマーキング音声認識モデルに入力してドットマーキング音声認識結果を取得するステップと、
前記ドットマーキング行動認識結果、前記ドットマーキング音声認識結果、及び所定のドットマーキングトリガ規則に基づいてドットマーキング認識結果を取得するステップと、
前記ドットマーキング認識結果のタイプがドットマーキング操作である場合、前記認識対象のビデオデータにカットドット識別子を追加するステップと、
前記カットドット識別子に応じて前記ビデオストリームデータをカット処理し、ビデオセグメントデータを取得するステップと、を前記1つ又は複数のプロセッサに実行させる、
コンピュータ機器。 - 前記プロセッサは、前記コンピュータ読み取り可能な命令を実行する際に、さらに、
ビデオストリームデータを取得するステップと、
ビデオストリーム認識長を決定するステップと、
前記ビデオストリーム認識長に従って、前記ビデオストリームデータから認識対象のビデオデータを抽出するステップと、を実行する、
ことを特徴とする請求項15に記載のコンピュータ機器。 - 前記プロセッサは、前記コンピュータ読み取り可能な命令を実行する際に、さらに、
前記認識対象のビデオデータに対応する所属の業務員の身分識別情報を決定するステップと、
前記身分識別情報のそれぞれに対応する所定のドットマーキング行動認識モデルとドットマーキング音声認識モデルを照会するステップと、
前記映像データから映像特徴データを抽出し、前記オーディオデータからオーディオ特徴データを抽出するステップと、
前記映像特徴データを前記ドットマーキング行動認識モデルに入力し、ドットマーキング行動認識結果を得て、前記オーディオ特徴データを前記ドットマーキング音声認識モデルに入力し、ドットマーキング音声認識結果を得るステップと、を実行する、
ことを特徴とする請求項15に記載のコンピュータ機器。 - コンピュータ読み取り可能な命令を記憶した1つ又は複数の不揮発性コンピュータ読み取り可能な記憶媒体であって、前記コンピュータ読み取り可能な命令は、1つ又は複数のプロセッサによって実行されると、
ビデオストリームデータから認識対象のビデオデータを抽出し、前記認識対象のビデオデータから映像データとオーディオデータを抽出するステップと、
前記映像データを所定のドットマーキング行動認識モデルに入力してドットマーキング行動認識結果を取得し、前記オーディオデータを所定のドットマーキング音声認識モデルに入力してドットマーキング音声認識結果を取得するステップと、
前記ドットマーキング行動認識結果、前記ドットマーキング音声認識結果、及び所定のドットマーキングトリガ規則に基づいてドットマーキング認識結果を取得するステップと、
前記ドットマーキング認識結果のタイプがドットマーキング操作である場合、前記認識対象のビデオデータにカットドット識別子を追加するステップと、
前記カットドット識別子に応じて前記ビデオストリームデータをカット処理し、ビデオセグメントデータを取得するステップと、を前記1つ又は複数のプロセッサに実行させる、
コンピュータ読み取り可能な命令を記憶した1つ又は複数の不揮発性コンピュータ読み取り可能な記憶媒体。 - 前記コンピュータ読み取り可能な命令は、前記プロセッサに実行させると、さらに、
ビデオストリームデータを取得するステップと、
ビデオストリーム認識長を決定するステップと、
前記ビデオストリーム認識長に従って、前記ビデオストリームデータから認識対象のビデオデータを抽出するステップと、を実行する、
ことを特徴とする請求項18に記載の記憶媒体。 - 前記コンピュータ読み取り可能な命令は、前記プロセッサに実行させると、さらに、
前記認識対象のビデオデータに対応する所属の業務員の身分識別情報を決定するステップと、
前記身分識別情報のそれぞれに対応する所定のドットマーキング行動認識モデルとドットマーキング音声認識モデルを照会するステップと、
前記映像データから映像特徴データを抽出し、前記オーディオデータからオーディオ特徴データを抽出するステップと、
前記映像特徴データを前記ドットマーキング行動認識モデルに入力し、ドットマーキング行動認識結果を得て、前記オーディオ特徴データを前記ドットマーキング音声認識モデルに入力し、ドットマーキング音声認識結果を得るステップと、を実行する、
ことを特徴とする請求項18に記載の記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811536818.X | 2018-12-14 | ||
CN201811536818.XA CN109743624B (zh) | 2018-12-14 | 2018-12-14 | 视频切割方法、装置、计算机设备和存储介质 |
PCT/CN2019/122472 WO2020119508A1 (zh) | 2018-12-14 | 2019-12-02 | 视频切割方法、装置、计算机设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022510479A true JP2022510479A (ja) | 2022-01-26 |
Family
ID=66360325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021532494A Pending JP2022510479A (ja) | 2018-12-14 | 2019-12-02 | ビデオカット方法、ビデオカット装置、コンピュータ機器及び記憶媒体 |
Country Status (6)
Country | Link |
---|---|
EP (1) | EP3890333A4 (ja) |
JP (1) | JP2022510479A (ja) |
KR (1) | KR20210088680A (ja) |
CN (1) | CN109743624B (ja) |
SG (1) | SG11202103326QA (ja) |
WO (1) | WO2020119508A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109151615B (zh) * | 2018-11-02 | 2022-01-25 | 湖南双菱电子科技有限公司 | 视频处理方法、计算机设备和计算机存储介质 |
CN109743624B (zh) * | 2018-12-14 | 2021-08-17 | 深圳壹账通智能科技有限公司 | 视频切割方法、装置、计算机设备和存储介质 |
CN110446061B (zh) * | 2019-07-04 | 2023-04-07 | 深圳壹账通智能科技有限公司 | 视频数据获取方法、装置、计算机设备及存储介质 |
CN112380922B (zh) * | 2020-10-23 | 2024-03-22 | 岭东核电有限公司 | 复盘视频帧确定方法、装置、计算机设备和存储介质 |
CN112487238B (zh) * | 2020-10-27 | 2024-05-17 | 百果园技术(新加坡)有限公司 | 一种音频处理方法、装置、终端及介质 |
CN113096687B (zh) * | 2021-03-30 | 2024-04-26 | 中国建设银行股份有限公司 | 音视频处理方法、装置、计算机设备及存储介质 |
CN113207033B (zh) * | 2021-04-29 | 2022-09-20 | 读书郎教育科技有限公司 | 一种智慧课堂录制视频无效片段处理的系统及方法 |
CN113810766B (zh) * | 2021-11-17 | 2022-02-08 | 深圳市速点网络科技有限公司 | 一种视频剪辑组合处理方法及系统 |
CN114374885B (zh) * | 2021-12-31 | 2024-07-09 | 北京百度网讯科技有限公司 | 视频关键片段确定方法、装置、电子设备及可读存储介质 |
CN114022828A (zh) * | 2022-01-05 | 2022-02-08 | 北京金茂教育科技有限公司 | 视频流处理方法及装置 |
CN114465737B (zh) * | 2022-04-13 | 2022-06-24 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置、计算机设备及存储介质 |
CN115866290A (zh) * | 2022-05-31 | 2023-03-28 | 北京中关村科金技术有限公司 | 视频打点方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004187043A (ja) * | 2002-12-04 | 2004-07-02 | Fuji Xerox Co Ltd | 映像処理装置 |
JP2009272816A (ja) * | 2008-05-02 | 2009-11-19 | Visionere Corp | サーバ、情報処理システム及び情報処理方法 |
JP2010504044A (ja) * | 2006-09-12 | 2010-02-04 | グーグル・インコーポレーテッド | ターゲットとされたビデオ広告における視聴信号の使用 |
US20150082349A1 (en) * | 2013-09-13 | 2015-03-19 | Arris Enterprises, Inc. | Content Based Video Content Segmentation |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6999620B1 (en) * | 2001-12-10 | 2006-02-14 | Hewlett-Packard Development Company, L.P. | Segmenting video input using high-level feedback |
US20060059120A1 (en) * | 2004-08-27 | 2006-03-16 | Ziyou Xiong | Identifying video highlights using audio-visual objects |
CN101616264B (zh) * | 2008-06-27 | 2011-03-30 | 中国科学院自动化研究所 | 新闻视频编目方法及系统 |
JP5845801B2 (ja) * | 2011-10-18 | 2016-01-20 | ソニー株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
US20140328570A1 (en) * | 2013-01-09 | 2014-11-06 | Sri International | Identifying, describing, and sharing salient events in images and videos |
CN104519401B (zh) * | 2013-09-30 | 2018-04-17 | 贺锦伟 | 视频分割点获得方法及设备 |
CN104780388B (zh) * | 2015-03-31 | 2018-03-09 | 北京奇艺世纪科技有限公司 | 一种视频数据的切分方法和装置 |
CN105931635B (zh) * | 2016-03-31 | 2019-09-17 | 北京奇艺世纪科技有限公司 | 一种音频分割方法及装置 |
US9830516B1 (en) * | 2016-07-07 | 2017-11-28 | Videoken, Inc. | Joint temporal segmentation and classification of user activities in egocentric videos |
CN106658169B (zh) * | 2016-12-18 | 2019-06-07 | 北京工业大学 | 一种基于深度学习多层次分割新闻视频的通用方法 |
CN106782507B (zh) * | 2016-12-19 | 2018-03-06 | 平安科技(深圳)有限公司 | 语音分割的方法及装置 |
CN107358945A (zh) * | 2017-07-26 | 2017-11-17 | 谢兵 | 一种基于机器学习的多人对话音频识别方法及系统 |
CN107623860A (zh) * | 2017-08-09 | 2018-01-23 | 北京奇艺世纪科技有限公司 | 多媒体数据分割方法和装置 |
CN108132995A (zh) * | 2017-12-20 | 2018-06-08 | 北京百度网讯科技有限公司 | 用于处理音频信息的方法和装置 |
CN108235141B (zh) * | 2018-03-01 | 2020-11-20 | 北京网博视界科技股份有限公司 | 直播视频转碎片化点播的方法、装置、服务器和存储介质 |
CN109743624B (zh) * | 2018-12-14 | 2021-08-17 | 深圳壹账通智能科技有限公司 | 视频切割方法、装置、计算机设备和存储介质 |
CN109831677B (zh) * | 2018-12-14 | 2022-04-01 | 平安科技(深圳)有限公司 | 视频脱敏方法、装置、计算机设备和存储介质 |
-
2018
- 2018-12-14 CN CN201811536818.XA patent/CN109743624B/zh active Active
-
2019
- 2019-12-02 SG SG11202103326QA patent/SG11202103326QA/en unknown
- 2019-12-02 KR KR1020217017667A patent/KR20210088680A/ko not_active Application Discontinuation
- 2019-12-02 JP JP2021532494A patent/JP2022510479A/ja active Pending
- 2019-12-02 EP EP19896863.8A patent/EP3890333A4/en not_active Withdrawn
- 2019-12-02 WO PCT/CN2019/122472 patent/WO2020119508A1/zh unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004187043A (ja) * | 2002-12-04 | 2004-07-02 | Fuji Xerox Co Ltd | 映像処理装置 |
JP2010504044A (ja) * | 2006-09-12 | 2010-02-04 | グーグル・インコーポレーテッド | ターゲットとされたビデオ広告における視聴信号の使用 |
JP2009272816A (ja) * | 2008-05-02 | 2009-11-19 | Visionere Corp | サーバ、情報処理システム及び情報処理方法 |
US20150082349A1 (en) * | 2013-09-13 | 2015-03-19 | Arris Enterprises, Inc. | Content Based Video Content Segmentation |
Also Published As
Publication number | Publication date |
---|---|
CN109743624A (zh) | 2019-05-10 |
KR20210088680A (ko) | 2021-07-14 |
CN109743624B (zh) | 2021-08-17 |
EP3890333A1 (en) | 2021-10-06 |
SG11202103326QA (en) | 2021-05-28 |
EP3890333A4 (en) | 2022-05-25 |
WO2020119508A1 (zh) | 2020-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022510479A (ja) | ビデオカット方法、ビデオカット装置、コンピュータ機器及び記憶媒体 | |
US11615308B2 (en) | Generating responses to queries about videos utilizing a multi-modal neural network with attention | |
CN110444198B (zh) | 检索方法、装置、计算机设备和存储介质 | |
US10108709B1 (en) | Systems and methods for queryable graph representations of videos | |
US10943600B2 (en) | Systems and methods for interrelating text transcript information with video and/or audio information | |
CN111444723B (zh) | 信息抽取方法、计算机设备和存储介质 | |
US20210089571A1 (en) | Machine learning image search | |
US20200371741A1 (en) | Electronic apparatus, document displaying method thereof and non-transitory computer readable recording medium | |
CN109831677B (zh) | 视频脱敏方法、装置、计算机设备和存储介质 | |
CN104361311B (zh) | 多模态在线增量式来访识别系统及其识别方法 | |
WO2022116436A1 (zh) | 长短句文本语义匹配方法、装置、计算机设备及存储介质 | |
JP2015162244A (ja) | 発話ワードをランク付けする方法、プログラム及び計算処理システム | |
CN110362798B (zh) | 裁决信息检索分析方法、装置、计算机设备和存储介质 | |
US11657316B2 (en) | Self-feeding deep learning method and system | |
WO2021134524A1 (zh) | 数据处理方法、装置、电子设备和存储介质 | |
CN111062221A (zh) | 数据处理方法、装置、电子设备以及存储介质 | |
DE102017125474A1 (de) | Kontextuelles eindeutigmachen von anfragen | |
KR101618084B1 (ko) | 회의록 관리 방법 및 그 장치 | |
CN111126084B (zh) | 数据处理方法、装置、电子设备和存储介质 | |
CN114493902A (zh) | 多模态信息异常监控方法、装置、计算机设备及存储介质 | |
JP5844375B2 (ja) | 物体検索システムおよび物体検索方法 | |
Fernandes et al. | IoT based smart security for the blind | |
CN114780757A (zh) | 短媒体标签抽取方法、装置、计算机设备和存储介质 | |
CN114556328B (zh) | 数据处理方法、装置、电子设备和存储介质 | |
CN117641109A (zh) | 多媒体数据采集方法及装置、存储介质、计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210608 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210608 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220725 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220809 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230228 |