JP7258400B6 - ビデオデータ処理方法、ビデオデータ処理装置、コンピュータ機器、及びコンピュータプログラム - Google Patents
ビデオデータ処理方法、ビデオデータ処理装置、コンピュータ機器、及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7258400B6 JP7258400B6 JP2021531593A JP2021531593A JP7258400B6 JP 7258400 B6 JP7258400 B6 JP 7258400B6 JP 2021531593 A JP2021531593 A JP 2021531593A JP 2021531593 A JP2021531593 A JP 2021531593A JP 7258400 B6 JP7258400 B6 JP 7258400B6
- Authority
- JP
- Japan
- Prior art keywords
- video frame
- target
- pixel point
- matrix
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 33
- 238000003672 processing method Methods 0.000 title claims description 18
- 238000004590 computer program Methods 0.000 title claims description 15
- 239000011159 matrix material Substances 0.000 claims description 491
- 238000006073 displacement reaction Methods 0.000 claims description 416
- 238000000034 method Methods 0.000 claims description 89
- 230000003287 optical effect Effects 0.000 claims description 63
- 238000004364 calculation method Methods 0.000 claims description 28
- 230000004044 response Effects 0.000 claims description 26
- 238000013507 mapping Methods 0.000 claims description 24
- 238000004891 communication Methods 0.000 claims description 18
- 238000010586 diagram Methods 0.000 description 31
- 230000008569 process Effects 0.000 description 11
- 230000000694 effects Effects 0.000 description 10
- 230000008921 facial expression Effects 0.000 description 7
- 230000009286 beneficial effect Effects 0.000 description 6
- 230000010354 integration Effects 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 108700039855 mouse a Proteins 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/238—Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
- H04N21/2387—Stream processing in response to a playback request from an end-user, e.g. for trick-play
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47217—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4884—Data services, e.g. news ticker for displaying subtitles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8455—Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8547—Content authoring involving timestamps for synchronizing content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Security & Cryptography (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
ターゲットビデオに対するトリガ操作に応答して、前記ターゲットビデオのキービデオフレームからターゲット画素点を決定し、前記ターゲット画素点に関連付けられたマルチメディア情報を取得するステップであって、前記キービデオフレームは、前記トリガ操作が位置するビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける、前記トリガ操作に対応する画素点である、ステップと、
前記ターゲット画素点の前記キービデオフレームにおける位置情報に基づいて、前記ターゲット画素点に対応する軌跡取得要求を決定するステップと、
前記軌跡取得要求に基づいて、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を取得するステップであって、前記ターゲット軌跡情報は、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報を含み、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報は、前記ターゲット画素点を追跡することにより取得されたものである、ステップと、
前記キービデオフレームの次のビデオフレームを再生する際に、前記ターゲット軌跡情報における、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報に基づいて、前記マルチメディア情報を表示するステップと、を含む。
キービデオフレームにおけるターゲット画素点に対する軌跡取得要求に応答して、ターゲットビデオに関連付けられた軌跡情報を取得するステップであって、前記キービデオフレームは、前記ターゲットビデオにおけるビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける画素点であり、前記軌跡情報は、前記ターゲットビデオの各ビデオフレームにおける画素点の位置情報によって決定されたものである、ステップと、
前記ターゲットビデオに関連付けられた軌跡情報の中から、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を選別し、前記ターゲット軌跡情報を返信するステップであって、前記ターゲット軌跡情報は、ターゲット位置情報を含み、前記ターゲット位置情報は、前記キービデオフレームの次のビデオフレームにおいて、前記ターゲット画素点に関連付けられたマルチメディア情報を表示することをトリガするためのものである、ステップと、を含む。
ターゲットビデオから、隣接する第1ビデオフレーム及び第2ビデオフレームを取得するステップと、
前記ターゲットビデオに対応するオプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定するステップと、
前記平均変位行列に基づいて、前記第1ビデオフレームにおける画素点の位置情報を追跡し、前記第2ビデオフレームにおいて、追跡された画素点の位置情報を決定するステップと、
前記第1ビデオフレームにおける画素点の位置情報と、前記追跡された画素点の前記第2ビデオフレームにおける位置情報とに基づいて、前記ターゲットビデオに関連付けられた軌跡情報を生成するステップであって、前記軌跡情報は、ターゲットビデオにおけるターゲット画素点に関連付けられたマルチメディア情報を追跡して表示するためのターゲット軌跡情報を含む、ステップと、を含む。
ターゲットビデオに対するトリガ操作に応答して、前記ターゲットビデオのキービデオフレームからターゲット画素点を決定し、前記ターゲット画素点に関連付けられたマルチメディア情報を取得するオブジェクト決定モジュールであって、前記キービデオフレームは、前記トリガ操作が位置するビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける、前記トリガ操作に対応する画素点である、オブジェクト決定モジュールと、
前記ターゲット画素点の前記キービデオフレームにおける位置情報に基づいて、前記ターゲット画素点に対応する軌跡取得要求を決定する要求決定モジュールと、
前記軌跡取得要求に基づいて、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を取得する軌跡取得モジュールであって、前記ターゲット軌跡情報は、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報を含み、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報は、前記ターゲット画素点を追跡することにより取得されたものである、軌跡取得モジュールと、
前記キービデオフレームの次のビデオフレームを再生する際に、前記ターゲット軌跡情報における、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報に基づいて、前記マルチメディア情報を表示するテキスト表示モジュールと、を含む。
キービデオフレームにおけるターゲット画素点に対する軌跡取得要求に応答して、ターゲットビデオに関連付けられた軌跡情報を取得する要求応答モジュールであって、前記キービデオフレームは、前記ターゲットビデオにおけるビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける画素点であり、前記軌跡情報は、前記ターゲットビデオの各ビデオフレームにおける画素点の位置情報によって決定されたものである、要求応答モジュールと、
前記ターゲットビデオに関連付けられた軌跡情報の中から、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を選別し、前記ターゲット軌跡情報を返信する軌跡選別モジュールであって、前記ターゲット軌跡情報は、ターゲット位置情報を含み、前記ターゲット位置情報は、前記キービデオフレームの次のビデオフレームにおいて、前記ターゲット画素点に関連付けられたマルチメディア情報を表示することをトリガするためのものである、軌跡選別モジュールと、を含む。
ターゲットビデオから、隣接する第1ビデオフレーム及び第2ビデオフレームを取得する第1取得モジュールと、
前記ターゲットビデオに対応するオプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定する行列取得モジュールと、
前記平均変位行列に基づいて、前記第1ビデオフレームにおける画素点の位置情報を追跡し、前記第2ビデオフレームにおいて、追跡された画素点の位置情報を決定する位置追跡モジュールと、
前記第1ビデオフレームにおける画素点の位置情報と、前記追跡された画素点の前記第2ビデオフレームにおける位置情報とに基づいて、前記ターゲットビデオに関連付けられた軌跡情報を生成する追跡生成モジュールあって、前記軌跡情報は、ターゲットビデオにおけるターゲット画素点に関連付けられたマルチメディア情報を追跡して表示するためのターゲット軌跡情報を含む、追跡生成モジュールと、を含む。
前記プロセッサは、前記メモリ及び前記ネットワークインタフェースに接続され、前記ネットワークインタフェースは、データ通信機能を提供し、前記メモリは、コンピュータプログラムを記憶し、前記プロセッサは、前記コンピュータプログラムを呼び出すことにより、本願の実施例の一態様に記載の方法を実行する。
ターゲットビデオに対するトリガ操作に応答して、前記ターゲットビデオのキービデオフレームからターゲット画素点を決定し、前記ターゲット画素点に関連付けられたマルチメディア情報を取得するステップであって、前記キービデオフレームは、前記トリガ操作が位置するビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける、前記トリガ操作に対応する画素点である、ステップと、
前記ターゲット画素点の前記キービデオフレームにおける位置情報に基づいて、前記ターゲット画素点に対応する軌跡取得要求を決定するステップと、
前記軌跡取得要求に基づいて、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を取得するステップであって、前記ターゲット軌跡情報は、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報を含み、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報は、前記ターゲット画素点を追跡することにより取得されたものである、ステップと、
前記キービデオフレームの次のビデオフレームを再生する際に、前記ターゲット軌跡情報における、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報に基づいて、前記マルチメディア情報を表示するステップと、
を実現するために用いることができる。
キービデオフレームにおけるターゲット画素点に対する軌跡取得要求に応答して、ターゲットビデオに関連付けられた軌跡情報を取得するステップであって、前記キービデオフレームは、前記ターゲットビデオにおけるビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける画素点であり、前記軌跡情報は、前記ターゲットビデオの各ビデオフレームにおける画素点の位置情報によって決定されたものである、ステップと、
前記ターゲットビデオに関連付けられた軌跡情報の中から、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を選別し、前記ターゲット軌跡情報を返信するステップであって、前記ターゲット軌跡情報は、ターゲット位置情報を含み、前記ターゲット位置情報は、前記キービデオフレームの次のビデオフレームにおいて、前記ターゲット画素点に関連付けられたマルチメディア情報を表示することをトリガするためのものである、ステップと、
を実現するために用いることができる。
ターゲットビデオから、隣接する第1ビデオフレーム及び第2ビデオフレームを取得するステップと、
前記ターゲットビデオに対応するオプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定するステップと、
前記平均変位行列に基づいて、前記第1ビデオフレームにおける画素点の位置情報を追跡し、前記第2ビデオフレームにおいて、追跡された画素点の位置情報を決定するステップと、
前記第1ビデオフレームにおける画素点の位置情報と、前記追跡された画素点の前記第2ビデオフレームにおける位置情報とに基づいて、前記ターゲットビデオに関連付けられた軌跡情報を生成するステップであって、前記軌跡情報は、ターゲットビデオにおけるターゲット画素点に関連付けられたマルチメディア情報を追跡して表示するためのターゲット軌跡情報を含む、ステップと、
を実現するために用いることができる。
3000a,3000b,3000c,3000n ユーザ端末
1,2,3 ビデオデータ処理装置
310 第1取得モジュール
410 行列取得モジュール
510 位置追跡モジュール
610 軌跡生成モジュール
1000,2000,3000 コンピュータ機器
1001,2001,3001 プロセッサ
1002,2002,3002 通信バス
1003,2003,3003 ユーザインタフェース
1004,2004,3004 ネットワークインタフェース
1005,2005,3005 メモリ
1101 オブジェクト決定モジュール
1102 要求決定モジュール
1103 軌跡取得モジュール
1104 テキスト表示モジュール
1301 要求応答モジュール
1302 軌跡選別モジュール
4001 第1決定ユニット
4002 行列決定ユニット
4003 画素点選別ユニット
4004 行列修正ユニット
4005 第2決定ユニット
4021 第1追跡サブユニット
4022 第2追跡サブユニット
4031 第1位置決定サブユニット
4032 第2位置決定サブユニット
4033 第3位置決定サブユニット
4034 誤差決定サブユニット
4035 有効選別サブユニット
4041 初期取得サブユニット
4042 数値切替サブユニット
4043 変位設定サブユニット
4051 第1積分サブユニット
4052 第2積分サブユニット
4053 第3積分サブユニット
4054 差分演算サブユニット
4055 第1差分サブユニット
4056 第2差分サブユニット
4057 第3差分サブユニット
4058 平均決定サブユニット
Claims (14)
- コンピュータ機器が実行するビデオデータ処理方法であって、
ターゲットビデオに対するトリガ操作に応答して、前記ターゲットビデオのキービデオフレームからターゲット画素点を決定し、前記ターゲット画素点に関連付けられたマルチメディア情報を取得するステップであって、前記キービデオフレームは、前記トリガ操作が位置するビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける、前記トリガ操作に対応する画素点である、ステップと、
前記ターゲット画素点の前記キービデオフレームにおける位置情報に基づいて、前記ターゲット画素点に対応する軌跡取得要求を決定するステップと、
前記軌跡取得要求に基づいて、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を取得するステップであって、前記ターゲット軌跡情報は、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報を含み、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報は、前記ターゲット画素点を追跡することにより取得されたものである、ステップと、
前記キービデオフレームの次のビデオフレームを再生する際に、前記ターゲット軌跡情報における、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報に基づいて、前記マルチメディア情報を表示するステップと、を含み、
前記ターゲット軌跡情報は、隣接する第1ビデオフレーム及び第2ビデオフレームにおける画素点の位置情報に基づいて決定されたものであり、
前記第2ビデオフレームにおける画素点の位置情報は、前記第1ビデオフレームに対応する平均変位行列に基づいて、前記第1ビデオフレームにおける画素点の位置情報を追跡して決定されたものであり、
前記平均変位行列は、ターゲットビデオに対応するオプティカルビデオフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて決定されたものであり、
前記平均変位行列は、
前記ターゲットビデオに対応するオプティカルフロー追跡規則を取得し、前記第1ビデオフレームにおける画素点の位置情報を第1位置情報として決定し、第2ビデオフレームにおける画素点の位置情報を第2位置情報として決定し、
前記オプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点の第1位置情報と、前記第2ビデオフレームにおける画素点の第2位置情報とに基づいて、前記第1ビデオフレームに対応する順方向変位行列を取得し、前記第2ビデオフレームに対応する逆方向変位行列を取得し、
前記第1ビデオフレームにおける画素点の第1位置情報と、前記順方向変位行列と、前記逆方向変位行列とに基づいて、前記第1ビデオフレームにおける画素点のうちターゲット選別条件を満たす画素点を有効画素点として決定し、
前記有効画素点に基づいて、前記第1ビデオフレームに対応する初期状態行列及び前記順方向変位行列を修正することにより、前記第1ビデオフレームに対応するターゲット状態行列及びターゲット変位行列を取得し、
前記ターゲット状態行列及び前記ターゲット変位行列に基づいて、前記第1ビデオフレームに対応する平均変位行列を決定することによって決定される、
ことを特徴とする方法。 - サービスサーバが実行するビデオデータ処理方法であって、
キービデオフレームにおけるターゲット画素点に対する軌跡取得要求に応答して、ターゲットビデオに関連付けられた軌跡情報を取得するステップであって、前記キービデオフレームは、前記ターゲットビデオにおけるビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける画素点であり、前記軌跡情報は、前記ターゲットビデオの各ビデオフレームにおける画素点の位置情報によって決定されたものである、ステップと、
前記ターゲットビデオに関連付けられた軌跡情報の中から、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を選別し、前記ターゲット軌跡情報を返信するステップであって、前記ターゲット軌跡情報は、ターゲット位置情報を含み、前記ターゲット位置情報は、前記キービデオフレームの次のビデオフレームにおいて、前記ターゲット画素点に関連付けられたマルチメディア情報を表示することをトリガするためのものである、ステップと、を含み、
前記ターゲットビデオに関連付けられた軌跡情報は、
前記ターゲットビデオから、隣接する第1ビデオフレーム及び第2ビデオフレームを取得するステップと、
前記ターゲットビデオに対応するオプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定するステップと、
前記平均変位行列に基づいて、前記第1ビデオフレームにおける画素点の位置情報を追跡し、前記第2ビデオフレームにおいて、追跡された画素点に位置情報を決定するステップと、
前記第1ビデオフレームにおける画素点に位置情報と、前記追跡された画素点の前記第2ビデオフレームにおける位置情報とに基づいて、前記ターゲットビデオに関連付けられた軌跡情報を生成することによって生成され、
前記ターゲットビデオに対応するオプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定する前記ステップは、
前記ターゲットビデオに対応するオプティカルフロー追跡規則を取得し、前記第1ビデオフレームにおける画素点の位置情報を第1位置情報として決定し、前記第2ビデオフレームにおける画素点の位置情報を第2位置情報として決定するステップと、
前記オプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点の第1位置情報と、前記第2ビデオフレームにおける画素点の第2位置情報とに基づいて、前記第1ビデオフレームに対応する順方向変位行列を取得し、前記第2ビデオフレームに対応する逆方向変位行列を取得するステップと、
前記第1ビデオフレームにおける画素点の第1位置情報と、前記順方向変位行列と、前記逆方向変位行列とに基づいて、前記第1ビデオフレームにおける画素点のうちターゲット選別条件を満たす画素点を有効画素点として決定するステップと、
前記有効画素点に基づいて、前記第1ビデオフレームに対応する初期状態行列及び前記順方向変位行列を修正することにより、前記第1ビデオフレームに対応するターゲット状態行列及びターゲット変位行列を取得するステップと、
前記ターゲット状態行列及び前記ターゲット変位行列に基づいて、前記第1ビデオフレームに対応する平均変位行列を決定するステップと、
を含むことを特徴とする方法。 - コンピュータ機器が実行するビデオデータ処理方法であって、
ターゲットビデオから、隣接する第1ビデオフレーム及び第2ビデオフレームを取得するステップと、
前記ターゲットビデオに対応するオプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定するステップと、
前記平均変位行列に基づいて、前記第1ビデオフレームにおける画素点の位置情報を追跡し、前記第2ビデオフレームにおいて、追跡された画素点の位置情報を決定するステップと、
前記第1ビデオフレームにおける画素点の位置情報と、前記追跡された画素点の前記第2ビデオフレームにおける位置情報とに基づいて、前記ターゲットビデオに関連付けられた軌跡情報を生成するステップであって、前記軌跡情報は、ターゲットビデオにおけるターゲット画素点に関連付けられたマルチメディア情報を追跡して表示するためのターゲット軌跡情報を含む、ステップと、
を含み、
前記ターゲットビデオに対応するオプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定する前記ステップは、
前記ターゲットビデオに対応するオプティカルフロー追跡規則を取得し、前記第1ビデオフレームにおける画素点の位置情報を第1位置情報として決定し、前記第2ビデオフレームにおける画素点の位置情報を第2位置情報として決定するステップと、
前記オプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点の第1位置情報と、前記第2ビデオフレームにおける画素点の第2位置情報とに基づいて、前記第1ビデオフレームに対応する順方向変位行列を取得し、前記第2ビデオフレームに対応する逆方向変位行列を取得するステップと、
前記第1ビデオフレームにおける画素点の第1位置情報と、前記順方向変位行列と、前記逆方向変位行列とに基づいて、前記第1ビデオフレームにおける画素点のうちターゲット選別条件を満たす画素点を有効画素点として決定するステップと、
前記有効画素点に基づいて、前記第1ビデオフレームに対応する初期状態行列及び前記順方向変位行列を修正することにより、前記第1ビデオフレームに対応するターゲット状態行列及びターゲット変位行列を取得するステップと、
前記ターゲット状態行列及び前記ターゲット変位行列に基づいて、前記第1ビデオフレームに対応する平均変位行列を決定するステップと、
を含むことを特徴とする方法。 - 前記オプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点の第1位置情報と、前記第2ビデオフレームにおける画素点の第2位置情報とに基づいて、前記第1ビデオフレームに対応する順方向変位行列を取得し、前記第2ビデオフレームに対応する逆方向変位行列を取得する前記ステップは、
前記第1ビデオフレームにおける画素点の第1位置情報と、前記オプティカルフロー追跡規則とに基づいて、前記第1ビデオフレームにおける画素点を前記第2ビデオフレームに順方向にマッピングし、前記第2ビデオフレームにおいて、マッピングされた第1マッピング点の第2位置情報を決定し、前記第1ビデオフレームにおける画素点の第1位置情報と、前記第1マッピング点の第2位置情報とに基づいて、前記第1ビデオフレームに対応する順方向変位行列を決定するステップと、
前記第2ビデオフレームにおける画素点の第2位置情報と、前記オプティカルフロー追跡規則とに基づいて、前記第2ビデオフレームにおける画素点を前記第1ビデオフレームに逆方向にマッピングし、前記第1ビデオフレームにおいて、マッピングされた第2マッピング点の第3位置情報を決定し、前記第1マッピング点の第2位置情報と、前記第2マッピング点の第3位置情報とに基づいて、前記第2ビデオフレームに対応する逆方向変位行列を決定するステップと、
を含むことを特徴とする請求項3に記載の方法。 - 前記第1ビデオフレームにおける画素点の第1位置情報と、前記順方向変位行列と、前記逆方向変位行列とに基づいて、前記第1ビデオフレームにおける画素点のうちターゲット選別条件を満たす画素点を有効画素点として決定する前記ステップは、
前記第1ビデオフレームにおける画素点の中から第1画素点を取得し、前記第1ビデオフレームにおいて、前記第1画素点の第1位置情報を決定し、前記順方向変位行列から、前記第1画素点に対応する第1横方向変位及び第1縦方向変位を決定するステップと、
前記第1画素点の第1位置情報と、前記第1画素点に対応する第1横方向変位及び第1縦方向変位とに基づいて、前記第1画素点を前記第2ビデオフレームに順方向にマッピングし、前記第2ビデオフレームにおいて、マッピングされた第2画素点の第2位置情報を決定するステップと、
前記逆方向変位行列から、前記第2画素点に対応する第2横方向変位及び第2縦方向変位を決定し、前記第2画素点の第2位置情報と、前記第2画素点に対応する第2横方向変位及び第2縦方向変位とに基づいて、前記第2画素点を前記第1ビデオフレームに逆方向にマッピングし、前記第1ビデオフレームにおいて、マッピングされた第3画素点の第3位置情報を決定するステップと、
前記第1画素点の第1位置情報と、前記第3画素点の第3位置情報とに基づいて、前記第1画素点と前記第3画素点との誤差距離を決定し、前記第1画素点の第1位置情報と、前記第2画素点の第2位置情報とに基づいて、第1画素点を含む画像ブロックと、前記第2 画素点を含む画像ブロックとの相関係数を決定するステップと、
前記第1ビデオフレームにおける画素点のうち、誤差距離が誤差距離閾値未満であり、かつ前記相関係数が相関係数閾値以上である画素点を有効画素点として決定するステップと、
を含むことを特徴とする請求項3に記載の方法。 - 前記有効画素点に基づいて、前記第1ビデオフレームに対応する初期状態行列及び前記順方向変位行列を修正することにより、前記第1ビデオフレームに対応するターゲット状態行列及びターゲット変位行列を取得する前記ステップは、
前記第1ビデオフレームに対応する初期状態行列を取得するステップであって、前記初期状態行列の各行列要素の状態値は、いずれも第1数値であり、1つの行列要素は、前記第1ビデオフレームにおける画素点のうちの1つに対応する、ステップと、
前記初期状態行列において、前記有効画素点に対応する行列要素の状態値を第1数値から第2数値に切り替え、第2数値を含む初期状態行列を、前記第1ビデオフレームに対応するターゲット状態行列として決定するステップと、
前記順方向変位行列において、残りの画素点に対応する行列要素の変位を前記第1数値に設定し、前記第1数値を含む順方向変位行列をターゲット変位行列として決定するステップであって、前記残りの画素点は、前記第1ビデオフレームにおける画素点のうち前記有効画素点以外の画素点である、ステップと、
を含むことを特徴とする請求項3に記載の方法。 - 前記順方向変位行列において、残りの画素点に対応する行列要素の変位を前記第1数値に設定し、前記第1数値を含む順方向変位行列をターゲット変位行列として決定する前記ステップは、
前記順方向変位行列に初期横方向変位行列及び初期縦方向変位行列が含まれる場合、前記初期横方向変位行列において、前記残りの画素点に対応する行列要素の第1横方向変位を前記第1数値に設定し、前記第1数値を含む初期横方向変位行列を、前記第1ビデオフレームに対応する横方向変位行列として決定するステップと、
前記初期縦方向変位行列において、前記残りの画素点に対応する行列要素の第1縦方向変位を前記第1数値に設定し、前記第1数値を含む初期縦方向変位行列を、前記第1ビデオフレームに対応する縦方向変位行列として決定するステップと、
前記第1ビデオフレームに対応する横方向変位行列と、前記第1ビデオフレームに対応する縦方向変位行列とをターゲット変位行列として決定するステップと、
を含むことを特徴とする請求項6に記載の方法。 - 前記ターゲット状態行列及び前記ターゲット変位行列に基づいて、前記第1ビデオフレームに対応する平均変位行列を決定する前記ステップは、
前記第1ビデオフレームにおいて、前記ターゲット状態行列に対して変位積分演算を行うことにより、前記第1ビデオフレームにおける画素点に対応する状態積分行列を取得するステップと、
前記第1ビデオフレームにおいて、前記ターゲット変位行列における横方向変位行列に対して変位積分演算を行うことにより、前記第1ビデオフレームにおける画素点に対応する横方向変位積分行列を取得するステップと、
前記第1ビデオフレームにおいて、前記ターゲット変位行列における縦方向変位行列に対して変位積分演算を行うことにより、前記第1ビデオフレームにおける画素点に対応する縦方向変位積分行列を取得するステップと、
前記第1ビデオフレームから、変位差分演算に対応する差分領域を決定し、前記差分領域のサイズ情報と、状態積分行列と、横方向変位積分行列と、縦方向変位積分行列とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定するステップと、
を含むことを特徴とする請求項3に記載の方法。 - 前記差分領域のサイズ情報と、状態積分行列と、横方向変位積分行列と、縦方向変位積分行列とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定する前記ステップは、
前記差分領域に対応する長さ情報及び幅情報に基づいて、前記状態積分行列に対して変位差分演算を行うことにより、前記第1ビデオフレームに対応する状態差分行列を取得するステップと、
前記差分領域に対応する長さ情報及び幅情報に基づいて、前記横方向変位積分行列及び前記縦方向変位積分行列のそれぞれに対して変位差分演算を行うことにより、前記第1ビデオフレームに対応する横方向変位差分行列及び縦方向変位差分行列を取得するステップと、
前記横方向変位差分行列と前記状態差分行列との比を横方向平均変位行列として決定し、前記縦方向変位差分行列と前記状態差分行列との比を縦方向平均変位行列として決定するステップと、
前記横方向平均変位行列及び前記縦方向平均変位行列を、前記第1ビデオフレームに対応する平均変位行列として決定するステップと、
を含むことを特徴とする請求項8に記載の方法。 - コンピュータ機器に適用されるビデオデータ処理装置であって、
ターゲットビデオに対するトリガ操作に応答して、前記ターゲットビデオのキービデオフレームからターゲット画素点を決定し、前記ターゲット画素点に関連付けられたマルチメディア情報を取得するオブジェクト決定モジュールであって、前記キービデオフレームは、前記トリガ操作が位置するビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける、前記トリガ操作に対応する画素点である、オブジェクト決定モジュールと、
前記ターゲット画素点の前記キービデオフレームにおける位置情報に基づいて、前記ターゲット画素点に対応する軌跡取得要求を決定する要求決定モジュールと、
前記軌跡取得要求に基づいて、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を取得する軌跡取得モジュールであって、前記ターゲット軌跡情報は、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報を含み、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報は、前記ターゲット画素点を追跡することにより取得されたものである、軌跡取得モジュールと、
前記キービデオフレームの次のビデオフレームを再生する際に、前記ターゲット軌跡情報における、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報に基づいて、前記マルチメディア情報を表示するテキスト表示モジュールと、を含み、
前記ターゲット軌跡情報は、隣接する第1ビデオフレーム及び第2ビデオフレームにおける画素点の位置情報に基づいて決定されたものであり、
前記第2ビデオフレームにおける画素点の位置情報は、前記第1ビデオフレームに対応する平均変位行列に基づいて、前記第1ビデオフレームにおける画素点の位置情報を追跡して決定されたものであり、
前記平均変位行列は、ターゲットビデオに対応するオプティカルビデオフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて決定されたものであり、
前記平均変位行列は、
前記ターゲットビデオに対応するオプティカルフロー追跡規則を取得し、前記第1ビデオフレームにおける画素点の位置情報を第1位置情報として決定し、第2ビデオフレームにおける画素点の位置情報を第2位置情報として決定し、
前記オプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点の第1位置情報と、前記第2ビデオフレームにおける画素点の第2位置情報とに基づいて、前記第1ビデオフレームに対応する順方向変位行列を取得し、前記第2ビデオフレームに対応する逆方向変位行列を取得し、
前記第1ビデオフレームにおける画素点の第1位置情報と、前記順方向変位行列と、前記逆方向変位行列とに基づいて、前記第1ビデオフレームにおける画素点のうちターゲット選別条件を満たす画素点を有効画素点として決定し、
前記有効画素点に基づいて、前記第1ビデオフレームに対応する初期状態行列及び前記順方向変位行列を修正することにより、前記第1ビデオフレームに対応するターゲット状態行列及びターゲット変位行列を取得し、
前記ターゲット状態行列及び前記ターゲット変位行列に基づいて、前記第1ビデオフレームに対応する平均変位行列を決定することによって決定される、
ことを特徴とするビデオデータ処理装置。 - サービスサーバに適用されるビデオデータ処理装置であって、
キービデオフレームにおけるターゲット画素点に対する軌跡取得要求に応答して、ターゲットビデオに関連付けられた軌跡情報を取得する要求応答モジュールであって、前記キービデオフレームは、前記ターゲットビデオにおけるビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける画素点であり、前記軌跡情報は、前記ターゲットビデオの各ビデオフレームにおける画素点の位置情報によって決定されたものである、要求応答モジュールと、
前記ターゲットビデオに関連付けられた軌跡情報の中から、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を選別し、前記ターゲット軌跡情報を返信する軌跡選別モジュールであって、前記ターゲット軌跡情報は、ターゲット位置情報を含み、前記ターゲット位置情報は、前記キービデオフレームの次のビデオフレームにおいて、前記ターゲット画素点に関連付けられたマルチメディア情報を表示することをトリガするためのものである、軌跡選別モジュールと、
を含み、
前記ターゲット軌跡情報は、
前記ターゲットビデオに対応するオプティカルフロー追跡規則を取得し、第1ビデオフレームにおける画素点の位置情報を第1位置情報として決定し、第2ビデオフレームにおける画素点の位置情報を第2位置情報として決定することと、
前記オプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点の第1位置情報と、前記第2ビデオフレームにおける画素点の第2位置情報とに基づいて、前記第1ビデオフレームに対応する順方向変位行列を取得し、前記第2ビデオフレームに対応する逆方向変位行列を取得することと、
前記第1ビデオフレームにおける画素点の第1位置情報と、前記順方向変位行列と、前記逆方向変位行列とに基づいて、前記第1ビデオフレームにおける画素点のうちターゲット選別条件を満たす画素点を有効画素点として決定することと、
前記有効画素点に基づいて、前記第1ビデオフレームに対応する初期状態行列及び前記順方向変位行列を修正することにより、前記第1ビデオフレームに対応するターゲット状態行列及びターゲット変位行列を取得することと、
前記ターゲット状態行列及び前記ターゲット変位行列に基づいて、前記第1ビデオフレームに対応する平均変位行列を決定することと、によって決定される
ことを特徴とするビデオデータ処理装置。 - ビデオデータ処理装置であって、
ターゲットビデオから、隣接する第1ビデオフレーム及び第2ビデオフレームを取得する第1取得モジュールと、
前記ターゲットビデオに対応するオプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定する行列取得モジュールと、
前記平均変位行列に基づいて、前記第1ビデオフレームにおける画素点の位置情報を追跡し、前記第2ビデオフレームにおいて、追跡された画素点の位置情報を決定する位置追跡モジュールと、
前記第1ビデオフレームにおける画素点の位置情報と、前記追跡された画素点の前記第2ビデオフレームにおける位置情報とに基づいて、前記ターゲットビデオに関連付けられた軌跡情報を生成する追跡生成モジュールであって、前記軌跡情報は、ターゲットビデオにおけるターゲット画素点に関連付けられたマルチメディア情報を追跡して表示するためのターゲット軌跡情報を含む、追跡生成モジュールと、
キービデオフレームにおけるターゲット画素点に対する軌跡取得要求に応答して、ターゲットビデオに関連付けられた軌跡情報を取得する要求応答モジュールであって、前記キービデオフレームは、前記ターゲットビデオにおけるビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける画素点であり、前記軌跡情報は、前記ターゲットビデオの各ビデオフレームにおける画素点の位置情報によって決定されたものである、要求応答モジュールと、
前記ターゲットビデオに関連付けられた軌跡情報の中から、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を選別し、前記ターゲット軌跡情報を返信する軌跡選別モジュールであって、前記ターゲット軌跡情報は、ターゲット位置情報を含み、前記ターゲット位置情報は、前記キービデオフレームの次のビデオフレームにおいて、前記ターゲット画素点に関連付けられたマルチメディア情報を表示することをトリガするためのものである、軌跡選別モジュールと、
を含み、
前記ターゲット軌跡情報は、
前記ターゲットビデオに対応するオプティカルフロー追跡規則を取得し、前記第1ビデオフレームにおける画素点の位置情報を第1位置情報として決定し、前記第2ビデオフレームにおける画素点の位置情報を第2位置情報として決定することと、
前記オプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点の第1位置情報と、前記第2ビデオフレームにおける画素点の第2位置情報とに基づいて、前記第1ビデオフレームに対応する順方向変位行列を取得し、前記第2ビデオフレームに対応する逆方向変位行列を取得することと、
前記第1ビデオフレームにおける画素点の第1位置情報と、前記順方向変位行列と、前記逆方向変位行列とに基づいて、前記第1ビデオフレームにおける画素点のうちターゲット選別条件を満たす画素点を有効画素点として決定することと、
前記有効画素点に基づいて、前記第1ビデオフレームに対応する初期状態行列及び前記順方向変位行列を修正することにより、前記第1ビデオフレームに対応するターゲット状態行列及びターゲット変位行列を取得することと、
前記ターゲット状態行列及び前記ターゲット変位行列に基づいて、前記第1ビデオフレームに対応する前記平均変位行列を決定することと、によって決定される
ことを特徴とするビデオデータ処理装置。 - コンピュータ機器であって、
プロセッサと、メモリと、ネットワークインタフェースと、を備え、
前記プロセッサは、前記メモリ及び前記ネットワークインタフェースに接続され、前記ネットワークインタフェースは、データ通信機能を提供し、前記メモリは、コンピュータプログラムを記憶し、前記プロセッサは、前記コンピュータプログラムを呼び出すことにより、請求項1、2、および3から9のいずれか一項に記載の方法を実行する、
ことを特徴とするコンピュータ機器。 - 請求項1、2、および3から9のいずれか一項に記載の方法をコンピュータ機器に実行させる、ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910358569.8A CN110062272B (zh) | 2019-04-30 | 2019-04-30 | 一种视频数据处理方法和相关装置 |
CN201910358569.8 | 2019-04-30 | ||
PCT/CN2020/084112 WO2020220968A1 (zh) | 2019-04-30 | 2020-04-10 | 一种视频数据处理方法和相关装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022511828A JP2022511828A (ja) | 2022-02-01 |
JP7258400B2 JP7258400B2 (ja) | 2023-04-17 |
JP7258400B6 true JP7258400B6 (ja) | 2024-02-19 |
Family
ID=67321748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021531593A Active JP7258400B6 (ja) | 2019-04-30 | 2020-04-10 | ビデオデータ処理方法、ビデオデータ処理装置、コンピュータ機器、及びコンピュータプログラム |
Country Status (7)
Country | Link |
---|---|
US (1) | US11900614B2 (ja) |
EP (1) | EP3965431A4 (ja) |
JP (1) | JP7258400B6 (ja) |
KR (1) | KR102562208B1 (ja) |
CN (1) | CN110062272B (ja) |
SG (1) | SG11202105410RA (ja) |
WO (1) | WO2020220968A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110062272B (zh) * | 2019-04-30 | 2021-09-28 | 腾讯科技(深圳)有限公司 | 一种视频数据处理方法和相关装置 |
CN111161309B (zh) * | 2019-11-19 | 2023-09-12 | 北航航空航天产业研究院丹阳有限公司 | 一种车载视频动态目标的搜索与定位方法 |
CN111193938B (zh) * | 2020-01-14 | 2021-07-13 | 腾讯科技(深圳)有限公司 | 视频数据处理方法、装置和计算机可读存储介质 |
CN112258551B (zh) * | 2020-03-18 | 2023-09-05 | 北京京东振世信息技术有限公司 | 一种物品掉落检测方法、装置、设备及存储介质 |
CN111753679B (zh) * | 2020-06-10 | 2023-11-24 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 微运动监测方法、装置、设备及计算机可读存储介质 |
CN111901662A (zh) * | 2020-08-05 | 2020-11-06 | 腾讯科技(深圳)有限公司 | 视频的扩展信息处理方法、设备和存储介质 |
CN114449326A (zh) * | 2020-11-06 | 2022-05-06 | 上海哔哩哔哩科技有限公司 | 视频标注方法、客户端、服务器及系统 |
CN114584824A (zh) * | 2020-12-01 | 2022-06-03 | 阿里巴巴集团控股有限公司 | 数据处理方法、系统、电子设备、服务端及客户端设备 |
CN112884830B (zh) * | 2021-01-21 | 2024-03-29 | 浙江大华技术股份有限公司 | 一种目标边框确定方法及装置 |
CN113034458B (zh) * | 2021-03-18 | 2023-06-23 | 广州市索图智能电子有限公司 | 室内人员轨迹分析方法、装置及存储介质 |
CN114281447B (zh) * | 2021-12-02 | 2024-03-19 | 武汉华工激光工程有限责任公司 | 一种载板激光加工软件界面处理方法、系统及存储介质 |
CN114827754B (zh) * | 2022-02-23 | 2023-09-12 | 阿里巴巴(中国)有限公司 | 视频首帧时间检测方法及装置 |
CN117270982A (zh) * | 2022-06-13 | 2023-12-22 | 中兴通讯股份有限公司 | 数据处理方法、控制装置、电子设备、计算机可读介质 |
CN115297355B (zh) * | 2022-08-02 | 2024-01-23 | 北京奇艺世纪科技有限公司 | 弹幕显示方法、生成方法、装置、电子设备及存储介质 |
CN116152301B (zh) * | 2023-04-24 | 2023-07-14 | 知行汽车科技(苏州)股份有限公司 | 一种目标的速度估计方法、装置、设备及介质 |
CN117812392B (zh) * | 2024-01-09 | 2024-05-31 | 广州巨隆科技有限公司 | 可视化屏幕的分辨率自适应调节方法、系统、介质及设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014013690A1 (ja) | 2012-07-17 | 2014-01-23 | パナソニック株式会社 | コメント情報生成装置およびコメント情報生成方法 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8363109B2 (en) * | 2009-12-10 | 2013-01-29 | Harris Corporation | Video processing system providing enhanced tracking features for moving objects outside of a viewable window and related methods |
CN101930779B (zh) * | 2010-07-29 | 2012-02-29 | 华为终端有限公司 | 一种视频批注方法及视频播放器 |
US20140245350A1 (en) * | 2013-02-27 | 2014-08-28 | Blendagram, Inc. | System for and method of processing a video clip to identify an occluding object |
CN104881640B (zh) * | 2015-05-15 | 2018-06-15 | 华为技术有限公司 | 一种获取向量的方法及装置 |
CN105872442A (zh) * | 2016-03-30 | 2016-08-17 | 宁波三博电子科技有限公司 | 一种基于人脸识别的即时弹幕礼物赠送方法及系统 |
US20190096439A1 (en) * | 2016-05-23 | 2019-03-28 | Robert Brouwer | Video tagging and annotation |
EP3488615A1 (en) * | 2016-07-22 | 2019-05-29 | VID SCALE, Inc. | Systems and methods for integrating and delivering objects of interest in video |
US20180082428A1 (en) * | 2016-09-16 | 2018-03-22 | Qualcomm Incorporated | Use of motion information in video data to track fast moving objects |
JP7100590B2 (ja) * | 2016-12-07 | 2022-07-13 | ソニーセミコンダクタソリューションズ株式会社 | 画像センサ |
US10592786B2 (en) * | 2017-08-14 | 2020-03-17 | Huawei Technologies Co., Ltd. | Generating labeled data for deep object tracking |
CN109559330B (zh) * | 2017-09-25 | 2021-09-10 | 北京金山云网络技术有限公司 | 运动目标的视觉跟踪方法、装置、电子设备及存储介质 |
CN108242062B (zh) * | 2017-12-27 | 2023-06-30 | 北京纵目安驰智能科技有限公司 | 基于深度特征流的目标跟踪方法、系统、终端及介质 |
CN108389217A (zh) * | 2018-01-31 | 2018-08-10 | 华东理工大学 | 一种基于梯度域混合的视频合成方法 |
US20190392591A1 (en) * | 2018-06-25 | 2019-12-26 | Electronics And Telecommunications Research Institute | Apparatus and method for detecting moving object using optical flow prediction |
CN109087335B (zh) * | 2018-07-16 | 2022-02-22 | 腾讯科技(深圳)有限公司 | 一种人脸跟踪方法、装置和存储介质 |
CN109558505A (zh) * | 2018-11-21 | 2019-04-02 | 百度在线网络技术(北京)有限公司 | 视觉搜索方法、装置、计算机设备及存储介质 |
US10956747B2 (en) * | 2018-12-31 | 2021-03-23 | International Business Machines Corporation | Creating sparsely labeled video annotations |
CN110062272B (zh) * | 2019-04-30 | 2021-09-28 | 腾讯科技(深圳)有限公司 | 一种视频数据处理方法和相关装置 |
-
2019
- 2019-04-30 CN CN201910358569.8A patent/CN110062272B/zh active Active
-
2020
- 2020-04-10 EP EP20799151.4A patent/EP3965431A4/en active Pending
- 2020-04-10 JP JP2021531593A patent/JP7258400B6/ja active Active
- 2020-04-10 SG SG11202105410RA patent/SG11202105410RA/en unknown
- 2020-04-10 WO PCT/CN2020/084112 patent/WO2020220968A1/zh unknown
- 2020-04-10 KR KR1020217022717A patent/KR102562208B1/ko active IP Right Grant
-
2021
- 2021-05-28 US US17/334,678 patent/US11900614B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014013690A1 (ja) | 2012-07-17 | 2014-01-23 | パナソニック株式会社 | コメント情報生成装置およびコメント情報生成方法 |
Also Published As
Publication number | Publication date |
---|---|
SG11202105410RA (en) | 2021-06-29 |
EP3965431A4 (en) | 2022-10-12 |
CN110062272A (zh) | 2019-07-26 |
US20210287379A1 (en) | 2021-09-16 |
JP2022511828A (ja) | 2022-02-01 |
US11900614B2 (en) | 2024-02-13 |
KR102562208B1 (ko) | 2023-07-31 |
WO2020220968A1 (zh) | 2020-11-05 |
CN110062272B (zh) | 2021-09-28 |
EP3965431A1 (en) | 2022-03-09 |
JP7258400B2 (ja) | 2023-04-17 |
KR20210095953A (ko) | 2021-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7258400B6 (ja) | ビデオデータ処理方法、ビデオデータ処理装置、コンピュータ機器、及びコンピュータプログラム | |
US10733431B2 (en) | Systems and methods for optimizing pose estimation | |
CN111815755B (zh) | 虚拟物体被遮挡的区域确定方法、装置及终端设备 | |
US11488346B2 (en) | Picture rendering method and apparatus, storage medium, and electronic apparatus | |
CN107958480B (zh) | 图像渲染方法、装置及存储介质 | |
CN111670457B (zh) | 动态对象实例检测、分割和结构映射的优化 | |
US20210295536A1 (en) | Method, device, equipment and storage medium for locating tracked targets | |
CN111684490A (zh) | 动态对象实例检测、分割和结构映射的优化 | |
KR20200087784A (ko) | 목표 검출 방법 및 장치, 트레이닝 방법, 전자 기기 및 매체 | |
JP6266656B2 (ja) | 画像をサイズ変更するためのシステム及び方法 | |
CN108762505B (zh) | 基于手势的虚拟对象控制方法、装置、存储介质和设备 | |
CN111433812A (zh) | 动态对象实例检测、分割和结构映射的优化 | |
CN111524166A (zh) | 视频帧的处理方法和装置 | |
EP3493104A1 (en) | Optimizations for dynamic object instance detection, segmentation, and structure mapping | |
CN115022679B (zh) | 视频处理方法、装置、电子设备和介质 | |
CN114387400A (zh) | 三维场景的显示方法、显示装置、电子设备和服务器 | |
CN113657518B (zh) | 训练方法、目标图像检测方法、装置、电子设备以及介质 | |
CN114202648A (zh) | 文本图像矫正方法、训练方法、装置、电子设备以及介质 | |
KR20220149717A (ko) | 단안 카메라로부터 전체 골격 3d 포즈 복구 | |
CN117036574A (zh) | 渲染方法、装置、电子设备以及存储介质 | |
CN114344894B (zh) | 场景元素处理方法、装置、设备和介质 | |
Singh et al. | Real‐Time Implementation of Change Detection for Automated Video Surveillance System | |
CN110089076B (zh) | 实现信息互动的方法和装置 | |
CN113949926A (zh) | 一种视频插帧方法、存储介质及终端设备 | |
CN115713582B (zh) | 虚拟形象生成方法、装置、电子设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210602 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210602 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220719 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230306 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230330 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7258400 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |