JP7258400B6 - ビデオデータ処理方法、ビデオデータ処理装置、コンピュータ機器、及びコンピュータプログラム - Google Patents

ビデオデータ処理方法、ビデオデータ処理装置、コンピュータ機器、及びコンピュータプログラム Download PDF

Info

Publication number
JP7258400B6
JP7258400B6 JP2021531593A JP2021531593A JP7258400B6 JP 7258400 B6 JP7258400 B6 JP 7258400B6 JP 2021531593 A JP2021531593 A JP 2021531593A JP 2021531593 A JP2021531593 A JP 2021531593A JP 7258400 B6 JP7258400 B6 JP 7258400B6
Authority
JP
Japan
Prior art keywords
video frame
target
pixel point
matrix
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021531593A
Other languages
English (en)
Other versions
JP2022511828A (ja
JP7258400B2 (ja
Inventor
▲遠▼力 ▲鄭▼
▲澤▼▲龍▼ 殷
年▲華▼ ▲謝▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2022511828A publication Critical patent/JP2022511828A/ja
Application granted granted Critical
Publication of JP7258400B2 publication Critical patent/JP7258400B2/ja
Publication of JP7258400B6 publication Critical patent/JP7258400B6/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2387Stream processing in response to a playback request from an end-user, e.g. for trick-play
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本願は、2019年4月30日に提出された、出願番号が第201910358569.8号であり、発明の名称が「ビデオデータ処理方法及び関連装置」である中国特許出願に基づく優先権を主張し、その全ての内容が参照によって本願に組み込まれる。
本願は、インターネットの技術分野に関し、特にビデオデータ処理方法及び関連装置に関する。
ユーザは、ユーザ端末を介してネットワークビデオを視聴している間に、該ユーザ又は他のユーザから投稿されたユーザ文字やユーザコメントをビデオ再生インタフェースで見ることができる。従来のユーザ文字の表示方式では、ビデオ再生インタフェースに出力されるユーザ文字は、通常、該ビデオ再生インタフェースにおける固定の文字表示トラックを介して出力表示される。
本願の実施例は、ビデオデータ処理方法及び関連装置を提供する。
本願の実施例の一態様では、コンピュータ機器に適用されるビデオデータ処理方法が提供されており、前記方法は、
ターゲットビデオに対するトリガ操作に応答して、前記ターゲットビデオのキービデオフレームからターゲット画素点を決定し、前記ターゲット画素点に関連付けられたマルチメディア情報を取得するステップであって、前記キービデオフレームは、前記トリガ操作が位置するビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける、前記トリガ操作に対応する画素点である、ステップと、
前記ターゲット画素点の前記キービデオフレームにおける位置情報に基づいて、前記ターゲット画素点に対応する軌跡取得要求を決定するステップと、
前記軌跡取得要求に基づいて、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を取得するステップであって、前記ターゲット軌跡情報は、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報を含み、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報は、前記ターゲット画素点を追跡することにより取得されたものである、ステップと、
前記キービデオフレームの次のビデオフレームを再生する際に、前記ターゲット軌跡情報における、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報に基づいて、前記マルチメディア情報を表示するステップと、を含む。
本願の実施例の一態様では、サービスサーバに適用されるビデオデータ処理方法が提供されており、前記方法は、
キービデオフレームにおけるターゲット画素点に対する軌跡取得要求に応答して、ターゲットビデオに関連付けられた軌跡情報を取得するステップであって、前記キービデオフレームは、前記ターゲットビデオにおけるビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける画素点であり、前記軌跡情報は、前記ターゲットビデオの各ビデオフレームにおける画素点の位置情報によって決定されたものである、ステップと、
前記ターゲットビデオに関連付けられた軌跡情報の中から、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を選別し、前記ターゲット軌跡情報を返信するステップであって、前記ターゲット軌跡情報は、ターゲット位置情報を含み、前記ターゲット位置情報は、前記キービデオフレームの次のビデオフレームにおいて、前記ターゲット画素点に関連付けられたマルチメディア情報を表示することをトリガするためのものである、ステップと、を含む。
本願の実施例の一態様では、ビデオデータ処理方法が提供されており、前記方法は、
ターゲットビデオから、隣接する第1ビデオフレーム及び第2ビデオフレームを取得するステップと、
前記ターゲットビデオに対応するオプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定するステップと、
前記平均変位行列に基づいて、前記第1ビデオフレームにおける画素点の位置情報を追跡し、前記第2ビデオフレームにおいて、追跡された画素点の位置情報を決定するステップと、
前記第1ビデオフレームにおける画素点の位置情報と、前記追跡された画素点の前記第2ビデオフレームにおける位置情報とに基づいて、前記ターゲットビデオに関連付けられた軌跡情報を生成するステップであって、前記軌跡情報は、ターゲットビデオにおけるターゲット画素点に関連付けられたマルチメディア情報を追跡して表示するためのターゲット軌跡情報を含む、ステップと、を含む。
本願の実施例の一態様では、コンピュータ機器に適用されるビデオデータ処理装置が提供されており、前記装置は、
ターゲットビデオに対するトリガ操作に応答して、前記ターゲットビデオのキービデオフレームからターゲット画素点を決定し、前記ターゲット画素点に関連付けられたマルチメディア情報を取得するオブジェクト決定モジュールであって、前記キービデオフレームは、前記トリガ操作が位置するビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける、前記トリガ操作に対応する画素点である、オブジェクト決定モジュールと、
前記ターゲット画素点の前記キービデオフレームにおける位置情報に基づいて、前記ターゲット画素点に対応する軌跡取得要求を決定する要求決定モジュールと、
前記軌跡取得要求に基づいて、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を取得する軌跡取得モジュールであって、前記ターゲット軌跡情報は、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報を含み、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報は、前記ターゲット画素点を追跡することにより取得されたものである、軌跡取得モジュールと、
前記キービデオフレームの次のビデオフレームを再生する際に、前記ターゲット軌跡情報における、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報に基づいて、前記マルチメディア情報を表示するテキスト表示モジュールと、を含む。
本願の実施例の一態様では、サービスサーバに適用されるビデオデータ処理装置が提供されており、前記装置は、
キービデオフレームにおけるターゲット画素点に対する軌跡取得要求に応答して、ターゲットビデオに関連付けられた軌跡情報を取得する要求応答モジュールであって、前記キービデオフレームは、前記ターゲットビデオにおけるビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける画素点であり、前記軌跡情報は、前記ターゲットビデオの各ビデオフレームにおける画素点の位置情報によって決定されたものである、要求応答モジュールと、
前記ターゲットビデオに関連付けられた軌跡情報の中から、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を選別し、前記ターゲット軌跡情報を返信する軌跡選別モジュールであって、前記ターゲット軌跡情報は、ターゲット位置情報を含み、前記ターゲット位置情報は、前記キービデオフレームの次のビデオフレームにおいて、前記ターゲット画素点に関連付けられたマルチメディア情報を表示することをトリガするためのものである、軌跡選別モジュールと、を含む。
本願の実施例の一態様では、ビデオデータ処理装置が提供されており、前記装置は、
ターゲットビデオから、隣接する第1ビデオフレーム及び第2ビデオフレームを取得する第1取得モジュールと、
前記ターゲットビデオに対応するオプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定する行列取得モジュールと、
前記平均変位行列に基づいて、前記第1ビデオフレームにおける画素点の位置情報を追跡し、前記第2ビデオフレームにおいて、追跡された画素点の位置情報を決定する位置追跡モジュールと、
前記第1ビデオフレームにおける画素点の位置情報と、前記追跡された画素点の前記第2ビデオフレームにおける位置情報とに基づいて、前記ターゲットビデオに関連付けられた軌跡情報を生成する追跡生成モジュールあって、前記軌跡情報は、ターゲットビデオにおけるターゲット画素点に関連付けられたマルチメディア情報を追跡して表示するためのターゲット軌跡情報を含む、追跡生成モジュールと、を含む。
本願の実施例の一態様では、コンピュータ機器が提供されており、前記コンピュータ機器は、プロセッサと、メモリと、ネットワークインタフェースと、を備え、
前記プロセッサは、前記メモリ及び前記ネットワークインタフェースに接続され、前記ネットワークインタフェースは、データ通信機能を提供し、前記メモリは、コンピュータプログラムを記憶し、前記プロセッサは、前記コンピュータプログラムを呼び出すことにより、本願の実施例の一態様に記載の方法を実行する。
本願の実施例の一態様では、コンピュータ記憶媒体が提供されており、前記コンピュータ記憶媒体には、コンピュータプログラムが記憶され、前記コンピュータプログラムには、プログラム命令が含まれ、前記プログラム命令は、プロセッサによって実行されると、本願の実施例の一態様に記載の方法を実行させる。
本願の実施例又は従来技術における構成をより明確に説明するために、以下、実施例又は従来技術の説明に必要な図面を簡単的に紹介する。明らかに、以下の説明における図面は本願のいくつかの実施例を示しているにすぎず、当業者にとって、創造的な労働をせずに、これらの図面から他の図面を得ることもできる。
本願の実施例で提供されるネットワークアーキテクチャの構成の模式図である。 本願の実施例で提供されるターゲットビデオにおける複数のビデオフレームの模式図である。 本願の実施例で提供されるターゲットビデオを取得するシナリオの模式図である。 本願の実施例で提供されるビデオデータ処理方法のフローの模式図である。 本願の実施例で提供されるマルチメディア情報の取得の模式図である。 本願の実施例で提供される全画素追跡の模式図である。 本願の実施例で提供される連続する複数のビデオフレームにおける弾幕データの追跡の模式図である。 本願の実施例で提供される別のビデオデータ処理方法の模式図である。 本願の実施例で提供される有効画素点を決定する方法の模式図である。 本願の実施例で提供される軌跡情報に基づく弾幕データの表示の模式図である。 本願の実施例で提供されるビデオデータ処理装置の構成の模式図である。 本願の実施例で提供されるコンピュータ機器の構成の模式図である。 本願の実施例で提供される別のビデオデータ処理装置の構成の模式図である。 本願の実施例で提供される別のコンピュータ機器の構成の模式図である。 本願の実施例で提供される別のビデオデータ処理装置の構成の模式図である。 本願の実施例で提供される別のコンピュータ機器の構成の模式図である。
以下、本願の実施例の図面を参照しながら、本願の実施例の構成を明確かつ十分に説明するが、明らかなように、説明する実施例は、本願の一部の実施例にすぎず、全ての実施例ではない。当業者が創造的な労働をせずに本願の実施例から得る全ての他の実施例は、本願の保護範囲に属する。
従来のネットワークビデオの再生過程において、ビデオ再生インタフェースに表示されるユーザ文字は、ビデオ再生インタフェースで再生されるビデオコンテンツとは独立しているので、表示されるユーザ文字とビデオコンテンツとの間に一定の相関性がない。また、ユーザがユーザ文字を送信しようとする場合、ユーザ端末は、取得したユーザ文字を所定の文字表示トラックで出力する。したがって、各ユーザから送信されたユーザ文字が全て同一の文字表示トラックで出力されるため、ビデオコンテンツに対する個性的なコメントは不可能である。
本願の実施例で提供されるネットワークアーキテクチャの構成の模式図である図1を参照されたい。図1に示すように、前記ネットワークアーキテクチャは、サービスサーバ2000(又はアプリケーションサーバ2000)と、ユーザ端末クラスタと、を含んでもよい。前記サービスサーバ2000は、多数のサーバからなるサーバクラスタ、例えば、クラウドサーバ(又は、クラウドと略称する)であってもよい。前記ユーザ端末クラスタは、複数のユーザ端末を含んでもよく、図1に示すように、具体的に、ユーザ端末3000a、ユーザ端末3000b、ユーザ端末3000c、…、ユーザ端末3000nを含んでもよい。図1に示すように、ユーザ端末3000a、ユーザ端末3000b、ユーザ端末3000c、…、ユーザ端末3000nは、それぞれ、前記サービスサーバ2000にネットワーク接続されてもよい。これにより、各ユーザ端末は、該ネットワーク接続を介して、サービスサーバ2000とデータやり取りすることができる。
図1に示すように、ユーザ端末クラスタの各ユーザ端末のいずれにも、ターゲットアプリケーションを統合してインストールしてもよい。該ターゲットアプリケーションが各ユーザ端末で実行されると、それぞれ、上記図1に示すサービスサーバ2000とデータやり取りすることができる。ここで、ターゲットアプリケーションは、マルチメディアアプリケーション、ソーシャルアプリケーション、エンターテイメントアプリケーションなど、ビデオ再生機能を有するアプリケーションを含んでもよい。理解を容易にするために、本願の実施例では、前記複数のユーザ端末のうちの1つをターゲットユーザ端末とする場合を例に、該ターゲットアプリケーションが統合されたターゲットユーザ端末が、サービスデータ展示プラットフォームによって、前記サービスサーバ2000との間でデータやり取りを実現する具体的な過程を説明する。ここで、本願の実施例におけるターゲットユーザ端末は、パーソナルコンピュータ、タブレットコンピュータ、ノート型コンピュータ、スマートフォンなどの、上記ターゲットアプリケーションが統合されたモバイル端末を含んでもよい。ここで、該サービスサーバ2000は、該ターゲットアプリケーションのバックグラウンドサーバであってもよく、該バックグラウンドサーバに対応するサービスデータベースは、該サービスデータ展示プラットフォームに展示された各サービスデータ情報を記憶するために用いることができ、該サービスデータ情報は、ビデオデータなどのインターネット情報を含んでもよい。理解すべきものとして、該サービスデータ展示プラットフォームには、複数のビデオが表示されてもよく、ターゲットユーザが、該ターゲットユーザ端末において、該サービスデータ展示プラットフォームを介して複数のビデオのうちの1つをトリガすると、該ビデオに対応するビデオデータを取得してもよく、さらに、該ターゲットユーザ端末で該ビデオデータを再生してもよく、さらに、該ターゲットユーザ端末で現在再生されているビデオデータをターゲットビデオと呼ぶことができる。該ターゲットビデオは、ターゲットユーザ端末から送信されたデータロード指示に基づいて該サービスサーバ2000が返信したビデオデータである。
ここで、前記ターゲットビデオは、複数のビデオフレームを含んでもよい。各ビデオフレームは、いずれも、1つの画像データと呼ぶことができる。また、各ビデオフレームは、いずれも、該ターゲットビデオの再生期間内の1つの再生タイムスタンプ(即ち、1つの時刻)に対応する。これにより、ターゲットユーザ端末が後続で該ターゲットビデオをロードして再生する際に、該ターゲットビデオにおける各ビデオフレームそれぞれに対応する再生タイムスタンプに基づいて、再生表示インタフェースに各ビデオフレームを表示することができる。
ここで、サービスサーバ2000は、ビデオの前処理段階において、サービスデータベースに記憶されたビデオセットの各ビデオに対してフレーム化処理を行ってもよい。これにより、各ビデオそれぞれに含まれる複数のビデオフレームを1枚ずつのピクチャとして分割することができる。理解を容易にするために、さらに、本願の実施例で提供されるターゲットビデオにおける複数のビデオフレームの模式図である図2を参照されたい。ここで、該ターゲットビデオは、前述のサービスデータベースにおけるビデオAであってもよく、図2に示すように、該ビデオAは、n個(nは0より大きい正の整数である)のビデオフレームを含んでもよい。サービスサーバ2000は、該ビデオAにおけるn個のビデオフレームをn個のピクチャとして予め分割してもよい。これらのn個のピクチャのうち、前後に隣接する2つずつのピクチャを1つの画像ペアと呼ぶことができる。例えば、図2に示すように、本願の実施例では、図2に示される第1時刻に対応するビデオフレームと、第2時刻に対応するビデオフレームとを1つの画像ペアと呼ぶことができ、第2時刻に対応するビデオフレームと、第3時刻に対応するビデオフレームとを1つの画像ペアと呼ぶことができ、第n-1時刻に対応するビデオフレームと、第n時刻に対応するビデオフレームとを1つの画像ペアと呼ぶことができる。換言すれば、1つのターゲットビデオについて、該ターゲットビデオの複数のビデオフレームから、複数の画像ペアを決定することができ、各画像ペアのいずれにも、前後に隣接する2つの時刻に対応するビデオフレームが含まれてもよく、即ち、各画像ペアのいずれにも、隣接する2つのビデオフレームが含まれてもよい。
理解を容易にするために、本願の実施例では、前記複数の画像ペアのうちの最初の画像ペアを例に挙げる。ビデオの前処理段階において、本願の実施例では、該最初の画像ペアの一方のビデオフレーム(例えば、図2に示される第1時刻に対応するビデオフレーム)を第1ビデオフレームと呼ぶことができ、該画像ペアの他方のビデオフレーム(即ち、第2時刻に対応するビデオフレーム)を第2ビデオフレームと呼ぶことができ、さらに、オプティカルフロー追跡規則に基づいて、該画像ペアの第1ビデオフレームにおける全ての画素点の位置情報を追跡することにより、該第1ビデオフレームにおける各画素点の第2ビデオフレームにおける出現位置情報を取得することができる。各画像ペアのいずれにも、隣接する2つのビデオフレームが含まれるので、各画像ペアそれぞれの第1ビデオフレームにおける画素点の、次のビデオフレームにおける出現位置情報を算出することができ、最後に、該サービスサーバ2000において、該ビデオAにおける全ての画素点の、全てのビデオフレームにおける移動軌跡を決定することができ、これらの画素点の移動軌跡を画素点の軌跡情報と総称することができる。
サービスサーバ2000が、該ビデオAにおける全ての画素点の軌跡情報を予め計算しておくことができるので、ターゲットユーザがターゲットユーザ端末で該ビデオAを再生する際に、現在再生されているビデオAをターゲットビデオと呼ぶことができる。該ターゲットビデオの再生中に、ターゲットユーザは、あるオブジェクトを追跡する必要がある場合、ターゲットユーザ端末において、追跡する必要があるオブジェクト(即ち、ターゲットオブジェクト)に対してトリガ操作を実行してもよい。トリガ操作に対応する画素点は、ターゲット画素点と呼ばれ、即ち、該ターゲット画素点は、現在再生されているビデオフレームにおけるターゲットオブジェクトに対して該ターゲットユーザが実行したトリガ操作によって決定され、該トリガ操作は、現在再生されているビデオフレームから、追跡する必要があるターゲットオブジェクトを選択することに使用することができる。ここで、本願の実施例では、該トリガ操作に対応するビデオフレームをキービデオフレームと呼ぶことができる。換言すれば、本願の実施例では、現在該ターゲット画素点を含むビデオフレームを、該ターゲットビデオにおけるキービデオフレームと呼ぶことができる。理解すべきものとして、該キービデオフレームは、上記図2に対応する実施例における第1時刻に対応するビデオフレームであってもよい。任意選択的に、該キービデオフレームは、上記図2に対応する実施例における第2時刻に対応するビデオフレームであってもよいが、ここでは網羅的に挙げない。
理解すべきものとして、本願の実施例では、該キービデオフレーム、該キービデオフレームにおけるターゲット画素点、及び該ターゲット画素点の位置情報を、上記図1に対応する実施例におけるサービスサーバ2000に与えることができる。これにより、該サービスサーバ2000は、該ターゲット画素点の該キービデオフレームにおける位置情報に基づいて、予め算出された、該ターゲットビデオにおける全ての画素点の軌跡情報の中から、該ターゲット画素点の位置情報にマッチングする軌跡情報をターゲット軌跡情報として選別することができる。ここで、前記ターゲット軌跡情報は、ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置座標を含んでもよい。さらに、サービスサーバ2000は、該ターゲット軌跡情報を該ターゲットユーザ端末に返信してもよい。これにより、ターゲットユーザ端末は、該キービデオフレームの次のビデオフレームを再生する際に、さらに、該ターゲット軌跡情報に基づいて、ターゲット画素点の、該キービデオフレームの次のビデオフレームにおける位置情報を決定することができ、即ち、該ターゲット画素点のターゲット位置情報を取得することができ、さらに、該ターゲット位置情報に基づいて、該ターゲットオブジェクトに対応するマルチメディア情報を表示することができる。
さらに、本願の実施例で提供されるターゲットビデオを取得するシナリオの模式図である図3を参照されたい。図3に示すターゲットユーザ端末は、上記図1に対応する実施例におけるユーザ端末3000aであってもよい。図3に示すように、ターゲットユーザは、該ターゲットアプリケーションに入った後、該ターゲットユーザ端末(例えば、スマートフォン)に該ターゲットアプリケーションのサービスデータ展示プラットフォームを表示させてもよい。該サービスデータ展示プラットフォームには、図3に示されるビデオ10a、ビデオ20a、ビデオ30a、及びビデオ40aが表示されてもよい。ターゲットユーザは、図3に示されるビデオ30a(該ビデオ30aは、上記図に対応する実施例におけるビデオAであってもよい)をターゲットユーザ端末で再生する必要がある場合、該ビデオ30aが位置する領域に対して再生操作を実行してもよく(例えば、ターゲットユーザは、該ビデオ30aに対してクリック操作を実行してもよい)、さらに、該ビデオ30aに対応するターゲット識別情報を、図3に示すデータロード指示に付加して、該ターゲットユーザ端末とネットワーク接続関係があるアプリケーションサーバに該データロード指示をさらに与えてもよい。該アプリケーションサーバは、上記図1に対応する実施例におけるサービスサーバ2000であってもよい。理解できるように、該アプリケーションサーバは、データロード指示を取得すると、サービスデータベースから、該ターゲット識別情報に対応するビデオデータを検索することができ、検出されたビデオデータをターゲットデータと総称することができる。これにより、図3に示すターゲットユーザ端末に該ターゲットデータを与えることができ、該ターゲットユーザ端末は、図3に示すビデオ再生インタフェースで該ビデオデータを再生することができる。このとき、該ターゲットユーザ端末は、該ターゲットユーザによって選択されて再生されるビデオ30aをターゲットビデオと呼ぶことができる。即ち、このとき、該ターゲットユーザ端末は、上記図3に示す再生タイムスタンプに従って、ビデオ30aにおける各ビデオフレームを再生することができる。
ここで、上記ターゲットユーザ端末によるターゲットオブジェクトの取得及びターゲット軌跡情報の取得の具体的な過程については、以下の図4~図7に対応する実施例で提供される実現方式を参照すればよい。また、上記サービスサーバ2000による前記画素点の前記第2ビデオフレームにおける位置情報の取得、及び前記ターゲット画素点に対応するターゲット軌跡情報の選別の具体的な過程については、以下の図8~図10に対応する実施例で提供される実現方式を参照すればよい。
本願の実施例で提供されるビデオデータ処理方法のフローの模式図である図4を参照されたい。図4に示すように、この方法は、上記図1に対応する実施例におけるターゲットユーザ端末に適用可能である。この方法は、以下のステップを含んでもよい。
ステップS101で、ターゲットビデオに対するトリガ操作に応答して、前記ターゲットビデオのキービデオフレームからターゲット画素点を決定し、前記ターゲット画素点に関連付けられたマルチメディア情報を取得し、前記キービデオフレームは、前記トリガ操作が位置するビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける、前記トリガ操作に対応する画素点である。
具体的には、ターゲットユーザ端末は、ターゲットアプリケーションにアクセスする際に、複数のサービスデータ情報を搭載するためのサービスデータ展示プラットフォームを該ターゲットアプリケーションの表示インタフェースに表示してもよい。例えば、該サービスデータ展示プラットフォーム上の各サービスデータ情報それぞれは、1つのビデオであってもよい。該サービスデータ展示プラットフォームに展示されるサービスデータ情報は、該ターゲットユーザ端末とネットワーク接続関係があるアプリケーションサーバが、ターゲットユーザのユーザプロファイルデータ(例えば、該ターゲットユーザの行動履歴データ)に基づいて選別を行うことにより決定されてもよい。ターゲットユーザが、該サービスデータ展示プラットフォーム上の1つのサービスデータ情報(例えば、1つのビデオ)に対して再生操作を実行すると、該アプリケーションサーバに対応するサービスデータベースから、該ビデオに対応するビデオデータをロードしてもよく、さらに、該ロードしたビデオデータを、該ターゲットユーザ端末のビデオ再生インタフェースで再生してもよい。さらに、ターゲットユーザ端末は、ビデオデータを再生している間に、該ビデオ再生インタフェースにおけるターゲットオブジェクト(即ち、追跡する必要があるオブジェクト)に対してターゲットユーザが実行したトリガ操作を取得してもよい。前記トリガ操作は、例えば、ターゲットユーザ端末のディスプレイに表示されているビデオフレームにおけるターゲットオブジェクトのある点を、マウスでクリックするか、又はタッチすることである。該トリガ操作に対応するビデオフレームをキービデオフレームと呼ぶことができ、該キービデオフレームにおける、トリガ操作に対応する画素点をターゲット画素点と呼ぶことができる。画素点は、画像(例えば、ビデオフレーム)における1つ1つの点である。画像が解像度640×480のピクチャである場合、該画像に640×480個の画素点が分布している。通常、画像の画素点には、空間的な位置と色(又は階調)の属性がある。これと同時に、該ターゲットユーザ端末は、該ビデオ再生インタフェースとは独立したサブウィンドウ内にテキストボックスを作成してもよい。これにより、該ターゲットユーザは、該ターゲットオブジェクトと関連関係があるマルチメディア情報を該テキストボックスに入力することができる。ターゲットユーザが該テキストボックスにマルチメディア情報を入力すると、該ターゲットユーザ端末は、該ターゲットオブジェクトに関連付けられたマルチメディア情報を取得することができる。即ち、該ターゲットオブジェクトに関連付けられたマルチメディア情報は、該ターゲットユーザにより入力されたユーザ文字やユーザコメントと総称することができる。
ここで、前記ターゲットユーザ端末は、ビデオデータ再生機能を有する端末機器であってもよい。前記ターゲットユーザ端末は、上記図1に対応する実施例におけるユーザ端末3000aであってもよい。該ターゲットユーザ端末は、モバイル端末として理解されてもよい。ここで、前記アプリケーションサーバは、上記図1に対応する実施例におけるサービスサーバ2000であってもよい。
理解を容易にするために、さらに、本願の実施例で提供されるマルチメディア情報の取得の模式図である図5を参照されたい。図5に示すように、上記図3に対応する実施例におけるビデオ30aをターゲットユーザ端末が再生している間に、該ターゲットユーザ端末は、現在再生されているビデオ30aをターゲットビデオとしてもよい。理解できるように、ターゲットユーザは、該ビデオ30aが再生されている任意の時刻に、該ビデオ30aに含まれる複数のビデオフレームのうちのいずれか1つに対してトリガ操作を実行してもよい。ターゲットユーザ端末は、該トリガ操作に対応するビデオフレームをキービデオフレームとしてもよい。例えば、図5に示すように、ターゲットユーザは、図5に示すビデオ再生インタフェース100aにおいて、オブジェクトAをターゲットオブジェクトとして選択してもよい。この場合、ターゲットユーザ端末は、ビデオ再生インタフェース100aで現在再生されているビデオフレームをキービデオフレームと呼ぶことができる。換言すれば、該ターゲットユーザ端末は、該選択操作(即ち、トリガ操作)に対応するビデオフレームをキービデオフレームとしてもよく、該キービデオフレームにおける、選択操作に対応する画素点をターゲット画素点としてもよい。このとき、該ターゲット画素点は、該ターゲットユーザ端末で取得されたターゲットビデオにおけるキービデオフレームの画素点である。
図5に示すように、図5に示すビデオ再生インタフェース100aにおいて、オブジェクトAに対してターゲットユーザがトリガ操作を行うと、図5に示すビデオ再生インタフェース200aにおいて、図5に示すテキストボックスをポップアップしてもよく、該テキストボックスは、ダイアログボックスとも呼ばれる。図5に示すテキストボックスは、該ビデオ再生インタフェース200aとは独立したフローティングウィンドウとして理解することができる。また、図5に示すテキストボックスは、図5に示すオブジェクトAと関連関係があってもよい(例えば、該オブジェクトAにおけるターゲット画素点と表示位置上の相対関係があってもよい。これにより、該ビデオ30aにおけるターゲットオブジェクトのターゲット画素点と、該ターゲットオブジェクトに関連付けられたマルチメディア情報との関連性を構築する)。前記フローティングウィンドウの実現は、前記ビデオ再生インタフェースの実現と類似するか又は同じであってもよい。理解すべきものとして、本願の実施例のダイアログボックスに入力されるマルチメディア情報は、ユーザ文字、ユーザピクチャ、及びユーザ表情などのデータを含んでもよく、該ターゲットユーザが該ダイアログボックスに入力するユーザ文字(即ち、テキスト情報)、ユーザピクチャ(即ち、ピクチャ情報)、及びユーザ表情(即ち、表情情報)などを弾幕データと総称することができる。前記弾幕データの表示は、字幕と類似してもよい。
したがって、図5に示すビデオ再生インタフェース200aのテキストボックスにターゲットユーザがテキスト情報Aを入力すると、図5に示すビデオ再生インタフェース300aに、入力された該テキスト情報Aを表示させてもよい。入力された該テキスト情報Aは、図5に示すような、該オブジェクトAのターゲット画素点と一定の位置間隔距離があるテキスト情報であってもよい。該ビデオ再生インタフェース300aに表示されたテキスト情報Aは、該ターゲットオブジェクトに関連付けられた弾幕データと呼ぶことができる。
ステップS102で、前記ターゲット画素点の前記キービデオフレームにおける位置情報に基づいて、前記ターゲット画素点に対応する軌跡取得要求を決定する。
具体的には、ターゲットユーザ端末は、該キービデオフレームにおいて、該ターゲット画素点の位置情報を決定してもよく、該キービデオフレームのターゲットビデオにおけるフレーム番号と、該ターゲット画素点の該キービデオフレームにおける位置情報とに基づいて、該ターゲット画素点に対応する軌跡取得要求を生成してもよい。これにより、ステップS103をさらに実行することができる。
ここで、該軌跡取得要求は、アプリケーションサーバに対して、予め算出された該ターゲットビデオにおける全ての画素点のそれぞれに対応する軌跡情報の中から、該ターゲット画素点にマッチングする軌跡情報を選別するように指示するために用いることができる。
ステップS103で、前記軌跡取得要求に基づいて、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を取得する。
ここで、前記ターゲット軌跡情報は、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報を含み、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報は、前記ターゲット画素点を追跡することにより取得されたものである。
本願の実施例では、ターゲットユーザ端末は、アプリケーションサーバによって予め算出された、ターゲットビデオにおける全ての画素点の、全てのビデオフレームにおける移動軌跡(各画素点それぞれの移動軌跡は、1つの軌跡情報と総称することができる)に基づいて、これらの画素点に対応する移動軌跡の中から、ターゲット画素点にマッチングする画素点の移動軌跡を、該ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報として選別してもよい。換言すれば、該ターゲットユーザ端末は、該ターゲット軌跡情報を取得すると、該ターゲット軌跡情報に含まれる、前記ターゲット画素点の、該キービデオフレームの次のビデオフレームにおける位置情報に基づいて、上記図5に対応する実施例におけるターゲットオブジェクトにおけるターゲット画素点と、該ターゲットオブジェクトに関連付けられたマルチメディア情報との位置間隔距離、又は、ターゲット画素点とマルチメディア情報との位置間隔を迅速に決定することができ、即ち、該マルチメディア情報の、該キービデオフレームの次のビデオフレームにおける出現位置情報を迅速に取得することができる。
理解できるように、該位置間隔距離は、前記キービデオフレームにおけるターゲット画素点と、対応する弾幕データとの相対的な位置間隔距離として理解してもよい。即ち、該位置離間距離は、水平方向(即ち、横方向)の相対的な位置離間距離を含んでもよく、垂直方向(即ち、縦方向)の相対的な位置間隔距離を含んでもよい。これにより、ターゲットユーザ端末が、ターゲット画素点の、キービデオフレームの次のビデオフレームにおける位置情報を取得すると、前記相対的な位置間隔距離に基づいて、テキスト情報Aの、キービデオフレームの次のビデオフレームにおける位置情報を迅速に算出できることを確保することができる。即ち、このとき、上記図5に対応する実施例におけるビデオ再生インタフェース300aに表示されるテキスト情報Aの位置情報は、ターゲット画素点の、該キービデオフレームの後の他のビデオフレームにおける位置情報により決まる。ターゲットユーザ端末の計算性能が普通である場合、該ターゲットユーザ端末は、該ターゲットユーザ端末とネットワーク接続関係があるアプリケーションサーバから、該キービデオフレームにおけるターゲット画素点の位置情報に合致する軌跡情報をターゲット軌跡情報として取得してもよい。これにより、該ターゲットユーザ端末は、該アプリケーションサーバによって予め算出された該ターゲット画素点のターゲット軌跡情報を取得すると、さらに、該ターゲット軌跡情報におけるターゲット画素点の、該キービデオフレームの次のビデオフレームにおける出現位置情報に基づいて、該弾幕データの高速追跡を有効期間内に迅速かつ正確に実現することができる。このように、該ターゲットユーザ端末の計算量を効果的に削減することができ、該ターゲットユーザ端末の計算性能が普通である場合にも、該弾幕データを高速に追跡できることを確保することができる。
ここで、該有効期間は、弾幕データに対応する表示期間であってもよい。即ち、該ターゲットユーザ端末は、該表示期間内に、該ターゲットオブジェクトに関連付けられた弾幕データを追跡することができる。
理解すべきものとして、該ターゲットビデオにおける各画素点の移動軌跡(即ち、各画素点の軌跡情報)は、各画素点の、該ターゲットビデオの各ビデオフレームにおける位置情報によって決定されたものである。ここで、複数のビデオフレームを含むターゲットビデオの場合、本願の実施例では、この複数のビデオフレームのうち、隣接する任意の2つのビデオフレームを1つの画像ペアとして決定してもよい。理解すべきものとして、この複数のビデオフレームの中から決定された各画像ペアそれぞれに含まれる2つのビデオフレームのうち、一方のビデオフレームを第1ビデオフレームと呼ぶことができ、他方のビデオフレームを第2ビデオフレームと呼ぶことができる。上記図2に対応する実施例における第1時刻に対応するビデオフレームと、第2時刻に対応するビデオフレームとからなる画像ペア1については、該画像ペア1において、第1時刻に対応するビデオフレームを第1ビデオフレームと呼ぶことができ、該第2時刻に対応するビデオフレームを第2ビデオフレームと呼ぶことができる。さらに、予め算出された、該画像ペア1におけるこの2つのビデオフレーム間の平均変位行列に基づいて、該第1ビデオフレームにおける全ての画素点を追跡して、該第1ビデオフレームにおける全ての画素点の第2ビデオフレームにおける出現位置情報を決定することができる。同様に、上記図2に対応する実施例における第2時刻に対応するビデオフレームと、第3時刻に対応するビデオフレームとからなる画像ペア2についても、該第2時刻に対応するビデオフレームを第1ビデオフレームと呼ぶことができ、該第3時刻に対応するビデオフレームを第2ビデオフレームと呼ぶことができる。これにより、予め算出された、該画像ペア2におけるこの2つのビデオフレーム間の平均変位行列に基づいて、該第1ビデオフレームにおける全ての画素点を追跡して、該第1ビデオフレームにおける全ての画素点の第2ビデオフレームにおける出現位置情報を決定することができる。このようにして、本願の実施例では、各画像ペアそれぞれに対応する平均変位行列を取得することができ、各画像ペアそれぞれに対応する平均変位行列は、各画像ペアそれぞれにおける第1ビデオフレームに対応する平均変位行列と呼ぶことができ、各第1ビデオフレームそれぞれに対応する平均変位行列は、第1ビデオフレームにおける全ての画素点を第2ビデオフレームにマッピングして、第2ビデオフレームにおいて、マッピングされたこれら画素点の位置情報を正確に取得するために用いることができる。理解すべきものとして、本願の実施例における平均変位行列は、縦方向平均変位行列と横方向平均変位行列とを含んでもよい。縦方向平均変位行列によって、第1ビデオフレームにおける各画素点の第1縦方向座標値(例えば、y値)に対して縦方向座標変換を行って、各画素点の、第2ビデオフレームにマッピングされた第2縦方向座標を取得することができる。同様に、横方向平均変位行列によって、第1ビデオフレームにおける各画素点の第1横方向座標値(例えば、x値)に対して横方向座標変換を行って、各画素点の、第2ビデオフレームにマッピングされた第2横方向座標を取得することができる。理解すべきものとして、本願の実施例では、各画素点の第1ビデオフレームにおける第1横方向座標及び第1縦方向座標値を、該第1ビデオフレームにおける各画素点の第1位置情報と呼ぶことができ、各画素点の、第ビデオフレームにマッピングされた第2横方向座標及び第2縦方向座標値を、該第2ビデオフレームにおける各マッピングされた画素点の第2位置情報と呼ぶことができる。各画像ペアは、いずれも、1つの平均変位行列に対応するので、第1ビデオフレームにおける画素点の第1位置情報に基づいて、対応する第2位置情報を算出することができ、算出した第2ビデオフレームにおける各マッピングされた画素点の第2位置情報を保存することができ、さらに、同一画素点の各ビデオフレームにおける位置情報を統合して、該ビデオフレームにおける全ての画素点の移動軌跡を取得することができる。これにより、該ターゲットビデオの全てのビデオフレームにおける全ての画素点の追跡を実現することができる。
理解すべきものとして、上記図2に対応する実施例で示された該ターゲットビデオにおける複数のビデオフレームは、複数の連続する画像フレームであってもよい。したがって、上記の図2に示したターゲットビデオを分割した後、分割された各画像フレーム(即ち、ビデオフレーム)に、再生順に応じたビデオフレーム番号を設定することができる。例えば、上記の第1時刻に取得されたビデオフレームのビデオフレーム番号は、1であってもよく、該ビデオフレーム番号1は、該第1時刻に取得されたビデオフレームが、該ターゲットビデオにおける第1フレームであることを示すために用いることができる。同様に、上記の第2時刻に取得されたビデオフレームのビデオフレーム番号は、2であってもよく、該ビデオフレーム番号2は、該第2時刻に取得されたビデオフレームが、該ターゲットビデオにおける第2フレームであることを示すために用いることができる。このようにして、上記の第n-1時刻に取得されたビデオフレームのビデオフレーム番号は、n-1であってもよく、該ビデオフレーム番号n-1は、該第n-1時刻に取得されたビデオフレームが、該ターゲットビデオにおける第n-1フレームであることを示すために用いることができ、上記の第n時刻に取得されたビデオフレームのビデオフレーム番号は、nであってもよく、該ビデオフレーム番号nは、該第n時刻に取得されたビデオフレームが、該ターゲットビデオにおける第nフレーム、即ち該ターゲットビデオにおける最後のフレームであることを示すために用いることができる。
理解を容易にするために、本願の実施例では、平均変位行列によって、第1フレームにおける画素点を第2フレームに平行移動変換して、画素追跡を実現する具体的な過程を説明するために、上記図2に示された複数のビデオフレームのうち、第1フレームと第2フレームとからなる画像ペアを、最初の画像ペアと呼ぶことができる。ここで、該最初の画像ペアにおける第1フレームは、上記図2に対応する実施例における第1時刻に対応するビデオフレームであり、該最初の画像ペアにおける第2フレームは、上記図2に対応する実施例における第2時刻に対応するビデオフレームである。さらに、本願の実施例で提供される全画素追跡の模式図である図6を参照されたい。図6に示す画像ペア(1,2)は、前述した最初の画像ペアであってもよい。該最初の画像ペアにおける第1ビデオフレームは、前述した第1時刻に対応するビデオフレーム(即ち、第1フレーム)であってもよく、該最初の画像ペアにおける第2ビデオフレームは、前述した第2時刻に対応するビデオフレーム(即ち、第2フレーム)であってもよい。ここで、理解すべきものとして、該画像ペア(1,2)の数値1は第1フレームのビデオフレーム番号であり、数値2は第2フレームのビデオフレーム番号である。したがって、該ターゲットビデオにおける前後に隣接する任意の2つのビデオフレームを、該ターゲットビデオにおける各ビデオフレームのビデオフレーム番号で表すことができる。図6に示す画素点表示領域600aは、該画像ペアの第1ビデオフレームから抽出された全ての画素点を含んでもよく、例えば、該画素点表示領域600aにおける各画素点は、いずれも、1つの領域識別子に対応することができる。図6の画素点表示領域600aは、例示するためのものにすぎず、画素点表示領域600aは、画素点領域などとも呼ぶことができる。理解すべきものとして、本願の実施例では、該第1ビデオフレームから取得された画素点が20個の画素点である場合のみを例にしているが、実際には、該第1ビデオフレームから取得された画素点の数は、本願の実施例で列挙された20個よりもはるかに多い。理解すべきものとして、同一ビデオにおける複数のビデオフレームが、同一端末による画像収集により取得されたものであるので、同一ビデオに含まれる各ビデオフレームにおける画素点の数は同じである。
図6に示すように、該第1ビデオフレームにおける各画素点が取得された後、取得されたこれらの全ての画素点を画素点と総称することができ、さらに、図6に示す平均変位行列によって、該画素点表示領域600aにおける全ての画素点を追跡することができ、さらに、第2ビデオフレームに対応する画素点表示領域700aにおいて、マッピングされた画素点の位置情報を決定することができる。例えば、図6に示す画素点Aを例にとると、該画素点Aの、図6に示す画素点表示領域600aにおける位置情報は、領域識別子5の座標位置情報であってもよく、該平均変位行列によって、該画素点Aを、図6に示す画素点表示領域700aにマッピングすることができ、該画素点Aの、図6に示す画素点表示領域700aにおける位置情報は、領域識別子10の座標位置情報であってもよい。本願の実施例では、該画素点Aの該第2ビデオフレームにおける位置情報を算出した後、該位置情報を記憶することができる。該ターゲットビデオにおける各画像ペアは、いずれも、1つの平均変位行列に対応することができるので、各第1ビデオフレームそれぞれにおける画素点の、第2ビデオフレームにマッピングされた位置情報を算出することができる。各画像ペアにおける同一画素点の、連続するビデオフレームにおける出現位置情報を統合することにより、該画素点Aの、該ターゲットビデオの各ビデオフレームにおける出現位置情報を取得することができ、さらに、該画素点Aの、該ターゲットビデオの各ビデオフレームにおける出現位置情報に基づいて、該画素点Aの移動軌跡を取得することができる。
同様に、該ビデオフレームにおける全ての画素点のうちの他の画素点については、各画像ペアそれぞれに対応する平均変位行列(即ち、各画像ペアそれぞれにおける第1ビデオフレームに対応する平均変位行列)によって、他の画素点のそれぞれの、該ターゲットビデオの各ビデオフレームにおける位置情報を決定することができ、さらに、他の画素点の移動軌跡を取得して、各画像ペアそれぞれの第1ビデオフレームにおける全ての画素点の全画素追跡を実現することができ、さらに、該ターゲットビデオの全ての画素点の各ビデオフレームにおける位置情報を取得することができる。理解すべきものとして、本願の実施例では、該ターゲットビデオにおける全ての画素点のそれぞれに対応する軌跡情報を、画素点に対応する軌跡情報と総称することができる。
ここで、該ターゲットユーザ端末の計算性能は、大量の画素点を追跡する計算要求を満たすことが困難である場合、該ターゲットユーザ端末の計算量を減らすために、該ターゲットユーザ端末とネットワーク接続関係があるアプリケーションサーバによって、該ターゲットビデオにおける全ての画素点の移動軌跡を予め算出してもよい。これにより、該ターゲットユーザ端末が該ターゲットビデオを実際に再生する際に、アプリケーションサーバは、ターゲットユーザ端末から送信された、ターゲット画素点のキービデオフレームにおける位置情報を受信し、予め算出された、画素点に対応する軌跡情報の中から、該ターゲット画素点にマッチングする軌跡情報をターゲット軌跡情報として選別し、さらに、該ターゲット軌跡情報をターゲットユーザ端末に返信することができる。これにより、ターゲットユーザ端末は、取得した該ターゲット軌跡情報に基づいて、ステップS104をさらに実行することができる。ここで、該ターゲット画素点は、ターゲットユーザによって選択されたキービデオフレームにおける画素点である。
任意選択的に、該ターゲットユーザ端末が良好な計算性能を有する場合、該ターゲットユーザ端末において、該ターゲットビデオにおける全ての画素点の移動軌跡を予め算出してもよい。これにより、該ターゲットユーザ端末が該ターゲットビデオを実際に再生する際に、さらに、ターゲットユーザによって選択されたターゲットオブジェクトにおけるターゲット画素点に基づいて、これらの画素点に対応する軌跡情報の中から、該ターゲット画素点にマッチングする軌跡情報をターゲット軌跡情報として選別することができ、ステップS104をさらに実行することを可能にする。
ステップS104で、前記キービデオフレームの次のビデオフレームを再生する際に、前記ターゲット軌跡情報における、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報に基づいて、前記マルチメディア情報を表示する。
理解を容易にするために、さらに、本願の実施例で提供される連続する複数のビデオフレームにおける弾幕データの追跡の模式図である図7を参照されたい。理解すべきものとして、本願の実施例では、弾幕追跡のための連続する複数のビデオフレームは、現在再生されているキービデオフレームと、まだ再生されていない、該ターゲットビデオにおけるキービデオフレームの後に位置するビデオフレームとを含んでもよい。例えば、図7に示すビデオフレーム10をキービデオフレームとした場合、該キービデオフレームの後の各ビデオフレーム(例えば、ビデオフレーム20、ビデオフレーム30などのビデオフレーム)において、ビデオフレーム10に現れた弾幕データに対して弾幕追跡を行ってもよい。ここで、図7に示されたビデオフレーム10は、上記図5に対応する実施例における、ビデオ再生インタフェース300aに表示されているビデオフレームであってもよく、即ち、図7に示されたビデオフレーム10は、ターゲットユーザ端末で現在再生されているターゲットビデオにおける、該ターゲットユーザに関連付けられたキービデオフレームであってもよい。換言すれば、本願の実施例におけるキービデオフレームは、ターゲットユーザがターゲットオブジェクトを選択する際に実行したトリガ操作に対応するビデオフレームとして理解することができる。理解すべきものとして、本願の実施例におけるターゲットオブジェクトは、再生中のビデオフレームにおいてターゲットユーザがクリック操作によって選択した人物、動物、植物などのオブジェクトを含んでもよい。換言すれば、該ターゲットユーザ端末は、該ターゲットユーザによって選択されたオブジェクトをターゲットオブジェクトと呼ぶことができ、該キービデオフレームのターゲットオブジェクトにおける、トリガ操作に対応する画素点をターゲット画素点とすることができ、さらに、アプリケーションサーバによって予め算出された、該ターゲットビデオにおける全ての画素点の軌跡情報の中から、該ターゲットオブジェクトにおけるターゲット画素点に関連付けられた軌跡情報を取得することができ、取得した軌跡情報を、該ターゲット画素点に対応するターゲット軌跡情報とすることができる。該ターゲット軌跡情報は、該ターゲット画素点の該キービデオフレームにおける位置情報を含んでもよく、該ターゲット画素点の、該キービデオフレームの後の各ビデオフレーム(例えば、該キービデオフレームの次のビデオフレーム)における位置情報も含んでもよい。理解すべきものとして、該ターゲット画素点の、該キービデオフレームの後の各ビデオフレームにおける位置情報に基づいて、ターゲットオブジェクトに関連付けられた(ターゲット画素点にも関連付けられた)マルチメディア情報(即ち、上記図5に対応する実施例における弾幕データ)の、該キービデオフレームの後の各ビデオフレームにおける位置情報を迅速に算出して、該ターゲットオブジェクトに関連付けられた弾幕データの高速追跡を実現することができる。これにより、該ターゲットユーザ端末が該キービデオフレームの次のビデオフレームを再生する際に、算出された、前記弾幕データの前記キービデオフレームにおける位置情報に基づいて、前記の次のビデオフレームにおいて該弾幕データをリアルタイムに表示することを可能にする。前記弾幕データの表示は、字幕の表示と類似してもよい。
理解すべきものとして、本願の実施例では、弾幕データを、該キービデオフレームにおけるターゲットオブジェクトに関連付けることにより、影の形に添うような弾幕データとターゲットオブジェクトとを実現することができ、即ち、ユーザによって入力された弾幕が、有効追跡期間内にずっとこの追跡対象のターゲットオブジェクトに従って相対的に移動することができる。例えば、該ターゲットビデオにおいて、該キービデオフレームの後の連続する複数のビデオフレームのいずれにもターゲットオブジェクトが存在する場合、該ターゲットオブジェクトにおけるターゲット画素点の、これらの連続するいくつかのビデオフレームにおける位置情報に基づいて、該ターゲットオブジェクトに関連付けられた弾幕データ(即ち、前述したテキスト情報A)を表示することができる。
ターゲットユーザ端末は、ユーザによって入力された弾幕データ(マルチメディア情報)と、算出した、弾幕データの、ターゲットビデオの各ビデオフレームにおける位置情報とをサーバに送信してもよい。あるいは、サーバは、ターゲットユーザ端末から送信された、ユーザがクリックしたターゲットビデオにおけるキービデオフレームのフレーム番号、ターゲット画素点座標、入力された弾幕データ(マルチメディア情報)を受信し、ターゲット画素点の、ターゲットビデオの各ビデオフレームにおけるターゲット軌跡情報を算出し、該ターゲット軌跡情報に基づいて、弾幕データの、ターゲットビデオの各ビデオフレームにおける位置情報を算出し、前記弾幕データの位置情報を保存してもよい。サーバは、ターゲットユーザ端末から送信された情報を受信する際に、ターゲットユーザ端末の識別子、及び/又は、ターゲットユーザ端末においてユーザがターゲットアプリケーションにログインしたときに使用したユーザ識別子などの情報も受信してもよい。そして、他のユーザ端末で前記ターゲットビデオを再生する際に、サーバが、前記弾幕データと、前記弾幕データの、ターゲットビデオの各ビデオフレームにおける位置情報と、ユーザ識別子とを他のユーザ端末に送信し、他のユーザ端末が、弾幕データの位置情報に基づいて、ターゲットビデオの各ビデオフレームにおいて弾幕データを表示するようにしてもよい。
理解すべきものとして、ターゲットユーザ端末で再生されるいずれのビデオについても、ターゲットユーザは、現在の時刻が時刻T1であるときに、現在再生されているビデオフレームから、該ターゲットユーザが追跡する必要があると考えるオブジェクトを選択することができる。選択した該オブジェクトをターゲットオブジェクトと呼ぶことができる。さらに、ターゲットユーザ端末は、予め算出された、該ビデオにおける全ての画素点のそれぞれに対応する軌跡情報の中から、該ターゲットオブジェクトにおけるターゲット画素点に関連付けられた軌跡情報を選別することにより、該ターゲットオブジェクトにおけるターゲット画素点に対応するターゲット軌跡情報を迅速に取得することができる。ここで、理解すべきものとして、予め算出された、該ビデオにおける各画素点のいずれに対応する軌跡情報でも、該画素点の、該ビデオの各ビデオフレームにおける位置情報を記述するために使用することができる。したがって、ターゲットユーザ端末は、時刻T1に再生されたビデオフレームをキービデオフレームとした場合、該キービデオフレームにおいて、該ターゲットオブジェクトにおけるターゲット画素点を取得することができ、さらに、該ターゲット画素点に対応するターゲット軌跡情報の中から、該ターゲット画素点の、該キービデオフレームの後の各ビデオフレームにおける位置情報を迅速に取得することができ、該ターゲット軌跡情報に基づいて、該ターゲットオブジェクトに関連付けられたマルチメディア情報を表示することができる。ここで、理解できるように、各ビデオフレームにおいてターゲット画素点によって形成された軌跡情報が円である場合、該ターゲットオブジェクトに関連付けられたマルチメディア情報は、同期的に該軌跡情報に従って回転することができる。このようにして、該ターゲットビデオにおける全ての画素点を予め追跡することにより、各画素点それぞれに対応する軌跡情報を予め取得することができる。これにより、該ターゲットビデオがターゲットユーザ端末で再生されているときに、ターゲットユーザが実行したトリガ操作に基づいて、トリガ操作に対応するターゲットオブジェクトにおける画素点をターゲット画素点とし、該ターゲット画素点に関連付けられた軌跡情報をターゲット軌跡情報として取得することができ、さらに、取得した該ターゲット軌跡情報に基づいて、該ターゲットオブジェクトに関連付けられたマルチメディア情報の正確な追跡を迅速に実現することができる。
そこで、該キービデオフレームにおける異なるオブジェクトについては、異なるオブジェクトにおけるターゲット画素点のそれぞれに対応する移動軌跡を取得することができる。これにより、異なるターゲットオブジェクトに関連付けられた弾幕データが、異なる軌跡で移動することができ、弾幕データと、弾幕データのターゲットとなるオブジェクトとの関連がより強くなり、さらに、弾幕データの視覚的な展示効果を豊かにすることができ、弾幕データの表示態様の柔軟性を高めることもできる。
本願の実施例では、ターゲットビデオに対するターゲットユーザのトリガ操作が取得されると、該ターゲットビデオにおける、該トリガ操作に対応するビデオフレームをキービデオフレームとすることができる。これにより、該キービデオフレームからターゲット画素点を決定し、該ターゲット画素点及び該ターゲット画素点が位置するターゲットオブジェクトに関連付けられたマルチメディア情報(例えば、該マルチメディア情報は、該ターゲットビデオにおけるユーザ文字、ピクチャ、表情などの弾幕データであってもよい)を取得することができる。さらに、該ターゲット画素点の該キービデオフレームにおける位置情報に基づいて、前記ターゲット画素点に対応する軌跡取得要求を決定する。さらに、該軌跡取得要求に基づいて、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を取得することができる。これにより、該キービデオフレームの次のビデオフレームを再生する際に、該ターゲット軌跡情報に基づいて、該ターゲット画素点及び該ターゲット画素点が位置するターゲットオブジェクトに関連付けられた弾幕データを表示することができる。ここから分かるように、本願の実施例では、キービデオフレームが決定されると、さらに、該キービデオフレームにおける全ての画素点の軌跡情報の中から、ターゲット画素点の軌跡情報を選別し、選別したターゲット画素点の軌跡情報をターゲット軌跡情報とすることができる。これにより、取得されたターゲット軌跡情報に基づいて、弾幕データの展示効果を豊かにすることができる。例えば、異なるターゲットオブジェクトにおけるターゲット画素点について、取得されるターゲット軌跡情報が異なる可能性があり、その結果、弾幕データの展示効果が異なる。また、ターゲットオブジェクトと弾幕データとの関連関係に基づいて、該弾幕データの、該キービデオフレームの後の各ビデオフレームにおける位置情報を迅速に決定することができる。換言すれば、該弾幕データは、該ターゲットビデオにおいてずっと該ターゲットオブジェクトに従って変動し、さらに、ビデオにおけるユーザ文字の視覚的な展示効果を豊かにすることができ、弾幕データと、ターゲットオブジェクト、又はコメント対象のビデオにおけるオブジェクトとの関連性をより強くすることができる。
理解を容易にするために、さらに、本願の実施例の別のビデオデータ処理方法の模式図である図8を参照されたい。この方法は、主にターゲットユーザ端末とアプリケーションサーバとの間のデータやり取りの過程を記述するために用いられる。該方法は、以下のステップを含んでもよい。
ステップS201で、ターゲットビデオから、隣接する第1ビデオフレーム及び第2ビデオフレームを取得する。
具体的には、アプリケーションサーバは、ターゲットビデオに含まれる複数のビデオフレームから、複数の画像ペアを決定することができ、この複数の画像ペアは、いずれも、該ターゲットビデオにおける隣接する2つのビデオフレームからなる。
換言すれば、アプリケーションサーバは、該ターゲットビデオに対するビデオ前処理段階において、まず、該ターゲットビデオをフレーム化処理して、該ターゲットビデオにおける複数のビデオフレームを、再生時系列に従って1枚ずつのピクチャに分割してもよい。これにより、上記図2に示すような再生時系列で配置された複数のビデオフレームを取得することができる。該ターゲットビデオの各ビデオフレームを分割することにより、各ビデオフレームそれぞれに対応するピクチャを取得することができ、即ち、1つの画像を1つの画像フレームと見なすことができる。さらに、該アプリケーションサーバは、前方後方オプティカルフロー法によって、各画像ペアそれぞれの2つのビデオフレームにおける画素点に対して画素追跡を行ってもよい。例えば、n個のビデオフレームを含むターゲットビデオの場合、該アプリケーションサーバは、該ターゲットビデオの各ビデオフレームのビデオフレーム番号に基づいて、隣接するフレーム番号を有する2つのビデオフレームを1つの画像ペアとして決定してもよい。換言すれば、該アプリケーションサーバは、ビデオフレーム番号が1であるビデオフレームと、ビデオフレーム番号が2であるビデオフレームとを1つの画像ペアとして決定してもよい。同様に、該アプリケーションサーバは、ビデオフレーム番号が2でありビデオフレームと、ビデオフレーム番号が3であるビデオフレームとを1つの画像ペアとして決定してもよい。このようにして、該アプリケーションサーバは、ビデオフレーム番号がn-1であるビデオフレームと、ビデオフレーム番号がnであるビデオフレームとを1つの画像ペアとして決定してもよい。
該ターゲットビデオにおける各画像ペアについて、各画像ペアそれぞれにおける2つのビデオフレームを、各ビデオフレームのビデオフレーム番号で記述することができる。したがって、前述したn個のビデオフレームを含むターゲットビデオの場合、n-1個の画像ペアを取得することができ、これらのn-1個の画像ペアは、(1,2)、(2,3)、(3,4)、…(n-1,n)と表すことができる。ここで、画像ペアにおいて、ビデオフレーム番号が1であるビデオフレームは、該ターゲットビデオの第1フレームと呼ぶことができ、ビデオフレーム番号が2であるビデオフレームは、該ターゲットビデオの第2フレームと呼ぶことができ、このようにして、画像ペアにおいて、ビデオフレーム番号がn-1であるビデオフレームは、該ターゲットビデオの第n-1フレームと呼ぶことができ、ビデオフレーム番号がnであるビデオフレームは、該ターゲットビデオの第nフレームと呼ぶことができる。さらに、該アプリケーションサーバは、クラウド前方後方オプティカルフロー法によって、該ターゲットビデオの各画像ペアにおける画素点を追跡してもよい。ここで、該クラウド前方後方オプティカルフロー法は、オプティカルフロー法と総称することができ、このオプティカルフロー法は、各画像ペアそれぞれにおける2つのビデオフレーム間の画素点変位を計算するために用いることができる。
理解できるように、各画像ペアは、いずれも、前後に隣接する2つのビデオフレームからなるので、各画像ペアそれぞれにおける一方のビデオフレームを第1ビデオフレームと呼ぶことができ、各画像ペアそれぞれにおける他方のビデオフレームを第2ビデオフレームと呼ぶことができる。これにより、ステップS202をさらに実行することを可能にする。
ここで、理解を容易にするために、本願の実施例では、ターゲットビデオから取得された各画像ペアそれぞれにおける2つのビデオフレームを、第1ビデオフレーム及び第2ビデオフレームと総称することができ、即ち、該アプリケーションサーバは、ターゲットビデオから、隣接する第1ビデオフレーム及び第2ビデオフレームを取得することができる。
ステップS202で、前記ターゲットビデオに対応するオプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定する。
具体的には、アプリケーションサーバは、第1ビデオフレームの全ての画素点を抽出してもよい。抽出された全ての画素点を画素点と総称することができる。ここで、該ターゲットビデオに対応するオプティカルフロー追跡規則は、前述したクラウド前方後方オプティカルフロー法を含んでもよく、クラウド変位積分法及びクラウド変位差分法を含んでもよい。理解すべきものとして、該オプティカルフロー追跡規則によって、各画像ペアそれぞれの、第1ビデオフレームにおける画素点及び第2ビデオフレームにおける画素点に対して、オプティカルフロー演算を行って、各画像ペアそれぞれに対応するオプティカルフロー追跡結果を取得することができ、さらに、該オプティカルフロー追跡結果に基づいて、各画像ペアそれぞれに対応するターゲット状態行列及びターゲット変位行列を決定することができる。ターゲット状態行列及びターゲット変位行列を直接使用して、ビデオフレームにおける画素点を追跡することも可能であるが、追跡結果はあまり正確ではない可能性がある。追跡の正確さを向上させるために、画素点の第1ビデオフレーム及び第2ビデオフレームにおける変位を計算する際に、画素点の周囲の画素点の変位の情報を考慮してもよい。例えば、アプリケーションサーバは、前記第1ビデオフレームにおける各画素点それぞれに対して、該画素点を中心として、該画素点の周囲の画像ブロック(該画素点及び該画素点の周囲の画素点を含む)を選択し、前記画像ブロックにおける全ての画素点の平均変位を計算して、該画素点の変位としてもよい。このような処理方式では、演算量が大きくなる可能性がある。本願の実施例によれば、該オプティカルフロー追跡規則によって、さらに、各画像ペアそれぞれに対応するターゲット状態行列及びターゲット変位行列に対して、変位積分演算を行って、各画像ペアそれぞれに対応する状態積分行列及び変位積分行列を取得することもできる。さらに、該オプティカルフロー追跡規則によって、各画像ペアそれぞれに対応する状態積分行列及び変位積分行列に対して、変位差分演算を行って、各画像ペアそれぞれに対応する平均変位行列を取得することもできる。換言すれば、該オプティカルフロー追跡規則によって、各画像ペアそれぞれの第1ビデオフレームにおける画素点の位置情報の正確な追跡に使用可能な平均変位行列を正確に取得することができる。上記した変位積分演算及び変位差分演算によれば、アプリケーションサーバは、第1ビデオフレームにおける画素点と、第2ビデオフレームにおける画素点との平均変位をバッチで計算することができるので、演算速度を向上させ、画素点及びビデオフレームの処理効率を向上させることができる。
ここで、クラウド前方後方オプティカルフロー法は、各画像ペアそれぞれにおける第1ビデオフレーム及び第2ビデオフレームに対して、順方向逆方向オプティカルフロー法による計算を同期的に行って、各画像ペアそれぞれに対応するオプティカルフロー追跡結果を取得するために用いることができる。換言すれば、アプリケーションサーバで取得されたオプティカルフロー追跡結果は、各画像ペアそれぞれにおける第1ビデオフレームに対応する順方向変位行列を含んでもよく、各画像ペアそれぞれにおける第2ビデオフレームに対応する逆方向変位行列を含んでもよい。本願の実施例では、順方向変位行列及び逆方向変位行列の各行列要素は、いずれも、2つの次元の変位(例えば、(Δx,Δy))を含んでもよい。ここで、この2つの次元の変位は、同一画素点の水平方向の変位(即ち、Δx)及び垂直方向の変位(即ち、Δy)として理解することができる。理解すべきものとして、該ターゲットビデオにおける各画像ペアのいずれに対しても、該オプティカルフロー法によって計算を行うと、順方向水平変位行列、順方向垂直変位行列、逆方向水平変位行列、逆方向垂直変位行列を取得することができ、取得された4つの行列をオプティカルフロー結果と呼ぶことができる。さらに、アプリケーションサーバは、各画像ペアそれぞれにおける第1ビデオフレームに対して初期状態行列を設定してもよく、さらに、先に取得された順方向変位行列及び逆方向変位行列に基づいて、各画像ペアそれぞれの第1ビデオフレームにおける画素点がターゲット選別条件を満たすか否かを判定してもよい。第1ビデオフレームには、ターゲット選別条件を満たす画素点が存在する場合、アプリケーションサーバは、ターゲット選別条件を満たす画素点を有効画素点として決定してもよく、さらに、決定した有効画素点に基づいて、前記第1ビデオフレームに対応する初期状態行列及び前記順方向変位行列を修正して、各画像ペアそれぞれにおける第1ビデオフレームに対応するターゲット状態行列及びターゲット変位行列を取得してもよい。さらに、アプリケーションサーバは、上記したクラウド変位積分法及びクラウド変位差分法と、取得されたターゲット状態行列及びターゲット変位行列とによって、各画像ペアそれぞれにおける第1ビデオフレームに対応する平均変位行列を決定してもよい。
ここで、本願の実施例では、該順方向水平変位行列及び順方向垂直変位行列を順方向変位行列と総称することができ、逆方向水平変位行列及び逆方向垂直変位行列を逆方向変位行列と総称することができる。理解を容易にするために、本願の実施例では、複数の画像ペアのうちの1つを例にして、該画像ペアにおける第1ビデオフレーム及び第2ビデオフレームから、該画像ペアに対応する平均変位行列を取得する過程を説明する。ここで、該画像ペアにおける第1ビデオフレームは、上記したビデオフレーム番号が1であるビデオフレームであってもよく、第2ビデオフレームは、上記したビデオフレーム番号が2であるビデオフレームであってもよい。したがって、該ビデオフレーム番号が1であるビデオフレームと、ビデオフレーム番号が2であるビデオフレームとからなる画像ペアを画像ペア1と呼び、該画像ペア1を(1,2)で表すことができる。
ここで、オプティカルフロー法によって算出された該画像ペア1に対応する順方向変位行列は、順方向水平変位行列(例えば、該順方向水平変位行列は、行列Q1,2,xであってもよい)と、順方向垂直変位行列(例えば、該順方向垂直変位行列は、行列Q1,2,yであってもよい)と、を含んでもよい。ここで、理解すべきものとして、行列Q1,2,xの各行列要素は、第1ビデオフレームにおける画素点の、第2ビデオフレームにおける水平方向の変位として理解することができる。即ち、該順方向水平変位行列の各行列要素は、第1ビデオフレームにおける画素点に対応する第1横方向変位と呼ぶことができる。同様に、行列Q1,2,yの各行列要素は、第1ビデオフレームにおける画素点の、第2ビデオフレームにおける垂直方向の変位として理解することができる。即ち、該順方向垂直変位行列の各行列要素は、第1ビデオフレームにおける画素点に対応する第1縦方向変位と呼ぶことができる。換言すれば、オプティカルフロー法によって算出されたこの2つの行列(即ち、行列Q1,2,x及び行列Q1,2, )の行列サイズは、第1ビデオフレームのサイズと同じであり、即ち、1つの行列要素は、第1ビデオフレームにおける1つの画素点に対応することができる。
同様に、オプティカルフロー法によって算出された該画像ペア1に対応する逆方向変位行列は、逆方向水平変位行列(即ち、該逆方向水平変位行列は、行列Q2,1,xであってもよい)と、逆方向垂直変位行列(即ち、該逆方向垂直変位行列は、行列Q2,1,yであってもよい)と、を含んでもよい。ここで、理解すべきものとして、行列Q2,1,xの各行列要素は、第2ビデオフレームにおける画素点の、第1ビデオフレームにおける水平方向の変位として理解することができる。即ち、該逆方向水平変位行列の各行列要素は、第2ビデオフレームにおける画素点に対応する第2横方向変位と呼ぶことができる。同様に、行列Q2,1,yの各行列要素は、第2ビデオフレームにおける画素点の、第1ビデオフレームにおける垂直方向の変位として理解することができる。即ち、該逆方向垂直変位行列の各行列要素は、第2ビデオフレームにおける画素点に対応する第2縦方向変位と呼ぶことができる。換言すれば、オプティカルフロー法によって算出されたこの2つの行列(即ち、行列Q2,1,x及び行列Q2,1,y)の行列サイズは、第2ビデオフレームのサイズと同じであり、即ち、1つの行列要素は、第2ビデオフレームにおける1つの画素点に対応することができる。
理解すべきものとして、ターゲットビデオにおける各ビデオフレームについては、各ビデオフレームにおける画素点の数が同じであるので、オプティカルフロー法によって算出された、該画像ペア1に対応するこの4つの行列(即ち、行列Q1,2,x、行列Q1,2,y、行列Q2,1,x、行列Q2,1,y)の行列サイズは同じである。例えば、各ビデオフレームそれぞれにおける画素点の数がm×n個である場合、取得されたこの4つの行列の行列サイズは、いずれも、m×nであってもよい。ここから分かるように、順方向水平変位行列及び順方向垂直変位行列の各行列要素は、いずれも、第1ビデオフレームにおける画素点に対応することができる。したがって、該画像ペア1に対応する順方向変位行列の各行列要素は、第1ビデオフレームにおける画素点の、第2ビデオフレームにおける2つの次元の変位を表すことができる。該画像ペア1に対応する順方向変位行列を、第1ビデオフレームに対応する順方向変位行列と総称することができる。同様に、画像ペア1に対応する逆方向変位行列の各行列要素は、第2ビデオフレームにおける画素点の、第1ビデオフレームにおける2つの次元の変位を表すことができる。該画像ペア1に対応する逆方向変位行列を、第2ビデオフレームに対応する逆方向変位行列と総称することができる。
ここから分かるように、アプリケーションサーバは、前記第1ビデオフレームにおける画素点の第1位置情報と、前記オプティカルフロー追跡規則とに基づいて、前記第1ビデオフレームにおける画素点を前記第2ビデオフレームに順方向にマッピングし、前記第2ビデオフレームにおいて、マッピングされた第1マッピング点の第2位置情報を決定することができ、さらに、前記画素点の第1位置情報と、前記第1マッピング点の第2位置情報とに基づいて、前記第1ビデオフレームに対応する順方向変位行列を決定することができる。さらに、アプリケーションサーバは、前記第2ビデオフレームにおける画素点の第2位置情報と、前記オプティカルフロー追跡規則とに基づいて、前記第2ビデオフレームにおける画素点を前記第1ビデオフレームに逆方向にマッピングし、前記第1ビデオフレームにおいて、マッピングされた第2マッピング点の第3位置情報を決定することができ、さらに、前記第1マッピング点の第2位置情報と、前記第2マッピング点の第3位置情報とに基づいて、前記第2ビデオフレームに対応する逆方向変位行列を決定することができる。ここで、前記第1マッピング点及び前記第2マッピング点は、いずれも、オプティカルフロー法によって、画像ペアの一方のビデオフレームにおける画素点を他方のビデオフレームにマッピングした画素点である。
さらに、アプリケーションサーバは、前記第1ビデオフレームにおける画素点の第1位置情報と、前記順方向変位行列と、前記逆方向変位行列とに基づいて、前記画素点のうち、ターゲット選別条件を満たす画素点を有効画素点として決定することができる。ここで、該アプリケーションサーバが有効画素点を決定する具体的な過程は、以下のように記述することができる。
アプリケーションサーバは、前記第1ビデオフレームにおける画素点の中から、第1画素点を取得し、前記第1ビデオフレームにおいて、前記第1画素点の第1位置情報を決定し、前記順方向変位行列から、前記第1画素点に対応する第1横方向変位及び第1縦方向変位を決定してもよい。さらに、アプリケーションサーバは、前記第1画素点の第1位置情報と、前記第1画素点に対応する第1横方向変位及び第1縦方向変位とに基づいて、前記第1画素点を前記第2ビデオフレームに順方向にマッピングし、前記第2ビデオフレームにおいて、マッピングされた第2画素点の第2位置情報を決定してもよい。さらに、アプリケーションサーバは、前記逆方向変位行列から、前記第2画素点に対応する第2横方向変位及び第2縦方向変位を決定し、前記第2画素点の第2位置情報と、前記第2画素点に対応する第2横方向変位及び第2縦方向変位とに基づいて、前記第2画素点を前記第1ビデオフレームに逆方向にマッピングし、前記第1ビデオフレームにおいて、マッピングされた第3画素点の第3位置情報を決定してもよい。さらに、アプリケーションサーバは、前記第1画素点の第1位置情報と、前記第3画素点の第3位置情報とに基づいて、前記第1画素点と前記第3画素点との誤差距離を決定し、前記第1画素点の第1位置情報と、前記第2画素点の第2位置情報とに基づいて、第1画素点を含む画像ブロックと、前記第2画素点を含む画像ブロックとの相関係数を決定してもよい。さらに、アプリケーションサーバは、前記画素点のうち、誤差距離が誤差距離閾値未満であり、かつ前記相関係数が相関係数閾値以上である画素点を有効画素点として決定してもよい。
このように取得されたオプティカルフロー追跡結果における順方向変位行列及び逆方向変位行列の行列要素の正確性を検証するために、本願の実施例では、行列変換によって、上記した4つの変位行列の行列要素を選別してもよく、即ち、構築された初期状態行列における、各画素点それぞれに対応する位置にある行列要素の変化状況によって、この4つの行列から、各画素点それぞれに対応する位置にある、変位誤差が大きい行列要素を除去してもよい。これにより、第1ビデオフレームの画素点の中から、有効画素点を決定することができる。
理解を容易にするために、さらに、本願の実施例で提供される有効画素点を決定する方法の模式図である図9を参照されたい。図9に示すように、該アプリケーションサーバは、この4つの行列の行列要素を選別する前に、まず、該第1ビデオフレームと同じサイズの状態行列Sを初期化してもよい。この場合、該アプリケーションサーバは、該状態行列Sを初期状態行列と呼ぶことができる。ここで、該初期状態行列において、各画素点それぞれに対応する行列要素の値は、第1数値と呼ぶことができる。このとき、該初期状態行列における第1数値は、いずれも、ゼロである。該初期状態行列の行列要素の値の変化状況は、第1ビデオフレームにおける画素点がターゲット選別条件を満たすか否かを表すために用いることができる。これにより、ターゲット選別条件を満たす画素点を有効追跡画素点(即ち、有効画素点)とすることができる。
ここで、図9に示す第1画像フレームは、上記した画像ペア1におけるビデオフレーム番号が1であるビデオフレームであってもよい。該第1ビデオフレームにおける画素点は、図9に示すような第1画素点p1を含んでもよく、即ち、該第1画素点p1は、該第1ビデオフレームの全ての画素点のうちの1つであってもよく、該第1画素点p1の第1ビデオフレームにおける位置情報を第1位置情報と呼ぶことができる。さらに、アプリケーションサーバは、上記の順方向変位行列の順方向水平変位行列から、該第1画素点p1に対応する第1横方向変位を見つけて、上記の順方向変位行列の順方向垂直変位行列から、該第1画素点p1に対応する第1縦方向変位を見つけることができ、さらに、該第1画素点p1の第1位置情報と、該第1画素点p1に対応する第1横方向変位及び第1縦方向変位とに基づいて、該第1画素点p1を、図9に示す第2ビデオフレームに順方向にマッピングし、第2ビデオフレームにおいて、マッピングされた第2画素点p2の第2位置情報を決定することができる。理解できるように、このとき、該第2画素点p2は、第1画素点p1を行列変換した画素点である。さらに、該アプリケーションサーバは、上記の逆方向変位行列から、該第2画素点p2に対応する第2横方向変位及び第2縦方向変位を決定することができ、該第2画素点p2の第2位置情報と、該第2画素点p2に対応する第2横方向変位及び第2縦方向変位とに基づいて、該第2画素点p2を、図9に示す第1ビデオフレームに逆方向にマッピングすることができ、該第1ビデオフレームにおいて、マッピングされた第3画素点p1’の第3位置情報を決定することができる。理解できるように、このとき、該第3画素点p1’は、第1画素点p1をマッピングした第2画素点p2を行列変換した画素点である。
さらに、該アプリケーションサーバは、第1ビデオフレームにおいて、第1画素点p1の第1位置情報と、行列変換された第3画素点p1’の第3位置情報との2つの位置間の誤距離11’を決定することができる。さらに、アプリケーションサーバは、図9に示す第1ビデオフレームにおいて、第1画素点p1の第1位置情報を中心として、サイズがk*k画素(例えば、8*8画素)である画像ブロック10を選択してもよい。また、図9に示すように、アプリケーションサーバは、図9に示す第2ビデオフレームにおいて、第2画素点p2の第2位置情報を中心として、同様に、サイズがk*k画素である画像ブロック20を選択してもよく、さらに、この2つの画像ブロック間の相関係数(該相関係数は、N1,2であってもよい)を計算してもよい。
ここで、相関係数N1,2の計算式は、次の通りである。
Figure 0007258400000001
数式1におけるpatch(a,b)は、図9に示す画像ブロック10のa行b列の位置にある画素点の画素値を表すことができる。前記画素値は、0~255の間にある、画素の階調値であってもよい。E(patch)は、図9に示す画像ブロック10の平均画素値を表す。patch(a,b)は、図9に示す画像ブロック20のa行b列の位置にある画素点の画素値を表す。E(patch)は、図9に示す画像ブロック20の平均画素値を表す。
ここで、理解できるように、本願の実施例では、図9に示す第1画素点p1と第3画素点p1’との誤差距離を算出した後、この算出した誤差距離を、予め設定された誤差距離閾値と比較してもよい。t11’<T、かつN1,2≧Tである場合は(ここで、Tは設定された誤差距離閾値、Tは設定された相関係数閾値)、該第1ビデオフレームにおける第1画素点p1が前述のターゲット選別条件を満たすことを表すため、該第1画素点p1が有効画素点であると決定することができる。
さらに、該アプリケーションサーバは、初期状態行列Sにおける、該第1画素点p1に対応する位置にある行列要素の値を第2数値に設定してもよい。例えば、第1ビデオフレームにおける第1画素点p1が有効画素点であることを表すために、該初期状態行列Sにおける、第1画素点p1に対応する要素の値を0から1に切り替えてもよい。逆に、t11’≧TB、及び/又は、N1,2<Tである場合は、該第1ビデオフレームにおける第1画素点p1が前述のターゲット選別条件を満たさないことを表す。この場合、該アプリケーションサーバは、上記図9に示す第1画素点p1を無効追跡画素点と判断することができる。即ち、該初期状態行列Sにおいて、第1画素点p1に対応する要素の値は、0のままである。これと同時に、該アプリケーションサーバは、さらに、上記の順方向変位行列(即ち、上記行列Q1,2,x及び行列Q1,2,y)における、該第1画素点p1に対応する位置にある行列要素の値を0に設定してもよい。これにより、前記第1数値を含むこの順方向変位行列を、ターゲット変位行列(例えば、順方向水平変位行列Qx1及び順方向垂直変位行列Qy1)として決定することができる。即ち、該ターゲット変位行列におけるこれらの位置にある行列要素は、上記の順方向変位行列から選別されて、大きな誤差が存在する誤り追跡変位が除外された後に決定された行列を表すために用いることができる。
理解できるように、上記図9に示す他の画素点については、図9に示す第1ビデオフレームから画素点を順次選択して第1画素点として、有効画素点を決定する上記のステップを繰り返してもよい。該第1ビデオフレームにおける全ての画素点のいずれも第1画素点とされると、該第1ビデオフレームにおける全ての有効画素点を決定することができる。これにより、該有効画素点の該初期状態行列における位置情報に基づいて、該初期状態行列における行列要素を更新することができ、さらに、第2数値を含む初期状態行列を、前記第1ビデオフレームに対応するターゲット状態行列Sとして決定することができる。そして、該第1ビデオフレームに対応するターゲット変位行列(即ち、ターゲット水平変位行列Qx,1及びターゲット垂直変位行列Qy,1)を取得することができる。同様に、複数の画像ペアのうちの他の画像ペアについても、画像ペア1から有効画素点を決定する上記のステップを繰り返すことにより、残りの画像ペアのそれぞれにおける第1ビデオフレームに対応するターゲット状態行列、ターゲット変位行列を取得することができる。例えば、ターゲットビデオにおける、ビデオフレーム番号がそれぞれ1、2、3、4、…、nである連続する複数のビデオフレームを例にとると、構成された複数の画像ペアは、それぞれ、(1,2)、(2,3)、(3,4)、…、(n-1,n)と表すことができる。そうすると、各画像ペアそれぞれに対応するオプティカルフロー追跡結果から、上記の有効画素点の判断方式によって、画像ペア(1,2)に対応するターゲット状態行列Sと、画像ペア(1,2)に対応するターゲット変位行列Q(即ち、前述のターゲット水平変位行列Qx,1及びターゲット垂直変位行列Qy,1)を最終的に取得することができる。このようにして、画像ペア(n-1,n)に対応するターゲット状態行列Sn-1と、画像ペア(n-1)に対応するターゲット変位行列Qn-1(即ち、前述のターゲット水平変位行列Qx,n-1及びターゲット水垂直位行列Qy,n-1)を取得することができる。
さらに、アプリケーションサーバは、クラウド変位積分法によって、上記画像ペア1に対応するターゲット状態行列S及び前記ターゲット変位行列Qに対して積分演算を行って、該第1ビデオフレームにおける画素点に対応する状態積分行列Sin(x,y)及び変位積分行列Qin(x,y)を取得することができる。ここで、変位積分行列Qin(x,y)は、横方向変位積分行列Qx,in(x,y)と、縦方向変位積分行列Qy,in(x,y)と、を含んでもよい。また、該状態積分行列Sin(x,y)、横方向変位積分行列Qx,in(x,y)、及び縦方向変位積分行列Qy,in(x,y)は、次の行列積分式によって取得することができる。
Figure 0007258400000002
数式2、数式3、数式4におけるx及びyは、第1ビデオフレームに対応する状態積分行列、変位積分行列における全ての行列要素の座標を表すために用いることができ、例えば、Sin(x,y)は、状態積分行列のx行y列の行列要素の値を表すことができる。また、数式2、数式3、数式4におけるx’及びy’は、ターゲット状態行列及びターゲット変位行列における行列要素の座標を表すことができ、例えば、S(x’,y’)は、ターゲット状態行列のx’行y’列の行列要素の値を表すことができる。
さらに、アプリケーションサーバは、クラウド変位差分法によって、第1ビデオフレームにおいて、高さがMであり、かつ幅がNであるターゲットボックスを選択してもよく、さらに、該ターゲットボックス内で、数式2、数式3、数式4によって取得されたこの3つの積分行列に対して変位差分演算を行って、状態差分行列Sdif(x,y)及び変位差分行列Qdif(x,y)をそれぞれ取得することができる。前記ターゲットボックスは、画素点の周囲の一定の領域の全ての画素点を選択して、平均変位を計算するためのものであり、例えば、80×80画素のサイズである。
ここで、変位差分行列Qdif(x,y)は、横方向変位差分行列Qx,dif(x,y)と、縦方向変位分行列Qy,dif(x,y)と、を含んでもよい。該状態分行列Sdif(x,y)、横方向変位差分行列Qx,dif(x,y)、及び縦方向変位分行列Qy,dif(x,y)は、次の変位差分演算式(数式5)によって取得することができる。
Figure 0007258400000003
ここで、理解できるように、本願の実施例では、該第1ビデオフレームにおける、該ターゲットブロックが位置する領域を、差分領域と呼ぶことができる。これにより、該差分領域のサイズ情報、状態積分行列、横方向変位積分行列、及び縦方向変位積分行列に基づいて、前記第1ビデオフレームに対応する平均変位行列を決定することができる。ここで、該変位差分演算式におけるM及びNは、該差分領域の長さの値及び幅の値である。ここで、該変位差分演算式におけるx及びyは、それぞれ、第1ビデオフレームにおける各画素点の位置情報である。該変位差分演算式によって、該差分領域内の全ての画素点の平均値を迅速に取得することができる。例えば、状態積分行列の場合は、該状態積分行列Sin(x,y)に対応する状態差分行列Sdif(x,y)を取得することができる。横方向変位積分行列Qx,in(x,y)及び縦方向変位積分行列Qy,in(x,y)の場合は、横方向変位差分行列Qx,dif(x,y)及び縦方向変位差分行列Qy,dif(x,y)を取得することができる。
さらに、該アプリケーションサーバは、横方向変位差分行列Qx,dif(x,y)と前記状態差分行列Sdif(x,y)との比を横方向平均変位行列Qx,F(x,y)として決定し、前記縦方向変位差分行列Qy,dif (x,y)と前記状態差分行列Sdif(x,y)との比を縦方向平均変位行列Qy,F(x,y)として決定してもよい。
Figure 0007258400000004
数式6及び数式7におけるeは、0.001のような、人為的に設定された比較的小さな数を表す。即ち、数式6及び数式7におけるeは、状態差分行列Sdif(x,y)における行列要素の値が全て0である場合、直接0で除算することを回避するためのものである。これにより、ステップS203をさらに実行して、該第1ビデオフレームにおける画素点の第2ビデオフレームにおける出現位置情報を該ターゲットユーザ端末で予め算出することができる。
ステップS203で、前記平均変位行列に基づいて、前記第1ビデオフレームにおける画素点の位置情報を追跡し、前記第2ビデオフレームにおいて、追跡された画素点の位置情報を決定する。
具体的には、アプリケーションサーバは、前述したステップS20で取得された平均変位行列(該平均変位行列は、横方向平均変位行列Qx,F(x,y)と、縦方向平均変位行列Qy,F(x,y)と、を含んでもよい)に基づいて、さらに、該第1ビデオフレームにおける画素点の、次のビデオフレーム(即ち、上記の画像ペア1における第2ビデオフレーム)における出現位置情報を迅速かつ正確に追跡することができ、即ち、変位変換を行うことにより、前記第2ビデオフレームにおいて、該第1ビデオフレームにおける画素点を追跡して得られた画素点の位置情報を決定することができる。
Figure 0007258400000005
数式8におけるxは、該第1ビデオフレームにおける画素点の横方向の位置座標であり、Qx,F(x,y)は、該第1ビデオフレームに対応する横方向平均変位行列であり、該数式8によって、第1ビデオフレームにおける画素点の横方向の位置座標を座標変換して、該第1ビデオフレームにおける画素点の、次のビデオフレームにおける横方向の位置座標を取得することができる。同様に、数式9におけるyは、該第1ビデオフレームにおける画素点の縦方向の位置座標であり、Q (x,y)は、該第1ビデオフレームに対応する縦方向平均変位行列であり、該数式9によって、第1ビデオフレームにおける画素点の縦方向位置座標を座標変換して、該第1ビデオフレームにおける画素点の、次のビデオフレームにおける縦方向の位置座標を取得することができる。
理解できるように、各画像ペアのいずれについても、該画像ペアにおける第1ビデオフレームに対応する平均変位行列によって、該画像ペアの第1ビデオフレームにおける画素点を迅速に追跡することができ、該画像ペアの第2ビデオフレームにおいて、追跡された画素点の位置座標を決定することができ、即ち、各画像ペアそれぞれの第2ビデオフレームにおいて、追跡された画素点の位置情報を決定することができる。該アプリケーションサーバは、ステップS204をさらに実行することを可能にするために、各画像ペアにおいて追跡された画素点の位置情報をさらに記憶してもよい。
ステップS204で、前記第1ビデオフレームにおける画素点の位置情報と、前記追跡された画素点の前記第2ビデオフレームにおける位置情報とに基づいて、前記ターゲットビデオに関連付けられた軌跡情報を生成する。
ここで、前記軌跡情報は、ターゲットビデオにおけるターゲットオブジェクトに関連付けられたマルチメディア情報を追跡して表示するためのターゲット軌跡情報を含む。
ステップS205で、ターゲットビデオに対するトリガ操作に応答して、前記ターゲットビデオのキービデオフレームからターゲット画素点を決定し、前記ターゲット画素点に関連付けられたマルチメディア情報を取得する。
ステップS206で、前記ターゲット画素点の前記キービデオフレームにおける位置情報に基づいて、前記ターゲット画素点に対応する軌跡取得要求を決定する。
ここで、ステップS205及びステップS206の具体的な実現方式については、上記図4に対応する実施例におけるターゲットユーザ端末の説明を参照すればよいが、ここではこれ以上の説明を省略する。
ステップS207で、キービデオフレームにおけるターゲット画素点に対する軌跡取得要求に応答して、ターゲットビデオに関連付けられた軌跡情報を取得する。
具体的には、アプリケーションサーバは、ターゲットユーザ端末が、キービデオフレームにおけるターゲット画素点に基づいて送信した軌跡取得要求を受信してもよく、さらに、上述したアプリケーションサーバによって予め算出された、該ターゲットビデオにおける全ての画素点のそれぞれに関連付けられた軌跡情報を取得してもよい。これにより、ステップS208をさらに実行することを可能にする。
ステップS208で、前記ターゲットビデオに関連付けられた軌跡情報の中から、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を選別し、前記ターゲット軌跡情報を返信する。
具体的には、アプリケーションサーバは、該軌跡取得要求から、該キービデオフレームのターゲットビデオにおけるビデオフレーム番号と、ターゲット画素点の該キービデオフレームにおける位置情報とを取得してもよく、さらに、該アプリケーションサーバが予め取得した、該ターゲットビデオに関連付けられた軌跡情報の中から、該ターゲット画素点に関連付けられた軌跡情報を選別してもよく、選別した軌跡情報をターゲット軌跡情報と呼ぶことができ、さらに、該ターゲット軌跡情報をターゲットユーザ端末に返信してもよい。これにより、該ターゲットユーザ端末は、該ターゲット画素点の、該キービデオフレームの後の各ビデオフレームにおける出現位置情報が取得されるまで、該キービデオフレームのフレーム番号に基づいて、受信した該ターゲット軌跡情報の中から、ターゲット画素点の、該キービデオフレームの次のビデオフレームにおける出現位置情報を迅速に見つけることができる。この場合、該ターゲットユーザ端末は、該ターゲット画素点の、該キービデオフレームの後の各ビデオフレームにおける出現位置情報からなる新たな軌跡情報をターゲット軌跡情報と呼ぶことができる。任意選択的に、理解すべきものとして、該アプリケーションサーバは、該キービデオフレームのフレーム番号を取得すると、該ターゲット画素点の、該キービデオフレームの後の各ビデオフレームにおける出現位置情報が取得されるまで、選別した該軌跡情報の中から、ターゲット画素点の、該キービデオフレームの次のビデオフレームにおける出現位置情報を迅速に見つけてもよい。この場合、該アプリケーションサーバは、該ターゲット画素点の、該キービデオフレームの後の各ビデオフレームにおける出現位置情報からなる新たな軌跡情報をターゲット軌跡情報と呼ぶことができる。
ここで、理解できるように、ターゲットユーザ端末の計算性能がオブジェクト追跡の需要を満たせない場合、該ターゲットユーザ端末は、該ターゲット画素点に対応する軌跡取得要求を生成すると、該軌跡取得要求をアプリケーションサーバに送信してもよい。これにより、アプリケーションサーバは、前記軌跡取得要求に基づいて、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を取得することができ、取得したターゲット軌跡情報を該ターゲットユーザ端末に返信することができる。
任意選択的に、ターゲットユーザ端末の計算性能がオブジェクト追跡の需要を満たせる場合、該ターゲットユーザ端末は、上記したステップS201~ステップS204を該ターゲットユーザ端末で実行してもよい。これにより、該ターゲットユーザ端末では、該ターゲットビデオにおける全ての画素点の全画素追跡を予め行って、該ターゲットビデオにおける全ての画素点の各ビデオフレームにおける位置情報を予め取得し、さらに、該ターゲットビデオにおける各画素点の各ビデオフレームにおける位置情報について位置を統合して、該ターゲットビデオにおける各画素点それぞれに対応する軌跡情報を取得することができる。この場合、該ターゲットユーザ端末は、前記ターゲットオブジェクトにおけるターゲット画素点の前記キービデオフレームにおける位置情報に基づいて、該ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を該ターゲットユーザ端末において直接取得してもよい。これにより、ステップS209をさらに実行することを可能にする。
ここで、前記ターゲット軌跡情報は、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報を含み、前記キービデオフレームの次のビデオフレームにおける位置情報は、前記ターゲットオブジェクトを追跡することにより取得されたものである。
例えば、現在再生されているビデオ(即ち、ターゲットビデオ)に含まれる複数の連続するビデオフレームが以下の6つのビデオフレームである場合を例にとる。この6つのビデオフレームは、ビデオフレームa、ビデオフレームb、ビデオフレームc、ビデオフレームd、ビデオフレームe、ビデオフレームfであってもよい。したがって、アプリケーションサーバは、ビデオの前処理段階で、該ターゲットビデオにおける各ビデオフレームに対して前処理を予め行ってもよく、即ち、上記したオプティカルフロー追跡規則に基づいて、該ターゲットビデオにおける2つずつの隣接するビデオフレームからなる画像ペアのそれぞれに対応する平均変位行列を決定してもよく、さらに、各画像ペアそれぞれに対応する平均変位行列(各画像ペアそれぞれにおける第1ビデオフレームに対応する平均変位行列とも呼ぶことができる)に基づいて、該第1ビデオフレームにおける全ての画素点を追跡してもよい。これにより、該第1ビデオフレームにおける全ての画素点の第2ビデオフレームにおける出現位置情報を取得することができ、さらに、該ターゲットビデオの全ての画素点の各ビデオフレームにおける位置情報を取得することができ(即ち、該ターゲットビデオの全ての画素点の、上記したビデオフレームa、ビデオフレームb、ビデオフレームc、ビデオフレームd、ビデオフレームe、ビデオフレームfにおける位置情報を取得することができ)、該ターゲットビデオの全ての画素点の各ビデオフレームにおける位置情報に基づいて、該ターゲットビデオの全ての画素点のそれぞれに対応する軌跡情報を取得することができる。該ターゲットビデオの全ての画素点のそれぞれに対応する軌跡情報を、該ターゲットビデオに関連付けられた軌跡情報と呼ぶ。
また、例えば、アプリケーションサーバは、該ターゲットビデオに対して前処理を行う際に、該ターゲットビデオにおける画素点A(例えば、該画素点Aは、該ターゲットビデオにおける全ての画素点のうちの1つであってもよい)に対応する軌跡情報を予め算出してもよく、該画素点Aに対応する軌跡情報には、該画素点Aの、該ターゲットビデオの各ビデオフレーム(即ち、上記ビデオフレームa、ビデオフレームb、ビデオフレームc、ビデオフレームd、ビデオフレームe、ビデオフレームf)における位置情報が含まれる場合、ターゲットユーザ端末におけるターゲット画素点に対応するキービデオフレームが、該ターゲットビデオのビデオフレームcであれば、さらに、該ビデオフレームcにおけるターゲットオブジェクトにおける画素点Aをターゲット画素点としてもよく、さらに、該ターゲット画素点が画素点Aである場合、アプリケーションサーバにおいて該画素点Aの軌跡情報を選別してもよく、さらに、選別したこの画素点Aの軌跡情報に基づいて、該画素点Aの、該キービデオフレームの後の各ビデオフレーム(即ち、ビデオフレームd、ビデオフレームe、ビデオフレームf)における位置情報を取得することができる。
本願の実施例では、キービデオフレームが該ターゲットビデオにおける最初のビデオフレームである場合、ターゲットユーザ端末が取得したターゲット軌跡情報は、予め算出された軌跡情報であってもよい。例えば、前述したキービデオフレームがターゲットビデオにおけるビデオフレームa(最初のビデオフレーム)である場合を例にすると、該ターゲットユーザ端末が取得したターゲット軌跡情報は、該ターゲット画素点の、上記ビデオフレームa、ビデオフレームb、ビデオフレームc、ビデオフレームd、ビデオフレームe、ビデオフレームfにおける位置情報を含んでもよい。任意選択的に、キービデオフレームが該ターゲットビデオにおける非最初のビデオフレームである場合、ターゲットユーザ端末が取得したターゲット軌跡情報は、予め算出された軌跡情報の中から決定された部分位置情報からなる軌跡情報であってもよい。例えば、前述したキービデオフレームがターゲットビデオにおけるビデオフレームc(即ち、非最初のビデオフレーム)である場合を例にすると、該ターゲットユーザ端末が取得したターゲット軌跡情報は、該ターゲット画素点の、ビデオフレームd、ビデオフレームe、ビデオフレームfにおける位置情報を含んでもよく、ターゲット画素点の、ビデオフレームd、ビデオフレームe、ビデオフレームfにおける位置情報を部分位置情報と呼ぶことができる。
理解できるように、任意選択的に、該ターゲットユーザ端末は、該アプリケーションサーバによって検索された、該ターゲット画素点のキービデオフレームにおける位置情報を含む軌跡情報(即ち、上記画素点Aに対応する軌跡情報)を、ターゲット軌跡情報と総称することもできる。この場合、該ターゲット軌跡情報は、該ターゲットビデオの全ての画素点の中から検索された、ターゲット画素点にマッチングする画素点Aに対応する軌跡情報と見なすことができる。該軌跡情報は、該画素点Aの、該ターゲットビデオの各ビデオフレームにおける位置情報を含むことができるので、当然、該軌跡情報の中から、該ターゲット画素点の、該キービデオフレームの後の各ビデオフレームにおける位置情報を迅速に取得することもできる。
ステップS209で、前記キービデオフレームの次のビデオフレームを再生する際に、前記ターゲット軌跡情報における、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報に基づいて、前記マルチメディア情報を表示する。
ここで、理解できるように、本願の実施例では、ターゲットユーザによって選択されたターゲットオブジェクトにおけるターゲット画素点を取得すると、予め算出された、全ての画素点のそれぞれに対応するこれらの軌跡情報の中から、該キービデオフレームにおけるターゲット画素点の位置情報に関連付けられた軌跡情報を選別することができ、さらに、選別した軌跡情報をターゲット軌跡情報と呼ぶことができる。本願の実施例では、該ビデオの各ビデオフレームにおける画素点の画素追跡を予め行うことができるので、各画像ペアそれぞれにおける第1ビデオフレームに対応する平均変位行列を取得すると、該ビデオにおける各画素点の、対応するビデオフレームにおける位置情報を迅速に取得することができる。理解すべきものとして、予め算出された、各画素点の、対応するビデオフレームにおける位置情報は、現在ビデオ再生インタフェースで再生されている該ビデオにおける各画素点の、対応するビデオフレームにおける位置情報を表すために用いることができる。したがって、ターゲットユーザ端末は、ターゲットオブジェクトにおけるターゲット画素点、及びターゲットオブジェクトに関連付けられたマルチメディア情報を取得すると、全ての画素点のそれぞれに対応する軌跡情報の中から選別された、該ターゲット画素点に対応する軌跡情報をターゲット軌跡情報と呼ぶことができ、さらに、該ターゲット軌跡情報をターゲットユーザ端末に返信することができる。これにより、該ターゲットユーザ端末は、該ターゲット軌跡情報に付されている、該ターゲット画素点の、キービデオフレームの後の各ビデオフレームにおける位置情報に基づいて、該ターゲットオブジェクトに関連付けられたマルチメディア情報(例えば、弾幕データ)を追跡して表示することができる。
理解できるように、該ターゲット画素点の、該キービデオフレームの後の連続する複数のビデオフレームにおける位置情報によって形成された軌跡が円である場合、該弾幕データは、該ターゲットユーザ端末において、この軌跡に従って回転しながら表示されることができる。
理解を容易にするために、本願の実施例で提供される軌跡情報に基づく弾幕データの表示の模式図である図10を参照されたい。図10に示すようなビデオフレーム100は、複数のオブジェクトを含んでもよく、例えば、図10に示すオブジェクト1、オブジェクト2、及びオブジェクト3を含んでもよい。ターゲットユーザがターゲットユーザ端末で図10に示すオブジェクト1をターゲットオブジェクトとした場合、該ビデオフレーム100をキービデオフレームと呼ぶことができ、該ターゲットオブジェクトにおける、該ターゲットユーザによるトリガ操作に対応する画素点をターゲット画素点と呼ぶことができる。該ターゲットユーザ端末が、強い計算性能を有する場合、該ターゲットユーザ端末で、該ターゲットビデオにおける各画素点の各ビデオフレームにおける位置情報を予め算出してもよい。これにより、該ターゲットユーザ端末において、該ターゲットビデオに関連付けられた軌跡情報を取得することができる。例えば、図10に示す軌跡情報1は、予め算出されたものとして取得することができ、即ち、該軌跡情報1における位置情報は、いずれも、該ターゲットビデオにおける画素点の、該ターゲットビデオの各ビデオフレームにおける位置情報によって決定されたものである。したがって、該ターゲットユーザ端末は、該オブジェクト1におけるターゲット画素点の位置情報に基づいて、図10に示す軌跡情報1を迅速にターゲット軌跡情報と見なすことができ、該軌跡情報1における、オブジェクト1の、該キービデオフレームの後の各ビデオフレーム(即ち、図10に示すビデオフレーム200及びビデオフレーム300)における位置情報に基づいて、該ターゲットオブジェクト(即ち、オブジェクト1)に関連付けられたマルチメディア情報(即ち、図10に示す弾幕データ1「BBBBB」)を迅速に追跡して表示することができる。即ち、図10に示すビデオフレーム200及びビデオフレーム300に表示されている弾幕データは、いずれも、図10に示す軌跡情報1における位置情報によって決定されたものである。
理解できるように、図10に示すターゲットビデオに関連付けられた軌跡情報は、上述したアプリケーションサーバによって予め算出されたものであってもよい。これにより、アプリケーションサーバが、上記したオブジェクト1におけるターゲット画素点に対する軌跡取得要求を受信した場合にも、図10に示すターゲットビデオに関連付けられた軌跡情報の中から、該キービデオフレームにおけるターゲット画素点の位置情報に関連付けられた軌跡情報を迅速に取得することができる。即ち、ターゲットビデオにおける全ての画素点の全画素追跡をアプリケーションサーバで実行することにより、ターゲットユーザ端末の計算量を効果的に削減することができるので、ターゲットユーザ端末が、図10に示す軌跡情報1を取得すると、該軌跡情報1における位置情報に基づいて、図10に示す弾幕データ1を迅速に追跡して表示できることを確保することができ、弾幕データの表示の柔軟性を向上させることができる。理解すべきものとして、ビデオ再生インタフェースには、該ターゲットオブジェクトに関連付けられた複数の弾幕が存在することができるが、ターゲットユーザ端末は、該ビデオ再生インタフェースに存在する複数の弾幕に重なりがあることを検出した場合、重なりがあるこれらの弾幕をマージして、重なりがあるこれらの弾幕のうち、該ターゲットユーザ端末が最新に取得した弾幕を保持してもよい。
本願の実施例では、ターゲットビデオに対するターゲットユーザのトリガ操作が取得されると、該ターゲットビデオにおける、該トリガ操作に対応するビデオフレームをキービデオフレームと呼ぶことができる。これにより、該キービデオフレームからターゲット画素点を決定し、該ターゲット画素点及び該ターゲット画素点が位置するターゲットオブジェクトに関連付けられたマルチメディア情報(例えば、該マルチメディア情報は、該ターゲットビデオにおけるユーザ文字、ピクチャ、表情などの弾幕データであってもよい)を取得することができる。さらに、ターゲット画素点の該キービデオフレームにおける位置情報に基づいて、前記ターゲット画素点に対応する軌跡取得要求を決定する。さらに、該軌跡取得要求に基づいて、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を取得することができる。これにより、該キービデオフレームの次のビデオフレームを再生する際に、該ターゲット軌跡情報に基づいて、該ターゲット画素点及び該ターゲット画素点が位置するターゲットオブジェクトに関連付けられた弾幕データを表示することができる。ここから分かるように、本願の実施例では、キービデオフレームが決定されると、さらに、該キービデオフレームにおける全ての画素点の軌跡情報の中から、ターゲット画素点の軌跡情報を選別し、選別したターゲット画素点の軌跡情報をターゲット軌跡情報と呼ぶことができる。これにより、取得されたターゲット軌跡情報に基づいて、弾幕データの展示効果を豊かにすることができる。例えば、異なるターゲットオブジェクトにおけるターゲット画素点について、取得されるターゲット軌跡情報が異なる可能性があり、その結果、弾幕データの展示効果が異なる。また、ターゲットオブジェクトと弾幕データとの関連関係に基づいて、該弾幕データの、該キービデオフレームの後の各ビデオフレームにおける位置情報を迅速に決定することができる。換言すれば、該弾幕データは、該ターゲットビデオにおいてずっと該ターゲットオブジェクトに従って変動し、さらに、ビデオにおけるユーザ文字の視覚的な展示効果を豊かにすることができ、弾幕データと、ターゲットオブジェクト、又はコメント対象のビデオにおけるオブジェクトとの関連性をより強くすることができる。
さらに、本願の実施例で提供されるビデオデータ処理装置の構成の模式図である図11を参照されたい。図11に示すように、該ビデオデータ処理装置1は、上記図1に対応する実施例におけるターゲットユーザ端末に適用できる。該ビデオデータ処理装置1は、オブジェクト決定モジュール1101と、要求決定モジュール1102と、軌跡取得モジュール1103と、テキスト表示モジュール1104と、を含んでもよい。
オブジェクト決定モジュール1101は、ターゲットビデオに対するトリガ操作に応答して、前記ターゲットビデオのキービデオフレームからターゲット画素点を決定し、前記ターゲット画素点に関連付けられたマルチメディア情報を取得し、前記キービデオフレームは、前記トリガ操作が位置するビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける、前記トリガ操作に対応する画素点である。
要求決定モジュール1102は、前記ターゲット画素点の前記キービデオフレームにおける位置情報に基づいて、前記ターゲット画素点に対応する軌跡取得要求を決定する。
軌跡取得モジュール1103は、前記軌跡取得要求に基づいて、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を取得し、前記ターゲット軌跡情報は、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報を含み、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報は、前記ターゲット画素点を追跡することにより取得されたものである。
テキスト表示モジュール1104は、前記キービデオフレームの次のビデオフレームを再生する際に、前記ターゲット軌跡情報における、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報に基づいて、前記マルチメディア情報を表示する。
ここで、オブジェクト決定モジュール1101、要求決定モジュール1102、軌跡取得モジュール1103、テキスト表示モジュール1104の具体的な実行方式については、上記図4に対応する実施例におけるステップS101~ステップS104の説明を参照すればよいが、ここではこれ以上の説明を省略する。
本願の実施例では、ターゲットビデオに対するターゲットユーザのトリガ操作が取得されると、該ターゲットビデオにおける、該トリガ操作に対応するビデオフレームをキービデオフレームとすることができる。これにより、該キービデオフレームからターゲット画素点を決定し、該ターゲット画素点及び該ターゲット画素点が位置するターゲットオブジェクトに関連付けられたマルチメディア情報(例えば、該マルチメディア情報は、該ターゲットビデオにおけるユーザ文字、ピクチャ、表情などの弾幕データであってもよい)を取得することができる。さらに、ターゲット画素点の該キービデオフレームにおける位置情報に基づいて、前記ターゲット画素点に対応する軌跡取得要求を決定する。さらに、該軌跡取得要求に基づいて、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を取得することができる。これにより、該キービデオフレームの次のビデオフレームを再生する際に、該ターゲット軌跡情報に基づいて、該ターゲット画素点及び該ターゲット画素点が位置するターゲットオブジェクトに関連付けられた弾幕データを表示することができる。ここから分かるように、本願の実施例では、キービデオフレームが決定されると、さらに、該キービデオフレームにおける全ての画素点の軌跡情報の中から、ターゲット画素点の軌跡情報を選別し、選別したターゲット画素点の軌跡情報をターゲット軌跡情報とすることができる。これにより、取得されたターゲット軌跡情報に基づいて、弾幕データの展示効果を豊かにすることができる。例えば、異なるターゲットオブジェクトにおけるターゲット画素点について、取得されるターゲット軌跡情報が異なる可能性があり、その結果、弾幕データの展示効果が異なる。また、ターゲットオブジェクトと弾幕データとの関連関係に基づいて、該弾幕データの、該キービデオフレームの後の各ビデオフレームにおける位置情報を迅速に決定することができる。換言すれば、該弾幕データは、該ターゲットビデオにおいてずっと該ターゲットオブジェクトに従って変動し、さらに、ビデオにおけるユーザ文字の視覚的な展示効果を豊かにすることができ、弾幕データと、ターゲットオブジェクト、又はコメント対象のビデオにおけるオブジェクトとの関連性をより強くすることができる。
さらに、本願の実施例で提供されるコンピュータ機器の構成の模式図である図12を参照されたい。図12に示すように、コンピュータ機器1000は、上記図1に対応する実施例におけるターゲットユーザ端末であってもよい。上記コンピュータ機器1000は、プロセッサ1001と、ネットワークインタフェース1004と、メモリ1005と、を含んでもよい。また、上記コンピュータ機器1000は、ユーザインタフェース1003と、少なくとも1つの通信バス1002と、を含んでもよい。ここで、通信バス1002は、これらのコンポーネント間の接続通信を実現するためのものである。ここで、ユーザインタフェース1003は、ディスプレイ(Display)、キーボード(Keyboard)を含んでもよい。任意選択的なユーザインタフェース1003は、標準的な有線インタフェース、無線インタフェースを含んでもよい。ネットワークインタフェース1004は、任意選択的に、標準的な有線インタフェース、無線インタフェース(例えば、Wi-Fiインタフェース)を含んでもよい。メモリ100は、高速RAMであってもよく、不揮発性メモリ(non-volatile memory)、例えば、少なくとも1つの磁気ディスクメモリであってもよい。メモリ1005は、任意選択的に、前述のプロセッサ1001から離れた位置にある少なくとも1つの記憶装置であってもよい。図12に示すように、コンピュータ記憶媒体であるメモリ1005には、オペレーティングシステム、ネットワーク通信モジュール、ユーザインタフェースモジュール、及び機器制御アプリケーションが含まれてもよい。
図12に示すコンピュータ機器1000では、ネットワークインタフェース1004は、ネットワーク通信機能を提供することができ、ユーザインタフェース1003は、主にユーザに入力用のインタフェースを提供し、プロセッサ1001は、メモリ1005に記憶された機器制御アプリケーションを呼び出すことにより、
ターゲットビデオに対するトリガ操作に応答して、前記ターゲットビデオのキービデオフレームからターゲット画素点を決定し、前記ターゲット画素点に関連付けられたマルチメディア情報を取得するステップであって、前記キービデオフレームは、前記トリガ操作が位置するビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける、前記トリガ操作に対応する画素点である、ステップと、
前記ターゲット画素点の前記キービデオフレームにおける位置情報に基づいて、前記ターゲット画素点に対応する軌跡取得要求を決定するステップと、
前記軌跡取得要求に基づいて、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を取得するステップであって、前記ターゲット軌跡情報は、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報を含み、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報は、前記ターゲット画素点を追跡することにより取得されたものである、ステップと、
前記キービデオフレームの次のビデオフレームを再生する際に、前記ターゲット軌跡情報における、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報に基づいて、前記マルチメディア情報を表示するステップと、
を実現するために用いることができる。
理解すべきものとして、本願の実施例で説明されたコンピュータ機器1000は、上記図4に対応する実施例における上記ビデオデータ処理方法の説明に従って実行してもよく、上記図11に対応する実施例における上記ビデオデータ処理装置1の説明に従って実行してもよいが、ここではこれ以上の説明を省略する。また、同様の方法を用いた場合の有益な効果の説明についても、これ以上の説明を省略する。
また、ここで指摘すべきものとして、本願の実施例では、コンピュータ記憶媒体がさらに提供されており、上記コンピュータ記憶媒体には、上記で言及されたビデオデータ処理装置1が実行するコンピュータプログラムが記憶され、上記コンピュータプログラムは、プログラム命令を含み、上記プロセッサは、上記プログラム命令を実行すると、上記図4に対応する実施例における上記ビデオデータ処理方法の説明に従って実行できるので、ここではこれ以上の説明を省略する。また、同様の方法を用いた場合の有益な効果の説明についても、これ以上の説明を省略する。本願に係るコンピュータ記憶媒体の実施例に披露されていない技術的詳細については、本願の方法の実施例の説明を参照されたい。
さらに、本願の実施例で提供される別のビデオデータ処理装置の構成の模式図である図13を参照されたい。図13に示すように、該ビデオデータ処理装置2は、上記図8に対応する実施例におけるアプリケーションサーバに適用でき、該アプリケーションサーバは、上記図1に対応する実施例におけるサービスサーバ2000であってもよい。該ビデオデータ処理装置2は、要求応答モジュール1301と、軌跡選別モジュール1302と、を含んでもよい。
要求応答モジュール1301は、キービデオフレームにおけるターゲット画素点に対する軌跡取得要求に応答して、ターゲットビデオに関連付けられた軌跡情報を取得し、前記キービデオフレームは、前記ターゲットビデオにおけるビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける画素点であり、前記軌跡情報は、前記ターゲットビデオの各ビデオフレームにおける画素点の位置情報によって決定されたものである。
軌跡選別モジュール1302は、前記ターゲットビデオに関連付けられた軌跡情報の中から、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を選別し、前記ターゲット軌跡情報を返信し、前記ターゲット軌跡情報は、ターゲット位置情報を含み、前記ターゲット位置情報は、前記キービデオフレームの次のビデオフレームにおいて、前記ターゲット画素点に関連付けられたマルチメディア情報を表示することをトリガするためのものである。
ここで、要求応答モジュール1301及び軌跡選別モジュール1302の具体的な実現方式については、上記図8に対応する実施例におけるステップS207及びステップS208の説明を参照すればよいが、ここではこれ以上の説明を省略する。
さらに、本願の実施例で提供される別のコンピュータ機器の構成の模式図である図14を参照されたい。図14に示すように、コンピュータ機器2000は、上記図1に対応する実施例におけるサービスサーバ2000であってもよい。上記コンピュータ機器2000は、プロセッサ2001と、ネットワークインタフェース2004と、メモリ2005と、を含んでもよい。さらに、上記コンピュータ機器2000は、ユーザインタフェース2003と、少なくとも1つの通信バス2002と、を含んでもよい。ここで、通信バス2002は、これらのコンポーネント間の接続通信を実現するためのものである。ここで、ユーザインタフェース2003は、ディスプレイ(Display)、キーボード(Keyboard)を含んでもよく、任意選択的なユーザインタフェース2003は、標準的な有線インタフェース、無線インタフェースを含んでもよい。ネットワークインタフェース2004は、任意選択的に、標準的な有線インタフェース、無線インタフェース(例えば、Wi-Fiインタフェース)を含んでもよい。メモリ200は、高速RAMであってもよく、不揮発性メモリ(non-volatile memory)、例えば、少なくとも1つの磁気ディスクメモリであってもよい。メモリ2005は、任意選択的に、前述のプロセッサ2001から離れた位置にある少なくとも1つの記憶装置であってもよい。図14に示すように、コンピュータ記憶媒体であるメモリ2005には、オペレーティングシステム、ネットワーク通信モジュール、ユーザインタフェースモジュール、及び機器制御アプリケーションが含まれてもよい。
図14に示すコンピュータ機器2000では、ネットワークインタフェース2004は、ネットワーク通信機能を提供することができ、ユーザインタフェース2003は、主にユーザに入力用のインタフェースを提供し、プロセッサ2001は、メモリ2005に記憶された機器制御アプリケーションを呼び出すことにより、
キービデオフレームにおけるターゲット画素点に対する軌跡取得要求に応答して、ターゲットビデオに関連付けられた軌跡情報を取得するステップであって、前記キービデオフレームは、前記ターゲットビデオにおけるビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける画素点であり、前記軌跡情報は、前記ターゲットビデオの各ビデオフレームにおける画素点の位置情報によって決定されたものである、ステップと、
前記ターゲットビデオに関連付けられた軌跡情報の中から、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を選別し、前記ターゲット軌跡情報を返信するステップであって、前記ターゲット軌跡情報は、ターゲット位置情報を含み、前記ターゲット位置情報は、前記キービデオフレームの次のビデオフレームにおいて、前記ターゲット画素点に関連付けられたマルチメディア情報を表示することをトリガするためのものである、ステップと、
を実現するために用いることができる。
理解すべきものとして、本願の実施例で説明されたコンピュータ機器2000は、上記図8に対応する実施例における上記ビデオデータ処理方法の説明に従って実行してもよく、上記図13に対応する実施例における上記ビデオデータ処理装置2の説明に従って実行してもよいが、ここではこれ以上の説明を省略する。また、同様の方法を用いた場合の有益な効果の説明についても、これ以上の説明を省略する。
また、ここで指摘すべきものとして、本願の実施例では、コンピュータ記憶媒体がさらに提供されており、上記コンピュータ記憶媒体には、上記で言及されたビデオデータ処理装置2が実行するコンピュータプログラムが記憶され、上記コンピュータプログラムは、プログラム命令を含み、上記プロセッサは、上記プログラム命令を実行すると、上記図8に対応する実施例における上記ビデオデータ処理方法の説明に従って実行できるので、ここではこれ以上の説明を省略する。また、同様の方法を用いた場合の有益な効果の説明についても、これ以上の説明を省略する。本願に係るコンピュータ記憶媒体の実施例に披露されていない技術的詳細については、本願の方法の実施例の説明を参照されたい。
さらに、本願の実施例で提供される別のビデオデータ処理装置の構成の模式図である図15を参照されたい。図15に示すように、該ビデオデータ処理装置3は、上記図1に対応する実施例におけるサービスサーバ2000に適用してもよいし、上記図1に対応する実施例におけるターゲットユーザ端末に適用してもよい。該ビデオデータ処理装置3は、第1取得モジュール310と、行列取得モジュール410と、位置追跡モジュール510と、軌跡生成モジュール610とを含んでもよい。
第1取得モジュール310は、ターゲットビデオから、隣接する第1ビデオフレーム及び第2ビデオフレームを取得する。
行列取得モジュール410は、前記ターゲットビデオに対応するオプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定する。
ここで、前記行列取得モジュール410は、第1決定ユニット4001と、行列決定ユニット4002と、画素点選別ユニット4003と、行列修正ユニット4004と、第2決定ユニット4005とを含んでもよい。
第1決定ユニット4001は、前記ターゲットビデオに対応するオプティカルフロー追跡規則を取得し、前記第1ビデオフレームにおける画素点の位置情報を第1位置情報として決定し、前記第2ビデオフレームにおける画素点の位置情報を第2位置情報として決定する。
行列決定ユニット4002は、前記オプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点の第1位置情報と、前記第2ビデオフレームにおける画素点の第2位置情報とに基づいて、前記第1ビデオフレームに対応する順方向変位行列を取得し、前記第2ビデオフレームに対応する逆方向変位行列を取得する。
ここで、行列決定ユニット4002は、第1追跡サブユニット4021と、第2追跡サブユニット4022と、を含む。
第1追跡サブユニット4021は、前記第1ビデオフレームにおける画素点の第1位置情報と、前記オプティカルフロー追跡規則とに基づいて、前記第1ビデオフレームにおける画素点を前記第2ビデオフレームに順方向にマッピングし、前記第2ビデオフレームにおいて、マッピングされた第1マッピング点の第2位置情報を決定し、前記画素点の第1位置情報と、前記第1マッピング点の第2位置情報とに基づいて、前記第1ビデオフレームに対応する順方向変位行列を決定する。
第2追跡サブユニット4022は、前記第2ビデオフレームにおける画素点の第2位置情報と、前記オプティカルフロー追跡規則とに基づいて、前記第2ビデオフレームにおける第1マッピング点を前記第1ビデオフレームに逆方向にマッピングし、前記第1ビデオフレームにおいて、マッピングされた第2マッピング点の第3位置情報を決定し、前記第1マッピング点の第2位置情報と、前記第2マッピング点の第3位置情報とに基づいて、前記第2ビデオフレームに対応する逆方向変位行列を決定する。
ここで、第1追跡サブユニット4021及び第2追跡サブユニット4022の具体的な実現方式については、上記図8に対応する実施例におけるクラウド前方後方オプティカルフロー法の説明を参照すればよいが、ここではこれ以上の説明を省略する。
画素点選別ユニット4003は、記第1ビデオフレームにおける画素点の第1位置情報と、前記順方向変位行列と、前記逆方向変位行列とに基づいて、前記画素点のうちターゲット選別条件を満たす画素点を有効画素点として決定する。
ここで、前記画素点選別ユニット4003は、第1位置決定サブユニット4031と、第2位置決定サブユニット4032と、第3位置決定サブユニット4033と、誤差決定サブユニット4034と、有効選別サブユニット4035と、を含む。
第1位置決定サブユニット4031は、前記第1ビデオフレームにおける画素点の中から第1画素点を取得し、前記第1ビデオフレームにおいて、前記第1画素点の第1位置情報を決定し、前記順方向変位行列から、前記第1画素点に対応する第1横方向変位及び第1縦方向変位を決定する。
第2位置決定サブユニット4032は、前記第1画素点の第1位置情報と、前記第1画素点に対応する第1横方向変位及び第1縦方向変位とに基づいて、前記第1画素点を前記第2ビデオフレームに順方向にマッピングし、前記第2ビデオフレームにおいて、マッピングされた第2画素点の第2位置情報を決定する。
第3位置決定サブユニット4033は、前記逆方向変位行列から、前記第2画素点に対応する第2横方向変位及び第2縦方向変位を決定し、前記第2画素点の第2位置情報と、前記第2画素点に対応する第2横方向変位及び第2縦方向変位とに基づいて、前記第2画素点を前記第1ビデオフレームに逆方向にマッピングし、前記第1ビデオフレームにおいて、マッピングされた第3画素点の第3位置情報を決定する。
誤差決定サブユニット4034は、前記第1画素点の第1位置情報と、前記第3画素点の第3位置情報とに基づいて、前記第1画素点と前記第3画素点との誤差距離を決定し、前記第1画素点の第1位置情報と、前記第2画素点の第2位置情報とに基づいて、第1画素点を含む画像ブロックと、前記第2画素点を含む画像ブロックとの相関係数を決定する。
有効選別サブユニット4035は、前記画素点のうち、誤差距離が誤差距離閾値未満であり、かつ前記相関係数が相関係数閾値以上である画素点を有効画素点として決定する。
ここで、第1位置決定サブユニット4031、第2位置決定サブユニット4032、第3位置決定サブユニット4033、誤差決定サブユニット4034、及び有効選別サブユニット4035の具体的な実現方式については、上記図8に対応する実施例における有効画素点を決定する具体的な過程の説明を参照すればよいが、ここではこれ以上の説明を省略する。
行列修正ユニット4004は、前記有効画素点に基づいて、前記第1ビデオフレームに対応する初期状態行列及び前記順方向変位行列を修正することにより、前記第1ビデオフレームに対応するターゲット状態行列及びターゲット変位行列を取得する。
ここで、前記行列修正ユニット4004は、初期取得サブユニット4041と、数値切替サブユニット4042と、変位設定サブユニット4043とを含む。
初期取得サブユニット4041は、第1ビデオフレームに対応する初期状態行列を取得し、前記初期状態行列の各行列要素の状態値は、いずれも第1数値であり、1つの行列要素は、前記画素点のうちの1つに対応する。
数値切替サブユニット4042は、前記初期状態行列において、前記有効画素点に対応する行列要素の状態値を第1数値から第2数値に切り替え、第2数値を含む初期状態行列を、前記第1ビデオフレームに対応するターゲット状態行列として決定する。
変位設定サブユニット4043は、前記順方向変位行列において、残りの画素点に対応する行列要素の変位を前記第1数値に設定し、前記第1数値を含む順方向変位行列をターゲット変位行列として決定し、前記残りの画素点は、前記画素点のうち前記有効画素点以外の画素点である。
ここで、前記変位設定サブユニット4043は、具体的に、前記順方向変位行列に初期横方向変位行列及び初期縦方向変位行列が含まれる場合、前記初期横方向変位行列において、前記残りの画素点に対応する行列要素の第1横方向変位を前記第1数値に設定し、前記第1数値を含む初期横方向変位行列を、前記第1ビデオフレームに対応する横方向変位行列として決定する。
さらに、前記変位設定サブユニット4043は、具体的に、前記初期縦方向変位行列において、前記残りの画素点に対応する行列要素の第1縦方向変位を前記第1数値に設定し、前記第1数値を含む初期縦方向変位行列を、前記第1ビデオフレームに対応する縦方向変位行列として決定する。
さらに、前記変位設定サブユニット4043は、具体的に、前記第1ビデオフレームに対応する横方向変位行列と、前記第1ビデオフレームに対応する縦方向変位行列とをターゲット変位行列として決定する。
初期取得サブユニット4041、数値切替サブユニット4042、変位設定サブユニット4043の具体的な実現方式については、上記図8に対応する実施例における初期状態行列及び順方向変位行列を修正することについての説明を参照すればよいが、ここではこれ以上の説明を省略する。
第2決定ユニット4005は、前記ターゲット状態行列及び前記ターゲット変位行列に基づいて、前記第1ビデオフレームに対応する平均変位行列を決定する。
ここで、前記第2決定ユニット4005は、第1積分サブユニット4051と、第2積分サブユニット4052と、第3積分サブユニット4053と、差分演算サブユニット4054と、を含む。
第1積分サブユニット4051は、前記第1ビデオフレームにおいて、前記ターゲット状態行列に対して変位積分演算を行うことにより、前記第1ビデオフレームにおける画素点に対応する状態積分行列を取得する。
第2積分サブユニット4052は、前記第1ビデオフレームにおいて、前記ターゲット変位行列における横方向変位行列に対して変位積分演算を行うことにより、前記第1ビデオフレームにおける画素点に対応する横方向変位積分行列を取得する。
第3積分サブユニット4053は、前記第1ビデオフレームにおいて、前記ターゲット変位行列における縦方向変位行列に対して変位積分演算を行うことにより、前記第1ビデオフレームにおける画素点に対応する縦方向変位積分行列を取得する。
差分演算サブユニット4054は、前記第1ビデオフレームから、変位差分演算に対応する差分領域を決定し、前記差分領域のサイズ情報と、状態積分行列と、横方向変位積分行列と、縦方向変位積分行列とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定する。
ここで、前記差分演算サブユニット4054は、第1差分サブユニット4055と、第2差分サブユニット4056と、第3差分サブユニット4057と、平均決定サブユニット4058と、を含む。
第1差分サブユニット4055は、前記差分領域に対応する長さ情報及び幅情報に基づいて、前記状態積分行列に対して変位差分演算を行うことにより、前記第1ビデオフレームに対応する状態差分行列を取得する。
第2差分サブユニット4056は、前記差分領域に対応する長さ情報及び幅情報に基づいて、前記横方向変位積分行列及び前記縦方向変位積分行列のそれぞれに対して変位差分演算を行うことにより、前記第1ビデオフレームに対応する横方向変位差分行列及び縦方向変位差分行列を取得する。
第3差分サブユニット4057は、前記横方向変位差分行列と前記状態差分行列との比を横方向平均変位行列として決定し、前記縦方向変位差分行列と前記状態差分行列との比を縦方向平均変位行列として決定する。
平均決定サブユニット4058は、前記方向平均位行列及び前記縦方向平均変位行列を、前記第1ビデオフレームに対応する平均変位行列として決定する。
ここで、第1積分サブユニット4051、第2積分サブユニット4052、第3積分サブユニット4053、差分演算サブユニット4054の具体的な実現方式については、上記図8に対応する実施例におけるクラウド変位積分方法及びクラウド変位差分方法の説明を参照すればよいが、ここではこれ以上の説明を省略する。
ここで、第1決定ユニット4001、行列決定ユニット4002、画素点選別ユニット4003、行列修正ユニット4004、第2決定ユニット4005の具体的な実現方式については、上記図8に対応する実施例におけるステップS202の説明を参照すればよいが、ここではこれ以上の説明を省略する。
位置追跡モジュール510は、前記平均変位行列に基づいて、前記第1ビデオフレームにおける画素点の位置情報を追跡し、前記第2ビデオフレームにおいて、追跡された画素点の位置情報を決定する。
軌跡生成モジュール610は、前記第1ビデオフレームにおける画素点の位置情報と、前記追跡された画素点の前記第2ビデオフレームにおける位置情報とに基づいて、前記ターゲットビデオに関連付けられた軌跡情報を生成し、前記軌跡情報は、ターゲットビデオにおけるターゲット画素点に関連付けられたマルチメディア情報を追跡して表示するためのターゲット軌跡情報を含む。
ここで、第1取得モジュール310、行列取得モジュール410、位置追跡モジュール510、軌跡生成モジュール610の具体的な実現方式については、上記図8に対応する実施例におけるステップS201~ステップS204の説明を参照すればよいが、ここではこれ以上の説明を省略する。
さらに、本願の実施例で提供される別のコンピュータ機器の構成の模式図である図16を参照されたい。図16に示すように、上記コンピュータ機器3000は、上記図1に対応する実施例におけるサービスサーバ2000に適用できる。上記コンピュータ機器3000は、プロセッサ3001と、ネットワークインタフェース3004と、メモリ3005と、を含んでもよい。さらに、上記コンピュータ機器3000は、ユーザインタフェース3003と、及び少なくとも1つの通信バス3002と、を含んでもよい。ここで、通信バス3002は、これらのコンポーネント間の接続通信を実現するためのものである。ここで、ユーザインタフェース3003は、ディスプレイ(Display)、キーボード(Keyboard)を含んでもよく、任意選択的なユーザインタフェース3003は、標準的な有線インタフェース、無線インタフェースを含んでもよい。ネットワークインタフェース3004は、任意選択的に、標準的な有線インタフェース、無線インタフェース(例えば、Wi-Fiインタフェース)を含んでもよい。メモリ300は、高速RAMであってもよく、不揮発性メモリ(non-volatile memory)、例えば、少なくとも1つの磁気ディスクメモリであってもよい。メモリ3005は、任意選択的に、前述のプロセッサ3001から離れた位置にある少なくとも1つの記憶装置であってもよい。図16に示すように、コンピュータ記憶媒体であるメモリ3005には、オペレーティングシステム、ネットワーク通信モジュール、ユーザインタフェースモジュール、及び機器制御アプリケーションが含まれてもよい。
図16に示すコンピュータ機器3000では、ネットワークインタフェース3004は、ネットワーク通信機能を提供することができ、ユーザインタフェース3003は、主にユーザに入力用のインタフェースを提供し、プロセッサ3001は、メモリ3005に記憶された機器制御アプリケーションを呼び出すことにより、
ターゲットビデオから、隣接する第1ビデオフレーム及び第2ビデオフレームを取得するステップと、
前記ターゲットビデオに対応するオプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定するステップと、
前記平均変位行列に基づいて、前記第1ビデオフレームにおける画素点の位置情報を追跡し、前記第2ビデオフレームにおいて、追跡された画素点の位置情報を決定するステップと、
前記第1ビデオフレームにおける画素点の位置情報と、前記追跡された画素点の前記第2ビデオフレームにおける位置情報とに基づいて、前記ターゲットビデオに関連付けられた軌跡情報を生成するステップであって、前記軌跡情報は、ターゲットビデオにおけるターゲット画素点に関連付けられたマルチメディア情報を追跡して表示するためのターゲット軌跡情報を含む、ステップと、
を実現するために用いることができる。
理解すべきものとして、本願の実施例で説明されたコンピュータ機器3000は、上記図8に対応する実施例における上記ビデオデータ処理方法の説明に従って実行してもよく、上記図15に対応する実施例における上記ビデオデータ処理装置3の説明に従って実行してもよいが、ここではこれ以上の説明を省略する。また、同様の方法を用いた場合の有益な効果の説明についても、これ以上の説明を省略する。
また、ここで指摘すべきものとして、本願の実施例では、コンピュータ記憶媒体がさらに提供されており、上記コンピュータ記憶媒体には、上記で言及されたビデオデータ処理装置3が実行するコンピュータプログラムが記憶され、上記コンピュータプログラムは、プログラム命令を含み、上記プロセッサは、上記プログラム命令を実行すると、上記図8に対応する実施例における上記ビデオデータ処理方法の説明に従って実行できるので、ここではこれ以上の説明を省略する。また、同様の方法を用いた場合の有益な効果の説明についても、これ以上の説明を省略する。本願に係るコンピュータ記憶媒体の実施例に披露されていない技術的詳細については、本願の方法の実施例の説明を参照されたい。
当業者であれば理解できるように、上記の実施例における方法の手順の全部又は一部は、コンピュータプログラムを介して関連のハードウェアに指示することにより実行されてもよい。上記プログラムは、コンピュータ可読記憶媒体に記憶されてもよい。このプログラムが実行されると、上記のような各方法の実施例の手順が実行される。ここで、上記した記憶媒体は、磁気ディスク、光ディスク、読み出し専用メモリ(ROM:Read-Only Memory)、又はランダムアクセスメモリ(RAM:Random Access Memory)などであってもよい。
以上の掲示は本願の好ましい実施例にすぎず、もちろん、これによって本願の権利範囲を限定することを意図しないので、本願の特許請求の範囲に基づいた同等な変更は、依然として本願の保護範囲に属する。
2000 サービスサーバ
3000a,3000b,3000c,3000n ユーザ端末
1,2,3 ビデオデータ処理装置
310 第1取得モジュール
410 行列取得モジュール
510 位置追跡モジュール
610 軌跡生成モジュール
1000,2000,3000 コンピュータ機器
1001,2001,3001 プロセッサ
1002,2002,3002 通信バス
1003,2003,3003 ユーザインタフェース
1004,2004,3004 ネットワークインタフェース
1005,2005,3005 メモリ
1101 オブジェクト決定モジュール
1102 要求決定モジュール
1103 軌跡取得モジュール
1104 テキスト表示モジュール
1301 要求応答モジュール
1302 軌跡選別モジュール
4001 第1決定ユニット
4002 行列決定ユニット
4003 画素点選別ユニット
4004 行列修正ユニット
4005 第2決定ユニット
4021 第1追跡サブユニット
4022 第2追跡サブユニット
4031 第1位置決定サブユニット
4032 第2位置決定サブユニット
4033 第3位置決定サブユニット
4034 誤差決定サブユニット
4035 有効選別サブユニット
4041 初期取得サブユニット
4042 数値切替サブユニット
4043 変位設定サブユニット
4051 第1積分サブユニット
4052 第2積分サブユニット
4053 第3積分サブユニット
4054 差分演算サブユニット
4055 第1差分サブユニット
4056 第2差分サブユニット
4057 第3差分サブユニット
4058 平均決定サブユニット

Claims (14)

  1. コンピュータ機器が実行するビデオデータ処理方法であって、
    ターゲットビデオに対するトリガ操作に応答して、前記ターゲットビデオのキービデオフレームからターゲット画素点を決定し、前記ターゲット画素点に関連付けられたマルチメディア情報を取得するステップであって、前記キービデオフレームは、前記トリガ操作が位置するビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける、前記トリガ操作に対応する画素点である、ステップと、
    前記ターゲット画素点の前記キービデオフレームにおける位置情報に基づいて、前記ターゲット画素点に対応する軌跡取得要求を決定するステップと、
    前記軌跡取得要求に基づいて、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を取得するステップであって、前記ターゲット軌跡情報は、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報を含み、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報は、前記ターゲット画素点を追跡することにより取得されたものである、ステップと、
    前記キービデオフレームの次のビデオフレームを再生する際に、前記ターゲット軌跡情報における、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報に基づいて、前記マルチメディア情報を表示するステップと、を含み、
    前記ターゲット軌跡情報は、隣接する第1ビデオフレーム及び第2ビデオフレームにおける画素点の位置情報に基づいて決定されたものであり、
    前記第2ビデオフレームにおける画素点の位置情報は、前記第1ビデオフレームに対応する平均変位行列に基づいて、前記第1ビデオフレームにおける画素点の位置情報を追跡して決定されたものであり、
    前記平均変位行列は、ターゲットビデオに対応するオプティカルビデオフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて決定されたものであり、
    前記平均変位行列は、
    前記ターゲットビデオに対応するオプティカルフロー追跡規則を取得し、前記第1ビデオフレームにおける画素点の位置情報を第1位置情報として決定し、第2ビデオフレームにおける画素点の位置情報を第2位置情報として決定し、
    前記オプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点の第1位置情報と、前記第2ビデオフレームにおける画素点の第2位置情報とに基づいて、前記第1ビデオフレームに対応する順方向変位行列を取得し、前記第2ビデオフレームに対応する逆方向変位行列を取得し、
    前記第1ビデオフレームにおける画素点の第1位置情報と、前記順方向変位行列と、前記逆方向変位行列とに基づいて、前記第1ビデオフレームにおける画素点のうちターゲット選別条件を満たす画素点を有効画素点として決定し、
    前記有効画素点に基づいて、前記第1ビデオフレームに対応する初期状態行列及び前記順方向変位行列を修正することにより、前記第1ビデオフレームに対応するターゲット状態行列及びターゲット変位行列を取得し、
    前記ターゲット状態行列及び前記ターゲット変位行列に基づいて、前記第1ビデオフレームに対応する平均変位行列を決定することによって決定される、
    ことを特徴とする方法。
  2. サービスサーバが実行するビデオデータ処理方法であって、
    キービデオフレームにおけるターゲット画素点に対する軌跡取得要求に応答して、ターゲットビデオに関連付けられた軌跡情報を取得するステップであって、前記キービデオフレームは、前記ターゲットビデオにおけるビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける画素点であり、前記軌跡情報は、前記ターゲットビデオの各ビデオフレームにおける画素点の位置情報によって決定されたものである、ステップと、
    前記ターゲットビデオに関連付けられた軌跡情報の中から、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を選別し、前記ターゲット軌跡情報を返信するステップであって、前記ターゲット軌跡情報は、ターゲット位置情報を含み、前記ターゲット位置情報は、前記キービデオフレームの次のビデオフレームにおいて、前記ターゲット画素点に関連付けられたマルチメディア情報を表示することをトリガするためのものである、ステップと、を含み、
    前記ターゲットビデオに関連付けられた軌跡情報は、
    前記ターゲットビデオから、隣接する第1ビデオフレーム及び第2ビデオフレームを取得するステップと、
    前記ターゲットビデオに対応するオプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定するステップと、
    前記平均変位行列に基づいて、前記第1ビデオフレームにおける画素点の位置情報を追跡し、前記第2ビデオフレームにおいて、追跡された画素点に位置情報を決定するステップと、
    前記第1ビデオフレームにおける画素点に位置情報と、前記追跡された画素点の前記第2ビデオフレームにおける位置情報とに基づいて、前記ターゲットビデオに関連付けられた軌跡情報を生成することによって生成され、
    前記ターゲットビデオに対応するオプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定する前記ステップは、
    前記ターゲットビデオに対応するオプティカルフロー追跡規則を取得し、前記第1ビデオフレームにおける画素点の位置情報を第1位置情報として決定し、前記第2ビデオフレームにおける画素点の位置情報を第2位置情報として決定するステップと、
    前記オプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点の第1位置情報と、前記第2ビデオフレームにおける画素点の第2位置情報とに基づいて、前記第1ビデオフレームに対応する順方向変位行列を取得し、前記第2ビデオフレームに対応する逆方向変位行列を取得するステップと、
    前記第1ビデオフレームにおける画素点の第1位置情報と、前記順方向変位行列と、前記逆方向変位行列とに基づいて、前記第1ビデオフレームにおける画素点のうちターゲット選別条件を満たす画素点を有効画素点として決定するステップと、
    前記有効画素点に基づいて、前記第1ビデオフレームに対応する初期状態行列及び前記順方向変位行列を修正することにより、前記第1ビデオフレームに対応するターゲット状態行列及びターゲット変位行列を取得するステップと、
    前記ターゲット状態行列及び前記ターゲット変位行列に基づいて、前記第1ビデオフレームに対応する平均変位行列を決定するステップと、
    を含むことを特徴とする方法。
  3. コンピュータ機器が実行するビデオデータ処理方法であって、
    ターゲットビデオから、隣接する第1ビデオフレーム及び第2ビデオフレームを取得するステップと、
    前記ターゲットビデオに対応するオプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定するステップと、
    前記平均変位行列に基づいて、前記第1ビデオフレームにおける画素点の位置情報を追跡し、前記第2ビデオフレームにおいて、追跡された画素点の位置情報を決定するステップと、
    前記第1ビデオフレームにおける画素点の位置情報と、前記追跡された画素点の前記第2ビデオフレームにおける位置情報とに基づいて、前記ターゲットビデオに関連付けられた軌跡情報を生成するステップであって、前記軌跡情報は、ターゲットビデオにおけるターゲット画素点に関連付けられたマルチメディア情報を追跡して表示するためのターゲット軌跡情報を含む、ステップと、
    を含み、
    前記ターゲットビデオに対応するオプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定する前記ステップは、
    前記ターゲットビデオに対応するオプティカルフロー追跡規則を取得し、前記第1ビデオフレームにおける画素点の位置情報を第1位置情報として決定し、前記第2ビデオフレームにおける画素点の位置情報を第2位置情報として決定するステップと、
    前記オプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点の第1位置情報と、前記第2ビデオフレームにおける画素点の第2位置情報とに基づいて、前記第1ビデオフレームに対応する順方向変位行列を取得し、前記第2ビデオフレームに対応する逆方向変位行列を取得するステップと、
    前記第1ビデオフレームにおける画素点の第1位置情報と、前記順方向変位行列と、前記逆方向変位行列とに基づいて、前記第1ビデオフレームにおける画素点のうちターゲット選別条件を満たす画素点を有効画素点として決定するステップと、
    前記有効画素点に基づいて、前記第1ビデオフレームに対応する初期状態行列及び前記順方向変位行列を修正することにより、前記第1ビデオフレームに対応するターゲット状態行列及びターゲット変位行列を取得するステップと、
    前記ターゲット状態行列及び前記ターゲット変位行列に基づいて、前記第1ビデオフレームに対応する平均変位行列を決定するステップと、
    を含むことを特徴とする方法。
  4. 前記オプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点の第1位置情報と、前記第2ビデオフレームにおける画素点の第2位置情報とに基づいて、前記第1ビデオフレームに対応する順方向変位行列を取得し、前記第2ビデオフレームに対応する逆方向変位行列を取得する前記ステップは、
    前記第1ビデオフレームにおける画素点の第1位置情報と、前記オプティカルフロー追跡規則とに基づいて、前記第1ビデオフレームにおける画素点を前記第2ビデオフレームに順方向にマッピングし、前記第2ビデオフレームにおいて、マッピングされた第1マッピング点の第2位置情報を決定し、前記第1ビデオフレームにおける画素点の第1位置情報と、前記第1マッピング点の第2位置情報とに基づいて、前記第1ビデオフレームに対応する順方向変位行列を決定するステップと、
    前記第2ビデオフレームにおける画素点の第2位置情報と、前記オプティカルフロー追跡規則とに基づいて、前記第2ビデオフレームにおける画素点を前記第1ビデオフレームに逆方向にマッピングし、前記第1ビデオフレームにおいて、マッピングされた第2マッピング点の第3位置情報を決定し、前記第1マッピング点の第2位置情報と、前記第2マッピング点の第3位置情報とに基づいて、前記第2ビデオフレームに対応する逆方向変位行列を決定するステップと、
    を含むことを特徴とする請求項3に記載の方法。
  5. 前記第1ビデオフレームにおける画素点の第1位置情報と、前記順方向変位行列と、前記逆方向変位行列とに基づいて、前記第1ビデオフレームにおける画素点のうちターゲット選別条件を満たす画素点を有効画素点として決定する前記ステップは、
    前記第1ビデオフレームにおける画素点の中から第1画素点を取得し、前記第1ビデオフレームにおいて、前記第1画素点の第1位置情報を決定し、前記順方向変位行列から、前記第1画素点に対応する第1横方向変位及び第1縦方向変位を決定するステップと、
    前記第1画素点の第1位置情報と、前記第1画素点に対応する第1横方向変位及び第1縦方向変位とに基づいて、前記第1画素点を前記第2ビデオフレームに順方向にマッピングし、前記第2ビデオフレームにおいて、マッピングされた第2画素点の第2位置情報を決定するステップと、
    前記逆方向変位行列から、前記第2画素点に対応する第2横方向変位及び第2縦方向変位を決定し、前記第2画素点の第2位置情報と、前記第2画素点に対応する第2横方向変位及び第2縦方向変位とに基づいて、前記第2画素点を前記第1ビデオフレームに逆方向にマッピングし、前記第1ビデオフレームにおいて、マッピングされた第3画素点の第3位置情報を決定するステップと、
    前記第1画素点の第1位置情報と、前記第3画素点の第3位置情報とに基づいて、前記第1画素点と前記第3画素点との誤差距離を決定し、前記第1画素点の第1位置情報と、前記第2画素点の第2位置情報とに基づいて、第1画素点を含む画像ブロックと、前記第2 画素点を含む画像ブロックとの相関係数を決定するステップと、
    前記第1ビデオフレームにおける画素点のうち、誤差距離が誤差距離閾値未満であり、かつ前記相関係数が相関係数閾値以上である画素点を有効画素点として決定するステップと、
    を含むことを特徴とする請求項3に記載の方法。
  6. 前記有効画素点に基づいて、前記第1ビデオフレームに対応する初期状態行列及び前記順方向変位行列を修正することにより、前記第1ビデオフレームに対応するターゲット状態行列及びターゲット変位行列を取得する前記ステップは、
    前記第1ビデオフレームに対応する初期状態行列を取得するステップであって、前記初期状態行列の各行列要素の状態値は、いずれも第1数値であり、1つの行列要素は、前記第1ビデオフレームにおける画素点のうちの1つに対応する、ステップと、
    前記初期状態行列において、前記有効画素点に対応する行列要素の状態値を第1数値から第2数値に切り替え、第2数値を含む初期状態行列を、前記第1ビデオフレームに対応するターゲット状態行列として決定するステップと、
    前記順方向変位行列において、残りの画素点に対応する行列要素の変位を前記第1数値に設定し、前記第1数値を含む順方向変位行列をターゲット変位行列として決定するステップであって、前記残りの画素点は、前記第1ビデオフレームにおける画素点のうち前記有効画素点以外の画素点である、ステップと、
    を含むことを特徴とする請求項3に記載の方法。
  7. 前記順方向変位行列において、残りの画素点に対応する行列要素の変位を前記第1数値に設定し、前記第1数値を含む順方向変位行列をターゲット変位行列として決定する前記ステップは、
    前記順方向変位行列に初期横方向変位行列及び初期縦方向変位行列が含まれる場合、前記初期横方向変位行列において、前記残りの画素点に対応する行列要素の第1横方向変位を前記第1数値に設定し、前記第1数値を含む初期横方向変位行列を、前記第1ビデオフレームに対応する横方向変位行列として決定するステップと、
    前記初期縦方向変位行列において、前記残りの画素点に対応する行列要素の第1縦方向変位を前記第1数値に設定し、前記第1数値を含む初期縦方向変位行列を、前記第1ビデオフレームに対応する縦方向変位行列として決定するステップと、
    前記第1ビデオフレームに対応する横方向変位行列と、前記第1ビデオフレームに対応する縦方向変位行列とをターゲット変位行列として決定するステップと、
    を含むことを特徴とする請求項6に記載の方法。
  8. 前記ターゲット状態行列及び前記ターゲット変位行列に基づいて、前記第1ビデオフレームに対応する平均変位行列を決定する前記ステップは、
    前記第1ビデオフレームにおいて、前記ターゲット状態行列に対して変位積分演算を行うことにより、前記第1ビデオフレームにおける画素点に対応する状態積分行列を取得するステップと、
    前記第1ビデオフレームにおいて、前記ターゲット変位行列における横方向変位行列に対して変位積分演算を行うことにより、前記第1ビデオフレームにおける画素点に対応する横方向変位積分行列を取得するステップと、
    前記第1ビデオフレームにおいて、前記ターゲット変位行列における縦方向変位行列に対して変位積分演算を行うことにより、前記第1ビデオフレームにおける画素点に対応する縦方向変位積分行列を取得するステップと、
    前記第1ビデオフレームから、変位差分演算に対応する差分領域を決定し、前記差分領域のサイズ情報と、状態積分行列と、横方向変位積分行列と、縦方向変位積分行列とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定するステップと、
    を含むことを特徴とする請求項3に記載の方法。
  9. 前記差分領域のサイズ情報と、状態積分行列と、横方向変位積分行列と、縦方向変位積分行列とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定する前記ステップは、
    前記差分領域に対応する長さ情報及び幅情報に基づいて、前記状態積分行列に対して変位差分演算を行うことにより、前記第1ビデオフレームに対応する状態差分行列を取得するステップと、
    前記差分領域に対応する長さ情報及び幅情報に基づいて、前記横方向変位積分行列及び前記縦方向変位積分行列のそれぞれに対して変位差分演算を行うことにより、前記第1ビデオフレームに対応する横方向変位差分行列及び縦方向変位差分行列を取得するステップと、
    前記横方向変位差分行列と前記状態差分行列との比を横方向平均変位行列として決定し、前記縦方向変位差分行列と前記状態差分行列との比を縦方向平均変位行列として決定するステップと、
    前記横方向平均変位行列及び前記縦方向平均変位行列を、前記第1ビデオフレームに対応する平均変位行列として決定するステップと、
    を含むことを特徴とする請求項8に記載の方法。
  10. コンピュータ機器に適用されるビデオデータ処理装置であって、
    ターゲットビデオに対するトリガ操作に応答して、前記ターゲットビデオのキービデオフレームからターゲット画素点を決定し、前記ターゲット画素点に関連付けられたマルチメディア情報を取得するオブジェクト決定モジュールであって、前記キービデオフレームは、前記トリガ操作が位置するビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける、前記トリガ操作に対応する画素点である、オブジェクト決定モジュールと、
    前記ターゲット画素点の前記キービデオフレームにおける位置情報に基づいて、前記ターゲット画素点に対応する軌跡取得要求を決定する要求決定モジュールと、
    前記軌跡取得要求に基づいて、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を取得する軌跡取得モジュールであって、前記ターゲット軌跡情報は、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報を含み、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報は、前記ターゲット画素点を追跡することにより取得されたものである、軌跡取得モジュールと、
    前記キービデオフレームの次のビデオフレームを再生する際に、前記ターゲット軌跡情報における、前記ターゲット画素点の、前記キービデオフレームの次のビデオフレームにおける位置情報に基づいて、前記マルチメディア情報を表示するテキスト表示モジュールと、を含み、
    前記ターゲット軌跡情報は、隣接する第1ビデオフレーム及び第2ビデオフレームにおける画素点の位置情報に基づいて決定されたものであり、
    前記第2ビデオフレームにおける画素点の位置情報は、前記第1ビデオフレームに対応する平均変位行列に基づいて、前記第1ビデオフレームにおける画素点の位置情報を追跡して決定されたものであり、
    前記平均変位行列は、ターゲットビデオに対応するオプティカルビデオフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて決定されたものであり、
    前記平均変位行列は、
    前記ターゲットビデオに対応するオプティカルフロー追跡規則を取得し、前記第1ビデオフレームにおける画素点の位置情報を第1位置情報として決定し、第2ビデオフレームにおける画素点の位置情報を第2位置情報として決定し、
    前記オプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点の第1位置情報と、前記第2ビデオフレームにおける画素点の第2位置情報とに基づいて、前記第1ビデオフレームに対応する順方向変位行列を取得し、前記第2ビデオフレームに対応する逆方向変位行列を取得し、
    前記第1ビデオフレームにおける画素点の第1位置情報と、前記順方向変位行列と、前記逆方向変位行列とに基づいて、前記第1ビデオフレームにおける画素点のうちターゲット選別条件を満たす画素点を有効画素点として決定し、
    前記有効画素点に基づいて、前記第1ビデオフレームに対応する初期状態行列及び前記順方向変位行列を修正することにより、前記第1ビデオフレームに対応するターゲット状態行列及びターゲット変位行列を取得し、
    前記ターゲット状態行列及び前記ターゲット変位行列に基づいて、前記第1ビデオフレームに対応する平均変位行列を決定することによって決定される、
    ことを特徴とするビデオデータ処理装置。
  11. サービスサーバに適用されるビデオデータ処理装置であって、
    キービデオフレームにおけるターゲット画素点に対する軌跡取得要求に応答して、ターゲットビデオに関連付けられた軌跡情報を取得する要求応答モジュールであって、前記キービデオフレームは、前記ターゲットビデオにおけるビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける画素点であり、前記軌跡情報は、前記ターゲットビデオの各ビデオフレームにおける画素点の位置情報によって決定されたものである、要求応答モジュールと、
    前記ターゲットビデオに関連付けられた軌跡情報の中から、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を選別し、前記ターゲット軌跡情報を返信する軌跡選別モジュールであって、前記ターゲット軌跡情報は、ターゲット位置情報を含み、前記ターゲット位置情報は、前記キービデオフレームの次のビデオフレームにおいて、前記ターゲット画素点に関連付けられたマルチメディア情報を表示することをトリガするためのものである、軌跡選別モジュールと、
    を含み、
    前記ターゲット軌跡情報は、
    前記ターゲットビデオに対応するオプティカルフロー追跡規則を取得し、第1ビデオフレームにおける画素点の位置情報を第1位置情報として決定し、第2ビデオフレームにおける画素点の位置情報を第2位置情報として決定することと、
    前記オプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点の第1位置情報と、前記第2ビデオフレームにおける画素点の第2位置情報とに基づいて、前記第1ビデオフレームに対応する順方向変位行列を取得し、前記第2ビデオフレームに対応する逆方向変位行列を取得することと、
    前記第1ビデオフレームにおける画素点の第1位置情報と、前記順方向変位行列と、前記逆方向変位行列とに基づいて、前記第1ビデオフレームにおける画素点のうちターゲット選別条件を満たす画素点を有効画素点として決定することと、
    前記有効画素点に基づいて、前記第1ビデオフレームに対応する初期状態行列及び前記順方向変位行列を修正することにより、前記第1ビデオフレームに対応するターゲット状態行列及びターゲット変位行列を取得することと、
    前記ターゲット状態行列及び前記ターゲット変位行列に基づいて、前記第1ビデオフレームに対応する平均変位行列を決定することと、によって決定される
    ことを特徴とするビデオデータ処理装置。
  12. ビデオデータ処理装置であって、
    ターゲットビデオから、隣接する第1ビデオフレーム及び第2ビデオフレームを取得する第1取得モジュールと、
    前記ターゲットビデオに対応するオプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点と、前記第2ビデオフレームにおける画素点とに基づいて、前記第1ビデオフレームに対応する平均変位行列を決定する行列取得モジュールと、
    前記平均変位行列に基づいて、前記第1ビデオフレームにおける画素点の位置情報を追跡し、前記第2ビデオフレームにおいて、追跡された画素点の位置情報を決定する位置追跡モジュールと、
    前記第1ビデオフレームにおける画素点の位置情報と、前記追跡された画素点の前記第2ビデオフレームにおける位置情報とに基づいて、前記ターゲットビデオに関連付けられた軌跡情報を生成する追跡生成モジュールであって、前記軌跡情報は、ターゲットビデオにおけるターゲット画素点に関連付けられたマルチメディア情報を追跡して表示するためのターゲット軌跡情報を含む、追跡生成モジュールと、
    キービデオフレームにおけるターゲット画素点に対する軌跡取得要求に応答して、ターゲットビデオに関連付けられた軌跡情報を取得する要求応答モジュールであって、前記キービデオフレームは、前記ターゲットビデオにおけるビデオフレームであり、前記ターゲット画素点は、前記キービデオフレームにおける画素点であり、前記軌跡情報は、前記ターゲットビデオの各ビデオフレームにおける画素点の位置情報によって決定されたものである、要求応答モジュールと、
    前記ターゲットビデオに関連付けられた軌跡情報の中から、前記ターゲット画素点の前記キービデオフレームにおける位置情報に関連付けられたターゲット軌跡情報を選別し、前記ターゲット軌跡情報を返信する軌跡選別モジュールであって、前記ターゲット軌跡情報は、ターゲット位置情報を含み、前記ターゲット位置情報は、前記キービデオフレームの次のビデオフレームにおいて、前記ターゲット画素点に関連付けられたマルチメディア情報を表示することをトリガするためのものである、軌跡選別モジュールと、
    を含み、
    前記ターゲット軌跡情報は、
    前記ターゲットビデオに対応するオプティカルフロー追跡規則を取得し、前記第1ビデオフレームにおける画素点の位置情報を第1位置情報として決定し、前記第2ビデオフレームにおける画素点の位置情報を第2位置情報として決定することと、
    前記オプティカルフロー追跡規則と、前記第1ビデオフレームにおける画素点の第1位置情報と、前記第2ビデオフレームにおける画素点の第2位置情報とに基づいて、前記第1ビデオフレームに対応する順方向変位行列を取得し、前記第2ビデオフレームに対応する逆方向変位行列を取得することと、
    前記第1ビデオフレームにおける画素点の第1位置情報と、前記順方向変位行列と、前記逆方向変位行列とに基づいて、前記第1ビデオフレームにおける画素点のうちターゲット選別条件を満たす画素点を有効画素点として決定することと、
    前記有効画素点に基づいて、前記第1ビデオフレームに対応する初期状態行列及び前記順方向変位行列を修正することにより、前記第1ビデオフレームに対応するターゲット状態行列及びターゲット変位行列を取得することと、
    前記ターゲット状態行列及び前記ターゲット変位行列に基づいて、前記第1ビデオフレームに対応する前記平均変位行列を決定することと、によって決定される
    ことを特徴とするビデオデータ処理装置。
  13. コンピュータ機器であって、
    プロセッサと、メモリと、ネットワークインタフェースと、を備え、
    前記プロセッサは、前記メモリ及び前記ネットワークインタフェースに接続され、前記ネットワークインタフェースは、データ通信機能を提供し、前記メモリは、コンピュータプログラムを記憶し、前記プロセッサは、前記コンピュータプログラムを呼び出すことにより、請求項1、2、および3から9のいずれか一項に記載の方法を実行する、
    ことを特徴とするコンピュータ機器。
  14. 請求項1、2、および3から9のいずれか一項に記載の方法をコンピュータ機器に実行させる、ことを特徴とするコンピュータプログラム。
JP2021531593A 2019-04-30 2020-04-10 ビデオデータ処理方法、ビデオデータ処理装置、コンピュータ機器、及びコンピュータプログラム Active JP7258400B6 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910358569.8A CN110062272B (zh) 2019-04-30 2019-04-30 一种视频数据处理方法和相关装置
CN201910358569.8 2019-04-30
PCT/CN2020/084112 WO2020220968A1 (zh) 2019-04-30 2020-04-10 一种视频数据处理方法和相关装置

Publications (3)

Publication Number Publication Date
JP2022511828A JP2022511828A (ja) 2022-02-01
JP7258400B2 JP7258400B2 (ja) 2023-04-17
JP7258400B6 true JP7258400B6 (ja) 2024-02-19

Family

ID=67321748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021531593A Active JP7258400B6 (ja) 2019-04-30 2020-04-10 ビデオデータ処理方法、ビデオデータ処理装置、コンピュータ機器、及びコンピュータプログラム

Country Status (7)

Country Link
US (1) US11900614B2 (ja)
EP (1) EP3965431A4 (ja)
JP (1) JP7258400B6 (ja)
KR (1) KR102562208B1 (ja)
CN (1) CN110062272B (ja)
SG (1) SG11202105410RA (ja)
WO (1) WO2020220968A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110062272B (zh) * 2019-04-30 2021-09-28 腾讯科技(深圳)有限公司 一种视频数据处理方法和相关装置
CN111161309B (zh) * 2019-11-19 2023-09-12 北航航空航天产业研究院丹阳有限公司 一种车载视频动态目标的搜索与定位方法
CN111193938B (zh) * 2020-01-14 2021-07-13 腾讯科技(深圳)有限公司 视频数据处理方法、装置和计算机可读存储介质
CN112258551B (zh) * 2020-03-18 2023-09-05 北京京东振世信息技术有限公司 一种物品掉落检测方法、装置、设备及存储介质
CN111753679B (zh) * 2020-06-10 2023-11-24 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 微运动监测方法、装置、设备及计算机可读存储介质
CN111901662A (zh) * 2020-08-05 2020-11-06 腾讯科技(深圳)有限公司 视频的扩展信息处理方法、设备和存储介质
CN114449326A (zh) * 2020-11-06 2022-05-06 上海哔哩哔哩科技有限公司 视频标注方法、客户端、服务器及系统
CN114584824A (zh) * 2020-12-01 2022-06-03 阿里巴巴集团控股有限公司 数据处理方法、系统、电子设备、服务端及客户端设备
CN112884830B (zh) * 2021-01-21 2024-03-29 浙江大华技术股份有限公司 一种目标边框确定方法及装置
CN113034458B (zh) * 2021-03-18 2023-06-23 广州市索图智能电子有限公司 室内人员轨迹分析方法、装置及存储介质
CN114281447B (zh) * 2021-12-02 2024-03-19 武汉华工激光工程有限责任公司 一种载板激光加工软件界面处理方法、系统及存储介质
CN114827754B (zh) * 2022-02-23 2023-09-12 阿里巴巴(中国)有限公司 视频首帧时间检测方法及装置
CN117270982A (zh) * 2022-06-13 2023-12-22 中兴通讯股份有限公司 数据处理方法、控制装置、电子设备、计算机可读介质
CN115297355B (zh) * 2022-08-02 2024-01-23 北京奇艺世纪科技有限公司 弹幕显示方法、生成方法、装置、电子设备及存储介质
CN116152301B (zh) * 2023-04-24 2023-07-14 知行汽车科技(苏州)股份有限公司 一种目标的速度估计方法、装置、设备及介质
CN117812392B (zh) * 2024-01-09 2024-05-31 广州巨隆科技有限公司 可视化屏幕的分辨率自适应调节方法、系统、介质及设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014013690A1 (ja) 2012-07-17 2014-01-23 パナソニック株式会社 コメント情報生成装置およびコメント情報生成方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8363109B2 (en) * 2009-12-10 2013-01-29 Harris Corporation Video processing system providing enhanced tracking features for moving objects outside of a viewable window and related methods
CN101930779B (zh) * 2010-07-29 2012-02-29 华为终端有限公司 一种视频批注方法及视频播放器
US20140245350A1 (en) * 2013-02-27 2014-08-28 Blendagram, Inc. System for and method of processing a video clip to identify an occluding object
CN104881640B (zh) * 2015-05-15 2018-06-15 华为技术有限公司 一种获取向量的方法及装置
CN105872442A (zh) * 2016-03-30 2016-08-17 宁波三博电子科技有限公司 一种基于人脸识别的即时弹幕礼物赠送方法及系统
US20190096439A1 (en) * 2016-05-23 2019-03-28 Robert Brouwer Video tagging and annotation
EP3488615A1 (en) * 2016-07-22 2019-05-29 VID SCALE, Inc. Systems and methods for integrating and delivering objects of interest in video
US20180082428A1 (en) * 2016-09-16 2018-03-22 Qualcomm Incorporated Use of motion information in video data to track fast moving objects
JP7100590B2 (ja) * 2016-12-07 2022-07-13 ソニーセミコンダクタソリューションズ株式会社 画像センサ
US10592786B2 (en) * 2017-08-14 2020-03-17 Huawei Technologies Co., Ltd. Generating labeled data for deep object tracking
CN109559330B (zh) * 2017-09-25 2021-09-10 北京金山云网络技术有限公司 运动目标的视觉跟踪方法、装置、电子设备及存储介质
CN108242062B (zh) * 2017-12-27 2023-06-30 北京纵目安驰智能科技有限公司 基于深度特征流的目标跟踪方法、系统、终端及介质
CN108389217A (zh) * 2018-01-31 2018-08-10 华东理工大学 一种基于梯度域混合的视频合成方法
US20190392591A1 (en) * 2018-06-25 2019-12-26 Electronics And Telecommunications Research Institute Apparatus and method for detecting moving object using optical flow prediction
CN109087335B (zh) * 2018-07-16 2022-02-22 腾讯科技(深圳)有限公司 一种人脸跟踪方法、装置和存储介质
CN109558505A (zh) * 2018-11-21 2019-04-02 百度在线网络技术(北京)有限公司 视觉搜索方法、装置、计算机设备及存储介质
US10956747B2 (en) * 2018-12-31 2021-03-23 International Business Machines Corporation Creating sparsely labeled video annotations
CN110062272B (zh) * 2019-04-30 2021-09-28 腾讯科技(深圳)有限公司 一种视频数据处理方法和相关装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014013690A1 (ja) 2012-07-17 2014-01-23 パナソニック株式会社 コメント情報生成装置およびコメント情報生成方法

Also Published As

Publication number Publication date
SG11202105410RA (en) 2021-06-29
EP3965431A4 (en) 2022-10-12
CN110062272A (zh) 2019-07-26
US20210287379A1 (en) 2021-09-16
JP2022511828A (ja) 2022-02-01
US11900614B2 (en) 2024-02-13
KR102562208B1 (ko) 2023-07-31
WO2020220968A1 (zh) 2020-11-05
CN110062272B (zh) 2021-09-28
EP3965431A1 (en) 2022-03-09
JP7258400B2 (ja) 2023-04-17
KR20210095953A (ko) 2021-08-03

Similar Documents

Publication Publication Date Title
JP7258400B6 (ja) ビデオデータ処理方法、ビデオデータ処理装置、コンピュータ機器、及びコンピュータプログラム
US10733431B2 (en) Systems and methods for optimizing pose estimation
CN111815755B (zh) 虚拟物体被遮挡的区域确定方法、装置及终端设备
US11488346B2 (en) Picture rendering method and apparatus, storage medium, and electronic apparatus
CN107958480B (zh) 图像渲染方法、装置及存储介质
CN111670457B (zh) 动态对象实例检测、分割和结构映射的优化
US20210295536A1 (en) Method, device, equipment and storage medium for locating tracked targets
CN111684490A (zh) 动态对象实例检测、分割和结构映射的优化
KR20200087784A (ko) 목표 검출 방법 및 장치, 트레이닝 방법, 전자 기기 및 매체
JP6266656B2 (ja) 画像をサイズ変更するためのシステム及び方法
CN108762505B (zh) 基于手势的虚拟对象控制方法、装置、存储介质和设备
CN111433812A (zh) 动态对象实例检测、分割和结构映射的优化
CN111524166A (zh) 视频帧的处理方法和装置
EP3493104A1 (en) Optimizations for dynamic object instance detection, segmentation, and structure mapping
CN115022679B (zh) 视频处理方法、装置、电子设备和介质
CN114387400A (zh) 三维场景的显示方法、显示装置、电子设备和服务器
CN113657518B (zh) 训练方法、目标图像检测方法、装置、电子设备以及介质
CN114202648A (zh) 文本图像矫正方法、训练方法、装置、电子设备以及介质
KR20220149717A (ko) 단안 카메라로부터 전체 골격 3d 포즈 복구
CN117036574A (zh) 渲染方法、装置、电子设备以及存储介质
CN114344894B (zh) 场景元素处理方法、装置、设备和介质
Singh et al. Real‐Time Implementation of Change Detection for Automated Video Surveillance System
CN110089076B (zh) 实现信息互动的方法和装置
CN113949926A (zh) 一种视频插帧方法、存储介质及终端设备
CN115713582B (zh) 虚拟形象生成方法、装置、电子设备和介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210602

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230330

R150 Certificate of patent or registration of utility model

Ref document number: 7258400

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150