JP2019110545A - Video playback method, terminal and system - Google Patents

Video playback method, terminal and system Download PDF

Info

Publication number
JP2019110545A
JP2019110545A JP2019017999A JP2019017999A JP2019110545A JP 2019110545 A JP2019110545 A JP 2019110545A JP 2019017999 A JP2019017999 A JP 2019017999A JP 2019017999 A JP2019017999 A JP 2019017999A JP 2019110545 A JP2019110545 A JP 2019110545A
Authority
JP
Japan
Prior art keywords
reproduction
target area
image
video
decoded data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019017999A
Other languages
Japanese (ja)
Inventor
▲榮▼▲フイ▼ ▲賀▼
▲榮▼▲フイ▼ ▲賀▼
Rong Hui He
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vid Scale Inc
Original Assignee
Vid Scale Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vid Scale Inc filed Critical Vid Scale Inc
Priority to JP2019017999A priority Critical patent/JP2019110545A/en
Publication of JP2019110545A publication Critical patent/JP2019110545A/en
Pending legal-status Critical Current

Links

Abstract

To provide a video playback system making it possible to observe a clearer image in regions of interest.SOLUTION: The video playback system includes: dividing an original playback image into at least two regions of interest; determining, among the at least two regions of interest, a first region of interest where a triggering event occurs; obtaining decoded data of a first video image displayed in the first region of interest; and rendering the decoded data of the first video image to a specified playback window for playing. Using the video playback system, the original playback image is divided into multiple regions of interest, and an image in a region of interest where a triggering event occurs is displayed separately. Therefore, a user is capable of observing a clearer image in the region of interest, or tracking an image in the multiple regions of interest at the same time.SELECTED DRAWING: Figure 2

Description

本発明は、ビデオ監視の分野に関し、特に、ビデオ監視の分野におけるビデオ再生方法、端末、およびシステムに関する。   The present invention relates to the field of video surveillance, and in particular to a video playback method, terminal and system in the field of video surveillance.

現在では、高解像度ビデオは、ビデオ監視の分野における重要な技術的トレンドになった。そして、720pまたは1080pの解像度を有するカメラが、ビデオ監視の分野で、ますます広く使用されている。カメラ解像度の絶え間ない増加によって、単一のカメラが監視することができる範囲はますます広くなり、かつ画像の細部はより明確になった。同時に、ビデオ画像に対するインテリジェント分析技術が徐々に実行に移されている。ハードウェア装置の技術開発によって、ハードウェアの性能は、同じ画像内の複数の対象領域上でのインテリジェント分析を実行するための要求を満たすことができるようになった。これは、手動の監視と比べて、コストを大幅に節約する。   At present, high resolution video has become an important technological trend in the field of video surveillance. And cameras with 720p or 1080p resolution are more and more widely used in the field of video surveillance. With the ever-increasing increase in camera resolution, the range that a single camera can monitor becomes increasingly wider, and image details become more clear. At the same time, intelligent analysis techniques for video images are gradually being put into practice. Technical development of hardware devices has made it possible to meet the requirements for performing intelligent analysis on multiple target areas in the same image. This saves significant cost compared to manual monitoring.

現在のビデオ監視クライアントは、一般に、同時に複数のカメラからのビデオ画像を再生する。しかし、ビデオ画像の解像度の増加によって、複数のカメラからのビデオ画像の総解像度は、しばしばクライアントのモニタの解像度の範囲を超える。例として22インチディスプレイを取り上げると、このディスプレイは、一般に、1920×1080の最大解像度をサポートする。すなわち、このディスプレイは、1つのフィードから1080pの画像を再生することのみが可能である。1080pの画像の複数のフィードが同時にこのモニタ上で再生される場合、画像はズームアウトされなければならない。再生ウィンドウに加えて、典型的なビデオ監視クライアントのインターフェイス上には、例えばタイトルバー、カメラリスト、およびパン-チルト-ズーム制御パネルのような複数の補助機能パネルも存在し、これは更にビデオ画像の表示領域を減らす。従って、再生ウィンドウ内で再生され得る画像は、元の画像よりはるかに小さい。   Current video surveillance clients generally play back video images from multiple cameras simultaneously. However, due to the increase in resolution of video images, the total resolution of video images from multiple cameras often exceeds the range of resolutions of client monitors. Taking a 22 inch display as an example, this display generally supports a maximum resolution of 1920 × 1080. That is, the display can only play back 1080p images from one feed. If multiple feeds of 1080p images are played simultaneously on this monitor, the images must be zoomed out. In addition to the playback window, on the interface of a typical video surveillance client, there are also several auxiliary function panels, such as a title bar, a camera list, and a pan-tilt-zoom control panel, which are also video images Reduce the display area of Thus, the image that can be played back within the playback window is much smaller than the original image.

特に、イベント(例えば、インテリジェント分析によってトリガされるイベント)がビデオ画像内で発生する時、イベントが発生する画像の領域はさらに小さい。なぜなら、画像は、再生の間、ダウンサイズされるからであり、これはユーザが見るには不便である。
観察人員が裸眼で画像を監視する場合、観察人員が細部の変化に気付くことは難しく、結果として重要な情報を見逃す。
In particular, when an event (eg, an event triggered by intelligent analysis) occurs in a video image, the area of the image in which the event occurs is even smaller. This is because the image is downsized during playback, which is inconvenient for the user to view.
When observers monitor images with the naked eye, it is difficult for observers to notice changes in details, and as a result miss important information.

現在では、大部分のクライアントは、画像の選択された領域にズームインする機能を提供する。すなわち、ビデオ再生画像の領域は、マウスをスライドさせることによって選択され、選択された領域はズームインされる。これにより、ある程度、対象領域の画質を改善する。しかし、ビデオ画像のデジタルズームは、いくらかのピクセル情報の損失を引き起こすので、画質に影響を及ぼし、さらに画像の細部についてのユーザ観察の効果に影響を及ぼす。加えて、選択された領域内でズームの機能が用いられる場合、一態様では、ユーザによる手動の操作が必要であり、イベントが突然発生する時、ユーザは、いかなる操作を実行する時間もなく、従ってイベントを見逃す。別の態様では、イベントが画像の別の領域内で発生する場合、同時に2つの領域にズームインすることは不可能である。従って、ユーザ経験は比較的劣っている。   Currently, most clients provide the ability to zoom in on selected areas of the image. That is, the area of the video playback image is selected by sliding the mouse, and the selected area is zoomed in. This improves the image quality of the target area to some extent. However, digital zooming of the video image affects the quality of the image, as it causes some loss of pixel information, and also affects the effect of user viewing of image details. In addition, if the zoom function is used within the selected area, in one aspect, manual operation by the user is required, and when an event occurs suddenly, the user has no time to perform any operation, and so I miss an event. In another aspect, if an event occurs in another area of the image, it is not possible to zoom in on two areas simultaneously. Thus, the user experience is relatively poor.

本発明の実施形態は、ビデオ再生方法、端末、およびシステムを提供し、これらはユーザ経験を改善することができる。   Embodiments of the present invention provide video playback methods, terminals, and systems, which can improve the user experience.

第1の態様において、本発明の実施形態は、ビデオ再生方法を提供し、この方法は、元の再生画像を少なくとも2つの対象領域に分割するステップと、少なくとも2つの対象領域の中で、トリガイベントが発生する第1の対象領域を決定するステップと、第1の対象領域の中に表示される第1のビデオ画像の復号データを取得するステップと、第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに描画するステップとを有している。   In a first aspect, an embodiment of the present invention provides a video playback method, which comprises the steps of: dividing an original playback image into at least two target regions; and triggering in at least two target regions. The steps of: determining a first target area in which an event occurs; obtaining decoded data of a first video image displayed in the first target area; and decoding data of the first video image, Drawing on a designated reproduction window for reproduction.

第1の態様の第1の可能な実施方法において、この方法は、少なくとも2つの対象領域の中の各対象領域と、指定された再生ウィンドウとの間の対応関係を決定するステップを更に有していて、第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに描画するステップは、対応関係に従って、第1のビデオ画像の復号データを、再生のための第1の対象領域に対応する指定された再生ウィンドウに描画するステップを有している。   In a first possible implementation method of the first aspect, the method further comprises the step of determining the correspondence between each target area of the at least two target areas and a designated reproduction window. And the step of drawing the decoded data of the first video image in the specified reproduction window for reproduction is the first target for reproduction of the decoded data of the first video image in accordance with the correspondence relationship. It has a step of drawing in a designated reproduction window corresponding to the area.

第1の態様または第1の態様の第1の可能な実施方法に関連して、第1の態様の第2の可能な実施方法において、少なくとも2つの対象領域の中で、トリガイベントが発生する第1の対象領域を決定するステップは、元の再生画像の中の対象領域上で、ユーザによって実行されるトリガ動作を決定するステップを有していて、トリガ動作は、クリック動作、ダブルクリック動作、または対象領域を選択する動作を含み、更に、トリガ動作が実行される対象領域を第1の対象領域として決定するステップを有している。   In relation to the first possible implementation method of the first aspect or the first aspect, in a second possible implementation method of the first aspect, a triggering event occurs in at least two regions of interest The step of determining the first target area includes the step of determining a trigger operation to be executed by the user on the target area in the original reproduced image, wherein the trigger operation is a click operation or a double click operation. Or includes an operation of selecting a target region, and further including the step of determining a target region on which a trigger operation is to be performed as a first target region.

第1の態様または第1の態様の第1の可能な実施方法に関連して、第1の態様の第3の可能な実施方法において、少なくとも2つの対象領域の中で、トリガイベントが発生する第1の対象領域を決定するステップは、元の再生画像の中のトリガイベント発生ポイントの座標メタデータを取得するステップと、座標メタデータに従って、トリガイベント発生ポイントが属する対象領域を第1の対象領域として決定するステップとを有している。   In relation to the first possible implementation method of the first aspect or the first aspect, in a third possible implementation method of the first aspect, a triggering event occurs in at least two regions of interest. The step of determining the first target area includes acquiring coordinate metadata of a trigger event occurrence point in the original reproduced image, and the target area to which the trigger event occurrence point belongs according to the coordinate metadata is a first target. And determining the region.

第1の態様または第1の態様の第1から第3の可能な実施方法のいずれか一つに関連して、第1の態様の第4の可能な実施方法において、第1の対象領域の中に表示される第1のビデオ画像の復号データを取得するステップは、元の再生画像の復号データを取得するステップと、元の再生画像の復号データに従って、第1のビデオ画像の復号データを決定するステップとを有している。   In relation to any one of the first to third possible implementations of the first or first aspect, in the fourth possible implementation of the first aspect, the first target region The step of acquiring the decoded data of the first video image displayed in the step of acquiring the decoded data of the original reproduced image, and the decoded data of the first video image according to the decoded data of the original reproduced image And determining.

第1の態様または第1の態様の第1から第4の可能な実施方法のいずれか一つに関連して、第1の態様の第5の可能な実施方法において、第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに描画するステップは、第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに、ズームイン方法で描画するステップを有していて、指定された再生ウィンドウは、第1の対象領域より大きい。   In relation to any one of the first to fourth possible implementation methods of the first aspect or the first aspect, in the fifth possible implementation method of the first aspect, the first video image The step of drawing the decoded data in the designated reproduction window for reproduction includes the step of drawing the decoded data of the first video image in the designated reproduction window for reproduction in the zoom-in method The designated reproduction window is larger than the first target area.

第1の態様または第1の態様の第1から第5の可能な実施方法のいずれか一つに関連して、第1の態様の第6の可能な実施方法において、第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに描画するステップは、独立した再生ウィンドウをポップアップするステップと、第1のビデオ画像の復号データを、再生のための独立した再生ウィンドウに描画するステップとを有している。   In relation to any one of the first aspect or the first to fifth possible implementation methods of the first aspect, in the sixth possible implementation method of the first aspect, the first video image The step of drawing the decoded data in the designated reproduction window for reproduction pops up the independent reproduction window, and the decoded data of the first video image is drawn in the independent reproduction window for reproduction And step.

第2の態様において、本発明の実施形態は、ビデオ再生端末を提供し、この端末は、元の再生画像を少なくとも2つの対象領域に分割するように構成された分割モジュールと、分割モジュールによって選び出された少なくとも2つの対象領域の中で、トリガイベントが発生する第1の対象領域を決定するように構成された第1の決定モジュールと、第1の決定モジュールによって決定された第1の対象領域の中に表示される第1のビデオ画像の復号データを取得するように構成された取得モジュールと、取得モジュールによって取得された第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに描画するように構成された再生モジュールとを備えている。   In a second aspect, an embodiment of the present invention provides a video reproduction terminal, which terminal is selected by a division module configured to divide an original reproduction image into at least two target areas, and the division module A first determination module configured to determine a first target region in which a trigger event occurs among at least two target regions issued, and a first target determined by the first determination module An acquisition module configured to acquire decoded data of a first video image displayed in the area, and a decoded data of the first video image acquired by the acquisition module designated for reproduction. And a playback module configured to draw in the playback window.

第2の態様の第1の可能な実施方法において、この端末は、少なくとも2つの対象領域の中の各対象領域と、指定された再生ウィンドウとの間の対応関係を決定するように構成された第2の決定モジュールを更に備えていて、再生モジュールは、第2の決定モジュールによって決定された対応関係に従って、取得モジュールによって取得された第1のビデオ画像の復号データを、再生のための第1の対象領域に対応する指定された再生ウィンドウに描画するように更に構成されている。   In a first possible implementation method of the second aspect, the terminal is configured to determine a correspondence between each target area in at least two target areas and a designated playback window. The method further comprises a second determination module, wherein the reproduction module is configured to reproduce the decoded data of the first video image acquired by the acquisition module according to the correspondence determined by the second determination module. It is further configured to draw in a designated reproduction window corresponding to the target area of.

第2の態様または第2の態様の第1の可能な実施方法に関連して、第2の態様の第2の可能な実施方法において、第1の決定モジュールは、元の再生画像の中の対象領域上で、ユーザによって実行されるトリガ動作を決定するように構成された第1の決定ユニットを有していて、トリガ動作は、クリック動作、ダブルクリック動作、または対象領域を選択する動作を含み、更に、第1の決定ユニットによって決定されたトリガ動作が実行される対象領域を第1の対象領域として決定するように構成された第2の決定ユニットを有している。   In relation to the first possible implementation method of the second aspect or of the second aspect, in the second possible implementation method of the second aspect, the first determination module is configured to: Having a first determination unit configured to determine a trigger action to be performed by the user on the target area, the trigger action may be a click action, a double click action, or an action for selecting the target area And a second determination unit configured to determine, as the first target region, a target region in which the trigger operation determined by the first determination unit is to be performed.

第2の態様または第2の態様の第1の可能な実施方法に関連して、第2の態様の第3の可能な実施方法において、第1の決定モジュールは、元の再生画像の中のトリガイベント発生ポイントの座標メタデータを取得するように構成された第1の取得ユニットと、第1の取得ユニットによって取得された座標メタデータに従って、トリガイベント発生ポイントが属する対象領域を第1の対象領域として決定するように構成された第3の決定ユニットとを有している。   In relation to the first possible implementation method of the second aspect or the second aspect, in the third possible implementation method of the second aspect, the first determination module is configured to: According to the first acquisition unit configured to acquire coordinate metadata of the trigger event occurrence point, and the coordinate metadata acquired by the first acquisition unit, the target region to which the trigger event occurrence point belongs is a first target And a third determination unit configured to determine as a region.

第2の態様または第2の態様の第1から第3の可能な実施方法のいずれか一つに関連して、第2の態様の第4の可能な実施方法において、取得モジュールは、元の再生画像の復号データを取得するように構成された第2の取得ユニットと、第2の取得ユニットによって取得された元の再生画像の復号データに従って、第1のビデオ画像の復号データを決定するように構成された第3の決定ユニットとを有している。   In relation to any one of the first to third possible implementation methods of the second aspect or the second aspect, in the fourth possible implementation method of the second aspect, the acquisition module comprises: According to the second acquisition unit configured to acquire decoded data of the reproduced image, and the decoded data of the first video image according to the decoded data of the original reproduced image acquired by the second acquisition unit And a third determination unit configured in

第2の態様または第2の態様の第1から第4の可能な実施方法のいずれか一つに関連して、第2の態様の第5の可能な実施方法において、再生モジュールは、第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに、ズームイン方法で描画するように更に構成されていて、指定された再生ウィンドウは、第1の対象領域より大きい。   In relation to any one of the first to fourth possible modes of the second aspect or the second mode, in the fifth mode of the second mode, the reproduction module comprises Is further configured to draw the decoded data of the video image of the video image in a designated playback window for playback in a zoom-in method, wherein the designated playback window is larger than the first target area.

第2の態様または第2の態様の第1から第5の可能な実施方法のいずれか一つに関連して、第2の態様の第6の可能な実施方法において、再生モジュールは、独立した再生ウィンドウを表示するように構成された表示ユニットと、第1のビデオ画像の復号データを、再生のための表示ユニットによってポップアップされる独立した再生ウィンドウに描画するように構成された再生ユニットとを有している。   In relation to any one of the first to fifth possible implementations of the second aspect or the second aspect, in the sixth possible implementation of the second aspect, the regeneration module is independent A display unit configured to display the playback window; and a playback unit configured to render decoded data of the first video image in a separate playback window popped up by the display unit for playback. Have.

第3の態様において、本発明の実施形態は、ビデオ再生システムを提供し、このシステムは、本発明の第2の態様による端末と、ビデオ画像をキャプチャして、このビデオ画像をエンコードすることによってメディアストリームを生成するように構成されたビデオキャプチャシステムと、ビデオキャプチャシステムによって生成されたメディアストリームを取得して、このメディアストリームを端末に供給するように構成されたサーバと、サーバによって取得されたメディアストリームを記憶するように構成された記憶装置とを備えていて、端末は、元の再生画像を少なくとも2つの対象領域に分割するように構成された分割モジュールと、分割モジュールによって選び出された少なくとも2つの対象領域の中で、トリガイベントが発生する第1の対象領域を決定するように構成された第1の決定モジュールと、第1の決定モジュールによって決定された第1の対象領域の中に表示される第1のビデオ画像の復号データを取得するように構成された取得モジュールと、取得モジュールによって取得された第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに描画するように構成された再生モジュールとを備えている。   In a third aspect, an embodiment of the present invention provides a video playback system, comprising: a terminal according to the second aspect of the present invention; capturing a video image and encoding the video image A video capture system configured to generate a media stream, a server configured to obtain the media stream generated by the video capture system and supply the media stream to the terminal, and the server And a storage device configured to store the media stream, wherein the terminal is selected by the division module and a division module configured to divide the original reproduced image into at least two target areas. Trigger event occurs in at least two target areas Obtaining a first determination module configured to determine one target area, and decoded data of a first video image displayed in the first target area determined by the first determination module An acquisition module configured as described above, and a reproduction module configured to draw the decoded data of the first video image acquired by the acquisition module in a designated reproduction window for reproduction.

前述の技術的解決策に基づいて、本発明の実施形態によるビデオ再生方法、端末、およびシステムを用いて、元の再生画像は、複数の対象領域に分割され、トリガイベントが発生する対象領域の中の画像は、別に表示される。従って、一態様では、ユーザは、対象領域の中で、より明確な画像の細部を観察することができ、他の態様では、ユーザは、同時に複数の対象領域の中で、画像の細部を追跡することができ、これによりユーザ経験を大幅に向上させる。   Based on the above technical solution, using the video reproduction method, terminal and system according to an embodiment of the present invention, an original reproduced image is divided into a plurality of target areas, and the target area in which the trigger event occurs. The image inside is displayed separately. Thus, in one aspect, the user can observe clearer image details within the region of interest, and in another aspect, the user can track image details within multiple regions of interest simultaneously. This greatly enhances the user experience.

本発明の実施形態における技術的解決策をより明確に説明するために、以下で簡潔に、本発明の実施形態を説明するために必要な添付図面を紹介する。明らかに、以下の説明の中の添付図面は、本発明のいくつかの実施形態を示すのみであり、当業者は、創造的な努力なしで、これらの添付図面から他の図面を更に導き出すことができる。   BRIEF DESCRIPTION OF DRAWINGS To describe the technical solutions in the embodiments of the present invention more clearly, the following briefly introduces the accompanying drawings necessary for describing the embodiments of the present invention. Apparently, the attached drawings in the following description only show some embodiments of the present invention, and those skilled in the art can further derive other drawings from these attached drawings without creative efforts. Can.

本発明の一実施形態による、例示的アプリケーションシナリオの概略構成図である。FIG. 5 is a schematic block diagram of an exemplary application scenario, in accordance with one embodiment of the present invention. 本発明の一実施形態による、ビデオ再生方法の概略フロー図である。FIG. 5 is a schematic flow diagram of a video playback method according to an embodiment of the present invention. 本発明の一実施形態によるビデオ再生方法の他の概略フロー図である。FIG. 5 is another schematic flow diagram of a video playback method according to an embodiment of the present invention. 本発明の一実施形態による、元の再生画像を対象領域に分割する方法の概略フロー図である。FIG. 5 is a schematic flow diagram of a method of dividing an original reproduced image into target areas according to an embodiment of the present invention. 本発明の一実施形態による、元の再生画像を対象領域に分割する方法の他の概略フロー図である。FIG. 6 is another schematic flow diagram of a method of dividing an original reproduced image into target areas according to an embodiment of the present invention. 本発明の一実施形態による、トリガイベントが発生する対象領域を決定する方法の概略フロー図である。FIG. 5 is a schematic flow diagram of a method of determining a target area in which a triggering event occurs, according to an embodiment of the present invention. 本発明の一実施形態による、トリガイベントが発生する対象領域を決定する方法の他の概略フロー図である。FIG. 5 is another schematic flow diagram of a method of determining a target region in which a triggering event occurs, according to an embodiment of the present invention. 本発明の一実施形態による、対象領域の復号データを取得する方法の概略フロー図である。FIG. 5 is a schematic flow diagram of a method for obtaining decoded data of a target area according to an embodiment of the present invention. 本発明の一実施形態による、対象領域の中の画像を再生する方法の概略フロー図である。FIG. 5 is a schematic flow diagram of a method of reproducing an image in a region of interest according to an embodiment of the present invention. 本発明の他の実施形態によるビデオ再生方法概略フロー図である。FIG. 7 is a schematic flow diagram of a video playback method according to another embodiment of the present invention. 本発明の他実施形態によるビデオ再生方法の他の概略フロー図である。FIG. 5 is another schematic flow diagram of a video playback method according to another embodiment of the present invention. 本発明の他実施形態によるビデオ再生方法の他の概略フロー図である。FIG. 5 is another schematic flow diagram of a video playback method according to another embodiment of the present invention. 本発明の一実施形態による、対象領域の再生の概略図である。FIG. 7 is a schematic view of the reproduction of a target area according to an embodiment of the present invention. 本発明の一実施形態による、対象領域の再生の概略図である。FIG. 7 is a schematic view of the reproduction of a target area according to an embodiment of the present invention. 本発明の一実施形態による、端末の概略ブロック図である。FIG. 5 is a schematic block diagram of a terminal according to an embodiment of the present invention. 本発明の一実施形態による、端末の他の概略ブロック図である。FIG. 5 is another schematic block diagram of a terminal according to an embodiment of the present invention. 本発明の一実施形態による第1の決定モジュール概略ブロック図である。FIG. 5 is a first decision module schematic block diagram according to an embodiment of the present invention. 本発明の一実施形態による、第1の決定モジュールの他の概略ブロック図である。FIG. 7 is another schematic block diagram of the first determination module according to an embodiment of the present invention. 本発明の一実施形態による、取得モジュール概略ブロック図である。FIG. 5 is a schematic block diagram of an acquisition module according to an embodiment of the present invention. 本発明の一実施形態による、再生モジュール概略ブロック図である。FIG. 5 is a schematic block diagram of a playback module, according to one embodiment of the present invention. 本発明の一実施形態による、システム概略ブロック図である。FIG. 1 is a system schematic block diagram according to one embodiment of the present invention. 本発明の他の実施形態による、端末概略ブロック図である。FIG. 6 is a schematic block diagram of a terminal according to another embodiment of the present invention.

以下、本発明の実施形態の中の添付図面に関連して、本発明の実施形態の中の技術的解決策を明確かつ完全に記載する。明らかに、記載されている実施形態は、本発明の実施形態の全てではなく、一部のみである。本発明の実施形態に基づいて、創造的な努力なしで当業者によって得られる他の全ての実施形態は、本発明の保護範囲に入るものとする。   The following clearly and completely describes the technical solutions in the embodiments of the present invention with reference to the accompanying drawings in the embodiments of the present invention. Apparently, the described embodiments are only a part rather than all of the embodiments of the present invention. Based on the embodiments of the present invention, all other embodiments obtained by those skilled in the art without creative efforts shall fall within the protection scope of the present invention.

図1は、本発明の一実施形態による、例示的アプリケーションシナリオの概略構成図である。図1に示すように、本発明の実施形態が適用可能なビデオ監視システムは、ビデオキャプチャ装置、中央サーバ、記憶装置、およびクライアントを有する端末を含み、ビデオキャプチャ装置は、ビデオ画像をキャプチャするために用いることができ、かつビデオ画像をエンコードすることによって、メディアストリームを生成することができ、ネットワーク上にビデオ画像を送信する。例えば、ビデオキャプチャ装置は、例えばネットワークカメラ、アナログカメラ、エンコーダ、およびデジタルビデオレコーダ(digital video recorder、略してDVR)のような装置を含み得る。中央サーバに接続された後に、端末のクライアントは、ビデオストリームを要求し、このビデオストリームを復号化して表示し、かつオンサイトビデオ画像をユーザに提示することができる。   FIG. 1 is a schematic block diagram of an exemplary application scenario according to one embodiment of the present invention. As shown in FIG. 1, a video surveillance system to which embodiments of the present invention can be applied includes a terminal having a video capture device, a central server, a storage device, and a client, the video capture device for capturing a video image And by encoding the video image, a media stream can be generated to transmit the video image over the network. For example, video capture devices may include devices such as, for example, network cameras, analog cameras, encoders, and digital video recorders (DVRs for short). After being connected to the central server, the client of the terminal can request the video stream, decode and display this video stream, and present the on-site video image to the user.

中央サーバは、管理サーバおよびメディアサーバを含み得る。メディアサーバは、メディアストリームを受信し、メディアストリームのデータを記憶装置に記録して保存し、かつオンデマンドで再生のためにクライアントにメディアストリームを転送する役割を果たし得る。管理サーバは、例えばユーザログイン、認証、およびサービススケジューリングのような機能の役割を果たし得る。中央サーバは、また、複数のクライアントによってアクセスされ、様々なビデオ監視システム間のネットワーク接続の管理等が可能である。記憶装置は、例えば、ディスクアレイであってもよい。ディスクアレイは、ビデオデータを記憶する役割を果たすことができ、ビデオデータを記憶するために、ネットワーク接続ストレージ(network attached storage、略してNAS)、記憶エリアネットワーク(storage area network、略してSAN)、またはサーバ自体を用いることができる。   The central server may include a management server and a media server. The media server may be responsible for receiving the media stream, recording and storing media stream data in storage, and transferring the media stream to the client for playback on demand. The management server may play a role of, for example, user login, authentication, and service scheduling. The central server is also accessed by multiple clients, capable of managing network connections between various video surveillance systems, etc. The storage device may be, for example, a disk array. The disk array can play a role of storing video data, and in order to store video data, network attached storage (NAS for short), storage area network (SAN for short), Or the server itself can be used.

図1に示したビデオ監視システムは、本発明の方法が適用可能な実施形態に過ぎず、本発明の目的および機能を限定することを意図しているのではないことは理解されるべきである。本発明は、図1に示したビデオ監視システムの構成要素のいかなる一つまたはいかなる組み合わせに関する要求に従属するものとして説明されるべきではない。しかし、本発明をより明確に詳しく述べるために、本発明の実施形態は、例としてビデオ監視システムのアプリケーションシナリオをとることによって、以下で説明される。しかし、本発明は、これに限定されるわけではない。   It should be understood that the video surveillance system shown in FIG. 1 is only an embodiment to which the method of the present invention is applicable, and is not intended to limit the purpose and function of the present invention. . The present invention should not be described as dependent on the requirements for any one or any combination of components of the video surveillance system shown in FIG. However, in order to describe the invention more clearly and in detail, embodiments of the invention are described below by taking an application scenario of a video surveillance system as an example. However, the present invention is not limited to this.

本発明の実施形態におけるビデオデータ送信のための技術的解決策は、様々な通信ネットワークまたは通信システム、例えば、モバイル通信のためのグローバルシステム(Global System for Mobile Communications、略して"GSM(登録商標)")、符号分割多重アクセス(Code Division Multiple Access、略して"CDMA")システム、広帯域符号分割多重アクセス(Wideband Code Division Multiple Access、略して"WCDMA(登録商標)")システム、汎用パケット無線サービス(general packet radio service、略して"GPRS")システム、ロング・ターム・エボリューション(Long Term Evolution、略して"LTE")システム、LTE周波数分割デュプレックス(frequency division duplex、略して"FDD")システム、LTE時間分割デュプレックス(time division duplex、略して"TDD")システム、ユニバーサル移動体通信システム(Universal Mobile Telecommunication System、略して"UMTS")、またはワールドワイド・インターオペラビリティ・フォー・マイクロウェーブ・アクセス(Worldwide Interoperability for Microwave Access、略して"WiMAX")通信システムを用いることができることは理解されるべきである。本発明の実施形態は、これらに限定されるわけではない。   The technical solution for video data transmission in the embodiment of the present invention is various communication networks or communication systems, for example, Global System for Mobile Communications, abbreviated as "GSM (registered trademark)" for mobile communication. “Code Division Multiple Access (abbreviated“ CDMA ”) system”, Wideband Code Division Multiple Access (abbreviated “WCDMA (registered trademark)”) system, general packet radio service ( general packet radio service (abbreviated to "GPRS") system, Long Term Evolution (abbreviated to "LTE") system, LTE frequency division duplex (abbreviated to "FDD") system, LTE time Split-duplex (time division duplex, "TDD" for short) system Use Universal Mobile Telecommunications System (abbreviated "UMTS") or Worldwide Interoperability for Microwave Access (WiMAX) communications systems It should be understood that Embodiments of the present invention are not limited to these.

図2は、本発明の一実施形態による、ビデオ再生方法100の概略フローチャートである。
この方法100は、ビデオ再生装置によって実行され得る。この装置は、例えば、端末またはクライアントである。図2に示すように、この方法100は、以下のステップを有している。
S110: 元の(original)再生画像を少なくとも2つの対象領域に分割する。
S120: 少なくとも2つの対象領域の中で、トリガイベントが発生する第1の対象領域を決定する。
S130: 第1の対象領域の中に表示される第1のビデオ画像の復号データを取得する。
S140: 第1のビデオ画像の復号データを再生のための指定された再生ウィンドウに描画する。
FIG. 2 is a schematic flowchart of a video playback method 100 according to an embodiment of the present invention.
The method 100 may be performed by a video playback device. This device is, for example, a terminal or a client. As shown in FIG. 2, the method 100 includes the following steps.
S110: Divide the original reproduced image into at least two target areas.
S120: Among the at least two target areas, the first target area where the trigger event occurs is determined.
S130: Obtain decoded data of the first video image displayed in the first target area.
S140: Draw the decoded data of the first video image in a designated reproduction window for reproduction.

再生ビデオの画質に影響を及ぼさないために、かつ画像の細部についてのユーザ観察の効果を改善するために、特に、複数のビデオ画像がズームアウト方法で同じウィンドウ内に表示される場合には、ビデオ再生装置は、最初に、元の再生画像を複数の対象領域に分割することができる。そして、トリガイベントが発生する対象領域の中に表示されるビデオ画像の復号データを得る。従って、ビデオ再生装置は、ビデオ画像の復号データを、再生のための独立した指定された再生ウィンドウに描画することができる。このような方法で、ユーザが興味を持っている画像の細部が、独立したウィンドウに表示され得る。そして、画像の細部についてのユーザ観察の効果が改善される。   In order not to affect the quality of the playback video and to improve the effect of user viewing on the image details, especially when multiple video images are displayed in the same window in a zoom-out manner, The video playback device can initially divide the original playback image into multiple target areas. Then, the decoded data of the video image displayed in the target area where the trigger event occurs is obtained. Thus, the video playback device can render the decoded data of the video image in an independent designated playback window for playback. In this manner, details of the image that the user is interested in may be displayed in a separate window. The effect of user viewing of image details is then improved.

従って、本発明の実施形態によるビデオ再生方法は、元の再生画像を複数の対象領域に分割して、トリガイベントが発生する対象領域の中に画像を別に表示する。従って、一態様では、ユーザは、対象領域の中でより明確な画像の細部を観察することができ、別の態様では、ユーザは、同時に複数の対象領域における画像の細部を追跡することができ、これによりユーザ経験を大幅に向上させる。   Therefore, the video playback method according to an embodiment of the present invention divides the original playback image into a plurality of target areas and separately displays the image in the target area where the trigger event occurs. Thus, in one aspect, the user can observe clearer image details within the region of interest, and in another aspect, the user can track image details in multiple regions of interest simultaneously This greatly improves the user experience.

本発明の実施形態において、ビデオは、ビデオファイルを含むだけではなく、リアルタイムビデオストリームも含むことは理解されるべきである。本発明の実施形態は、例としてリアルタイムビデオストリームの再生を取り上げることによって記載されているが、本発明の実施形態は、これに限定されるわけではない。   It should be understood that in the embodiments of the present invention, video includes not only video files, but also real-time video streams. Although embodiments of the present invention are described by taking playback of a real time video stream as an example, embodiments of the present invention are not limited thereto.

本発明の実施形態において、オプションとして、図3に示すように、方法100は、以下のステップを更に有している。
S150: 少なくとも2つの対象領域の中の各対象領域と、指定された再生ウィンドウとの間の対応関係を決定する。
In an embodiment of the present invention, optionally, as shown in FIG. 3, the method 100 further comprises the following steps.
S150: The correspondence between each target area in at least two target areas and the designated reproduction window is determined.

第1のビデオ画像の復号化データを、再生のための指定された再生ウィンドウに描画するステップは、以下のステップを有している。
S141: 対応関係に従って、第1のビデオ画像の復号データを、再生のための第1の対象領域に対応する指定された再生ウィンドウに描画するステップ。
The step of drawing the decoded data of the first video image in the designated reproduction window for reproduction comprises the following steps.
S141: Drawing the decoded data of the first video image in a designated reproduction window corresponding to the first target area for reproduction according to the correspondence relationship.

すなわち、各対象領域は、トリガイベントが対象領域内で発生する時に、対象領域内の画像を再生するために、1つ以上の再生ウィンドウと関連し得る。指定されたウィンドウは、表示装置上の最大の再生ウィンドウであってもよく、かつ最大の再生ウィンドウの一部であってもよい。指定されたウィンドウは、現在の既存の再生ウィンドウまたは既存の再生ウィンドウの一部であってもよく、新しいポップアップ再生ウィンドウまたは新しく生成された再生ウィンドウであってもよい。本発明の実施形態は、これらに限定されるわけではない。   That is, each region of interest may be associated with one or more playback windows to reproduce an image within the region of interest when a trigger event occurs within the region of interest. The designated window may be the largest playback window on the display device and may be part of the largest playback window. The specified window may be part of the current existing playback window or a part of the existing playback window, or may be a new pop-up playback window or a newly generated playback window. Embodiments of the present invention are not limited to these.

図4から図12Bを参照して、以下、本発明の一実施形態によるビデオ再生方法を詳細に説明する。   Hereinafter, a video playback method according to an embodiment of the present invention will be described in detail with reference to FIGS. 4 to 12B.

S110において、オプションとして、元の再生画像を少なくとも2つの対象領域に分割するステップは、元の再生画像を、等しい分割方法または自由な分割方法で、少なくとも2つの対象領域に分割するステップを有している。   Optionally at S110, dividing the original reproduced image into at least two regions of interest comprises dividing the original reproduced image into at least two regions of interest with equal or free division method ing.

具体的には、単一の再生ウィンドウは、クライアント上で前もって複数の対象領域に分割され得る。対象領域のサイズは、同じまたは異なっていてもよく、対象領域は、不規則な領域として設定されてもよい。加えて、本発明の実施形態において、対象領域と再生ウィンドウとの間の対応関係が決定され得る。元の再生画像を対象領域に分割するステップは、手動でユーザによって実行されてもよく、またクライアントソフトウェアによって自動的に構成されてもよく、この構成はクライアント上に保存される。   Specifically, a single playback window may be divided into multiple target areas in advance on the client. The size of the target area may be the same or different, and the target area may be set as an irregular area. In addition, in the embodiment of the present invention, the correspondence between the target area and the reproduction window can be determined. The step of dividing the original reproduced image into the target area may be performed manually by the user or automatically by the client software, which is stored on the client.

画像は、等しい分割方法または自由な分割方法で分割され得る。具体的な構成プロセスが図4および図5に示されている。例えば、図4に示すように、画像を等しい分割方法で対象領域に分割する方法は、以下のステップを有している。
S111: 右クリックメニューまたはツールバーボタンをクリックして、構成ウィンドウを表示する。
S112: ポップアップ構成ウィンドウ内で、対象領域の数を設定する。例えば、対象領域の数を16に設定する。
S113: 対象領域上で右クリックして、対象領域に結合された再生ウィンドウを設定する。
S114: トリガイベントが対象領域内で発生する時に、再生ウィンドウを選択して、対象領域内のビデオを再生する。
The images may be segmented in an equal or free segmentation manner. The specific configuration process is shown in FIGS. 4 and 5. For example, as shown in FIG. 4, the method of dividing an image into target areas by an equal dividing method includes the following steps.
S111: Click the right-click menu or toolbar button to display the configuration window.
S112: In the pop-up configuration window, set the number of target areas. For example, the number of target areas is set to 16.
S113: Right-click on the target area to set a playback window combined with the target area.
S114: When the trigger event occurs in the target area, select the play window to play the video in the target area.

図5に示すように、画像を自由な分割方法で対象領域に分割する方法は、例えば、以下のステップを有し得る。
S115: 右クリックメニューまたはツールバーボタンをクリックして、構成ウィンドウをポップアップする。
S116: ポップアップ構成ウィンドウ内で、マウスをドラッグして、対象領域を描く。対象領域のサイズおよび形状は、同じまたは異なっていてもよい。
S117: 対象領域上で右クリックして、対象領域に結合された再生ウィンドウを設定する。
S118: トリガイベントが対象領域内で発生する時に、再生ウィンドウを選択して、対象領域内のビデオを再生する。
As shown in FIG. 5, the method of dividing an image into target areas by a free dividing method may have, for example, the following steps.
S115: Click the right click menu or toolbar button to pop up the configuration window.
S116: In the pop-up configuration window, drag the mouse to draw the target area. The size and shape of the area of interest may be the same or different.
S117: Right-click on the target area to set a playback window combined with the target area.
S118: When the trigger event occurs in the target area, select the play window to play the video in the target area.

本発明の実施形態において、対象領域に分割される元の再生画像は、表示装置上の最大の再生ウィンドウ内の全再生画像であってもよいし、最大の部分ウィンドウ内で同時に再生される複数の画像の中の一つ以上の画像であってもよいことは理解されるべきである。
本発明の実施形態は、これらに限定されるわけではない。
In the embodiment of the present invention, the original reproduced image divided into the target area may be all reproduced images in the largest reproduction window on the display device, or a plurality of reproduced simultaneously in the largest partial window. It should be understood that it may be one or more of the images of.
Embodiments of the present invention are not limited to these.

S120において、ビデオ再生装置は、少なくとも2つの対象領域の中で、トリガイベントが発生する第1の対象領域を決定して、別の再生ウィンドウの中で第1の対象領域内の画像を表示し、これにより画像細部の表示効果を改善する。   In S120, the video playback apparatus determines a first target area in which a trigger event occurs in at least two target areas, and displays an image in the first target area in another playback window. , This improves the display effect of image details.

本発明の実施形態において、ユーザは、手動でイベントをトリガして、対象領域を決定することもできるし、自動的に生成されたトリガイベントを検出して、対象領域を決定することもできる。これらは、以下で、それぞれ図6および図7を参照して説明される。   In embodiments of the present invention, the user may manually trigger an event to determine a target area, or may automatically detect a trigger event to determine a target area. These are described below with reference to FIGS. 6 and 7, respectively.

図6に示すように、オプションとして、少なくとも2つの対象領域の中で、トリガイベントが発生する第1の対象領域を決定するステップは、以下のステップを有している。
S121: 元の再生画像内の対象領域上でユーザによって実行されるトリガ動作を決定する。
トリガ動作は、クリック動作、ダブルクリック動作、または対象領域を選択する動作を含む。
S122: トリガ動作が第1の対象領域として実行される対象領域を決定する。
As shown in FIG. 6, optionally, among the at least two target areas, the step of determining the first target area in which the trigger event occurs includes the following steps.
S121: Determine a trigger action to be performed by the user on the target area in the original reproduced image.
The trigger operation includes a click operation, a double click operation, or an operation of selecting a target area.
S122: Determine a target area where the trigger operation is to be executed as a first target area.

具体的には、ユーザがビデオを見る時に、イベントの発生を検出する場合、ユーザは、クライアントインターフェイス上で動作することができる。例えば、元の再生画像内の対象領域上でトリガ動作を実行して、これにより、イベントが発生する対象領域内の画像は、予め指定された再生ウィンドウ内で再生されるか、または独立したポップアップ再生ウィンドウ内に表示される。イベントが複数の対象領域内で発生する時、ユーザは、表示のための複数のウィンドウをトリガすることができる。トリガ動作は、例えば、クリック動作、ダブルクリック動作、または対象領域を選択する動作である。本発明の実施形態は、これらに限定されるわけではない。   Specifically, when detecting the occurrence of an event when the user views a video, the user can operate on the client interface. For example, a trigger operation is performed on the target area in the original reproduced image, whereby the image in the target area where the event occurs can be reproduced in a predesignated reproduction window or an independent pop-up. Displayed in the playback window. When an event occurs in multiple target areas, the user can trigger multiple windows for display. The trigger operation is, for example, a click operation, a double click operation, or an operation of selecting a target area. Embodiments of the present invention are not limited to these.

図7は、本発明の実施形態による、トリガイベントが発生する対象領域を決定する方法の他の概略フローチャートを示している。図7に示すように、オプションとして、少なくとも2つの対象領域の中で、トリガイベントが発生する第1の対象領域を決定するステップは、以下のステップを有している。
S123: 元の再生画像内のトリガイベント発生ポイントの座標メタデータを取得する。
S124: 座標メタデータに従って、トリガイベント発生ポイントが属する対象領域を第1の対象領域として決定する。
FIG. 7 shows another schematic flowchart of a method of determining a target area where a trigger event occurs according to an embodiment of the present invention. As shown in FIG. 7, optionally, among the at least two target areas, the step of determining the first target area in which the trigger event occurs includes the following steps.
S123: Acquire coordinate metadata of trigger event occurrence point in the original reproduced image.
S124: According to the coordinate metadata, a target area to which the trigger event occurrence point belongs is determined as a first target area.

具体的には、例えば、ユーザは、自動イベント検出を必要とする領域を予め構成することができ、かつイベント検出規則、例えば、動き検出またはインテリジェント分析検出を構成することができる。イベントが発生する時、クライアントソフトウェアは、トリガイベント発生ポイントの座標メタデータに従って、前もって構成された対応する対象領域を決定することができるので、対応する画像は、予め指定された再生ウィンドウで再生されるか、または独立したポップアップ再生ウィンドウに表示される。イベントが複数の対象領域で発生する時、クライアントソフトウェアは、表示のための複数のウィンドウを起動することができる。   Specifically, for example, the user can pre-configure regions that require automatic event detection, and can configure event detection rules, such as motion detection or intelligent analysis detection. When an event occurs, the client software can determine the corresponding target area configured in advance according to the coordinate metadata of the trigger event occurrence point, so that the corresponding image is reproduced in the previously specified reproduction window. Or in a separate pop-up playback window. When an event occurs in multiple target areas, client software can launch multiple windows for display.

不規則なインテリジェント分析領域の中では、トリガイベントは、複数の対象領域をカバーし得るし、この時、複数の対象領域は、トリガイベントが発生する第1の対象領域として決定され得ることは理解されるべきである。本発明の実施形態は、これに限定されるわけではない。   Within the irregular intelligent analysis area, the trigger event may cover multiple target areas, and it is understood that the multiple target areas may be determined as the first target area in which the trigger event occurs. It should be. Embodiments of the present invention are not limited to this.

本発明の実施形態において、ビデオ再生装置は、動き検出、インテリジェント分析検出などによって、トリガイベントが対象領域内で発生するかどうかを判定することができる。中央サーバも、検出を実行して、トリガイベントが対象領域内で発生するかどうかを決定することができる。そして、トリガイベントが検出される時、中央サーバは、トリガイベント発生ポイントの座標メタデータを、ビデオ再生装置にフィードバックすることができるので、ビデオ再生装置は、座標メタデータに従って、トリガイベントが発生する第1の対象領域を決定することができる。本発明の実施形態は、これに限定されるわけではない。   In embodiments of the present invention, the video playback device may determine whether a trigger event occurs in the target area by motion detection, intelligent analysis detection, etc. The central server can also perform detection to determine if the triggering event occurs in the area of interest. Then, when the trigger event is detected, the central server can feed back the coordinate metadata of the trigger event occurrence point to the video playback device, so the video playback device generates the trigger event according to the coordinate metadata. A first region of interest can be determined. Embodiments of the present invention are not limited to this.

S130において、ビデオ再生装置は、第1の対象領域内に表示される第1のビデオ画像の復号データを得るので、第1のビデオ画像は、指定された再生ウィンドウで再生される。
本発明の実施形態において、オプションとして、図8に示すように、第1の対象領域に表示される第1のビデオ画像の復号データを取得するステップは、以下のステップを有している。
S131: 元の再生画像の復号データを取得する。
S132: 元の再生画像の復号データに従って、第1のビデオ画像の復号データを決定する。
At S130, the video reproduction apparatus obtains decoded data of the first video image displayed in the first target area, so that the first video image is reproduced in the designated reproduction window.
In the embodiment of the present invention, as shown in FIG. 8 as an option, the step of obtaining decoded data of the first video image displayed in the first target area includes the following steps.
S131: Acquire the decoded data of the original reproduced image.
S132: The decoded data of the first video image is determined according to the decoded data of the original reproduced image.

具体的には、例えば、ビデオ再生装置は、クリック、ダブルクリック、ツールバーボタンのクリック、またはショートカットキーのトリガの方法で、ユーザによって手動でトリガされるイベントを受信する。または、この装置は、座標メタデータに従って、トリガイベントが発生する第1の対象領域を決定した後、対象領域に属しているデータの内容を、元の再生ウィンドウの復号されたYUVデータから遮断して、予め構成された対応関係に従って、この内容の一部を、予め指定された再生枠内で再生する(または、独立した再生ウィンドウを表示して、この一部を再生する)ことができる。複数の再生ウィンドウは、同じYUVデータソースを用いる。従って、この装置は、追加の複数のビデオストリームを持ち込むかまたは加える必要はない。   Specifically, for example, the video playback device receives an event manually triggered by the user in the manner of a click, a double click, a click on a toolbar button, or a shortcut key trigger. Alternatively, after determining the first target area in which the trigger event occurs according to the coordinate metadata, this apparatus blocks the contents of data belonging to the target area from the decoded YUV data of the original reproduction window. Thus, a part of the contents can be reproduced within a reproduction frame designated in advance (or an independent reproduction window can be displayed and the part can be reproduced) in accordance with the correspondence relationship previously formed. Multiple playback windows use the same YUV data source. Thus, the device does not need to bring in or add additional video streams.

例えば、元の再生画像の解像度が、Width×Heightであると仮定する。対象領域に関して、開始点の水平座標をStartX、開始点の垂直座標をStartY、終点の水平座標をEndX、終点の垂直座標をEndYとする。元の再生画像のYUVデータは、配列Org[Width×Height]の中にあり、対象領域のYUVデータは、Dst[ROIWidth×ROIHeight]の中にあり、nは対象領域内の任意の点である。そして、対象領域内のYUVデータは、以下の式に従って決定され得る。
ROIWidth = EndX-StartX
ROIHeight = EndY-StartY
Dst[n] = Org[(Width×(StartY+n/ROIWidth)+StartX+n%ROIWidth)]
除算演算"/"は、端数を切り捨てて最も近い整数に丸めることを示し、シンボル"%"は、REM演算を示している。
For example, it is assumed that the resolution of the original reproduction image is Width × Height. Regarding the target area, the horizontal coordinate of the start point is StartX, the vertical coordinate of the start point is StartY, the horizontal coordinate of the end point is EndX, and the vertical coordinate of the end point is EndY. The YUV data of the original reproduction image is in the array Org [Width × Height], the YUV data of the target area is in Dst [ROIWidth × ROI Height], and n is any point in the target area . Then, YUV data in the target area can be determined according to the following equation.
ROIWidth = EndX-StartX
ROIHeight = EndY-StartY
Dst [n] = Org [(Width x (Start Y + n / ROI Width) + Start X + n% ROI Width)]
The division operation "/" indicates that the fraction is rounded and rounded to the nearest integer, and the symbol "%" indicates the REM operation.

S140において、ビデオ再生装置は、第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに描画する。   At S140, the video playback apparatus renders the decoded data of the first video image in a designated playback window for playback.

具体的には、ビデオ再生装置は、ポップアップウインドウ内で第1のビデオ画像を再生するか、または新しい再生ウィンドウ内に第1のビデオ画像を表示するか、または元の再生ウィンドウ内に第1のビデオ画像を表示することができ、かつ第1のビデオ画像上でデジタルズームを実行して、再生ウィンドウのサイズに合わせることができる。すなわち、本発明の実施形態において、指定されたウィンドウは、表示装置上での最大の再生ウィンドウであってもよいし、最大の再生ウィンドウの一部であってもよい。指定されたウィンドウは、現在の既存の再生ウィンドウまたは既存の再生ウィンドウの一部であってもよく、また新しいポップアップまたは新しく生成された再生ウィンドウであってもよい。指定されたウィンドウは、1つのウィンドウであってもよく、複数のウィンドウであってもよい。本発明の実施形態は、これらに限定されるわけではない。   Specifically, the video playback device plays the first video image in the pop-up window, or displays the first video image in a new playback window, or the first in the original playback window. The video image can be displayed, and digital zoom can be performed on the first video image to fit the size of the playback window. That is, in the embodiment of the present invention, the designated window may be the largest playback window on the display device or may be part of the largest playback window. The designated window may be part of the current existing playback window or a part of the existing playback window, or may be a new pop-up or a newly generated playback window. The specified window may be a single window or multiple windows. Embodiments of the present invention are not limited to these.

本発明の実施形態において、オプションとして、第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに描画するステップは、
第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに、ズームイン方法で描画するステップを有していて、指定された再生ウィンドウは、第1の対象領域より大きい。
In an embodiment of the present invention, optionally, the step of drawing the decoded data of the first video image in a designated reproduction window for reproduction is:
A step of drawing the decoded data of the first video image in a designated reproduction window for reproduction in a zoom-in method, wherein the designated reproduction window is larger than the first target area.

本発明の実施形態において、例えば、図9に示すように、第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに描画するステップは、以下のステップを有している。
S142: 独立した再生ウィンドウを表示する。
S143: 第1のビデオ画像の復号データを、再生のための独立した再生ウィンドウに描画する。
In the embodiment of the present invention, for example, as shown in FIG. 9, the step of drawing the decoded data of the first video image in the designated reproduction window for reproduction has the following steps.
S142: Display a separate playback window.
S143: Draw the decoded data of the first video image in a separate playback window for playback.

本発明の実施形態において、指定された再生ウィンドウは、独立したポップアップ再生ウィンドウであり、この独立したポップアップ再生ウィンドウは、第1の対象領域より大きくてもよいので、第1のビデオ画像は、ズームイン方法で再生されるが、本発明の実施形態は、これに限定されるわけではないことは理解されるべきである。例えば、独立した再生ウィンドウは、第1の対象領域より小さいか、または等しくてもよい。   In an embodiment of the present invention, the first video image is zoomed in because the designated playback window is an independent pop-up playback window, and this independent pop-up playback window may be larger than the first target area. Although reproduced in a method, it should be understood that embodiments of the present invention are not limited thereto. For example, the independent playback window may be smaller or equal to the first region of interest.

本発明の実施形態において、「Aに対応するB」は、BがAと関連していることを示していて、BがAに従って決定され得ることは理解されるべきである。しかし、Aに従ってBを決定することは、BがAのみに従って決定されることを意味するのではなく、BがAおよび/または他の情報に従って決定され得ることも理解されるべきである。   In the embodiments of the present invention, “B corresponding to A” indicates that B is associated with A, and it should be understood that B may be determined according to A. However, it should also be understood that determining B according to A does not mean that B is determined according to A alone, but B may be determined according to A and / or other information.

本発明の実施形態において、前述のプロセスの続き番号は、実行順序を示しているのではないことは理解されるべきである。プロセスの実行順序は、機能およびその固有の論理に従って決定されるべきであり、本発明の実施形態の実施に、いかなる制限も設けるべきではない。   It should be understood that in the embodiment of the present invention, the above-mentioned process serial numbers do not indicate the execution order. The order of execution of the processes should be determined according to the functions and their inherent logic, and there should not be any limitations placed on the practice of the embodiments of the present invention.

従って、本発明の実施形態によるビデオ再生方法は、元の再生画像を複数の対象領域に分割して、トリガイベントが発生する対象領域の画像を別に表示する。従って、一態様では、ユーザは、対象領域のより明確な画像の細部を観察することができ、別の態様では、ユーザは、同時に複数の対象領域の画像の細部を追跡することができ、これによりユーザ経験を大幅に向上させる。加えて、本発明の実施形態では、元の復号データを用いて、対象領域の画像を再生するが、追加のビデオストリームを加えることはない。   Therefore, the video playback method according to an embodiment of the present invention divides the original playback image into a plurality of target areas, and separately displays an image of the target area where the trigger event occurs. Thus, in one aspect, the user can observe clearer image details of the region of interest, and in another aspect, the user can simultaneously track the image details of multiple regions of interest, Significantly improve the user experience. In addition, embodiments of the present invention use the original decoded data to reproduce the image of the region of interest but do not add additional video streams.

図10から図12Bを参照して、以下、本発明の実施形態によるビデオ再生方法を詳細に説明する。   Hereinafter, a video playback method according to an embodiment of the present invention will be described in detail with reference to FIGS. 10 to 12B.

図10に示すように、ビデオ再生方法200はビデオ再生装置によって実行され得る。
そして、この装置は、例えば、端末またはクライアントである。方法200は、以下のステップを有し得る。
S201: クライアントのグラフィカルユーザインターフェイス(graphical user interface、略してGUI)を表示する。
S202: 再生画像分割方法を設定すべきかどうか決定する。再生画像分割方法を設定することが決定される場合、プロセスはS203へ進む。さもなければ、プロセスはS204へ進む。
S203: 再生画像分割方法を設定する。そして、プロセスはS204へ進む。
S204: ユーザが再生を始めるかどうか決定する。ユーザが再生を始めることが決定される場合、プロセスはS205へ進む。さもなければ、プロセスはS201へ進む。
S205: ネットワークポートを使用可能にする。
S206: メディアストリームを受信して、このメディアストリームを復号し、復号されたメディアストリームを、表示のための表示装置に描画する。
S207: ユーザが手動でイベントをトリガするかどうか決定する。ユーザが手動でイベントをトリガすることが決定される場合、プロセスはS208へ進む。さもなければ、プロセスはS209へ進む。
S208: ユーザが手動でイベントをトリガすることを決定する時、イベント発生領域を、指定されたウィンドウに、ズームイン方法で表示する。そして、プロセスはS206へ進む。
S209: 装置が自動的にイベントをトリガするかどうか決定する。装置が自動的にイベントをトリガすることが決定される場合、プロセスはS210へ進む。さもなければ、プロセスはS211へ進む。
S210: 装置が自動的にイベントをトリガすることを決定する時、イベント発生領域を、指定されたウィンドウに、ズームイン方法で表示する。そして、プロセスはS206へ進む。
S211: ユーザが再生を終えるかどうか決定する。ユーザが再生を終えることが決定される場合、プロセスはS212へ進む。さもなければ、プロセスはS206へ進む。
S212: ユーザがクライアントを閉じるかどうか決定する。ユーザがクライアントを閉じることが決定される場合、プロセスはS213へ進む。さもなければ、プロセスはS201へ進む。
S213: システムリソースをクリーンアップする。そして、ビデオ再生を終了する。
As shown in FIG. 10, the video playback method 200 may be performed by a video playback device.
And this apparatus is, for example, a terminal or a client. Method 200 may have the following steps.
S201: Display a graphical user interface (GUI) for the client.
S202: It is determined whether the reproduction image division method should be set. If it is determined to set the reproduction image division method, the process proceeds to S203. Otherwise, the process proceeds to S204.
S203: Set a reproduction image division method. Then, the process proceeds to S204.
S204: It is determined whether the user starts playback. If it is determined that the user starts playing, the process proceeds to S205. Otherwise, the process proceeds to S201.
S205: Enable the network port.
S206: Receive a media stream, decode the media stream, and draw the decoded media stream on a display device for display.
S207: Determine whether the user manually triggers an event. If it is determined that the user manually triggers an event, the process proceeds to S208. Otherwise, the process proceeds to S209.
S208: When the user decides to manually trigger an event, the event occurrence area is displayed in a specified window in a zoom-in manner. Then, the process proceeds to S206.
S209: Determine whether the device automatically triggers an event. If it is determined that the device automatically triggers an event, the process proceeds to S210. Otherwise, the process proceeds to S211.
S210: When the device decides to automatically trigger an event, it displays the event occurrence area in the specified window in a zoom-in manner. Then, the process proceeds to S206.
S211: It is determined whether the user finishes the reproduction. If it is determined that the user has finished playing, the process proceeds to S212. Otherwise, the process proceeds to S206.
S212: Determine whether the user closes the client. If it is determined that the user closes the client, the process proceeds to S213. Otherwise, the process proceeds to S201.
S213: Clean up system resources. Then, the video playback ends.

本発明の実施形態において、前述のプロセスの続き番号は、実行順序を示しているのではないことは理解されるべきである。プロセスの実行順序は、機能およびその固有の論理に従って決定されるべきであり、本発明の実施形態の実施に、いかなる制限も設けるべきではない。   It should be understood that in the embodiment of the present invention, the above-mentioned process serial numbers do not indicate the execution order. The order of execution of the processes should be determined according to the functions and their inherent logic, and there should not be any limitations placed on the practice of the embodiments of the present invention.

図11Aは、本発明の一実施形態による、対象領域が手動でトリガされる再生方法300の概略フローチャートを示している。方法300は、ビデオ再生装置によって実行され得る。そして、この装置は、例えば、端末またはクライアントである。図11Aに示すように、方法300は、以下のステップを有している。
S301: 元の再生ウィンドウ内のビデオ画像の各フレームを普通に描画して再生する。
S302: ユーザが手動でイベントをトリガするかどうか決定する。ユーザが手動でイベントをトリガすることが決定される場合、プロセスはS303へ進む。さもなければ、プロセスはS301へ進む。
S303: ユーザイベントが位置する対象領域を取得する。
S304: 対象領域に結合された再生ウィンドウをチェックする。
S305: ビデオ画像の各フレームのために、対象領域によってカバーされるビデオ画像のYUVデータを計算する。
S306: ビデオ画像の各フレームのために、対象領域のYUVデータを、再生のための指定された再生ウィンドウに描画する。例えば、図12Aに示すように、再生ウィンドウ全体は、元の再生画像ウィンドウと同じサイズを有する元の再生画像ウィンドウおよび3つの指定された再生ウィンドウを含み、元の再生画像は、16の対象領域に分割される。そして、手動トリガイベントが発生する対象領域の画像は、指定された再生ウィンドウのうちの1つ上で、ズームイン方法で再生される。
S307: ユーザが再生を終えるかどうか決定する。ユーザが再生を終えることが決定される場合、プロセスはS308へ進む。さもなければ、プロセスはS305へ進む。
S308: ビデオ再生を停止する。そして、プロセスを終了する。
FIG. 11A shows a schematic flowchart of a playback method 300 in which the target area is manually triggered, according to an embodiment of the present invention. Method 300 may be performed by a video playback device. And this apparatus is, for example, a terminal or a client. As shown in FIG. 11A, method 300 includes the following steps.
S301: Draw and play each frame of the video image in the original playback window normally.
S302: Determine whether the user manually triggers an event. If it is determined that the user manually triggers an event, the process proceeds to S303. Otherwise, the process proceeds to S301.
S303: Acquire a target area in which the user event is located.
S304: Check the playback window connected to the target area.
S305: Calculate, for each frame of the video image, YUV data of the video image covered by the region of interest.
S306: For each frame of the video image, draw YUV data of the target area in a designated playback window for playback. For example, as shown in FIG. 12A, the entire playback window includes an original playback image window having the same size as the original playback image window and three designated playback windows, and the original playback image has 16 target areas. Divided into Then, the image of the target area where the manual trigger event occurs is reproduced by the zoom-in method on one of the designated reproduction windows.
S307: It is determined whether the user finishes the reproduction. If it is determined that the user has finished playing, the process proceeds to S308. Otherwise, the process proceeds to S305.
S308: Stop video playback. And end the process.

図11Bは、本発明の一実施形態による、対象領域がイベントによって自動的にトリガされる再生方法400の概略フローチャートである。この方法400は、以下のステップを有し得る。
S401: 元の再生ウィンドウ内のビデオ画像の各フレームを普通に描画して再生する。
S402:インテリジェント分析を実行して、トリガイベントが発生するかどうか決定する。
トリガイベントが発生することが決定される場合、プロセスはS403へ進む。さもなければ、プロセスはS401へ進む。
S403: インテリジェント分析領域と、対象領域との間の対応関係を計算する。
S404: 分析イベントによってカバーされる対象領域(または複数の対象領域)を取得する。
S405: 対象領域に結合された再生ウィンドウをチェックする。
S406: ビデオ画像の各フレームのために、対象領域によってカバーされるビデオ画像のYUVデータを計算する。
S407: ビデオ画像の各フレームのために、対象領域のYUVデータを、再生のための指定された再生ウィンドウに描画する。例えば、図12Bに示すように、再生ウィンドウ全体は、元の再生画像ウィンドウと同じサイズを有する元の再生画像ウィンドウおよび3つの指定された再生ウィンドウを含み、元の再生画像は、16の対象領域に分割される。そして、トリガイベントが発生する対象領域の画像は、指定された再生ウィンドウのうちの1つ上で、ズームイン方法で再生される。
S408: ユーザが再生を終えるかどうか決定する。ユーザが再生を終えることが決定される場合、プロセスはS409へ進む。さもなければ、プロセスはS406へ進む。
S409: ビデオ再生を停止する。そして、プロセスを終了する。
FIG. 11B is a schematic flowchart of a playback method 400 in which a region of interest is automatically triggered by an event, according to one embodiment of the present invention. The method 400 may have the following steps.
S401: Draw and play each frame of the video image in the original playback window normally.
S402: Perform intelligent analysis to determine if a trigger event occurs.
If it is determined that a trigger event occurs, the process proceeds to S403. Otherwise, the process proceeds to S401.
S403: Calculate the correspondence between the intelligent analysis area and the target area.
S404: Obtain a target area (or a plurality of target areas) covered by the analysis event.
S405: Check the playback window connected to the target area.
S406: For each frame of the video image, calculate YUV data of the video image covered by the area of interest.
S407: For each frame of the video image, draw the YUV data of the target area in the specified playback window for playback. For example, as shown in FIG. 12B, the entire playback window includes an original playback image window having the same size as the original playback image window and three designated playback windows, and the original playback image has 16 target areas. Divided into Then, the image of the target area where the trigger event occurs is reproduced by the zoom-in method on one of the designated reproduction windows.
S408: It is determined whether the user finishes the reproduction. If it is determined that the user finishes playing, the process proceeds to S409. Otherwise, the process proceeds to S406.
S409: Stop video playback. And end the process.

本発明の実施形態において、前述のプロセスの続き番号は、実行順序を示しているのではないことは理解されるべきである。プロセスの実行順序は、機能およびその固有の論理に従って決定されるべきであり、本発明の実施形態の実施に、いかなる制限も設けるべきではない。   It should be understood that in the embodiment of the present invention, the above-mentioned process serial numbers do not indicate the execution order. The order of execution of the processes should be determined according to the functions and their inherent logic, and there should not be any limitations placed on the practice of the embodiments of the present invention.

従って、本発明の実施形態によるビデオ再生方法は、元の再生画像を複数の対象領域に分割して、トリガイベントが発生する対象領域の画像を別に表示する。従って、一態様では、ユーザは、対象領域のより明確な画像の細部を観察することができ、別の態様では、ユーザは、同時に複数の対象領域の画像の細部を追跡することができ、これによりユーザ経験を大幅に向上させる。   Therefore, the video playback method according to an embodiment of the present invention divides the original playback image into a plurality of target areas, and separately displays an image of the target area where the trigger event occurs. Thus, in one aspect, the user can observe clearer image details of the region of interest, and in another aspect, the user can simultaneously track the image details of multiple regions of interest, Significantly improve the user experience.

以上、図1から図12Bを参照して、本発明の実施形態によるビデオ再生方法を詳細に説明した。以下では、図13から図20を参照して、本発明の実施形態によるビデオ再生端末およびシステムを詳細に説明する。   The video playback method according to the embodiment of the present invention has been described in detail with reference to FIGS. 1 to 12B. The video playback terminal and system according to embodiments of the present invention will be described in detail below with reference to FIGS.

図13は、本発明の実施形態による端末500の概略ブロック図を示している。図13に示すように、端末500は、
元の再生画像を少なくとも2つの対象領域に分割するように構成された分割モジュール510と、
分割モジュール510によって選び出された少なくとも2つの対象領域の中で、トリガイベントが発生する第1の対象領域を決定するように構成された第1の決定モジュール520と、第1の決定モジュール520によって決定された第1の対象領域の中に表示される第1のビデオ画像の復号データを取得するように構成された取得モジュール530と、
取得モジュール530によって取得された第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに描画するように構成された再生モジュール540とを備えている。
FIG. 13 shows a schematic block diagram of a terminal 500 according to an embodiment of the present invention. As shown in FIG.
A division module 510 configured to divide the original reproduced image into at least two target areas;
Among the at least two target areas selected by the division module 510, a first determination module 520 configured to determine a first target area in which the trigger event occurs, and the first determination module 520 An acquisition module 530 configured to acquire decoded data of the first video image to be displayed in the determined first target area;
And a reproduction module 540 configured to draw the decoded data of the first video image acquired by the acquisition module 530 in a designated reproduction window for reproduction.

従って、本発明の実施形態によるビデオ再生端末は、元の再生画像を複数の対象領域に分割して、トリガイベントが発生する対象領域の中の画像を別に表示する。従って、一態様では、ユーザは、対象領域のより明確な画像の細部を観察することができ、別の態様では、ユーザは、同時に複数の対象領域の画像の細部を追跡することができ、これによりユーザ経験を大幅に向上させる。   Therefore, the video reproduction terminal according to the embodiment of the present invention divides the original reproduced image into a plurality of target areas and separately displays the image in the target area where the trigger event occurs. Thus, in one aspect, the user can observe clearer image details of the region of interest, and in another aspect, the user can simultaneously track the image details of multiple regions of interest, Significantly improve the user experience.

本発明の実施形態において、ビデオ再生端末は、ビデオファイルを再生することができるだけではなく、リアルタイムビデオストリームを再生することもできることは理解されるべきである。本発明の実施形態は、端末がリアルタイムビデオストリームを再生する例に基づいて記載されているが、本発明の実施形態は、これに限定されるわけではない。   It should be understood that in embodiments of the present invention, the video playback terminal can not only play the video file, but also can play the real time video stream. Although the embodiments of the present invention are described based on the example of the terminal playing a real-time video stream, the embodiments of the present invention are not limited thereto.

本発明の実施形態において、オプションとして、図14に示すように、端末500は、
少なくとも2つの対象領域の中の各対象領域と、指定された再生ウィンドウとの間の対応関係を決定するように構成された第2の決定モジュール550を更に有していて、
再生モジュール540は、第2の決定モジュール550によって決定された対応関係に従って、取得モジュール530によって取得された第1のビデオ画像の復号データを、再生のための第1の対象領域に対応する指定された再生ウィンドウに描画するように更に構成されている。
In an embodiment of the present invention, optionally, as shown in FIG.
The system further comprises a second determination module 550 configured to determine a correspondence between each of the at least two regions of interest and the designated playback window,
The reproduction module 540 specifies the decoded data of the first video image acquired by the acquisition module 530 according to the correspondence determined by the second determination module 550, corresponding to the first target area for reproduction. It is further configured to draw in the playback window.

本発明の実施形態において、オプションとして、分割モジュール510は、元の再生画像を少なくとも2つの対象領域に、等しい分割方法または自由な分割方法で分割するように更に構成されている。   In an embodiment of the present invention, optionally, the division module 510 is further configured to divide the original reproduced image into at least two regions of interest in equal or free division manner.

本発明の実施形態において、オプションとして、図15に示すように、第1の決定モジュール520は、
元の再生画像の中の対象領域上でユーザによって実行されるトリガ動作を決定するように構成された第1の決定ユニット521を有していて、トリガ動作は、クリック動作、ダブルクリック動作、または対象領域を選択する動作を含み、
更に、第1の決定ユニット521によって決定されたトリガ動作が第1の対象領域として実行される対象領域を決定するように構成された第2の決定ユニット522を有している。
In an embodiment of the present invention, optionally, as shown in FIG.
There is a first determination unit 521 configured to determine a trigger action to be performed by the user on a target area in the original reproduction image, the trigger action being a click action, a double click action, or Including the act of selecting the target area,
Furthermore, it comprises a second determination unit 522 configured to determine a target area in which the triggering action determined by the first determination unit 521 is performed as a first target area.

本発明の実施形態において、オプションとして、図16に示すように、第1の決定モジュール520は、
元の再生画像内のトリガイベント発生ポイントの座標メタデータを取得するように構成された第1の取得ユニット523と、
第1の取得ユニット523によって取得された座標メタデータに従って、トリガイベント発生ポイントが属する対象領域を第1の対象領域として決定するように構成された第3の決定ユニット524とを有している。
In an embodiment of the present invention, optionally, as shown in FIG.
A first acquisition unit 523 configured to acquire coordinate metadata of trigger event occurrence points in the original reproduced image;
And a third determination unit 524 configured to determine a target area to which the trigger event occurrence point belongs as a first target area according to the coordinate metadata acquired by the first acquisition unit 523.

本発明の実施形態において、オプションとして、図17に示すように、取得モジュール530は、
元の再生画像の復号データを取得するように構成された第2の取得ユニット531と、
第2の取得ユニット531によって取得された元の再生画像の復号データに従って、第1のビデオ画像の復号データを決定するように構成された第3の決定ユニット532とを有している。
In an embodiment of the present invention, optionally as shown in FIG.
A second acquisition unit 531 configured to acquire decoded data of the original reproduced image;
And a third determination unit 532 configured to determine decoded data of the first video image according to the decoded data of the original reproduced image acquired by the second acquisition unit 531.

本発明の実施形態において、オプションとして、再生モジュールは、第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに、ズームイン方法で描画するように更に構成されていて、指定された再生ウィンドウは、第1の対象領域より大きい。   In an embodiment of the present invention, optionally, the playback module is further configured and arranged to draw the decoded data of the first video image in a zoom-in method in a designated playback window for playback. The playback window is larger than the first target area.

本発明の実施形態において、オプションとして、図18に示すように、再生モジュール540は、
独立した再生ウィンドウを表示するように構成された表示ユニット541と、
第1のビデオ画像の復号データを、再生のための表示ユニットによって表示された独立した再生ウィンドウに描画するように構成された再生ユニット542とを有している。
In an embodiment of the present invention, optionally, as shown in FIG.
A display unit 541 configured to display an independent playback window;
And a playback unit 542 configured to render the decoded data of the first video image in a separate playback window displayed by the display unit for playback.

本発明の実施形態によるビデオ再生端末500が、本発明の実施形態におけるビデオ再生装置に対応し得ること、および、前述および他の端末500ジュールの動作および/または機能が、それぞれ図1から図12Bにおける方法100から400の対応するプロセスを実行するために用いられることは理解されるべきであり、これらは、説明を簡潔にするために、ここに繰り返さない。   The video playback terminal 500 according to an embodiment of the present invention may correspond to the video playback device according to an embodiment of the present invention, and the operation and / or function of the above-mentioned and other terminals 500 joules are shown in FIGS. It should be understood that it is used to carry out the corresponding processes of methods 100 to 400 in, which are not repeated here for the sake of brevity.

従って、本発明の実施形態によるビデオ再生端末は、元の再生画像を複数の対象領域に分割して、トリガイベントが発生する対象領域の画像を別に表示する。従って、一態様では、ユーザは、対象領域の中のより明確な画像の細部を観察することができ、別の態様では、ユーザは、同時に複数の対象領域の中の画像の細部を追跡することができ、これによりユーザ経験を大幅に向上させる。   Therefore, the video reproduction terminal according to the embodiment of the present invention divides the original reproduction image into a plurality of target areas and separately displays the image of the target area where the trigger event occurs. Thus, in one aspect, the user can observe clearer image details in the region of interest, and in another aspect, the user can simultaneously track image details in multiple regions of interest This greatly improves the user experience.

図19は、本発明の一実施形態によるシステム600の概略ブロック図である。図19に示すように、システム600は、
本発明の実施形態による端末610と、
ビデオ画像をキャプチャして、このビデオ画像をエンコードすることによってメディアストリームを生成するように構成されたビデオキャプチャシステム620と、
ビデオキャプチャシステムによって生成されたメディアストリームを取得して、このメディアストリームを端末620に供給するように構成されたサーバ630と、
サーバ630によって取得されたメディアストリームを記憶するように構成された記憶装置640とを備えている。
FIG. 19 is a schematic block diagram of a system 600 in accordance with an embodiment of the present invention. As shown in FIG.
A terminal 610 according to an embodiment of the invention;
A video capture system 620 configured to capture a video image and generate a media stream by encoding the video image;
A server 630 configured to obtain the media stream generated by the video capture system and provide the media stream to the terminal 620;
And a storage device 640 configured to store the media stream obtained by the server 630.

本発明の実施形態によるビデオ再生システム600に含まれている端末610が、本発明の実施形態におけるビデオ再生端末500に対応し得ること、および、前述および他の端末610内のモジュールの動作および/または機能が、それぞれ図1から図12Bにおける方法100から400の対応するプロセスを実行するために用いられることは理解されるべきであり、これらは、説明を簡潔にするために、ここに繰り返さない。   The terminal 610 included in the video playback system 600 according to an embodiment of the present invention may correspond to the video playback terminal 500 in an embodiment of the present invention, and the operation of the modules in the aforementioned and other terminals 610 and / or It is to be understood that the functions are used to carry out the corresponding processes of methods 100 to 400 in FIGS. 1 to 12B, respectively, which are not repeated here for the sake of brevity. .

従って、本発明の実施形態によるビデオ再生システムは、元の再生画像を複数の対象領域に分割して、トリガイベントが発生する対象領域の画像を別に表示する。従って、一態様では、ユーザは、対象領域の中のより明確な画像の細部を観察することができ、別の態様では、ユーザは、同時に複数の対象領域の中の画像の細部を追跡することができ、これによりユーザ経験を大幅に向上させる。   Therefore, the video playback system according to an embodiment of the present invention divides the original playback image into a plurality of target areas and separately displays the image of the target area where the trigger event occurs. Thus, in one aspect, the user can observe clearer image details in the region of interest, and in another aspect, the user can simultaneously track image details in multiple regions of interest This greatly improves the user experience.

本発明の実施形態は、ビデオ再生端末を更に提供する。図20に示すように、端末700は、プロセッサ710、メモリ720、およびバスシステム730を備えていて、プロセッサ710とメモリ720は、バスシステム730を通して互いに接続されている。メモリ720は、命令を記憶するように構成されていて、プロセッサ710は、メモリ720に記憶された命令を実行するように構成されている。プロセッサ710は、元の再生画像を少なくとも2つの対象領域に分割し、少なくとも2つの対象領域の中で、トリガイベントが発生する第1の対象領域を決定し、第1の対象領域の中に表示される第1のビデオ画像の復号データを取得し、第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに描画するように構成されている。   Embodiments of the present invention further provide a video playback terminal. As shown in FIG. 20, the terminal 700 includes a processor 710, a memory 720, and a bus system 730. The processor 710 and the memory 720 are connected to each other through the bus system 730. Memory 720 is configured to store instructions, and processor 710 is configured to execute the instructions stored in memory 720. The processor 710 divides the original reproduced image into at least two target areas, determines a first target area in which a trigger event occurs in the at least two target areas, and displays the first target area in the first target area. It is configured to obtain decoded data of the first video image to be played, and to draw the decoded data of the first video image in a designated reproduction window for reproduction.

従って、本発明の実施形態によるビデオ再生端末は、元の再生画像を複数の対象領域に分割して、トリガイベントが発生する対象領域の画像を別に表示する。従って、一態様では、ユーザは、対象領域の中のより明確な画像の細部を観察することができ、別の態様では、ユーザは、同時に複数の対象領域の中の画像の細部を追跡することができ、これによりユーザ経験を大幅に向上させる。   Therefore, the video reproduction terminal according to the embodiment of the present invention divides the original reproduction image into a plurality of target areas and separately displays the image of the target area where the trigger event occurs. Thus, in one aspect, the user can observe clearer image details in the region of interest, and in another aspect, the user can simultaneously track image details in multiple regions of interest This greatly improves the user experience.

本発明の実施形態において、プロセッサ710は、中央処理ユニット(Central Processing Unit、略してCPU)であってもよく、かつプロセッサ710は、他の一般のプロセッサ、デジタル信号プロセッサ(digital signal processor、略してDSP)、特定用途向け集積回路(application-specific integrated circuit、略してASIC)、フィールドプログラマブルゲートアレイ(field programmable gate array、略してFPGA)、または他のプログラマブルロジックデバイス、独立したゲートまたはトランジスタロジックデバイス、独立したハードウェアコンポーネント等であってもよいことは理解されるべきである。一般のプロセッサは、マイクロプロセッサであってもよいし、または、このプロセッサは、任意の共通プロセッサ等であってもよい。   In the embodiment of the present invention, the processor 710 may be a central processing unit (CPU), and the processor 710 may be another common processor, a digital signal processor (abbreviated) DSP), application-specific integrated circuit (ASIC), field programmable gate array (FPGA), or other programmable logic devices, independent gate or transistor logic devices, It should be understood that it may be an independent hardware component or the like. The general processor may be a microprocessor, or the processor may be any common processor or the like.

メモリ720は、リードオンリーメモリおよびランダムアクセスメモリを含んでいてもよく、命令およびデータをプロセッサ710に供給する。メモリ720の一部が、不揮発性ランダムアクセスメモリを更に含んでいてもよい。例えば、メモリ720は、装置タイプ情報を更に記憶していてもよい。   Memory 720, which may include read only memory and random access memory, provides instructions and data to processor 710. A portion of memory 720 may further include non-volatile random access memory. For example, memory 720 may further store device type information.

データバスに加えて、バスシステム730は、パワーバス、制御バス、状態信号バス等を更に含んでいてもよい。しかし、説明を明確にするために、全てのバスは、図の中ではバスシステム730として示されている。   In addition to the data bus, bus system 730 may further include a power bus, a control bus, a status signal bus, and the like. However, for the sake of clarity, all the buses are shown as bus system 730 in the figure.

実施の間、前述の方法の各ステップは、プロセッサ710内のハードウェアの集積論理回路を通して、またはソフトウェア内の命令の形で実施され得る。本発明の実施形態の中で開示された方法に関するステップは、ハードウェアプロセッサによって、またはプロセッサ内のハードウェアとソフトウェアモジュールの組み合わせによって実行されるものとして直接実施され得る。ソフトウェアモジュールは、この技術において成熟した記憶媒体、例えばランダムアクセスメモリ、フラッシュメモリ、リードオンリーメモリ、プログラマブルリードオンリーメモリ、電気的に消去可能なプログラマブルメモリ、およびレジスタの中に位置し得る。記憶媒体は、メモリ720の中に位置している。プロセッサ710は、メモリ720内の情報を読み出して、そのハードウェアと連動して、方法のステップを実施する。繰り返しを避けるために、詳細を再びここで述べることはしない。   During implementation, each step of the aforementioned method may be implemented through integrated logic in hardware within processor 710 or in the form of instructions in software. The steps relating to the methods disclosed in the embodiments of the present invention may be directly implemented as being performed by a hardware processor or by a combination of hardware and software modules within the processor. The software module may be located in a storage medium mature in this technology, such as random access memory, flash memory, read only memory, programmable read only memory, electrically erasable programmable memory, and registers. A storage medium is located in memory 720. Processor 710 reads the information in memory 720 and, in conjunction with its hardware, performs the method steps. Details are not described here again to avoid repetition.

一実施形態として、オプションとして、プロセッサ710は、少なくとも2つの対象領域の中の各対象領域と、指定された再生ウィンドウとの間の対応関係を決定するように更に構成されている。プロセッサ710が、第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに描画することは、対応関係に従って、第1のビデオ画像の復号データを、再生のための第1の対象領域に対応する指定された再生ウィンドウに描画することを含む。   In one embodiment, optionally, processor 710 is further configured to determine a correspondence between each of the at least two regions of interest and the designated playback window. When the processor 710 draws the decoded data of the first video image in the specified reproduction window for reproduction, the decoded data of the first video image is reproduced according to the correspondence relationship, the first for reproducing the first video image. It includes drawing in a designated reproduction window corresponding to the target area.

一実施形態として、オプションとして、プロセッサ710が、元の再生画像を少なくとも2つの対象領域に分割することは、元の再生画像を少なくとも2つの対象領域に、等しい分割方法または自由な分割方法で分割することを含む。   In one embodiment, optionally, processor 710 dividing the original reproduced image into at least two target areas divides the original reproduced image into at least two target areas in an equal division method or a free division method. To do.

一実施形態として、オプションとして、プロセッサ710が、少なくとも2つの対象領域の中で、トリガイベントが発生する第1の対象領域を決定することは、元の再生画像の中の対象領域上でユーザによって実行されるトリガ動作を判定することを含み、トリガ動作は、クリック動作、ダブルクリック動作、または対象領域を選択する動作を含み、更に、トリガ動作が実行される対象領域を第1の対象領域として決定することを含む。   In one embodiment, optionally, the processor 710 determines a first target area in which a trigger event occurs in at least two target areas by the user on the target area in the original reproduced image. The trigger operation includes determining a trigger operation to be performed, the trigger operation includes a click operation, a double click operation, or an operation of selecting a target region, and further, the target region where the trigger operation is to be performed is set as a first target region Including deciding.

一実施形態として、オプションとして、プロセッサ710が、少なくとも2つの対象領域の中で、トリガイベントが発生する第1の対象領域を決定することは、元の再生画像の中のトリガイベント発生ポイントの座標メタデータを取得することと、座標メタデータに従って、トリガイベント発生ポイントが属する対象領域を第1の対象領域として決定することとを含む。   In one embodiment, optionally, the processor 710 determines a first target area in which a trigger event occurs in at least two target areas, the coordinates of the trigger event occurrence point in the original reproduced image. Acquiring metadata and determining a target region to which a trigger event occurrence point belongs as a first target region according to the coordinate metadata.

一実施形態として、オプションとして、プロセッサ710が、第1の対象領域の中に表示される第1のビデオ画像の復号データを取得することは、元の再生画像の復号データを取得することと、元の再生画像の復号データに従って、第1のビデオ画像の復号データを決定することとを含む。   In one embodiment, optionally, the processor 710 acquiring decoded data of a first video image displayed in the first target area comprises acquiring decoded data of an original reproduced image; And determining the decoded data of the first video image according to the decoded data of the original reproduced image.

一実施形態として、オプションとして、端末700は、第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに、ズームイン方法で描画するように更に構成されていて、指定された再生ウィンドウは、第1の対象領域より大きい。   In one embodiment, as an option, the terminal 700 is further configured to draw the decoded data of the first video image in a designated playback window for playback in a zoom-in method, the designated playback The window is larger than the first target area.

一実施形態として、オプションとして、端末700は、ディスプレイ740を更に備えている。プロセッサ710が、第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに描画することは、独立した再生ウィンドウを表示することを含み、ディスプレイ740は、第1のビデオ画像の復号データを、再生のための独立した再生ウィンドウに描画するように構成されている。   In one embodiment, optionally, terminal 700 further comprises a display 740. The processor 710 drawing the decoded data of the first video image into the designated reproduction window for reproduction includes displaying an independent reproduction window, and the display 740 displays the first video image The decoded data is configured to be drawn in a separate reproduction window for reproduction.

本発明の実施形態によるビデオ再生端末700が、本発明の実施形態におけるビデオ再生端末500または端末610に対応し得ること、および、前述および他の端末700内のモジュールの動作および/または機能が、それぞれ図1から図12Bにおける方法100から400の対応するプロセスを実行するために用いられることは理解されるべきであり、これらは、説明を簡潔にするために、ここに繰り返さない。   The video playback terminal 700 according to embodiments of the present invention may correspond to the video playback terminal 500 or terminal 610 in embodiments of the present invention, and the operations and / or functions of the modules in the aforementioned and other terminals 700, It should be understood that it will be used to carry out the corresponding processes of methods 100 to 400 in FIGS. 1 to 12B, respectively, which are not repeated here for the sake of brevity.

従って、本発明の実施形態によるビデオ再生端末は、元の再生画像を複数の対象領域に分割して、トリガイベントが発生する対象領域の画像を別に表示する。従って、一態様では、ユーザは、対象領域の中のより明確な画像の細部を観察することができ、別の態様では、ユーザは、同時に複数の対象領域の中の画像の細部を追跡することができ、これによりユーザ経験を大幅に向上させる。   Therefore, the video reproduction terminal according to the embodiment of the present invention divides the original reproduction image into a plurality of target areas and separately displays the image of the target area where the trigger event occurs. Thus, in one aspect, the user can observe clearer image details in the region of interest, and in another aspect, the user can simultaneously track image details in multiple regions of interest This greatly improves the user experience.

この明細書の中で開示された実施形態に記載されている例と組み合わせて、ユニットおよびアルゴリズムステップが、電子的ハードウェア、コンピュータソフトウェア、またはそれらの組み合わせによって実施され得ることに、当業者は気づき得る。ハードウェアとソフトウェアの間の互換性を明確に述べるために、上記では、機能に従って、各例の構成およびステップを概略説明した。機能がハードウェアによって実行されるのか、またはソフトウェアによって実行されるのかは、具体的なアプリケーションおよび技術的解決策の設計制約条件による。当業者は、異なる方法を用いて、各々の特定のアプリケーションのために、記載された機能を実施することができるが、この実施は、本発明の範囲を越えると考えるべきではない。   Those skilled in the art are aware that units and algorithmic steps may be implemented by electronic hardware, computer software, or a combination thereof, in combination with the examples described in the embodiments disclosed in this specification. obtain. In order to clearly describe the compatibility between hardware and software, the above has outlined the configuration and steps of each example according to function. Whether the functions are performed by hardware or software depends on the design constraints of the specific application and technical solution. The person skilled in the art can implement the described functions for each particular application using different methods, but this implementation should not be considered to be beyond the scope of the present invention.

便利で簡潔な説明のために、前述のシステム、装置、およびユニットの詳細な動作プロセスに対して、参照が方法の実施形態の中の対応するプロセスになされることができ、詳細が再度ここに記載されないことは、当業者によって明確に理解され得る。   For convenient and concise description, reference may be made to the corresponding process in the method embodiments to the detailed operation process of the aforementioned system, apparatus and unit, the details will again be here What is not described can be clearly understood by those skilled in the art.

本願の中で提示されているいくつかの実施形態において、開示されたシステム、装置、および方法が、他のやり方で実施され得ることは理解されるべきである。例えば、記載した装置の実施形態は、単なる例示である。例えば、ユニットの分割は、単なる論理的機能の分割であって、実際の実施においては他の分割であってもよい。例えば、複数のユニットまたは構成要素は、組み合わせることができ、または他のシステムの中に組み込むこともでき、またはいくつかの特徴を無視するかまたは実行しないこともできる。加えて、示されたか述べられた相互結合または直接結合または通信接続は、いくつかのインターフェイスを通して実施され得る。装置間またはユニット間の間接結合または通信接続は、電子的、機械的、または他の形で実施され得る。   It should be understood that, in the several embodiments presented in the present application, the disclosed system, apparatus and method may be implemented in other manners. For example, the described apparatus embodiments are merely exemplary. For example, the division of units is merely a division of logical functions and may be another division in actual implementation. For example, multiple units or components may be combined, or incorporated into other systems, or some features may be ignored or not performed. In addition, the shown or described mutually coupled or direct coupled or communication connections may be implemented through several interfaces. The indirect coupling or communication connection between the devices or units may be implemented electronically, mechanically or otherwise.

別々の部分として述べられたユニットは、物理的に別々でもよいし、そうでなくてもよい。そして、ユニットとして示された部分は、物理ユニットであってもよいし、そうでなくてもよく、1つの位置にあってもよいし、複数のネットワークユニット上に分散されていてもよい。ここでのユニットの一部または全部は、本発明の実施形態の解決策の目的を達成するための実際の必要に従って選択され得る。   The units described as separate parts may or may not be physically separate. And, a portion shown as a unit may or may not be a physical unit, may be in one position, or may be distributed over a plurality of network units. Some or all of the units here may be selected according to the actual need to achieve the purpose of the solution of the embodiments of the present invention.

加えて、本発明の実施形態における機能ユニットは、1つの処理ユニットの中に組み込まれていてもよいし、ユニットの各々が、物理的に単独で存在していてもよいし、2つ以上のユニットが、1つのユニットの中に組み込まれていてもよい。組み込まれたユニットは、ハードウェアの形で実施されてもよいし、ソフトウェア機能ユニットの形で実施されてもよい。   In addition, the functional units in the embodiments of the present invention may be incorporated into one processing unit, or each of the units may physically exist alone, or two or more. A unit may be incorporated into one unit. The incorporated unit may be implemented in the form of hardware or may be implemented in the form of a software functional unit.

組み込まれたユニットがソフトウェア機能ユニットの形で実施され、独立した製品として販売または使用される時、組み込まれたユニットは、コンピュータ可読記憶媒体に記憶され得る。このような理解に基づいて、本発明の技術的解決策は本質的に、または従来技術に関与している部分、または技術的解決策の全部または一部は、ソフトウェア製品の形で実施され得る。コンピュータソフトウェア製品は、記憶媒体に記憶され、コンピュータ装置(それは、パーソナルコンピュータ、サーバ、ネットワーク装置等であってもよい)に命令するためのいくつかの命令を含み、本発明の実施形態に記載されている方法のステップの全部または一部を実行する。前述の記憶媒体は、プログラムコードを記憶することができるいかなる媒体、例えばUSBフラッシュドライブ、リムーバブルハードディスク、リードオンリーメモリ(Read-Only Memory、略してROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、磁気ディスク、または光ディスクも含む。   When the incorporated unit is implemented in the form of a software functional unit and sold or used as a separate product, the incorporated unit may be stored on a computer readable storage medium. Based on such an understanding, the technical solution of the present invention may be implemented essentially, or a part involved in the prior art, or all or part of the technical solution in the form of a software product. . The computer software product is stored in a storage medium, includes some instructions for instructing a computer device (which may be a personal computer, a server, a network device etc.) and is described in the embodiments of the present invention Perform all or part of the method steps. The aforementioned storage medium may be any medium capable of storing program code, such as USB flash drive, removable hard disk, Read-Only Memory (ROM for short), Random Access Memory (RAM), It also includes magnetic disks or optical disks.

前述の説明は、単に本発明の具体的な実施形態に過ぎず、本発明の保護範囲を限定することを意図しているのではない。本発明の技術的範囲の中の、当業者によって直ちに理解される、いかなる等価な変形または置換も、本発明の保護範囲に入るものとする。従って、本発明の保護範囲は、請求項の保護範囲に従うものとする。   The above descriptions are merely specific embodiments of the present invention, and are not intended to limit the protection scope of the present invention. Any equivalent modification or substitution that is readily understood by those skilled in the art within the technical scope of the present invention shall fall within the protection scope of the present invention. Therefore, the protection scope of the present invention shall be in accordance with the protection scope of the claims.

500 端末
510 分割モジュール
520 第1の決定モジュール
530 取得モジュール
540 再生モジュール
600 システム
610 端末
620 ビデオキャプチャシステム
630 サーバ
640 記憶装置
500 terminal 510 division module 520 first determination module 530 acquisition module 540 reproduction module 600 system 610 terminal 620 video capture system 630 server 640 storage device

Claims (15)

ビデオ再生方法において、
元の再生画像を少なくとも2つの対象領域に分割するステップと、
前記少なくとも2つの対象領域の中で、トリガイベントが発生する第1の対象領域を決定するステップと、
前記第1の対象領域の中に表示される第1のビデオ画像の復号データを取得するステップと、
前記第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに描画するステップとを有している
ことを特徴とするビデオ再生方法。
In the video playback method,
Dividing the original reproduced image into at least two target areas;
Determining, among the at least two regions of interest, a first region of interest where a triggering event occurs;
Acquiring decoded data of a first video image to be displayed in the first target area;
And v. Drawing the decoded data of the first video image in a designated reproduction window for reproduction.
請求項1に記載の方法において、
前記少なくとも2つの対象領域の中の各対象領域と、前記指定された再生ウィンドウとの間の対応関係を決定するステップを更に有していて、
前記第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに描画するステップは、
前記対応関係に従って、第1のビデオ画像の復号データを、再生のための第1の対象領域に対応する指定された再生ウィンドウに描画するステップを有している
ことを特徴とする方法。
In the method according to claim 1,
Determining the correspondence between each of the at least two regions of interest and the designated playback window;
Drawing the decoded data of the first video image in a designated reproduction window for reproduction;
And drawing the decoded data of the first video image in a designated reproduction window corresponding to the first target area for reproduction according to the correspondence relationship.
請求項1または2に記載の方法において、前記少なくとも2つの対象領域の中で、トリガイベントが発生する第1の対象領域を決定するステップは、
元の再生画像の中の対象領域上で、ユーザによって実行されるトリガ動作を決定するステップを有していて、前記トリガ動作は、クリック動作、ダブルクリック動作、または対象領域を選択する動作を含み、
更に、前記トリガ動作が実行される対象領域を第1の対象領域として決定するステップを有している
ことを特徴とする方法。
The method according to claim 1 or 2, wherein, among the at least two target areas, the step of determining a first target area in which a trigger event occurs includes:
Determining a trigger action to be performed by the user on a target area in the original reproduction image, the trigger action includes a click action, a double click action, or an action to select a target area ,
The method may further comprise the step of determining a target area in which the trigger operation is to be performed as a first target area.
請求項1または2に記載の方法において、前記少なくとも2つの対象領域の中で、トリガイベントが発生する第1の対象領域を決定するステップは、
元の再生画像の中のトリガイベント発生ポイントの座標メタデータを取得するステップと、
前記座標メタデータに従って、前記トリガイベント発生ポイントが属する対象領域を第1の対象領域として決定するステップとを有している
ことを特徴とする方法。
The method according to claim 1 or 2, wherein, among the at least two target areas, the step of determining a first target area in which a trigger event occurs includes:
Acquiring coordinate metadata of a trigger event occurrence point in an original reproduced image;
Determining a target area to which the trigger event occurrence point belongs as a first target area according to the coordinate metadata.
請求項1から4のうちのいずれか一項に記載の方法において、前記第1の対象領域の中に表示される第1のビデオ画像の復号データを取得するステップは、
元の再生画像の復号データを取得するステップと、
前記元の再生画像の復号データに従って、前記第1のビデオ画像の復号データを決定するステップとを有している
ことを特徴とする方法。
The method according to any one of claims 1 to 4, wherein acquiring decoded data of a first video image displayed in the first target area comprises:
Obtaining decoded data of an original reproduced image;
Determining decoded data of the first video image according to decoded data of the original reproduced image.
請求項1から5のうちのいずれか一項に記載の方法において、前記第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに描画するステップは、
第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに、ズームイン方法で描画するステップを有していて、前記指定された再生ウィンドウは、前記第1の対象領域より大きい
ことを特徴とする方法。
The method according to any one of claims 1 to 5, wherein the step of drawing the decoded data of the first video image in a designated reproduction window for reproduction is:
Drawing the decoded data of the first video image in a designated reproduction window for reproduction in a zoom-in method, wherein the designated reproduction window is larger than the first target area How to feature
請求項1から6のうちのいずれか一項に記載の方法において、前記第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに描画するステップは、
独立した再生ウィンドウを表示するステップと、
第1のビデオ画像の復号データを、再生のための独立した再生ウィンドウに描画するステップとを有している
ことを特徴とする方法。
The method according to any one of claims 1 to 6, wherein the step of drawing decoded data of the first video image in a designated reproduction window for reproduction is:
Displaying a separate playback window;
Drawing the decoded data of the first video image in a separate playback window for playback.
ビデオ再生端末において、
元の再生画像を少なくとも2つの対象領域に分割するように構成された分割モジュールと、
前記分割モジュールによって選び出された少なくとも2つの対象領域の中で、トリガイベントが発生する第1の対象領域を決定するように構成された第1の決定モジュールと、 前記第1の決定モジュールによって決定された第1の対象領域の中に表示される第1のビデオ画像の復号データを取得するように構成された取得モジュールと、
前記取得モジュールによって取得された第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに描画するように構成された再生モジュールとを備えていることを特徴とするビデオ再生端末。
In the video playback terminal
A division module configured to divide the original reproduction image into at least two target areas;
Among the at least two target areas selected by the division module, a first determination module configured to determine a first target area in which a trigger event occurs; and the first determination module An acquisition module configured to acquire decoded data of a first video image to be displayed in the first target region of interest;
A video reproduction terminal comprising: a reproduction module configured to draw decoded data of the first video image acquired by the acquisition module in a reproduction window designated for reproduction.
請求項8に記載の端末において、
前記少なくとも2つの対象領域の中の各対象領域と、前記指定された再生ウィンドウとの間の対応関係を決定するように構成された第2の決定モジュールを更に備えていて、
前記再生モジュールは、前記第2の決定モジュールによって決定された対応関係に従って、前記取得モジュールによって取得された第1のビデオ画像の復号データを、再生のための第1の対象領域に対応する指定された再生ウィンドウに描画するように更に構成されている
ことを特徴とする端末。
In the terminal according to claim 8,
The system further comprises a second determination module configured to determine a correspondence between each of the at least two regions of interest and the designated playback window,
The reproduction module is specified according to the correspondence determined by the second determination module, the decoded data of the first video image acquired by the acquisition module corresponding to a first target area for reproduction. A terminal that is further configured to draw in a playback window.
請求項8または9に記載の端末において、前記第1の決定モジュールは、
元の再生画像の中の対象領域上で、ユーザによって実行されるトリガ動作を決定するように構成された第1の決定ユニットを有していて、前記トリガ動作は、クリック動作、ダブルクリック動作、または対象領域を選択する動作を含み、
更に、前記第1の決定ユニットによって決定されたトリガ動作が実行される対象領域を第1の対象領域として決定するように構成された第2の決定ユニットを有している
ことを特徴とする端末。
The terminal according to claim 8 or 9, wherein the first determination module
A first determination unit configured to determine a trigger action to be performed by the user on a target area in the original reproduction image, the trigger action comprising a click action, a double click action, Or including the action of selecting a target area,
Furthermore, a terminal characterized by comprising a second determination unit configured to determine, as a first target region, a target region in which a trigger operation determined by the first determination unit is performed. .
請求項8または9に記載の端末において、前記第1の決定モジュールは、
元の再生画像の中のトリガイベント発生ポイントの座標メタデータを取得するように構成された第1の取得ユニットと、
前記第1の取得ユニットによって取得された座標メタデータに従って、トリガイベント発生ポイントが属する対象領域を第1の対象領域として決定するように構成された第3の決定ユニットとを有している
ことを特徴とする端末。
The terminal according to claim 8 or 9, wherein the first determination module
A first acquisition unit configured to acquire coordinate metadata of a trigger event occurrence point in the original reproduced image;
And a third determination unit configured to determine a target area to which the trigger event occurrence point belongs as a first target area according to the coordinate metadata acquired by the first acquisition unit. A terminal to feature.
請求項8から11のうちのいずれか一項に記載の端末において、前記取得モジュールは、
元の再生画像の復号データを取得するように構成された第2の取得ユニットと、
前記第2の取得ユニットによって取得された元の再生画像の復号データに従って、第1のビデオ画像の復号データを決定するように構成された第3の決定ユニットとを有している
ことを特徴とする端末。
The terminal according to any one of claims 8 to 11, wherein the acquisition module
A second acquisition unit configured to acquire decoded data of an original reproduced image;
And a third determination unit configured to determine decoded data of the first video image according to the decoded data of the original reproduced image acquired by the second acquisition unit. Terminal to do.
請求項8から12のうちのいずれか一項に記載の端末において、前記再生モジュールは、第1のビデオ画像の復号データを、再生のための指定された再生ウィンドウに、ズームイン方法で描画するように更に構成されていて、前記指定された再生ウィンドウは、前記第1の対象領域より大きい
ことを特徴とする端末。
The terminal according to any one of claims 8 to 12, wherein the reproduction module draws the decoded data of the first video image in a specified reproduction window for reproduction in a zoom-in method. The terminal according to claim 1, wherein the designated reproduction window is larger than the first target area.
請求項8から13のうちのいずれか一項に記載の端末において、前記再生モジュールは、
独立した再生ウィンドウを表示するように構成された表示ユニットと、
第1のビデオ画像の復号データを、再生のための前記表示ユニットによって表示される独立した再生ウィンドウに描画するように構成された再生ユニットとを有している
ことを特徴とする端末。
The terminal according to any one of claims 8 to 13, wherein the reproduction module comprises
A display unit configured to display an independent playback window;
A terminal comprising: a playback unit configured to render decoded data of a first video image in a separate playback window displayed by the display unit for playback.
ビデオ再生システムにおいて、
請求項8から14のうちのいずれか一項に記載の端末と、
ビデオ画像をキャプチャして、このビデオ画像をエンコードすることによってメディアストリームを生成するように構成されたビデオキャプチャシステムと、
前記ビデオキャプチャシステムによって生成されたメディアストリームを取得して、このメディアストリームを前記端末に供給するように構成されたサーバと、
前記サーバによって取得されたメディアストリームを記憶するように構成された記憶装置とを備えている
ことを特徴とするビデオ再生システム。
In the video playback system
The terminal according to any one of claims 8 to 14,
A video capture system configured to capture a video image and generate a media stream by encoding the video image;
A server configured to obtain a media stream generated by the video capture system and provide the media stream to the terminal;
And a storage device configured to store the media stream acquired by the server.
JP2019017999A 2019-02-04 2019-02-04 Video playback method, terminal and system Pending JP2019110545A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019017999A JP2019110545A (en) 2019-02-04 2019-02-04 Video playback method, terminal and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019017999A JP2019110545A (en) 2019-02-04 2019-02-04 Video playback method, terminal and system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015549913A Division JP2016506167A (en) 2012-12-25 2012-12-25 Video playback method, terminal, and system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020210327A Division JP7126539B2 (en) 2020-12-18 2020-12-18 Video playback method, terminal and system

Publications (1)

Publication Number Publication Date
JP2019110545A true JP2019110545A (en) 2019-07-04

Family

ID=67180332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019017999A Pending JP2019110545A (en) 2019-02-04 2019-02-04 Video playback method, terminal and system

Country Status (1)

Country Link
JP (1) JP2019110545A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112770133A (en) * 2021-01-15 2021-05-07 上海秀天科技有限公司 Video playing system with playing area based on user operation change
CN113891145A (en) * 2021-11-12 2022-01-04 北京中联合超高清协同技术中心有限公司 Super high definition video preprocessing main visual angle roaming playing system and mobile terminal
CN113923486A (en) * 2021-11-12 2022-01-11 北京中联合超高清协同技术中心有限公司 Pre-generated multi-stream ultrahigh-definition video playing system and method
CN114265537A (en) * 2021-11-30 2022-04-01 厦门科灿信息技术有限公司 Method and equipment for displaying use mode of data center monitoring system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120341A (en) * 2002-09-26 2004-04-15 Riosu Corp:Kk Video image monitoring system
JP2008187328A (en) * 2007-01-29 2008-08-14 Sony Corp Network equipment, network system, and monitor camera system
JP2010136099A (en) * 2008-12-04 2010-06-17 Sony Corp Image processing device and method, image processing system, and image processing program
JP2010226687A (en) * 2009-02-27 2010-10-07 Sony Corp Image processing device, image processing system, camera device, image processing method, and program therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120341A (en) * 2002-09-26 2004-04-15 Riosu Corp:Kk Video image monitoring system
JP2008187328A (en) * 2007-01-29 2008-08-14 Sony Corp Network equipment, network system, and monitor camera system
JP2010136099A (en) * 2008-12-04 2010-06-17 Sony Corp Image processing device and method, image processing system, and image processing program
JP2010226687A (en) * 2009-02-27 2010-10-07 Sony Corp Image processing device, image processing system, camera device, image processing method, and program therefor

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112770133A (en) * 2021-01-15 2021-05-07 上海秀天科技有限公司 Video playing system with playing area based on user operation change
CN112770133B (en) * 2021-01-15 2022-11-01 上海秀天科技有限公司 Video playing system with playing area based on user operation change
CN113891145A (en) * 2021-11-12 2022-01-04 北京中联合超高清协同技术中心有限公司 Super high definition video preprocessing main visual angle roaming playing system and mobile terminal
CN113923486A (en) * 2021-11-12 2022-01-11 北京中联合超高清协同技术中心有限公司 Pre-generated multi-stream ultrahigh-definition video playing system and method
CN113923486B (en) * 2021-11-12 2023-11-07 北京中联合超高清协同技术中心有限公司 Pre-generated multi-stream ultra-high definition video playing system and method
CN113891145B (en) * 2021-11-12 2024-01-30 北京中联合超高清协同技术中心有限公司 Super-high definition video preprocessing main visual angle roaming playing system and mobile terminal
CN114265537A (en) * 2021-11-30 2022-04-01 厦门科灿信息技术有限公司 Method and equipment for displaying use mode of data center monitoring system

Similar Documents

Publication Publication Date Title
JP2016506167A (en) Video playback method, terminal, and system
JP2019110545A (en) Video playback method, terminal and system
CN112291627B (en) Video editing method and device, mobile terminal and storage medium
US11756587B2 (en) Masking in video stream
JP6438598B2 (en) Method and device for displaying information on a video image
JP7126539B2 (en) Video playback method, terminal and system
US11496671B2 (en) Surveillance video streams with embedded object data
CN113115095B (en) Video processing method, video processing device, electronic equipment and storage medium
WO2019041227A1 (en) Onboard vehicle safety monitoring method, system, and terminal device
WO2022017096A1 (en) Screen recording method, electronic device, and computer readable storage medium
CN108600675B (en) Channel path number expansion method, device, network video recorder and storage medium
JP4174234B2 (en) Image processing apparatus and image processing method
CN111064930B (en) Split screen display method, display terminal and storage device
CN112764853A (en) Screen projection method, equipment and system
CN111541927A (en) Video playing method and device
CN108882004B (en) Video recording method, device, equipment and storage medium
JP2009290318A (en) Image capturing apparatus and zooming adjustment method
EP3522525B1 (en) Method and apparatus for processing video playing
CN113596582A (en) Video preview method and device and electronic equipment
JP2017011498A (en) Moving image reproduction device and moving image reproduction method
US11509832B2 (en) Low light surveillance system with dual video streams
JP2008244872A (en) Image display device and program
US11736796B1 (en) Workload triggered dynamic capture in surveillance systems
US20100104004A1 (en) Video encoding for mobile devices
JP2004112105A (en) Apparatus and method for processing image, and program thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190306

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200316

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200818

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20201208