JP5207489B2 - Movie display device, computer network system, broadcast network system, mobile network system - Google Patents
Movie display device, computer network system, broadcast network system, mobile network system Download PDFInfo
- Publication number
- JP5207489B2 JP5207489B2 JP2009550377A JP2009550377A JP5207489B2 JP 5207489 B2 JP5207489 B2 JP 5207489B2 JP 2009550377 A JP2009550377 A JP 2009550377A JP 2009550377 A JP2009550377 A JP 2009550377A JP 5207489 B2 JP5207489 B2 JP 5207489B2
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- frame
- cpu
- image display
- steering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 description 109
- 230000008569 process Effects 0.000 description 108
- 238000010586 diagram Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 208000033748 Device issues Diseases 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47205—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
Abstract
Description
本発明は、動画についての技術に関する。 The present invention relates to a technique for moving images.
従来、動画の表示中に所定の操作を行うことによって何らかのアクションを起動させることができるとする装置が提案された(特許文献1参照)。
しかしながら、かかるアクションの起動は、いわゆる仕掛けであって(特許文献1の段落0003参照)、動画提供者によって予め施されたものに過ぎない。 However, the activation of such an action is a so-called device (see paragraph 0003 of Patent Document 1), and is only performed in advance by a moving image provider.
したがって、動画を見ている者などは、たとえアクションを起動させたとしても、動画提供者の期待に沿う方向へしか動画を進行させることができなかった。 Therefore, even if the person watching the moving image activates the action, the moving image can be advanced only in the direction in accordance with the expectation of the moving image provider.
そこで、本発明は、動画を見ている者などが、その動画の表示中に動画の進行について舵を切ることができる動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、及び携帯ネットワークシステムを提供することを目的とする。 Therefore, the present invention provides a moving image display device, a computer network system, a broadcast network system, and a mobile network system that enable a person watching a moving image to steer the progress of the moving image while the moving image is being displayed. For the purpose.
本発明によれば、上記課題は、次の手段により解決される。 According to the present invention, the above problem is solved by the following means.
本発明は、複数のフレームを次々と描画していくことによって動画を進行させる動画表示装置であって、動画を構成するフレームからオブジェクトを抽出し、この抽出したオブジェクトを描画することによって前記フレームを描画する第1手段と、前記第1手段により抽出したオブジェクトを2又は3以上のフレーム間で比較し、対応するオブジェクトに同一のオブジェクトIDを割り当てる第2手段と、割込要求を受け付け、該受け付けた割込要求からオブジェクトIDを特定して舵切命令として記憶する第3手段と、各フレームから抽出されたオブジェクトのうち、前記第2手段により割り当てられたオブジェクトIDが前記第3手段により舵切命令として記憶されていないオブジェクトについては、これをそのまま描画し、前記第2手段により割り当てられたオブジェクトIDが前記第3手段により舵切命令として記憶されているオブジェクトについては、これを他のオブジェクトに入れ替えて描画する第4手段と、を備え、前記オブジェクトIDは、すべてのフレームを通して一意にオブジェクトを識別する値である、ことを特徴とする動画表示装置である。
The present invention is a moving image display device for moving a moving image by drawing a plurality of frames one after another , extracting an object from a frame constituting the moving image, and drawing the extracted object to draw the frame. first means for rendering, by comparing the object extracted by the first means between two or more frames, receiving a second means for assigning the same object ID in the corresponding object, an interrupt request, the reception A third means for identifying the object ID from the interrupt request and storing it as a steering control command, and among the objects extracted from each frame, the object ID assigned by the second means is steered by the third means. the object that is not stored as instructions, which is directly drawn, the second hand By the objects that are stored as the steering switching instruction by the object ID is the third means assigned, and a fourth means for drawing interchanged with other objects, this the object ID, all frames This is a moving image display device characterized in that the value uniquely identifies an object through.
また、本発明は、上記動画表示装置を備えたコンピュータネットワークシステムである。 Moreover, this invention is a computer network system provided with the said moving image display apparatus.
また、本発明は、上記動画表示装置を備えた放送ネットワークシステムである。 Moreover, this invention is a broadcast network system provided with the said moving image display apparatus.
また、本発明は、上記動画表示装置を備えた携帯ネットワークシステムである。 Moreover, this invention is a portable network system provided with the said moving image display apparatus.
本発明によれば、舵切命令が受け付けられた場合、この舵切命令に従って、提供されたフレームに関するデータから、提供されたフレームではないフレームの描画を命じる描画命令が生成される。 According to the present invention, when a steering turn command is received, a drawing command for ordering drawing of a frame other than the provided frame is generated from data regarding the provided frame in accordance with the steering turn command.
したがって、本発明によれば、動画を見ている者などは、その動画の表示中に舵切命令を入力や送信などすることによって、動画の進行について舵を切ることができるようになる。 Therefore, according to the present invention, a person watching a moving image can steer about the progress of the moving image by inputting or transmitting a steering turn command while the moving image is displayed.
11 CPU
12 メインメモリ
13 ビデオコントローラ
14 ビデオメモリ
15 ディスプレイ
16 マウスコントローラ
17 キーボードコントローラ
18 サウンドコントローラ
19 スピーカ
20 メディアドライブ
21 ネットワークコントローラ
22 ハードディスクドライブ11 CPU
12
以下に、添付した図面を参照しつつ、本発明を実施するための最良の形態を詳細に説明する。 The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings.
[動画表示装置の動作]
まず、図1を参照しつつ、本発明の実施形態に係る動画表示装置の概略動作を説明する。図1は、本発明の実施形態に係る動画表示装置の概略動作を説明する図である。[Operation of video display device]
First, the schematic operation of the moving image display apparatus according to the embodiment of the present invention will be described with reference to FIG. FIG. 1 is a diagram for explaining the schematic operation of a moving image display apparatus according to an embodiment of the present invention.
図1において、フレーム1〜9は、動画提供者により提供された動画を構成するフレームである。動画提供者は、動画が、フレーム1〜9の順で進行することを期待しているものとする。
In FIG. 1,
ここで、実施形態に係る動画表示装置においては、このような動画を、動画提供者の期待に沿うように進行させること、すなわち、フレーム1〜9の順で進行させることもできる。
Here, in the moving image display apparatus according to the embodiment, such a moving image can be advanced in accordance with the expectations of the moving image provider, that is, in the order of
しかしながら、実施形態に係る動画表示装置においては、舵切命令によって、動画の進行について舵を切ることができるようになる。 However, in the moving image display apparatus according to the embodiment, it is possible to turn the steering of the moving image by the turn-off command.
以下、実施形態に係る動画表示装置が動画の進行について舵を切る際の動作をケース1〜3に分けて説明する。
Hereinafter, the operation when the moving image display apparatus according to the embodiment turns the rudder with respect to the progress of the moving image will be described in
(ケース1)
ケース1において、実施形態に係る動画表示装置は、フレーム2の描画までは動画提供者の期待に沿うように動画を進行させる。(Case 1)
In
しかしながら、実施形態に係る動画表示装置は、フレーム2が描画された後に舵切命令を受け付けて、動画の進行について舵を切る。
However, the moving image display apparatus according to the embodiment receives a rudder turning command after the
このため、動画は、フレーム2の後、フレーム3、4、5、6ではなく、フレーム3−1、4−1、5−1、6−1という、動画提供者が予定していなかった方向へと進行する。
Therefore, after the
これらフレーム3−1、4−1、5−1、6−1は、フレーム2の描画が終わるまでは実施形態に係る動画表示装置において存在しなかったものである。
These frames 3-1, 4-1, 5-1, and 6-1 are not present in the moving image display device according to the embodiment until the drawing of the
実施形態に係る動画表示装置は、これらフレーム3−1、4−1、5−1、6−1についての描画命令を、舵切命令に従って、フレーム3、4、5、6から生成する。
The moving image display apparatus according to the embodiment generates drawing commands for these frames 3-1, 4-1, 5-1 and 6-1 from the
そして、実施形態に係る動画表示装置は、フレーム6−1が描画された後に上記舵切命令の取消を受け付けて、フレーム7、フレーム8、フレーム9の描画を行う。このため、フレーム6−1が描画された後においては、動画の進行が、動画提供者によって予定されていた方向へと戻ることになる。
Then, the moving image display apparatus according to the embodiment draws the
(ケース2)
ケース2において、実施形態に係る動画表示装置は、上記ケース1におけるフレーム3−1の描画を行った後に、第2の舵切命令を受け付けて、動画の進行について、より一層の舵を切る。(Case 2)
In
このため、実施形態に係る動画表示装置は、フレーム4−1、5−1の描画ではなく、フレーム4、5とは画像がより一層異なるフレーム4−2、5−2の描画を行うこととなり、動画は、動画提供者によってはまったく予定されていなかった方向へと進行することとなる。
For this reason, the moving image display apparatus according to the embodiment does not draw the frames 4-1 and 5-1, but draws the frames 4-2 and 5-2 that are different from the
これらフレーム4−2、5−2も、フレーム3−1の描画が終わるまでは実施形態に係る動画表示装置において存在しなかったものである。 These frames 4-2 and 5-2 were not present in the moving image display apparatus according to the embodiment until the drawing of the frame 3-1 was completed.
実施形態に係る動画表示装置は、これらフレーム4−2、5−2についての描画命令を、第2の舵切命令に従って、フレーム4、5から生成する。
The moving image display apparatus according to the embodiment generates drawing commands for the frames 4-2 and 5-2 from the
実施形態に係る動画表示装置は、フレーム5−2が描画された後に上記第2の舵切命令の取消を受け付けて、フレーム6−1の描画を行う。このため、フレーム5−2が描画された後においては、動画の進行が、最初に受け付けた舵切命令に従った方向へと戻ることになる。 The moving image display apparatus according to the embodiment draws the frame 6-1 by accepting cancellation of the second steering turn command after the frame 5-2 is drawn. For this reason, after the drawing of the frame 5-2, the progress of the moving image returns to the direction in accordance with the steering turn command received first.
そして、実施形態に係る動画表示装置は、フレーム6−1が描画された後に最初に受け付けた舵切命令の取消を受け付けて、フレーム7、フレーム8、フレーム9の描画を行う。このため、フレーム6−1が描画された後においては、動画の進行が、動画提供者によって予定されていた方向へと戻ることになる。
Then, the moving image display apparatus according to the embodiment draws the
(ケース3)
ケース3において、実施形態に係る動画表示装置は、フレーム1の描画までは動画提供者の期待に沿うように動画を進行させる。(Case 3)
In
しかしながら、実施形態に係る動画表示装置は、フレーム1が描画された後に舵切命令を受け付けて、動画の進行について舵を切る。
However, the moving image display apparatus according to the embodiment accepts a steering turn command after the
このため、動画は、フレーム1の後、フレーム2、3、4、5、6、7、8、9ではなく、フレーム2−3、3−3、4−3、5−3、6−3、7−3、8−3、9−3という、動画提供者が予定していなかった方向へと進行する。
Therefore, after the
これらフレーム2−3〜9−3は、フレーム1の描画が終わるまでは実施形態に係る動画表示装置において存在しなかったものである。
These frames 2-3 to 9-3 did not exist in the moving image display apparatus according to the embodiment until the drawing of the
実施形態に係る動画表示装置は、これらフレーム2−3〜9−3についての描画命令も、舵切命令に従って、フレーム2〜9からそれぞれ生成する。
The moving image display apparatus according to the embodiment also generates drawing commands for the frames 2-3 to 9-3 from the
ケース3においては、受け付けられた舵切命令が取り消されないため、実施形態に係る動画表示装置は、フレーム2〜9を提供されているが(又は提供され続けているが)、これらフレーム2〜9を描画する機会がなく、動画の進行は、動画提供者によって予定されていた方向へと戻ることがない。
In
このように、実施形態に係る動画表示装置によれば、舵切命令が受け付けられた場合、この舵切命令に従って、動画提供者によって提供されたフレームに関するデータから、提供されたフレームではないフレームの描画を命じる描画命令が生成される。 Thus, according to the moving image display device according to the embodiment, when a rudder turn command is received, according to the rudder turn command, from the data regarding the frame provided by the moving image provider, a frame that is not a provided frame is displayed. A drawing command for ordering drawing is generated.
したがって、実施形態に係る動画表示装置によれば、動画を見ている者などが、その動画の表示中に舵切命令を入力や送信などして舵を切ることにより、提供された動画を、動画提供者が期待する方向とは異なる方向へ進行させることができるようになる。 Therefore, according to the moving image display apparatus according to the embodiment, a person who is watching a moving image turns the rudder by inputting or transmitting a rudder turning command while displaying the moving image, It is possible to proceed in a direction different from the direction expected by the video provider.
このように、実施形態に係る動画表示装置によれば、動画を見ている者などが、動画の表示中に舵を切ることにより、動画の進行を操ることができるようになる。 As described above, according to the moving image display device according to the embodiment, a person watching a moving image can control the progress of the moving image by turning the rudder while the moving image is displayed.
このため、実施形態に係る動画表示装置によれば、動画の進行に関する主導権を、動画提供者から動画を見ている者などへと移転させることができるようになる。 For this reason, according to the moving image display apparatus according to the embodiment, the initiative regarding the moving image can be transferred from the moving image provider to the person watching the moving image.
[動画表示装置の構成]
次に、図2を参照しつつ、本発明の実施形態に係る動画表示装置の概略構成を説明する。図2は、本発明の実施形態に係る動画表示装置の概略構成を示す図である。[Configuration of video display device]
Next, a schematic configuration of the moving image display apparatus according to the embodiment of the present invention will be described with reference to FIG. FIG. 2 is a diagram showing a schematic configuration of the moving image display apparatus according to the embodiment of the present invention.
図2に示すように、本発明の実施形態に係る動画表示装置は、CPU11と、メインメモリ12と、ビデオコントローラ13と、ビデオメモリ14と、ディスプレイ15と、マウスコントローラ16と、キーボードコントローラ17と、サウンドコントローラ18と、スピーカ19と、CDドライブやDVDドライブなどのメディアドライブ20と、ネットワークコントローラ21と、ハードディスクドライブ22と、を備えている。
As shown in FIG. 2, the moving image display apparatus according to the embodiment of the present invention includes a
本発明の実施形態に係る動画表示装置においては、CPU11が、ハードディスクドライブ22に記憶されているプログラムをメインメモリ12に読み出した上で、動画表示処理を実行する。
In the moving image display apparatus according to the embodiment of the present invention, the
本発明の実施形態においては、動画提供者から提供された動画が複数のフレームから構成されており、各フレームについてのフレームデータが、メディアドライブ20に挿入されるDVD−ROM、CD−ROM、USBメモリなどや、ハードディスクドライブ22などに格納されている。
In the embodiment of the present invention, a moving image provided by a moving image provider is composed of a plurality of frames, and the frame data for each frame is inserted into the media drive 20 as a DVD-ROM, CD-ROM, USB. It is stored in a memory or the
本発明の実施形態に係る動画表示装置においては、CPU11が、これらのデバイスに格納されている各フレームデータの全部又は一部をメインメモリ12に読み出した上で、この読み出したフレームデータの全部又は一部から描画命令を生成する。
In the moving image display apparatus according to the embodiment of the present invention, the
このようにして生成された描画命令は、各フレームの描画を命じるデータであり、CPU11からビデオコントローラ13に出力される。
The drawing command generated in this way is data for instructing drawing of each frame, and is output from the
ビデオコントローラ13は、CPU11から描画命令を入力された場合、この描画命令に従って映像信号を生成し、ビデオメモリ14に格納する。
When receiving a drawing command from the
その後、ビデオコントローラ13は、ビデオメモリ14から映像信号を読み出して、ディスプレイ15に出力する。
Thereafter, the
そして、ディスプレイ15は、ビデオコントローラ13から入力された映像信号に基づいて画面を走査することにより、フレームを画面上に描画する。
Then, the
マウスコントローラ16、キーボードコントローラ17、又はネットワークコントローラ21は、マウス(図示せず)やキーボード(図示せず)から舵切命令が入力された場合やインターネットなどのネットワーク(図示せず)から舵切命令を受信した場合、CPU11に割込要求を出力する。
The
CPU11は、マウスコントローラ16、キーボードコントローラ17、又はネットワークコントローラ21から割込要求を入力された場合、割込要求された舵切命令を読み出してメインメモリ12に格納する。
When an interrupt request is input from the
そして、CPU11は、メインメモリ12に格納された舵切命令に従って、メディアドライブ20に挿入されるDVD−ROM、CD−ROM、USBメモリなどやハードディスクドライブ22などに格納されているフレームに関するデータから、この格納されているフレームではないフレームの描画を命じる描画命令を生成し、ビデオコントローラ13に出力する。
Then, in accordance with the steering-off instruction stored in the
なお、メディアドライブ20に挿入されるDVD−ROM、CD−ROM、USBメモリなどやハードディスクドライブ22などには、サウンドデータも格納されている。
Sound data is also stored in the DVD-ROM, CD-ROM, USB memory or the
CPU11は、メディアドライブ20に挿入されるDVD−ROM、CD−ROM、USBメモリなどやハードディスクドライブ22などから、各フレームの描画と同期してスピーカ19から出力されるべきサウンドデータをメインメモリ12に読み出した上、この読み出したサウンドデータをサウンドコントローラ18に出力する。
The
[データ構造]
次に、図3を参照しつつ、CPU11が、動画表示処理において処理するデータのデータ構造を説明する。図3は、本発明の実施形態に係るデータ構造の概略を説明する図である。[data structure]
Next, the data structure of data processed by the
CPU11は、動画表示処理において、オブジェクトデータ、追跡データ、舵切命令、及び描画命令を処理するが、これらのデータのデータ構造は、図3に示す通りである。
In the moving image display process, the
(a:オブジェクトデータのデータ構造)
オブジェクトデータとは、各フレームに含まれるオブジェクトについてのデータであり、フレームデータから取得される。(A: Data structure of object data)
The object data is data about an object included in each frame, and is obtained from the frame data.
実施形態においては、このオブジェクトデータとして、オブジェクトを構成するラスタデータの基準点X座標、オブジェクトを構成するラスタデータの基準点Y座標、ラスタデータ、及びオブジェクトのエッジ座標列を用いることとする。 In the embodiment, as the object data, a reference point X coordinate of raster data constituting the object, a reference point Y coordinate of raster data constituting the object, raster data, and an edge coordinate sequence of the object are used.
図3(a)に示すように、このオブジェクトデータは、obj[n,m,0]〜obj[n,m,3]の各領域に格納される。 As shown in FIG. 3A, this object data is stored in each area of obj [n, m, 0] to obj [n, m, 3].
ここで、nは、フレームを識別するフレーム番号を示し、mは、1フレーム内でオブジェクトを区別するオブジェクト識別子を示す。 Here, n indicates a frame number for identifying a frame, and m indicates an object identifier for distinguishing objects within one frame.
たとえば、図1中のフレーム3に3つのオブジェクトが含まれていると仮定した場合、1つ目のオブジェクトについての基準点X座標、基準点Y座標、ラスタデータ、及びエッジ座標列は、それぞれobj[2,0,0]〜obj[2,0,3]に格納され、2つ目のオブジェクトについての基準点X座標、基準点Y座標、ラスタデータ、及びエッジ座標列は、それぞれobj[2,1,0]〜obj[2,1,3]に格納され、3つ目のオブジェクトについての基準点X座標、基準点Y座標、ラスタデータ、及びエッジ座標列は、それぞれobj[2,2,0]〜obj[2,2,3]に格納される。
For example, assuming that the
<基準点X座標>
基準点X座標とは、ラスタデータ上の基準点が、フレーム内において位置するX座標である。<Reference point X coordinate>
The reference point X coordinate is an X coordinate at which the reference point on the raster data is located in the frame.
<基準点Y座標>
基準点Y座標とは、ラスタデータ上の基準点が、フレーム内において位置するY座標である。<Reference point Y coordinate>
The reference point Y coordinate is the Y coordinate at which the reference point on the raster data is located in the frame.
<ラスタデータ>
ラスタデータとは、オブジェクトを構成する画像である。<Raster data>
Raster data is an image that constitutes an object.
<エッジ座標列>
エッジ座標列とは、オブジェクトの輪郭を表現する座標の集合である。<Edge coordinate sequence>
An edge coordinate sequence is a set of coordinates representing the outline of an object.
(b:追跡データのデータ構造)
追跡データとは、フレーム間におけるオブジェクトの関係を示すデータである。この追跡データは、たとえば、図1において、人物Aというオブジェクトがフレーム1とフレーム2とに含まれていた場合に、これらのオブジェクトが対応していることをCPU11に把握させるために用いられる。(B: Data structure of tracking data)
The tracking data is data indicating the relationship of objects between frames. This tracking data is used, for example, in order to make the
図3(b)に示すように、この追跡データは、track[i,0]〜track[i,N+1]の各領域に格納される。 As shown in FIG. 3B, this tracking data is stored in each area of track [i, 0] to track [i, N + 1].
ここで、iは、オブジェクトIDである。このオブジェクトIDは、すべてのフレームを通して一意にオブジェクトを識別する値である。 Here, i is an object ID. This object ID is a value that uniquely identifies an object through all frames.
たとえば、図1において、人物Aについてのオブジェクトに対して、
・オブジェクトIDとして1が割り当てられ、
・フレーム1(フレーム番号0)におけるオブジェクト識別子として3が割り当てられ、
・フレーム2(フレーム番号1)におけるオブジェクト識別子として2が割り当てられ、
・フレーム3(フレーム番号2)におけるオブジェクト識別子として8が割り当てられている場合、
track[1,0]には、人物Aについてのオブジェクトのメタ情報(たとえば「A」)が格納され、track[1,1]には3が格納され、track[1,2]には2が格納され、track[1,3]には8が格納される。For example, in FIG.
-1 is assigned as the object ID,
3 is assigned as the object identifier in frame 1 (frame number 0),
2 is assigned as the object identifier in frame 2 (frame number 1),
When 8 is assigned as the object identifier in frame 3 (frame number 2),
In track [1, 0], meta information (for example, “A”) of the object about person A is stored, in track [1, 1], 3 is stored, and in track [1, 2], 2 is stored. 8 is stored in track [1, 3].
なお、Nは、動画を構成するフレームの数であり、たとえば、CPU11が動画の表示時間をフレームレートで除することにより算出される。
N is the number of frames constituting the moving image, and is calculated, for example, by the
(c:舵切命令のデータ構造)
舵切命令は、動画の進行について舵を切ることを命ずるデータであり、より具体的には、動画表示装置が、動画提供者から提供されたフレームではないフレームの描画命令を、どのようにして生成するかを規定する命令である。(C: Data structure of rudder turning command)
The rudder turn-off command is data for instructing to turn the rudder about the progress of the moving image. More specifically, how the moving image display device issues a drawing command for a frame that is not a frame provided by the moving image provider. It is an instruction that defines whether to generate.
この舵切命令は、steering[j,0]、steering[j,1]、steering[j,2]、steering[j,3]、steering[j,4]、steering[j,5]、steering[j,6]、steering[j,7]の各領域に格納される。 The steering-off command is steering [j, 0], steering [j, 1], steering [j, 2], steering [j, 3], steering [j, 4], steering [j, 5], steering [j, 5] j, 6] and steering [j, 7].
本実施形態においては、この舵切命令として、種別、オブジェクトID、強調種別、基準点X座標、基準点Y座標、入替オブジェクトID,開始フレーム番号、終了フレーム番号が用いられるものとする。 In the present embodiment, the type, object ID, emphasis type, reference point X coordinate, reference point Y coordinate, replacement object ID, start frame number, and end frame number are used as the steering-off command.
なお、jは、舵切命令を識別する舵切命令IDである。 Note that j is a steering-off command ID for identifying a steering-off command.
<種別>
種別は、オブジェクトに対する操作の別を示す値である。実施形態においては、0がオブジェクトのエッジを強調表示すべきことを示し、1がオブジェクトを移動させるべきことを示し、2が、同一フレーム内における2つのオブジェクトを入れ替えるべきことを示し、3がオブジェクトを消去すべきことを示す。<Type>
The type is a value indicating another operation for the object. In the embodiment, 0 indicates that the edge of the object should be highlighted, 1 indicates that the object should be moved, 2 indicates that the two objects in the same frame should be interchanged, and 3 indicates the object Indicates that should be deleted.
<オブジェクトID>
ここでのオブジェクトIDとは、操作対象となるオブジェクトのオブジェクトIDである。<Object ID>
The object ID here is the object ID of the object to be operated.
<強調種別>
強調種別とは、オブジェクトのエッジに対する強調表示の別を示す値である。たとえば、0であればエッジを点滅させる、1であればエッジを青色にする、などを例として挙げることができる。<Emphasis type>
The emphasis type is a value indicating another emphasis display for the edge of the object. For example, if 0, the edge blinks, and if 1, the edge is blue.
<基準点X座標>
ここでの基準点X座標とは、操作するオブジェクトを移動させる場合における、その移動先の基準点X座標である。<Reference point X coordinate>
The reference point X coordinate here is the reference point X coordinate of the movement destination when the object to be operated is moved.
<基準点Y座標>
ここでの基準点Y座標とは、操作するオブジェクトを移動させる場合における、その移動先の基準点Y座標である。<Reference point Y coordinate>
The reference point Y coordinate here is the reference point Y coordinate of the movement destination when the object to be operated is moved.
<入替オブジェクトID>
入替オブジェクトIDとは、オブジェクトを入れ替える場合において、どのオブジェクトIDのオブジェクトと入れ替えるのかを示すデータである。<Replacement object ID>
The replacement object ID is data indicating which object ID the object is replaced with when the object is replaced.
<開始フレーム番号>
開始フレーム番号とは、舵切命令に従った描画命令の生成を開始するフレームのフレーム番号である。<Start frame number>
The start frame number is a frame number of a frame at which generation of a drawing command according to the steering command is started.
<終了フレーム番号>
終了フレーム番号とは、舵切命令に従った描画命令の生成を終了するフレームのフレーム番号である。<End frame number>
The end frame number is a frame number of a frame that finishes generating the drawing command according to the steering command.
(d:描画命令のデータ構造)
描画命令は、CPU11からビデオコントローラ13に出力されるデータである。(D: Data structure of drawing command)
The drawing command is data output from the
実施形態においては、この描画命令として、オブジェクトを構成するラスタデータの基準点X座標、オブジェクトを構成するラスタデータの基準点Y座標、ラスタデータ、オブジェクトのエッジ座標列、及び強調種別を用いることとする。 In the embodiment, the rendering command uses the reference point X coordinate of the raster data constituting the object, the reference point Y coordinate of the raster data constituting the object, the raster data, the edge coordinate sequence of the object, and the enhancement type. To do.
図3(d)に示すように、これらの描画命令は、cmd[0]〜cmd[4]の各領域に格納される。 As shown in FIG. 3D, these drawing commands are stored in each area of cmd [0] to cmd [4].
[動画表示処理]
次に、図4を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行される動画表示処理を説明する。図4は、動画表示処理の概略フローチャートである。[Movie display processing]
Next, the moving image display process executed by the
(ステップS1:初期化処理)
ステップS1において、CPU11は、変数や定数のための領域をメインメモリ12上に確保し、これら領域を確保された変数や定数に初期値を格納する初期化処理を行い、ステップS2に進む。(Step S1: Initialization process)
In step S1, the
具体的に説明すると、実施形態に係る動画表示装置は、初期化処理として、変数n、m、M、pm、PM、i、I、j、J、k、object_id、a、bの領域や、定数N、C1、C2の領域をメインメモリ12上に確保する。
More specifically, the moving image display apparatus according to the embodiment performs the initialization process using variables n, m, M, pm, PM, i, I, j, J, k, object_id, a, b, Areas of constants N, C1, and C2 are secured on the
そして、実施形態に係る動画表示装置は、変数n、m、M、pm、PM、i、I、j、J、k、object_id、a、bに0を格納し、Nにフレームの数を格納し、C1、C2に所定の閾値を格納する。
The moving image display apparatus according to the
また、実施形態に係る動画表示装置は、obj[]、track[]、steering[]、cmd[]のための領域も、メインメモリ12上に確保する。
In addition, the moving image display apparatus according to the embodiment also secures areas for obj [], track [], steering [], and cmd [] on the
(ステップS2:フレームループの開始)
ステップS2において、CPU11は、nが0以上N以下であるか否かを判定し、0以上N以下であればステップS3に進み、0以上N以下でなければ動画表示処理を終了する。(Step S2: Start of frame loop)
In step S2, the
(ステップS3:オブジェクトデータ取得処理)
ステップS3において、CPU11は、オブジェクトデータ取得処理を実行し、ステップS4に進む。オブジェクトデータ取得処理は、フレーム番号nのフレームについてのフレームデータから、そのフレームに含まれるオブジェクトについてのオブジェクトデータを取得し、obj[n,m,0]〜obj[n,m,3]に格納する処理である。(Step S3: Object data acquisition process)
In step S3, the
(ステップS4:追跡データ生成処理)
ステップS4において、CPU11は、追跡データ生成処理を実行し、ステップS5に進む。追跡データ生成処理は、フレーム番号nのフレームに含まれるオブジェクトのオブジェクト識別子mを取得し、track[i,n+1]に格納する処理である。(Step S4: Tracking data generation process)
In step S4, the
(ステップS5:現オブジェクトループの開始)
ステップS5において、CPU11は、mが0以上M以下であるか否かを判定し、0以上M以下であればステップS6に進み、0以上M以下でなければステップS8に進む。(Step S5: Start of current object loop)
In step S5, the
(ステップS6:描画命令生成出力処理)
ステップS6において、CPU11は、描画命令生成出力処理を実行し、ステップS7に進む。描画命令生成出力処理は、受け付けた舵切命令に従い、フレーム番号nのフレームに含まれるオブジェクトについてのオブジェクトデータから、フレーム番号nのフレームに含まれるオブジェクトではないオブジェクトの描画を命じる描画命令を生成し出力する処理である。(Step S6: Drawing command generation output processing)
In step S6, the
(ステップS7:現オブジェクトループの終了)
ステップS7において、CPU11は、mが0以上M以下であるか否かを判定し、0以上M以下であればステップS6に戻り、0以上M以下でなければステップS8に進む。(Step S7: End of current object loop)
In step S7, the
(ステップS8:舵切命令受付処理)
ステップS8において、CPU11は、舵切命令受付処理を実行し、ステップS9に進む。舵切命令受付処理は、舵切命令を受け付け、この受け付けた舵切命令をsteering[j,0]〜steering[j,7]に格納する処理である。(Step S8: Steering-off command reception process)
In step S <b> 8, the
(ステップS9:フレームループの終了)
ステップS9において、CPU11は、nが0以上N以下であるか否かを判定し、0以上N以下であればステップS3に戻り、0以上N以下でなければ動画表示処理を終了する。(Step S9: End of frame loop)
In step S9, the
[オブジェクトデータ取得処理]
次に、図5を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行されるオブジェクトデータ取得処理を説明する。図5は、オブジェクトデータ取得処理の概略フローチャートである。[Object data acquisition processing]
Next, object data acquisition processing executed by the
(ステップS3−1)
ステップS3−1において、CPU11は、mが0以上であるか否かを判定し、0以上であればステップS3−2に進み、0以上でなければステップS3−10に進む。(Step S3-1)
In step S3-1, the
(ステップS3−2)
ステップS3−2において、CPU11は、フレーム番号nのフレームからオブジェクトを抽出する処理を行い、ステップS3−3に進む。(Step S3-2)
In step S <b> 3-2, the
フレームからオブジェクトを抽出する処理としては、隣接する画素値の急激な変化を利用するなどのフレーム内抽出手法や、フレーム間の差分が大きい部分を取り出すなどのフレーム間抽出手法などを用いることができる。 As processing for extracting an object from a frame, an intra-frame extraction method such as using a sudden change in adjacent pixel values or an inter-frame extraction method such as extracting a portion having a large difference between frames can be used. .
(ステップS3−3)
ステップS3−3において、CPU11は、フレーム番号nのフレームからオブジェクトを抽出できたか否かを判定し、抽出できた場合はステップS3−4に進み、抽出できなかった場合はステップS3−10に進む。(Step S3-3)
In step S3-3, the
(ステップS3−4)
ステップS3−4において、CPU11は、抽出したオブジェクトを構成するラスタデータの基準点X座標を取得した上で、この取得した基準点X座標をobj[n,m,0]に格納し、ステップS3−5に進む。(Step S3-4)
In step S3-4, the
(ステップS3−5)
ステップS3−5において、CPU11は、抽出したオブジェクトを構成するラスタデータの基準点Y座標を取得した上で、この取得した基準点Y座標をobj[n,m,1]に格納し、ステップS3−6に進む。(Step S3-5)
In step S3-5, the
(ステップS3−6)
ステップS3−6において、CPU11は、抽出したオブジェクトのラスタデータを取得した上で、この取得したラスタデータをobj[n,m,2]に格納し、ステップS3−7に進む。(Step S3-6)
In step S3-6, the
(ステップS3−7)
ステップS3−7において、CPU11は、抽出したオブジェクトのエッジ座標列を算出し、ステップS3−8に進む。(Step S3-7)
In step S3-7, the
(ステップS3−8)
ステップS3−8において、CPU11は、算出したエッジ座標列をobj[n,m,3]に格納し、ステップS3−9に進む。(Step S3-8)
In step S3-8, the
(ステップS3−9)
ステップS3−9において、CPU11は、mが0以上であるか否かを判定し、0以上であればステップS3−2に戻り、0以上でなければステップS3−10に進む。(Step S3-9)
In step S3-9, the
(ステップS3−10)
ステップS3−10において、CPU11は、変数Mに格納されている値を変数PMに格納し、ステップS3−11に進む。(Step S3-10)
In step S3-10, the
(ステップS3−11)
ステップS3−11において、CPU11は、変数mに格納されている値を変数Mに格納し、オブジェクトデータ取得処理を終了する。(Step S3-11)
In step S3-11, the
[追跡データ生成処理]
次に、図6を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行される追跡データ生成処理を説明する。図6は、追跡データ生成処理の概略フローチャートである。[Tracking data generation processing]
Next, the tracking data generation process executed by the
(ステップS4−1)
ステップS4−1において、CPU11は、nが0と等しくないか否かを判定し、等しくなければステップS4−7に進み、等しければステップS4−2に進む。(Step S4-1)
In step S4-1, the
(ステップS4−2)
ステップS4−2において、CPU11は、mが0以上M以下であるか否かを判定し、mが0以上M以下であればステップS4−3に進み、mが0以上M以下でなければステップS4−6に進む。(Step S4-2)
In step S4-2, the
(ステップS4−3)
ステップS4−3において、CPU11は、変数mに格納されている値をtrack[i,1]に格納し、ステップS4−4に進む。(Step S4-3)
In step S4-3, the
(ステップS4−4)
ステップS4−4において、CPU11は、iに格納されている値に1を加算してiに格納し、ステップS4−5に進む。(Step S4-4)
In step S4-4, the
(ステップS4−5)
ステップS4−5において、CPU11は、mが0以上M以下であるか否かを判定し、mが0以上M以下であればステップS4−3に戻り、mが0以上M以下でなければステップS4−6に進む。(Step S4-5)
In step S4-5, the
(ステップS4−6)
ステップS4−6において、CPU11は、iに格納されている値から1を減算した値を変数Iに格納し、追跡データ生成処理を終了する。(Step S4-6)
In step S4-6, the
(ステップS4−7)
ステップS4−7において、CPU11は、mが0以上M以下であるか否かを判定し、mが0以上M以下であればステップS4−8に進み、mが0以上M以下でなければ追跡データ生成処理を終了する。(Step S4-7)
In step S4-7, the
(ステップS4−8)
ステップS4−8において、CPU11は、pmが0以上PM以下であるか否かを判定し、0以上PM以下であればステップS4−9に進み、0以上PM以下でなければステップS4−14に進む。(Step S4-8)
In step S4-8, the
(ステップS4−9)
ステップS4−9において、CPU11は、obj[n,m,3]とobj[n−1,pm,3]とから、第1比較値を算出し、ステップS4−10に進む。(Step S4-9)
In step S4-9, the
ここで、第1比較値は、フレーム番号nのフレームとフレーム番号n−1のフレームとの間において、エッジの形状が相似の関係にあるかどうか判定するための値として、CPU11により算出される。
Here, the first comparison value is calculated by the
この第1比較値としては、対応する辺の長さや角についての比率や差分などを用いることができる。このような比率や差分は、obj[n,m,3]に格納されているエッジ座標列とobj[n−1,pm,3]に格納されている値とを用いて算出される。 As the first comparison value, the ratio or difference of the corresponding side length or corner can be used. Such ratios and differences are calculated using the edge coordinate sequence stored in obj [n, m, 3] and the value stored in obj [n-1, pm, 3].
なお、上記のように、第1比較値は、隣接する2つのフレーム間から算出することが好ましい。しかしながら、本発明においては、第1比較値を、隣接しない2つのフレーム間や、3つ以上のフレーム間から算出することなどもできる。 As described above, the first comparison value is preferably calculated from between two adjacent frames. However, in the present invention, the first comparison value can also be calculated between two non-adjacent frames or between three or more frames.
(ステップS4−10)
ステップS4−10において、CPU11は、算出した第1比較値が定数C1に格納されている値よりも小さいか否かを判定し、小さければステップS4−11に進み、小さくなければステップS4−13に進む。(Step S4-10)
In step S4-10, the
ここで、定数C1には、比較する2つのオブジェクトの対応・非対応を判定する基準となる閾値が格納される。 Here, the constant C1 stores a threshold value serving as a reference for determining the correspondence / non-correspondence between two objects to be compared.
(ステップS4−11)
ステップS4−11において、CPU11は、obj[n,m,2]とobj[n−1,pm,2]とから、第2比較値を算出し、ステップS4−12に進む。(Step S4-11)
In step S4-11, the
ここで、第2比較値は、フレーム番号nのフレームとフレーム番号n−1のフレームとの間において、ラスタデータが類似の関係にあるかどうか判定するための値として、CPU11により算出される。
Here, the second comparison value is calculated by the
この第2比較値としては、obj[n,m,2]に格納されているラスタデータとobj[n−1,pm,2]に格納されているラスタデータとをそれぞれ展開した場合における、対応する画素の等価割合などを用いることができる。 The second comparison value corresponds to a case where raster data stored in obj [n, m, 2] and raster data stored in obj [n−1, pm, 2] are expanded. An equivalent ratio of pixels to be used can be used.
なお、上記のように、第2比較値は、隣接する2つのフレーム間から算出することが好ましい。しかしながら、本発明においては、第2比較値を、隣接しない2つのフレーム間や、3つ以上のフレーム間から算出することなどもできる。 As described above, the second comparison value is preferably calculated from between two adjacent frames. However, in the present invention, the second comparison value can be calculated between two non-adjacent frames or between three or more frames.
(ステップS4−12)
ステップS4−12において、CPU11は、算出した第2比較値が定数C2よりも小さいか否かを判定し、小さければステップS4−14に進み、小さくなければステップS4−13に進む。(Step S4-12)
In step S4-12, the
ここで、定数C2には、比較する2つのオブジェクトの対応・非対応を判定する基準となる閾値が格納される。 Here, the constant C2 stores a threshold value serving as a reference for determining the correspondence / non-correspondence between the two objects to be compared.
(ステップS4−13)
ステップS4−13において、CPU11は、pmが0以上PM以下であるか否かを判定し、0以上PM以下であればステップS4−9に戻り、0以上PM以下でなければステップS4−14に進む。(Step S4-13)
In step S4-13, the
(ステップS4−14)
ステップS4−14において、CPU11は、iが0以上I以下であるか否かを判定し、0以上I以下であればステップS4−15に進み、0以上I以下でなければステップS4−18に進む。(Step S4-14)
In step S4-14, the
(ステップS4−15)
ステップS4−15において、CPU11は、track[i,n]に格納されている値が、pmに格納されている値に等しいか否かを判定し、等しければステップS4−17に進み、等しくなければステップS4−16に進む。(Step S4-15)
In step S4-15, the
(ステップS4−16)
ステップS4−16において、CPU11は、変数iが0以上I以下であるか否かを判定し、0以上I以下であればステップS4−15に戻り、0以上I以下でなければステップS4−18に進む。(Step S4-16)
In step S4-16, the
(ステップS4−17)
ステップS4−17において、CPU11は、mに格納されている値をtrack[i,n+1]に格納し、ステップS4−20に進む。(Step S4-17)
In step S4-17, the
(ステップS4−18)
ステップS4−18において、CPU11は、変数Iに格納されている値に1を加算して変数Iに格納し、ステップS4−19に進む。(Step S4-18)
In step S4-18, the
(ステップS4−19)
ステップS4−19において、CPU11は、mに格納されている値をtrack[I,n+1]に格納し、ステップS4−20に進む。(Step S4-19)
In step S4-19, the
(ステップS4−20)
ステップS4−20において、CPU11は、mが0以上M以下であるか否かを判定し、0以上M以下であればステップS4−8に戻り、0以上M以下でなければ追跡データ生成処理を終了する。(Step S4-20)
In step S4-20, the
[描画命令生成出力処理]
次に、図7を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行される描画命令生成出力処理について説明する。図7は、描画命令生成出力処理の概略フローチャートである。[Drawing command generation output processing]
Next, a drawing command generation / output process executed by the
(ステップS6−1)
ステップS6−1において、CPU11は、iが0以上I以下であるか否かを判定し、0以上I以下であればステップS6−2に進み、0以上I以下でなければステップS6−5に進む。(Step S6-1)
In step S6-1, the
(ステップS6−2)
ステップS6−2において、CPU11は、track[i,n+1]に格納されている値が、mに格納されている値と等しいか否かを判定し、等しければステップS6−3に進み、等しくなければステップS6−4に進む。(Step S6-2)
In step S6-2, the
(ステップS6−3)
ステップS6−3において、CPU11は、変数iに格納されている値を変数object_idに格納し、ステップS6−5に進む。(Step S6-3)
In step S6-3, the
(ステップS6−4)
ステップS6−4において、CPU11は、iが0以上I以下であるか否かを判定し、0以上I以下であればステップS6−2に戻り、0以上I以下でなければステップS6−5に進む。(Step S6-4)
In step S6-4, the
(ステップS6−5)
ステップS6−5において、CPU11は、描画命令生成処理を実行し、ステップS6−6に進む。(Step S6-5)
In step S6-5, the
(ステップS6−6)
ステップS6−6において、CPU11は、生成した描画命令をビデオコントローラ13に出力し、描画命令生成出力処理を終了する。(Step S6-6)
In step S6-6, the
(描画命令生成処理)
次に、図8を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行される描画命令生成処理を説明する。図8は、描画命令生成処理の概略フローチャートである。(Drawing command generation process)
Next, a drawing command generation process executed by the
(ステップS6−5−1)
ステップS6−5−1において、CPU11は、kが0以上3以下であるか否かを判定し、0以上3以下であればステップS6−5−2に進み、0以上3以下でなければステップS6−5−4に進む。(Step S6-5-1)
In step S6-5-1, the
(ステップS6−5−2)
ステップS6−5−2において、CPU11は、obj[n,m,k]に格納されている値をcmd[k]に格納し、ステップS6−5−3に進む。(Step S6-5-2)
In step S6-5-2, the
(ステップS6−5−3)
ステップS6−5−3において、CPU11は、kが0以上3以下であるか否かを判定し、0以上3以下であればステップS6−5−2に戻り、0以上3以下でなければステップS6−5−4に進む。(Step S6-5-3)
In step S6-5-3, the
(ステップS6−5−4)
ステップS6−5−4において、CPU11は、cmd[4]に0を格納し、ステップS6−5−5に進む。(Step S6-5-4)
In step S6-5-4, the
(ステップS6−5−5)
ステップS6−5−5において、CPU11は、jが0以上J以下であるか否かを判定し、0以上J以下であればステップS6−5−6に進み、0以上J以下でなければ描画命令生成処理を終了する。(Step S6-5-5)
In step S6-5-5, the
(ステップS6−5−6)
ステップS6−5−6において、CPU11は、steering[j,1]に格納されている値がobject_idに格納されている値と等しいか否かを判定し、等しければステップS6−5−7に進み、等しくなければステップS6−5−19に進む。(Step S6-5-6)
In step S6-5-6, the
(ステップS6−5−7)
ステップS6−5−7において、CPU11は、変数nに格納されている値がsteering[j,7]に格納されている値よりも大きいか否かを判定し、大きければステップS6−5−19に進み、大きくなければステップS6−5−8に進む。(Step S6-5-7)
In step S6-5-7, the
(ステップS6−5−8)
ステップS6−5−8において、CPU11は、steering[j,0]に格納されている値が0に等しいか否かを判定し、等しければステップS6−5−9に進み、等しくなければステップS6−5−10に進む。(Step S6-5-8)
In step S6-5-8, the
(ステップS6−5−9)
ステップS6−5−9において、CPU11は、steering[j,2]に格納されている値をcmd[4]に格納し、ステップS6−5−19に進む。(Step S6-5-9)
In step S6-5-9, the
(ステップS6−5−10)
ステップS6−5−10において、CPU11は、steering[j,0]に格納されている値が1に等しいか否かを判定し、等しければステップS6−5−11に進み、等しくなければステップS6−5−13に進む。(Step S6-5-10)
In step S6-5-10, the
(ステップS6−5−11)
ステップS6−5−11において、CPU11は、steering[j,3]に格納されている値をcmd[0]に格納し、ステップS6−5−12に進む。(Step S6-5-11)
In step S6-5-11, the
(ステップS6−5−12)
ステップS6−5−12において、CPU11は、steering[j,4]に格納されている値をcmd[1]に格納し、ステップS6−5−19に進む。(Step S6-5-12)
In step S6-5-12, the
(ステップS6−5−13)
ステップS6−5−13において、CPU11は、steering[j,0]に格納されている値が2に等しいか否かを判定し、等しければステップS6−5−14に進み、等しくなければステップS6−5−17に進む。(Step S6-5-13)
In step S6-5-13, the
(ステップS6−5−14)
ステップS6−5−14において、CPU11は、steering[j,5]に格納されている値を変数aに格納し、ステップS6−5−15に進む。(Step S6-5-14)
In step S6-5-14, the
(ステップS6−5−15)
ステップS6−5−15において、CPU11は、track[a,n+1]に格納されている値を変数bに格納し、ステップS6−5−16に進む。(Step S6-5-15)
In step S6-5-15, the
(ステップS6−5−16)
ステップS6−5−16において、CPU11は、obj[n,b,2]に格納されている値をcmd[2]に格納し、ステップS6−5−19に進む。(Step S6-5-16)
In step S6-5-16, the
(ステップS6−5−17)
ステップS6−5−17において、CPU11は、steering[j,0]に格納されている値が3に等しいか否かを判定し、等しければステップS6−5−18に進み、等しくなければステップS6−5−19に進む。(Step S6-5-17)
In step S6-5-17, the
(ステップS6−5−18)
ステップS6−5−18において、CPU11は、cmd[2]に0を格納し、ステップS6−5−19に進む。(Step S6-5-18)
In step S6-5-18, the
(ステップS6−5−19)
ステップS6−5−19において、CPU11は、変数jが0以上J以下であるか否かを判定し、0以上J以下であればステップS6−5−6に戻り、0以上J以下でなければ描画命令生成処理を終了する。(Step S6-5-19)
In step S6-5-19, the
[舵切命令受付処理]
次に、図9を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行される舵切命令受付処理を説明する。図9は、舵切命令受付処理の概略フローチャートである。[Steering-off command acceptance processing]
Next, a steering instruction receiving process executed by the
(ステップS8−1)
ステップS8−1において、CPU11は、マウスコントローラ16、キーボードコントローラ17、又はネットワークコントローラ21から、割込要求が出力されているか否かを判定し、出力されていればステップS8−2に進み、出力されていなければ舵切命令受付処理を終了する。(Step S8-1)
In step S8-1, the
(ステップS8−2)
ステップS8−2において、CPU11は、マウスコントローラ16、キーボードコントローラ17、又はネットワークコントローラ21から割込要求されたデータを読み出し、ステップS8−3に進む。なお、実施形態に係る動画表示装置において、割込要求されるデータは、座標又は舵切命令である。(Step S8-2)
In step S8-2, the
(ステップS8−3)
ステップS8−3において、CPU11は、読み出したデータが座標であるか否かを判定し、座標であればステップS8−4に進み、座標でなければステップS8−15に進む。(Step S8-3)
In step S8-3, the
(ステップS8−4)
ステップS8−4において、CPU11は、mが0以上M以下であるか否かを判定し、0以上M以下であればステップS8−5に進み、0以上M以下でなければステップS8−7に進む。(Step S8-4)
In step S8-4, the
(ステップS8−5)
ステップS8−5において、CPU11は、受け付けた座標が、obj[n,m,3]で示されるエッジ内に収まるか否かを判定し、収まる場合はステップS8−7に進み、収まらない場合はステップS8−6に進む。(Step S8-5)
In step S8-5, the
(ステップS8−6)
ステップS8−6において、CPU11は、mが0以上M以下であるか否かを判定し、0以上M以下であればステップS8−5に戻り、0以上M以下でなければステップS8−7に進む。(Step S8-6)
In step S8-6, the
(ステップS8−7)
ステップS8−7において、CPU11は、iが0以上I以下であるか否かを判定し、0以上I以下であればステップS8−8に進み、0以上I以下でなければステップS8−11に進む。(Step S8-7)
In step S8-7, the
(ステップS8−8)
ステップS8−8において、CPU11は、track[i,n+1]に格納されている値が変数mに格納されている値に等しいか否かを判定し、等しい場合はステップS8−10に進み、等しくなければステップS8−9に進む。(Step S8-8)
In step S8-8, the
(ステップS8−9)
ステップS8−9において、CPU11は、iが0以上I以下であるか否かを判定し、0以上I以下であればステップS8−8に戻り、0以上I以下でなければステップS8−11に進む。(Step S8-9)
In step S8-9, the
(ステップS8−10)
ステップS8−10において、CPU11は、変数iに格納されている値をobject_idに格納し、ステップS8−11に進む。(Step S8-10)
In step S8-10, the
(ステップS8−11)
ステップS8−11において、CPU11は、変数jが0以上J以下であるか否かを判定し、0以上J以下であればステップS8−12に進み、0以上J以下でなければ舵切命令受付処理を終了する。(Step S8-11)
In step S8-11, the
(ステップS8−12)
ステップS8−12において、CPU11は、steering[j,1]に格納されている値が、object_idに格納されている値と等しいか否かを判定し、等しければステップS8−14に進み、等しくなければステップS8−13に進む。(Step S8-12)
In step S8-12, the
(ステップS8−13)
ステップS8−13において、CPU11は、舵切命令IDとsteering[j,0]とsteering[j,1]との描画を命じる描画命令を出力し、ステップS8−14に進む。(Step S8-13)
In step S8-13, the
(ステップS8−14)
ステップS8−14において、CPU11は、変数jが0以上J以下であるか否かを判定し、0以上J以下であればステップS8−12に戻り、0以上J以下でなければ舵切命令受付処理を終了する。(Step S8-14)
In step S8-14, the
(ステップS8−15)
ステップS8−15において、CPU11は、舵切命令IDを変数jに格納し、ステップS8−16に進む。(Step S8-15)
In step S8-15, the
(ステップS8−16)
ステップS8−16において、CPU11は、変数jに格納されている値がNULLであるか否かを判定し、NULLであればステップS8−17に進み、NULLでなければステップS8−19に進む。(Step S8-16)
In step S8-16, the
(ステップS8−17)
ステップS8−17において、CPU11は、変数Jに格納されている値に1を加算して変数Jに格納し、ステップS8−18に進む。(Step S8-17)
In step S8-17, the
(ステップS8−18)
ステップS8−18において、CPU11は、変数Jに格納されている値を変数jに格納し、ステップS8−19に進む。(Step S8-18)
In step S8-18, the
(ステップS8−19)
ステップS8−19において、CPU11は、steering[j,0]〜steering[j,7]の全部又は一部に対する格納処理を実行し、舵切命令受付処理を終了する。(Step S8-19)
In step S8-19, the
以上、実施形態に係る動画表示装置について説明を行ったが、実施形態に係る動画表示装置においてオブジェクトを移動や消去などした際には、移動元の箇所又は消去した箇所の背景を予測して補完しておくことが好ましい。このような背景の予測は、たとえば、複数のフレームを比較することにより行うことができる。 As described above, the moving image display device according to the embodiment has been described. However, when an object is moved or deleted in the moving image display device according to the embodiment, the background of the movement source portion or the deleted portion is predicted and complemented. It is preferable to keep it. Such background prediction can be performed, for example, by comparing a plurality of frames.
なお、上記した実施形態に係る動画表示装置は、動画の表示中に、各オブジェクトのメタ情報を受け付けることができる。受け付けられたメタ情報は、track[i,0]に格納される。 In addition, the moving image display apparatus according to the above-described embodiment can accept meta information of each object during display of the moving image. The accepted meta information is stored in track [i, 0].
次に、図10を参照しつつ、本発明の実施例に係る動画表示装置を説明する。図10は、本発明の実施例に係る動画表示装置を示す図である。 Next, a moving image display apparatus according to an embodiment of the present invention will be described with reference to FIG. FIG. 10 is a diagram illustrating a moving image display apparatus according to an embodiment of the present invention.
実施例において、動画提供者は、Normalの方向に動画が進行することを期待しているものとする。 In the embodiment, it is assumed that the moving image provider expects the moving image to proceed in the normal direction.
しかしながら、実施例に係る動画表示装置においては、消去、移動、入替という舵切命令によって、動画提供者が予期していなかった方向へと動画が進行する。 However, in the moving image display apparatus according to the embodiment, the moving image proceeds in a direction that the moving image provider did not expect by the steering command such as erasure, movement, and replacement.
図10で示すように、消去の舵切命令が受け付けられた場合にはEraseの方向へと動画が進行し、移動の舵切命令が受け付けられた場合にはMoveの方向へと動画が進行し、入替の舵切命令が受け付けられた場合には、Switchの方向へと動画が進行する。 As shown in FIG. 10, when an erasure steering command is accepted, the video proceeds in the direction of Erase, and when a movement steering command is accepted, the video proceeds in the Move direction. When the turn-off instruction for replacement is accepted, the moving image proceeds in the direction of Switch.
図10において、5番目のフレームを比較すれば明らかなように、Eraseの方向、Moveの方向、Switchの方向への動画の進行は、Normalの方向への動画の進行を期待した動画提供者にとって、想定や準備などされていなかったものである。 In FIG. 10, as is clear from the comparison of the fifth frame, the progress of the moving image in the Erase direction, the Move direction, and the Switch direction is for the video provider who expected the moving image in the Normal direction. It was something that was not supposed or prepared.
以上、本発明の実施形態及び実施例について説明したが、これらの説明は、本発明の一例に関するものであり、本発明は、これらの説明によって何ら限定されない。 As mentioned above, although embodiment and the Example of this invention were described, these description is related to an example of this invention, and this invention is not limited at all by these description.
[提供されたフレーム]
本発明において、「提供されたフレーム」とは、入力手段や受信手段などを介して動画表示装置に取り込まれたフレームを意味する。[Provided frame]
In the present invention, “provided frame” means a frame taken into the moving image display device via an input means, a receiving means, or the like.
ここで、入力手段とは、フレームを入力することが可能なすべての手段を意味し、上記したメディアドライブは、この入力手段の一例である。 Here, the input means means all means capable of inputting a frame, and the media drive described above is an example of this input means.
また、受信手段とは、フレームを受信することが可能なすべての手段を意味し、上記したネットワークコントローラは、この受信手段の一例である。 The receiving means means all means capable of receiving a frame, and the network controller described above is an example of the receiving means.
「フレーム」、「フレームデータ」
「フレーム」とは、1画面(1コマ)を構成する画像であり、「フレームデータ」には、この画像(例:ラスタデータ)とこの画像に関するデータとが含まれる。"Frame", "Frame data"
A “frame” is an image constituting one screen (one frame), and “frame data” includes this image (eg, raster data) and data related to this image.
「オブジェクト」、「オブジェクトデータ」
「オブジェクト」とは、フレームの一部を構成する画像、すなわち、1画面(1コマ)の一部を構成する画像であり、「オブジェクトデータ」には、この画像(例:ラスタデータ)とこの画像に関するデータとが含まれる。"Object", "Object data"
An “object” is an image constituting a part of a frame, that is, an image constituting a part of one screen (one frame), and “object data” includes this image (eg, raster data) and this Data about the image.
1つのフレームは、2つ以上のオブジェクトから構成される。 One frame is composed of two or more objects.
[舵切命令受付手段]
本発明において、「舵切命令受付手段」とは、動画の表示中に舵切命令を受け付けることができるすべての手段を意味し、たとえば、上記したマウスコントローラやキーボードコントローラやネットワークコントローラなどは、舵切命令受付手段の一例である。[Steering-off command acceptance means]
In the present invention, the “steering-off instruction receiving means” means all means that can receive a steering-off instruction during the display of a moving image. For example, the above-described mouse controller, keyboard controller, network controller, etc. It is an example of a cut command reception means.
[舵切命令の受付]
本発明において、舵切命令を「受け付ける」とは、舵切命令が入力又は受信などされることをいう。[Reception of rudder turning order]
In the present invention, “accepting” a rudder turning command means that the rudder turning command is input or received.
[描画命令生成手段]
本発明において「描画命令生成手段」とは、描画命令を生成することができるすべての手段を意味する。上記した実施形態においては、CPUを描画命令生成手段の一例として説明したが、本発明においては、たとえばビデオコントローラなども、描画命令生成手段として用いることができる。[Drawing command generation means]
In the present invention, the “drawing command generation means” means all means capable of generating a drawing command. In the above-described embodiment, the CPU has been described as an example of the drawing command generation unit. However, in the present invention, for example, a video controller or the like can also be used as the drawing command generation unit.
[フレームに関するデータ]
「フレームに関するデータ」としては、フレームデータ及び/又はオブジェクトデータなどを用いることができる。[Frame data]
As “data relating to a frame”, frame data and / or object data can be used.
[フレームの描画を命じる描画命令]
「フレームの描画を命じる描画命令」には、「1つのフレームの全部の描画を命じる描画命令」及び/又は「1つのフレームの一部(すなわち「オブジェクト」)の描画を命じる描画命令」が含まれる。[Drawing command to draw frame]
The “drawing command for ordering drawing of a frame” includes a “drawing command for ordering drawing of all of one frame” and / or a “drawing command for ordering drawing of a part of one frame (ie,“ object ”)”. It is.
[提供されたフレームではない]
「提供されたフレームではない」とは、[フレームの描画を命じる描画命令]が「1つのフレームの全部の描画を命じる描画命令」とされる場合においては、この「1つのフレーム」が「提供されたフレーム」の1つと完全には一致しないことをいい、[フレームの描画を命じる描画命令]が「1つのフレームの一部(すなわち「オブジェクト」)の描画を命じる描画命令」とされる場合においては、この「1つのフレームの一部(すなわち「オブジェクト」)」が「提供されたフレームの一部(すなわち「オブジェクト」)」の1つと完全には一致しないことをいう。[Not the provided frame]
“It is not a provided frame” means that “one frame” is “provided” when “drawing command for drawing a frame” is set as “drawing command for drawing all of one frame”. This means that it does not completely match one of the “framed frames”, and the “drawing command for drawing a frame” is set as “a drawing command for drawing a part of one frame (ie,“ object ”)” In this case, this “part of one frame (ie,“ object ”)” does not completely match one of “part of provided frame (ie,“ object ”)”.
[動画表示装置]
上記した実施形態においては、パーソナルコンピュータを「動画表示装置」の一例として想定し説明を行ったが、本発明における「動画表示装置」は、何らパーソナルコンピュータに限定されるものではない。本発明における「動画表示装置」には、動画を表示することができるすべての装置が含まれ、たとえば、Television(TV)や携帯端末などのほか、描画命令生成手段を内蔵したプロジェクタなども含まれる。[Movie display device]
In the above-described embodiment, the description has been made assuming that the personal computer is an example of the “moving image display device”, but the “moving image display device” in the present invention is not limited to the personal computer. The “moving image display device” in the present invention includes all devices capable of displaying a moving image, and includes, for example, a television (television) (TV), a portable terminal, and a projector with a built-in drawing command generation means. .
[動画]
本発明において「動画」とは、画面上で画像が動くすべてのデータを意味し、映画やアニメーションなどのほか、放送番組やライブ映像なども、本発明における「動画」に該当する。[Video]
In the present invention, “moving image” means all data in which images move on the screen, and in addition to movies and animations, broadcast programs and live images also correspond to “moving images” in the present invention.
[ネットワーク]
本発明におけるネットワークは、インターネットに限られるものではなく、データが送信、受信、又は送受信されるすべてのネットワークが含まれる。[network]
The network in the present invention is not limited to the Internet, and includes all networks in which data is transmitted, received, or transmitted / received.
本発明には、実施形態に係る動画表示装置が備える各手段がネットワーク上に分散している形態も含まれ、このような場合においても、そのネットワークは、動画表示装置を備えているとする。 The present invention includes a mode in which the units included in the moving image display apparatus according to the embodiment are distributed on the network. In such a case, the network includes the moving image display apparatus.
本発明には、スタンドアロンとして使用される動画表示装置のほか、動画表示装置を備えたネットワークも含まれる。このネットワークには、コンピュータネットワークのほか、番組やCMなどが放送される放送ネットワークや、携帯端末間又は携帯端末と固定端末との間でデータの送信、受信又は送受信が行われる携帯ネットワークも含まれる。 The present invention includes not only a moving image display device used as a stand-alone but also a network including the moving image display device. This network includes, in addition to a computer network, a broadcast network for broadcasting programs and CMs, and a mobile network in which data is transmitted, received, or transmitted / received between mobile terminals or between a mobile terminal and a fixed terminal. .
Claims (4)
動画を構成するフレームからオブジェクトを抽出し、この抽出したオブジェクトを描画することによって前記フレームを描画する第1手段と、
前記第1手段により抽出したオブジェクトを2又は3以上のフレーム間で比較し、対応するオブジェクトに同一のオブジェクトIDを割り当てる第2手段と、
割込要求を受け付け、該受け付けた割込要求からオブジェクトIDを特定して舵切命令として記憶する第3手段と、
各フレームから抽出されたオブジェクトのうち、前記第2手段により割り当てられたオブジェクトIDが前記第3手段により舵切命令として記憶されていないオブジェクトについては、これをそのまま描画し、前記第2手段により割り当てられたオブジェクトIDが前記第3手段により舵切命令として記憶されているオブジェクトについては、これを他のオブジェクトに入れ替えて描画する第4手段と、
を備え、
前記オブジェクトIDは、すべてのフレームを通して一意にオブジェクトを識別する値である、
ことを特徴とする動画表示装置。 A video display device that advances a video by drawing a plurality of frames one after another ,
A first means for drawing the frame by extracting an object from a frame constituting the moving image and drawing the extracted object;
The object extracted by the first means and compared between two or more frames, and a second means for assigning the same object ID in the corresponding object,
A third means for receiving an interrupt request, specifying an object ID from the received interrupt request and storing it as a steering command;
Among the objects extracted from each frame, for an object whose object ID assigned by the second means is not stored as a steering command by the third means, it is drawn as it is and assigned by the second means. For an object whose object ID is stored as a steering command by the third means, a fourth means for drawing by replacing this with another object;
With
The object ID is a value that uniquely identifies an object through all frames.
A moving image display device characterized by that .
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2008/000088 WO2009093287A1 (en) | 2008-01-25 | 2008-01-25 | Moving image display, computer network system, broadcast network system, and portable network system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2009093287A1 JPWO2009093287A1 (en) | 2011-05-26 |
JP5207489B2 true JP5207489B2 (en) | 2013-06-12 |
Family
ID=40900808
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009550377A Active JP5207489B2 (en) | 2008-01-25 | 2008-01-25 | Movie display device, computer network system, broadcast network system, mobile network system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5207489B2 (en) |
WO (1) | WO2009093287A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09219836A (en) * | 1996-02-14 | 1997-08-19 | Matsushita Electric Ind Co Ltd | Image information recording method and image compositing device |
JP2002279443A (en) * | 2001-03-16 | 2002-09-27 | Minolta Co Ltd | Image reproducing device, tv broadcast system, image transmitter, and image data transmitting method |
JP2007072520A (en) * | 2005-09-02 | 2007-03-22 | Sony Corp | Video processor |
JP2007280069A (en) * | 2006-04-06 | 2007-10-25 | Toshiba Corp | Video processing system and video processing method |
JP2007281858A (en) * | 2006-04-06 | 2007-10-25 | Omron Corp | Animation editing device |
-
2008
- 2008-01-25 WO PCT/JP2008/000088 patent/WO2009093287A1/en active Application Filing
- 2008-01-25 JP JP2009550377A patent/JP5207489B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09219836A (en) * | 1996-02-14 | 1997-08-19 | Matsushita Electric Ind Co Ltd | Image information recording method and image compositing device |
JP2002279443A (en) * | 2001-03-16 | 2002-09-27 | Minolta Co Ltd | Image reproducing device, tv broadcast system, image transmitter, and image data transmitting method |
JP2007072520A (en) * | 2005-09-02 | 2007-03-22 | Sony Corp | Video processor |
JP2007280069A (en) * | 2006-04-06 | 2007-10-25 | Toshiba Corp | Video processing system and video processing method |
JP2007281858A (en) * | 2006-04-06 | 2007-10-25 | Omron Corp | Animation editing device |
Also Published As
Publication number | Publication date |
---|---|
WO2009093287A1 (en) | 2009-07-30 |
JPWO2009093287A1 (en) | 2011-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10225613B2 (en) | Method and apparatus for video playing processing and television | |
CN110401866B (en) | Live video display method, device, terminal and storage medium | |
US7019750B2 (en) | Display status modifying apparatus and method, display status modifying program and storage medium storing the same, picture providing apparatus and method, picture providing program and storage medium storing the same, and picture providing system | |
CN113423012B (en) | Video processing method, server, and computer-readable storage medium | |
CN113010075B (en) | Multi-signal source window interaction method and system, readable storage medium and electronic device | |
JP5207489B2 (en) | Movie display device, computer network system, broadcast network system, mobile network system | |
CN113438436B (en) | Video playing method, video conference method, live broadcast method and related equipment | |
CN115776585A (en) | Display device and content presentation method | |
CN112269886B (en) | Shared image acquisition method, window sharing method and shared image acquisition device | |
CN111885417B (en) | VR video playing method, device, equipment and storage medium | |
CN115033226A (en) | Page display method and device, terminal equipment and computer readable storage medium | |
CN114745555A (en) | Motion estimation method of video image and display equipment | |
JP5042965B2 (en) | Presentation image presentation system, presentation method, presentation program, and recording medium therefor | |
US20070098277A1 (en) | Transmitting apparatus, image processing system, image processing method, program, and recording medium | |
JP3152556B2 (en) | Method for converting a two-dimensional image to a three-dimensional image | |
CN114360453B (en) | Noise removing method and device, display equipment, chip and medium | |
JP2008259175A (en) | Recording apparatus and program for recording apparatus | |
JP2013090102A (en) | Distribution system | |
JP2006101236A (en) | Moving video image editing system | |
JP5180667B2 (en) | Image processing apparatus and image processing method | |
CN115955594A (en) | Image processing method and device | |
CN116301318A (en) | Degradation method and device for augmented reality tracking algorithm | |
JP5854018B2 (en) | Communication system, information processing apparatus, and program | |
CN114979773A (en) | Display device, video processing method, and storage medium | |
JP5854019B2 (en) | Terminal device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120509 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120625 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120724 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120821 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130215 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160301 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5207489 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |