JP5207489B2 - Movie display device, computer network system, broadcast network system, mobile network system - Google Patents

Movie display device, computer network system, broadcast network system, mobile network system Download PDF

Info

Publication number
JP5207489B2
JP5207489B2 JP2009550377A JP2009550377A JP5207489B2 JP 5207489 B2 JP5207489 B2 JP 5207489B2 JP 2009550377 A JP2009550377 A JP 2009550377A JP 2009550377 A JP2009550377 A JP 2009550377A JP 5207489 B2 JP5207489 B2 JP 5207489B2
Authority
JP
Japan
Prior art keywords
moving image
frame
cpu
image display
steering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009550377A
Other languages
Japanese (ja)
Other versions
JPWO2009093287A1 (en
Inventor
匡 山本
直毅 福田
直行 氏家
秀明 岡崎
Original Assignee
株式会社金猪電脳研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社金猪電脳研究所 filed Critical 株式会社金猪電脳研究所
Publication of JPWO2009093287A1 publication Critical patent/JPWO2009093287A1/en
Application granted granted Critical
Publication of JP5207489B2 publication Critical patent/JP5207489B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally

Abstract

A moving image display and so forth in which a viewer of a moving image can steer the progress of the moving image during the display of the moving image are provided. The moving image display for displaying a moving image by drawing a provided frame is characterized by comprising a steering instruction receiving means for receiving a steering instruction during the display of the moving image and a drawing instruction generating means for, when the steering instruction receiving means receives the steering instruction, generating a drawing instruction for instructing to draw a frame other than the provided frame from data on the provided frame according to the received steering instruction.

Description

本発明は、動画についての技術に関する。   The present invention relates to a technique for moving images.

従来、動画の表示中に所定の操作を行うことによって何らかのアクションを起動させることができるとする装置が提案された(特許文献1参照)。
特開2003−32658号公報
Conventionally, there has been proposed an apparatus capable of activating some action by performing a predetermined operation while displaying a moving image (see Patent Document 1).
JP 2003-32658 A

しかしながら、かかるアクションの起動は、いわゆる仕掛けであって(特許文献1の段落0003参照)、動画提供者によって予め施されたものに過ぎない。   However, the activation of such an action is a so-called device (see paragraph 0003 of Patent Document 1), and is only performed in advance by a moving image provider.

したがって、動画を見ている者などは、たとえアクションを起動させたとしても、動画提供者の期待に沿う方向へしか動画を進行させることができなかった。   Therefore, even if the person watching the moving image activates the action, the moving image can be advanced only in the direction in accordance with the expectation of the moving image provider.

そこで、本発明は、動画を見ている者などが、その動画の表示中に動画の進行について舵を切ることができる動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、及び携帯ネットワークシステムを提供することを目的とする。   Therefore, the present invention provides a moving image display device, a computer network system, a broadcast network system, and a mobile network system that enable a person watching a moving image to steer the progress of the moving image while the moving image is being displayed. For the purpose.

本発明によれば、上記課題は、次の手段により解決される。   According to the present invention, the above problem is solved by the following means.

本発明は、複数のフレームを次々と描画していくことによって動画を進行させる動画表示装置であって、動画を構成するフレームからオブジェクトを抽出し、この抽出したオブジェクトを描画することによって前記フレームを描画する第1手段と、前記第1手段により抽出したオブジェクトを2又は3以上のフレーム間で比較し、対応するオブジェクトに同一のオブジェクトIDを割り当てる第手段と、割込要求を受け付け、該受け付けた割込要求からオブジェクトIDを特定して舵切命令として記憶する第手段と、各フレームから抽出されたオブジェクトのうち、前記第手段により割り当てられたオブジェクトIDが前記第手段により舵切命令として記憶されていないオブジェクトについては、これをそのまま描画し、前記第手段により割り当てられたオブジェクトIDが前記第手段により舵切命令として記憶されているオブジェクトについては、これを他のオブジェクトに入れ替えて描画する第手段と、を備え、前記オブジェクトIDは、すべてのフレームを通して一意にオブジェクトを識別する値である、ことを特徴とする動画表示装置である。
The present invention is a moving image display device for moving a moving image by drawing a plurality of frames one after another , extracting an object from a frame constituting the moving image, and drawing the extracted object to draw the frame. first means for rendering, by comparing the object extracted by the first means between two or more frames, receiving a second means for assigning the same object ID in the corresponding object, an interrupt request, the reception A third means for identifying the object ID from the interrupt request and storing it as a steering control command, and among the objects extracted from each frame, the object ID assigned by the second means is steered by the third means. the object that is not stored as instructions, which is directly drawn, the second hand By the objects that are stored as the steering switching instruction by the object ID is the third means assigned, and a fourth means for drawing interchanged with other objects, this the object ID, all frames This is a moving image display device characterized in that the value uniquely identifies an object through.

また、本発明は、上記動画表示装置を備えたコンピュータネットワークシステムである。   Moreover, this invention is a computer network system provided with the said moving image display apparatus.

また、本発明は、上記動画表示装置を備えた放送ネットワークシステムである。   Moreover, this invention is a broadcast network system provided with the said moving image display apparatus.

また、本発明は、上記動画表示装置を備えた携帯ネットワークシステムである。   Moreover, this invention is a portable network system provided with the said moving image display apparatus.

本発明によれば、舵切命令が受け付けられた場合、この舵切命令に従って、提供されたフレームに関するデータから、提供されたフレームではないフレームの描画を命じる描画命令が生成される。   According to the present invention, when a steering turn command is received, a drawing command for ordering drawing of a frame other than the provided frame is generated from data regarding the provided frame in accordance with the steering turn command.

したがって、本発明によれば、動画を見ている者などは、その動画の表示中に舵切命令を入力や送信などすることによって、動画の進行について舵を切ることができるようになる。   Therefore, according to the present invention, a person watching a moving image can steer about the progress of the moving image by inputting or transmitting a steering turn command while the moving image is displayed.

本発明の実施形態に係る動画表示装置の概略動作を説明する図である。It is a figure explaining schematic operation | movement of the moving image display apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る動画表示装置の概略構成を示す図である。It is a figure which shows schematic structure of the moving image display apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るデータ構造の概略を説明する図である。It is a figure explaining the outline of the data structure which concerns on embodiment of this invention. 動画表示処理の概略フローチャートである。It is a schematic flowchart of a moving image display process. オブジェクトデータ取得処理の概略フローチャートである。It is a schematic flowchart of an object data acquisition process. 追跡データ生成処理の概略フローチャートである。It is a schematic flowchart of tracking data generation processing. 描画命令生成出力処理の概略フローチャートである。It is a schematic flowchart of a drawing command generation output process. 描画命令生成処理の概略フローチャートである。It is a schematic flowchart of a drawing command generation process. 舵切命令受付処理の概略フローチャートである。It is a schematic flowchart of a rudder turning-off command reception process. 本発明の実施例に係る動画表示装置を示す図である。It is a figure which shows the moving image display apparatus which concerns on the Example of this invention.

符号の説明Explanation of symbols

11 CPU
12 メインメモリ
13 ビデオコントローラ
14 ビデオメモリ
15 ディスプレイ
16 マウスコントローラ
17 キーボードコントローラ
18 サウンドコントローラ
19 スピーカ
20 メディアドライブ
21 ネットワークコントローラ
22 ハードディスクドライブ
11 CPU
12 Main memory 13 Video controller 14 Video memory 15 Display 16 Mouse controller 17 Keyboard controller 18 Sound controller 19 Speaker 20 Media drive 21 Network controller 22 Hard disk drive

以下に、添付した図面を参照しつつ、本発明を実施するための最良の形態を詳細に説明する。   The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings.

[動画表示装置の動作]
まず、図1を参照しつつ、本発明の実施形態に係る動画表示装置の概略動作を説明する。図1は、本発明の実施形態に係る動画表示装置の概略動作を説明する図である。
[Operation of video display device]
First, the schematic operation of the moving image display apparatus according to the embodiment of the present invention will be described with reference to FIG. FIG. 1 is a diagram for explaining the schematic operation of a moving image display apparatus according to an embodiment of the present invention.

図1において、フレーム1〜9は、動画提供者により提供された動画を構成するフレームである。動画提供者は、動画が、フレーム1〜9の順で進行することを期待しているものとする。   In FIG. 1, frames 1 to 9 are frames constituting a moving image provided by a moving image provider. It is assumed that the moving image provider expects the moving image to proceed in the order of frames 1 to 9.

ここで、実施形態に係る動画表示装置においては、このような動画を、動画提供者の期待に沿うように進行させること、すなわち、フレーム1〜9の順で進行させることもできる。   Here, in the moving image display apparatus according to the embodiment, such a moving image can be advanced in accordance with the expectations of the moving image provider, that is, in the order of frames 1 to 9.

しかしながら、実施形態に係る動画表示装置においては、舵切命令によって、動画の進行について舵を切ることができるようになる。   However, in the moving image display apparatus according to the embodiment, it is possible to turn the steering of the moving image by the turn-off command.

以下、実施形態に係る動画表示装置が動画の進行について舵を切る際の動作をケース1〜3に分けて説明する。   Hereinafter, the operation when the moving image display apparatus according to the embodiment turns the rudder with respect to the progress of the moving image will be described in cases 1 to 3.

(ケース1)
ケース1において、実施形態に係る動画表示装置は、フレーム2の描画までは動画提供者の期待に沿うように動画を進行させる。
(Case 1)
In case 1, the moving image display apparatus according to the embodiment advances the moving image to meet the expectations of the moving image provider until the frame 2 is drawn.

しかしながら、実施形態に係る動画表示装置は、フレーム2が描画された後に舵切命令を受け付けて、動画の進行について舵を切る。   However, the moving image display apparatus according to the embodiment receives a rudder turning command after the frame 2 is drawn, and turns the rudder about the progress of the moving image.

このため、動画は、フレーム2の後、フレーム3、4、5、6ではなく、フレーム3−1、4−1、5−1、6−1という、動画提供者が予定していなかった方向へと進行する。   Therefore, after the frame 2, the moving image is not a frame 3, 4, 5, 6 but a frame 3-1, 4-1, 5-1, 6-1 that the moving image provider did not plan. Proceed to.

これらフレーム3−1、4−1、5−1、6−1は、フレーム2の描画が終わるまでは実施形態に係る動画表示装置において存在しなかったものである。   These frames 3-1, 4-1, 5-1, and 6-1 are not present in the moving image display device according to the embodiment until the drawing of the frame 2 is completed.

実施形態に係る動画表示装置は、これらフレーム3−1、4−1、5−1、6−1についての描画命令を、舵切命令に従って、フレーム3、4、5、6から生成する。   The moving image display apparatus according to the embodiment generates drawing commands for these frames 3-1, 4-1, 5-1 and 6-1 from the frames 3, 4, 5 and 6 in accordance with the steering command.

そして、実施形態に係る動画表示装置は、フレーム6−1が描画された後に上記舵切命令の取消を受け付けて、フレーム7、フレーム8、フレーム9の描画を行う。このため、フレーム6−1が描画された後においては、動画の進行が、動画提供者によって予定されていた方向へと戻ることになる。   Then, the moving image display apparatus according to the embodiment draws the frames 7, 8, and 9 after accepting the cancellation of the steering instruction after the frame 6-1 is drawn. For this reason, after the frame 6-1 is drawn, the progress of the moving image returns to the direction planned by the moving image provider.

(ケース2)
ケース2において、実施形態に係る動画表示装置は、上記ケース1におけるフレーム3−1の描画を行った後に、第2の舵切命令を受け付けて、動画の進行について、より一層の舵を切る。
(Case 2)
In case 2, the video display device according to the embodiment draws the frame 3-1 in case 1 and then receives the second steering-off command, and further steers the progress of the video.

このため、実施形態に係る動画表示装置は、フレーム4−1、5−1の描画ではなく、フレーム4、5とは画像がより一層異なるフレーム4−2、5−2の描画を行うこととなり、動画は、動画提供者によってはまったく予定されていなかった方向へと進行することとなる。   For this reason, the moving image display apparatus according to the embodiment does not draw the frames 4-1 and 5-1, but draws the frames 4-2 and 5-2 that are different from the frames 4 and 5. The moving image will progress in a direction that was not planned at all by the moving image provider.

これらフレーム4−2、5−2も、フレーム3−1の描画が終わるまでは実施形態に係る動画表示装置において存在しなかったものである。   These frames 4-2 and 5-2 were not present in the moving image display apparatus according to the embodiment until the drawing of the frame 3-1 was completed.

実施形態に係る動画表示装置は、これらフレーム4−2、5−2についての描画命令を、第2の舵切命令に従って、フレーム4、5から生成する。   The moving image display apparatus according to the embodiment generates drawing commands for the frames 4-2 and 5-2 from the frames 4 and 5 according to the second steering-off command.

実施形態に係る動画表示装置は、フレーム5−2が描画された後に上記第2の舵切命令の取消を受け付けて、フレーム6−1の描画を行う。このため、フレーム5−2が描画された後においては、動画の進行が、最初に受け付けた舵切命令に従った方向へと戻ることになる。   The moving image display apparatus according to the embodiment draws the frame 6-1 by accepting cancellation of the second steering turn command after the frame 5-2 is drawn. For this reason, after the drawing of the frame 5-2, the progress of the moving image returns to the direction in accordance with the steering turn command received first.

そして、実施形態に係る動画表示装置は、フレーム6−1が描画された後に最初に受け付けた舵切命令の取消を受け付けて、フレーム7、フレーム8、フレーム9の描画を行う。このため、フレーム6−1が描画された後においては、動画の進行が、動画提供者によって予定されていた方向へと戻ることになる。   Then, the moving image display apparatus according to the embodiment draws the frames 7, 8 and 9 in response to the cancellation of the steering turn command received first after the frame 6-1 is drawn. For this reason, after the frame 6-1 is drawn, the progress of the moving image returns to the direction planned by the moving image provider.

(ケース3)
ケース3において、実施形態に係る動画表示装置は、フレーム1の描画までは動画提供者の期待に沿うように動画を進行させる。
(Case 3)
In Case 3, the moving image display apparatus according to the embodiment advances the moving image to meet the expectations of the moving image provider until the frame 1 is drawn.

しかしながら、実施形態に係る動画表示装置は、フレーム1が描画された後に舵切命令を受け付けて、動画の進行について舵を切る。   However, the moving image display apparatus according to the embodiment accepts a steering turn command after the frame 1 is drawn, and turns the steering of the moving image.

このため、動画は、フレーム1の後、フレーム2、3、4、5、6、7、8、9ではなく、フレーム2−3、3−3、4−3、5−3、6−3、7−3、8−3、9−3という、動画提供者が予定していなかった方向へと進行する。   Therefore, after the frame 1, the moving image is not a frame 2, 3, 4, 5, 6, 7, 8, 9 but a frame 2-3, 3-3, 4-3, 5-3, 6-3. , 7-3, 8-3, 9-3, proceed in the direction that the video provider did not plan.

これらフレーム2−3〜9−3は、フレーム1の描画が終わるまでは実施形態に係る動画表示装置において存在しなかったものである。   These frames 2-3 to 9-3 did not exist in the moving image display apparatus according to the embodiment until the drawing of the frame 1 was completed.

実施形態に係る動画表示装置は、これらフレーム2−3〜9−3についての描画命令も、舵切命令に従って、フレーム2〜9からそれぞれ生成する。   The moving image display apparatus according to the embodiment also generates drawing commands for the frames 2-3 to 9-3 from the frames 2 to 9 according to the steering command.

ケース3においては、受け付けられた舵切命令が取り消されないため、実施形態に係る動画表示装置は、フレーム2〜9を提供されているが(又は提供され続けているが)、これらフレーム2〜9を描画する機会がなく、動画の進行は、動画提供者によって予定されていた方向へと戻ることがない。   In case 3, since the accepted rudder turn-off command is not canceled, the moving image display apparatus according to the embodiment is provided with (or continues to provide) frames 2 to 9, but these frames 2 to 2 are provided. There is no opportunity to draw 9, and the progress of the moving image does not return in the direction planned by the moving image provider.

このように、実施形態に係る動画表示装置によれば、舵切命令が受け付けられた場合、この舵切命令に従って、動画提供者によって提供されたフレームに関するデータから、提供されたフレームではないフレームの描画を命じる描画命令が生成される。   Thus, according to the moving image display device according to the embodiment, when a rudder turn command is received, according to the rudder turn command, from the data regarding the frame provided by the moving image provider, a frame that is not a provided frame is displayed. A drawing command for ordering drawing is generated.

したがって、実施形態に係る動画表示装置によれば、動画を見ている者などが、その動画の表示中に舵切命令を入力や送信などして舵を切ることにより、提供された動画を、動画提供者が期待する方向とは異なる方向へ進行させることができるようになる。   Therefore, according to the moving image display apparatus according to the embodiment, a person who is watching a moving image turns the rudder by inputting or transmitting a rudder turning command while displaying the moving image, It is possible to proceed in a direction different from the direction expected by the video provider.

このように、実施形態に係る動画表示装置によれば、動画を見ている者などが、動画の表示中に舵を切ることにより、動画の進行を操ることができるようになる。   As described above, according to the moving image display device according to the embodiment, a person watching a moving image can control the progress of the moving image by turning the rudder while the moving image is displayed.

このため、実施形態に係る動画表示装置によれば、動画の進行に関する主導権を、動画提供者から動画を見ている者などへと移転させることができるようになる。   For this reason, according to the moving image display apparatus according to the embodiment, the initiative regarding the moving image can be transferred from the moving image provider to the person watching the moving image.

[動画表示装置の構成]
次に、図2を参照しつつ、本発明の実施形態に係る動画表示装置の概略構成を説明する。図2は、本発明の実施形態に係る動画表示装置の概略構成を示す図である。
[Configuration of video display device]
Next, a schematic configuration of the moving image display apparatus according to the embodiment of the present invention will be described with reference to FIG. FIG. 2 is a diagram showing a schematic configuration of the moving image display apparatus according to the embodiment of the present invention.

図2に示すように、本発明の実施形態に係る動画表示装置は、CPU11と、メインメモリ12と、ビデオコントローラ13と、ビデオメモリ14と、ディスプレイ15と、マウスコントローラ16と、キーボードコントローラ17と、サウンドコントローラ18と、スピーカ19と、CDドライブやDVDドライブなどのメディアドライブ20と、ネットワークコントローラ21と、ハードディスクドライブ22と、を備えている。   As shown in FIG. 2, the moving image display apparatus according to the embodiment of the present invention includes a CPU 11, a main memory 12, a video controller 13, a video memory 14, a display 15, a mouse controller 16, and a keyboard controller 17. , A sound controller 18, a speaker 19, a media drive 20 such as a CD drive or a DVD drive, a network controller 21, and a hard disk drive 22.

本発明の実施形態に係る動画表示装置においては、CPU11が、ハードディスクドライブ22に記憶されているプログラムをメインメモリ12に読み出した上で、動画表示処理を実行する。   In the moving image display apparatus according to the embodiment of the present invention, the CPU 11 reads out a program stored in the hard disk drive 22 to the main memory 12 and then executes a moving image display process.

本発明の実施形態においては、動画提供者から提供された動画が複数のフレームから構成されており、各フレームについてのフレームデータが、メディアドライブ20に挿入されるDVD−ROM、CD−ROM、USBメモリなどや、ハードディスクドライブ22などに格納されている。   In the embodiment of the present invention, a moving image provided by a moving image provider is composed of a plurality of frames, and the frame data for each frame is inserted into the media drive 20 as a DVD-ROM, CD-ROM, USB. It is stored in a memory or the hard disk drive 22 or the like.

本発明の実施形態に係る動画表示装置においては、CPU11が、これらのデバイスに格納されている各フレームデータの全部又は一部をメインメモリ12に読み出した上で、この読み出したフレームデータの全部又は一部から描画命令を生成する。   In the moving image display apparatus according to the embodiment of the present invention, the CPU 11 reads all or part of each frame data stored in these devices to the main memory 12, and then reads all or all of the read frame data. A drawing command is generated from a part.

このようにして生成された描画命令は、各フレームの描画を命じるデータであり、CPU11からビデオコントローラ13に出力される。   The drawing command generated in this way is data for instructing drawing of each frame, and is output from the CPU 11 to the video controller 13.

ビデオコントローラ13は、CPU11から描画命令を入力された場合、この描画命令に従って映像信号を生成し、ビデオメモリ14に格納する。   When receiving a drawing command from the CPU 11, the video controller 13 generates a video signal according to the drawing command and stores it in the video memory 14.

その後、ビデオコントローラ13は、ビデオメモリ14から映像信号を読み出して、ディスプレイ15に出力する。   Thereafter, the video controller 13 reads a video signal from the video memory 14 and outputs it to the display 15.

そして、ディスプレイ15は、ビデオコントローラ13から入力された映像信号に基づいて画面を走査することにより、フレームを画面上に描画する。   Then, the display 15 draws a frame on the screen by scanning the screen based on the video signal input from the video controller 13.

マウスコントローラ16、キーボードコントローラ17、又はネットワークコントローラ21は、マウス(図示せず)やキーボード(図示せず)から舵切命令が入力された場合やインターネットなどのネットワーク(図示せず)から舵切命令を受信した場合、CPU11に割込要求を出力する。   The mouse controller 16, keyboard controller 17, or network controller 21 is a steering command when a steering command is input from a mouse (not shown) or a keyboard (not shown) or from a network (not shown) such as the Internet. Is output to the CPU 11.

CPU11は、マウスコントローラ16、キーボードコントローラ17、又はネットワークコントローラ21から割込要求を入力された場合、割込要求された舵切命令を読み出してメインメモリ12に格納する。   When an interrupt request is input from the mouse controller 16, the keyboard controller 17, or the network controller 21, the CPU 11 reads out the steering-turn command requested to be interrupted and stores it in the main memory 12.

そして、CPU11は、メインメモリ12に格納された舵切命令に従って、メディアドライブ20に挿入されるDVD−ROM、CD−ROM、USBメモリなどやハードディスクドライブ22などに格納されているフレームに関するデータから、この格納されているフレームではないフレームの描画を命じる描画命令を生成し、ビデオコントローラ13に出力する。   Then, in accordance with the steering-off instruction stored in the main memory 12, the CPU 11 determines from the data relating to the frame stored in the DVD-ROM, CD-ROM, USB memory, etc., the hard disk drive 22, etc. A drawing command for instructing drawing of a frame other than the stored frame is generated and output to the video controller 13.

なお、メディアドライブ20に挿入されるDVD−ROM、CD−ROM、USBメモリなどやハードディスクドライブ22などには、サウンドデータも格納されている。   Sound data is also stored in the DVD-ROM, CD-ROM, USB memory or the hard disk drive 22 inserted in the media drive 20.

CPU11は、メディアドライブ20に挿入されるDVD−ROM、CD−ROM、USBメモリなどやハードディスクドライブ22などから、各フレームの描画と同期してスピーカ19から出力されるべきサウンドデータをメインメモリ12に読み出した上、この読み出したサウンドデータをサウンドコントローラ18に出力する。   The CPU 11 sends sound data to be output from the speaker 19 to the main memory 12 in synchronization with the drawing of each frame from a DVD-ROM, CD-ROM, USB memory, or the hard disk drive 22 inserted into the media drive 20. After reading, the read sound data is output to the sound controller 18.

[データ構造]
次に、図3を参照しつつ、CPU11が、動画表示処理において処理するデータのデータ構造を説明する。図3は、本発明の実施形態に係るデータ構造の概略を説明する図である。
[data structure]
Next, the data structure of data processed by the CPU 11 in the moving image display process will be described with reference to FIG. FIG. 3 is a diagram for explaining the outline of the data structure according to the embodiment of the present invention.

CPU11は、動画表示処理において、オブジェクトデータ、追跡データ、舵切命令、及び描画命令を処理するが、これらのデータのデータ構造は、図3に示す通りである。   In the moving image display process, the CPU 11 processes object data, tracking data, a steering command, and a drawing command. The data structure of these data is as shown in FIG.

(a:オブジェクトデータのデータ構造)
オブジェクトデータとは、各フレームに含まれるオブジェクトについてのデータであり、フレームデータから取得される。
(A: Data structure of object data)
The object data is data about an object included in each frame, and is obtained from the frame data.

実施形態においては、このオブジェクトデータとして、オブジェクトを構成するラスタデータの基準点X座標、オブジェクトを構成するラスタデータの基準点Y座標、ラスタデータ、及びオブジェクトのエッジ座標列を用いることとする。   In the embodiment, as the object data, a reference point X coordinate of raster data constituting the object, a reference point Y coordinate of raster data constituting the object, raster data, and an edge coordinate sequence of the object are used.

図3(a)に示すように、このオブジェクトデータは、obj[n,m,0]〜obj[n,m,3]の各領域に格納される。   As shown in FIG. 3A, this object data is stored in each area of obj [n, m, 0] to obj [n, m, 3].

ここで、nは、フレームを識別するフレーム番号を示し、mは、1フレーム内でオブジェクトを区別するオブジェクト識別子を示す。   Here, n indicates a frame number for identifying a frame, and m indicates an object identifier for distinguishing objects within one frame.

たとえば、図1中のフレーム3に3つのオブジェクトが含まれていると仮定した場合、1つ目のオブジェクトについての基準点X座標、基準点Y座標、ラスタデータ、及びエッジ座標列は、それぞれobj[2,0,0]〜obj[2,0,3]に格納され、2つ目のオブジェクトについての基準点X座標、基準点Y座標、ラスタデータ、及びエッジ座標列は、それぞれobj[2,1,0]〜obj[2,1,3]に格納され、3つ目のオブジェクトについての基準点X座標、基準点Y座標、ラスタデータ、及びエッジ座標列は、それぞれobj[2,2,0]〜obj[2,2,3]に格納される。   For example, assuming that the frame 3 in FIG. 1 includes three objects, the reference point X coordinate, reference point Y coordinate, raster data, and edge coordinate sequence for the first object are respectively obj. The reference point X coordinate, reference point Y coordinate, raster data, and edge coordinate sequence for the second object stored in [2, 0, 0] to obj [2, 0, 3] are respectively obj [2 , 1, 0] to obj [2, 1, 3], the reference point X coordinate, reference point Y coordinate, raster data, and edge coordinate sequence for the third object are obj [2, 2 respectively. , 0] to obj [2, 2, 3].

<基準点X座標>
基準点X座標とは、ラスタデータ上の基準点が、フレーム内において位置するX座標である。
<Reference point X coordinate>
The reference point X coordinate is an X coordinate at which the reference point on the raster data is located in the frame.

<基準点Y座標>
基準点Y座標とは、ラスタデータ上の基準点が、フレーム内において位置するY座標である。
<Reference point Y coordinate>
The reference point Y coordinate is the Y coordinate at which the reference point on the raster data is located in the frame.

<ラスタデータ>
ラスタデータとは、オブジェクトを構成する画像である。
<Raster data>
Raster data is an image that constitutes an object.

<エッジ座標列>
エッジ座標列とは、オブジェクトの輪郭を表現する座標の集合である。
<Edge coordinate sequence>
An edge coordinate sequence is a set of coordinates representing the outline of an object.

(b:追跡データのデータ構造)
追跡データとは、フレーム間におけるオブジェクトの関係を示すデータである。この追跡データは、たとえば、図1において、人物Aというオブジェクトがフレーム1とフレーム2とに含まれていた場合に、これらのオブジェクトが対応していることをCPU11に把握させるために用いられる。
(B: Data structure of tracking data)
The tracking data is data indicating the relationship of objects between frames. This tracking data is used, for example, in order to make the CPU 11 know that these objects correspond when an object called person A is included in frame 1 and frame 2 in FIG.

図3(b)に示すように、この追跡データは、track[i,0]〜track[i,N+1]の各領域に格納される。   As shown in FIG. 3B, this tracking data is stored in each area of track [i, 0] to track [i, N + 1].

ここで、iは、オブジェクトIDである。このオブジェクトIDは、すべてのフレームを通して一意にオブジェクトを識別する値である。   Here, i is an object ID. This object ID is a value that uniquely identifies an object through all frames.

たとえば、図1において、人物Aについてのオブジェクトに対して、
・オブジェクトIDとして1が割り当てられ、
・フレーム1(フレーム番号0)におけるオブジェクト識別子として3が割り当てられ、
・フレーム2(フレーム番号1)におけるオブジェクト識別子として2が割り当てられ、
・フレーム3(フレーム番号2)におけるオブジェクト識別子として8が割り当てられている場合、
track[1,0]には、人物Aについてのオブジェクトのメタ情報(たとえば「A」)が格納され、track[1,1]には3が格納され、track[1,2]には2が格納され、track[1,3]には8が格納される。
For example, in FIG.
-1 is assigned as the object ID,
3 is assigned as the object identifier in frame 1 (frame number 0),
2 is assigned as the object identifier in frame 2 (frame number 1),
When 8 is assigned as the object identifier in frame 3 (frame number 2),
In track [1, 0], meta information (for example, “A”) of the object about person A is stored, in track [1, 1], 3 is stored, and in track [1, 2], 2 is stored. 8 is stored in track [1, 3].

なお、Nは、動画を構成するフレームの数であり、たとえば、CPU11が動画の表示時間をフレームレートで除することにより算出される。   N is the number of frames constituting the moving image, and is calculated, for example, by the CPU 11 dividing the moving image display time by the frame rate.

(c:舵切命令のデータ構造)
舵切命令は、動画の進行について舵を切ることを命ずるデータであり、より具体的には、動画表示装置が、動画提供者から提供されたフレームではないフレームの描画命令を、どのようにして生成するかを規定する命令である。
(C: Data structure of rudder turning command)
The rudder turn-off command is data for instructing to turn the rudder about the progress of the moving image. More specifically, how the moving image display device issues a drawing command for a frame that is not a frame provided by the moving image provider. It is an instruction that defines whether to generate.

この舵切命令は、steering[j,0]、steering[j,1]、steering[j,2]、steering[j,3]、steering[j,4]、steering[j,5]、steering[j,6]、steering[j,7]の各領域に格納される。   The steering-off command is steering [j, 0], steering [j, 1], steering [j, 2], steering [j, 3], steering [j, 4], steering [j, 5], steering [j, 5] j, 6] and steering [j, 7].

本実施形態においては、この舵切命令として、種別、オブジェクトID、強調種別、基準点X座標、基準点Y座標、入替オブジェクトID,開始フレーム番号、終了フレーム番号が用いられるものとする。   In the present embodiment, the type, object ID, emphasis type, reference point X coordinate, reference point Y coordinate, replacement object ID, start frame number, and end frame number are used as the steering-off command.

なお、jは、舵切命令を識別する舵切命令IDである。   Note that j is a steering-off command ID for identifying a steering-off command.

<種別>
種別は、オブジェクトに対する操作の別を示す値である。実施形態においては、0がオブジェクトのエッジを強調表示すべきことを示し、1がオブジェクトを移動させるべきことを示し、2が、同一フレーム内における2つのオブジェクトを入れ替えるべきことを示し、3がオブジェクトを消去すべきことを示す。
<Type>
The type is a value indicating another operation for the object. In the embodiment, 0 indicates that the edge of the object should be highlighted, 1 indicates that the object should be moved, 2 indicates that the two objects in the same frame should be interchanged, and 3 indicates the object Indicates that should be deleted.

<オブジェクトID>
ここでのオブジェクトIDとは、操作対象となるオブジェクトのオブジェクトIDである。
<Object ID>
The object ID here is the object ID of the object to be operated.

<強調種別>
強調種別とは、オブジェクトのエッジに対する強調表示の別を示す値である。たとえば、0であればエッジを点滅させる、1であればエッジを青色にする、などを例として挙げることができる。
<Emphasis type>
The emphasis type is a value indicating another emphasis display for the edge of the object. For example, if 0, the edge blinks, and if 1, the edge is blue.

<基準点X座標>
ここでの基準点X座標とは、操作するオブジェクトを移動させる場合における、その移動先の基準点X座標である。
<Reference point X coordinate>
The reference point X coordinate here is the reference point X coordinate of the movement destination when the object to be operated is moved.

<基準点Y座標>
ここでの基準点Y座標とは、操作するオブジェクトを移動させる場合における、その移動先の基準点Y座標である。
<Reference point Y coordinate>
The reference point Y coordinate here is the reference point Y coordinate of the movement destination when the object to be operated is moved.

<入替オブジェクトID>
入替オブジェクトIDとは、オブジェクトを入れ替える場合において、どのオブジェクトIDのオブジェクトと入れ替えるのかを示すデータである。
<Replacement object ID>
The replacement object ID is data indicating which object ID the object is replaced with when the object is replaced.

<開始フレーム番号>
開始フレーム番号とは、舵切命令に従った描画命令の生成を開始するフレームのフレーム番号である。
<Start frame number>
The start frame number is a frame number of a frame at which generation of a drawing command according to the steering command is started.

<終了フレーム番号>
終了フレーム番号とは、舵切命令に従った描画命令の生成を終了するフレームのフレーム番号である。
<End frame number>
The end frame number is a frame number of a frame that finishes generating the drawing command according to the steering command.

(d:描画命令のデータ構造)
描画命令は、CPU11からビデオコントローラ13に出力されるデータである。
(D: Data structure of drawing command)
The drawing command is data output from the CPU 11 to the video controller 13.

実施形態においては、この描画命令として、オブジェクトを構成するラスタデータの基準点X座標、オブジェクトを構成するラスタデータの基準点Y座標、ラスタデータ、オブジェクトのエッジ座標列、及び強調種別を用いることとする。   In the embodiment, the rendering command uses the reference point X coordinate of the raster data constituting the object, the reference point Y coordinate of the raster data constituting the object, the raster data, the edge coordinate sequence of the object, and the enhancement type. To do.

図3(d)に示すように、これらの描画命令は、cmd[0]〜cmd[4]の各領域に格納される。   As shown in FIG. 3D, these drawing commands are stored in each area of cmd [0] to cmd [4].

[動画表示処理]
次に、図4を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行される動画表示処理を説明する。図4は、動画表示処理の概略フローチャートである。
[Movie display processing]
Next, the moving image display process executed by the CPU 11 of the moving image display apparatus according to the embodiment will be described with reference to FIG. FIG. 4 is a schematic flowchart of the moving image display process.

(ステップS1:初期化処理)
ステップS1において、CPU11は、変数や定数のための領域をメインメモリ12上に確保し、これら領域を確保された変数や定数に初期値を格納する初期化処理を行い、ステップS2に進む。
(Step S1: Initialization process)
In step S1, the CPU 11 secures areas for variables and constants on the main memory 12, performs initialization processing for storing initial values in the variables and constants in which these areas are secured, and proceeds to step S2.

具体的に説明すると、実施形態に係る動画表示装置は、初期化処理として、変数n、m、M、pm、PM、i、I、j、J、k、object_id、a、bの領域や、定数N、C1、C2の領域をメインメモリ12上に確保する。   More specifically, the moving image display apparatus according to the embodiment performs the initialization process using variables n, m, M, pm, PM, i, I, j, J, k, object_id, a, b, Areas of constants N, C1, and C2 are secured on the main memory 12.

そして、実施形態に係る動画表示装置は、変数n、m、M、pm、PM、i、I、j、J、k、object_id、a、bに0を格納し、Nにフレームの数を格納し、C1、C2に所定の閾値を格納する。   The moving image display apparatus according to the embodiment stores 0 in variables n, m, M, pm, PM, i, I, j, J, k, object_id, a, and b, and stores the number of frames in N. Then, a predetermined threshold value is stored in C1 and C2.

また、実施形態に係る動画表示装置は、obj[]、track[]、steering[]、cmd[]のための領域も、メインメモリ12上に確保する。   In addition, the moving image display apparatus according to the embodiment also secures areas for obj [], track [], steering [], and cmd [] on the main memory 12.

(ステップS2:フレームループの開始)
ステップS2において、CPU11は、nが0以上N以下であるか否かを判定し、0以上N以下であればステップS3に進み、0以上N以下でなければ動画表示処理を終了する。
(Step S2: Start of frame loop)
In step S2, the CPU 11 determines whether n is not less than 0 and not more than N. If it is not less than 0 and not more than N, the process proceeds to step S3.

(ステップS3:オブジェクトデータ取得処理)
ステップS3において、CPU11は、オブジェクトデータ取得処理を実行し、ステップS4に進む。オブジェクトデータ取得処理は、フレーム番号nのフレームについてのフレームデータから、そのフレームに含まれるオブジェクトについてのオブジェクトデータを取得し、obj[n,m,0]〜obj[n,m,3]に格納する処理である。
(Step S3: Object data acquisition process)
In step S3, the CPU 11 executes an object data acquisition process and proceeds to step S4. In the object data acquisition process, object data for an object included in the frame is acquired from the frame data for the frame with frame number n, and stored in obj [n, m, 0] to obj [n, m, 3]. It is processing to do.

(ステップS4:追跡データ生成処理)
ステップS4において、CPU11は、追跡データ生成処理を実行し、ステップS5に進む。追跡データ生成処理は、フレーム番号nのフレームに含まれるオブジェクトのオブジェクト識別子mを取得し、track[i,n+1]に格納する処理である。
(Step S4: Tracking data generation process)
In step S4, the CPU 11 executes a tracking data generation process and proceeds to step S5. The tracking data generation process is a process of acquiring the object identifier m of the object included in the frame with the frame number n and storing it in the track [i, n + 1].

(ステップS5:現オブジェクトループの開始)
ステップS5において、CPU11は、mが0以上M以下であるか否かを判定し、0以上M以下であればステップS6に進み、0以上M以下でなければステップS8に進む。
(Step S5: Start of current object loop)
In step S5, the CPU 11 determines whether m is not less than 0 and not more than M. If it is not less than 0 and not more than M, the process proceeds to step S6, and if not not less than 0 to M, the process proceeds to step S8.

(ステップS6:描画命令生成出力処理)
ステップS6において、CPU11は、描画命令生成出力処理を実行し、ステップS7に進む。描画命令生成出力処理は、受け付けた舵切命令に従い、フレーム番号nのフレームに含まれるオブジェクトについてのオブジェクトデータから、フレーム番号nのフレームに含まれるオブジェクトではないオブジェクトの描画を命じる描画命令を生成し出力する処理である。
(Step S6: Drawing command generation output processing)
In step S6, the CPU 11 executes a drawing command generation output process, and proceeds to step S7. The drawing command generation output process generates a drawing command for instructing drawing of an object that is not an object included in the frame of frame number n from the object data for the object included in the frame of frame number n in accordance with the accepted steering-off command. It is a process to output.

(ステップS7:現オブジェクトループの終了)
ステップS7において、CPU11は、mが0以上M以下であるか否かを判定し、0以上M以下であればステップS6に戻り、0以上M以下でなければステップS8に進む。
(Step S7: End of current object loop)
In step S7, the CPU 11 determines whether m is not less than 0 and not more than M. If it is not less than 0 and not more than M, the process returns to step S6.

(ステップS8:舵切命令受付処理)
ステップS8において、CPU11は、舵切命令受付処理を実行し、ステップS9に進む。舵切命令受付処理は、舵切命令を受け付け、この受け付けた舵切命令をsteering[j,0]〜steering[j,7]に格納する処理である。
(Step S8: Steering-off command reception process)
In step S <b> 8, the CPU 11 executes a rudder turning command reception process and proceeds to step S <b> 9. The rudder turning command receiving process is a process of accepting a rudder turning command and storing the received rudder turning command in steering [j, 0] to steering [j, 7].

(ステップS9:フレームループの終了)
ステップS9において、CPU11は、nが0以上N以下であるか否かを判定し、0以上N以下であればステップS3に戻り、0以上N以下でなければ動画表示処理を終了する。
(Step S9: End of frame loop)
In step S9, the CPU 11 determines whether n is 0 or more and N or less. If n is 0 or more and N or less, the process returns to step S3, and if it is not 0 or more and N or less, the moving image display process is terminated.

[オブジェクトデータ取得処理]
次に、図5を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行されるオブジェクトデータ取得処理を説明する。図5は、オブジェクトデータ取得処理の概略フローチャートである。
[Object data acquisition processing]
Next, object data acquisition processing executed by the CPU 11 of the moving image display apparatus according to the embodiment will be described with reference to FIG. FIG. 5 is a schematic flowchart of the object data acquisition process.

(ステップS3−1)
ステップS3−1において、CPU11は、mが0以上であるか否かを判定し、0以上であればステップS3−2に進み、0以上でなければステップS3−10に進む。
(Step S3-1)
In step S3-1, the CPU 11 determines whether m is equal to or greater than 0. If m is equal to or greater than 0, the process proceeds to step S3-2, and if not equal to 0, the process proceeds to step S3-10.

(ステップS3−2)
ステップS3−2において、CPU11は、フレーム番号nのフレームからオブジェクトを抽出する処理を行い、ステップS3−3に進む。
(Step S3-2)
In step S <b> 3-2, the CPU 11 performs processing for extracting an object from the frame of frame number n, and proceeds to step S <b> 3-3.

フレームからオブジェクトを抽出する処理としては、隣接する画素値の急激な変化を利用するなどのフレーム内抽出手法や、フレーム間の差分が大きい部分を取り出すなどのフレーム間抽出手法などを用いることができる。   As processing for extracting an object from a frame, an intra-frame extraction method such as using a sudden change in adjacent pixel values or an inter-frame extraction method such as extracting a portion having a large difference between frames can be used. .

(ステップS3−3)
ステップS3−3において、CPU11は、フレーム番号nのフレームからオブジェクトを抽出できたか否かを判定し、抽出できた場合はステップS3−4に進み、抽出できなかった場合はステップS3−10に進む。
(Step S3-3)
In step S3-3, the CPU 11 determines whether or not the object has been extracted from the frame with the frame number n. If the object has been extracted, the process proceeds to step S3-4. If not, the process proceeds to step S3-10. .

(ステップS3−4)
ステップS3−4において、CPU11は、抽出したオブジェクトを構成するラスタデータの基準点X座標を取得した上で、この取得した基準点X座標をobj[n,m,0]に格納し、ステップS3−5に進む。
(Step S3-4)
In step S3-4, the CPU 11 acquires a reference point X coordinate of raster data constituting the extracted object, and stores the acquired reference point X coordinate in obj [n, m, 0]. Proceed to -5.

(ステップS3−5)
ステップS3−5において、CPU11は、抽出したオブジェクトを構成するラスタデータの基準点Y座標を取得した上で、この取得した基準点Y座標をobj[n,m,1]に格納し、ステップS3−6に進む。
(Step S3-5)
In step S3-5, the CPU 11 acquires the reference point Y coordinate of the raster data constituting the extracted object, and stores the acquired reference point Y coordinate in obj [n, m, 1]. Proceed to -6.

(ステップS3−6)
ステップS3−6において、CPU11は、抽出したオブジェクトのラスタデータを取得した上で、この取得したラスタデータをobj[n,m,2]に格納し、ステップS3−7に進む。
(Step S3-6)
In step S3-6, the CPU 11 acquires the raster data of the extracted object, stores the acquired raster data in obj [n, m, 2], and proceeds to step S3-7.

(ステップS3−7)
ステップS3−7において、CPU11は、抽出したオブジェクトのエッジ座標列を算出し、ステップS3−8に進む。
(Step S3-7)
In step S3-7, the CPU 11 calculates an edge coordinate sequence of the extracted object, and proceeds to step S3-8.

(ステップS3−8)
ステップS3−8において、CPU11は、算出したエッジ座標列をobj[n,m,3]に格納し、ステップS3−9に進む。
(Step S3-8)
In step S3-8, the CPU 11 stores the calculated edge coordinate sequence in obj [n, m, 3], and proceeds to step S3-9.

(ステップS3−9)
ステップS3−9において、CPU11は、mが0以上であるか否かを判定し、0以上であればステップS3−2に戻り、0以上でなければステップS3−10に進む。
(Step S3-9)
In step S3-9, the CPU 11 determines whether m is 0 or more. If m is 0 or more, the process returns to step S3-2, and if not 0, the process proceeds to step S3-10.

(ステップS3−10)
ステップS3−10において、CPU11は、変数Mに格納されている値を変数PMに格納し、ステップS3−11に進む。
(Step S3-10)
In step S3-10, the CPU 11 stores the value stored in the variable M in the variable PM, and proceeds to step S3-11.

(ステップS3−11)
ステップS3−11において、CPU11は、変数mに格納されている値を変数Mに格納し、オブジェクトデータ取得処理を終了する。
(Step S3-11)
In step S3-11, the CPU 11 stores the value stored in the variable m in the variable M, and ends the object data acquisition process.

[追跡データ生成処理]
次に、図6を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行される追跡データ生成処理を説明する。図6は、追跡データ生成処理の概略フローチャートである。
[Tracking data generation processing]
Next, the tracking data generation process executed by the CPU 11 of the video display device according to the embodiment will be described with reference to FIG. FIG. 6 is a schematic flowchart of the tracking data generation process.

(ステップS4−1)
ステップS4−1において、CPU11は、nが0と等しくないか否かを判定し、等しくなければステップS4−7に進み、等しければステップS4−2に進む。
(Step S4-1)
In step S4-1, the CPU 11 determines whether n is not equal to 0. If not equal, the process proceeds to step S4-7, and if equal, the process proceeds to step S4-2.

(ステップS4−2)
ステップS4−2において、CPU11は、mが0以上M以下であるか否かを判定し、mが0以上M以下であればステップS4−3に進み、mが0以上M以下でなければステップS4−6に進む。
(Step S4-2)
In step S4-2, the CPU 11 determines whether m is not less than 0 and not more than M. If m is not less than 0 and not more than M, the process proceeds to step S4-3. Proceed to S4-6.

(ステップS4−3)
ステップS4−3において、CPU11は、変数mに格納されている値をtrack[i,1]に格納し、ステップS4−4に進む。
(Step S4-3)
In step S4-3, the CPU 11 stores the value stored in the variable m in track [i, 1], and proceeds to step S4-4.

(ステップS4−4)
ステップS4−4において、CPU11は、iに格納されている値に1を加算してiに格納し、ステップS4−5に進む。
(Step S4-4)
In step S4-4, the CPU 11 adds 1 to the value stored in i and stores it in i, and proceeds to step S4-5.

(ステップS4−5)
ステップS4−5において、CPU11は、mが0以上M以下であるか否かを判定し、mが0以上M以下であればステップS4−3に戻り、mが0以上M以下でなければステップS4−6に進む。
(Step S4-5)
In step S4-5, the CPU 11 determines whether m is not less than 0 and not more than M. If m is not less than 0 and not more than M, the process returns to step S4-3. Proceed to S4-6.

(ステップS4−6)
ステップS4−6において、CPU11は、iに格納されている値から1を減算した値を変数Iに格納し、追跡データ生成処理を終了する。
(Step S4-6)
In step S4-6, the CPU 11 stores a value obtained by subtracting 1 from the value stored in i in the variable I, and ends the tracking data generation process.

(ステップS4−7)
ステップS4−7において、CPU11は、mが0以上M以下であるか否かを判定し、mが0以上M以下であればステップS4−8に進み、mが0以上M以下でなければ追跡データ生成処理を終了する。
(Step S4-7)
In step S4-7, the CPU 11 determines whether m is greater than or equal to 0 and less than or equal to M. If m is greater than or equal to 0 and less than or equal to M, the process proceeds to step S4-8. The data generation process ends.

(ステップS4−8)
ステップS4−8において、CPU11は、pmが0以上PM以下であるか否かを判定し、0以上PM以下であればステップS4−9に進み、0以上PM以下でなければステップS4−14に進む。
(Step S4-8)
In step S4-8, the CPU 11 determines whether pm is greater than or equal to 0 and less than or equal to PM, and proceeds to step S4-9 if it is greater than or equal to 0 and less than PM, and proceeds to step S4-14 if not greater than 0 and less than PM. move on.

(ステップS4−9)
ステップS4−9において、CPU11は、obj[n,m,3]とobj[n−1,pm,3]とから、第1比較値を算出し、ステップS4−10に進む。
(Step S4-9)
In step S4-9, the CPU 11 calculates a first comparison value from obj [n, m, 3] and obj [n-1, pm, 3], and proceeds to step S4-10.

ここで、第1比較値は、フレーム番号nのフレームとフレーム番号n−1のフレームとの間において、エッジの形状が相似の関係にあるかどうか判定するための値として、CPU11により算出される。   Here, the first comparison value is calculated by the CPU 11 as a value for determining whether or not the shape of the edge is similar between the frame with the frame number n and the frame with the frame number n−1. .

この第1比較値としては、対応する辺の長さや角についての比率や差分などを用いることができる。このような比率や差分は、obj[n,m,3]に格納されているエッジ座標列とobj[n−1,pm,3]に格納されている値とを用いて算出される。   As the first comparison value, the ratio or difference of the corresponding side length or corner can be used. Such ratios and differences are calculated using the edge coordinate sequence stored in obj [n, m, 3] and the value stored in obj [n-1, pm, 3].

なお、上記のように、第1比較値は、隣接する2つのフレーム間から算出することが好ましい。しかしながら、本発明においては、第1比較値を、隣接しない2つのフレーム間や、3つ以上のフレーム間から算出することなどもできる。   As described above, the first comparison value is preferably calculated from between two adjacent frames. However, in the present invention, the first comparison value can also be calculated between two non-adjacent frames or between three or more frames.

(ステップS4−10)
ステップS4−10において、CPU11は、算出した第1比較値が定数C1に格納されている値よりも小さいか否かを判定し、小さければステップS4−11に進み、小さくなければステップS4−13に進む。
(Step S4-10)
In step S4-10, the CPU 11 determines whether or not the calculated first comparison value is smaller than the value stored in the constant C1, the process proceeds to step S4-11 if it is smaller, and step S4-13 if not smaller. Proceed to

ここで、定数C1には、比較する2つのオブジェクトの対応・非対応を判定する基準となる閾値が格納される。   Here, the constant C1 stores a threshold value serving as a reference for determining the correspondence / non-correspondence between two objects to be compared.

(ステップS4−11)
ステップS4−11において、CPU11は、obj[n,m,2]とobj[n−1,pm,2]とから、第2比較値を算出し、ステップS4−12に進む。
(Step S4-11)
In step S4-11, the CPU 11 calculates a second comparison value from obj [n, m, 2] and obj [n-1, pm, 2], and proceeds to step S4-12.

ここで、第2比較値は、フレーム番号nのフレームとフレーム番号n−1のフレームとの間において、ラスタデータが類似の関係にあるかどうか判定するための値として、CPU11により算出される。   Here, the second comparison value is calculated by the CPU 11 as a value for determining whether or not the raster data has a similar relationship between the frame with the frame number n and the frame with the frame number n−1.

この第2比較値としては、obj[n,m,2]に格納されているラスタデータとobj[n−1,pm,2]に格納されているラスタデータとをそれぞれ展開した場合における、対応する画素の等価割合などを用いることができる。   The second comparison value corresponds to a case where raster data stored in obj [n, m, 2] and raster data stored in obj [n−1, pm, 2] are expanded. An equivalent ratio of pixels to be used can be used.

なお、上記のように、第2比較値は、隣接する2つのフレーム間から算出することが好ましい。しかしながら、本発明においては、第2比較値を、隣接しない2つのフレーム間や、3つ以上のフレーム間から算出することなどもできる。   As described above, the second comparison value is preferably calculated from between two adjacent frames. However, in the present invention, the second comparison value can be calculated between two non-adjacent frames or between three or more frames.

(ステップS4−12)
ステップS4−12において、CPU11は、算出した第2比較値が定数C2よりも小さいか否かを判定し、小さければステップS4−14に進み、小さくなければステップS4−13に進む。
(Step S4-12)
In step S4-12, the CPU 11 determines whether or not the calculated second comparison value is smaller than the constant C2, the process proceeds to step S4-14 if it is smaller, or proceeds to step S4-13 if not smaller.

ここで、定数C2には、比較する2つのオブジェクトの対応・非対応を判定する基準となる閾値が格納される。   Here, the constant C2 stores a threshold value serving as a reference for determining the correspondence / non-correspondence between the two objects to be compared.

(ステップS4−13)
ステップS4−13において、CPU11は、pmが0以上PM以下であるか否かを判定し、0以上PM以下であればステップS4−9に戻り、0以上PM以下でなければステップS4−14に進む。
(Step S4-13)
In step S4-13, the CPU 11 determines whether pm is greater than or equal to 0 and less than or equal to PM. If it is greater than or equal to 0 and less than PM, the process returns to step S4-9. move on.

(ステップS4−14)
ステップS4−14において、CPU11は、iが0以上I以下であるか否かを判定し、0以上I以下であればステップS4−15に進み、0以上I以下でなければステップS4−18に進む。
(Step S4-14)
In step S4-14, the CPU 11 determines whether i is 0 or more and I or less. If i is 0 or more and I or less, the process proceeds to step S4-15. If i is not 0 or more and I or less, the process proceeds to step S4-18. move on.

(ステップS4−15)
ステップS4−15において、CPU11は、track[i,n]に格納されている値が、pmに格納されている値に等しいか否かを判定し、等しければステップS4−17に進み、等しくなければステップS4−16に進む。
(Step S4-15)
In step S4-15, the CPU 11 determines whether or not the value stored in track [i, n] is equal to the value stored in pm. If they are equal, the process proceeds to step S4-17 and must be equal. Step S4-16 follows.

(ステップS4−16)
ステップS4−16において、CPU11は、変数iが0以上I以下であるか否かを判定し、0以上I以下であればステップS4−15に戻り、0以上I以下でなければステップS4−18に進む。
(Step S4-16)
In step S4-16, the CPU 11 determines whether or not the variable i is 0 or more and I or less. If the variable i is 0 or more and I or less, the process returns to step S4-15. Proceed to

(ステップS4−17)
ステップS4−17において、CPU11は、mに格納されている値をtrack[i,n+1]に格納し、ステップS4−20に進む。
(Step S4-17)
In step S4-17, the CPU 11 stores the value stored in m in track [i, n + 1], and proceeds to step S4-20.

(ステップS4−18)
ステップS4−18において、CPU11は、変数Iに格納されている値に1を加算して変数Iに格納し、ステップS4−19に進む。
(Step S4-18)
In step S4-18, the CPU 11 adds 1 to the value stored in the variable I and stores it in the variable I, and proceeds to step S4-19.

(ステップS4−19)
ステップS4−19において、CPU11は、mに格納されている値をtrack[I,n+1]に格納し、ステップS4−20に進む。
(Step S4-19)
In step S4-19, the CPU 11 stores the value stored in m in track [I, n + 1], and proceeds to step S4-20.

(ステップS4−20)
ステップS4−20において、CPU11は、mが0以上M以下であるか否かを判定し、0以上M以下であればステップS4−8に戻り、0以上M以下でなければ追跡データ生成処理を終了する。
(Step S4-20)
In step S4-20, the CPU 11 determines whether or not m is 0 or more and M or less. If m is 0 or more and M or less, the process returns to step S4-8. finish.

[描画命令生成出力処理]
次に、図7を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行される描画命令生成出力処理について説明する。図7は、描画命令生成出力処理の概略フローチャートである。
[Drawing command generation output processing]
Next, a drawing command generation / output process executed by the CPU 11 of the moving image display apparatus according to the embodiment will be described with reference to FIG. FIG. 7 is a schematic flowchart of the drawing command generation / output process.

(ステップS6−1)
ステップS6−1において、CPU11は、iが0以上I以下であるか否かを判定し、0以上I以下であればステップS6−2に進み、0以上I以下でなければステップS6−5に進む。
(Step S6-1)
In step S6-1, the CPU 11 determines whether i is 0 or more and I or less. If i is 0 or more and I or less, the process proceeds to step S6-2. If i is not 0 or more and I or less, the process proceeds to step S6-5. move on.

(ステップS6−2)
ステップS6−2において、CPU11は、track[i,n+1]に格納されている値が、mに格納されている値と等しいか否かを判定し、等しければステップS6−3に進み、等しくなければステップS6−4に進む。
(Step S6-2)
In step S6-2, the CPU 11 determines whether or not the value stored in track [i, n + 1] is equal to the value stored in m. If they are equal, the process proceeds to step S6-3 and must be equal. Step S6-4 follows.

(ステップS6−3)
ステップS6−3において、CPU11は、変数iに格納されている値を変数object_idに格納し、ステップS6−5に進む。
(Step S6-3)
In step S6-3, the CPU 11 stores the value stored in the variable i in the variable object_id, and proceeds to step S6-5.

(ステップS6−4)
ステップS6−4において、CPU11は、iが0以上I以下であるか否かを判定し、0以上I以下であればステップS6−2に戻り、0以上I以下でなければステップS6−5に進む。
(Step S6-4)
In step S6-4, the CPU 11 determines whether i is 0 or more and I or less. If i is 0 or more and I or less, the process returns to step S6-2, and if it is not 0 or more and I or less, the process proceeds to step S6-5. move on.

(ステップS6−5)
ステップS6−5において、CPU11は、描画命令生成処理を実行し、ステップS6−6に進む。
(Step S6-5)
In step S6-5, the CPU 11 executes a drawing command generation process, and proceeds to step S6-6.

(ステップS6−6)
ステップS6−6において、CPU11は、生成した描画命令をビデオコントローラ13に出力し、描画命令生成出力処理を終了する。
(Step S6-6)
In step S6-6, the CPU 11 outputs the generated drawing command to the video controller 13, and ends the drawing command generation output process.

(描画命令生成処理)
次に、図8を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行される描画命令生成処理を説明する。図8は、描画命令生成処理の概略フローチャートである。
(Drawing command generation process)
Next, a drawing command generation process executed by the CPU 11 of the moving image display apparatus according to the embodiment will be described with reference to FIG. FIG. 8 is a schematic flowchart of the drawing command generation process.

(ステップS6−5−1)
ステップS6−5−1において、CPU11は、kが0以上3以下であるか否かを判定し、0以上3以下であればステップS6−5−2に進み、0以上3以下でなければステップS6−5−4に進む。
(Step S6-5-1)
In step S6-5-1, the CPU 11 determines whether k is 0 or more and 3 or less. If it is 0 or more and 3 or less, the process proceeds to step S6-5-2. Proceed to S6-5-4.

(ステップS6−5−2)
ステップS6−5−2において、CPU11は、obj[n,m,k]に格納されている値をcmd[k]に格納し、ステップS6−5−3に進む。
(Step S6-5-2)
In step S6-5-2, the CPU 11 stores the value stored in obj [n, m, k] in cmd [k], and proceeds to step S6-5-3.

(ステップS6−5−3)
ステップS6−5−3において、CPU11は、kが0以上3以下であるか否かを判定し、0以上3以下であればステップS6−5−2に戻り、0以上3以下でなければステップS6−5−4に進む。
(Step S6-5-3)
In step S6-5-3, the CPU 11 determines whether or not k is 0 or more and 3 or less. If k is 0 or more and 3 or less, the process returns to step S6-5-2, and if it is not 0 or more and 3 or less, step 11-6 is performed. Proceed to S6-5-4.

(ステップS6−5−4)
ステップS6−5−4において、CPU11は、cmd[4]に0を格納し、ステップS6−5−5に進む。
(Step S6-5-4)
In step S6-5-4, the CPU 11 stores 0 in cmd [4] and proceeds to step S6-5-5.

(ステップS6−5−5)
ステップS6−5−5において、CPU11は、jが0以上J以下であるか否かを判定し、0以上J以下であればステップS6−5−6に進み、0以上J以下でなければ描画命令生成処理を終了する。
(Step S6-5-5)
In step S6-5-5, the CPU 11 determines whether j is 0 or more and J or less. If it is 0 or more and J or less, the process proceeds to step S6-5-6. The instruction generation process is terminated.

(ステップS6−5−6)
ステップS6−5−6において、CPU11は、steering[j,1]に格納されている値がobject_idに格納されている値と等しいか否かを判定し、等しければステップS6−5−7に進み、等しくなければステップS6−5−19に進む。
(Step S6-5-6)
In step S6-5-6, the CPU 11 determines whether or not the value stored in steering [j, 1] is equal to the value stored in object_id. If they are equal, the process proceeds to step S6-5-7. If not equal, the process proceeds to step S6-5-19.

(ステップS6−5−7)
ステップS6−5−7において、CPU11は、変数nに格納されている値がsteering[j,7]に格納されている値よりも大きいか否かを判定し、大きければステップS6−5−19に進み、大きくなければステップS6−5−8に進む。
(Step S6-5-7)
In step S6-5-7, the CPU 11 determines whether or not the value stored in the variable n is larger than the value stored in steering [j, 7], and if so, step S6-5-19. If not, the process proceeds to step S6-5-8.

(ステップS6−5−8)
ステップS6−5−8において、CPU11は、steering[j,0]に格納されている値が0に等しいか否かを判定し、等しければステップS6−5−9に進み、等しくなければステップS6−5−10に進む。
(Step S6-5-8)
In step S6-5-8, the CPU 11 determines whether or not the value stored in steering [j, 0] is equal to 0, the process proceeds to step S6-5-9 if equal, and if not equal to step S6-5-9. Proceed to -5-10.

(ステップS6−5−9)
ステップS6−5−9において、CPU11は、steering[j,2]に格納されている値をcmd[4]に格納し、ステップS6−5−19に進む。
(Step S6-5-9)
In step S6-5-9, the CPU 11 stores the value stored in steering [j, 2] in cmd [4], and proceeds to step S6-5-19.

(ステップS6−5−10)
ステップS6−5−10において、CPU11は、steering[j,0]に格納されている値が1に等しいか否かを判定し、等しければステップS6−5−11に進み、等しくなければステップS6−5−13に進む。
(Step S6-5-10)
In step S6-5-10, the CPU 11 determines whether or not the value stored in steering [j, 0] is equal to 1, the process proceeds to step S6-5-11 if they are equal, otherwise the process proceeds to step S6. Proceed to -5-13.

(ステップS6−5−11)
ステップS6−5−11において、CPU11は、steering[j,3]に格納されている値をcmd[0]に格納し、ステップS6−5−12に進む。
(Step S6-5-11)
In step S6-5-11, the CPU 11 stores the value stored in steering [j, 3] in cmd [0], and proceeds to step S6-5-12.

(ステップS6−5−12)
ステップS6−5−12において、CPU11は、steering[j,4]に格納されている値をcmd[1]に格納し、ステップS6−5−19に進む。
(Step S6-5-12)
In step S6-5-12, the CPU 11 stores the value stored in steering [j, 4] in cmd [1], and proceeds to step S6-5-19.

(ステップS6−5−13)
ステップS6−5−13において、CPU11は、steering[j,0]に格納されている値が2に等しいか否かを判定し、等しければステップS6−5−14に進み、等しくなければステップS6−5−17に進む。
(Step S6-5-13)
In step S6-5-13, the CPU 11 determines whether or not the value stored in steering [j, 0] is equal to 2, the process proceeds to step S6-5-14 if they are equal, otherwise the process proceeds to step S6-5. Proceed to -5-17.

(ステップS6−5−14)
ステップS6−5−14において、CPU11は、steering[j,5]に格納されている値を変数aに格納し、ステップS6−5−15に進む。
(Step S6-5-14)
In step S6-5-14, the CPU 11 stores the value stored in steering [j, 5] in the variable a, and proceeds to step S6-5-15.

(ステップS6−5−15)
ステップS6−5−15において、CPU11は、track[a,n+1]に格納されている値を変数bに格納し、ステップS6−5−16に進む。
(Step S6-5-15)
In step S6-5-15, the CPU 11 stores the value stored in track [a, n + 1] in the variable b, and proceeds to step S6-5-16.

(ステップS6−5−16)
ステップS6−5−16において、CPU11は、obj[n,b,2]に格納されている値をcmd[2]に格納し、ステップS6−5−19に進む。
(Step S6-5-16)
In step S6-5-16, the CPU 11 stores the value stored in obj [n, b, 2] in cmd [2], and proceeds to step S6-5-19.

(ステップS6−5−17)
ステップS6−5−17において、CPU11は、steering[j,0]に格納されている値が3に等しいか否かを判定し、等しければステップS6−5−18に進み、等しくなければステップS6−5−19に進む。
(Step S6-5-17)
In step S6-5-17, the CPU 11 determines whether or not the value stored in steering [j, 0] is equal to 3, the process proceeds to step S6-5-18 if they are equal, otherwise the process proceeds to step S6. Proceed to -5-19.

(ステップS6−5−18)
ステップS6−5−18において、CPU11は、cmd[2]に0を格納し、ステップS6−5−19に進む。
(Step S6-5-18)
In step S6-5-18, the CPU 11 stores 0 in cmd [2], and proceeds to step S6-5-19.

(ステップS6−5−19)
ステップS6−5−19において、CPU11は、変数jが0以上J以下であるか否かを判定し、0以上J以下であればステップS6−5−6に戻り、0以上J以下でなければ描画命令生成処理を終了する。
(Step S6-5-19)
In step S6-5-19, the CPU 11 determines whether or not the variable j is 0 or more and J or less. If the variable j is 0 or more and J or less, the process returns to step S6-5-6. The drawing command generation process ends.

[舵切命令受付処理]
次に、図9を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行される舵切命令受付処理を説明する。図9は、舵切命令受付処理の概略フローチャートである。
[Steering-off command acceptance processing]
Next, a steering instruction receiving process executed by the CPU 11 of the video display device according to the embodiment will be described with reference to FIG. FIG. 9 is a schematic flowchart of the steering-off command reception process.

(ステップS8−1)
ステップS8−1において、CPU11は、マウスコントローラ16、キーボードコントローラ17、又はネットワークコントローラ21から、割込要求が出力されているか否かを判定し、出力されていればステップS8−2に進み、出力されていなければ舵切命令受付処理を終了する。
(Step S8-1)
In step S8-1, the CPU 11 determines whether or not an interrupt request is output from the mouse controller 16, keyboard controller 17, or network controller 21, and proceeds to step S8-2 if output. If not, the rudder turn command acceptance process is terminated.

(ステップS8−2)
ステップS8−2において、CPU11は、マウスコントローラ16、キーボードコントローラ17、又はネットワークコントローラ21から割込要求されたデータを読み出し、ステップS8−3に進む。なお、実施形態に係る動画表示装置において、割込要求されるデータは、座標又は舵切命令である。
(Step S8-2)
In step S8-2, the CPU 11 reads out the data requested to be interrupted from the mouse controller 16, keyboard controller 17, or network controller 21, and proceeds to step S8-3. In the moving image display device according to the embodiment, the data requested to be interrupted is a coordinate or a steering command.

(ステップS8−3)
ステップS8−3において、CPU11は、読み出したデータが座標であるか否かを判定し、座標であればステップS8−4に進み、座標でなければステップS8−15に進む。
(Step S8-3)
In step S8-3, the CPU 11 determines whether or not the read data is a coordinate. If the data is a coordinate, the process proceeds to step S8-4. If not, the process proceeds to step S8-15.

(ステップS8−4)
ステップS8−4において、CPU11は、mが0以上M以下であるか否かを判定し、0以上M以下であればステップS8−5に進み、0以上M以下でなければステップS8−7に進む。
(Step S8-4)
In step S8-4, the CPU 11 determines whether m is 0 or more and M or less. If it is 0 or more and M or less, the process proceeds to step S8-5, and if it is not 0 or more and M or less, the process proceeds to step S8-7. move on.

(ステップS8−5)
ステップS8−5において、CPU11は、受け付けた座標が、obj[n,m,3]で示されるエッジ内に収まるか否かを判定し、収まる場合はステップS8−7に進み、収まらない場合はステップS8−6に進む。
(Step S8-5)
In step S8-5, the CPU 11 determines whether or not the received coordinates fall within the edge indicated by obj [n, m, 3]. If so, the process proceeds to step S8-7. Proceed to step S8-6.

(ステップS8−6)
ステップS8−6において、CPU11は、mが0以上M以下であるか否かを判定し、0以上M以下であればステップS8−5に戻り、0以上M以下でなければステップS8−7に進む。
(Step S8-6)
In step S8-6, the CPU 11 determines whether m is 0 or more and M or less. If it is 0 or more and M or less, the process returns to step S8-5, and if it is not 0 or more and M or less, the process proceeds to step S8-7. move on.

(ステップS8−7)
ステップS8−7において、CPU11は、iが0以上I以下であるか否かを判定し、0以上I以下であればステップS8−8に進み、0以上I以下でなければステップS8−11に進む。
(Step S8-7)
In step S8-7, the CPU 11 determines whether i is 0 or more and I or less. If i is 0 or more and I or less, the process proceeds to step S8-8. If i is not 0 or more and I or less, the process proceeds to step S8-11. move on.

(ステップS8−8)
ステップS8−8において、CPU11は、track[i,n+1]に格納されている値が変数mに格納されている値に等しいか否かを判定し、等しい場合はステップS8−10に進み、等しくなければステップS8−9に進む。
(Step S8-8)
In step S8-8, the CPU 11 determines whether or not the value stored in the track [i, n + 1] is equal to the value stored in the variable m, the process proceeds to step S8-10 if equal. If not, the process proceeds to step S8-9.

(ステップS8−9)
ステップS8−9において、CPU11は、iが0以上I以下であるか否かを判定し、0以上I以下であればステップS8−8に戻り、0以上I以下でなければステップS8−11に進む。
(Step S8-9)
In step S8-9, the CPU 11 determines whether i is 0 or more and I or less. If i is 0 or more and I or less, the process returns to step S8-8, and if it is not 0 or more and I or less, the process proceeds to step S8-11. move on.

(ステップS8−10)
ステップS8−10において、CPU11は、変数iに格納されている値をobject_idに格納し、ステップS8−11に進む。
(Step S8-10)
In step S8-10, the CPU 11 stores the value stored in the variable i in object_id, and proceeds to step S8-11.

(ステップS8−11)
ステップS8−11において、CPU11は、変数jが0以上J以下であるか否かを判定し、0以上J以下であればステップS8−12に進み、0以上J以下でなければ舵切命令受付処理を終了する。
(Step S8-11)
In step S8-11, the CPU 11 determines whether or not the variable j is 0 or more and J or less. If the variable j is 0 or more and J or less, the process proceeds to step S8-12. End the process.

(ステップS8−12)
ステップS8−12において、CPU11は、steering[j,1]に格納されている値が、object_idに格納されている値と等しいか否かを判定し、等しければステップS8−14に進み、等しくなければステップS8−13に進む。
(Step S8-12)
In step S8-12, the CPU 11 determines whether or not the value stored in steering [j, 1] is equal to the value stored in object_id. If they are equal, the process proceeds to step S8-14 and must be equal. Step S8-13 follows.

(ステップS8−13)
ステップS8−13において、CPU11は、舵切命令IDとsteering[j,0]とsteering[j,1]との描画を命じる描画命令を出力し、ステップS8−14に進む。
(Step S8-13)
In step S8-13, the CPU 11 outputs a drawing command for instructing drawing of the steering command ID, steering [j, 0] and steering [j, 1], and proceeds to step S8-14.

(ステップS8−14)
ステップS8−14において、CPU11は、変数jが0以上J以下であるか否かを判定し、0以上J以下であればステップS8−12に戻り、0以上J以下でなければ舵切命令受付処理を終了する。
(Step S8-14)
In step S8-14, the CPU 11 determines whether or not the variable j is 0 or more and J or less. If the variable j is 0 or more and J or less, the CPU 11 returns to step S8-12. End the process.

(ステップS8−15)
ステップS8−15において、CPU11は、舵切命令IDを変数jに格納し、ステップS8−16に進む。
(Step S8-15)
In step S8-15, the CPU 11 stores the steering instruction ID in the variable j, and proceeds to step S8-16.

(ステップS8−16)
ステップS8−16において、CPU11は、変数jに格納されている値がNULLであるか否かを判定し、NULLであればステップS8−17に進み、NULLでなければステップS8−19に進む。
(Step S8-16)
In step S8-16, the CPU 11 determines whether or not the value stored in the variable j is NULL. If NULL, the process proceeds to step S8-17, and if not NULL, the process proceeds to step S8-19.

(ステップS8−17)
ステップS8−17において、CPU11は、変数Jに格納されている値に1を加算して変数Jに格納し、ステップS8−18に進む。
(Step S8-17)
In step S8-17, the CPU 11 adds 1 to the value stored in the variable J and stores it in the variable J, and proceeds to step S8-18.

(ステップS8−18)
ステップS8−18において、CPU11は、変数Jに格納されている値を変数jに格納し、ステップS8−19に進む。
(Step S8-18)
In step S8-18, the CPU 11 stores the value stored in the variable J in the variable j, and proceeds to step S8-19.

(ステップS8−19)
ステップS8−19において、CPU11は、steering[j,0]〜steering[j,7]の全部又は一部に対する格納処理を実行し、舵切命令受付処理を終了する。
(Step S8-19)
In step S8-19, the CPU 11 executes storage processing for all or part of steering [j, 0] to steering [j, 7], and ends the steering control command reception processing.

以上、実施形態に係る動画表示装置について説明を行ったが、実施形態に係る動画表示装置においてオブジェクトを移動や消去などした際には、移動元の箇所又は消去した箇所の背景を予測して補完しておくことが好ましい。このような背景の予測は、たとえば、複数のフレームを比較することにより行うことができる。   As described above, the moving image display device according to the embodiment has been described. However, when an object is moved or deleted in the moving image display device according to the embodiment, the background of the movement source portion or the deleted portion is predicted and complemented. It is preferable to keep it. Such background prediction can be performed, for example, by comparing a plurality of frames.

なお、上記した実施形態に係る動画表示装置は、動画の表示中に、各オブジェクトのメタ情報を受け付けることができる。受け付けられたメタ情報は、track[i,0]に格納される。   In addition, the moving image display apparatus according to the above-described embodiment can accept meta information of each object during display of the moving image. The accepted meta information is stored in track [i, 0].

次に、図10を参照しつつ、本発明の実施例に係る動画表示装置を説明する。図10は、本発明の実施例に係る動画表示装置を示す図である。   Next, a moving image display apparatus according to an embodiment of the present invention will be described with reference to FIG. FIG. 10 is a diagram illustrating a moving image display apparatus according to an embodiment of the present invention.

実施例において、動画提供者は、Normalの方向に動画が進行することを期待しているものとする。   In the embodiment, it is assumed that the moving image provider expects the moving image to proceed in the normal direction.

しかしながら、実施例に係る動画表示装置においては、消去、移動、入替という舵切命令によって、動画提供者が予期していなかった方向へと動画が進行する。   However, in the moving image display apparatus according to the embodiment, the moving image proceeds in a direction that the moving image provider did not expect by the steering command such as erasure, movement, and replacement.

図10で示すように、消去の舵切命令が受け付けられた場合にはEraseの方向へと動画が進行し、移動の舵切命令が受け付けられた場合にはMoveの方向へと動画が進行し、入替の舵切命令が受け付けられた場合には、Switchの方向へと動画が進行する。   As shown in FIG. 10, when an erasure steering command is accepted, the video proceeds in the direction of Erase, and when a movement steering command is accepted, the video proceeds in the Move direction. When the turn-off instruction for replacement is accepted, the moving image proceeds in the direction of Switch.

図10において、5番目のフレームを比較すれば明らかなように、Eraseの方向、Moveの方向、Switchの方向への動画の進行は、Normalの方向への動画の進行を期待した動画提供者にとって、想定や準備などされていなかったものである。   In FIG. 10, as is clear from the comparison of the fifth frame, the progress of the moving image in the Erase direction, the Move direction, and the Switch direction is for the video provider who expected the moving image in the Normal direction. It was something that was not supposed or prepared.

以上、本発明の実施形態及び実施例について説明したが、これらの説明は、本発明の一例に関するものであり、本発明は、これらの説明によって何ら限定されない。   As mentioned above, although embodiment and the Example of this invention were described, these description is related to an example of this invention, and this invention is not limited at all by these description.

[提供されたフレーム]
本発明において、「提供されたフレーム」とは、入力手段や受信手段などを介して動画表示装置に取り込まれたフレームを意味する。
[Provided frame]
In the present invention, “provided frame” means a frame taken into the moving image display device via an input means, a receiving means, or the like.

ここで、入力手段とは、フレームを入力することが可能なすべての手段を意味し、上記したメディアドライブは、この入力手段の一例である。   Here, the input means means all means capable of inputting a frame, and the media drive described above is an example of this input means.

また、受信手段とは、フレームを受信することが可能なすべての手段を意味し、上記したネットワークコントローラは、この受信手段の一例である。   The receiving means means all means capable of receiving a frame, and the network controller described above is an example of the receiving means.

「フレーム」、「フレームデータ」
「フレーム」とは、1画面(1コマ)を構成する画像であり、「フレームデータ」には、この画像(例:ラスタデータ)とこの画像に関するデータとが含まれる。
"Frame", "Frame data"
A “frame” is an image constituting one screen (one frame), and “frame data” includes this image (eg, raster data) and data related to this image.

「オブジェクト」、「オブジェクトデータ」
「オブジェクト」とは、フレームの一部を構成する画像、すなわち、1画面(1コマ)の一部を構成する画像であり、「オブジェクトデータ」には、この画像(例:ラスタデータ)とこの画像に関するデータとが含まれる。
"Object", "Object data"
An “object” is an image constituting a part of a frame, that is, an image constituting a part of one screen (one frame), and “object data” includes this image (eg, raster data) and this Data about the image.

1つのフレームは、2つ以上のオブジェクトから構成される。   One frame is composed of two or more objects.

[舵切命令受付手段]
本発明において、「舵切命令受付手段」とは、動画の表示中に舵切命令を受け付けることができるすべての手段を意味し、たとえば、上記したマウスコントローラやキーボードコントローラやネットワークコントローラなどは、舵切命令受付手段の一例である。
[Steering-off command acceptance means]
In the present invention, the “steering-off instruction receiving means” means all means that can receive a steering-off instruction during the display of a moving image. For example, the above-described mouse controller, keyboard controller, network controller, etc. It is an example of a cut command reception means.

[舵切命令の受付]
本発明において、舵切命令を「受け付ける」とは、舵切命令が入力又は受信などされることをいう。
[Reception of rudder turning order]
In the present invention, “accepting” a rudder turning command means that the rudder turning command is input or received.

[描画命令生成手段]
本発明において「描画命令生成手段」とは、描画命令を生成することができるすべての手段を意味する。上記した実施形態においては、CPUを描画命令生成手段の一例として説明したが、本発明においては、たとえばビデオコントローラなども、描画命令生成手段として用いることができる。
[Drawing command generation means]
In the present invention, the “drawing command generation means” means all means capable of generating a drawing command. In the above-described embodiment, the CPU has been described as an example of the drawing command generation unit. However, in the present invention, for example, a video controller or the like can also be used as the drawing command generation unit.

[フレームに関するデータ]
「フレームに関するデータ」としては、フレームデータ及び/又はオブジェクトデータなどを用いることができる。
[Frame data]
As “data relating to a frame”, frame data and / or object data can be used.

[フレームの描画を命じる描画命令]
「フレームの描画を命じる描画命令」には、「1つのフレームの全部の描画を命じる描画命令」及び/又は「1つのフレームの一部(すなわち「オブジェクト」)の描画を命じる描画命令」が含まれる。
[Drawing command to draw frame]
The “drawing command for ordering drawing of a frame” includes a “drawing command for ordering drawing of all of one frame” and / or a “drawing command for ordering drawing of a part of one frame (ie,“ object ”)”. It is.

[提供されたフレームではない]
「提供されたフレームではない」とは、[フレームの描画を命じる描画命令]が「1つのフレームの全部の描画を命じる描画命令」とされる場合においては、この「1つのフレーム」が「提供されたフレーム」の1つと完全には一致しないことをいい、[フレームの描画を命じる描画命令]が「1つのフレームの一部(すなわち「オブジェクト」)の描画を命じる描画命令」とされる場合においては、この「1つのフレームの一部(すなわち「オブジェクト」)」が「提供されたフレームの一部(すなわち「オブジェクト」)」の1つと完全には一致しないことをいう。
[Not the provided frame]
“It is not a provided frame” means that “one frame” is “provided” when “drawing command for drawing a frame” is set as “drawing command for drawing all of one frame”. This means that it does not completely match one of the “framed frames”, and the “drawing command for drawing a frame” is set as “a drawing command for drawing a part of one frame (ie,“ object ”)” In this case, this “part of one frame (ie,“ object ”)” does not completely match one of “part of provided frame (ie,“ object ”)”.

[動画表示装置]
上記した実施形態においては、パーソナルコンピュータを「動画表示装置」の一例として想定し説明を行ったが、本発明における「動画表示装置」は、何らパーソナルコンピュータに限定されるものではない。本発明における「動画表示装置」には、動画を表示することができるすべての装置が含まれ、たとえば、Television(TV)や携帯端末などのほか、描画命令生成手段を内蔵したプロジェクタなども含まれる。
[Movie display device]
In the above-described embodiment, the description has been made assuming that the personal computer is an example of the “moving image display device”, but the “moving image display device” in the present invention is not limited to the personal computer. The “moving image display device” in the present invention includes all devices capable of displaying a moving image, and includes, for example, a television (television) (TV), a portable terminal, and a projector with a built-in drawing command generation means. .

[動画]
本発明において「動画」とは、画面上で画像が動くすべてのデータを意味し、映画やアニメーションなどのほか、放送番組やライブ映像なども、本発明における「動画」に該当する。
[Video]
In the present invention, “moving image” means all data in which images move on the screen, and in addition to movies and animations, broadcast programs and live images also correspond to “moving images” in the present invention.

[ネットワーク]
本発明におけるネットワークは、インターネットに限られるものではなく、データが送信、受信、又は送受信されるすべてのネットワークが含まれる。
[network]
The network in the present invention is not limited to the Internet, and includes all networks in which data is transmitted, received, or transmitted / received.

本発明には、実施形態に係る動画表示装置が備える各手段がネットワーク上に分散している形態も含まれ、このような場合においても、そのネットワークは、動画表示装置を備えているとする。   The present invention includes a mode in which the units included in the moving image display apparatus according to the embodiment are distributed on the network. In such a case, the network includes the moving image display apparatus.

本発明には、スタンドアロンとして使用される動画表示装置のほか、動画表示装置を備えたネットワークも含まれる。このネットワークには、コンピュータネットワークのほか、番組やCMなどが放送される放送ネットワークや、携帯端末間又は携帯端末と固定端末との間でデータの送信、受信又は送受信が行われる携帯ネットワークも含まれる。   The present invention includes not only a moving image display device used as a stand-alone but also a network including the moving image display device. This network includes, in addition to a computer network, a broadcast network for broadcasting programs and CMs, and a mobile network in which data is transmitted, received, or transmitted / received between mobile terminals or between a mobile terminal and a fixed terminal. .

Claims (4)

複数のフレームを次々と描画していくことによって動画を進行させる動画表示装置であって、
動画を構成するフレームからオブジェクトを抽出し、この抽出したオブジェクトを描画することによって前記フレームを描画する第1手段と、
前記第1手段により抽出したオブジェクトを2又は3以上のフレーム間で比較し、対応するオブジェクトに同一のオブジェクトIDを割り当てる第手段と、
割込要求を受け付け、該受け付けた割込要求からオブジェクトIDを特定して舵切命令として記憶する第手段と、
各フレームから抽出されたオブジェクトのうち、前記第手段により割り当てられたオブジェクトIDが前記第手段により舵切命令として記憶されていないオブジェクトについては、これをそのまま描画し、前記第手段により割り当てられたオブジェクトIDが前記第手段により舵切命令として記憶されているオブジェクトについては、これを他のオブジェクトに入れ替えて描画する第手段と、
を備え、
前記オブジェクトIDは、すべてのフレームを通して一意にオブジェクトを識別する値である、
ことを特徴とする動画表示装置。
A video display device that advances a video by drawing a plurality of frames one after another ,
A first means for drawing the frame by extracting an object from a frame constituting the moving image and drawing the extracted object;
The object extracted by the first means and compared between two or more frames, and a second means for assigning the same object ID in the corresponding object,
A third means for receiving an interrupt request, specifying an object ID from the received interrupt request and storing it as a steering command;
Among the objects extracted from each frame, for an object whose object ID assigned by the second means is not stored as a steering command by the third means, it is drawn as it is and assigned by the second means. For an object whose object ID is stored as a steering command by the third means, a fourth means for drawing by replacing this with another object;
With
The object ID is a value that uniquely identifies an object through all frames.
A moving image display device characterized by that .
請求項1に記載の動画表示装置を備えたコンピュータネットワークシステム。   A computer network system comprising the moving image display device according to claim 1. 請求項1に記載の動画表示装置を備えた放送ネットワークシステム。   A broadcast network system comprising the moving image display device according to claim 1. 請求項1に記載の動画表示装置を備えた携帯ネットワークシステム。   A mobile network system comprising the moving image display device according to claim 1.
JP2009550377A 2008-01-25 2008-01-25 Movie display device, computer network system, broadcast network system, mobile network system Active JP5207489B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/000088 WO2009093287A1 (en) 2008-01-25 2008-01-25 Moving image display, computer network system, broadcast network system, and portable network system

Publications (2)

Publication Number Publication Date
JPWO2009093287A1 JPWO2009093287A1 (en) 2011-05-26
JP5207489B2 true JP5207489B2 (en) 2013-06-12

Family

ID=40900808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009550377A Active JP5207489B2 (en) 2008-01-25 2008-01-25 Movie display device, computer network system, broadcast network system, mobile network system

Country Status (2)

Country Link
JP (1) JP5207489B2 (en)
WO (1) WO2009093287A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09219836A (en) * 1996-02-14 1997-08-19 Matsushita Electric Ind Co Ltd Image information recording method and image compositing device
JP2002279443A (en) * 2001-03-16 2002-09-27 Minolta Co Ltd Image reproducing device, tv broadcast system, image transmitter, and image data transmitting method
JP2007072520A (en) * 2005-09-02 2007-03-22 Sony Corp Video processor
JP2007280069A (en) * 2006-04-06 2007-10-25 Toshiba Corp Video processing system and video processing method
JP2007281858A (en) * 2006-04-06 2007-10-25 Omron Corp Animation editing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09219836A (en) * 1996-02-14 1997-08-19 Matsushita Electric Ind Co Ltd Image information recording method and image compositing device
JP2002279443A (en) * 2001-03-16 2002-09-27 Minolta Co Ltd Image reproducing device, tv broadcast system, image transmitter, and image data transmitting method
JP2007072520A (en) * 2005-09-02 2007-03-22 Sony Corp Video processor
JP2007280069A (en) * 2006-04-06 2007-10-25 Toshiba Corp Video processing system and video processing method
JP2007281858A (en) * 2006-04-06 2007-10-25 Omron Corp Animation editing device

Also Published As

Publication number Publication date
WO2009093287A1 (en) 2009-07-30
JPWO2009093287A1 (en) 2011-05-26

Similar Documents

Publication Publication Date Title
US10225613B2 (en) Method and apparatus for video playing processing and television
CN110401866B (en) Live video display method, device, terminal and storage medium
US7019750B2 (en) Display status modifying apparatus and method, display status modifying program and storage medium storing the same, picture providing apparatus and method, picture providing program and storage medium storing the same, and picture providing system
CN113423012B (en) Video processing method, server, and computer-readable storage medium
CN113010075B (en) Multi-signal source window interaction method and system, readable storage medium and electronic device
JP5207489B2 (en) Movie display device, computer network system, broadcast network system, mobile network system
CN113438436B (en) Video playing method, video conference method, live broadcast method and related equipment
CN115776585A (en) Display device and content presentation method
CN112269886B (en) Shared image acquisition method, window sharing method and shared image acquisition device
CN111885417B (en) VR video playing method, device, equipment and storage medium
CN115033226A (en) Page display method and device, terminal equipment and computer readable storage medium
CN114745555A (en) Motion estimation method of video image and display equipment
JP5042965B2 (en) Presentation image presentation system, presentation method, presentation program, and recording medium therefor
US20070098277A1 (en) Transmitting apparatus, image processing system, image processing method, program, and recording medium
JP3152556B2 (en) Method for converting a two-dimensional image to a three-dimensional image
CN114360453B (en) Noise removing method and device, display equipment, chip and medium
JP2008259175A (en) Recording apparatus and program for recording apparatus
JP2013090102A (en) Distribution system
JP2006101236A (en) Moving video image editing system
JP5180667B2 (en) Image processing apparatus and image processing method
CN115955594A (en) Image processing method and device
CN116301318A (en) Degradation method and device for augmented reality tracking algorithm
JP5854018B2 (en) Communication system, information processing apparatus, and program
CN114979773A (en) Display device, video processing method, and storage medium
JP5854019B2 (en) Terminal device and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120724

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130215

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5207489

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250