WO2009093287A1 - 動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、携帯ネットワークシステム - Google Patents

動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、携帯ネットワークシステム Download PDF

Info

Publication number
WO2009093287A1
WO2009093287A1 PCT/JP2008/000088 JP2008000088W WO2009093287A1 WO 2009093287 A1 WO2009093287 A1 WO 2009093287A1 JP 2008000088 W JP2008000088 W JP 2008000088W WO 2009093287 A1 WO2009093287 A1 WO 2009093287A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving image
frame
cpu
image display
command
Prior art date
Application number
PCT/JP2008/000088
Other languages
English (en)
French (fr)
Inventor
Tadashi Yamamoto
Naoki Fukuda
Naoyuki Ujiie
Hideaki Okazaki
Original Assignee
Golden Boar Computer Laboratory Co., Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Golden Boar Computer Laboratory Co., Ltd filed Critical Golden Boar Computer Laboratory Co., Ltd
Priority to PCT/JP2008/000088 priority Critical patent/WO2009093287A1/ja
Priority to JP2009550377A priority patent/JP5207489B2/ja
Publication of WO2009093287A1 publication Critical patent/WO2009093287A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally

Definitions

  • the present invention relates to a technique for moving images.
  • Patent Document 1 Japanese Patent Laid-Open No. 2003-32658
  • the video can be advanced only in the direction in line with the expectations of the video provider.
  • the present invention provides a moving image display device, a computer network system, a broadcast network system, and a mobile network system that enable a person watching a moving image to steer the progress of the moving image while the moving image is being displayed. For the purpose.
  • the present invention is a moving image display device that displays a moving image by drawing a provided frame, and a rudder steering command receiving unit that receives a rudder steering command while the moving image is displayed,
  • a drawing command generating means for generating a drawing command for instructing drawing of a frame that is not the provided frame, from data relating to the provided frame, in accordance with the received steering-off command when the command is received;
  • This is a moving image display device characterized by the above.
  • the present invention is a computer network system provided with the moving image display device.
  • the present invention is a broadcast network system provided with the moving image display device.
  • the present invention is a mobile network system provided with the moving image display device.
  • a drawing command for ordering drawing of a frame other than the provided frame is generated from data regarding the provided frame in accordance with the rudder turning command.
  • a person watching a moving image can steer the moving image by inputting or transmitting a steering turn command while the moving image is displayed.
  • FIG. 1 is a diagram for explaining the schematic operation of a moving image display apparatus according to an embodiment of the present invention.
  • frames 1 to 9 are frames constituting a moving image provided by the moving image provider. Assume that the video provider expects the video to proceed in the order of frames 1-9.
  • such a moving picture can be advanced in accordance with the expectation of the moving picture provider, that is, in the order of frames 1 to 9.
  • the steering of the moving image can be turned by the turn-off command.
  • the moving image display apparatus receives a steering turn command after the frame 2 is drawn, and steers the progress of the moving image.
  • the moving image is not a frame 3, 4, 5, 6 but a frame 3-1, 4-1, 5-1, 6-1 that was not planned by the moving image provider. Proceed to.
  • the moving image display apparatus generates drawing commands for the frames 3-1, 4-1, 5-1, and 6-1 from the frames 3, 4, 5, and 6 in accordance with the steering command.
  • the moving image display apparatus accepts the cancellation of the steering control command after the drawing of the frame 6-1, and draws the frame 7, the frame 8, and the frame 9. Therefore, after the frame 6-1 is drawn, the progress of the moving image returns to the direction scheduled by the moving image provider.
  • the moving image display apparatus In case 2, the moving image display apparatus according to the embodiment draws the frame 3-1 in case 1 and then receives the second steering ruling command, and further steers the moving image.
  • the moving image display apparatus does not draw the frames 4-1, 5-1 but draws the frames 4-2, 5-2, which are images different from the frames 4, 5.
  • the moving image will progress in a direction that was not planned at all by the moving image provider.
  • the moving image display apparatus generates drawing commands for the frames 4-2 and 5-2 from the frames 4 and 5 in accordance with the second steering-off command.
  • the moving image display apparatus draws the frame 6-1 by accepting the cancellation of the second steering turn command after the frame 5-2 is drawn. For this reason, after the frame 5-2 is drawn, the progress of the moving image returns to the direction according to the first received steering turn command.
  • the moving image display apparatus draws the frames 7, 8, and 9 in response to the cancellation of the rudder steering command received first after the frame 6-1 is drawn. Therefore, after the frame 6-1 is drawn, the progress of the moving image returns to the direction scheduled by the moving image provider.
  • the moving image display apparatus receives a steering turn command after the frame 1 is drawn, and steers the progress of the moving image.
  • the moving image is not a frame 2, 3, 4, 5, 6, 7, 8, 9 but a frame 2-3, 3-3, 4-3, 5-3, 6-3. , 7-3, 8-3, 9-3, proceed in the direction that the video provider did not plan.
  • the moving image display apparatus also generates drawing commands for the frames 2-3 to 9-3 from the frames 2 to 9 according to the steering command.
  • the moving image display apparatus In case 3, since the accepted steering turn instruction is not cancelled, the moving image display apparatus according to the embodiment is provided with (or continues to provide) frames 2 to 9, but these frames 2 to There is no opportunity to draw 9, and the progress of the moving image does not return in the direction planned by the moving image provider.
  • the moving image display device when a rudder turn command is received, according to the rudder turn command, from the data regarding the frame provided by the moving image provider, a frame that is not a provided frame is displayed. A drawing command for ordering drawing is generated.
  • a person who is watching a moving image turns the rudder by inputting or transmitting a rudder turning command while displaying the moving image, It is possible to proceed in a direction different from the direction expected by the video provider.
  • a person watching a moving image can control the progress of the moving image by turning the rudder while the moving image is displayed.
  • the initiative regarding the progress of the video can be transferred from the video provider to the person watching the video.
  • FIG. 2 is a diagram showing a schematic configuration of the moving image display apparatus according to the embodiment of the present invention.
  • the moving image display apparatus includes a CPU 11, a main memory 12, a video controller 13, a video memory 14, a display 15, a mouse controller 16, and a keyboard controller 17. , A sound controller 18, a speaker 19, a media drive 20 such as a CD drive or a DVD drive, a network controller 21, and a hard disk drive 22.
  • the CPU 11 reads out a program stored in the hard disk drive 22 to the main memory 12 and then executes a moving image display process.
  • the moving image provided by the moving image provider is composed of a plurality of frames, and the frame data for each frame is inserted into the media drive 20 as a DVD-ROM, CD-ROM, USB. It is stored in a memory or the hard disk drive 22 or the like.
  • the CPU 11 reads all or part of each frame data stored in these devices to the main memory 12, and then reads all or all of the read frame data.
  • a drawing command is generated from a part.
  • the drawing command generated in this way is data for instructing drawing of each frame, and is output from the CPU 11 to the video controller 13.
  • the video controller 13 When the drawing command is input from the CPU 11, the video controller 13 generates a video signal according to the drawing command and stores it in the video memory 14.
  • the video controller 13 reads out the video signal from the video memory 14 and outputs it to the display 15.
  • the display 15 draws a frame on the screen by scanning the screen based on the video signal input from the video controller 13.
  • the mouse controller 16, keyboard controller 17, or network controller 21 is a steering command when a steering command is input from a mouse (not shown) or a keyboard (not shown) or from a network (not shown) such as the Internet. Is output to the CPU 11.
  • the CPU 11 When the CPU 11 receives an interrupt request from the mouse controller 16, the keyboard controller 17, or the network controller 21, the CPU 11 reads the steering-turn command requested for the interrupt and stores it in the main memory 12.
  • the CPU 11 determines from the data relating to the frames stored in the DVD-ROM, CD-ROM, USB memory, etc., the hard disk drive 22, etc.
  • a drawing command for instructing drawing of a frame other than the stored frame is generated and output to the video controller 13.
  • sound data is also stored in the DVD-ROM, CD-ROM, USB memory or the hard disk drive 22 inserted in the media drive 20.
  • the CPU 11 sends sound data to be output from the speaker 19 to the main memory 12 in synchronization with the drawing of each frame from a DVD-ROM, CD-ROM, USB memory or the like inserted in the media drive 20 or the hard disk drive 22. After reading, the read sound data is output to the sound controller 18.
  • FIG. 3 is a diagram for explaining the outline of the data structure according to the embodiment of the present invention.
  • the CPU 11 processes the object data, the tracking data, the steering command, and the drawing command in the moving image display process, and the data structure of these data is as shown in FIG.
  • the object data is data about an object included in each frame, and is obtained from the frame data.
  • a reference point X coordinate of raster data constituting the object a reference point Y coordinate of raster data constituting the object, raster data, and an edge coordinate sequence of the object are used.
  • this object data is stored in each area of obj [n, m, 0] to obj [n, m, 3].
  • n indicates a frame number for identifying a frame
  • m indicates an object identifier for distinguishing objects within one frame.
  • the reference point X coordinate, reference point Y coordinate, raster data, and edge coordinate sequence for the first object are respectively obj.
  • the reference point X coordinate, reference point Y coordinate, raster data, and edge coordinate sequence for the second object stored in [2, 0, 0] to obj [2, 0, 3] are respectively obj [2 , 1, 0] to obj [2, 1, 3]
  • the reference point X coordinate, reference point Y coordinate, raster data, and edge coordinate sequence for the third object are obj [2, 2 , 0] to obj [2,2,3].
  • the reference point X coordinate is an X coordinate at which the reference point on the raster data is located in the frame.
  • the reference point Y coordinate is the Y coordinate at which the reference point on the raster data is located in the frame.
  • Raster data is an image that constitutes an object.
  • An edge coordinate sequence is a set of coordinates representing the outline of an object.
  • the tracking data is data indicating the relationship of objects between frames. This tracking data is used, for example, in order to make the CPU 11 know that these objects correspond when an object called person A is included in frame 1 and frame 2 in FIG.
  • this tracking data is stored in each area of track [i, 0] to track [i, N + 1].
  • i is the object ID.
  • This object ID is a value that uniquely identifies an object through all frames.
  • FIG. -1 is assigned as the object ID
  • 3 is assigned as the object identifier in frame 1 (frame number 0)
  • 2 is assigned as the object identifier in frame 2 (frame number 1)
  • 8 is assigned as the object identifier in frame 3 (frame number 2)
  • N is the number of frames constituting the moving image, and is calculated, for example, by the CPU 11 dividing the moving image display time by the frame rate.
  • the rudder turn-off command is data for instructing to turn the rudder about the progress of the moving image. More specifically, how the moving image display device issues a drawing command for a frame that is not a frame provided by the moving image provider. It is an instruction that defines whether to generate.
  • the steering-off command is steering [j, 0], steering [j, 1], steering [j, 2], steering [j, 3], steering [j, 4], steering [j, 5], steering [j, 5] j, 6] and steering [j, 7].
  • a type, an object ID, an emphasis type, a reference point X coordinate, a reference point Y coordinate, a replacement object ID, a start frame number, and an end frame number are used as the steering command.
  • j is a steering command ID for identifying the steering command.
  • ⁇ Type> The type is a value indicating another operation for the object. In the embodiment, 0 indicates that the edge of the object should be highlighted, 1 indicates that the object should be moved, 2 indicates that the two objects in the same frame should be interchanged, and 3 indicates the object Indicates that should be deleted.
  • the object ID here is the object ID of the object to be operated.
  • the emphasis type is a value indicating another emphasis display for the edge of the object. For example, if 0, the edge blinks, and if 1, the edge is blue.
  • the reference point X coordinate here is the reference point X coordinate of the movement destination when the object to be operated is moved.
  • the reference point Y coordinate here is the reference point Y coordinate of the movement destination when the object to be operated is moved.
  • the replacement object ID is data indicating which object ID the object is replaced with when the object is replaced.
  • the start frame number is a frame number of a frame at which generation of a drawing command according to the steering command is started.
  • End frame number is a frame number of a frame that finishes generating the drawing command according to the steering command.
  • the drawing command is data output from the CPU 11 to the video controller 13.
  • the rendering command uses the reference point X coordinate of the raster data constituting the object, the reference point Y coordinate of the raster data constituting the object, the raster data, the edge coordinate sequence of the object, and the enhancement type. To do.
  • these drawing commands are stored in each area of cmd [0] to cmd [4].
  • FIG. 4 is a schematic flowchart of the moving image display process.
  • Step S1 Initialization process
  • the CPU 11 secures areas for variables and constants on the main memory 12, performs initialization processing for storing initial values in the variables and constants in which these areas are secured, and proceeds to step S2.
  • the moving image display apparatus performs the initialization process using variables n, m, M, pm, PM, i, I, j, J, k, object_id, a, b, Areas of constants N, C1, and C2 are secured on the main memory 12.
  • the moving image display apparatus stores 0 in variables n, m, M, pm, PM, i, I, j, J, k, object_id, a, and b, and stores the number of frames in N. Then, a predetermined threshold value is stored in C1 and C2.
  • the moving image display apparatus also secures areas for obj [], track [], steering [], and cmd [] on the main memory 12.
  • Step S2 Start of frame loop
  • the CPU 11 determines whether n is not less than 0 and not more than N. If it is not less than 0 and not more than N, the process proceeds to step S3.
  • Step S3 Object data acquisition process
  • the CPU 11 executes an object data acquisition process and proceeds to step S4.
  • the object data acquisition process acquires object data for an object included in the frame from the frame data for the frame with frame number n, and stores it in obj [n, m, 0] to obj [n, m, 3]. It is processing to do.
  • Step S4 Tracking data generation process
  • the CPU 11 executes a tracking data generation process and proceeds to step S5.
  • the tracking data generation process is a process of acquiring the object identifier m of the object included in the frame with the frame number n and storing it in the track [i, n + 1].
  • Step S5 Start of current object loop
  • the CPU 11 determines whether m is not less than 0 and not more than M. If it is not less than 0 and not more than M, the process proceeds to step S6, and if not not less than 0 to M, the process proceeds to step S8.
  • Step S6 Drawing command generation output processing
  • the CPU 11 executes a drawing command generation output process, and proceeds to step S7.
  • the drawing command generation output process generates a drawing command for instructing drawing of an object that is not an object included in the frame of frame number n from the object data for the object included in the frame of frame number n in accordance with the accepted steering-off command. It is a process to output.
  • Step S7 End of current object loop
  • the CPU 11 determines whether m is not less than 0 and not more than M. If it is not less than 0 and not more than M, the process returns to step S6.
  • Step S8 Steering-off command reception process
  • the CPU 11 executes a rudder turning command reception process and proceeds to step S ⁇ b> 9.
  • the rudder turning command receiving process is a process of receiving a rudder turning command and storing the received rudder turning command in steering [j, 0] to steering [j, 7].
  • Step S9 End of frame loop
  • the CPU 11 determines whether n is 0 or more and N or less. If n is 0 or more and N or less, the process returns to step S3, and if it is not 0 or more and N or less, the moving image display process is terminated.
  • FIG. 5 is a schematic flowchart of the object data acquisition process.
  • Step S3-1 the CPU 11 determines whether m is 0 or more. If m is 0 or more, the process proceeds to step S3-2. If m is not 0 or more, the process proceeds to step S3-10.
  • Step S3-2 the CPU 11 performs processing for extracting an object from the frame of frame number n, and proceeds to step S3-3.
  • an intra-frame extraction method such as using a sudden change in adjacent pixel values or an inter-frame extraction method such as extracting a portion having a large difference between frames can be used.
  • Step S3-3 the CPU 11 determines whether or not the object can be extracted from the frame of frame number n. If it can be extracted, the process proceeds to step S3-4. If it cannot be extracted, the process proceeds to step S3-10. .
  • Step S3-4 the CPU 11 acquires the reference point X coordinate of the raster data constituting the extracted object, and stores the acquired reference point X coordinate in obj [n, m, 0], step S3. Proceed to -5.
  • Step S3-5 the CPU 11 acquires the reference point Y coordinate of the raster data constituting the extracted object, and stores the acquired reference point Y coordinate in obj [n, m, 1]. Proceed to -6.
  • step S3-6 the CPU 11 acquires the raster data of the extracted object, stores the acquired raster data in obj [n, m, 2], and proceeds to step S3-7.
  • Step S3-7 the CPU 11 calculates an edge coordinate sequence of the extracted object, and proceeds to step S3-8.
  • Step S3-8 the CPU 11 stores the calculated edge coordinate sequence in obj [n, m, 3], and proceeds to step S3-9.
  • Step S3-9 the CPU 11 determines whether m is 0 or more. If m is 0 or more, the process returns to step S3-2, and if not 0, the process proceeds to step S3-10.
  • step S3-10 the CPU 11 stores the value stored in the variable M in the variable PM, and proceeds to step S3-11.
  • Step S3-11 the CPU 11 stores the value stored in the variable m in the variable M, and ends the object data acquisition process.
  • FIG. 6 is a schematic flowchart of the tracking data generation process.
  • Step S4-1 the CPU 11 determines whether n is not equal to 0. If not equal, the process proceeds to step S4-7, and if equal, the process proceeds to step S4-2.
  • Step S4-2 the CPU 11 determines whether m is greater than or equal to 0 and less than or equal to M. If m is greater than or equal to 0 and less than or equal to M, the process proceeds to step S4-3. Proceed to S4-6.
  • Step S4-3 the CPU 11 stores the value stored in the variable m in track [i, 1], and proceeds to step S4-4.
  • Step S4-4 the CPU 11 adds 1 to the value stored in i and stores it in i, and proceeds to step S4-5.
  • Step S4-5 the CPU 11 determines whether m is not less than 0 and not more than M. If m is not less than 0 and not more than M, the process returns to step S4-3. Proceed to S4-6.
  • Step S4-6 the CPU 11 stores a value obtained by subtracting 1 from the value stored in i in the variable I, and ends the tracking data generation process.
  • Step S4-7 the CPU 11 determines whether m is 0 or more and M or less. If m is 0 or more and M or less, the process proceeds to step S4-8. The data generation process ends.
  • step S4-8 the CPU 11 determines whether or not pm is greater than or equal to 0 and less than or equal to PM. If it is greater than or equal to 0 and less than or equal to PM, the process proceeds to step S4-9. move on.
  • Step S4-9 the CPU 11 calculates a first comparison value from obj [n, m, 3] and obj [n-1, pm, 3], and proceeds to step S4-10.
  • the first comparison value is calculated by the CPU 11 as a value for determining whether or not the edge shape is similar between the frame with the frame number n and the frame with the frame number n ⁇ 1. .
  • the ratio or difference of the corresponding side length or corner can be used.
  • Such a ratio or difference is calculated using the edge coordinate sequence stored in obj [n, m, 3] and the value stored in obj [n ⁇ 1, pm, 3].
  • the first comparison value is preferably calculated from between two adjacent frames.
  • the first comparison value can also be calculated between two non-adjacent frames or between three or more frames.
  • step S4-10 the CPU 11 determines whether or not the calculated first comparison value is smaller than the value stored in the constant C1, the process proceeds to step S4-11 if it is smaller, and step S4-13 if not smaller. Proceed to
  • the constant C1 stores a threshold value serving as a reference for determining the correspondence / non-correspondence between two objects to be compared.
  • Step S4-11 the CPU 11 calculates a second comparison value from obj [n, m, 2] and obj [n-1, pm, 2], and proceeds to step S4-12.
  • the second comparison value is calculated by the CPU 11 as a value for determining whether or not the raster data has a similar relationship between the frame with the frame number n and the frame with the frame number n ⁇ 1.
  • the second comparison value corresponds to the case where raster data stored in obj [n, m, 2] and raster data stored in obj [n-1, pm, 2] are expanded respectively.
  • An equivalent ratio of pixels to be used can be used.
  • the second comparison value is preferably calculated from between two adjacent frames.
  • the second comparison value can be calculated between two non-adjacent frames or between three or more frames.
  • Step S4-12 the CPU 11 determines whether or not the calculated second comparison value is smaller than the constant C2, the process proceeds to step S4-14 if not, and the process proceeds to step S4-13 if not smaller.
  • the constant C2 stores a threshold value serving as a reference for determining the correspondence / non-correspondence between two objects to be compared.
  • Step S4-13 the CPU 11 determines whether or not pm is greater than or equal to 0 and less than or equal to PM. If it is greater than or equal to 0 and less than or equal to PM, the process returns to step S4-9. move on.
  • Step S4-14 the CPU 11 determines whether i is 0 or more and I or less. If i is 0 or more and I or less, the process proceeds to step S4-15. move on.
  • Step S4-15 the CPU 11 determines whether or not the value stored in track [i, n] is equal to the value stored in pm. If they are equal, the process proceeds to step S4-17 and must be equal. Step S4-16 follows.
  • Step S4-16 the CPU 11 determines whether or not the variable i is 0 or more and I or less. If the variable i is 0 or more and I or less, the process returns to step S4-15. Proceed to
  • Step S4-17 the CPU 11 stores the value stored in m in track [i, n + 1], and proceeds to step S4-20.
  • Step S4-18 the CPU 11 adds 1 to the value stored in the variable I and stores it in the variable I, and proceeds to step S4-19.
  • Step S4-19 the CPU 11 stores the value stored in m in track [I, n + 1], and proceeds to step S4-20.
  • Step S4-20 the CPU 11 determines whether m is not less than 0 and not more than M. If it is not less than 0 and not more than M, the CPU 11 returns to step S4-8. finish.
  • FIG. 7 is a schematic flowchart of the drawing command generation / output process.
  • Step S6-1 the CPU 11 determines whether i is 0 or more and I or less, and if it is 0 or more and I or less, the process proceeds to step S6-2, and if it is not 0 or more and I or less, the process proceeds to step S6-5. move on.
  • Step S6-2 the CPU 11 determines whether or not the value stored in track [i, n + 1] is equal to the value stored in m. If they are equal, the process proceeds to step S6-3 and must be equal. Then, the process proceeds to step S6-4.
  • Step S6-3 the CPU 11 stores the value stored in the variable i in the variable object_id, and proceeds to step S6-5.
  • Step S6-4 the CPU 11 determines whether i is 0 or more and I or less. If i is 0 or more and I or less, the process returns to step S6-2, and if it is not 0 or more and I or less, the process proceeds to step S6-5. move on.
  • Step S6-5 the CPU 11 executes a drawing command generation process, and proceeds to step S6-6.
  • Step S6-6 In step S6-6, the CPU 11 outputs the generated drawing command to the video controller 13, and ends the drawing command generation output process.
  • FIG. 8 is a schematic flowchart of the drawing command generation process.
  • Step S6-5-1 the CPU 11 determines whether or not k is 0 or more and 3 or less. If k is 0 or more and 3 or less, the process proceeds to step S6-5-2, and if it is not 0 or more and 3 or less, step 11- Proceed to S6-5-4.
  • Step S6-5-2 the CPU 11 stores the value stored in obj [n, m, k] in cmd [k], and proceeds to step S6-5-3.
  • Step S6-5-3 the CPU 11 determines whether or not k is 0 or more and 3 or less. If k is 0 or more and 3 or less, the process returns to step S6-5-2. Proceed to S6-5-4.
  • Step S6-5-4 the CPU 11 stores 0 in cmd [4], and proceeds to step S6-5-5.
  • Step S6-5-5 the CPU 11 determines whether j is 0 or more and J or less. If it is 0 or more and J or less, the process proceeds to step S6-5-6. The instruction generation process is terminated.
  • Step S6-5-6 the CPU 11 determines whether or not the value stored in steering [j, 1] is equal to the value stored in object_id. If they are equal, the process proceeds to step S6-5-7. If not equal, the process proceeds to step S6-5-19.
  • Step S6-5-7 the CPU 11 determines whether or not the value stored in the variable n is larger than the value stored in steering [j, 7], and if so, step S6-5-19. If not, the process proceeds to step S6-5-8.
  • Step S6-5-8 the CPU 11 determines whether or not the value stored in steering [j, 0] is equal to 0, the process proceeds to step S6-5-9 if equal, and if not equal to step S6-5-9. Proceed to -5-10.
  • Step S6-5-9 the CPU 11 stores the value stored in steering [j, 2] in cmd [4], and proceeds to step S6-5-19.
  • Step S6-5-10 the CPU 11 determines whether or not the value stored in steering [j, 0] is equal to 1, the process proceeds to step S6-5-11 if equal, and if not equal, the process proceeds to step S6. Proceed to -5-13.
  • Step S6-5-11 In step S6-5-11, the CPU 11 stores the value stored in steering [j, 3] in cmd [0], and proceeds to step S6-5-12.
  • Step S6-5-12 In step S6-5-12, the CPU 11 stores the value stored in steering [j, 4] in cmd [1], and proceeds to step S6-5-19.
  • Step S6-5-13 the CPU 11 determines whether or not the value stored in steering [j, 0] is equal to 2, the process proceeds to step S6-5-14 if they are equal, otherwise the process proceeds to step S6-5. Proceed to -5-17.
  • Step S6-5-14 the CPU 11 stores the value stored in steering [j, 5] in the variable a, and proceeds to step S6-5-15.
  • Step S6-5-15 the CPU 11 stores the value stored in track [a, n + 1] in the variable b, and proceeds to step S6-5-16.
  • Step S6-5-16 the CPU 11 stores the value stored in obj [n, b, 2] in cmd [2], and proceeds to step S6-5-19.
  • Step S6-5-17 the CPU 11 determines whether or not the value stored in steering [j, 0] is equal to 3, the process proceeds to step S6-5-18 if they are equal, otherwise the process proceeds to step S6-5. Proceed to -5-19.
  • Step S6-5-18 In step S6-5-18, the CPU 11 stores 0 in cmd [2], and proceeds to step S6-5-19.
  • Step S6-5-19 the CPU 11 determines whether or not the variable j is 0 or more and J or less. If the variable j is 0 or more and J or less, the process returns to step S6-5-6. The drawing command generation process ends.
  • FIG. 9 is a schematic flowchart of the steering-off command reception process.
  • Step S8-1 the CPU 11 determines whether or not an interrupt request is output from the mouse controller 16, keyboard controller 17, or network controller 21, and proceeds to step S8-2 if output. If not, the rudder turn command acceptance process is terminated.
  • Step S8-2 the CPU 11 reads the data requested to be interrupted from the mouse controller 16, keyboard controller 17, or network controller 21, and proceeds to step S8-3.
  • the data requested to be interrupted is a coordinate or a steering command.
  • Step S8-3 the CPU 11 determines whether or not the read data is a coordinate. If the coordinate is a coordinate, the process proceeds to step S8-4. If not, the process proceeds to step S8-15.
  • Step S8-4 the CPU 11 determines whether m is not less than 0 and not more than M. If it is not less than 0 and not more than M, the process proceeds to step S8-5, and if not not less than 0 to M, the process proceeds to step S8-7. move on.
  • Step S8-5 the CPU 11 determines whether or not the received coordinates fall within the edge indicated by obj [n, m, 3]. If so, the process proceeds to step S8-7. The process proceeds to step S8-6.
  • Step S8-6 the CPU 11 determines whether m is not less than 0 and not more than M. If it is not less than 0 and not more than M, the process returns to step S8-5, and if not not less than 0 and not more than M, the process proceeds to step S8-7. move on.
  • Step S8-7 the CPU 11 determines whether i is 0 or more and I or less. If i is 0 or more and I or less, the process proceeds to step S8-8. If i is not 0 or more and I or less, the process proceeds to step S8-11. move on.
  • Step S8-8 the CPU 11 determines whether or not the value stored in the track [i, n + 1] is equal to the value stored in the variable m, the process proceeds to step S8-10 if equal. If not, the process proceeds to step S8-9.
  • Step S8-9 the CPU 11 determines whether i is 0 or more and I or less. If i is 0 or more and I or less, the process returns to step S8-8, and if it is not 0 or more and I or less, the process proceeds to step S8-11. move on.
  • Step S8-10 the CPU 11 stores the value stored in the variable i in object_id, and proceeds to step S8-11.
  • Step S8-11 the CPU 11 determines whether or not the variable j is 0 or more and J or less. If the variable j is 0 or more and J or less, the process proceeds to step S8-12. End the process.
  • Step S8-12 the CPU 11 determines whether or not the value stored in steering [j, 1] is equal to the value stored in object_id. If they are equal, the process proceeds to step S8-14 and must be equal. Step S8-13 follows.
  • Step S8-13 the CPU 11 outputs a drawing command for instructing drawing of the steering command ID, steering [j, 0] and steering [j, 1], and proceeds to step S8-14.
  • Step S8-14 the CPU 11 determines whether or not the variable j is 0 or more and J or less. If the variable j is 0 or more and J or less, the process returns to step S8-12. End the process.
  • Step S8-15 the CPU 11 stores the steering instruction ID in the variable j, and proceeds to step S8-16.
  • Step S8-16 the CPU 11 determines whether or not the value stored in the variable j is NULL. If NULL, the process proceeds to step S8-17, and if not NULL, the process proceeds to step S8-19.
  • Step S8-17 the CPU 11 adds 1 to the value stored in the variable J and stores it in the variable J, and proceeds to step S8-18.
  • Step S8-18 the CPU 11 stores the value stored in the variable J in the variable j, and proceeds to step S8-19.
  • Step S8-19 the CPU 11 executes storage processing for all or part of steering [j, 0] to steering [j, 7], and ends the steering command receiving process.
  • the moving image display device has been described.
  • the background of the movement source portion or the deleted portion is predicted and complemented. It is preferable to keep it.
  • Such background prediction can be performed, for example, by comparing a plurality of frames.
  • the moving image display apparatus can accept meta information of each object while displaying a moving image.
  • the accepted meta information is stored in track [i, 0].
  • FIG. 10 is a diagram illustrating a moving image display apparatus according to an embodiment of the present invention.
  • the moving image is advanced in a direction that the moving image provider did not expect by the steering command such as erasure, movement, and replacement.
  • “Provided frame” means a frame taken into the moving image display device via an input means, a receiving means, or the like.
  • the input means means all means capable of inputting a frame
  • the media drive described above is an example of this input means.
  • the receiving means all means capable of receiving a frame
  • the network controller described above is an example of the receiving means.
  • Frame is an image constituting one screen (one frame), and “frame data” includes this image (eg, raster data) and data related to this image.
  • object is an image constituting a part of a frame, that is, an image constituting a part of one screen (one frame), and “object data” includes this image (eg, raster data) and this Data about the image.
  • a single frame is composed of two or more objects.
  • the “steering-off instruction receiving means” means all means that can receive a steering-off instruction during the display of a moving image.
  • the above-described mouse controller, keyboard controller, network controller, etc. It is an example of a cut command reception means.
  • “accepting” a rudder turning command means that the rudder turning command is input or received.
  • the “drawing command generation means” means all means capable of generating a drawing command.
  • the CPU has been described as an example of the drawing command generation unit.
  • a video controller or the like can also be used as the drawing command generation unit.
  • the “drawing command for ordering drawing of a frame” includes a “drawing command for ordering drawing of all of one frame” and / or a “drawing command for ordering drawing of a part of one frame (ie,“ object ”)”. It is.
  • the “moving image display device” in the present invention includes all devices capable of displaying a moving image, and includes, for example, a television (television) (TV), a portable terminal, and a projector with a built-in drawing command generation means. .
  • moving image means all data in which images move on the screen, and in addition to movies and animations, broadcast programs and live images also correspond to “moving images” in the present invention.
  • the network in the present invention is not limited to the Internet, and includes all networks in which data is transmitted, received, or transmitted / received.
  • the present invention includes a mode in which the units included in the moving image display apparatus according to the embodiment are distributed on the network.
  • the network includes the moving image display apparatus.
  • the present invention includes a network including a moving image display device in addition to a moving image display device used as a stand-alone.
  • This network includes, in addition to a computer network, a broadcast network for broadcasting programs and CMs, and a mobile network in which data is transmitted, received, or transmitted / received between mobile terminals or between a mobile terminal and a fixed terminal. .

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 動画を見ている者などが、その動画の表示中に動画の進行について舵を切ることができる動画表示装置などを提供することを目的とする。  提供されたフレームを描画することによって動画を表示する動画表示装置であって、動画の表示中に舵切命令を受け付ける舵切命令受付手段と、舵切命令受付手段で舵切命令を受け付けた場合に、この受け付けた舵切命令に従って、提供されたフレームに関するデータから、提供されたフレームではないフレームの描画を命じる描画命令を生成する描画命令生成手段と、を備えたことを特徴とする動画表示装置である。

Description

動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、携帯ネットワークシステム
 本発明は、動画についての技術に関する。
 従来、動画の表示中に所定の操作を行うことによって何らかのアクションを起動させることができるとする装置が提案された(特許文献1参照)。
特開2003-32658号公報
 しかしながら、かかるアクションの起動は、いわゆる仕掛けであって(特許文献1の段落0003参照)、動画提供者によって予め施されたものに過ぎない。
 したがって、動画を見ている者などは、たとえアクションを起動させたとしても、動画提供者の期待に沿う方向へしか動画を進行させることができなかった。
 そこで、本発明は、動画を見ている者などが、その動画の表示中に動画の進行について舵を切ることができる動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、及び携帯ネットワークシステムを提供することを目的とする。
 本発明によれば、上記課題は、次の手段により解決される。
 本発明は、提供されたフレームを描画することによって動画を表示する動画表示装置であって、動画の表示中に舵切命令を受け付ける舵切命令受付手段と、前記舵切命令受付手段で舵切命令を受け付けた場合に、この受け付けた舵切命令に従って、前記提供されたフレームに関するデータから、前記提供されたフレームではないフレームの描画を命じる描画命令を生成する描画命令生成手段と、を備えたことを特徴とする動画表示装置である。
 また、本発明は、上記動画表示装置を備えたコンピュータネットワークシステムである。
 また、本発明は、上記動画表示装置を備えた放送ネットワークシステムである。
 また、本発明は、上記動画表示装置を備えた携帯ネットワークシステムである。
 本発明によれば、舵切命令が受け付けられた場合、この舵切命令に従って、提供されたフレームに関するデータから、提供されたフレームではないフレームの描画を命じる描画命令が生成される。
 したがって、本発明によれば、動画を見ている者などは、その動画の表示中に舵切命令を入力や送信などすることによって、動画の進行について舵を切ることができるようになる。
本発明の実施形態に係る動画表示装置の概略動作を説明する図である。 本発明の実施形態に係る動画表示装置の概略構成を示す図である。 本発明の実施形態に係るデータ構造の概略を説明する図である。 動画表示処理の概略フローチャートである。 オブジェクトデータ取得処理の概略フローチャートである。 追跡データ生成処理の概略フローチャートである。 描画命令生成出力処理の概略フローチャートである。 描画命令生成処理の概略フローチャートである。 舵切命令受付処理の概略フローチャートである。 本発明の実施例に係る動画表示装置を示す図である。
符号の説明
11  CPU
12  メインメモリ
13  ビデオコントローラ
14  ビデオメモリ
15  ディスプレイ
16  マウスコントローラ
17  キーボードコントローラ
18  サウンドコントローラ
19  スピーカ
20  メディアドライブ
21  ネットワークコントローラ
22  ハードディスクドライブ
 以下に、添付した図面を参照しつつ、本発明を実施するための最良の形態を詳細に説明する。
[動画表示装置の動作]
 まず、図1を参照しつつ、本発明の実施形態に係る動画表示装置の概略動作を説明する。図1は、本発明の実施形態に係る動画表示装置の概略動作を説明する図である。
 図1において、フレーム1~9は、動画提供者により提供された動画を構成するフレームである。動画提供者は、動画が、フレーム1~9の順で進行することを期待しているものとする。
 ここで、実施形態に係る動画表示装置においては、このような動画を、動画提供者の期待に沿うように進行させること、すなわち、フレーム1~9の順で進行させることもできる。
 しかしながら、実施形態に係る動画表示装置においては、舵切命令によって、動画の進行について舵を切ることができるようになる。
 以下、実施形態に係る動画表示装置が動画の進行について舵を切る際の動作をケース1~3に分けて説明する。
(ケース1)
 ケース1において、実施形態に係る動画表示装置は、フレーム2の描画までは動画提供者の期待に沿うように動画を進行させる。
 しかしながら、実施形態に係る動画表示装置は、フレーム2が描画された後に舵切命令を受け付けて、動画の進行について舵を切る。
 このため、動画は、フレーム2の後、フレーム3、4、5、6ではなく、フレーム3-1、4-1、5-1、6-1という、動画提供者が予定していなかった方向へと進行する。
 これらフレーム3-1、4-1、5-1、6-1は、フレーム2の描画が終わるまでは実施形態に係る動画表示装置において存在しなかったものである。
 実施形態に係る動画表示装置は、これらフレーム3-1、4-1、5-1、6-1についての描画命令を、舵切命令に従って、フレーム3、4、5、6から生成する。
 そして、実施形態に係る動画表示装置は、フレーム6-1が描画された後に上記舵切命令の取消を受け付けて、フレーム7、フレーム8、フレーム9の描画を行う。このため、フレーム6-1が描画された後においては、動画の進行が、動画提供者によって予定されていた方向へと戻ることになる。
(ケース2)
 ケース2において、実施形態に係る動画表示装置は、上記ケース1におけるフレーム3-1の描画を行った後に、第2の舵切命令を受け付けて、動画の進行について、より一層の舵を切る。
 このため、実施形態に係る動画表示装置は、フレーム4-1、5-1の描画ではなく、フレーム4、5とは画像がより一層異なるフレーム4-2、5-2の描画を行うこととなり、動画は、動画提供者によってはまったく予定されていなかった方向へと進行することとなる。
 これらフレーム4-2、5-2も、フレーム3-1の描画が終わるまでは実施形態に係る動画表示装置において存在しなかったものである。
 実施形態に係る動画表示装置は、これらフレーム4-2、5-2についての描画命令を、第2の舵切命令に従って、フレーム4、5から生成する。
 実施形態に係る動画表示装置は、フレーム5-2が描画された後に上記第2の舵切命令の取消を受け付けて、フレーム6-1の描画を行う。このため、フレーム5-2が描画された後においては、動画の進行が、最初に受け付けた舵切命令に従った方向へと戻ることになる。
 そして、実施形態に係る動画表示装置は、フレーム6-1が描画された後に最初に受け付けた舵切命令の取消を受け付けて、フレーム7、フレーム8、フレーム9の描画を行う。このため、フレーム6-1が描画された後においては、動画の進行が、動画提供者によって予定されていた方向へと戻ることになる。
(ケース3)
 ケース3において、実施形態に係る動画表示装置は、フレーム1の描画までは動画提供者の期待に沿うように動画を進行させる。
 しかしながら、実施形態に係る動画表示装置は、フレーム1が描画された後に舵切命令を受け付けて、動画の進行について舵を切る。
 このため、動画は、フレーム1の後、フレーム2、3、4、5、6、7、8、9ではなく、フレーム2-3、3-3、4-3、5-3、6-3、7-3、8-3、9-3という、動画提供者が予定していなかった方向へと進行する。
 これらフレーム2-3~9-3は、フレーム1の描画が終わるまでは実施形態に係る動画表示装置において存在しなかったものである。
 実施形態に係る動画表示装置は、これらフレーム2-3~9-3についての描画命令も、舵切命令に従って、フレーム2~9からそれぞれ生成する。
 ケース3においては、受け付けられた舵切命令が取り消されないため、実施形態に係る動画表示装置は、フレーム2~9を提供されているが(又は提供され続けているが)、これらフレーム2~9を描画する機会がなく、動画の進行は、動画提供者によって予定されていた方向へと戻ることがない。
 このように、実施形態に係る動画表示装置によれば、舵切命令が受け付けられた場合、この舵切命令に従って、動画提供者によって提供されたフレームに関するデータから、提供されたフレームではないフレームの描画を命じる描画命令が生成される。
 したがって、実施形態に係る動画表示装置によれば、動画を見ている者などが、その動画の表示中に舵切命令を入力や送信などして舵を切ることにより、提供された動画を、動画提供者が期待する方向とは異なる方向へ進行させることができるようになる。
 このように、実施形態に係る動画表示装置によれば、動画を見ている者などが、動画の表示中に舵を切ることにより、動画の進行を操ることができるようになる。
 このため、実施形態に係る動画表示装置によれば、動画の進行に関する主導権を、動画提供者から動画を見ている者などへと移転させることができるようになる。
[動画表示装置の構成]
 次に、図2を参照しつつ、本発明の実施形態に係る動画表示装置の概略構成を説明する。図2は、本発明の実施形態に係る動画表示装置の概略構成を示す図である。
 図2に示すように、本発明の実施形態に係る動画表示装置は、CPU11と、メインメモリ12と、ビデオコントローラ13と、ビデオメモリ14と、ディスプレイ15と、マウスコントローラ16と、キーボードコントローラ17と、サウンドコントローラ18と、スピーカ19と、CDドライブやDVDドライブなどのメディアドライブ20と、ネットワークコントローラ21と、ハードディスクドライブ22と、を備えている。
 本発明の実施形態に係る動画表示装置においては、CPU11が、ハードディスクドライブ22に記憶されているプログラムをメインメモリ12に読み出した上で、動画表示処理を実行する。
 本発明の実施形態においては、動画提供者から提供された動画が複数のフレームから構成されており、各フレームについてのフレームデータが、メディアドライブ20に挿入されるDVD-ROM、CD-ROM、USBメモリなどや、ハードディスクドライブ22などに格納されている。
 本発明の実施形態に係る動画表示装置においては、CPU11が、これらのデバイスに格納されている各フレームデータの全部又は一部をメインメモリ12に読み出した上で、この読み出したフレームデータの全部又は一部から描画命令を生成する。
 このようにして生成された描画命令は、各フレームの描画を命じるデータであり、CPU11からビデオコントローラ13に出力される。
 ビデオコントローラ13は、CPU11から描画命令を入力された場合、この描画命令に従って映像信号を生成し、ビデオメモリ14に格納する。
 その後、ビデオコントローラ13は、ビデオメモリ14から映像信号を読み出して、ディスプレイ15に出力する。
 そして、ディスプレイ15は、ビデオコントローラ13から入力された映像信号に基づいて画面を走査することにより、フレームを画面上に描画する。
 マウスコントローラ16、キーボードコントローラ17、又はネットワークコントローラ21は、マウス(図示せず)やキーボード(図示せず)から舵切命令が入力された場合やインターネットなどのネットワーク(図示せず)から舵切命令を受信した場合、CPU11に割込要求を出力する。
 CPU11は、マウスコントローラ16、キーボードコントローラ17、又はネットワークコントローラ21から割込要求を入力された場合、割込要求された舵切命令を読み出してメインメモリ12に格納する。
 そして、CPU11は、メインメモリ12に格納された舵切命令に従って、メディアドライブ20に挿入されるDVD-ROM、CD-ROM、USBメモリなどやハードディスクドライブ22などに格納されているフレームに関するデータから、この格納されているフレームではないフレームの描画を命じる描画命令を生成し、ビデオコントローラ13に出力する。
 なお、メディアドライブ20に挿入されるDVD-ROM、CD-ROM、USBメモリなどやハードディスクドライブ22などには、サウンドデータも格納されている。
 CPU11は、メディアドライブ20に挿入されるDVD-ROM、CD-ROM、USBメモリなどやハードディスクドライブ22などから、各フレームの描画と同期してスピーカ19から出力されるべきサウンドデータをメインメモリ12に読み出した上、この読み出したサウンドデータをサウンドコントローラ18に出力する。
[データ構造]
 次に、図3を参照しつつ、CPU11が、動画表示処理において処理するデータのデータ構造を説明する。図3は、本発明の実施形態に係るデータ構造の概略を説明する図である。
 CPU11は、動画表示処理において、オブジェクトデータ、追跡データ、舵切命令、及び描画命令を処理するが、これらのデータのデータ構造は、図3に示す通りである。
(a:オブジェクトデータのデータ構造)
 オブジェクトデータとは、各フレームに含まれるオブジェクトについてのデータであり、フレームデータから取得される。
 実施形態においては、このオブジェクトデータとして、オブジェクトを構成するラスタデータの基準点X座標、オブジェクトを構成するラスタデータの基準点Y座標、ラスタデータ、及びオブジェクトのエッジ座標列を用いることとする。
 図3(a)に示すように、このオブジェクトデータは、obj[n,m,0]~obj[n,m,3]の各領域に格納される。
 ここで、nは、フレームを識別するフレーム番号を示し、mは、1フレーム内でオブジェクトを区別するオブジェクト識別子を示す。
 たとえば、図1中のフレーム3に3つのオブジェクトが含まれていると仮定した場合、1つ目のオブジェクトについての基準点X座標、基準点Y座標、ラスタデータ、及びエッジ座標列は、それぞれobj[2,0,0]~obj[2,0,3]に格納され、2つ目のオブジェクトについての基準点X座標、基準点Y座標、ラスタデータ、及びエッジ座標列は、それぞれobj[2,1,0]~obj[2,1,3]に格納され、3つ目のオブジェクトについての基準点X座標、基準点Y座標、ラスタデータ、及びエッジ座標列は、それぞれobj[2,2,0]~obj[2,2,3]に格納される。
<基準点X座標>
 基準点X座標とは、ラスタデータ上の基準点が、フレーム内において位置するX座標である。
<基準点Y座標>
 基準点Y座標とは、ラスタデータ上の基準点が、フレーム内において位置するY座標である。
<ラスタデータ>
 ラスタデータとは、オブジェクトを構成する画像である。
<エッジ座標列>
 エッジ座標列とは、オブジェクトの輪郭を表現する座標の集合である。
(b:追跡データのデータ構造)
 追跡データとは、フレーム間におけるオブジェクトの関係を示すデータである。この追跡データは、たとえば、図1において、人物Aというオブジェクトがフレーム1とフレーム2とに含まれていた場合に、これらのオブジェクトが対応していることをCPU11に把握させるために用いられる。
 図3(b)に示すように、この追跡データは、track[i,0]~track[i,N+1]の各領域に格納される。
 ここで、iは、オブジェクトIDである。このオブジェクトIDは、すべてのフレームを通して一意にオブジェクトを識別する値である。
 たとえば、図1において、人物Aについてのオブジェクトに対して、
・オブジェクトIDとして1が割り当てられ、
・フレーム1(フレーム番号0)におけるオブジェクト識別子として3が割り当てられ、
・フレーム2(フレーム番号1)におけるオブジェクト識別子として2が割り当てられ、
・フレーム3(フレーム番号2)におけるオブジェクト識別子として8が割り当てられている場合、
 track[1,0]には、人物Aについてのオブジェクトのメタ情報(たとえば「A」)が格納され、track[1,1]には3が格納され、track[1,2]には2が格納され、track[1,3]には8が格納される。
 なお、Nは、動画を構成するフレームの数であり、たとえば、CPU11が動画の表示時間をフレームレートで除することにより算出される。
(c:舵切命令のデータ構造)
 舵切命令は、動画の進行について舵を切ることを命ずるデータであり、より具体的には、動画表示装置が、動画提供者から提供されたフレームではないフレームの描画命令を、どのようにして生成するかを規定する命令である。
 この舵切命令は、steering[j,0]、steering[j,1]、steering[j,2]、steering[j,3]、steering[j,4]、steering[j,5]、steering[j,6]、steering[j,7]の各領域に格納される。
 本実施形態においては、この舵切命令として、種別、オブジェクトID、強調種別、基準点X座標、基準点Y座標、入替オブジェクトID,開始フレーム番号、終了フレーム番号が用いられるものとする。
 なお、jは、舵切命令を識別する舵切命令IDである。
<種別>
 種別は、オブジェクトに対する操作の別を示す値である。実施形態においては、0がオブジェクトのエッジを強調表示すべきことを示し、1がオブジェクトを移動させるべきことを示し、2が、同一フレーム内における2つのオブジェクトを入れ替えるべきことを示し、3がオブジェクトを消去すべきことを示す。
<オブジェクトID>
 ここでのオブジェクトIDとは、操作対象となるオブジェクトのオブジェクトIDである。
<強調種別>
 強調種別とは、オブジェクトのエッジに対する強調表示の別を示す値である。たとえば、0であればエッジを点滅させる、1であればエッジを青色にする、などを例として挙げることができる。
<基準点X座標>
 ここでの基準点X座標とは、操作するオブジェクトを移動させる場合における、その移動先の基準点X座標である。
<基準点Y座標>
 ここでの基準点Y座標とは、操作するオブジェクトを移動させる場合における、その移動先の基準点Y座標である。
<入替オブジェクトID>
 入替オブジェクトIDとは、オブジェクトを入れ替える場合において、どのオブジェクトIDのオブジェクトと入れ替えるのかを示すデータである。
<開始フレーム番号>
 開始フレーム番号とは、舵切命令に従った描画命令の生成を開始するフレームのフレーム番号である。
<終了フレーム番号>
 終了フレーム番号とは、舵切命令に従った描画命令の生成を終了するフレームのフレーム番号である。
(d:描画命令のデータ構造)
 描画命令は、CPU11からビデオコントローラ13に出力されるデータである。
 実施形態においては、この描画命令として、オブジェクトを構成するラスタデータの基準点X座標、オブジェクトを構成するラスタデータの基準点Y座標、ラスタデータ、オブジェクトのエッジ座標列、及び強調種別を用いることとする。
 図3(d)に示すように、これらの描画命令は、cmd[0]~cmd[4]の各領域に格納される。
[動画表示処理]
 次に、図4を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行される動画表示処理を説明する。図4は、動画表示処理の概略フローチャートである。
(ステップS1:初期化処理)
 ステップS1において、CPU11は、変数や定数のための領域をメインメモリ12上に確保し、これら領域を確保された変数や定数に初期値を格納する初期化処理を行い、ステップS2に進む。
 具体的に説明すると、実施形態に係る動画表示装置は、初期化処理として、変数n、m、M、pm、PM、i、I、j、J、k、object_id、a、bの領域や、定数N、C1、C2の領域をメインメモリ12上に確保する。
 そして、実施形態に係る動画表示装置は、変数n、m、M、pm、PM、i、I、j、J、k、object_id、a、bに0を格納し、Nにフレームの数を格納し、C1、C2に所定の閾値を格納する。
 また、実施形態に係る動画表示装置は、obj[]、track[]、steering[]、cmd[]のための領域も、メインメモリ12上に確保する。
(ステップS2:フレームループの開始)
 ステップS2において、CPU11は、nが0以上N以下であるか否かを判定し、0以上N以下であればステップS3に進み、0以上N以下でなければ動画表示処理を終了する。
(ステップS3:オブジェクトデータ取得処理)
 ステップS3において、CPU11は、オブジェクトデータ取得処理を実行し、ステップS4に進む。オブジェクトデータ取得処理は、フレーム番号nのフレームについてのフレームデータから、そのフレームに含まれるオブジェクトについてのオブジェクトデータを取得し、obj[n,m,0]~obj[n,m,3]に格納する処理である。
(ステップS4:追跡データ生成処理)
 ステップS4において、CPU11は、追跡データ生成処理を実行し、ステップS5に進む。追跡データ生成処理は、フレーム番号nのフレームに含まれるオブジェクトのオブジェクト識別子mを取得し、track[i,n+1]に格納する処理である。
(ステップS5:現オブジェクトループの開始)
 ステップS5において、CPU11は、mが0以上M以下であるか否かを判定し、0以上M以下であればステップS6に進み、0以上M以下でなければステップS8に進む。
(ステップS6:描画命令生成出力処理)
 ステップS6において、CPU11は、描画命令生成出力処理を実行し、ステップS7に進む。描画命令生成出力処理は、受け付けた舵切命令に従い、フレーム番号nのフレームに含まれるオブジェクトについてのオブジェクトデータから、フレーム番号nのフレームに含まれるオブジェクトではないオブジェクトの描画を命じる描画命令を生成し出力する処理である。
(ステップS7:現オブジェクトループの終了)
 ステップS7において、CPU11は、mが0以上M以下であるか否かを判定し、0以上M以下であればステップS6に戻り、0以上M以下でなければステップS8に進む。
(ステップS8:舵切命令受付処理)
 ステップS8において、CPU11は、舵切命令受付処理を実行し、ステップS9に進む。舵切命令受付処理は、舵切命令を受け付け、この受け付けた舵切命令をsteering[j,0]~steering[j,7]に格納する処理である。
(ステップS9:フレームループの終了)
 ステップS9において、CPU11は、nが0以上N以下であるか否かを判定し、0以上N以下であればステップS3に戻り、0以上N以下でなければ動画表示処理を終了する。
[オブジェクトデータ取得処理]
 次に、図5を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行されるオブジェクトデータ取得処理を説明する。図5は、オブジェクトデータ取得処理の概略フローチャートである。
(ステップS3-1)
 ステップS3-1において、CPU11は、mが0以上であるか否かを判定し、0以上であればステップS3-2に進み、0以上でなければステップS3-10に進む。
(ステップS3-2)
 ステップS3-2において、CPU11は、フレーム番号nのフレームからオブジェクトを抽出する処理を行い、ステップS3-3に進む。
 フレームからオブジェクトを抽出する処理としては、隣接する画素値の急激な変化を利用するなどのフレーム内抽出手法や、フレーム間の差分が大きい部分を取り出すなどのフレーム間抽出手法などを用いることができる。
(ステップS3-3)
 ステップS3-3において、CPU11は、フレーム番号nのフレームからオブジェクトを抽出できたか否かを判定し、抽出できた場合はステップS3-4に進み、抽出できなかった場合はステップS3-10に進む。
(ステップS3-4)
 ステップS3-4において、CPU11は、抽出したオブジェクトを構成するラスタデータの基準点X座標を取得した上で、この取得した基準点X座標をobj[n,m,0]に格納し、ステップS3-5に進む。
(ステップS3-5)
 ステップS3-5において、CPU11は、抽出したオブジェクトを構成するラスタデータの基準点Y座標を取得した上で、この取得した基準点Y座標をobj[n,m,1]に格納し、ステップS3-6に進む。
(ステップS3-6)
 ステップS3-6において、CPU11は、抽出したオブジェクトのラスタデータを取得した上で、この取得したラスタデータをobj[n,m,2]に格納し、ステップS3-7に進む。
(ステップS3-7)
 ステップS3-7において、CPU11は、抽出したオブジェクトのエッジ座標列を算出し、ステップS3-8に進む。
(ステップS3-8)
 ステップS3-8において、CPU11は、算出したエッジ座標列をobj[n,m,3]に格納し、ステップS3-9に進む。
(ステップS3-9)
 ステップS3-9において、CPU11は、mが0以上であるか否かを判定し、0以上であればステップS3-2に戻り、0以上でなければステップS3-10に進む。
(ステップS3-10)
 ステップS3-10において、CPU11は、変数Mに格納されている値を変数PMに格納し、ステップS3-11に進む。
(ステップS3-11)
 ステップS3-11において、CPU11は、変数mに格納されている値を変数Mに格納し、オブジェクトデータ取得処理を終了する。
[追跡データ生成処理]
 次に、図6を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行される追跡データ生成処理を説明する。図6は、追跡データ生成処理の概略フローチャートである。
(ステップS4-1)
 ステップS4-1において、CPU11は、nが0と等しくないか否かを判定し、等しくなければステップS4-7に進み、等しければステップS4-2に進む。
(ステップS4-2)
 ステップS4-2において、CPU11は、mが0以上M以下であるか否かを判定し、mが0以上M以下であればステップS4-3に進み、mが0以上M以下でなければステップS4-6に進む。
(ステップS4-3)
 ステップS4-3において、CPU11は、変数mに格納されている値をtrack[i,1]に格納し、ステップS4-4に進む。
(ステップS4-4)
 ステップS4-4において、CPU11は、iに格納されている値に1を加算してiに格納し、ステップS4-5に進む。
(ステップS4-5)
 ステップS4-5において、CPU11は、mが0以上M以下であるか否かを判定し、mが0以上M以下であればステップS4-3に戻り、mが0以上M以下でなければステップS4-6に進む。
(ステップS4-6)
 ステップS4-6において、CPU11は、iに格納されている値から1を減算した値を変数Iに格納し、追跡データ生成処理を終了する。
(ステップS4-7)
 ステップS4-7において、CPU11は、mが0以上M以下であるか否かを判定し、mが0以上M以下であればステップS4-8に進み、mが0以上M以下でなければ追跡データ生成処理を終了する。
(ステップS4-8)
 ステップS4-8において、CPU11は、pmが0以上PM以下であるか否かを判定し、0以上PM以下であればステップS4-9に進み、0以上PM以下でなければステップS4-14に進む。
(ステップS4-9)
 ステップS4-9において、CPU11は、obj[n,m,3]とobj[n-1,pm,3]とから、第1比較値を算出し、ステップS4-10に進む。
 ここで、第1比較値は、フレーム番号nのフレームとフレーム番号n-1のフレームとの間において、エッジの形状が相似の関係にあるかどうか判定するための値として、CPU11により算出される。
 この第1比較値としては、対応する辺の長さや角についての比率や差分などを用いることができる。このような比率や差分は、obj[n,m,3]に格納されているエッジ座標列とobj[n-1,pm,3]に格納されている値とを用いて算出される。
 なお、上記のように、第1比較値は、隣接する2つのフレーム間から算出することが好ましい。しかしながら、本発明においては、第1比較値を、隣接しない2つのフレーム間や、3つ以上のフレーム間から算出することなどもできる。
(ステップS4-10)
 ステップS4-10において、CPU11は、算出した第1比較値が定数C1に格納されている値よりも小さいか否かを判定し、小さければステップS4-11に進み、小さくなければステップS4-13に進む。
 ここで、定数C1には、比較する2つのオブジェクトの対応・非対応を判定する基準となる閾値が格納される。
(ステップS4-11)
 ステップS4-11において、CPU11は、obj[n,m,2]とobj[n-1,pm,2]とから、第2比較値を算出し、ステップS4-12に進む。
 ここで、第2比較値は、フレーム番号nのフレームとフレーム番号n-1のフレームとの間において、ラスタデータが類似の関係にあるかどうか判定するための値として、CPU11により算出される。
 この第2比較値としては、obj[n,m,2]に格納されているラスタデータとobj[n-1,pm,2]に格納されているラスタデータとをそれぞれ展開した場合における、対応する画素の等価割合などを用いることができる。
 なお、上記のように、第2比較値は、隣接する2つのフレーム間から算出することが好ましい。しかしながら、本発明においては、第2比較値を、隣接しない2つのフレーム間や、3つ以上のフレーム間から算出することなどもできる。
(ステップS4-12)
 ステップS4-12において、CPU11は、算出した第2比較値が定数C2よりも小さいか否かを判定し、小さければステップS4-14に進み、小さくなければステップS4-13に進む。
 ここで、定数C2には、比較する2つのオブジェクトの対応・非対応を判定する基準となる閾値が格納される。
(ステップS4-13)
 ステップS4-13において、CPU11は、pmが0以上PM以下であるか否かを判定し、0以上PM以下であればステップS4-9に戻り、0以上PM以下でなければステップS4-14に進む。
(ステップS4-14)
 ステップS4-14において、CPU11は、iが0以上I以下であるか否かを判定し、0以上I以下であればステップS4-15に進み、0以上I以下でなければステップS4-18に進む。
(ステップS4-15)
 ステップS4-15において、CPU11は、track[i,n]に格納されている値が、pmに格納されている値に等しいか否かを判定し、等しければステップS4-17に進み、等しくなければステップS4-16に進む。
(ステップS4-16)
 ステップS4-16において、CPU11は、変数iが0以上I以下であるか否かを判定し、0以上I以下であればステップS4-15に戻り、0以上I以下でなければステップS4-18に進む。
(ステップS4-17)
 ステップS4-17において、CPU11は、mに格納されている値をtrack[i,n+1]に格納し、ステップS4-20に進む。
(ステップS4-18)
 ステップS4-18において、CPU11は、変数Iに格納されている値に1を加算して変数Iに格納し、ステップS4-19に進む。
(ステップS4-19)
 ステップS4-19において、CPU11は、mに格納されている値をtrack[I,n+1]に格納し、ステップS4-20に進む。
(ステップS4-20)
 ステップS4-20において、CPU11は、mが0以上M以下であるか否かを判定し、0以上M以下であればステップS4-8に戻り、0以上M以下でなければ追跡データ生成処理を終了する。
[描画命令生成出力処理]
 次に、図7を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行される描画命令生成出力処理について説明する。図7は、描画命令生成出力処理の概略フローチャートである。
(ステップS6-1)
 ステップS6-1において、CPU11は、iが0以上I以下であるか否かを判定し、0以上I以下であればステップS6-2に進み、0以上I以下でなければステップS6-5に進む。
(ステップS6-2)
 ステップS6-2において、CPU11は、track[i,n+1]に格納されている値が、mに格納されている値と等しいか否かを判定し、等しければステップS6-3に進み、等しくなければステップS6-4に進む。
(ステップS6-3)
 ステップS6-3において、CPU11は、変数iに格納されている値を変数object_idに格納し、ステップS6-5に進む。
(ステップS6-4)
 ステップS6-4において、CPU11は、iが0以上I以下であるか否かを判定し、0以上I以下であればステップS6-2に戻り、0以上I以下でなければステップS6-5に進む。
(ステップS6-5)
 ステップS6-5において、CPU11は、描画命令生成処理を実行し、ステップS6-6に進む。
(ステップS6-6)
 ステップS6-6において、CPU11は、生成した描画命令をビデオコントローラ13に出力し、描画命令生成出力処理を終了する。
(描画命令生成処理)
 次に、図8を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行される描画命令生成処理を説明する。図8は、描画命令生成処理の概略フローチャートである。
(ステップS6-5-1)
 ステップS6-5-1において、CPU11は、kが0以上3以下であるか否かを判定し、0以上3以下であればステップS6-5-2に進み、0以上3以下でなければステップS6-5-4に進む。
(ステップS6-5-2)
 ステップS6-5-2において、CPU11は、obj[n,m,k]に格納されている値をcmd[k]に格納し、ステップS6-5-3に進む。
(ステップS6-5-3)
 ステップS6-5-3において、CPU11は、kが0以上3以下であるか否かを判定し、0以上3以下であればステップS6-5-2に戻り、0以上3以下でなければステップS6-5-4に進む。
(ステップS6-5-4)
 ステップS6-5-4において、CPU11は、cmd[4]に0を格納し、ステップS6-5-5に進む。
(ステップS6-5-5)
 ステップS6-5-5において、CPU11は、jが0以上J以下であるか否かを判定し、0以上J以下であればステップS6-5-6に進み、0以上J以下でなければ描画命令生成処理を終了する。
(ステップS6-5-6)
 ステップS6-5-6において、CPU11は、steering[j,1]に格納されている値がobject_idに格納されている値と等しいか否かを判定し、等しければステップS6-5-7に進み、等しくなければステップS6-5-19に進む。
(ステップS6-5-7)
 ステップS6-5-7において、CPU11は、変数nに格納されている値がsteering[j,7]に格納されている値よりも大きいか否かを判定し、大きければステップS6-5-19に進み、大きくなければステップS6-5-8に進む。
(ステップS6-5-8)
 ステップS6-5-8において、CPU11は、steering[j,0]に格納されている値が0に等しいか否かを判定し、等しければステップS6-5-9に進み、等しくなければステップS6-5-10に進む。
(ステップS6-5-9)
 ステップS6-5-9において、CPU11は、steering[j,2]に格納されている値をcmd[4]に格納し、ステップS6-5-19に進む。
(ステップS6-5-10)
 ステップS6-5-10において、CPU11は、steering[j,0]に格納されている値が1に等しいか否かを判定し、等しければステップS6-5-11に進み、等しくなければステップS6-5-13に進む。
(ステップS6-5-11)
 ステップS6-5-11において、CPU11は、steering[j,3]に格納されている値をcmd[0]に格納し、ステップS6-5-12に進む。
(ステップS6-5-12)
 ステップS6-5-12において、CPU11は、steering[j,4]に格納されている値をcmd[1]に格納し、ステップS6-5-19に進む。
(ステップS6-5-13)
 ステップS6-5-13において、CPU11は、steering[j,0]に格納されている値が2に等しいか否かを判定し、等しければステップS6-5-14に進み、等しくなければステップS6-5-17に進む。
(ステップS6-5-14)
 ステップS6-5-14において、CPU11は、steering[j,5]に格納されている値を変数aに格納し、ステップS6-5-15に進む。
(ステップS6-5-15)
 ステップS6-5-15において、CPU11は、track[a,n+1]に格納されている値を変数bに格納し、ステップS6-5-16に進む。
(ステップS6-5-16)
 ステップS6-5-16において、CPU11は、obj[n,b,2]に格納されている値をcmd[2]に格納し、ステップS6-5-19に進む。
(ステップS6-5-17)
 ステップS6-5-17において、CPU11は、steering[j,0]に格納されている値が3に等しいか否かを判定し、等しければステップS6-5-18に進み、等しくなければステップS6-5-19に進む。
(ステップS6-5-18)
 ステップS6-5-18において、CPU11は、cmd[2]に0を格納し、ステップS6-5-19に進む。
(ステップS6-5-19)
 ステップS6-5-19において、CPU11は、変数jが0以上J以下であるか否かを判定し、0以上J以下であればステップS6-5-6に戻り、0以上J以下でなければ描画命令生成処理を終了する。
[舵切命令受付処理]
 次に、図9を参照しつつ、実施形態に係る動画表示装置のCPU11にて実行される舵切命令受付処理を説明する。図9は、舵切命令受付処理の概略フローチャートである。
(ステップS8-1)
 ステップS8-1において、CPU11は、マウスコントローラ16、キーボードコントローラ17、又はネットワークコントローラ21から、割込要求が出力されているか否かを判定し、出力されていればステップS8-2に進み、出力されていなければ舵切命令受付処理を終了する。
(ステップS8-2)
 ステップS8-2において、CPU11は、マウスコントローラ16、キーボードコントローラ17、又はネットワークコントローラ21から割込要求されたデータを読み出し、ステップS8-3に進む。なお、実施形態に係る動画表示装置において、割込要求されるデータは、座標又は舵切命令である。
(ステップS8-3)
 ステップS8-3において、CPU11は、読み出したデータが座標であるか否かを判定し、座標であればステップS8-4に進み、座標でなければステップS8-15に進む。
(ステップS8-4)
 ステップS8-4において、CPU11は、mが0以上M以下であるか否かを判定し、0以上M以下であればステップS8-5に進み、0以上M以下でなければステップS8-7に進む。
(ステップS8-5)
 ステップS8-5において、CPU11は、受け付けた座標が、obj[n,m,3]で示されるエッジ内に収まるか否かを判定し、収まる場合はステップS8-7に進み、収まらない場合はステップS8-6に進む。
(ステップS8-6)
 ステップS8-6において、CPU11は、mが0以上M以下であるか否かを判定し、0以上M以下であればステップS8-5に戻り、0以上M以下でなければステップS8-7に進む。
(ステップS8-7)
 ステップS8-7において、CPU11は、iが0以上I以下であるか否かを判定し、0以上I以下であればステップS8-8に進み、0以上I以下でなければステップS8-11に進む。
(ステップS8-8)
 ステップS8-8において、CPU11は、track[i,n+1]に格納されている値が変数mに格納されている値に等しいか否かを判定し、等しい場合はステップS8-10に進み、等しくなければステップS8-9に進む。
(ステップS8-9)
 ステップS8-9において、CPU11は、iが0以上I以下であるか否かを判定し、0以上I以下であればステップS8-8に戻り、0以上I以下でなければステップS8-11に進む。
(ステップS8-10)
 ステップS8-10において、CPU11は、変数iに格納されている値をobject_idに格納し、ステップS8-11に進む。
(ステップS8-11)
 ステップS8-11において、CPU11は、変数jが0以上J以下であるか否かを判定し、0以上J以下であればステップS8-12に進み、0以上J以下でなければ舵切命令受付処理を終了する。
(ステップS8-12)
 ステップS8-12において、CPU11は、steering[j,1]に格納されている値が、object_idに格納されている値と等しいか否かを判定し、等しければステップS8-14に進み、等しくなければステップS8-13に進む。
(ステップS8-13)
 ステップS8-13において、CPU11は、舵切命令IDとsteering[j,0]とsteering[j,1]との描画を命じる描画命令を出力し、ステップS8-14に進む。
(ステップS8-14)
 ステップS8-14において、CPU11は、変数jが0以上J以下であるか否かを判定し、0以上J以下であればステップS8-12に戻り、0以上J以下でなければ舵切命令受付処理を終了する。
(ステップS8-15)
 ステップS8-15において、CPU11は、舵切命令IDを変数jに格納し、ステップS8-16に進む。
(ステップS8-16)
 ステップS8-16において、CPU11は、変数jに格納されている値がNULLであるか否かを判定し、NULLであればステップS8-17に進み、NULLでなければステップS8-19に進む。
(ステップS8-17)
 ステップS8-17において、CPU11は、変数Jに格納されている値に1を加算して変数Jに格納し、ステップS8-18に進む。
(ステップS8-18)
 ステップS8-18において、CPU11は、変数Jに格納されている値を変数jに格納し、ステップS8-19に進む。
(ステップS8-19)
 ステップS8-19において、CPU11は、steering[j,0]~steering[j,7]の全部又は一部に対する格納処理を実行し、舵切命令受付処理を終了する。
 以上、実施形態に係る動画表示装置について説明を行ったが、実施形態に係る動画表示装置においてオブジェクトを移動や消去などした際には、移動元の箇所又は消去した箇所の背景を予測して補完しておくことが好ましい。このような背景の予測は、たとえば、複数のフレームを比較することにより行うことができる。
 なお、上記した実施形態に係る動画表示装置は、動画の表示中に、各オブジェクトのメタ情報を受け付けることができる。受け付けられたメタ情報は、track[i,0]に格納される。
 次に、図10を参照しつつ、本発明の実施例に係る動画表示装置を説明する。図10は、本発明の実施例に係る動画表示装置を示す図である。
 実施例において、動画提供者は、Normalの方向に動画が進行することを期待しているものとする。
 しかしながら、実施例に係る動画表示装置においては、消去、移動、入替という舵切命令によって、動画提供者が予期していなかった方向へと動画が進行する。
 図10で示すように、消去の舵切命令が受け付けられた場合にはEraseの方向へと動画が進行し、移動の舵切命令が受け付けられた場合にはMoveの方向へと動画が進行し、入替の舵切命令が受け付けられた場合には、Switchの方向へと動画が進行する。
 図10において、5番目のフレームを比較すれば明らかなように、Eraseの方向、Moveの方向、Switchの方向への動画の進行は、Normalの方向への動画の進行を期待した動画提供者にとって、想定や準備などされていなかったものである。
 以上、本発明の実施形態及び実施例について説明したが、これらの説明は、本発明の一例に関するものであり、本発明は、これらの説明によって何ら限定されない。
[提供されたフレーム]
 本発明において、「提供されたフレーム」とは、入力手段や受信手段などを介して動画表示装置に取り込まれたフレームを意味する。
 ここで、入力手段とは、フレームを入力することが可能なすべての手段を意味し、上記したメディアドライブは、この入力手段の一例である。
 また、受信手段とは、フレームを受信することが可能なすべての手段を意味し、上記したネットワークコントローラは、この受信手段の一例である。
「フレーム」、「フレームデータ」
 「フレーム」とは、1画面(1コマ)を構成する画像であり、「フレームデータ」には、この画像(例:ラスタデータ)とこの画像に関するデータとが含まれる。
「オブジェクト」、「オブジェクトデータ」
 「オブジェクト」とは、フレームの一部を構成する画像、すなわち、1画面(1コマ)の一部を構成する画像であり、「オブジェクトデータ」には、この画像(例:ラスタデータ)とこの画像に関するデータとが含まれる。
 1つのフレームは、2つ以上のオブジェクトから構成される。
[舵切命令受付手段]
 本発明において、「舵切命令受付手段」とは、動画の表示中に舵切命令を受け付けることができるすべての手段を意味し、たとえば、上記したマウスコントローラやキーボードコントローラやネットワークコントローラなどは、舵切命令受付手段の一例である。
[舵切命令の受付]
 本発明において、舵切命令を「受け付ける」とは、舵切命令が入力又は受信などされることをいう。
[描画命令生成手段]
 本発明において「描画命令生成手段」とは、描画命令を生成することができるすべての手段を意味する。上記した実施形態においては、CPUを描画命令生成手段の一例として説明したが、本発明においては、たとえばビデオコントローラなども、描画命令生成手段として用いることができる。
[フレームに関するデータ]
 「フレームに関するデータ」としては、フレームデータ及び/又はオブジェクトデータなどを用いることができる。
[フレームの描画を命じる描画命令]
 「フレームの描画を命じる描画命令」には、「1つのフレームの全部の描画を命じる描画命令」及び/又は「1つのフレームの一部(すなわち「オブジェクト」)の描画を命じる描画命令」が含まれる。
[提供されたフレームではない]
 「提供されたフレームではない」とは、[フレームの描画を命じる描画命令]が「1つのフレームの全部の描画を命じる描画命令」とされる場合においては、この「1つのフレーム」が「提供されたフレーム」の1つと完全には一致しないことをいい、[フレームの描画を命じる描画命令]が「1つのフレームの一部(すなわち「オブジェクト」)の描画を命じる描画命令」とされる場合においては、この「1つのフレームの一部(すなわち「オブジェクト」)」が「提供されたフレームの一部(すなわち「オブジェクト」)」の1つと完全には一致しないことをいう。
[動画表示装置]
 上記した実施形態においては、パーソナルコンピュータを「動画表示装置」の一例として想定し説明を行ったが、本発明における「動画表示装置」は、何らパーソナルコンピュータに限定されるものではない。本発明における「動画表示装置」には、動画を表示することができるすべての装置が含まれ、たとえば、Television(TV)や携帯端末などのほか、描画命令生成手段を内蔵したプロジェクタなども含まれる。
[動画]
 本発明において「動画」とは、画面上で画像が動くすべてのデータを意味し、映画やアニメーションなどのほか、放送番組やライブ映像なども、本発明における「動画」に該当する。
[ネットワーク]
 本発明におけるネットワークは、インターネットに限られるものではなく、データが送信、受信、又は送受信されるすべてのネットワークが含まれる。
 本発明には、実施形態に係る動画表示装置が備える各手段がネットワーク上に分散している形態も含まれ、このような場合においても、そのネットワークは、動画表示装置を備えているとする。
 本発明には、スタンドアロンとして使用される動画表示装置のほか、動画表示装置を備えたネットワークも含まれる。このネットワークには、コンピュータネットワークのほか、番組やCMなどが放送される放送ネットワークや、携帯端末間又は携帯端末と固定端末との間でデータの送信、受信又は送受信が行われる携帯ネットワークも含まれる。

Claims (4)

  1.  提供されたフレームを描画することによって動画を表示する動画表示装置であって、
     動画の表示中に舵切命令を受け付ける舵切命令受付手段と、
     前記舵切命令受付手段で舵切命令を受け付けた場合に、この受け付けた舵切命令に従って、前記提供されたフレームに関するデータから、前記提供されたフレームではないフレームの描画を命じる描画命令を生成する描画命令生成手段と、
     を備えたことを特徴とする動画表示装置。
  2.  請求項1に記載の動画表示装置を備えたコンピュータネットワークシステム。
  3.  請求項1に記載の動画表示装置を備えた放送ネットワークシステム。
  4.  請求項1に記載の動画表示装置を備えた携帯ネットワークシステム。
PCT/JP2008/000088 2008-01-25 2008-01-25 動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、携帯ネットワークシステム WO2009093287A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2008/000088 WO2009093287A1 (ja) 2008-01-25 2008-01-25 動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、携帯ネットワークシステム
JP2009550377A JP5207489B2 (ja) 2008-01-25 2008-01-25 動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、携帯ネットワークシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/000088 WO2009093287A1 (ja) 2008-01-25 2008-01-25 動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、携帯ネットワークシステム

Publications (1)

Publication Number Publication Date
WO2009093287A1 true WO2009093287A1 (ja) 2009-07-30

Family

ID=40900808

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/000088 WO2009093287A1 (ja) 2008-01-25 2008-01-25 動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、携帯ネットワークシステム

Country Status (2)

Country Link
JP (1) JP5207489B2 (ja)
WO (1) WO2009093287A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09219836A (ja) * 1996-02-14 1997-08-19 Matsushita Electric Ind Co Ltd 画像情報記録方法と画像合成装置
JP2002279443A (ja) * 2001-03-16 2002-09-27 Minolta Co Ltd 映像再生装置、テレビ放送システム、映像送信装置、および映像データ送信方法
JP2007280069A (ja) * 2006-04-06 2007-10-25 Toshiba Corp 映像処理システムおよび映像処理方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072520A (ja) * 2005-09-02 2007-03-22 Sony Corp 映像処理装置
JP4765732B2 (ja) * 2006-04-06 2011-09-07 オムロン株式会社 動画編集装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09219836A (ja) * 1996-02-14 1997-08-19 Matsushita Electric Ind Co Ltd 画像情報記録方法と画像合成装置
JP2002279443A (ja) * 2001-03-16 2002-09-27 Minolta Co Ltd 映像再生装置、テレビ放送システム、映像送信装置、および映像データ送信方法
JP2007280069A (ja) * 2006-04-06 2007-10-25 Toshiba Corp 映像処理システムおよび映像処理方法

Also Published As

Publication number Publication date
JP5207489B2 (ja) 2013-06-12
JPWO2009093287A1 (ja) 2011-05-26

Similar Documents

Publication Publication Date Title
CN109600666B (zh) 游戏场景中的视频播放方法、装置、介质以及电子设备
US20180103296A1 (en) Method and apparatus for video playing processing and television
CN110401866B (zh) 直播视频的显示方法、装置、终端和存储介质
WO2024125329A1 (zh) 直播特效渲染方法、装置、设备、可读存储介质及产品
CN113645494A (zh) 一种屏幕融合方法、显示设备、终端设备及服务器
US7019750B2 (en) Display status modifying apparatus and method, display status modifying program and storage medium storing the same, picture providing apparatus and method, picture providing program and storage medium storing the same, and picture providing system
CN113423012B (zh) 视频处理方法、服务器和计算机可读存储介质
CN112162683A (zh) 一种图像放大方法、装置及存储介质
CN113938587B (zh) 基于双摄像头的摄录方法及电子设备
CN114299100A (zh) 一种屏幕定位方法、终端设备及显示设备
JP5207489B2 (ja) 動画表示装置、コンピュータネットワークシステム、放送ネットワークシステム、携帯ネットワークシステム
US20100053166A1 (en) Information processing apparatus, and super-resolution achievement method and program
JP5455619B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN115955594A (zh) 一种图像处理方法及装置
CN112269886B (zh) 共享图像采集方法、窗口共享方法和共享图像采集装置
JP2005341398A (ja) 情報処理装置および方法、並びにプログラム
CN114745555A (zh) 一种视频图像的运动估计方法及显示设备
CN111885417A (zh) Vr视频播放方法、装置、设备以及存储介质
JP5042965B2 (ja) プレゼンテーション画像の提示システム、提示方法、提示プログラム及びその記録媒体
JP2007028478A (ja) 画像表示装置
US20070098277A1 (en) Transmitting apparatus, image processing system, image processing method, program, and recording medium
JP2006101236A (ja) 動画編集システム
JP3152556B2 (ja) 2次元画像を3次元画像に変換する方法
WO2024109286A1 (zh) 多窗口切换方法及装置、电子设备以及计算机可读存储介质
JP2008259175A (ja) 記録装置と記録装置のためのプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08702829

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2009550377

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08702829

Country of ref document: EP

Kind code of ref document: A1