WO2014155729A1 - 動画像処理システム、動画像処理方法及びプログラム - Google Patents

動画像処理システム、動画像処理方法及びプログラム Download PDF

Info

Publication number
WO2014155729A1
WO2014155729A1 PCT/JP2013/059731 JP2013059731W WO2014155729A1 WO 2014155729 A1 WO2014155729 A1 WO 2014155729A1 JP 2013059731 W JP2013059731 W JP 2013059731W WO 2014155729 A1 WO2014155729 A1 WO 2014155729A1
Authority
WO
WIPO (PCT)
Prior art keywords
frame images
image
frame
moving image
images
Prior art date
Application number
PCT/JP2013/059731
Other languages
English (en)
French (fr)
Inventor
アレックス ヨン サン チア
Original Assignee
楽天株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 楽天株式会社 filed Critical 楽天株式会社
Priority to US14/781,031 priority Critical patent/US9467644B2/en
Priority to JP2013535620A priority patent/JP5374671B1/ja
Priority to PCT/JP2013/059731 priority patent/WO2014155729A1/ja
Publication of WO2014155729A1 publication Critical patent/WO2014155729A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0285Improving the quality of display appearance using tables for spatial correction of display data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/395Arrangements specially adapted for transferring the contents of the bit-mapped memory to the screen
    • G09G5/397Arrangements specially adapted for transferring the contents of two or more bit-mapped memories to the screen simultaneously, e.g. for mixing or overlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • H04N2005/91357Television signal processing therefor for scrambling ; for copy protection by modifying the video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • H04N2005/91357Television signal processing therefor for scrambling ; for copy protection by modifying the video signal
    • H04N2005/91364Television signal processing therefor for scrambling ; for copy protection by modifying the video signal the video signal being scrambled

Definitions

  • the present invention relates to a moving image processing system, a moving image processing method, and a program.
  • the image displayed on the screen of the information processing device can be duplicated by a screen shot. That is, by saving the display data stored in the display memory, the image data displayed on the screen can be obtained.
  • Patent Document 1 discloses a first modified image in which S is randomly selected for each pixel of the original image and S is added to each pixel value, and a second in which S is subtracted.
  • the modified image is generated and the two modified images are displayed at a high speed.
  • the first or second modified image is obtained by the screen shot, and the original image data is obtained illegally. Can be suppressed.
  • Patent Document 1 is intended for still images and cannot be applied to moving images.
  • the present invention has been made in view of the above problems, and an object thereof is to provide a moving image processing system, a moving image processing method, and a program in which it is difficult to obtain an original moving image based on display data.
  • a moving image processing system includes an acquisition unit that acquires moving image data, and a plurality of frame images that are sequentially displayed among a plurality of frame images indicated by the moving image data.
  • Specifying means for specifying an image set including: and a key frame image based on at least one of the plurality of frame images included in the image set, and the same number as the frame images included in the image set
  • a generation means for generating a modified frame image, wherein an average of pixel values of corresponding pixels of the plurality of modified frame images corresponds to a pixel value of corresponding pixels of the key frame image, and the modified frame images are Generating means sequentially displayed in place of the plurality of frame images included in the image set.
  • the moving image processing system specifies an acquisition unit for acquiring moving image data, and an image set including a plurality of frame images displayed in sequence among the plurality of frame images indicated by the moving image data.
  • generating means for generating the same number of noise images as the frame images included in the image set, which are combined with a key frame image based on at least one of the plurality of frame images included in the image set.
  • the average value of the corresponding pixels of the plurality of noise images is zero, and the plurality of modified frame images obtained by combining each of the plurality of noise images with the key frame image is the image set.
  • Generating means sequentially displayed in place of the plurality of frame images included in.
  • the specifying unit may specify the image set based on changes in the plurality of frame images indicated by the moving image data.
  • the specifying unit may specify the image set based on the content of the frame image indicated by the moving image data.
  • the average of the values may further include a pause unit that corresponds to a pixel value of a corresponding pixel of the pause key frame image.
  • the temporary change frame image may be the change frame image generated by the generation unit.
  • the moving image processing method specifies an acquisition step for acquiring moving image data, and an image set including a plurality of frame images displayed in sequence among the plurality of frame images indicated by the moving image data. And a key frame image based on at least one of the plurality of frame images included in the image set is changed to generate the same number of changed frame images as the frame images included in the image set.
  • an average of pixel values of corresponding pixels of the plurality of change frame images corresponds to a pixel value of corresponding pixels of the key frame image, and the plurality of change frame images are included in the image set.
  • the moving image processing method specifies an acquisition step for acquiring moving image data, and an image set including a plurality of frame images displayed in sequence among the plurality of frame images indicated by the moving image data. And generating to generate the same number of noise images as the frame images included in the image set to be combined with a key frame image based on at least one of the plurality of frame images included in the image set.
  • the average value of the corresponding pixels of the plurality of noise images is zero, and the plurality of modified frame images obtained by combining each of the plurality of noise images with the key frame image is the image set.
  • the program according to the present invention includes an acquisition unit that acquires moving image data, a specifying unit that specifies an image set including a plurality of frame images that are sequentially displayed among the plurality of frame images indicated by the moving image data, And a generation unit that changes a key frame image based on at least one of the plurality of frame images included in the image set and generates the same number of changed frame images as the frame images included in the image set.
  • the average of the pixel values of the corresponding pixels of the plurality of changed frame images corresponds to the pixel value of the corresponding pixel of the key frame image, and the plurality of changed frame images are included in the image set.
  • the program according to the present invention includes an acquisition unit that acquires moving image data, a specifying unit that specifies an image set including a plurality of frame images that are sequentially displayed among the plurality of frame images indicated by the moving image data, And generating means for generating as many noise images as the frame images included in the image set, which are combined with a key frame image based on at least one of the plurality of frame images included in the image set.
  • the average value of the corresponding pixels of the plurality of noise images is zero, and a plurality of modified frame images obtained by combining each of the plurality of noise images with the key frame image are included in the image set.
  • FIG. 1 is a diagram showing a moving image display apparatus according to an embodiment of the present invention.
  • the moving image display device 10 is a computer in various forms such as a personal computer, a smartphone, and a tablet. As shown in FIG. Has a hardware configuration connected to the bus.
  • the moving image display apparatus 10 is an embodiment of a moving image processing system according to the present invention.
  • the CPU 10a controls each part of the apparatus and executes various types of information processing.
  • the main memory 10b is a volatile storage means and is used for the work of the CPU 10a.
  • the communication interface 10c accesses the data communication network 30 such as the Internet through a communication line such as a wireless LAN or a wireless telephone line.
  • the display unit 10d is a display unit such as a liquid crystal or an organic EL.
  • the display unit 10d includes a display memory.
  • the input unit 10e is, for example, various mechanical keys provided in the moving image display device 10 or a touch panel attached to the display surface of the display unit 10d. Data input by the input unit 10e is used by the CPU 10a.
  • the storage unit 10f is a nonvolatile storage unit, and stores an OS (Operating System) and a moving image display program.
  • the moving image display program may be downloaded from the data communication network 30 or read from a CD-ROM or other computer-readable information storage medium.
  • the audio output unit 10d includes a speaker and reproduces audio data.
  • the moving image display device 10 is connected to a data communication network 30, and the moving image transmission device 20 is also connected to the data communication network 30.
  • the moving image transmission apparatus 20 is a computer having the same hardware configuration as the moving image display apparatus 10, and transmits moving image data to the moving image display apparatus 10.
  • each of the moving image display device 10 and the moving image transmission device 20 is a computer that executes a video chat program, and both are configured as a video chat device. That is, the moving image transmitting apparatus 20 captures the moving image of the user with the camera and generates moving image data in a stream format indicating the user. Then, the moving image data is stream-transmitted to the moving image display device 10.
  • the moving image display device 10 receives moving image data and displays it on the display unit 10d.
  • the moving image transmitting device 20 may include a microphone for recording the user's voice, and may transmit moving image data with sound to the moving image display device 10.
  • the moving image display device 10 may output the sound indicated by the moving image data with sound from the sound output unit 10d in synchronization.
  • the moving image transmission device 20 may have the function of the moving image display device 10
  • the moving image display device 10 may have the function of the moving image transmission device 20.
  • moving image data with sound for video chatting is not limited to moving image data with sound for video chatting, but moving image data with sound of other contents, such as moving image data with sound in which various lectures are recorded. It may be. Alternatively, it may be moving image data without sound. Furthermore, the moving image data is not limited to the stream format, and may be a downloadable format. Further, the moving image transmitting apparatus 20 may transmit moving image data in an encrypted format.
  • an OS is executed in the moving image display apparatus 10, and this OS provides a screen shot function.
  • the screen shot function when the user performs a specific operation using the input unit 10e, the display data stored in the display memory built in the display unit 10d is moved to the storage unit 10f. Thereby, the display data memorize
  • display data of frame images constituting the moving image is stored in the display memory. Then, by using the screen shot function provided by the OS, the display data can be moved to the storage unit 10f, and can be transmitted later to another moving image display device.
  • the moving image display program in order to prevent such fraud, displays data (changed frame) in which noise is added to the key frame image of the original moving image in the display memory of the display unit 10d. Image). For this reason, even if the screen shot function provided by the OS is used, only the changed frame image can be moved to the storage unit 10f. Note that a plurality of types of change frame images are prepared, and the average value thereof matches the key frame image. Therefore, by sequentially displaying these multiple types of change frame images while switching at short time intervals, the user is recognized as if the original noise-free key frame image is displayed on the display unit 10d. Will be.
  • FIG. 3 is a diagram illustrating conversion of a moving image by the moving image display program.
  • FIG. 4A shows a series of frame images indicated by the moving image data transmitted from the moving image transmission apparatus 20, and FIG. 4B shows a series of changed frame images generated by the moving image display program. Show.
  • the moving image data transmitted from the moving image transmitting apparatus 20 indicates a large number of frame images V1, V2, V3, V4... Sequentially displayed at predetermined time intervals.
  • the moving image display program selects the frame image V j having a noticeable change among them as the key frame image K.
  • the frame images V 1 , V 5 , and V 7 are selected as the key frame images K.
  • a plurality of continuous frame images from the key frame image K to the frame image immediately before the next key frame image K are specified as a frame image set.
  • the frame images V 1 to V 4 are set as the frame image set 1 and the top frame image V 1 is set as the key frame image K.
  • the frame images belonging to one frame image set are not noticeably changed, and are recognized as similar images by the user.
  • each key frame image K is converted into the same number of changed frame images as the number of frame images R of the frame image set to which the key frame image K belongs.
  • the frame image number R of the frame image set 1 is 4, and the frame image set 1 including the frame images V 1 to V 4 is changed including the same number of changed frame images C 1 (1) to C 4 (1).
  • the frame image set 1 is converted.
  • These four changed frame images C 1 (1) to C 4 (1) are all generated based on the frame image V 1 that is the key frame image K.
  • the number R of frame images in the frame image set 2 is 2, and the frame image set 2 including the frame images V 5 to V 6 includes the same number of changed frame images C 1 (2) to C 2 (2) .
  • each frame image set is converted into a changed frame image set including the same number of changed frame images as the frame images included in the frame image set, the length of the moving image does not change.
  • the frame images belonging to one frame image set are not noticeably changed, and are recognized as similar images by the user.
  • the change frame image belonging to the corresponding change frame image set is recognized by the user as the key frame image displayed for the same length. Since these recognitions are similar to each other, the user does not feel uncomfortable.
  • FIG. 4 illustrates a key frame image K.
  • the key frame image K is a 256 gradation gray scale image, and a person is represented on a gray background.
  • uppercase letters and numbers are shown instead of persons.
  • the pixel value at the position (x, y) of the key frame image K is K (x, y)
  • the value is 0 or more and 255 or less.
  • the pixel value K (x, y) at the background position may be 1 or more and less than 255, for example, about 30.
  • the pixel value K (x, y) at the position of the person is larger than that, and may be about 100 to 200, for example.
  • the moving image display program of the moving image display device 10 identifies a frame image set, and determines the key frame image K and the number R of frame images of the frame image set to which the key frame image K belongs. Thereafter, a modified frame image set S is generated based on the key frame image K.
  • the intermediate noise image M j and the noise image N j are randomly determined by the moving image display program under the conditions described later.
  • the noise image N j the intermediate noise image M j , the modified frame image C j , and the key frame image K have the same vertical and horizontal sizes (dimensions), and are all grayscale images of 256 gradations.
  • is the sum of j from 1 to R. Since the expressions (1) and (2) hold, the average of the pixel values C j (x, y) at an arbitrary position (x, y) of the changed frame image C j is the position of the key frame image K ( It coincides with the pixel value K (x, y) in x, y). In order for such a human visual function to work effectively, there is an upper limit on R, and according to experiments by the present inventors, the upper limit of R is about 2 to 4.
  • the modified frame image Cj also has 256 gradations and needs to be expressed by a pixel value that can be displayed on the display unit 10d, and therefore, it is necessary to satisfy the following expression (3).
  • is the lower limit value of the pixel value that can be displayed by the display unit 10d
  • is the upper limit value of the pixel value that can be displayed by the moving image display device 10.
  • the display unit 10d performs 256 gray scale display
  • the lower limit value ⁇ is 0
  • the upper limit value ⁇ is 255.
  • FIG. 8 is a functional block diagram of the moving image display apparatus 10.
  • the functional block diagram shown in the drawing shows functions related to the display of moving images among various functions of the moving image display apparatus 10.
  • the moving image display device 10 which is a computer executes the above-described moving image display program, the functions shown in FIG.
  • the moving image display apparatus 10 includes a moving image data acquisition unit 11, a frame image set specifying unit 12, an intermediate noise image generation unit 13, a noise image generation unit 14, a modified frame image generation unit 15, and a display control unit. 16 and the display part 17 are included.
  • the moving image data acquisition unit 11 includes, for example, a FIFO (First In First Out) type frame image buffer 11a secured in the main memory 10b.
  • the display control unit 16 includes, for example, a FIFO type changed frame image buffer 16a secured in the main memory 10b.
  • the moving image data acquisition unit 11 receives moving image data transmitted from the moving image transmission device 20. Then, a series of frame images indicated by the moving image data is acquired and stored in the frame image buffer 11a in order.
  • the frame image set specifying unit 12 specifies a plurality of frame image sets each composed of continuous frame images having similar contents, based on the frame images stored in the frame image buffer 11a. The frame image sets are temporally adjacent to each other, and all the frame images stored in the frame image buffer 11a belong to one of the frame image sets.
  • the intermediate noise image generation unit 13, the noise image generation unit 14, and the changed frame image generation unit 15 sequentially generate the changed frame image set S.
  • the changed frame image set S includes a changed frame image C j of the number R of frame images output from the frame image set specifying unit 12, which is obtained by changing the key frame image K output from the frame image set specifying unit 12. Yes.
  • the intermediate noise image generation unit 13 generates an intermediate noise image M j having the number of frame images R based on the key frame image K.
  • the noise image generation unit 14 generates a noise image N j based on the intermediate noise image M j .
  • the change frame image generation unit 15 adds the noise image N j generated by the noise image generation unit 14 to the key frame image K, as shown in Expression (1), so that the number of frame images R
  • the modified frame image C j is generated.
  • the changed frame image C j related to each frame image set S is stored in the changed frame image buffer 16a in the display order.
  • the display control unit 22 sequentially displays the changed frame images Cj of each changed frame image set S stored in the changed frame image buffer 16a. Further, when a reproduction pause operation is performed using the input unit 10e, the changed frame image set S being reproduced at that time is repeatedly displayed. In this way, the original frame image is not stored in the display memory, and fraud can be prevented even during a pause.
  • FIG. 9 is a flowchart showing processing by the frame image set specifying unit 12.
  • K is a key frame image
  • V j is a jth frame image.
  • the gradient evaluation value ⁇ (x, y) indicates the gradient at the position (x, y) of the key frame image K
  • the gradient evaluation value W j indicates the gradient at the position (x, y) of the frame image V j.
  • the difference evaluation value D (x, y) indicates the difference between the pixel value at the position (x, y) of the key frame image K and the pixel value at the position (x, y) of the frame image Vj .
  • the gradient evaluation value Q (x, y) is expressed by the following equation (7).
  • Q (x, y) represents an average value of the gradients of the key frame image K and the frame image V j at the position (x, y). It can be said that the larger the value, the higher the image frequency at the position (x, y).
  • the index phi the frame image V j is an index for determining whether the change noticeable for the key frame image K which precedes the frame image V j, the following equation (8) Is done.
  • indicates the sum for position (x, y).
  • the index ⁇ takes a larger value as there are more positions (x, y) where both the difference evaluation value D (x, y) and the gradient evaluation value Q (x, y) take larger values. That is, in the key frame image K and the frame image V j , the index ⁇ takes a large value when there are many positions where the image frequency is high and the change from the key frame image K to the frame image V j is large at those positions. .
  • the frame image set specifying unit 12 first selects the first frame image V 0 as the key frame image K, and calculates gradient evaluation values ⁇ (x, y) for all positions (x, y). (S101). Alternatively, variables i and j are initialized to 0.
  • variable j is incremented, and the next frame image V j is acquired from the frame image buffer 11a (S102). Then, it is determined whether j ⁇ i is 2 or more (S103). If no in S103, the process returns to S102. On the other hand, if YES in S103, the gradient evaluation value W j (x, y) is calculated (S104). Next, it is determined whether j ⁇ i is greater than or equal to m (S105).
  • m is the maximum number of frame images R included in the frame image set, and may be set to, for example, 2 or more and 4 or less as described above.
  • the process proceeds to S113.
  • the frame image number R is set to ji (S110), and the frame image number R and the key frame image K selected in S101 are passed to the intermediate noise image generation unit 13 (S111). .
  • the frame image V j is selected as the next key frame image K, and the gradient evaluation value W j (x, y) is set to the gradient evaluation value ⁇ (x, y) for all positions (x, y).
  • the variable i is set to the same value as the variable j (S112).
  • the frame image V j is deleted from the frame image buffer 11a (S113), and the process returns to S102.
  • the frame image set specifying unit 12 suitably specifies the frame image set based on D (x, y) indicating the change of the frame image V j and Q (x, y) indicating the feature of the content. can do.
  • the key frame image K is specified using the index ⁇ , but the key frame image K may be specified by another method. For example, for each frame image V j , even if the difference from the previous frame image V j ⁇ 1 is taken and the magnitude of the difference is equal to or greater than a predetermined value, the frame image V j may be selected as the key frame image K. Good.
  • the top frame image in each frame image set is the key frame image K
  • another frame image for example, the center frame image may be the key frame image K.
  • an image generated based on a frame image included in the frame image set such as an average image of the frame images included in the frame image set may be used as the key frame image K.
  • FIG. 10 is a flowchart showing processing by the intermediate noise image generation unit 13.
  • the intermediate noise image generating unit 13 first sets 1 to the variable j as shown in the figure (S201).
  • the lower limit L j (x, y) in the range can take the pixel values M j of the intermediate image M j to be described later (x, y) and the upper limit U j (x, y) L 0 is the initial value of ( x, y) and U 0 (x, y) are calculated for all positions (x, y) according to the following equations (9) and (10), respectively (S202).
  • M j (x, y) is randomly determined within the range of the lower limit value L j (x, y) and the upper limit value U j (x, y) (S205). Specifically, for all the positions (x, y), a random number ⁇ is generated in a range of 0 to 1 and the value ⁇ is substituted into the following equation (13) to obtain a pixel value M j (x, y). Is calculated.
  • variable j is incremented by 1 (S206), and the process returns to S203. If it is determined in S203 that the variable j is equal to or greater than R, M n (x, y) is calculated for all positions (x, y) according to the following equation (14) (S207), and the process ends.
  • is the sum of k from 1 to n ⁇ 1.
  • the pixel value Mj (x, y) of the intermediate noise image M j satisfies the following expression (15), similarly to the pixel value N j (x, y) of the noise image N j .
  • is the sum of j from 1 to n.
  • Equation (14) is derived from Equation (15). Further, M j (x, y) is M 1 (x, y) to M j ⁇ 1 (x, y) already determined in the process of S205, and M j + 1 ( The sum of x, y) to M n (x, y) is a value obtained by inverting the sign.
  • all of M j + 1 (x, y) to M n (x, y) to be determined in the process of S205 in the future have an upper limit value U j ⁇ 1 (x, y) and a lower limit value of L j Assuming that ⁇ 1 (x, y), equations (11) and (12) are derived.
  • FIG. 11 is a flowchart showing processing by the noise image generation unit 14.
  • the noise image N is obtained by randomly replacing the pixel values M 1 (x, y) to M n (x, y) at the positions (x, y) of the intermediate noise images M 1 to M n. position of the 1 ⁇ n n (x, y ) pixel value n 1 in (x, y) ⁇ n n (x, y) is intended to obtain.
  • the process shown in the figure is repeatedly executed for all positions (x, y).
  • the noise image generation unit 14 sets 1 to the variable t (S301), and generates two random numbers in the range of 1 to R unless the variable t is equal to or greater than the predetermined number of repetitions T (S302). These are set in a variable ⁇ and a variable ⁇ (S303). Next, the pixel value M ⁇ (x, y) of the ⁇ th intermediate noise image M ⁇ and the pixel value M ⁇ (x, y) of the ⁇ th intermediate noise image M ⁇ are switched (S304). Thereafter, the variable t is incremented by 1 (S305), and the process returns to S302.
  • the pixel values M 1 (x, y) to M n (x, y) of the intermediate noise images M 1 to M n are used as the noise image N 1.
  • the modified frame image generation unit 15 adds the noise image N j generated by the noise image generation unit 14 to the key frame image K output from the frame image set identification unit 12, thereby A modified frame image C j with the number of frame images R is generated. Then stored in the display order the generated changed frame image C j to change the frame image buffer 16a.
  • the display control unit 22 by storing stored in change frame image buffer 16a, the change frame image C j for each change frame image set S, in the display order on the display memory provided in the display section 10d, they sequentially indicate.
  • the modified frame image set S is sequentially generated, and the modified frame images Cj included in them are displayed in time order. Since the original frame image V j is not displayed on the display unit 10d, duplication of the data of the frame image V j can be prevented.
  • this invention is not limited to the said embodiment, A various deformation
  • a 256 gradation gray scale image is used as the frame image V j , but it is needless to say that it may be an image of another format (for example, a color image).
  • the generation method of the modified frame image C j is not limited to the above-described method, and various generation methods may be used.
  • the change frame image C j is obtained by adding noise to the entire key frame image K.
  • the change frame image C C is obtained by adding noise to a part of the key frame image K. j may be obtained.
  • an area in which specific contents are represented such as an area in which a human face is represented, may be identified, and noise may be added only to the area.
  • the pixel value M j (x, y) and the pixel value N j (x, y) take values larger than 0, and other positions (x , Y) becomes 0.
  • the image processing system according to the present invention is mounted on the image display device 10, but may be mounted on the image transmission device 20.
  • changed frame images are generated in the image transmission device 20, and the changed frame images are transmitted to the moving image display device 10 in a download format or a streaming format.
  • the moving image display apparatus 10 sequentially displays the received changed frame images.
  • a noise image may be generated in the moving image transmitting apparatus 20 and the noise image may be transmitted to the moving image display apparatus 10 in a download format or a streaming format together with the original moving image data.
  • the moving image display device 10 generates a modified frame image by synthesizing the received noise image with the frame image indicated by the received moving image data, and sequentially displays them.
  • the functions of the moving image processing system according to the present invention may be shared by a plurality of computers by various methods.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 表示データに基づいて原動画像を得ることを困難にする。 動画像処理システムは、動画像データを取得する動画像データ取得部(11)と、前記動画像データにより示される複数のフレーム画像のうちの順次表示される複数のフレーム画像を含む画像セットを特定するフレーム画像セット特定部と、前記画像セットに含まれる前記複数のフレーム画像のいずれか少なくとも1つに基づくキーフレーム画像を変更して、前記画像セットに含まれる前記フレーム画像と同数の変更フレーム画像を生成する変更フレーム画像生成部(15)であって、前記複数の変更フレーム画像の対応画素の画素値の平均は、前記キーフレーム画像の対応画素の画素値に対応する、変更フレーム画像生成部(15)と、前記動画像データを再生する際、前記画像セットに含まれる前記複数のフレーム画像の代わりに、変更フレーム画像生成部(15)により生成される前記複数の変更フレーム画像を順次表示させる表示制御部(16)と、を含む。

Description

動画像処理システム、動画像処理方法及びプログラム
 本発明は動画像処理システム、動画像処理方法及びプログラムに関する。
 情報処理装置の画面に表示された画像は、スクリーンショットにより複製することができる。すなわち表示用メモリに格納された表示データを保存することにより、画面に表示された画像のデータを得ることができる。
 こうした不正を抑制するため、下記特許文献1には、元画像の画素毎にランダムにSを選択し、各画素値に対してSを加算した第1の変更画像と、Sを減算した第2の変更画像とを生成し、これら2つの変更画像を高速に切り替えて表示する技術が開示されている。この技術によれば、人には元画像が表示されているように認識されるものの、スクリーンショットにより得られるのは第1又は第2の変更画像となり、不正に元画像のデータを取得することを抑制できる。
特開2002-72994号公報
 しかし、上記特許文献1に記載の技術は、静止画像を対象としており、動画像には適用することができなかった。
 本発明は上記課題に鑑みてなされたものであって、その目的は、表示データに基づいて原動画像を得ることが困難な動画像処理システム、動画像処理方法及びプログラムを提供することにある。
 上記課題を解決するために、本発明に係る動画像処理システムは、動画像データを取得する取得手段と、前記動画像データにより示される複数のフレーム画像のうちの順次表示される複数のフレーム画像を含む画像セットを特定する特定手段と、前記画像セットに含まれる前記複数のフレーム画像のいずれか少なくとも1つに基づくキーフレーム画像を変更して、前記画像セットに含まれる前記フレーム画像と同数の変更フレーム画像を生成する生成手段であって、前記複数の変更フレーム画像の対応画素の画素値の平均は、前記キーフレーム画像の対応画素の画素値に対応し、前記複数の変更フレーム画像は前記画像セットに含まれる前記複数のフレーム画像の代わりに順次表示される、生成手段と、を含む。
 また、本発明に係る動画像処理システムは、動画像データを取得する取得手段と、前記動画像データにより示される複数のフレーム画像のうちの順次表示される複数のフレーム画像を含む画像セットを特定する特定手段と、前記画像セットに含まれる前記複数のフレーム画像のいずれか少なくとも1つに基づくキーフレーム画像に合成される、前記画像セットに含まれる前記フレーム画像と同数のノイズ画像を生成する生成手段であって、前記複数のノイズ画像の対応画素の画素値の平均は零であり、前記キーフレーム画像に前記複数のノイズ画像のそれぞれを合成してなる複数の変更フレーム画像は、前記画像セットに含まれる前記複数のフレーム画像の代わりに順次表示される、生成手段と、を含む。
 ここで、前記特定手段は、前記動画像データが示す前記複数のフレーム画像の変化に基づいて、前記画像セットを特定してよい。また、前記特定手段は、前記動画像データが示す前記フレーム画像の内容に基づいて、前記画像セットを特定してよい。
 また、動画像処理システムは、前記複数の変更フレーム画像を順次表示している間に前記動画像データの再生を一時停止する場合、前記画像セットに含まれる前記複数のフレーム画像のいずれか少なくとも1つに基づく一時停止用キーフレーム画像を変更してなる複数の一時停止用変更フレーム画像を順次表示することを繰り返す一時停止手段であって、前記複数の一時停止用変更フレーム画像の対応画素の画素値の平均は、前記一時停止用キーフレーム画像の対応画素の画素値に対応する、一時停止手段をさらに含んでよい。
 ここで、前記一時停止用変更フレーム画像は、前記生成手段により生成される前記変更フレーム画像であってよい。
 また、本発明に係る動画像処理方法は、動画像データを取得する取得ステップと、前記動画像データにより示される複数のフレーム画像のうちの順次表示される複数のフレーム画像を含む画像セットを特定する特定ステップと、前記画像セットに含まれる前記複数のフレーム画像のいずれか少なくとも1つに基づくキーフレーム画像を変更して、前記画像セットに含まれる前記フレーム画像と同数の変更フレーム画像を生成する生成ステップであって、前記複数の変更フレーム画像の対応画素の画素値の平均は、前記キーフレーム画像の対応画素の画素値に対応し、前記複数の変更フレーム画像は前記画像セットに含まれる前記複数のフレーム画像の代わりに順次表示される、生成ステップと、を含む。
 また、本発明に係る動画像処理方法は、動画像データを取得する取得ステップと、前記動画像データにより示される複数のフレーム画像のうちの順次表示される複数のフレーム画像を含む画像セットを特定する特定ステップと、前記画像セットに含まれる前記複数のフレーム画像のいずれか少なくとも1つに基づくキーフレーム画像に合成される、前記画像セットに含まれる前記フレーム画像と同数のノイズ画像を生成する生成手段であって、前記複数のノイズ画像の対応画素の画素値の平均は零であり、前記キーフレーム画像に前記複数のノイズ画像のそれぞれを合成してなる複数の変更フレーム画像は、前記画像セットに含まれる前記複数のフレーム画像の代わりに順次表示される、生成ステップと、を含む。
 また、本発明に係るプログラムは、動画像データを取得する取得手段、前記動画像データにより示される複数のフレーム画像のうちの順次表示される複数のフレーム画像を含む画像セットを特定する特定手段、及び前記画像セットに含まれる前記複数のフレーム画像のいずれか少なくとも1つに基づくキーフレーム画像を変更して、前記画像セットに含まれる前記フレーム画像と同数の変更フレーム画像を生成する生成手段であって、前記複数の変更フレーム画像の対応画素の画素値の平均は、前記キーフレーム画像の対応画素の画素値に対応し、前記複数の変更フレーム画像は前記画像セットに含まれる前記複数のフレーム画像の代わりに順次表示される、生成手段としてコンピュータを機能させるためのプログラムである。また、本発明に係るプログラムは、動画像データを取得する取得手段、前記動画像データにより示される複数のフレーム画像のうちの順次表示される複数のフレーム画像を含む画像セットを特定する特定手段、及び前記画像セットに含まれる前記複数のフレーム画像のいずれか少なくとも1つに基づくキーフレーム画像に合成される、前記画像セットに含まれる前記フレーム画像と同数のノイズ画像を生成する生成手段であって、前記複数のノイズ画像の対応画素の画素値の平均は零であり、前記キーフレーム画像に前記複数のノイズ画像のそれぞれを合成してなる複数の変更フレーム画像は、前記画像セットに含まれる前記複数のフレーム画像の代わりに順次表示される、生成手段としてコンピュータを機能させるためのプログラムである。これらのプログラムは、CD-ROMやDVD-ROM等のコンピュータ可読情報記憶媒体に格納されてよい。
本発明の実施形態に係る動画像表示装置を示す図である。 動画像表示装置のハードウェア構成図である。 動画像の変換を説明する図である。 キーフレーム画像を例示する図である。 中間ノイズ画像を例示する図である。 ノイズ画像を例示する図である。 変更フレーム画像を例示する図である。 動画像表示装置の機能ブロック図である。 フレーム画像セットの特定処理を示すフロー図である。 中間ノイズ画像の生成処理を示すフロー図である。 ノイズ画像の生成処理を示すフロー図である。
 以下、本発明の実施形態について図面に基づき詳細に説明する。
 図1は、本発明の実施形態に係る動画像表示装置を示す図である。動画像表示装置10は、パーソナルコンピュータ、スマートフォン、タブレットなどの各種形態のコンピュータであり、図2に示すように、CPU10a、メインメモリ10b、通信インタフェース10c、表示部10d、入力部10e、記憶部10fがバスに接続されたハードウェア構成を有している。動画像表示装置10は本発明に係る動画像処理システムの一形態である。CPU10aは装置の各部を制御したり、各種の情報処理を実行したりする。メインメモリ10bは揮発性の記憶手段であり、CPU10aの作業に用いられる。通信インタフェース10cは無線LANや無線電話回線等の通信回線により、インターネット等のデータ通信ネットワーク30にアクセスする。表示部10dは、液晶や有機ELなどの表示手段である。表示部10dは表示用メモリを備えており、CPU10aが同表示用メモリに表示データ(ラスタ形式)を格納すると、この表示データに示される画像が表示部10dにより表示される。入力部10eは、例えば動画像表示装置10に備えられた各種の機械的なキーや、表示部10dの表示面に取り付けられたタッチパネルである。入力部10eにより入力されるデータはCPU10aにより利用される。記憶部10fは、不揮発性の記憶手段であり、OS(Operating System)や動画像表示プログラムを記憶する。動画像表示プログラムはデータ通信ネットワーク30からダウンロードしてもよいし、CD-ROMその他のコンピュータ可読情報記憶媒体から読み出してもよい。音声出力部10dは、スピーカを備えており、音声データを再生する。
 本実施形態では、図1に示すように、動画像表示装置10はデータ通信ネットワーク30に接続されており、このデータ通信ネットワーク30には動画像送信装置20も接続されている。動画像送信装置20は、動画像表示装置10と同様のハードウェア構成を有するコンピュータであり、動画像表示装置10に動画像データを送信する。一例として、動画像表示装置10及び動画像送信装置20は、いずれもビデオチャットのプログラムを実行するコンピュータであり、いずれもビデオチャット装置として構成される。すなわち、動画像送信装置20はそのユーザの動画像をカメラにより撮影し、ユーザを示すストリーム形式の動画像データを生成する。そして、その動画像データを動画像表示装置10にストリーム送信する。動画像表示装置10は、動画像データを受信し、それを表示部10dにより表示する。動画像送信装置20は、ユーザの音声を録音するためのマイクを備えてよく、音声付き動画像データを動画像表示装置10に送信してよい。また、動画像表示装置10は、音声付き動画像データが示す動画像を表示部10dにより表示する際に、該音声付き動画像データが示す音声を音声出力部10dから同期して出力してよい。なお、動画送信装置20は動画像表示装置10の機能を備えてよいし、動画像表示装置10は動画像送信装置20の機能を備えてよい。これにより、双方向のビデオチャットを実現できる。ビデオチャット装置に本発明を適用すると、話し相手に自分の画像を複製されることを防止でき、極めて有意義である。
 なお、動画像送信装置20から送信するのは、ビデオチャットのための音声付動画像データに限らず、例えば各種の講義を収録した音声付き動画像データなど、他の内容の音声付動画像データであってよい。或いは、音声を伴わない動画像データであってよい。さらに、動画像データはストリーム形式に限らず、ダウンロード可能な形式であってもよい。また、動画像送信装置20は暗号化された形式の動画像データを送信してよい。
 ところで、動画像表示装置10ではOSが実行されており、このOSはスクリーンショットの機能を提供している。スクリーンショット機能によれば、入力部10eによりユーザが特定操作を行うと、表示部10dに内蔵される表示用メモリに記憶されている表示データを記憶部10fに移動させる。これにより、記憶部10fに記憶された表示データを後で表示部10dにより再表示することができる。動画像送信装置20から送信される各種の動画像データについても、それを表示部10dにより表示させると、表示用メモリに動画像を構成するフレーム画像の表示データが記憶されることになる。そして、OSの提供するスクリーンショット機能を利用することで、その表示データを記憶部10fに移動させることができ、後に他の動画像表示装置に送信することもできてしまう。
 そこで、本実施形態に係る動画像表示プログラムは、こうした不正を防止するために、表示部10dの表示用メモリに、元の動画像のキーフレーム画像にノイズを付加してなる表示データ(変更フレーム画像)を格納するようにしている。このため、OSの提供するスクリーンショット機能を利用しても、変更フレーム画像しか記憶部10fに移動させることができない。なお、変更フレーム画像は複数種類用意され、その平均値はキーフレーム画像と一致する。このため、それら複数種類の変更フレーム画像を短い時間間隔で切り替えながら順次表示することにより、ユーザには、あたかも表示部10dに元のノイズの無いキーフレーム画像が表示されているかのように認識されることになる。
 図3は、動画像表示プログラムによる動画像の変換を示す図である。同図(a)は、動画像送信装置20から送信された動画像データが示す一連のフレーム画像を示しており、同図(b)は動画像表示プログラムにより生成された一連の変更フレーム画像を示している。同図(a)に示すように、動画像送信装置20から送信された動画像データは、所定の時間間隔で順次表示される多数のフレーム画像V1、V2、V3、V4…を示している。動画像表示プログラムは、このうち目立つ変化のあったフレーム画像Vをキーフレーム画像Kとして選出している。ここでは、フレーム画像V、V、Vがキーフレーム画像Kとして選出されている。そして、キーフレーム画像Kから次のキーフレーム画像Kの直前のフレーム画像までの連続する複数のフレーム画像を、フレーム画像セットとして特定する。例えば、同図(a)の例では、フレーム画像V~Vをフレーム画像セット1とし、先頭のフレーム画像Vをキーフレーム画像Kとしている。1つのフレーム画像セットに属するフレーム画像は、変化が目立たず、ユーザからは類似の画像として認識されるものである。
 同図(b)に示すように、動画像表示プログラムでは、各キーフレーム画像Kを、該キーフレーム画像Kが属するフレーム画像セットのフレーム画像数Rと同数の変更フレーム画像に変換する。例えば、フレーム画像セット1のフレーム画像数Rは4であり、フレーム画像V~Vを含むフレーム画像セット1は、同数の変更フレーム画像C (1)~C (1)を含む変更フレーム画像セット1に変換される。これら4つの変更フレーム画像C (1)~C (1)は、いずれもキーフレーム画像Kであるフレーム画像Vに基づいて生成される。同様に、フレーム画像セット2のフレーム画像数Rは2であり、フレーム画像V~Vを含むフレーム画像セット2は、同数の変更フレーム画像C (2)~C (2)を含む変更フレーム画像セット2に変換される。これら2つの変更フレーム画像C (2)~C (2)は、いずれもキーフレーム画像Kであるフレーム画像Vに基づいて生成される。各フレーム画像セットは、該フレーム画像セットに含まれるフレーム画像と同数の変更フレーム画像を含む変更フレーム画像セットに変換されるので、動画像の長さが変わることはない。上述のように、1つのフレーム画像セットに属するフレーム画像は、変化が目立たず、ユーザからは類似の画像として認識されるものである。一方、対応する変更フレーム画像セットに属する変更フレーム画像は、ユーザにはキーフレーム画像が同じ長さだけ表示されているものと認識される。これらの認識は互いに類似しているから、ユーザに違和感を与えることがない。
 ここで、キーフレーム画像Kから所与の数の変更フレーム画像Cを生成する方法について詳細に説明する。
 図4は、キーフレーム画像Kを例示している。キーフレーム画像Kはここでは256階調グレースケール画像であり、グレーの背景に人物が表される。なお、同図では、説明のため、人物の代わりにアルファベット大文字及び数字が表されている。
 キーフレーム画像Kの位置(x,y)における画素値をK(x,y)とすると、その値は0以上255以下となる。そして、背景の位置での画素値K(x,y)は1以上255未満、例えば30程度であってよい。一方、人物の位置での画素値K(x,y)はそれよりも大きく、例えば100~200程度であってよい。
 動画像表示装置10の動画像表示プログラムは、フレーム画像セットを特定し、キーフレーム画像K及び該キーフレーム画像Kが属するフレーム画像セットのフレーム画像数Rを決定する。その後、キーフレーム画像Kに基づいて変更フレーム画像セットSを生成する。ここで、画像セットSは、R(R≧2)種類の変更フレーム画像Cj(j=1~R)を含んでいる。
 具体的には、動画像表示プログラムは、R種類のノイズ画像N(j=1~R)を生成し、それらをキーフレーム画像Kに加算することにより、R種類の変更フレーム画像C(j=1~R)を得ている。また、R種類のノイズ画像Nを生成するために、まずR種類の中間ノイズ画像M(j=1~R)を生成し、それらをR種類のノイズ画像Nに変換している。なお、中間ノイズ画像M及びノイズ画像Nは、後述する条件の下、動画像表示プログラムがランダムに決定する。
 図5乃至図7は、R=4における、中間ノイズ画像M~M、ノイズ画像N~N、変更フレーム画像C~Cの例をそれぞれ示している。ここで、ノイズ画像N、中間ノイズ画像M、変更フレーム画像C、キーフレーム画像Kの縦横サイズ(次元)は等しく、いずれも256階調のグレースケール画像である。
 ノイズ画像Nの位置(x,y)における画素値をN(x,y)、変更フレーム画像Cの位置(x,y)における画素値をCj(x,y)とすると、次式(1)が成立する。
Figure JPOXMLDOC01-appb-M000004
 また、R種類のノイズ画像Nは全部を短い時間間隔で切り替えながら見ると、人間の視覚機能により何も表示されていないように見える。すなわち、ノイズ画像Nの任意の位置(x,y)で次式(2)が成立する。
Figure JPOXMLDOC01-appb-M000005
 ここで、Σはjが1~Rまでの和である。また、式(1)及び(2)が成立するので、変更フレーム画像Cの任意の位置(x,y)における画素値C(x,y)の平均は、キーフレーム画像Kの位置(x,y)における画素値K(x,y)に一致する。なお、こうした人間の視覚機能が有効に働くためにはRに上限があり、本発明者らの実験によればRの上限は2~4程度である。
 また、上述のように変更フレーム画像Cも256階調であり、表示部10dで表示可能な画素値で表現される必要があるから、次式(3)を満足する必要がある。
Figure JPOXMLDOC01-appb-M000006
 ここで、αは表示部10dにより表示可能な画素値の下限値であり、βは動画像表示装置10により表示可能な画素値の上限値である。ここでは、表示部10dは256階調グレースケール表示を行うから、下限値αは0であり、上限値βは255である。
 動画像表示装置10の動画像表示プログラムでは、変更フレーム画像セットSを生成すると、該変更フレーム画像セットSに含まれる変更フレーム画像C~Cを順に表示する。
 図8は動画像表示装置10の機能ブロック図である。同図に示す機能ブロック図は、動画像表示装置10が有する各種の機能のうち、動画像の表示に関わる機能を示している。上述の動画像表示プログラムをコンピュータである動画像表示装置10が実行することにより、同図に示される機能が実現される。
 同図に示すように、動画像表示装置10は動画像データ取得部11、フレーム画像セット特定部12、中間ノイズ画像生成部13、ノイズ画像生成部14、変更フレーム画像生成部15、表示制御部16、表示部17を含んでいる。動画像データ取得部11は、例えばメインメモリ10bに確保されたFIFO(First In First Out)式のフレーム画像バッファ11aを含む。また、表示制御部16は、例えばメインメモリ10bに確保されたFIFO式の変更フレーム画像バッファ16aを含む。
 動画像データ取得部11は、動画像送信装置20から送信される動画像データを受信する。そして、該動画像データが示す一連のフレーム画像を取得し、それらを順にフレーム画像バッファ11aに格納する。フレーム画像セット特定部12は、フレーム画像バッファ11aに格納されているフレーム画像に基づき、それぞれ連続する類似内容のフレーム画像からなる、複数のフレーム画像セットを特定する。各フレーム画像セットは時間的に隣接しており、フレーム画像バッファ11aに格納されている全てのフレーム画像は、いずれかのフレーム画像セットに属することになる。
 そして、各フレーム画像セットの代表画像であるキーフレーム画像K、及び該フレーム画像セットに含まれるフレーム画像数Rを出力する。中間ノイズ画像生成部13、ノイズ画像生成部14、変更フレーム画像生成部15は、変更フレーム画像セットSを順次生成する。変更フレーム画像セットSは、フレーム画像セット特定部12から出力されるキーフレーム画像Kを変更してなる、フレーム画像セット特定部12から出力されるフレーム画像数Rの変更フレーム画像Cを含んでいる。
 すなわち、中間ノイズ画像生成部13は、キーフレーム画像Kに基づいて、フレーム画像数Rの中間ノイズ画像Mを生成する。また、ノイズ画像生成部14は中間ノイズ画像Mに基づいてノイズ画像Nを生成する。また、変更フレーム画像生成部15は、式(1)に示すように、キーフレーム画像Kに対して、ノイズ画像生成部14で生成されるノイズ画像Nを加算することにより、フレーム画像数Rの変更フレーム画像Cを生成する。各フレーム画像セットSに係る変更フレーム画像Cは、変更フレーム画像バッファ16aに表示順に格納される。また、表示制御部22は、変更フレーム画像バッファ16aに格納される、各変更フレーム画像セットSの変更フレーム画像Cを順次表示する。さらに、入力部10eを用いて再生の一時停止操作が行われると、その時点で再生中の変更フレーム画像セットSを繰り返して表示する。こうすれば、元のフレーム画像が表示用メモリに格納されず、一時停止中も不正を防止できる。
 ここで、フレーム画像セット特定部12の処理を詳細に説明する。図9は、フレーム画像セット特定部12による処理を示すフロー図である。同図において、Kはキーフレーム画像、Vはj番目のフレーム画像である。また、勾配評価値ε(x,y)はキーフレーム画像Kの位置(x,y)における勾配を示しており、勾配評価値Wはフレーム画像Vの位置(x,y)における勾配を示しており、それぞれ次式(4)(5)により示される。
Figure JPOXMLDOC01-appb-M000007
 また、差分評価値D(x,y)は、キーフレーム画像Kの位置(x,y)における画素値とフレーム画像Vの位置(x,y)における画素値との差を示すものであり、次式(6)により示される。位置(x,y)においてフレーム画像Vがキーフレーム画像Kからどれだけ異なっているかを示している。
Figure JPOXMLDOC01-appb-M000008
 また、勾配評価値Q(x,y)は次式(7)により示される。Q(x,y)は、位置(x,y)におけるキーフレーム画像Kとフレーム画像Vのそれぞれの勾配の平均値を示す。この値が大きいほど、位置(x,y)における画像周波数は高いと言える。
Figure JPOXMLDOC01-appb-M000009
 また、指標φは、フレーム画像Vが、該フレーム画像Vに先行するキーフレーム画像Kに対して目立つ変化をしているかどうかを判断するための指標であり、次式(8)により定義される。
Figure JPOXMLDOC01-appb-M000010
 ここで、Σは位置(x,y)についての和を示す。指標φは、差分評価値D(x,y)及び勾配評価値Q(x,y)の両方が大きな値をとる位置(x,y)が多いほど、大きな値をとる。つまり、キーフレーム画像K及びフレーム画像Vにおいて、画像周波数が高い位置が多く、且つそれらの位置においてキーフレーム画像Kからフレーム画像Vへの変化が大きい場合に、指標φは大きな値をとる。
 図9において、フレーム画像セット特定部12は、まず、最初のフレーム画像Vをキーフレーム画像Kに選ぶまた、すべての位置(x,y)について勾配評価値ε(x,y)を算出する(S101)。または、変数i及びjを0に初期化する。
 次に、変数jをインクリメントし、次のフレーム画像Vをフレーム画像バッファ11aから取得する(S102)。そして、j-iが2以上であるかを判断する(S103)。S103でノーであればS102に戻る。一方、S103においてイエスであれば、勾配評価値W(x,y)を算出する(S104)。次に、j-iがm以上であるかを判断する(S105)。ここでmは、フレーム画像セットに含まれるフレーム画像数Rの最大数であり、上述のように例えば2以上4以下の数に設定されてよい。
 S105においてイエスであれば、S110に進む。一方、S105においてノーであれば、すべての位置(x,y)の差分評価値D(x,y)、すべての位置(x,y)の勾配評価値Q(x,y)、指標φを算出する(S106,S107,S108)。そして、指標φがτ以上であるかを判断する(S109)。τは、例えば実験により定めればよい。
 S109においてノーであれば、S113に進む。一方、S109においてイエスであれば、フレーム画像数Rをj-iに設定し(S110)、中間ノイズ画像生成部13にフレーム画像数R、及びS101で選んだキーフレーム画像Kを渡す(S111)。その後、フレーム画像Vを次のキーフレーム画像Kに選び、すべての位置(x,y)について、勾配評価値W(x,y)をその勾配評価値ε(x,y)に設定する。また、変数iを変数jと同じ値に設定する(S112)。その後、フレーム画像Vをフレーム画像バッファ11aから削除し(S113)、S102に戻る。
 以上の処理により、フレーム画像セット特定部12は、フレーム画像Vの変化を示すD(x,y)、内容の特徴を示すQ(x,y)に基づいて、フレーム画像セットを好適に特定することができる。なお、ここでは指標φを用いてキーフレーム画像Kを特定したが、他の方法でキーフレーム画像Kを特定してもよい。例えば、各フレーム画像Vについて、直前のフレーム画像Vj-1との差分をとり、その差分の大きさが所定値以上である場合に、該フレーム画像Vをキーフレーム画像Kとして選んでもよい。また、各フレーム画像セットにおける先頭のフレーム画像をキーフレーム画像Kとしたが、他のフレーム画像、例えば中央のフレーム画像をキーフレーム画像Kとしてもよい。或いは、フレーム画像セットに含まれるフレーム画像の平均画像など、フレーム画像セットに含まれるフレーム画像に基づいて生成される画像をキーフレーム画像Kとしてもよい。
 次に、中間ノイズ画像生成部13による処理を詳細に説明する。図10は中間ノイズ画像生成部13による処理を示すフロー図である。フレーム画像セット特定部12からキーフレーム画像K及びフレーム画像数Rが与えられると、同図に示すように、中間ノイズ画像生成部13はまず変数jに1をセットする(S201)。そして、後述する中間画像Mの画素値M(x,y)のとりうる範囲の下限値L(x,y)及び上限値U(x,y)の初期値であるL(x,y)及びU(x,y)を、それぞれ次式(9)及び(10)に従ってすべての位置(x,y)について計算する(S202)。
Figure JPOXMLDOC01-appb-M000011
 次に、変数jがR以上でなければ(S203)、画素値M(x,y)の下限値L(x,y)及び上限値U(x,y)を次式(11)及び(12)に従ってすべての位置(x,y)について計算する(S204)。但し、Σはkが1~j-1までの和である。
Figure JPOXMLDOC01-appb-M000012
 その後、下限値L(x,y)及び上限値U(x,y)の範囲内でランダムにM(x,y)を決定する(S205)。具体的には、すべての位置(x,y)について、0以上1以下の範囲で乱数γを生成し、該γを次式(13)に代入することにより画素値M(x,y)を算出する。
Figure JPOXMLDOC01-appb-M000013
 次に、変数jを1だけインクリメントし(S206)、S203の処理に戻る。S203にて変数jがR以上であると判断すれば、次式(14)に従ってすべての位置(x,y)についてM(x,y)を算出し(S207)、処理を終了する。ここで、Σはkが1~n-1の和である。
Figure JPOXMLDOC01-appb-M000014
 なお、中間ノイズ画像Mの画素値Mj(x,y)は、ノイズ画像Nの画素値N(x,y)と同様、次式(15)を満足する。但し、Σはjが1~nまでの和である。
Figure JPOXMLDOC01-appb-M000015
 式(14)は、式(15)から導かれる。また、M(x,y)は、S205の処理ですでに決定しているM(x,y)~Mjー1(x,y)と、今後S205の処理で決定するMj+1(x,y)~M(x,y)と、の和を符号反転した値となる。ここでは、今後S205の処理で決定するMj+1(x,y)~M(x,y)は、いずれもその上限値がUj-1(x,y)であり、下限値がLjー1(x,y)であると仮定し、式(11)及び(12)を導いている。
 次にノイズ画像生成部14による処理を詳細に説明する。図11は、ノイズ画像生成部14による処理を示すフロー図である。同図に示す処理は、中間ノイズ画像M~Mの位置(x,y)における画素値M(x,y)~M(x,y)をランダムに入れ替えることにより、ノイズ画像N~Nの位置(x,y)における画素値N(x,y)~N(x,y)を得るものである。同図に示す処理は、すべての位置(x,y)について繰り返し実行される。この処理では、まずノイズ画像生成部14は変数tに1をセットし(S301)、変数tが所定の繰り返し回数T以上でない限り(S302)、1以上R以下の範囲の乱数を2つ生成し、それらを変数δ及び変数εにセットする(S303)。次に、δ番目の中間ノイズ画像Mδの画素値Mδ(x,y)と、ε番目の中間ノイズ画像Mεの画素値Mε(x,y)を入れ替える(S304)。その後、変数tを1だけインクリメントし(S305)、S302の処理に戻る。S302の処理で変数tが繰り返し回数T以上であると判断されれば、中間ノイズ画像M~Mの画素値M(x,y)~M(x,y)をノイズ画像N~Nの画素値N(x,y)~N(x,y)とする。
 その後、以上のS301~S306の処理をすべての位置(x,y)について繰り返す。なお、繰り返し回数Tは任意の数であってよいが、R以上であることが望ましい。
 上述のように、変更フレーム画像生成部15は、フレーム画像セット特定部12から出力されるキーフレーム画像Kに対して、ノイズ画像生成部14で生成されるノイズ画像Nを加算することにより、フレーム画像数Rの変更フレーム画像Cを生成する。そして、生成した変更フレーム画像Cを変更フレーム画像バッファ16aに表示順に格納する。表示制御部22は、変更フレーム画像バッファ16aに格納される、各変更フレーム画像セットSの変更フレーム画像Cを、表示部10dに備えられる表示用メモリに表示順に格納することにより、それらを順次表示する。
 以上説明した動画像表示装置10によれば、変更フレーム画像セットSが順次生成され、それらに含まれる変更フレーム画像Cが時間順に表示される。表示部10dには元のフレーム画像Vは表示されないので、不正にフレーム画像Vのデータを複製することを防止できる。
 なお、本発明は上記実施形態に限定されるものではなく、種々の変形実施が可能である。例えば、以上の説明ではフレーム画像Vとして256階調グレースケール画像を用いたが、他の形式の画像(例えばカラー画像)であってもよいのはもちろんである。さらに、変更フレーム画像Cの生成方法は上述の方法に限られず、種々の生成方法を用いてよい。例えば、上記実施形態によればキーフレーム画像Kの全体にノイズを付加することで変更フレーム画像Cを得るようにしたが、キーフレーム画像Kの一部にノイズを付加して変更フレーム画像Cを得るようにしてよい。例えば、キーフレーム画像Kのうち、人の顔が表された領域など、特定内容が表された領域を特定し、該領域にだけノイズを付加してよい。この場合、特定された領域内の位置(x,y)についてだけ、画素値M(x,y)や画素値N(x,y)は0より大きな値をとり、その他の位置(x,y)では0となる。
 また、以上の説明では本発明に係る画像処理システムを画像表示装置10において実装したが、画像送信装置20において実装してもよい。この場合、画像送信装置20において変更フレーム画像を生成し、ダウンロード形式又はストリーミング形式でそれら変更フレーム画像を動画像表示装置10に送信する。また、動画像表示装置10は受信した変更フレーム画像を順次表示する。或いは、動画像送信装置20においてノイズ画像を生成し、元の動画像データとともに、ダウンロード形式又はストリーミング形式でそれらノイズ画像を動画像表示装置10に送信してもよい。この場合、動画像表示装置10は、受信した動画像データが示すフレーム画像に対し、受信したノイズ画像を合成することにより、変更フレーム画像を生成し、それらを順次表示する。その他、様々な方法で、本発明に係る動画像処理システムの機能を複数のコンピュータに分担させてよい。

Claims (14)

  1.  動画像データを取得する取得手段と、
     前記動画像データにより示される複数のフレーム画像のうちの順次表示される複数のフレーム画像を含む画像セットを特定する特定手段と、
     前記画像セットに含まれる前記複数のフレーム画像のいずれか少なくとも1つに基づくキーフレーム画像を変更して、前記画像セットに含まれる前記フレーム画像と同数の変更フレーム画像を生成する生成手段であって、前記複数の変更フレーム画像の対応画素の画素値の平均は、前記キーフレーム画像の対応画素の画素値に対応し、前記複数の変更フレーム画像は前記画像セットに含まれる前記複数のフレーム画像の代わりに順次表示される、生成手段と、
    を含む動画像処理システム。
  2.  請求項1に記載の動画像処理システムにおいて、
     前記特定手段は、前記動画像データが示す前記複数のフレーム画像の変化に基づいて、前記画像セットを特定する、動画像処理システム。
  3.  請求項1又は2に記載の動画像処理システムにおいて、
     前記特定手段は、前記動画像データが示す前記フレーム画像の内容に基づいて、前記画像セットを特定する、動画像処理システム。
  4.  請求項1乃至3のいずれかに記載の動画像処理システムにおいて、
     前記複数の変更フレーム画像を順次表示している間に前記動画像データの再生を一時停止する場合、前記画像セットに含まれる前記複数のフレーム画像のいずれか少なくとも1つに基づく一時停止用キーフレーム画像を変更してなる複数の一時停止用変更フレーム画像を順次表示することを繰り返す一時停止手段であって、前記複数の一時停止用変更フレーム画像の対応画素の画素値の平均は、前記一時停止用キーフレーム画像の対応画素の画素値に対応する、一時停止手段をさらに含む、動画像処理システム。
  5.  請求項4に記載の動画像処理システムにおいて、
     前記一時停止用変更フレーム画像は、前記生成手段により生成される前記変更フレーム画像である、動画像処理システム。
  6.  請求項1乃至5のいずれかに記載の動画像処理システムにおいて、
     キーフレーム画像Kの位置(x,y)における画素値をK(x,y)とし、j番目の前記変更フレーム画像Cの位置(x,y)における画素値をC(x,y)とし、j番目のノイズ画像Nの位置(x、y)における画素値をN(x,y)とするとき、
    Figure JPOXMLDOC01-appb-M000001
     が成立する、動画像処理システム(但し、nは前記変更フレーム画像の数であり、Σはjが1~nまでの和である。)。
  7.  請求項6に記載の動画像処理システムにおいて、
    Figure JPOXMLDOC01-appb-M000002
     を満足する、ことを特徴とする動画像処理システム(但し、αは表示手段により表示可能な画素値の下限値であり、βは前記表示手段により表示可能な画素値の上限値である。)。
  8.  請求項7に記載の動画像処理システムにおいて、
     j番目の中間ノイズ画像Mの位置(x,y)における画素値をM(x,y)とするとき、その下限値L(x,y)及び上限値U(x,y)を、
    Figure JPOXMLDOC01-appb-M000003
     により順次算出し、下限値L(x,y)及び上限値U(x,y)の範囲内で画素値M(x,y)を決定し、該画素値M(x,y)に基づいて前記複数の変更フレーム画像Cを生成する、動画像処理システム(但し、Σはkが1~j-1までの和であり、U(x,y)はβ-K(x,y)であり、L(x,y)はα-K(x,y)である。)。
  9.  請求項8に記載の動画像処理システムにおいて、
     δ番目の前記中間ノイズ画像Mδの位置(x,y)における画素値Mδ(x,y)とε番目の前記中間ノイズ画像Mεの位置(x,y)における画素値Mε(x,y)とを入れ替えることにより、前記複数のノイズ画像Nを生成し、それらにより前記複数の変更フレーム画像Cを生成する、動画像処理システム(但し、γ及びδは、1以上n以下のランダムな数である。)。
  10.  動画像データを取得する取得ステップと、
     前記動画像データにより示される複数のフレーム画像のうちの順次表示される複数のフレーム画像を含む画像セットを特定する特定ステップと、
     前記画像セットに含まれる前記複数のフレーム画像のいずれか少なくとも1つに基づくキーフレーム画像を変更して、前記画像セットに含まれる前記フレーム画像と同数の変更フレーム画像を生成する生成ステップであって、前記複数の変更フレーム画像の対応画素の画素値の平均は、前記キーフレーム画像の対応画素の画素値に対応し、前記複数の変更フレーム画像は前記画像セットに含まれる前記複数のフレーム画像の代わりに順次表示される、生成ステップと、
     を含む動画像処理方法。
  11.  動画像データを取得する取得手段、
     前記動画像データにより示される複数のフレーム画像のうちの順次表示される複数のフレーム画像を含む画像セットを特定する特定手段、及び
     前記画像セットに含まれる前記複数のフレーム画像のいずれか少なくとも1つに基づくキーフレーム画像を変更して、前記画像セットに含まれる前記フレーム画像と同数の変更フレーム画像を生成する生成手段であって、前記複数の変更フレーム画像の対応画素の画素値の平均は、前記キーフレーム画像の対応画素の画素値に対応し、前記複数の変更フレーム画像は前記画像セットに含まれる前記複数のフレーム画像の代わりに順次表示される、生成手段
     としてコンピュータを機能させるためのプログラム。
  12.  動画像データを取得する取得手段と、
     前記動画像データにより示される複数のフレーム画像のうちの順次表示される複数のフレーム画像を含む画像セットを特定する特定手段と、
     前記画像セットに含まれる前記複数のフレーム画像のいずれか少なくとも1つに基づくキーフレーム画像に合成される、前記画像セットに含まれる前記フレーム画像と同数のノイズ画像を生成する生成手段であって、前記複数のノイズ画像の対応画素の画素値の平均は零であり、前記キーフレーム画像に前記複数のノイズ画像のそれぞれを合成してなる複数の変更フレーム画像は、前記画像セットに含まれる前記複数のフレーム画像の代わりに順次表示される、生成手段と、
    を含む動画像処理システム。
  13.  動画像データを取得する取得ステップと、
     前記動画像データにより示される複数のフレーム画像のうちの順次表示される複数のフレーム画像を含む画像セットを特定する特定ステップと、
     前記画像セットに含まれる前記複数のフレーム画像のいずれか少なくとも1つに基づくキーフレーム画像に合成される、前記画像セットに含まれる前記フレーム画像と同数のノイズ画像を生成する生成手段であって、前記複数のノイズ画像の対応画素の画素値の平均は零であり、前記キーフレーム画像に前記複数のノイズ画像のそれぞれを合成してなる複数の変更フレーム画像は、前記画像セットに含まれる前記複数のフレーム画像の代わりに順次表示される、生成ステップと、
    を含む動画像処理方法。
  14.  動画像データを取得する取得手段、
     前記動画像データにより示される複数のフレーム画像のうちの順次表示される複数のフレーム画像を含む画像セットを特定する特定手段、及び
     前記画像セットに含まれる前記複数のフレーム画像のいずれか少なくとも1つに基づくキーフレーム画像に合成される、前記画像セットに含まれる前記フレーム画像と同数のノイズ画像を生成する生成手段であって、前記複数のノイズ画像の対応画素の画素値の平均は零であり、前記キーフレーム画像に前記複数のノイズ画像のそれぞれを合成してなる複数の変更フレーム画像は、前記画像セットに含まれる前記複数のフレーム画像の代わりに順次表示される、生成手段
    としてコンピュータを機能させるためのプログラム。
PCT/JP2013/059731 2013-03-29 2013-03-29 動画像処理システム、動画像処理方法及びプログラム WO2014155729A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/781,031 US9467644B2 (en) 2013-03-29 2013-03-29 Video processing system, video processing method, and program
JP2013535620A JP5374671B1 (ja) 2013-03-29 2013-03-29 動画像処理システム、動画像処理方法及びプログラム
PCT/JP2013/059731 WO2014155729A1 (ja) 2013-03-29 2013-03-29 動画像処理システム、動画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/059731 WO2014155729A1 (ja) 2013-03-29 2013-03-29 動画像処理システム、動画像処理方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2014155729A1 true WO2014155729A1 (ja) 2014-10-02

Family

ID=49954975

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/059731 WO2014155729A1 (ja) 2013-03-29 2013-03-29 動画像処理システム、動画像処理方法及びプログラム

Country Status (3)

Country Link
US (1) US9467644B2 (ja)
JP (1) JP5374671B1 (ja)
WO (1) WO2014155729A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110032421B (zh) * 2019-04-18 2021-09-28 腾讯科技(深圳)有限公司 内存中图集的管理方法、装置、终端及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259139A (ja) * 1999-03-04 2000-09-22 Nec Corp 画像表示装置
JP2001016429A (ja) * 1999-06-29 2001-01-19 Mitsubishi Electric Corp 汚染コンテンツ配信方式及び汚染コンテンツ配信装置及び汚染コンテンツ利用装置及び汚染コンテンツ配信方法及び汚染コンテンツ利用方法
JP2002072994A (ja) * 2000-08-28 2002-03-12 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法、装置、および画像処理プログラムを記録した記録媒体
JP2004320299A (ja) * 2003-04-15 2004-11-11 Matsushita Electric Ind Co Ltd 画像表示方法、画像表示システム、画像データ変換装置および画像表示装置
JP2009042326A (ja) * 2007-08-07 2009-02-26 Hitachi Omron Terminal Solutions Corp 情報表示装置および情報表示方法
JP2009205198A (ja) * 2008-02-26 2009-09-10 Nec Corp 画像処理装置、方法、及び、プログラム
JP2011182055A (ja) * 2010-02-26 2011-09-15 Rakuten Inc データ生成装置、データ生成方法、及びデータ生成プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6560281B1 (en) * 1998-02-24 2003-05-06 Xerox Corporation Method and apparatus for generating a condensed version of a video sequence including desired affordances
WO2013097227A1 (en) * 2011-12-31 2013-07-04 Nokia Corporation Causing elements to be displayed

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259139A (ja) * 1999-03-04 2000-09-22 Nec Corp 画像表示装置
JP2001016429A (ja) * 1999-06-29 2001-01-19 Mitsubishi Electric Corp 汚染コンテンツ配信方式及び汚染コンテンツ配信装置及び汚染コンテンツ利用装置及び汚染コンテンツ配信方法及び汚染コンテンツ利用方法
JP2002072994A (ja) * 2000-08-28 2002-03-12 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法、装置、および画像処理プログラムを記録した記録媒体
JP2004320299A (ja) * 2003-04-15 2004-11-11 Matsushita Electric Ind Co Ltd 画像表示方法、画像表示システム、画像データ変換装置および画像表示装置
JP2009042326A (ja) * 2007-08-07 2009-02-26 Hitachi Omron Terminal Solutions Corp 情報表示装置および情報表示方法
JP2009205198A (ja) * 2008-02-26 2009-09-10 Nec Corp 画像処理装置、方法、及び、プログラム
JP2011182055A (ja) * 2010-02-26 2011-09-15 Rakuten Inc データ生成装置、データ生成方法、及びデータ生成プログラム

Also Published As

Publication number Publication date
JPWO2014155729A1 (ja) 2017-02-16
JP5374671B1 (ja) 2013-12-25
US9467644B2 (en) 2016-10-11
US20160057381A1 (en) 2016-02-25

Similar Documents

Publication Publication Date Title
WO2020177582A1 (zh) 视频合成的方法、模型训练的方法、设备及存储介质
WO2021233008A1 (zh) 一种超分辨率重建方法和相关装置
JP5201142B2 (ja) 画面伝送システム、画面送信サーバ、画面伝送方法およびプログラム記録媒体
US10733963B2 (en) Information processing apparatus and image processing method
CN108876877A (zh) 表情符号人偶化
CN114025219B (zh) 增强现实特效的渲染方法、装置、介质及设备
CN110766610B (zh) 一种超分辨率图像的重建方法及电子设备
CN114003190B (zh) 一种适应多场景和多设备的增强现实方法和装置
WO2018120657A1 (zh) 一种共享虚拟现实数据的方法和设备
JP2013243610A (ja) 画像データ送信装置、画像データ受信装置、画像データ伝送システム、画像データ送信方法、画像データ受信方法、送信画像データおよびプログラム
JP5374671B1 (ja) 動画像処理システム、動画像処理方法及びプログラム
WO2013005518A1 (ja) 画像出力装置、画像出力方法、およびプログラム
CN111857515B (zh) 图像处理方法、装置、存储介质及电子设备
JP2014176017A (ja) 映像再生装置、映像配信装置、映像再生方法及び映像配信方法
CN113014960B (zh) 一种在线制作视频的方法、装置及存储介质
CN115953597B (zh) 图像处理方法、装置、设备及介质
JP2008147880A (ja) 画像圧縮装置と方法及びそのプログラム
JP5824170B2 (ja) 画像表示装置、画像表示方法及びプログラム
KR20180117826A (ko) 웹툰무비 제작 방법 및 장치
CN110860084A (zh) 一种虚拟画面处理方法及装置
JP2014153747A (ja) 画像複雑度に基づいてキャラクタ表示を制御するプログラム、情報機器及び方法
US20100073399A1 (en) Methods and devices for controlling a presentation of an object
WO2021199128A1 (ja) 画像データ転送装置、画像生成方法およびコンピュータプログラム
JP2008165559A (ja) 情報配信装置及びプログラム
JP2017058978A (ja) 情報処理装置及びプログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2013535620

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13880215

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14781031

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 13880215

Country of ref document: EP

Kind code of ref document: A1