WO2006100736A1 - 動画像データ編集装置、動画像データ再生装置、動画像データ編集方法及び動画像データ再生方法 - Google Patents

動画像データ編集装置、動画像データ再生装置、動画像データ編集方法及び動画像データ再生方法 Download PDF

Info

Publication number
WO2006100736A1
WO2006100736A1 PCT/JP2005/005013 JP2005005013W WO2006100736A1 WO 2006100736 A1 WO2006100736 A1 WO 2006100736A1 JP 2005005013 W JP2005005013 W JP 2005005013W WO 2006100736 A1 WO2006100736 A1 WO 2006100736A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving image
image data
extracted
pixel block
frame
Prior art date
Application number
PCT/JP2005/005013
Other languages
English (en)
French (fr)
Inventor
Tsutomu Togo
Atsuko Tada
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to JP2007509090A priority Critical patent/JP4312246B2/ja
Priority to PCT/JP2005/005013 priority patent/WO2006100736A1/ja
Publication of WO2006100736A1 publication Critical patent/WO2006100736A1/ja
Priority to US11/896,905 priority patent/US8532468B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/007Systems with supplementary picture signal insertion during a portion of the active part of a television signal, e.g. during top and bottom lines in a HDTV letter-box system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories

Definitions

  • Moving image data editing apparatus moving image data reproducing apparatus, moving image data editing method, and moving image data reproducing method
  • the present invention generally relates to a technique for applying a special viewing effect to encoded moving image data, and a technique for validating such a special viewing effect during reproduction.
  • the present invention relates to a technology for applying special viewing effects to moving image data that conforms to the coding standard MPEG (Moving Picture coding Experts Group), and a technology for enabling special viewing effects during playback.
  • MPEG Motion Picture coding Experts Group
  • moving image concealment processing is used when, for example, medical diagnostic images (diagnostic videos obtained by ultrasonic diagnosis or endoscope) and surgical images are used for medical education. To be done.
  • FIG. 19 is a diagram showing a diagnostic moving image by actual ultrasonic diagnosis.
  • the actual diagnostic moving image 81 personal information for identifying the patient is recorded together as shown in the range 82.
  • a doctor can confirm that a medical moving image that is a basis of diagnosis is an image of an actual patient by visually observing powerful personal information.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 64-36460
  • Patent Document 2 Japanese Patent No. 3552945 Disclosure of the invention
  • the mask processing is performed to change the presence or absence of the mask processing according to the difference in the reproduction-side conditions, such as the medical treatment by the doctor and the viewing for the purpose of medical education. It was not possible to change the playback mode of one moving image data according to the difference in conditions on the playback side, except that two moving image data with and without were prepared.
  • the present invention provides a moving image data editing apparatus and moving image data capable of performing mask processing on a part of encoded moving image data with simple means and effort.
  • the purpose is to provide an editing method.
  • the present invention provides a moving image data reproducing apparatus and a moving image data reproducing method for reproducing an original moving image before mask processing from moving image data that has been subjected to mask processing in this manner.
  • the purpose of this is to change the playback mode compared to a normal regenerator that reproduces the video as it is.
  • the moving image data editing apparatus and moving image data editing method provides moving image data in which each frame is encoded for each macroblock partitioned in advance.
  • the macroblock corresponding to the area to be masked is extracted from the data stream of the input moving image data, and is extracted from the data stream.
  • the fixed pattern data encoded in advance is inserted at the position of the macroblock, and the extracted macroblock is inserted into the data stream as user data.
  • the moving image data reproduction apparatus and moving image data reproduction method is a moving image in which each frame is encoded for each macroblock divided in advance and a mask process is applied to a part of the image.
  • the macroblock inserted as user data is extracted from the data stream of the input moving image data, and the macroblock corresponding to the masked range in the data stream is extracted. Instead of the data at the position, the extracted macroblock is inserted to restore the moving image before mask processing.
  • FIG. 1 is a basic configuration diagram of a moving image data editing apparatus according to the present invention.
  • FIG. 2A is an explanatory diagram of moving image data to be masked by the moving image data editing apparatus according to the present invention, and is an explanatory diagram of a plurality of frames constituting the moving image data.
  • FIG. 2B is an explanatory diagram of a pixel block constituting each frame of FIG. 2A.
  • FIG. 3 is an explanatory diagram of a data stream configuration of the moving image data in FIG. 2.
  • FIG. 4A is a diagram showing an original moving image before mask processing is performed.
  • FIG. 4B is a diagram showing a moving image after mask processing.
  • FIG. 5 is an explanatory diagram of mask processing by the moving image data editing apparatus of FIG. 1.
  • FIG. 6 is a basic configuration diagram of a moving image data reproducing apparatus according to the present invention.
  • FIG. 7 is an explanatory diagram of mask invalidation processing by the moving image data reproduction device of FIG.
  • FIG. 8 is an overall configuration diagram of an embodiment of a moving image data editing apparatus according to the present invention.
  • FIG. 9A is an explanatory diagram of a plurality of pictures constituting MPEG moving image data.
  • FIG. 9B is an explanatory diagram of macroblocks constituting each picture of FIG. 9A.
  • FIG. 10 is an explanatory diagram of a data stream configuration of MPEG moving image data.
  • FIG. 11A is a diagram showing an original ultrasonic diagnostic moving image before performing mask processing.
  • FIG. 11B is a diagram showing an ultrasonic diagnostic moving image after mask processing.
  • FIG. 12 is a configuration diagram of the first embodiment of the analysis Z editing unit shown in FIG. 8.
  • FIG. 13 is an explanatory diagram of a first example of mask processing by the moving image data editing apparatus of FIG.
  • FIG. 14 is an overall configuration diagram of an embodiment of a moving image data reproducing apparatus according to the present invention.
  • FIG. 15 is an explanatory diagram of a first example of mask invalidation processing by the moving image data reproducing device of FIG.
  • FIG. 16 is an explanatory diagram of a second example of mask processing by the moving image data editing apparatus of FIG.
  • FIG. 17 is an explanatory diagram of a second example of mask invalidation processing by the moving image data reproduction device of FIG.
  • FIG. 18 is a configuration diagram of the second embodiment of the analysis Z editing unit shown in FIG. 8.
  • FIG. 19 is a diagram showing a diagnostic moving image by actual ultrasonic diagnosis.
  • FIG. 1 is a basic configuration diagram of a moving image data editing apparatus according to the present invention.
  • FIG. 2 is an explanatory diagram of moving image data to be masked by the moving image data editing apparatus 1 shown in FIG. 1, and
  • FIG. 2A is an explanatory diagram of a plurality of frames constituting the moving image data.
  • FIG. 2B is an explanatory diagram of a pixel block constituting each frame of FIG. 2A.
  • FIG. 3 is an explanatory diagram of a data stream configuration of the moving image data of FIG.
  • moving image data is composed of a plurality of images (frames) F1—F6 ′.
  • Each frame F1-F6 ... consists of a number of pixels corresponding to the resolution specified in the image format of the moving image!
  • the moving image data is a digital signal
  • the moving image data is generally encoded and compressed in order to reduce the amount of data.
  • the encoding of the moving image data is performed in accordance with the moving image code standard that the moving image data conforms to.
  • the moving image data editing apparatus 1 is a moving image that complies with a moving image code standard in which each frame constituting the moving image data is encoded for each pixel block defined in advance.
  • Target image data For example, in the example shown in FIG. 2B, each frame is encoded in units of pixel blocks BL1-BL4 ′ ′′ each having a size of M ⁇ N pixels.
  • Such a data stream configuration of video data in accordance with the video code standard can be generally shown as having the configuration shown in FIG. As shown in the upper part of Fig. 3.
  • the data stream has a configuration including a plurality of frames Fl—F5 ′ ”that are sequentially displayed over time.
  • Each frame F1, F5,... Has a plurality of frames constituting the frame as shown in the lower part of FIG.
  • Pixel blocks BL1 to BL5 '" are sequentially arranged in the order corresponding to the respective arrangement positions in the frame.
  • the data stream further has a user data area for inserting user data at least in frame units.
  • user data means any information that can be inserted into moving image data in addition to the original moving image information by the creator or editor who creates moving image data.
  • the moving image data editing device 1 can edit moving image data according to the general moving image coding standard described above and perform mask processing on a part of the image.
  • the moving image data editing apparatus 1 includes, as shown in FIG. 1, a pixel block extracting unit 11 that extracts a pixel block corresponding to a masking range from a data stream of input moving image data, A fixed pattern insertion unit 12 for inserting pre-encoded fixed pattern data at the original position in the data stream where the extracted pixel block is located, and the extracted pixel block, And a pixel block insertion unit 13 that is inserted into the user area of the data stream as user data.
  • FIG. 4A is a diagram showing an original moving image before mask processing
  • FIG. 4B is a diagram showing a moving image after mask processing.
  • a region 72 surrounded by a broken line in the moving image 71 shown in FIG. 4A is covered with a fixed pattern (for example, a single color) and masked.
  • the moving image 71 shown in FIG. 4A is edited like the masked moving image 71 shown in FIG. 4B.
  • the pixel block extraction unit 11 shown in FIG. 1 detects pixel blocks BL2 and BL4 existing within the mask area 72 from the input data stream of the original moving image data. Take out.
  • the fixed pattern insertion unit 12 shown in FIG. 1 extracts the pixel blocks BL2 and BL4.
  • the fixed pattern data 73 is inserted into each of the original positions where the pixel blocks BL2 and BL4 are located! / In the obtained data stream.
  • the fixed pattern data 73 may be obtained by intra-frame encoding of a fixed pattern having the same size as the pixel block, or by generating such encoded data by simulation and acquiring it in advance. Is possible.
  • the pixel block insertion unit 13 inserts the extracted pixel blocks BL2 and BL4 into the user area of the data stream as user data.
  • the moving image data editing apparatus 1 performs the mask process without decoding and re-encoding the moving image data, there is a problem of image quality degradation caused by the re-encoding of the moving image with less processing time. Nor.
  • FIG. 6 is a basic configuration diagram of a moving image data reproducing apparatus according to the present invention.
  • the moving image data reproduction device 2 is used to input the masked moving image data edited by the moving image data editing device 1 and restore and reproduce the moving image before the mask processing.
  • the moving image data reproducing device 2 includes a pixel block extracting unit 21 that extracts an original pixel block inserted as user data from a data stream of input moving image data, and a mask area in the data stream.
  • a moving image restoration means 22 for inserting the extracted original pixel block and restoring the moving image before the mask processing is provided.
  • the pixel block extracting unit 21 shown in FIG. 6 is originally located in the mask area of the input moving image data, and converts the original pixel blocks BL2 and BL4 into each frame of the data stream. Extract user data area force.
  • the moving image restoration means 22 shown in FIG. Figure 7 shows the extracted original pixel blocks BL2 and BL4.
  • the moving image before the mask processing by the moving image data editing apparatus 1 is restored.
  • the moving image data reproducing apparatus can be used only for a specific facility, person, place, etc. (a medical site where the personal information part does not need to be masked according to the above-described diagnostic moving image). If the reproduction of image data is permitted, the mask processing is invalidated only when the image data is reproduced by these specific facilities and humans. In the case of playback, the mask process remains effective. In this way, it is possible to change the playback mode of one moving image data according to the difference in playback conditions.
  • FIG. 8 is an overall configuration diagram of an embodiment of a moving image data editing apparatus according to the present invention.
  • the moving image data editing apparatus 1 relates to a mask process while an operator views this moving image by inputting and displaying the decoded moving image data by a decoder 14 that decodes the input encoded moving image original data.
  • a mask information generating unit 15 which is an insertion position information generating unit according to the present invention, which is capable of issuing an instruction, and generates mask information 62 relating to mask processing based on the parenthesis instruction.
  • the input encoded video source data is analyzed, and the masked video source data is subjected to mask processing based on the mask information 62 generated by the mask information generation unit 15 to obtain masked video data.
  • an analysis Z editing unit 16 that outputs 61.
  • the encoded moving image original data input to the moving image data editing device 1 is, for example, an analog video signal picked up by a video power camera 51 and input to a generally available encoder 52, and is encoded in a digital format.
  • the moving image data obtained by encoding the converted moving image data may be used.
  • Such encoded video source data is stored in a video source data storage unit 53 that can be realized by a storage device such as a hard disk drive device or a memory device, or a removable recording medium such as a CD-ROM or DVD disk. Store this video source data storage unit 53 is input to the video data editing device 1.
  • the moving image data editing apparatus 1 performs mask processing on encoded moving image data compliant with the MPEG format, which is one of moving image encoding standards, will be described.
  • FIG. 9A is an explanatory diagram of a plurality of pictures constituting MPEG moving image data.
  • MPEG video data is composed of a plurality of frames II, B1—B3, Pl, B4— ⁇ 6, ⁇ 2,.
  • Each picture is divided into three types according to its code type: I picture II, 12, which is the intra-frame code screen, and forward prediction code screen, ⁇ picture ⁇ 1, ⁇ 2.
  • each picture that is composed of moving image data and is sequentially displayed over time is referred to as a “picture”.
  • This picture is the present invention described with reference to FIG. 1 and FIG. It is used in the same meaning as “frame” in the video data structure related to
  • each picture is divided into 16 x 16 pixel sections as shown in Fig. 9B.
  • Block MB1 — ⁇ 4 ⁇ is configured, and block matching is performed using this macroblock as a unit to perform prediction code input.
  • the code of the DC component of the DCT coefficient (DC component) is coded in units of the macroblock. Is done
  • FIG. 10 is an explanatory diagram of a data stream configuration of MPEG moving image data.
  • the data stream configuration of MPEG moving image data includes a sequence layer, a GOP layer, a picture layer, a slice layer, and a macroblock layer.
  • the sequence layer is a layer that contains the encoded signal of one entire video program, and starts with a sequence header and includes one or more GOPs (Group of Picture).
  • the GOP layer is a group of pictures that can be used as a point for performing random access from MPEG data by being composed of I pictures and / or P pictures and / or B pictures. For this reason, the first picture of each GOP is always configured with an I picture inserted. At the beginning of each GOP, the time is synchronized with the sound when restoring the image. A GOP header containing the time stamp information is inserted.
  • the picture layer corresponds to each screen of each moving image signal, and is composed of any one of I, P, and B pictures in principle.
  • a picture header including information for identifying one of the I, P, and B pictures and information specifying the display order of each picture is inserted at the head of each picture.
  • the picture layer contains one or more slices that indicate a horizontally long area in the screen. Further, a user data area for inserting user data can be inserted into each picture layer.
  • the slice layer is configured to include one or more macroblocks. By configuring the screen with multiple slices, even if an error occurs in one slice layer, it is provided to enable error recovery in the next slice layer.
  • slice information including information indicating quantization characteristics used in the slice is inserted at the head of the slice layer.
  • the macro block layer is composed of a plurality of 8 ⁇ 8 pixel block powers constituting the macro block.
  • the macroblock information inserted at the head of the macroblock layer includes, for example, information such as an encoding type indicating whether the macroblock is intra-frame encoded or motion compensation encoded.
  • the mask information generation unit 15 displays the moving image data decoded by the decoder 14 to the operator, such as a display unit such as a CRT or a liquid crystal display, and the operator operates the moving image data.
  • the operator such as a display unit such as a CRT or a liquid crystal display
  • the flexible disk drive device and removable disk drive device that can be output in a format that can be distributed simultaneously with the masked moving image data 61 edited by the analysis Z editing unit 16 It may be realized.
  • FIG. 11A is a diagram showing an original ultrasonic diagnostic moving image before performing mask processing
  • FIG. 11B is a diagram showing an ultrasonic diagnostic moving image after mask processing.
  • a case is assumed where, in the moving image 81 shown in FIG. 11A, a region 82 surrounded by a broken line is subjected to a masking process with a fixed pattern (for example, a single red color) and concealed. like this
  • a fixed pattern for example, a single red color
  • this moving image is displayed.
  • 81 designates a mask area 82 to be masked.
  • the operator may apply to the mask area 82 by inputting from the keyboard or by operating a GUI (graphical user interface) displayed on the display unit by an application operating on the mask information generation unit 15 with the mouse.
  • the type of mask to be specified is indicated.
  • the mask information generation unit 15 When the mask information generation unit 15 receives an instruction related to the mask processing as described above by the operator, the mask information generation unit 15 creates the mask information 62 based on these instructions.
  • Table 1 shows a first example of mask information 62.
  • the mask information generation unit 15 designates a macroblock corresponding to the position of the mask area 82 in the screen for each picture to be masked based on an instruction from the operator. To do.
  • the 10th to 12th macroblocks from the top left of the screen to the right in the horizontal direction and the 40th to 41st macroblocks in the vertical direction are specified.
  • the type of mask to be applied to the mask area 82 is instructed.
  • an attribute value (“red- ⁇ ) indicating a mask type may be used as shown in the example of Table 1.
  • FIG. 12 is a block diagram of the first embodiment of the analysis Z editing unit 16 shown in FIG. Analysis Z edit Based on the information on the position of the mask area 82 included in the mask information 62 generated by the mask information generating section 15 (in the example of Table 1, the macroblock designation information corresponding to the position of the mask area 82), A macroblock extraction unit 11 that extracts a macroblock corresponding to a range to be masked from the input data stream of the original data of the moving image, and the data stream in which the extracted macroblock is located Based on the information on the mask type included in the mask information 62, the fixed pattern insertion unit 12 for inserting the corresponding fixed pattern data and the extracted macro block into the data stream as user data at the original position. And a macroblock insertion unit 13 to be inserted into the user area.
  • the analysis Z editing unit 16 further includes a fixed pattern storage unit 17 that stores fixed pattern data inserted by the fixed pattern insertion unit 12.
  • Fixed pattern storage unit 17 stores fixed pattern data for each mask type, and analysis / editing unit 16 selects mask information 62 from a plurality of types of fixed pattern data stored in fixed pattern storage unit 17.
  • the fixed pattern data to be inserted into the mask amount area 82 is selected according to the instruction indicating the type of the mask.
  • the fixed pattern that is the basis of each fixed pattern data is image data that has the same size (that is, 16 X 16 pixels) as the macro block described above, and the fixed pattern data stored in the fixed pattern storage unit 17. Is code image data obtained by encoding these fixed patterns in the frame.
  • the fixed pattern data 73 may be generated by actually encoding a fixed pattern in the frame, or may be generated in a simulated manner.
  • the analysis Z editing unit 16 can be realized by a calculation means configured by a workstation, a personal computer, or the like. It may be realized by a software module that realizes the function, or may be realized by a dedicated hardware circuit.
  • the macroblock extraction unit 11 shown in FIG. 12 is based on the mask information 62, and the range of the mask area 82 included in the slice layer of the input original moving image data stream.
  • the position of the macro block (indicated as “MB” in FIG. 13) existing in the box is specified, and the macro blocks 93 and 95 at that position are taken out (see FIG. 13).
  • the fixed pattern insertion unit 12 shown in FIG. 12 corresponds to the mask type specified in the mask information 62 out of a plurality of types of fixed pattern data stored in advance in the fixed pattern storage unit 17. Select the fixed pattern data 73 to be used. Then, the selected fixed pattern data 73 is inserted into each of the original positions where the macro blocks 93 and 95 were located in the slice layer of the data stream.
  • the macroblock insertion unit 13 inserts the extracted macroblocks 93 and 95 as user data into a user area provided for each picture layer in the data stream, and masks the edited data stream. Output as completed moving image data 61.
  • the mask information is created as in the first example shown in Table 1, in which picture user area the extracted macroblock as included in the second example of the mask information shown in Table 2 described later is included. Since the information specifying the force to be inserted is not included in the mask information, the macroblock insertion unit 13 inserts the macroblocks 93 and 95 into the user area of the picture itself from which these macroblocks have been extracted. At this time, in addition to the extracted macroblocks 93 and 95, position information indicating where these macroblocks are arranged in the image may be inserted into the user area.
  • FIG. 14 is a basic configuration diagram of a moving image data reproducing apparatus according to the present invention.
  • the moving image data reproduction device 2 is a masked moving image data edited by the moving image data editing device 1. 1 and mask information 62 are input, and the moving image before the mask processing is restored, reproduced, and displayed on the display unit 54.
  • the moving image data reproducing device 2 extracts the original macroblock inserted as user data in the user area of each picture layer from the data stream of the input moving image data 61 based on the mask information 62. By inserting the extracted original macroblock in place of the fixed pattern data inserted at the position of the macroblock corresponding to the mask area of each picture in the data stream, And moving image restoration means 22 for restoring the moving image before the mask processing.
  • the macroblock extraction unit 21 shown in FIG. 14 performs mask processing on any picture of the input moving image data 61 based on the mask information 62. Judgment is made.
  • the mask area 82 is specified for each of the pictures subjected to the mask process, and the original macroblocks 93 and 95 located in the mask area 82 are assigned to the user of each picture. Extract from the data area (see Figure 15).
  • the moving image restoration shown in FIG. 14 is performed.
  • the means 22 restores the moving image before the mask processing by inserting the extracted original macro blocks 93 and 95 in place of the fixed pattern data 73.
  • the moving image data editing device 1 inserts position information indicating where the macro blocks 93 and 95 are arranged in the image into the user data area of each picture,
  • the moving image data reproduction device 2 can restore the moving image before the mask processing without inputting the mask information 62.
  • the macroblock extraction unit 21 of the moving image data reproduction device 2 first determines whether or not the macroblock information is included in the user data area for each picture inserted in the input moving image data 61. to decide. If the macro block information is included, the position information of the macro block inserted in the user data area is extracted. The mask region 82 is specified. That is, it is specified which position in the moving image data 61 is the insertion position where the extracted macroblocks 93 and 95 are to be returned. Then, the moving image restoration means 22 inserts the extracted original macroblocks 93 and 95 into the original position in the moving image data based on this position information.
  • the mask information generating unit 15 outputs the mask information 62 in a format that can be distributed simultaneously with the masked moving image data 61, the mask information is not easily deciphered. You can also encrypt it and output it!
  • the mask information generation unit 15 selects a picture to be inserted into a macroblock corresponding to the position of each mask area 82 of the picture to be masked. Then, create mask information 62 as shown in Table 2 below. A second example of the mask information 62 is shown in Table 2.
  • the second example of the mask information 62 includes information regarding the location where the macroblock corresponding to the position of the mask region 82 is accommodated.
  • Table 2 for example,
  • the top left force of picture II specified in the first row is the 10th macroblock in the horizontal direction and the 40th macroblock in the vertical direction is the area of the first macroblock in the user data area included in the picture layer of picture P2.
  • the top left edge of picture II specified in the second row is inserted in the second row.
  • the 11th macroblock in the horizontal direction and the 40th macroblock in the vertical direction are the 3rd user data area included in the picture layer of picture P1.
  • Table 2 shows the power of an example of inserting each macroblock taken out from one picture mask area 82 as user data of a different picture.
  • the macroblock extracted from the mask area 82 may be inserted as user data of one picture different from the extracted picture.
  • a mask process based on the second example of the mask information 62 will be described with reference to FIG.
  • the macroblock extraction unit 11 shown in FIG. 12 exists within the range of the mask area 82 included in the picture 91 included in the data stream of the original moving image data input based on the mask information 62. Locate the macro block (denoted “MB” in Figure 16) Then, the macroblocks 93 and 95 at the positions are taken out (see FIG. 16).
  • the fixed pattern insertion unit 12 shown in FIG. 12 inserts the selected fixed pattern data 73 into each of the original positions where the macro blocks 93 and 95 were located in the picture 91 of the data stream.
  • the macroblock insertion unit 13 inserts the extracted macroblocks 93 and 95 into the user data area of the picture 97 different from the picture 91 specified as the macroblock accommodation destination in the mask information 62. .
  • the macro block is inserted according to the position or order.
  • the edited data stream is output as the masked moving image data 61.
  • the macroblock extraction unit 21 shown in FIG. 14 determines, based on the mask information 62, which picture of the input moving image data 61 has been subjected to the mask processing (here, the picture 91 is displayed). (It is determined that the mask processing has been performed.) Then, based on the mask information 62, the mask area 82 of the picture 91 on which the mask process is performed is specified.
  • the macroblock extraction unit 21 uses the original macroblocks 93 and 95 located in the mask area 82 as the user data of the picture 97 designated as the mask block accommodation destination in the mask information 62. Extract from the region (see Figure 17).
  • the moving image restoration means 22 shown in FIG. 14 inserts the extracted original macroblocks 93 and 95 in place of the fixed pattern data 73 inserted in the picture 91, so that the pre-mask processing is performed. Restore video.
  • the moving image data may include a portion where the image moves and a portion where the image is almost static in one screen, for example, medical diagnostic moving image data shown in FIG. 11A.
  • medical diagnostic moving image data shown in FIG. 11A.
  • an area 82 indicated by a dotted line in the figure is a completely stationary part that displays personal identification information and the like, while the other areas indicate the operation of the organ for diagnosis. This is the video part that represents.
  • a static part in this case, a personal identification information part
  • the I picture which is an intra-frame code key picture
  • the P picture and B picture which are intra-frame coded pictures (motion compensation code key pictures)
  • Little information is included.
  • the moving image data editing apparatus 1 may perform the masking process only on the intra-frame code / picture I picture.
  • the macroblock extraction unit 11 of the moving image data editing apparatus 1 extracts the macroblock corresponding to the mask area 82 from only the intraframe code picture I picture. Then, the fixed pattern insertion unit 12 inserts fixed pattern data at each of the original positions where the macroblock of the I picture in the data stream is located.
  • the macroblock insertion unit 13 inserts the extracted macroblock into the user data area of the picture in the data stream.
  • the moving image data reproducing apparatus 2 may restore the original image by using only the intra-frame code / picture I picture.
  • the macroblock extraction unit 21 of the moving image data reproduction device 2 determines whether any of the I pictures has been masked. Then, a mask area 82 is specified for each I picture that has been subjected to mask processing.
  • the macroblock extracting unit 21 extracts the macroblock located in the mask area 82 from the user data area of the picture in the data stream.
  • the moving image restoration means 22 may restore the moving image before the mask processing by inserting the extracted original macroblock in place of the fixed pattern data inserted in the I picture. .
  • the original image signal in the mask region 82 may be used for the motion compensation code of the surrounding macroblock.
  • the moving image data reproducing apparatus 1 replaces the macro block corresponding to the mask area 82 in the moving image data with the fixed pattern data and leaves the surrounding macro blocks as they are, The macro block image may be disturbed.
  • the moving image data reproducing device 1 corresponds to the mask area 82 in the moving image data.
  • a macroblock to be replaced is replaced with fixed pattern data, it is desirable to perform an intraframe code around the area where the image signal of the macroblock is used as a motion compensation code.
  • the analysis Z editing unit 16 corresponding to the operation of the moving image data reproducing apparatus 1 will be described with reference to FIG.
  • FIG. 18 is a configuration diagram of the second embodiment of the analysis Z editing unit 16 shown in FIG.
  • the analysis Z editing unit 16 includes a surrounding block re-encoding unit 18 that performs intra-frame coding of macro blocks around the macro block corresponding to the mask region 82.
  • the surrounding block re-encoding unit 18 uses the macroblock corresponding to the mask area 82 among the input moving image data as the motion compensation code key. After the macroblock is extracted, this macroblock is decoded, and then the intraframe code is input in units of macroblocks and inserted again at the original position of the moving image data.
  • the surrounding block re-encoding unit 18 may use a macroblock corresponding to the mask area 82 for the motion compensation code ⁇ , and the surrounding macroblocks corresponding to the mask area 82 may be used.
  • Are extracted for example, all the macroblocks within the motion compensation range around the mask area 82 are extracted), and after decoding these macroblocks, the intraframe coding is performed in units of macroblocks, and the moving image is again recorded. Insert at the original position of the data.
  • the surrounding block re-encoding unit 18 performs intra-frame coding on the surrounding macro blocks of the mask area 82, so that the macro block corresponding to the mask area 82 in the moving image data is fixed pattern. Even if the data is replaced, the surrounding macroblock image is prevented from being disturbed.
  • the moving image data editing apparatus, moving image data reproducing apparatus, moving image data editing method, and moving image data reproducing method according to the present invention described with reference to the preferred embodiments are encoded. It can be widely used for technologies that apply special viewing effects to moving image data, and technologies that enable such special viewing effects during playback.
  • the present invention relates to a technique for applying special viewing effects to moving image data compliant with MPEG, which is an encoding standard for moving image data, and for enabling special viewing effects during playback and disabling Z.
  • Such moving image data editing device As a specific application example of the law and moving image data reproduction method, in addition to the secondary use of the medical video described above for medical education, etc., it is specified in fields such as digital broadcasting services. This is used when a certain viewer is masked and should be able to play a movie, and a general viewer can only play a limited movie that has been masked. It is possible.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Studio Circuits (AREA)

Abstract

 各フレームが予め区画された画素ブロック毎に符号化されている動画像データを編集して、画像の一部にマスク処理を施す動画像データ編集装置(1)を提供する。動画像データ編集装置(1)は、入力された動画像データ(71)のデータストリームから、前記マスク処理を施す範囲(72)に対応する前記画素ブロック(BL2、BL4)を取り出す画素ブロック取出手段(11)と、前記データストリーム中の、取り出された前記画素ブロック(BL2、BL4)の位置に、予め符号化された固定パターンデータ(73)を挿入する固定パターン挿入手段(12)と、取り出された前記画素ブロック(BL2、BL4)を、ユーザデータとして前記データストリームに挿入する画素ブロック挿入手段(13)と、を備えて構成される。

Description

明 細 書
動画像データ編集装置、動画像データ再生装置、動画像データ編集方 法及び動画像データ再生方法
技術分野
[0001] 本発明は、一般に、符号化された動画像データに特殊視聴効果を施す技術、及び このような特殊視聴効果を再生時に有効 Z無効化する技術に関し、より詳しくは、動 画像データの符号化標準である MPEG (Moving Picture coding Experts Group)に 準拠した動画像データに特殊視聴効果を施す技術、及び特殊視聴効果を再生時に 有効 Z無効化する技術に関する。
背景技術
[0002] 従来より、動画像の上映又は配布に際し、個人情報保護などの様々な目的のため 、動画像の一部を隠蔽することが行われている。このような動画像の隠蔽処理 (マスク 処理)は、例えば、医療系の診断用映像 (超音波診断や内視鏡により得られる診断 動画)や手術映像を医学教育用などに二次利用する場合に行われる。
図 19は、実際の超音波診断による診断動画像を示す図である。実際の診断動画 像 81には、範囲 82に示すように患者を特定するための個人情報が併せて記録され る。そして医療現場では、力かる個人情報を目視することにより、診断の基となる診療 動画像が実際の患者を撮影したものであることを医師が確認することを可能としてい る。
[0003] 一方で、医学教育目的のために、このような診断動画像が不特定多数の受講者に 対して上映される場合には、画像に映し出されて ヽる患者の個人情報保護のために 、力かる個人情報部分にマスク処理を施す必要がある。
また、手術映像のように患者の人相や外見が動画像から直接分力ゝる場合には、画 像に映し出されている患者が特定できない程度に動画像にマスク処理を施すことが 必要となる。
[0004] 特許文献 1:特開昭 64— 36460号公報
特許文献 2:特許第 3552945号公報 発明の開示
発明が解決しょうとする課題
[0005] 従来、ビデオテープレコーダなどのアナログ信号形式の動画像保存方式が使用さ れていた場合には、マスク処理が施されていないマスター動画像データと、このマス ター動画像データにマスク処理を施したコピーデータと、をそれぞれ作成して使用用 途に応じて使い分けていた。このため 1つの動画像データに対して、マスク処理「あり 」と「なし」との 2通りのデータを管理する必要があり、非常に煩雑なものとなっていた。
[0006] また、近年の動画像データ圧縮技術の進展により、これら動画像データをディジタ ル形式で保存することが普及しているが、従来のマスク処理方式では、符号化された 動画像データを一度元の動画像信号に復号してから、特殊視聴効果ツール (イフェ タトツール)等を用いて、元の動画像信号にマスク処理を施し、再符号化を行う必要 があった。したがって動画像データの復号、マスク処理及び再符号化によって、膨大 な処理時間が必要となり、さらに動画像の再符号ィ匕により生じる画質劣化の問題があ つた。また、この場合にもマスター動画像データとコピーデータとが発生するため、上 記のデータ 2元管理の問題は依然として回避されな力つた。
[0007] このように、従来のマスク処理方式では、上記の医師による診療と医療教育目的の 視聴のように再生側の条件の相違に応じてマスク処理の有無を変更するには、マス ク処理が施された動画像データと施されていない動画像データの 2つを用意する他 なぐ 1つの動画像データを再生側の条件の相違に応じて再生態様を変更すること はできなかった。
[0008] 上記問題点に鑑みて、本発明は、簡便な手段と労力で、符号化された動画像デー タの一部にマスク処理を行うことが可能な動画像データ編集装置及び動画像データ 編集方法を提供することを目的とする。
さらに本発明は、このようにマスク処理が施された動画像データから、マスク処理前 の原動画像を再生する動画像データ再生装置及び動画像データ再生方法を提供 することにより、マスク処理済み動画像をそのまま再生する通常の再生器と比べて再 生態様を変えることを目的とする。
課題を解決するための手段 [0009] 上記目的を達成するために、本発明に係る動画像データ編集装置及び動画像デ ータ編集方法は、各フレームが予め区画されたマクロブロック毎に符号ィ匕されている 動画像データを編集して画像の一部にマスク処理を施す際に、入力された動画像デ ータのデータストリームからマスク処理を施す範囲に対応するマクロブロックを取り出 し、データストリーム中の、取り出されたマクロブロックの位置に、予め符号化された固 定パターンデータを挿入し、取り出されたマクロブロックをユーザデータとしてデータ ストリームに挿入する。
[0010] さらに、本発明に係る動画像データ再生装置及び動画像データ再生方法は、各フ レームが予め区画されたマクロブロック毎に符号化されかつ画像の一部にマスク処理 が施された動画像データを再生する際に、入力された動画像データのデータストリー ムから、ユーザデータとして挿入されたマクロブロックを抽出し、データストリーム中の 、マスク処理を施された範囲に対応するマクロブロックの位置にあるデータに代えて、 抽出されたマクロブロックを挿入してマスク処理前の動画像を復元する。
図面の簡単な説明
[0011] [図 1]図 1は、本発明による動画像データ編集装置の基本構成図である。
[図 2A]図 2Aは、本発明による動画像データ編集装置がマスク処理の対象とする動 画像データの説明図であり、動画像データを構成する複数のフレームの説明図であ る。
[図 2B]図 2Bは、図 2Aの各フレームを構成する画素ブロックの説明図である。
[図 3]図 3は、図 2の動画像データのデータストリーム構成の説明図である。
[図 4A]図 4Aは、マスク処理を行う前の元の動画像を示す図である。
[図 4B]図 4Bは、マスク処理後の動画像を示す図である。
[図 5]図 5は、図 1の動画像データ編集装置によるマスク処理の説明図である。
[図 6]図 6は、本発明による動画像データ再生装置の基本構成図である。
[図 7]図 7は、図 6の動画像データ再生装置によるマスク無効化処理の説明図である
[図 8]図 8は、本発明による動画像データ編集装置の実施例の全体構成図である。
[図 9A]図 9Aは、 MPEG動画像データを構成する複数のピクチャの説明図である。 [図 9B]図 9Bは、図 9Aの各ピクチャを構成するマクロブロックの説明図である。
[図 10]図 10は、 MPEG動画像データのデータストリーム構成の説明図である。
[図 11A]図 11Aは、マスク処理を行う前の元の超音波診断動画像を示す図である。
[図 11B]図 11Bは、マスク処理後の超音波診断動画像を示す図である。
[図 12]図 12は、図 8に示す分析 Z編集部の第 1実施例の構成図である。
[図 13]図 13は、図 8の動画像データ編集装置によるマスク処理の第 1例の説明図で ある。
[図 14]図 14は、本発明による動画像データ再生装置の実施例の全体構成図である
[図 15]図 15は、図 14の動画像データ再生装置によるマスク無効化処理の第 1例の 説明図である。
[図 16]図 16は、図 8の動画像データ編集装置によるマスク処理の第 2例の説明図で ある。
[図 17]図 17は、図 14の動画像データ再生装置によるマスク無効化処理の第 2例の 説明図である。
[図 18]図 18は、図 8に示す分析 Z編集部の第 2実施例の構成図である。
[図 19]図 19は、実際の超音波診断による診断動画像を示す図である。
符号の説明
1 動画像データ編集装置
2 動画像データ再生装置
15 マスク情報生成部
61 マスク済動画像データ
62 マスク情報
51 ビデ才力メラ
53 動画像元データ保存部
54 表示部
71、 81 動画像
72、 82 マスク領域 73 固定パターンデータ
B1— B6 Bピクチャ
BL1— BL5 画素ブロック
BM1— BM4 マクロブロック
Fl— F6 フレーム
II、 12 Iピクチャ
Pl、 P2 Pピクチャ
発明を実施するための最良の形態
[0013] 以下、図 1一図 7を参照して本発明の基本構成を説明する。図 1は、本発明による 動画像データ編集装置の基本構成図である。また、図 2は、図 1に示す動画像デー タ編集装置 1がマスク処理の対象とする動画像データの説明図であり、ここに図 2A は動画像データを構成する複数のフレームの説明図であり、図 2Bは、図 2Aの各フ レームを構成する画素ブロックの説明図である。さらに、図 3は、図 2の動画像データ のデータストリーム構成の説明図である。
[0014] まず、本発明による動画像データ編集装置 1がマスク処理の対象とする動画像デ ータの構成を説明する。一般に動画像データは、図 2Aに示すように、時間経過に従 つて順次表示される複数の画像 (フレーム) F1— F6' · ·から構成される。そして各フレ ーム F1— F6…は、動画像の画像フォーマットに規定される解像度に応じた数の複 数の画素から成って!/、る。
動画像データがディジタル信号である場合には、データ量を低減するために、一般 に動画像データは符号化されて圧縮される。このとき動画像データの符号化は、そ の動画像データが準拠する動画像符号ィ匕標準に従って行われる。
[0015] ここで、本発明による動画像データ編集装置 1は、動画像データを構成する各フレ ームが、予め区画された画素ブロック毎に符号ィヒされる動画像符号ィヒ標準に従う動 画像データを対象とする。例えば図 2Bに示す例では、各フレームが M X Nピクセル の大きさを有する画素ブロック BL1— BL4' "を単位として符号化されている。
このような、動画像符号ィ匕標準に従う動画像データのデータストリーム構成は、図 3 のような構成を持つものとして一般ィ匕して示すことができる。図 3の上段に示すように 、データストリームは時間経過に従って順次表示される複数のフレーム Fl— F5' "を 含む構成を有する。そして各フレーム F1— F5…は、図 3の下段に示すように、当該 フレームを構成する複数の画素ブロック BL1— BL5' "を、フレーム内におけるそれぞ れの配置位置に応じた順序で順次配置して有して 、る。
[0016] ここで本発明による動画像データ編集装置 1が対象とする動画像データは、さら〖こ 、データストリームが、少なくともフレーム単位に、ユーザデータを挿入するためのュ 一ザデータ領域を有することを許容する動画像符号化標準に従うものとする。ここ〖こ ユーザデータとは、動画像データを作成 Z編集する作成者や編集者が、本来の動 画像情報に加えて動画像データに挿入することができる任意の情報をいうものとする
[0017] 本発明による動画像データ編集装置 1は、上記説明した一般的な動画像符号化標 準に従う動画像データであれば、これを編集して画像の一部にマスク処理を施すこと が可能である。そのために、動画像データ編集装置 1は、図 1に示すように、入力され た動画像データのデータストリームから、マスク処理を施す範囲に対応する画素ブロ ックを取り出す画素ブロック取出部 11と、この取り出された画素ブロックが位置して!/ヽ たデータストリーム中の元の位置に、予め符号ィ匕された固定パターンデータを挿入す る固定パターン揷入部 12と、取り出された画素ブロックを、ユーザデータとしてデータ ストリームのユーザ領域に挿入する画素ブロック挿入部 13と、を備えて構成される。
[0018] 以下、動画像データ編集装置 1によるマスク処理を、図 4及び図 5を参照して説明 する。図 4Aはマスク処理を行う前の元の動画像を示す図であり、図 4Bはマスク処理 後の動画像を示す図である。いま、図 4Aに示す動画像 71のうち、破線で囲まれた領 域 72を固定パターン (例えば単一色)で塗りつぶしマスク処理を施して隠蔽する場合 を想定する。このようなマスク処理を施すことにより図 4Aに示す動画像 71は、図 4B に示すマスク済動画像 71のように編集される。
[0019] まず、図 1に示す画素ブロック取出部 11は、図 5に示すように、入力された元の動 画像データのデータストリームから、マスク領域 72の範囲内に存在する画素ブロック BL2及び BL4を取り出す。
次に、図 1に示す固定パターン挿入部 12は、画素ブロック BL2及び BL4が取り出さ れたデータストリームの、画素ブロック BL2及び BL4が位置して!/、た元の位置のそれ ぞれに、固定パターンデータ 73を挿入する。この固定パターンデータ 73は、画素ブ ロックと同じ大きさを有する固定パターンをフレーム内符号ィ匕する、あるいはこのよう な符号化データを模擬的に生成して取得し、予め記憶しておくことが可能である。
[0020] そして画素ブロック揷入部 13は、取り出された画素ブロック BL2及び BL4を、ユー ザデータとしてデータストリームのユーザ領域に挿入する。
このように動画像データ編集装置 1によって編集されたマスク処理済動画像データ を、通常の再生装置で再生すると、マスク領域 72には固定パターンが表示され、 つユーザデータ部は読み飛ばされるために、図 4Bに示す動画像 71のようにマスク 済動画像が表示されることになる。
[0021] また動画像データ編集装置 1は、動画像データの復号及び再符号化を行うことなく マスク処理を行うため、処理時間が少なぐさらに動画像の再符号化により生じる画 質劣化の問題もない。
[0022] 図 6は、本発明による動画像データ再生装置の基本構成図である。動画像データ 再生装置 2は、動画像データ編集装置 1によって編集されたマスク処理済動画像デ ータを入力して、マスク処理前の動画像を復元して再生するために使用される。この ため、動画像データ再生装置 2は、入力された動画像データのデータストリームから 、ユーザデータとして挿入された元の画素ブロックを抽出する画素ブロック抽出部 21 と、データストリーム中の、マスク領域に対応する画素ブロックの位置にあるデータに 代えて、抽出された元の画素ブロックを挿入してマスク処理前の動画像を復元する動 画像復元手段 22と、を備えて構成される。
[0023] 以下、動画像データ再生装置 2によるマスク無効化処理を、図 7を参照して説明す る。まず、図 6に示す画素ブロック抽出部 21は、図 7に示すように、入力された動画像 データのマスク領域に本来位置して 、た元の画素ブロック BL2及び BL4を、データ ストリームの各フレームのユーザデータ領域力 抽出する。
ここで、入力されたデータストリーム中のマスク領域に対応する画素ブロックの位置 には、図 5に示すように固定パターンデータ 73が挿入されているので、図 6に示す動 画像復元手段 22は、抽出された元の画素ブロック BL2及び BL4を、図 7に示すよう に、固定パターンデータ 73に代えて挿入することにより、動画像データ編集装置 1に よるマスク処理前の動画像を復元する。
[0024] このように復元された動画像データを復号することにより、図 4Bに示す動画像 71に 現れて 、たマスク処理が無効化され、図 4Aに示す元の動画像 71のような動画像を 表示することができる。
したがって、特定の施設、人間や、場所等 (上記の診断動画像に例に従って例える と、個人情報部分にマスク処理を施す必要のない医療現場)のみに、本発明による 動画像データ再生装置による動画像データの再生を許すこととすれば、これらの特 定の施設や人間などにより再生される場合のみマスク処理が無効化され、反対に、 不特定多数の施設や人間などが通常の再生装置で再生する場合にはマスク処理が 依然有効なままとなる。このようにして、 1つの動画像データを再生側の条件の相違 に応じて再生態様を変更することが可能となる。
[0025] 以下、図 8—図 18を参照して本発明の実施例を説明する。図 8は、本発明による動 画像データ編集装置の実施例の全体構成図である。
動画像データ編集装置 1は、入力された符号化動画像元データを復号する復号器 14と、復号された動画像データを入力して表示することによりオペレータがこの動画 像を見ながらマスク処理に関する指示を行うことを可能とし、かっこの指示を受け付 けてこれに基づ 、てマスク処理に関するマスク情報 62を生成する、本発明に係る挿 入位置情報生成手段であるマスク情報生成部 15と、入力された符号化動画像元デ ータを分析し、マスク情報生成部 15が生成したマスク情報 62に基づいて符号ィ匕動 画像元データにマスク処理を施して、マスク処理済動画像データ 61を出力する分析 Z編集部 16と、を備えて構成される。
[0026] 動画像データ編集装置 1に入力される符号化動画像元データは、例えばビデオ力 メラ 51により撮像されたアナログビデオ信号を、一般に入手可能な符号器 52に入力 してディジタル形式の符号化動画像データを符号化して得られる動画像データとし てよい。そしてこのような符号ィ匕動画像元データを、ハードディスクドライブ装置やメモ リ装置などの記憶装置や CD— ROM、 DVDディスクなどのリムーバブル記録媒体な どで実現可能な動画像元データ保存部 53に記憶して、この動画像元データ保存部 53から動画像データ編集装置 1に入力されることとしてよ 、。
[0027] 以下、動画像データ編集装置 1が、動画像符号化標準の一つである MPEG形式 に準拠した符号化動画像データをマスク処理する場合について説明する。
図 9Aは、 MPEG動画像データを構成する複数のピクチャの説明図である。図示す るとおり MPEG動画像データは、時間経過に従って順次表示されるピクチャと呼ば れる複数のフレーム II、 B1— B3、 Pl、 B4— Β6、 Ρ2· ··、 12· ··から成り立つている。 各ピクチャはその符号ィ匕タイプに応じて 3つの種類に分けられ、フレーム内符号ィ匕画 面である Iピクチャ II、 12…と、前方向予測符号ィ匕画面である Ρピクチャ Ρ1、 Ρ2· ··と、 双方向予測符号ィ匕画面である Βピクチャ B1— Β6…と、を含んでいる。なお、以下の 実施例にぉ ヽて、動画像データを構成し時間経過に従って順次表示される各画像 を「ピクチャ」と示すが、このピクチャは図 1一図 7を参照して説明した本発明の基本構 成に係る動画像データ構造における「フレーム」と同じ意味で使用される。
[0028] MPEG符号ィ匕方式では、 Pピクチャ及び Bピクチャにおいて動き補償予測符号ィ匕 を行うために、図 9Bに示すように、各ピクチャを 16 X 16ピクセルの区間に分割して 複数のマクロブロック MB1— ΜΒ4· ··を構成し、このマクロブロックを単位としてブロッ クマッチングを行い予測符号ィ匕が行われる。また、 Iピクチャ、 Pピクチャ及び Bピクチ ャのいずれの場合でも、マクロブロックがフレーム内符号化される場合には、このマク ロブロックを単位として DCT係数の直流成分 (DC成分)の係数の符号化が行われる
[0029] 図 10は、 MPEG動画像データのデータストリーム構成の説明図である。図示すると おり MPEG動画像データのデータストリーム構成は、シーケンス層と、 GOP層と、ピ クチャ層と、スライス層と、マクロブロック層とを含んで構成される。
シーケンス層は、 1つのビデオプログラム全体の符号化信号を含む層で、シーケン スヘッダで始まり、 1つ以上の GOP (Group of Picture)を含んで構成される。
[0030] GOP層は、 Iピクチャと、 Pピクチャ及び Bピクチャのうちの両方又は一方と、力 構 成され、 MPEGデータからのランダムアクセスを行うポイントとして用いることができる ピクチャ群である。このため各 GOPの最初のピクチャは必ず Iピクチャが挿入されて 構成される。各 GOPの先頭には、画像復元時に音声などとの時間あわせを行うため のタイムスタンプ情報を含む GOPヘッダが挿入される。
ピクチャ層は、動画像信号 1枚 1枚の各画面に対応し、原則として I、 P及び Bピクチ ャのいずれか一種により構成される。各ピクチャの先頭には、 I、 P及び Bピクチャのい ずれかを識別するための情報や、各ピクチャの表示順序を指定する情報を含むピク チヤヘッダが挿入される。ピクチャ層は、画面内で横長の領域を示すスライスを 1っ以 上含んでいる。さらに、各ピクチャ層にはユーザデータを挿入するためのユーザデー タ領域を挿入することが可能である。
[0031] スライス層は、 1つ以上のマクロブロックを含んで構成される。画面を複数のスライス で構成することにより、あるスライス層でエラーが発生しても次のスライス層でエラー回 復を可能とするため設けられる。また、スライス層の先頭には、このスライス内で使用 される量子化特性を表す情報などを含むスライス情報が挿入される。
マクロブロック層は、マクロブロックを構成する複数の 8 X 8ピクセノレのブロック力ら構 成される。マクロブロック層の先頭に挿入されるマクロブロック情報には、例えば当該 マクロブロックがフレーム内符号化されるか、動き補償符号化されるか等を示す符号 化タイプ等の情報が含まれる。
[0032] 図 8に戻り、マスク情報生成部 15は、復号器 14によって復号された動画像データを オペレータに表示することが可能な CRTや液晶ディスプレイなどの表示部、ォペレ ータがこの動画像を見ながらマスク処理に関する指示を入力するのに必要なキーボ ード、マウス、タツチペン、タツチノッド等の入力部と、作成したマスク情報 62を分析 Z編集部 16に出力する出力インタフェースと、このマスク情報 62を、分析 Z編集部 1 6が編集したマスク処理済み動画像データ 61と同時に配布可能な形式にして出力可 能なフレキシブルディスクドライブ装置、リムーバブルディスクドライブ装置と、備える パーソナルコンピュータ等の計算手段により実現することとしてよい。
[0033] 以下、超音波診断動画像の動画像データを編集するオペレータがマスク処理に関 する指示を入力する手順を説明する。図 11Aはマスク処理を行う前の元の超音波診 断動画像を示す図であり、図 11Bはマスク処理後の超音波診断動画像を示す図で ある。いま、図 11Aに示す動画像 81のうち、破線で囲まれた領域 82を固定パターン (例えば赤一色)で塗りつぶしマスク処理を施して隠蔽する場合を想定する。このよう なマスク処理を施すことにより図 11 Aに示す動画像 81は、図 11Bに示すマスク済動 画像 81のように編集される。
[0034] 動画像データを編集するオペレータ力 マスク処理を施そうとする動画像 81の領域
(マスク領域 82)を指示する場合には、マスク情報生成部 15の表示部に表示される 動画像 81を見ながら、例えばマウスを使用して画面上のある範囲を指定して、この動 画像 81にマスク処理を施すべきマスク領域 82を指示する。またオペレータは、キー ボードから入力することにより、あるいはマスク情報生成部 15上で動作するアプリケ ーシヨンが表示部に表示する GUI (graphical user interface)をマウスで操作すること により、マスク領域 82に施そうとするマスクの種類を指示する。
マスク情報生成部 15は、オペレータによる上記のようなマスク処理に関する指示を 受け付けると、これらの指示に基づきマスク情報 62を作成する。マスク情報 62の第 1 例を表 1に示す。
[0035] [表 1]
表 1
Figure imgf000014_0001
[0036] 表 1に示すように、マスク情報生成部 15は、オペレータからの指示に基づいてマス ク処理を施すべき各ピクチャ毎に、画面内のマスク領域 82の位置に対応するマクロ ブロックを指定する。表 1のピクチャ IIに対する指示の例では、画面左上から、水平 方向に右へ 10— 12番目かつ垂直方向に 40— 41番目のマクロブロックが指定され ている。
併せて、マスク領域 82に施そうとするマスクの種類を指示する。そのために、例えば 表 1の例に示すようにマスクの種類を示す属性値("red-ίϊΓ)を使用してもよ 、。 このようにマスク情報を構成することにより、オペレータは、表 1のピクチャ 1101に対 する指示に見られるように、 1つビデオシーケンスの途中の任意のピクチャで、マスク 領域 82の位置を自由に変更することができる。このときマスクの種類を変更することも 当然に可能である。
[0037] 図 12は、図 8に示す分析 Z編集部 16の第 1実施例の構成図である。分析 Z編集 部 16は、マスク情報生成部 15が生成したマスク情報 62に含まれるマスク領域 82の 位置に関する情報(表 1の例ではマスク領域 82の位置に対応するマクロブロックの指 定情報)に基づいて、入力された動画像の元データのデータストリームから、マスク処 理を施す範囲に対応するマクロブロックを取り出すマクロブロック取出部 11と、この取 り出されたマクロブロックが位置していたデータストリーム中の元の位置に、マスク情 報 62に含まれるマスクの種類に関する情報に基づいて、対応する固定パターンデー タを揷入する固定パターン揷入部 12と、取り出されたマクロブロックを、ユーザデータ としてデータストリームのユーザ領域に挿入するマクロブロック挿入部 13と、を備えて 構成される。
[0038] さらに、分析 Z編集部 16は、固定パターン挿入部 12が挿入する固定パターンデー タを記憶しておく固定パターン記憶部 17を備える。固定パターン記憶部 17には、マ スクの種類毎に固定パターンデータが記憶され、分析/編集部 16は、固定パターン 記憶部 17に記憶された複数種の固定パターンデータの中から、マスク情報 62内の マスクの種類を示す指示に応じてマスク量領域 82に挿入するべき固定パターンデー タを選択する。
個々の固定パターンデータの元となる固定パターンは、すでに説明したマクロブロ ックと同一サイズ (すなわち 16 X 16ピクセル)で構成された画像データであり、固定 パターン記憶部 17に記憶される固定パターンデータは、これらの固定パターンをフ レーム内符号ィ匕して得られた符号ィ匕画像データである。この固定パターンデータ 73 は、実際に固定パターンをフレーム内符号ィ匕して作成してもよいし、あるいは模擬的 に生成してもよい。
[0039] なお、この分析 Z編集部 16は、ワークステーションやパーソナルコンピュータなどで 構成される計算手段で実現することが可能であり、分析 Z編集部 16を構成する各構 成要素は、それぞれの機能を実現するソフトウェアモジュールによって実現することと してもよぐあるいは専用のハードウェア回路によって実現することとしてもよい。
[0040] 以下、動画像データ編集装置 1によるマスク処理を、図 13を参照して説明する。
まず、図 12に示すマクロブロック取出部 11は、マスク情報 62に基づいて、入力され た元の動画像データのデータストリームのスライス層に含まれる、マスク領域 82の範 囲内に存在するマクロブロック(図 13にて「MB」と記す)の位置を特定して、その位置 にあるマクロブロック 93及び 95を取り出す(図 13参照)。
[0041] 次に、図 12に示す固定パターン挿入部 12は、固定パターン記憶部 17に予め記憶 されている複数種の固定パターンデータの中から、マスク情報 62に指定されたマスク の種類に対応する固定パターンデータ 73を選択する。そして、データストリームのス ライス層の、マクロブロック 93及び 95が位置していた元の位置のそれぞれに、選択さ れた固定パターンデータ 73を挿入する。
[0042] そしてマクロブロック揷入部 13は、取り出されたマクロブロック 93及び 95を、ユーザ データとして、データストリーム中のピクチャ層毎に設けられたユーザ領域に挿入し、 こうして編集されたデータストリームをマスク済動画像データ 61として出力する。 ここで、マスク情報が表 1に示す第 1例のように作成された場合、後述の表 2に示す マスク情報の第 2例が含むような、取り出されたマクロブロックをどのピクチヤのユーザ 領域に挿入する力を指定する情報がマスク情報に含まれないため、マクロブロック挿 入部 13は、マクロブロック 93及び 95を、これらのマクロブロックを取り出したピクチャ 自身のユーザ領域に挿入する。このとき、取り出したマクロブロック 93及び 95に併せ て、これらのマクロブロックが画像中のどの位置に配置されて!、たかを示す位置情報 を、ユーザ領域に挿入してもよい。
[0043] 上記図 9を参照して説明したように、各ピクチャの符号ィ匕はマクロブロックを単位に して行われている。したがって、予めフレーム内符号ィ匕した固定パターンデータを、 取り出したマクロブロックに代えて挿入することにより、上述の MPEG形式に準拠する 全ての再生装置においてエラーを生じることなぐマスク処理済み動画像データを再 生することが可能である。
そして、このように編集されたマスク処理済動画像データを、通常の再生装置で再 生すると、マスク領域 82には固定パターンが表示され、かつユーザデータ部は読み 飛ばされるために、図 11Bに示すマスク済動画像 81のように動画像が表示されること になる。
[0044] 図 14は、本発明による動画像データ再生装置の基本構成図である。動画像データ 再生装置 2は、動画像データ編集装置 1によって編集されたマスク済動画像データ 6 1とマスク情報 62とを入力して、マスク処理前の動画像を復元して再生して表示部 54 上に表示するために使用される。
このため、動画像データ再生装置 2は、マスク情報 62に基づいて、入力された動画 像データ 61のデータストリームから、各ピクチャ層のユーザ領域にユーザデータとし て挿入された元のマクロブロックを抽出するマクロブロック抽出部 21と、データストリー ム中の各ピクチヤのマスク領域に対応するマクロブロックの位置に挿入された固定パ ターンデータに代えて、抽出された元のマクロブロックを挿入することにより、マスク処 理前の動画像を復元する動画像復元手段 22と、を備えて構成される。
[0045] 以下、動画像データ再生装置 2によるマスク無効化処理を、図 15を参照して説明 する。まず、図 14に示すマクロブロック抽出部 21は、マスク情報 62が与えられる場合 には、このマスク情報 62に基づいて、入力された動画像データ 61のいずれのピクチ ャにマスク処理が施されているかを判断する。
そして、マスク情報 62に基づいて、マスク処理が施されているピクチヤのそれぞれ についてマスク領域 82を特定し、このマスク領域 82に位置していた元のマクロブロッ ク 93及び 95を、各ピクチャのユーザデータ領域から抽出する(図 15参照)。
入力されたデータストリーム中のマスク領域 82に対応するマクロブロックの位置には 、動画像データ編集装置 1によって挿入されていた固定パターンデータ 73が挿入さ れているので、図 14に示す動画像復元手段 22は、抽出された元のマクロブロック 93 及び 95をこの固定パターンデータ 73に代えて挿入することにより、マスク処理前の動 画像を復元する。
[0046] また、上述の通り、動画像データ編集装置 1が、各ピクチャのユーザデータ領域に、 マクロブロック 93及び 95が画像中のどの位置に配置されていたかを示す位置情報を 挿入して、マスク処理を行った場合には、動画像データ再生装置 2は、マスク情報 62 の入力無しにマスク処理前の動画像を復元することが可能である。
このとき、動画像データ再生装置 2のマクロブロック抽出部 21は、まず、入力された 動画像データ 61に挿入される各ピクチャのそれぞれについて、ユーザデータ領域に マクロブロック情報が含まれる力否かを判断する。そして、マクロブロック情報が含ま れる場合には、ユーザデータ領域に挿入されたマクロブロックの位置情報を抽出して 、マスク領域 82を特定する。すなわち抽出したマクロブロック 93及び 95を戻すべき揷 入位置が、動画像データ 61のいずれの位置であるかを特定する。そして、動画像復 元手段 22は、この位置情報に基づいて、抽出された元のマクロブロック 93及び 95を 動画像データ中の元の位置に挿入する。
[0047] また、マスク情報生成部 15は、マスク情報 62を、マスク処理済み動画像データ 61と 同時に配布可能な形式にして出力する際に、マスク情報を容易に解読されることが な 、ように暗号ィ匕して出力することとしてもよ!/、。
[0048] 以下、各ピクチャから取り出したマクロブロックを、取り出し元のピクチヤと異なるピク チヤのユーザデータ領域に挿入する場合について説明する。
上述のように、各ピクチャから取り出したマクロブロックを取り出し元と同一ピクチヤに 挿入する方式では、取り出したマクロブロックの格納場所を容易に特定することが可 能であるため、例えば、上記のマスク処理手順を知った悪意あるユーザによってマス ク処理を解除されるおそれが生じる。そこで、各ピクチャカゝら取り出したマクロブロック を、取り出し元のピクチヤと異なるピクチャのユーザデータ領域に挿入することにより、 取り出したマクロブロックの発見を困難にして、予定されて!ヽな 、ユーザによるマスク 処理の解除を防止する。
[0049] そのために、マスク情報生成部 15は、オペレータによるマスク処理に関する指示を 受け付けると、マスク処理を行うピクチヤのそれぞれのマスク領域 82の位置に対応す るマクロブロックについて、挿入先となるピクチャを決定し、以下の表 2に示すようなマ スク情報 62を作成する。マスク情報 62の第 2例を表 2に示す。
[0050] [表 2]
表 2
Figure imgf000019_0001
[0051] 表 2に示すように、マスク情報 62の第 2例には、マスク領域 82の位置に対応するマ クロブロックを収容する場所に関する情報が含まれている。表 2の例では、例えば、第
1行目に指定されるピクチャ IIの左上端力も水平方向に 10番目、垂直方向に 40番 目のマクロブロックは、ピクチャ P2のピクチャ層に含まれるユーザデータ領域の第 1 番目のマクロブロックの領域に挿入され、第 2行目に指定されるピクチャ IIの左上端 力 水平方向に 11番目、垂直方向に 40番目のマクロブロックは、ピクチャ P1のピク チヤ層に含まれるユーザデータ領域の第 3番目のマクロブロックの領域に挿入される なお、表 2では、 1つのピクチヤのマスク領域 82から取り出される各マクロブロックを 、それぞれ異なるピクチャのユーザデータとして挿入する挿入例を示した力 1つのピ クチャのマスク領域 82から取り出されるマクロブロックが、取り出したピクチャとは別の 1っピクチャのユーザデータとして挿入されることとしてもよい。
[0052] 上記マスク情報 62の第 2例に基づくマスク処理を、図 16を参照して説明する。
まず、図 12に示すマクロブロック取出部 11は、マスク情報 62に基づいて、入力され た元の動画像データのデータストリームに含まれるピクチャ 91に含まれる、マスク領 域 82の範囲内に存在するマクロブロック(図 16にて「MB」と記す)の位置を特定して 、その位置にあるマクロブロック 93及び 95を取り出す(図 16参照)。
次に、図 12に示す固定パターン揷入部 12は、データストリームのピクチャ 91の、マ クロブロック 93及び 95が位置していた元の位置のそれぞれに、選択された固定パタ ーンデータ 73を挿入する。
[0053] そしてマクロブロック揷入部 13は、マスク情報 62においてマクロブロック収容先とし て指定された、ピクチャ 91と別のピクチャ 97のユーザデータ領域に、取り出されたマ クロブロック 93及び 95を挿入する。このときマスク情報 62においてユーザデータ領域 中における各マクロブロックの挿入位置や順序が定められている場合には、その位 置又は順序に従ってマクロブロックを挿入する。そして、こうして編集されたデータスト リームをマスク済動画像データ 61として出力する。
[0054] 以下、図 17を参照して上記マスク情報 62の第 2例に基づきマスク処理された動画 像データのマスク無効化処理を、説明する。
まず、図 14に示すマクロブロック抽出部 21は、このマスク情報 62に基づいて、入力 された動画像データ 61のいずれのピクチャにマスク処理が施されているかを判断す る(ここではピクチャ 91にマスク処理が施されていると判断する)。そして、マスク情報 62に基づいて、マスク処理が施されているピクチャ 91のマスク領域 82を特定する。
[0055] 次に、マクロブロック抽出部 21は、このマスク領域 82に位置していた元のマクロブロ ック 93及び 95を、マスク情報 62においてマスクブロック収容先として指定されたピク チヤ 97のユーザデータ領域から抽出する(図 17参照)。
そして、図 14に示す動画像復元手段 22は、抽出された元のマクロブロック 93及び 95を、ピクチャ 91に挿入されている固定パターンデータ 73に代えて、挿入することに より、マスク処理前の動画像を復元する。
[0056] 動画像データには、例えば図 11Aに示す医療診断動画像データのように、 1つの 画面中に、画像が動く部分とほとんど画像が静止している部分とを含む場合がある。 例えば図 11Aに示す医療診断動画像では、図の点線で示された領域 82は、個人特 定情報などを表示する全く静止した部分である一方、それ以外の領域は診断する臓 器の動作を表す動画部分である。
[0057] マスク領域 82として静止部分 (この場合には個人特定情報部分)を指定する場合 には、その画像情報の殆どがフレーム内符号ィ匕ピクチャである Iピクチャ内に保存さ れ、フレーム内符号化ピクチャ (動き補償符号ィ匕ピクチャ)である Pピクチャ及び Bピク チヤには、画像情報が殆ど含まれない。
したがって、動画像データ編集装置 1は、フレーム内符号ィ匕ピクチャ Iピクチャのみ について、上記マスク処理を施すこととしてもよい。
[0058] すなわち、動画像データ編集装置 1のマクロブロック取出部 11は、マスク領域 82に 対応するマクロブロックを、フレーム内符号ィ匕ピクチャ Iピクチャのみから取り出す。 そして、固定パターン揷入部 12は、データストリーム中の Iピクチャのマクロブロック が位置して 、た元の位置のそれぞれに、固定パターンデータを挿入する。
その後、マクロブロック揷入部 13は、データストリーム中のピクチヤのユーザデータ 領域に、取り出されたマクロブロックを挿入することとしてよ 、。
[0059] また、動画像データ再生装置 2は、フレーム内符号ィ匕ピクチャ Iピクチャのみにっ ヽ て、元画像を復元することとしてよい。
すなわち、動画像データ再生装置 2のマクロブロック抽出部 21は、 Iピクチャのいず れかにマスク処理が施されているかを判断する。そして、マスク処理が施されている 各 Iピクチャについてマスク領域 82を特定する。
次に、マクロブロック抽出部 21は、このマスク領域 82に位置していたマクロブロック を、データストリーム中のピクチヤのユーザデータ領域力 抽出する。
そして、動画像復元手段 22は、抽出された元のマクロブロックを、当該 Iピクチャに 挿入されている固定パターンデータに代えて挿入することにより、マスク処理前の動 画像を復元することとしてよ ヽ。
[0060] 反対に、マスク領域 82として動画部分が指定される場合には、マスク領域 82内の 元の画像信号が、その周囲のマクロブロックの動き補償符号ィ匕に使用される場合が ある。この場合、もし、動画像データ再生装置 1が、動画像データ中のマスク領域 82 に対応するマクロブロックを固定パターンデータに置換し、その周囲のマクロブロック をそのままの状態にしておくと、その周囲のマクロブロックの画像に乱れが生じる場合 がある。
[0061] したがって、動画像データ再生装置 1は、動画像データ中のマスク領域 82に対応 するマクロブロックを固定パターンデータに置換する際に、そのマクロブロックの画像 信号を動き補償符号ィ匕に使用する周囲をフレーム内符号ィ匕することが望ましい。この ような動画像データ再生装置 1の動作に対応する分析 Z編集部 16を、図 18を参照 して説明する。
[0062] 図 18は、図 8に示す分析 Z編集部 16の第 2実施例の構成図である。分析 Z編集 部 16は、マスク領域 82に対応するマクロブロックの周囲のマクロブロックをフレーム 内符号ィ匕する周囲ブロック再符号部 18を備える。
周囲ブロック再符号部 18は、マスク情報 62に含まれるマスク領域 82の位置情報に 基づいて、入力される動画像データのうち、マスク領域 82に対応するマクロブロック を動き補償符号ィ匕に使用しているマクロブロックを抽出し、このマクロブロックを復号 した後に、マクロブロック単位でフレーム内符号ィ匕して再度動画像データの元の位置 に挿入する。
[0063] または、周囲ブロック再符号部 18は、マスク領域 82に対応するマクロブロックを動き 補償符号ィ匕に使用している可能性のある、マスク領域 82に対応するマクロブロックの 周囲のマクロブロックを全て抽出し (例えば、マスク領域 82の周囲の動き補償範囲内 にある全てのマクロブロックを抽出し)、これらマクロブロックを復号した後に、マクロブ ロック単位でフレーム内符号ィ匕して再度動画像データの元の位置に挿入する。
[0064] このように、周囲ブロック再符号部 18により、マスク領域 82の周囲のマクロブロック をフレーム内符号ィ匕することにより、動画像データ中のマスク領域 82に対応するマク ロブロックを固定パターンデータに置換しても、その周囲のマクロブロックの画像に乱 れが生じることを防止する。
[0065] 以上、好適な実施例を参照して説明した、本発明に係る動画像データ編集装置、 動画像データ再生装置、動画像データ編集方法及び動画像データ再生方法は、符 号化された動画像データに特殊視聴効果を施す技術、及びこのような特殊視聴効果 を再生時に有効 Z無効化する技術に、広く利用可能であるが。特に、動画像データ の符号化標準である MPEGに準拠した動画像データに特殊視聴効果を施し、及び 特殊視聴効果を再生時に有効 Z無効化する技術に関する。
このような動画像データ編集装置、動画像データ再生装置、動画像データ編集方 法及び動画像データ再生方法の具体的な応用例として、上記説明した診療用映像 等を医学教育用などに二次利用する場合の他に、例えばディジタル放送サービスな どの分野にぉ 、て、特定の視聴者に対してはマスク処理が施されて ヽな 、動画を再 生可能とし、一般の視聴者にはマスク処理が施された制限付きの動画のみを再生可 能とする場合に利用することが可能である。
以上、説明のために選択された特定の実施例を参照して本発明を説明した力 こ れらに対して、本発明の基本的な考え方及び範囲力 逸脱することなぐ様々な変更 を加えることが可能であることは当業者に明らかであり、これら変更例も、当然に本発 明の範囲に含まれるものと考えるべきである。

Claims

請求の範囲
[1] 各フレームが予め区画された画素ブロック毎に符号化されて!/ヽる動画像データを編 集して、画像の一部にマスク処理を施す動画像データ編集装置であって、
入力された動画像データのデータストリームから、前記マスク処理を施す範囲に対 応する前記画素ブロックを取り出す画素ブロック取出手段と、
前記データストリーム中の、取り出された前記画素ブロックの位置に、予め符号化さ れた固定パターンデータを挿入する固定パターン挿入手段と、
取り出された前記画素ブロックを、ユーザデータとして前記データストリームに挿入 する画素ブロック挿入手段と、
を備えることを特徴とする動画像データ編集装置。
[2] 前記固定パターンデータは、予めフレーム内符号ィ匕されていることを特徴とする請 求項 1に記載の動画像データ編集装置。
[3] 前記データストリームは、フレーム単位に、前記ユーザデータが挿入されるユーザ データ領域を有し、
前記画素ブロック挿入手段は、取り出された前記画素ブロックを、取り出された元の フレーム、あるいはこれと異なるフレームのユーザデータとして前記データストリーム に挿入する、
ことを特徴とする請求項 1に記載の動画像データ編集装置。
[4] どのフレームから取り出された前記画素ブロックを、どのフレームに挿入したかを示 す挿入位置情報を生成する挿入位置情報生成手段を、さらに備えることを特徴とす る請求項 3に記載の動画像データ編集装置。
[5] 前記画素ブロック取出手段は、フレーム内符号ィ匕がなされるフレームのみについて 前記画素ブロックを取り出すことを特徴とする請求項 1に記載の動画像データ編集装 置。
[6] 前記動画像データは、 MPEGに準拠した動画像データであり、
前記画素ブロック取出手段は、前記マスク処理を施す範囲に対応するマクロブロッ クを取り出すことを特徴とする請求項 1に記載の動画像データ編集装置。
[7] 前記画素ブロック取出手段は、取り出された前記マクロブロックを、取り出された元 のフレーム、あるいはこれと異なるフレームのユーザデータ領域に挿入する、 ことを特徴とする請求項 6に記載の動画像データ編集装置。
[8] どのフレームから取り出された前記マクロブロックを、どのフレームに挿入したかを示 す挿入位置情報を生成する挿入位置情報生成手段を、さらに備えることを特徴とす る請求項 7に記載の動画像データ編集装置。
[9] 各フレームが予め区画された画素ブロック毎に符号ィ匕され、かつ画像の一部にマス ク処理が施された動画像データを再生する、動画像データ再生装置であって、 入力された動画像データのデータストリームから、ユーザデータとして挿入された前 記画素ブロックを抽出する画素ブロック抽出手段と、
前記データストリーム中の、前記マスク処理を施された範囲に対応する前記画素ブ ロックの位置にあるデータに代えて、抽出された前記画素ブロックを挿入してマスク処 理前の動画像を復元する動画像復元手段と、
を備えることを特徴とする動画像データ再生装置。
[10] 前記動画像データ再生装置は、前記データストリームとして、前記ユーザデータが 挿入されるユーザデータ領域をフレーム単位に有し、かつ各々のユーザデータ領域 には、元の動画像の他のフレーム力 取り出された前記画素ブロックが挿入されたデ 一タストリーム、を入力し、
前記動画像復元手段は、前記画素ブロック抽出手段により抽出された前記画素ブ ロックを、該画素ブロックが取り出された元のフレームに挿入してマスク処理前の動画 像を復元する、
ことを特徴とする請求項 9に記載の動画像データ再生装置。
[11] 前記動画像データ再生装置は、どのフレームのユーザデータとして挿入された前 記画素ブロック力 どのフレームから取り出された前記画素ブロックである力 を示す 挿入位置情報を、さらに入力し、
前記動画像復元手段は、前記挿入位置情報に基づいて、前記抽出された前記画 素ブロックを、該画素ブロックが取り出された元のフレームに挿入する、
ことを特徴とする請求項 10に記載の動画像データ再生装置。
[12] 前記動画像データは、 MPEGに準拠した動画像データであり、 前記動画像復元手段は、前記データストリーム中の、前記マスク処理が施された範 囲に対応するマクロブロックの位置に、前記画素ブロック抽出手段により抽出された マクロブロックを挿入して、マスク処理前の動画像を復元する請求項 9に記載の動画 像再生装置。
[13] 前記動画像データ再生装置は、前記データストリームとして、前記ユーザデータが 挿入されるユーザデータ領域をフレーム単位に有し、かつ各々のユーザデータ領域 には、元の動画像の他のフレームから取り出された前記マクロブロックが挿入された データストリーム、を入力し、
前記動画像復元手段は、前記画素ブロック抽出手段により抽出された前記マクロブ ロックを、該マクロブロックが取り出された元のフレームに挿入してマスク処理前の動 画像を復元する、
ことを特徴とする請求項 12に記載の動画像データ再生装置。
[14] 前記動画像データ再生装置は、どのフレームのユーザデータとして挿入された前 記マクロブロックが、どのフレームから取り出された前記マクロブロックである力、を示 す挿入位置情報を、さらに入力し、
前記動画像復元手段は、前記挿入位置情報に基づいて、前記抽出された前記マ クロブロックを、該マクロブロックが取り出された元のフレームに挿入する、
ことを特徴とする請求項 13に記載の動画像データ再生装置。
[15] 各フレームが予め区画された画素ブロック毎に符号化されて!/ヽる動画像データを編 集して、画像の一部にマスク処理を施す動画像データ編集方法であって、
入力された動画像データのデータストリームから、前記マスク処理を施す範囲に対 応する前記画素ブロックを取り出し、
前記データストリーム中の、取り出された前記画素ブロックの位置に、予め符号化さ れた固定パターンデータを挿入し、
取り出された前記画素ブロックを、ユーザデータとして前記データストリームに挿入 する、
ことを特徴とする動画像データ編集方法。
[16] 前記固定パターンデータは、予めフレーム内符号ィ匕されていることを特徴とする請 求項 15に記載の動画像データ編集方法。
[17] 前記データストリームは、前記ユーザデータが挿入されるユーザデータ領域をフレ ーム単 1 に有し、
取り出された前記画素ブロックは、取り出された元のフレーム、あるいはこれと異なる フレームのユーザデータとして前記データストリームに挿入される、
ことを特徴とする請求項 15に記載の動画像データ編集方法。
[18] どのフレームから取り出された前記画素ブロック力 どのフレームに挿入されたかを 示す挿入位置情報を、さらに生成することを特徴とする請求項 17に記載の動画像デ ータ編集方法。
[19] フレーム内符号化がなされるフレームのみについて、前記画素ブロックを取り出す ことを特徴とする請求項 15に記載の動画像データ編集方法。
[20] 前記動画像データは、 MPEGに準拠した動画像データであり、
前記マスク処理を施す範囲に対応するマクロブロックを取り出すことを特徴とする請 求項 15に記載の動画像データ編集方法。
[21] 取り出された前記マクロブロックを、取り出された元のフレーム、あるいはこれと異な るフレームのユーザデータ領域に挿入する、
ことを特徴とする請求項 20に記載の動画像データ編集方法。
[22] どのフレームから取り出された前記マクロブロック力 どのフレームに挿入されたか を示す挿入位置情報を、さらに生成することを特徴とする請求項 21に記載の動画像 データ編集方法。
[23] 各フレームが予め区画された画素ブロック毎に符号ィ匕され、かつ画像の一部にマス ク処理が施された動画像データを再生する、動画像データ再生方法であって、 入力された動画像データのデータストリームから、ユーザデータとして挿入された前 記画素ブロックを抽出し、
前記データストリーム中の、前記マスク処理を施された範囲に対応する前記画素ブ ロックの位置にあるデータに代えて、抽出された前記画素ブロックを挿入してマスク処 理前の動画像を復元する、
ことを特徴とする動画像データ再生方法。
[24] 前記データストリームとして、前記ユーザデータが挿入されるユーザデータ領域をフ レーム単位に有し、かつ各々のユーザデータ領域には、元の動画像の他のフレーム 力も取り出された前記画素ブロックが挿入されたデータストリーム、を入力し、 前記画素ブロック抽出手段により抽出された前記画素ブロックを、該画素ブロックが 取り出された元のフレームに挿入してマスク処理前の動画像を復元する、
ことを特徴とする請求項 23に記載の動画像データ再生方法。
[25] どのフレームのユーザデータとして挿入された前記画素ブロック力 どのフレームか ら取り出された前記画素ブロックである力 を示す挿入位置情報を、さらに入力し、 前記挿入位置情報に基づいて、前記抽出された前記画素ブロックを、該画素プロ ックが取り出された元のフレームに挿入する、
ことを特徴とする請求項 24に記載の動画像データ再生方法。
[26] 前記動画像データは、 MPEGに準拠した動画像データであり、
前記データストリーム中の、前記マスク処理が施された範囲に対応するマクロブロッ クの位置に、前記画素ブロック抽出手段により抽出されたマクロブロックを挿入して、 マスク処理前の動画像を復元する請求項 23に記載の動画像再生方法。
[27] 前記データストリームとして、前記ユーザデータが挿入されるユーザデータ領域をフ レーム単位に有し、かつ各々のユーザデータ領域には、元の動画像の他のフレーム 力も取り出された前記マクロブロックが挿入されたデータストリーム、を入力し、 前記画素ブロック抽出手段により抽出された前記マクロブロックを、該マクロブロック が取り出された元のフレームに挿入してマスク処理前の動画像を復元する、
ことを特徴とする請求項 26に記載の動画像データ再生方法。
[28] どのフレームのユーザデータとして挿入された前記マクロブロックが、どのフレーム 力 取り出された前記マクロブロックである力、を示す挿入位置情報を、さらに入力し 前記挿入位置情報に基づいて、前記抽出された前記マクロブロックを、該マクロブ ロックが取り出された元のフレームに挿入する、
ことを特徴とする請求項 27に記載の動画像データ再生方法。
PCT/JP2005/005013 2005-03-18 2005-03-18 動画像データ編集装置、動画像データ再生装置、動画像データ編集方法及び動画像データ再生方法 WO2006100736A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007509090A JP4312246B2 (ja) 2005-03-18 2005-03-18 動画像データ編集装置、動画像データ再生装置、動画像データ編集方法及び動画像データ再生方法
PCT/JP2005/005013 WO2006100736A1 (ja) 2005-03-18 2005-03-18 動画像データ編集装置、動画像データ再生装置、動画像データ編集方法及び動画像データ再生方法
US11/896,905 US8532468B2 (en) 2005-03-18 2007-09-06 Moving image data editing apparatus, moving image data reproducing apparatus, moving image data editing method, and moving image data reproducing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2005/005013 WO2006100736A1 (ja) 2005-03-18 2005-03-18 動画像データ編集装置、動画像データ再生装置、動画像データ編集方法及び動画像データ再生方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/896,905 Continuation US8532468B2 (en) 2005-03-18 2007-09-06 Moving image data editing apparatus, moving image data reproducing apparatus, moving image data editing method, and moving image data reproducing method

Publications (1)

Publication Number Publication Date
WO2006100736A1 true WO2006100736A1 (ja) 2006-09-28

Family

ID=37023433

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/005013 WO2006100736A1 (ja) 2005-03-18 2005-03-18 動画像データ編集装置、動画像データ再生装置、動画像データ編集方法及び動画像データ再生方法

Country Status (3)

Country Link
US (1) US8532468B2 (ja)
JP (1) JP4312246B2 (ja)
WO (1) WO2006100736A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009066677A1 (ja) * 2007-11-22 2009-05-28 Nec Corporation 画像処理装置
JP2010232754A (ja) * 2009-03-26 2010-10-14 Sony Corp データマスク装置およびマスクデータ復元システム
KR101271461B1 (ko) 2009-10-09 2013-06-05 한국전자통신연구원 감시영상의 프라이버시 정보 보호 장치 및 방법

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8572642B2 (en) * 2007-01-10 2013-10-29 Steven Schraga Customized program insertion system
US9538142B2 (en) * 2009-02-04 2017-01-03 Google Inc. Server-side support for seamless rewind and playback of video streaming
US20110161112A1 (en) * 2009-11-27 2011-06-30 Codonics, Inc. Medical data storage server
JP5688279B2 (ja) 2010-12-08 2015-03-25 ニュアンス コミュニケーションズ,インコーポレイテッド 秘匿情報をフィルタリングする情報処理装置、方法およびプログラム
WO2014034463A1 (ja) * 2012-08-27 2014-03-06 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
DE102013226802A1 (de) * 2013-12-20 2015-06-25 Siemens Aktiengesellschaft Schutz von Privatsphäre in einem Videostrom mittels einer redundanten Slice
KR101641646B1 (ko) * 2014-11-28 2016-07-21 전자부품연구원 동영상 마스킹 처리방법 및 장치
US9454675B2 (en) * 2015-01-26 2016-09-27 Idis Co., Ltd. Apparatus and method for protecting personal information of recorded image, and computer-readable recording medium having computer program recorded therein
KR102464575B1 (ko) * 2016-09-20 2022-11-09 삼성전자주식회사 디스플레이 장치 및 그 입력 방법
EP3672248B1 (en) 2018-12-21 2021-01-27 Axis AB A method and system for adding image content that contains one or more graphical objects to an image frame using an encoder

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0865572A (ja) * 1994-08-19 1996-03-08 Sony Corp ディジタル特殊効果発生装置
JPH1141517A (ja) * 1997-07-15 1999-02-12 Sony Corp 編集装置
JP2003116053A (ja) * 2001-10-05 2003-04-18 Hitachi Ltd 特殊効果データ符号化方法及び特殊効果表示方法及び特殊効果データ編集方法
JP2003198936A (ja) * 2001-12-25 2003-07-11 Hitachi Ltd 特殊効果データ符号化方法及び特殊効果処理方法、特殊効果データ編集方法
JP2004274188A (ja) * 2003-03-06 2004-09-30 Sanyo Electric Co Ltd コンテンツ再生装置
JP2004357126A (ja) * 2003-05-30 2004-12-16 Toshiba Corp 撮像装置、撮像システム及び撮像方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6436460A (en) 1987-07-31 1989-02-07 Nec Corp Image processing system
US5117283A (en) * 1990-06-25 1992-05-26 Eastman Kodak Company Photobooth compositing apparatus
US7085424B2 (en) * 2000-06-06 2006-08-01 Kobushiki Kaisha Office Noa Method and system for compressing motion image information
US7346776B2 (en) * 2000-09-11 2008-03-18 Digimarc Corporation Authenticating media signals by adjusting frequency characteristics to reference values
JP2003009044A (ja) * 2001-06-26 2003-01-10 Canon Inc 記録装置、再生装置及びその方法
JP2005198165A (ja) * 2004-01-09 2005-07-21 Canon Inc 画像再生装置、画像再生方法、コンピュータプログラム及びコンピュータ読み取り可能な記録媒体
US7714878B2 (en) * 2004-08-09 2010-05-11 Nice Systems, Ltd. Apparatus and method for multimedia content based manipulation
JP4634328B2 (ja) 2006-03-30 2011-02-16 京セラ株式会社 増幅装置、送信装置、端末装置、及び基地局装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0865572A (ja) * 1994-08-19 1996-03-08 Sony Corp ディジタル特殊効果発生装置
JPH1141517A (ja) * 1997-07-15 1999-02-12 Sony Corp 編集装置
JP2003116053A (ja) * 2001-10-05 2003-04-18 Hitachi Ltd 特殊効果データ符号化方法及び特殊効果表示方法及び特殊効果データ編集方法
JP2003198936A (ja) * 2001-12-25 2003-07-11 Hitachi Ltd 特殊効果データ符号化方法及び特殊効果処理方法、特殊効果データ編集方法
JP2004274188A (ja) * 2003-03-06 2004-09-30 Sanyo Electric Co Ltd コンテンツ再生装置
JP2004357126A (ja) * 2003-05-30 2004-12-16 Toshiba Corp 撮像装置、撮像システム及び撮像方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009066677A1 (ja) * 2007-11-22 2009-05-28 Nec Corporation 画像処理装置
JP2010232754A (ja) * 2009-03-26 2010-10-14 Sony Corp データマスク装置およびマスクデータ復元システム
KR101271461B1 (ko) 2009-10-09 2013-06-05 한국전자통신연구원 감시영상의 프라이버시 정보 보호 장치 및 방법

Also Published As

Publication number Publication date
US20080063378A1 (en) 2008-03-13
JPWO2006100736A1 (ja) 2008-08-28
JP4312246B2 (ja) 2009-08-12
US8532468B2 (en) 2013-09-10

Similar Documents

Publication Publication Date Title
WO2006100736A1 (ja) 動画像データ編集装置、動画像データ再生装置、動画像データ編集方法及び動画像データ再生方法
US8023568B2 (en) Capture, editing and encoding of motion pictures encoded with repeating fields or frames
JP3377677B2 (ja) 映像編集装置
KR101538338B1 (ko) 픽셀 블록들의 리로케이션을 통한 비디오 스크램블링
WO2005086496A1 (ja) 立体視化パラメータ埋込装置及び立体視画像再生装置
CA2655195C (en) System and method for object oriented fingerprinting of digital videos
JP2006325202A (ja) データ処理装置及びデータ処理方法
JP4035257B2 (ja) 画像処理装置、画像処理方法及びコンピュータ読み取り可能な記憶媒体
Pereira MPEG-4: Why, what, how and when?
JPH10503358A (ja) 対話型画像操作
JPH10243398A (ja) 動画像エンコードプログラムを記録した記録媒体及び動画像エンコード装置
KR20080109325A (ko) 2d 영상 미디어 표준을 기반으로 3d 입체영상 파일을생성 및 재생하기 위한 시스템 및 방법
JPH10243342A (ja) ビデオ・ファイルの編集方法および装置、ビデオ・ファイルからセグメントを切り取る方法、ビデオ・ファイルからセグメントをコピーする方法および装置、ビデオ・ファイル・セグメントを貼り付けるための方法および装置、コンピュータ読み取り可能な媒体
MXPA02005349A (es) Aparato y metodo para descodificar imagen digital y senales de audio.
Sieberth et al. The forensic holodeck–Recommendations after 8 years of experience for additional equipment to document VR applications
CN102934452A (zh) 用于传送在数字视频流内的信息和/或应用数据的方法,以及用于生成和播放这样的视频流的相关设备
JP2000165889A (ja) 動きベクトルを再計算せずに圧縮されたビデオを修正する装置および方法
JP2004158913A (ja) 音声画像処理装置
WO2017200259A1 (ko) 비디오 부호화 방법 및 장치, 그 복호화 방법 및 장치
JP2004312743A (ja) デジタルデータ複製装置及びその方法
JP2006129463A (ja) 立体視化パラメータ記憶媒体
JPH08130712A (ja) データ編集方法及び編集装置
JP2007013313A (ja) 映像機器、映像記録方法および映像再生方法
JP3722004B2 (ja) 電子透かし情報埋め込み装置、電子透かし情報再生装置及び記録媒体
JP3880597B2 (ja) マルチメディア情報編集装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007509090

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11896905

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

WWW Wipo information: withdrawn in national office

Country of ref document: RU

WWP Wipo information: published in national office

Ref document number: 11896905

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 05721163

Country of ref document: EP

Kind code of ref document: A1

WWW Wipo information: withdrawn in national office

Ref document number: 5721163

Country of ref document: EP