WO2019082413A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法

Info

Publication number
WO2019082413A1
WO2019082413A1 PCT/JP2018/013789 JP2018013789W WO2019082413A1 WO 2019082413 A1 WO2019082413 A1 WO 2019082413A1 JP 2018013789 W JP2018013789 W JP 2018013789W WO 2019082413 A1 WO2019082413 A1 WO 2019082413A1
Authority
WO
WIPO (PCT)
Prior art keywords
picture
block
pictures
evaluation value
feature
Prior art date
Application number
PCT/JP2018/013789
Other languages
English (en)
French (fr)
Inventor
彰 峯澤
守屋 芳美
杉本 和夫
島田 昌明
恵明 楠
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2018550470A priority Critical patent/JP6782789B2/ja
Priority to TW107127425A priority patent/TWI673652B/zh
Publication of WO2019082413A1 publication Critical patent/WO2019082413A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression

Definitions

  • the present invention relates to an image processing apparatus and an image processing method for determining the presence or absence of a scene change which is a change point of a scene.
  • Patent Document 1 discloses an image processing apparatus that determines the presence or absence of a scene change.
  • This image processing apparatus acquires a motion vector, which is one of the coding parameters of a plurality of pictures, from the encoded video stream, and determines the presence or absence of a scene change from the difference of the motion vectors among the plurality of pictures. I have to.
  • the presence or absence of a scene change can be determined if a motion vector is included as a coding parameter of a picture in a coded video stream.
  • the coding mode of a picture is, for example, an intra-frame coding mode
  • a motion vector may not be included as a coding parameter of the picture.
  • the present invention has been made to solve the above-described problems, and it is an object of the present invention to provide an image processing apparatus and an image processing method capable of determining the presence or absence of a scene change even for a picture containing no motion vector. To aim.
  • the image processing apparatus selects one of a plurality of pictures as a picture to be evaluated for the presence or absence of a scene change, which is a scene change point, by a picture selection unit and a picture selection unit.
  • the feature quantity calculation unit that calculates the feature quantity of each block included in the picture and the feature quantity of the block unit included in the two pictures calculated by the feature quantity calculation unit By comparing the evaluation value calculated by the evaluation value calculation unit with the evaluation value calculation unit that calculates the evaluation value used to determine the presence or absence of a change, and the threshold value, the presence or absence of a scene change between two pictures is determined.
  • a feature amount calculation unit for each block of the picture selected by the picture selection unit, a symbol of the block From the number of layers of the deepest split blocks included in the amount or the block, in which to calculate the characteristic amount of the block.
  • the evaluation value calculation unit is provided for calculating an evaluation value used to determine the presence or absence of a scene change from the feature amounts in block units included in two pictures calculated by the feature amount calculation unit.
  • the presence or absence of a scene change between two pictures is determined by comparing the threshold with the evaluation value calculated by the evaluation value calculation unit.
  • the feature amount calculation unit calculates the feature amount of the block based on the code amount of the block or the deepest number of layers in the divided block included in the block.
  • the image processing apparatus was configured to Therefore, the image processing apparatus according to the present invention can determine the presence or absence of a scene change even for a picture which does not include a motion vector.
  • FIG. 1 is a block diagram showing an image processing apparatus according to Embodiment 1 of the present invention. It is a hardware block diagram which shows the image processing apparatus by Embodiment 1 of this invention.
  • FIG. 17 is a hardware configuration diagram of a computer in the case where the image processing apparatus is realized by software or firmware.
  • 7 is a flowchart showing an image processing method which is a processing procedure when the image processing apparatus is realized by software or firmware.
  • FIG. 7 is an explanatory drawing showing an example of selecting an evaluation target picture from among a plurality of pictures included in a coded video stream.
  • FIG. 7 is an explanatory drawing showing an example of selecting an evaluation target picture from among a plurality of pictures included in a coded video stream.
  • the coding method is AVC / H.
  • FIG. 1 is a block diagram showing an image processing apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a hardware configuration diagram showing an image processing apparatus according to Embodiment 1 of the present invention.
  • the picture selection unit 1 is realized by, for example, the picture selection circuit 11 shown in FIG.
  • the picture selection unit 1 executes a process of acquiring a coded video stream including coded data of a plurality of pictures.
  • the picture selection unit 1 determines a candidate picture to be evaluated for the presence or absence of a scene change, which is a scene change point, from among a plurality of pictures having encoded data encoded in encoded block units (block units), A process of selecting two pictures is performed as a target picture for which the presence or absence of a scene change is to be evaluated from candidate pictures.
  • the method of determining candidate pictures is assumed to be previously defined.
  • the coded data of a picture is, for example, data coded in coding block units called macroblocks, or in coding block units called CTU (Coding Tree Unit).
  • the H.264 standard is disclosed in the following non-patent document 1.
  • the H.265 standard is disclosed in the following non-patent document 2.
  • Non-Patent Document 1 ISO / IEC 14496-10 / ITU-T H.2.
  • H.264 standard ISO / IEC 23008-2 / ITU-T H.264. 265 standard
  • the feature quantity calculation unit 2 is realized by, for example, the feature quantity calculation circuit 12 shown in FIG.
  • the feature amount calculation unit 2 performs, for each of the pictures selected by the picture selection unit 1, a process of calculating a feature amount in units of processing blocks from coded data in units of coding blocks in the picture.
  • FIG. 14 shows an example in which a processing block is composed of four coding blocks. Further, as in the example shown in FIG. 15, the number of coding blocks in the vertical direction and the horizontal direction constituting the processing block may be different.
  • the feature amount in processing block units is calculated from the coded data of each coding block in the processing block.
  • the coded data of each coding block is decoded, the code amount of each coding block is specified from the decoding result of the coded data, and the coding blocks belonging to each processing block are identified.
  • the sum of code amounts is taken as a feature amount in processing block units. Note that the processing block sizes of two pictures selected by the picture selection unit 1 (configurations of coding blocks in processing blocks to be defined in advance) are the same.
  • the evaluation value calculation unit 3 is realized by, for example, the evaluation value calculation circuit 13 shown in FIG.
  • the evaluation value calculation unit 3 executes a process of calculating an evaluation value to be used to determine the presence or absence of a scene change from the feature amounts of the processing block unit included in the two pictures calculated by the feature amount calculation unit 2.
  • the presence / absence determination unit 4 is realized by, for example, the presence / absence determination circuit 14 illustrated in FIG.
  • the presence / absence determination unit 4 executes a process of determining the presence / absence of a scene change between two pictures by comparing the evaluation value calculated by the evaluation value calculation unit 3 with a threshold.
  • each of the picture selection unit 1, the feature amount calculation unit 2, the evaluation value calculation unit 3, and the presence / absence determination unit 4 which are components of the image processing apparatus is realized by dedicated hardware as shown in FIG. 2.
  • the thing is assumed. That is, what is realized by the picture selection circuit 11, the feature amount calculation circuit 12, the evaluation value calculation circuit 13, and the presence / absence determination circuit 14 is assumed.
  • the picture selection circuit 11, the feature value calculation circuit 12, the evaluation value calculation circuit 13, and the presence / absence determination circuit 14 are, for example, a single circuit, a composite circuit, a processor that has been programmed, a processor that is parallel programmed, ASIC (Application Specific) An integrated circuit), an FPGA (field-programmable gate array), or a combination thereof is applicable.
  • the components of the image processing apparatus are not limited to those realized by dedicated hardware, and the image processing apparatus may be realized by software, firmware, or a combination of software and firmware.
  • the software or firmware is stored as a program in the memory of the computer.
  • a computer means hardware that executes a program, and corresponds to, for example, a central processing unit (CPU), a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a processor, a digital signal processor (DSP), etc. .
  • the memory of the computer may be, for example, non-volatile or volatile such as random access memory (RAM), read only memory (ROM), flash memory, erasable programmable read only memory (EPROM), electrically erasable programmable read only memory (EEPROM).
  • RAM random access memory
  • ROM read only memory
  • EPROM erasable programmable read only memory
  • EEPROM electrically erasable programmable read only memory
  • a semiconductor memory a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD (Digital Versatile Disc), etc. correspond.
  • FIG. 3 is a hardware configuration diagram of a computer when the image processing apparatus is realized by software or firmware.
  • the memory 21 has a program for causing a computer to execute the processing procedure of the picture selection unit 1, feature quantity calculation unit 2, evaluation value calculation unit 3, and presence / absence determination unit 4.
  • the program may be stored and the processor 22 of the computer may execute the program stored in the memory 21.
  • FIG. 4 is a flowchart showing an image processing method which is a processing procedure when the image processing apparatus is realized by software or firmware.
  • FIG. 2 shows an example in which each of the components of the image processing apparatus is realized by dedicated hardware
  • FIG. 3 shows an example in which the image processing apparatus is realized by software or firmware. Some components of the image processing apparatus may be realized by dedicated hardware, and the remaining components may be realized by software, firmware or the like.
  • the picture selection unit 1 obtains a coded video stream including coded data of a plurality of pictures.
  • the picture selecting unit 1 determines a candidate picture from the obtained encoded video stream according to a method for determining a candidate picture defined in advance, and evaluates the presence or absence of a scene change which is a scene change point among the candidate pictures.
  • Two pictures are selected as the picture of (1) (step ST1 in FIG. 4).
  • the later picture in the reproduction order is referred to as the “evaluation target picture”
  • the previous picture in the reproduction order is referred to as the “reference picture”.
  • “Evaluate the presence or absence of a scene change between two pictures” means that there is a scene change from the picture one after the reference picture in the playback order to the evaluation target picture (including the evaluation target picture itself) It shows that it evaluates whether it is not.
  • all of the plurality of pictures in which the encoded data is included in the encoded video stream are set as candidate pictures, and the evaluation target pictures are sequentially selected in the reproduction order from the candidate pictures.
  • An example is shown in which all pictures included in the encoded video stream are selected as pictures to be evaluated.
  • a plurality of pictures in which the encoded data is included in the encoded video stream has a GOP (Group Of Picture) structure, and the intra picture of the random access point in each GOP is taken as a candidate picture.
  • GOP Group Of Picture
  • the reference picture is a candidate picture one before the evaluation target picture in reproduction order in any of FIGS. 5 and 6. Therefore, in the example of FIG. 5, it is evaluated whether there is a scene change between two adjacent pictures, that is, whether the evaluation target picture itself is a scene change point. In the example of FIG. 6, the presence or absence of a scene change between the intra pictures of random access points in adjacent GOPs is evaluated.
  • FIG. 7 shows that the coding method is AVC / H. H.264 or HEVC / H. It is explanatory drawing which shows the structural example of the encoding video stream in the case of being H.265.
  • a plurality of access units are arranged in coding order, and one access unit indicates data of one picture.
  • Each access unit is composed of a plurality of NAL (Network Abst Ruction Layer) units.
  • Each NAL unit is classified into header information (non-VCL) and picture data (VCL) which is coded data of a picture.
  • the header information (non-VCL) includes an access unit delimiter, a sequence level header and a picture level header.
  • one or more NAL units constituting one access unit are continuous, and a method of identifying the head position of the access unit is defined so that the division position between adjacent access units on the stream can be known.
  • an access unit delimiter which is an NAL unit indicating the beginning of an access unit is defined.
  • the NAL unit illustrated in FIG. 7 is an example, and the configuration pattern of the NAL unit conforms to the specifications of the respective standards.
  • the head position of the access unit should be identified according to the identification method of the head position of the access unit defined in the standard. It is possible.
  • the picture selection unit 1 can identify the break position of the access unit which is a picture by identifying the start position of the access unit according to the identification method of the start position of the access unit defined in the standard. Since the picture selection unit 1 can identify the break position of the access unit, it can select two pictures from among a plurality of access units, and calculates the feature amount of the encoded data of the selected two pictures Output to part 2.
  • the feature quantity calculation unit 2 calculates feature quantities in processing block units from the encoded data in coding block units for each of the pictures selected by the picture selection unit 1 (step ST2 in FIG. 4). The process of calculating the feature amount in units of processing blocks by the feature amount calculation unit 2 will be specifically described below.
  • n is a block number for specifying a processing block to be subjected to feature amount calculation in a picture, and is numbered 1, 2,..., NUM_BL t in raster scan order from the upper left processing block.
  • the feature amount calculation unit 2 decodes each of all the encoding parameters included in the encoded data of each encoding block belonging to the processing block for which the feature amount is to be calculated, The sum of code amounts is specified as a code amount Sn, t .
  • the coding parameter is a parameter necessary for generating a decoded image of a coding block, and corresponds to, for example, a parameter indicating a coding mode, an intra prediction parameter, an inter prediction parameter, a prediction difference coding parameter, a motion vector, and the like.
  • the feature amount calculating unit 2 the code amount S ALL feature quantity calculation target picture P t, identifies t, as shown in the following equation (1), the feature quantity calculation target picture P t code amount S ALL, in t, the code amount S n of the processing blocks, normalized by dividing t, feature amount C n of the processing block, as t, the code amount S n of normalized processing block units, the t M Double.
  • M is a preset constant, for example, a real number greater than zero.
  • the feature amount calculating section 2 the code amount S ALL feature quantity calculation target picture P t
  • the code amount S ALL feature quantity calculation target picture P t is shown an example of specifying a t, the feature quantity calculation target picture P t code amount S ALL, as t, code amount S n of all of the processing blocks included in the feature quantity calculation target picture P t, example of calculating the sum of t is considered.
  • the code amount S ALL feature quantity calculation target picture P t, as t the size of the picture data (VCL) of the feature quantity calculation target picture P t may be specified.
  • the size of the picture data (VCL) without performing the decoding process of syntax in the feature quantity calculation target picture P t, can be identified.
  • Additional code amount S ALL feature quantity calculation target picture P t, as t may be specified the size of the access unit of the feature amount calculation target picture P t.
  • the size of the access unit can be calculated only by identifying the separation position of the access unit described above.
  • FIG. 8 is an explanatory diagram of an example of the code amount in processing block units.
  • FIG. 8 shows an example in which the processing block is composed of 2 ⁇ 2 coded blocks and the coded block is a macroblock or CTU, and the code amount of each coded block is indicated by a numeral. Furthermore, at the center of each processing block, the sum of the code amounts of the coding blocks belonging to the processing block is represented as the code amount of the processing block.
  • the unit of the code amount of the coding block is represented by bytes in the example of FIG. 8, this is merely an example, and may be represented by bit units.
  • Evaluation value calculation unit 3 the feature amount C n of the processing block in the reference picture P tp calculated by the feature amount calculation unit 2, and tp, the feature amount C n of the processing block in the evaluation object picture P tc, and tc Then, the evaluation value J used to determine the presence or absence of a scene change is calculated (step ST3 in FIG. 4). For example, as the evaluation value J used to determine the presence or absence of a scene change, the evaluation value calculation unit 3 performs processing blocks between the reference picture P tp and the evaluation target picture P tc as shown in the following equation (2). Calculate the sum of absolute differences of the feature amounts of the unit.
  • MIN_NUM_BL is the minimum value of NUM_BL tp and NUM_BL tc . That is, when the number of processing blocks of the reference picture P tp and the evaluation target picture P tc is different, only the processing block whose feature amount is calculated for both pictures is the calculation target of the evaluation value J.
  • the decoding processing time also tends to be largely different.
  • the time allocated to decoding processing of the encoded data of each picture and calculation of the feature amount in processing block units is uniformly limited, the result that the number of process blocks that can be processed is different in both pictures It becomes.
  • the evaluation value J can be obtained for only the processing block whose feature amount has been calculated for both pictures.
  • the presence / absence determination unit 4 compares the evaluation value J calculated by the evaluation value calculation unit 3 with the threshold value Th set in advance (step ST4 in FIG. 4). If the evaluation value J calculated by the evaluation value calculation unit 3 is equal to or greater than the threshold Th (if step ST4 in FIG. 4: YES), the presence / absence determination unit 4 determines between the reference picture Ptp and the evaluation target picture Ptc. It is determined that there is a scene change (step ST5 in FIG. 4). If the evaluation value J calculated by the evaluation value calculation unit 3 is less than the threshold Th (in the case of NO in step ST4 of FIG. 4), the presence / absence determination unit 4 selects between the reference picture Ptp and the evaluation target picture Ptc.
  • the presence determination unit 4 outputs the determination result of the presence or absence of a scene change.
  • the threshold Th may be a fixed value set in advance, or may be switched or changed according to a specific condition.
  • a method of preparing and switching the threshold Th for each type of content (drama, news, sports, etc.), a method of preparing and switching the threshold Th for each broadcasting station, and for each encoder generating a stream
  • a method of preparing and switching the threshold Th a method of adaptively calculating the threshold Th according to the setting of the encoder that generates the stream (a method of calculating the threshold Th with the setting value of the encoder as a variable)
  • Method of calculating threshold Th adaptively according to code amount transition provisioning formula for calculating threshold Th with time change of code amount (first to nth differential in the time direction, n is an integer of 1 or more) as a variable)
  • a method in which a greater than 0 constant) be set in advance as a reference value Th can be considered.
  • the method of a value proportional to MIN_NUM_BL becomes the threshold in consideration of the variation of the maximum possible value of the evaluation value J of changes in MIN_NUM_BL of each evaluation object picture P tc (or MIN_NUM_BL ') is set, the high Accurate scene change detection processing can be realized.
  • methods combining these methods may be used. For example, there is a method combining the method of adaptively calculating the threshold Th according to the shift of the code amount of the stream and the method of making the value proportional to MIN_NUM_BL. In this case, it can be realized by replacing the threshold Th which is adaptively calculated according to the transition of the code amount of the stream by Th_Base.
  • step ST7 in FIG. 4 If there is still a picture not selected as an evaluation target picture among the candidate pictures determined by the picture selection unit 1 (step ST7 in FIG. 4: YES), the process returns to step ST1 and step ST1. The processing of ⁇ ST7 is repeated. In the process of step ST1 returned, the process of calculating the feature amount by the feature amount calculating unit 2 is omitted for the picture of which the feature amount is already calculated among the two pictures selected by the picture selecting unit 1 You may do so. By doing this, it is not necessary to recalculate feature amounts, and processing time can be shortened. For example, as described in FIG. 5 and FIG.
  • the evaluation target picture when the evaluation target picture is selected from among the candidate pictures in the reproduction order and the reference picture is made one candidate picture in reproduction order from the evaluation target picture, the evaluation target The feature amount C n, tc in the picture is the feature amount C n, tp in the reference picture when the candidate picture one ahead in the reproduction order is selected as the evaluation target picture. Therefore, the feature amount calculation process can be omitted by sequentially storing the calculated feature amounts C n and tc and reading out the feature amounts C n and tp from the stored feature amounts.
  • the evaluation target picture is selected in the decoding order, and the presence or absence of a scene change is evaluated as a candidate picture closest to the evaluation target picture in decoding order before the reference object You may Also in this case, for the picture whose feature amount has already been calculated, the process may be omitted by diverting the calculation result of the feature amount. If no candidate picture not selected as the evaluation target picture remains in the candidate pictures determined by the picture selection unit 1 (in the case of NO at step ST7 in FIG. 4), a series of processing ends.
  • the evaluation value used to determine the presence or absence of a scene change is calculated from the feature amount in units of blocks included in the two pictures calculated by the feature amount calculation unit 2
  • An evaluation value calculation unit 3 is provided, and the presence / absence determination unit 4 compares the evaluation value calculated by the evaluation value calculation unit 3 with a threshold to determine the presence or absence of a scene change between two pictures.
  • the image processing apparatus is configured such that the feature amount calculation unit 2 calculates, for each block of the picture selected by the picture selection unit 1, the feature amount of the block from the code amount of the block. Therefore, the image processing apparatus can determine the presence or absence of a scene change even for a picture that does not include a motion vector.
  • FIG. 9 is a block diagram showing another image processing apparatus according to Embodiment 1 of the present invention.
  • the media transmission stream may be, for example, a media transmission format such as MPEG-2 TS (Transport Stream of ISO / IEC 13818-1 / ITU-T H.222.0) or MMT (ISO / IEC 23008-1).
  • MPEG-2 TS Transport Stream of ISO / IEC 13818-1 / ITU-T H.222.0
  • MMT ISO / IEC 23008-1).
  • a packetized media transport stream is assumed.
  • the demultiplexer 5 can know the division between each access unit and the type and size of the NAL unit from the header information of the given media transport stream. If the demultiplexer 5 gives information indicating the division between each access unit to the picture selection unit 1, the picture selection unit 1 can encode the encoded video stream based on the information provided from the demultiplexer 5. A desired picture can be selected from In addition, if the demultiplexer 5 supplies information indicating the type and size of the NAL unit to the feature amount calculation unit 2, the feature amount calculation unit 2 does not perform the decoding process of the syntax in the evaluation target picture. The code amount of the evaluation target picture can be specified.
  • the feature amount calculation unit 2 targets the processing block of the whole picture in the calculation processing of the code amount Sn, t of the processing block.
  • FIG. 10 is an explanatory diagram of a processing block for specifying a code amount among processing blocks constituting a picture.
  • the processing block in which “1” is described is a processing block that specifies a code amount
  • the processing block in which “0” is described is a processing block that does not specify a code amount.
  • FIG. 11 is an explanatory view showing a processing block for specifying a code amount among processing blocks constituting a picture.
  • the processing block in which “1” is described is a processing block that specifies the code amount
  • the processing block in which “0” is described is a processing block that does not specify the code amount.
  • FIG. 12 is an explanatory view showing a processing block for specifying a code amount among processing blocks constituting a picture.
  • the processing block in which “1” is described is a processing block that specifies a code amount
  • the processing block in which “0” is described is a processing block that does not specify a code amount.
  • the processing block in which “1” is described and the processing block in which “0” is described may be reversed.
  • the feature quantity calculation unit 2 decodes the encoded data of the encoded block, specifies the code amount of the processing block from the decoding result of the encoded data, and processes from the code amount of the processing block The example which calculates the feature-value of a block is shown.
  • the feature quantity calculation unit 2 sets the processing block as the feature quantity C n, t of the processing block. The number of divided blocks included in may be used.
  • the number of divided blocks included in the processing block is calculated by adding the number of divided blocks included in each coding block belonging to the processing block.
  • the number of divided blocks included in the coding block is, for example, the coding method of AVC / H. H.264 corresponds to the number of blocks in a macroblock determined by the macroblock type (mb_type).
  • the number of blocks in a macroblock is obtained by performing syntax decoding processing on a picture to be evaluated.
  • the coding method is HEVC / H. If it is 265, it corresponds to the number of CUs (Coding Units) in the CTU which is a coding block.
  • the number of CUs in a CTU can be obtained by performing syntax decoding processing on a picture to be evaluated.
  • the feature amount calculating unit 2 When specifying the number of divided blocks included in the processing block as the feature amount of the processing block, the feature amount calculating unit 2 does not need to perform processing for normalizing the code amount when calculating the feature amount of the processing block As a result, the processing load of the feature amount calculation unit 2 is reduced.
  • the feature quantity calculation unit 2 decodes the encoded data of the encoded block, specifies the code amount of the processing block from the decoding result of the encoded data, and processes from the code amount of the processing block The example which calculates the feature-value of a block is shown.
  • the feature quantity calculation unit 2 sets the processing block as the feature quantity C n, t of the processing block. The highest hierarchical number of divided blocks in the above may be used.
  • the deepest hierarchy number of divided blocks in the processing block is calculated by obtaining the maximum value of the deepest hierarchy number of divided blocks in each coding block belonging to the processing block.
  • the number of layers in the deepest layer in the coding block is the coding scheme HEVC / H. If it is 265, as shown in FIG. 13, the hierarchy of division corresponds to the deepest number among the plurality of CUs included in the CTU which is a coding block.
  • FIG. 13 is an explanatory drawing showing the number of layers of divided blocks in a coding block. In the example of FIG. 13, since the maximum value of CU depth is 3, the number of deepest layers in the divided block in the coding block is three.
  • the deepest hierarchy number of the divided blocks can be obtained by performing syntax decoding processing on the evaluation target picture.
  • the feature amount calculation unit 2 does not need to perform processing for normalizing the code amount when calculating the feature amount of the processing block. As a result, the processing load of the feature amount calculation unit 2 is reduced.
  • the evaluation value calculation unit 3 calculates the feature amount C n, tp of the processing block unit in the reference picture P tp calculated by the feature amount calculation unit 2 and the processing block unit in the evaluation target picture P tc .
  • the secondary reference picture P tp ' is the reference picture of the reference picture P tp, i.e., a reference picture P tp when the reference picture P tp was evaluated picture P tc. Therefore, the reproduction time positional relationship of the three pictures is tp ' ⁇ tp ⁇ tc.
  • the number of pictures per GOP may be variable, in the example of the candidate picture of FIG.
  • the intervals (tc-tp, tp-tp ') of each candidate picture of tp', tp, tc are It may be different. Assuming that the secondary reference picture P tp ′ is the first picture in reproduction order, the reference picture P tp is the second picture in reproduction order, and the evaluation target picture P tc is the third picture in reproduction order. .
  • processing is performed according to the flowchart of FIG. 4 as in the first embodiment, but the processing content is changed to the processing described below.
  • the picture selection unit 1 obtains a coded video stream including coded data of a plurality of pictures.
  • the picture selection unit 1 determines a candidate picture from among a plurality of pictures in which the encoded data is included in the encoded video stream according to a method for determining a candidate picture defined in advance, and performs the above implementation from among the candidate pictures. Similar to mode 1, the reference picture P tp and the evaluation target picture P tc are selected. Also, the picture selection unit 1 selects a secondary reference picture Ptp ′ from the candidate pictures. That is, in step ST1 of FIG. 4, in addition to the evaluation target picture and the reference picture, the secondary reference picture is also selected.
  • the feature quantity calculation unit 2 calculates, for each of the pictures selected by the picture selection unit 1, the feature of processing block unit from the encoded data of coding block unit included in the evaluation target picture.
  • the quantities are calculated respectively (step ST2 in FIG. 4). That is, the feature amount calculation unit 2 calculates the feature amount C n of the processing blocks included in the reference picture P tp, and tp, the feature amount C n of the processing blocks included in the evaluation object picture P tc, and tc . Also, the feature quantity calculation unit 2 calculates feature quantities C n, tp ′ in units of processing blocks included in the secondary reference picture Ptp ′ .
  • the evaluation value calculation unit 3 calculates the feature amount C n, tp of the processing block unit included in the reference picture P tp calculated by the feature amount calculation unit 2 and the feature amount C of the processing block unit included in the evaluation target picture P tc
  • An evaluation value J is calculated from n, tc and the feature amount C n, tp 'in units of processing blocks included in the secondary reference picture P tp' (step ST3 in FIG. 4).
  • the evaluation value calculation unit 3 calculates the sum of absolute differences of the feature amounts in processing block units between the reference picture P tp and the evaluation target picture P tc .
  • the evaluation value calculation unit 3 calculates the sum of absolute differences of feature quantities in processing block units between the reference picture P tp and the secondary reference picture P tp ′ .
  • the evaluation value calculation unit 3 calculates, as the evaluation value J, the difference between the calculated difference absolute value sums as shown in the following equation (3).
  • MIN_NUM_BL ' is the minimum value of three values of NUM_BL tp' , NUM_BL tp , and NUM_BL tc .
  • the magnitude of the change in the pattern between the reference picture P tp and the evaluation target picture P t c is evaluated.
  • the pattern in the reference picture P tp Since the magnitude of the difference between the degree of change of the pattern and the degree of change of the pattern in the evaluation target picture P tc is evaluated, the pattern of the whole screen is large in gradual change of the pattern between the pictures that are not scene changes. It is possible to reduce the possibility of erroneous detection as a changing scene change, and to improve the scene change detection accuracy more than the first to third embodiments.
  • the definition method of the processing block to be the target of calculation of the feature amount in processing block units is the same as that of the first embodiment (all processing blocks in a picture, partial processing blocks as shown in FIGS. It can be defined arbitrarily.
  • the presence / absence determination unit 4 compares the evaluation value J calculated by the evaluation value calculation unit 3 with the threshold value Th set in advance (step ST4 in FIG. 4). As in the first embodiment, if the evaluation value J calculated by the evaluation value calculation unit 3 is equal to or larger than the threshold value Th, the presence / absence determination unit 4 sets the scene between the reference picture P tp and the evaluation target picture P tc. It is determined that there is a change (step ST5 in FIG. 4). As in the first embodiment, if the evaluation value J calculated by the evaluation value calculation unit 3 is smaller than the threshold value Th, the presence / absence determination unit 4 sets the scene between the reference picture P tp and the evaluation target picture P tc. It is determined that there is no change (step ST6 in FIG. 4). The presence determination unit 4 outputs the determination result of the presence or absence of a scene change. Further, the method of setting the threshold value Th is the same as that of the first embodiment.
  • step ST7 in FIG. 4 If there is still a picture not selected as an evaluation target picture among the candidate pictures determined by the picture selection unit 1 (step ST7 in FIG. 4: YES), the process returns to step ST1 and step ST1. The processing of ⁇ ST7 is repeated. In the process of step ST1 returned, among the three pictures selected by the picture selection unit 1, for the picture for which the feature amount has already been calculated, the process of calculating the feature amount by the feature amount calculation unit 2 is omitted. You may do so. By doing this, it is not necessary to recalculate feature amounts, and processing time can be shortened. If there is no picture which has not been selected as a target picture for evaluation yet in the candidate pictures determined by the picture selection unit 1 (in the case of NO at step ST7 in FIG. 4), a series of processing ends.
  • the evaluation value calculation unit 3 uses the feature amount C n, t of the processing block unit calculated by the feature amount calculation unit 2 using the equation (2) or the equation (3). An example of calculating the evaluation value J is shown.
  • the evaluation value calculation unit 3 calculates the evaluation value J, the feature amount C n, t in units of processing blocks and the weighting factor w n corresponding to the processing blocks are used. An example of calculating the evaluation value J will be described.
  • equation (2) is changed to equation (4) below.
  • equation (3) is changed to equation (5) below.
  • the evaluation value calculation unit 3 substitutes the feature amount C n, tc and the feature amount C n, tp , which are the feature amount C n, t of the processing block unit , and the feature amount C n, tp, and the weighting coefficient w n into equation (4)
  • An evaluation value J is calculated.
  • the evaluation value calculation unit 3 calculates a feature amount C n, tc that is a feature amount C n, t in units of processing blocks, a feature amount C n, tp and a feature amount C n, tp ', and a weighting factor w n
  • the evaluation value J is calculated by substituting the equation (5).
  • the feature amount C n, tc is a feature amount of the processing block of the block number n in the evaluation target picture P tc
  • the feature amount C n, tp is in the reference picture P tp It is a feature of the processing block of block number n
  • the feature amount C n, tp ′ is a feature amount of the processing block of the block number n in the secondary reference picture P tp ′ .
  • w n is a weight coefficient by which the difference absolute value between the feature amount C n, tc and the feature amount C n, tp is multiplied, or the difference absolute value between the feature amount C n, tp and the feature amount C n, tp ' It is a weighting factor to be multiplied.
  • Formula (4) can be transformed as Formula (6) below.
  • Formula (5) can be deform
  • the evaluation value calculation unit 3 can calculate the evaluation value J using Equation (6) or Equation (7).
  • Each of the feature amount C n, tc and the feature amount C n, tp is multiplied by the weighting factor w n .
  • the evaluation value calculating unit 3 using equation (7), when calculating the evaluation value J, the evaluation value calculation unit 3, instead of multiplying the weight coefficient w n to the difference absolute value, the feature amount calculating section 2
  • Each of the feature amount C n, tc , the feature amount C n, tp, and the feature amount C n, tp ′ is multiplied by the weighting factor w n .
  • the feature amount calculation unit 2 indicates the constant M of the equation (1) in the following equation (8) After replacing with the variable M ′ n , the feature amount C n, tc and the feature amount C n, tp are calculated using Equation (1).
  • the feature quantity calculation unit 2 outputs the calculated feature quantity C n, tc and the feature quantity C n, tp to the evaluation value calculation unit 3.
  • Amount characteristic output from the feature amount calculation unit 2 C n, tc is w n C n shown in equation (6) corresponds to tc
  • the feature quantity output from the feature amount calculation unit 2 C n, tp is It corresponds to w n C n, tp shown in the equation (6).
  • the feature amount calculation unit 2 replaces the constant M of the equation (1) with the variable M ′ n shown in the equation (8)
  • the feature quantity C n, tc , the feature quantity C n, tp and the feature quantity C n, tp ' are calculated using the equation (1).
  • the feature quantity calculation unit 2 outputs the calculated feature quantity C n, tc , the feature quantity C n, tp and the feature quantity C n, tp ' to the evaluation value calculation unit 3.
  • Feature amount C n outputted from the feature amount calculation unit 2 tc is w n C n shown in equation (7) corresponds to tc, the output from the feature amount calculation unit 2 feature quantity C n, tp is It corresponds to w n C n, tp shown in the equation (7). Further, the feature amount C n, tp ′ output from the feature amount calculation unit 2 corresponds to w n C n, tp ′ shown in the equation (7).
  • the evaluation value calculating unit 3 sets the feature amount C n, tc output from the feature amount calculating unit 2 to w n C n, tc , and the feature amount C n tp output from the feature amount calculating unit 2 to w n C n
  • the evaluation value J is calculated by substituting Eq.
  • the evaluation value calculation unit 3 sets the feature amount C n, tc output from the feature amount calculation unit 2 to w n C n, tc and the feature amount C n, tp output from the feature amount calculation unit 2 to w n C n, by substituting tp, the feature amount C n outputted from the feature amount calculation unit 2, 'a w n C n, tp' tp in equation (7) as to calculate the evaluation value J.
  • the weighting factor w n for each processing block indicates the importance of the processing block, and the processing block having the larger value of the weighting factor w n is the more important processing block in detecting a scene change.
  • the weight coefficient w n for each processing block may be designed to have a larger value as the processing block in which the change in pattern tends to be discontinuous or abrupt in the change pattern of the scene to be detected.
  • a weighting factor w n is defined by a function h (X n , Y n ) having the two-dimensional coordinates (X n , Y n ) of the processing block as variables.
  • (X n , Y n ) is a two-dimensional coordinate (X n : horizontal direction (x) of the processing block of block number n
  • Component Y n indicates the vertical direction (y) component).
  • FIG. 16 is an explanatory view showing the horizontal and vertical coordinates of the processing block. In the example of FIG.
  • the upper left processing block (0, 0) is used as a reference processing block, and the two-dimensional coordinates of the reference processing block are (X 1 , Y 1 ).
  • the two-dimensional coordinates of the processing block (5, 1) are (X 6 , Y 6 )
  • the two-dimensional coordinates of the processing block (2, 3) are (X 21 , Y 21 ).
  • w n is set to be larger as the processing block is closer to the center of the screen.
  • Equation (10) W is the number of processing blocks in the horizontal direction when the entire picture is divided by processing blocks, and H is the number of processing blocks in the vertical direction when the entire picture is divided by processing blocks, A x , A Each of y 1 , L x and L y is a positive constant. Furthermore, A x and A y have roles of scaling values of weights of the x component and y component respectively, and the larger the value, the higher the weight reduction ratio when the distance from the center of the screen is larger.
  • f i (x) is an arbitrary monotonically increasing function. As an example of fi (x), the function represented by the following Formula (11) or Formula (12) can be considered. In the formula (11) and Equation (12), a i and b i is a positive constant, respectively.
  • FIGS. 17 and 18 are explanatory diagrams showing an example of the weight w n for each processing block.
  • the weight coefficient w n of the processing block (5,0) is, 1 / ⁇ 6, weighting coefficient w n of the processing block (1,1), 1 / ⁇ 2, processing blocks (3,1
  • the weighting factor w n of 1) is 1.
  • the weight coefficient w n of the processing block (5,0) is 1 / ⁇ 3
  • the weight coefficient w n of the processing block (1,1) and the processing block (3,1) is a 1 .
  • weighting coefficient w n instead of the function shown in Equation (10) h (x, y), the following equation (14) shows function h (x, y) may be.
  • weighting factor w n is expressed by function h (x, y) shown in equation (14), there is no calculation of square and calculation of square root, so function h (x, y) showing weighting factor w n in equation (10)
  • the calculation load can be reduced compared to the case of representing.
  • Equation (16) and Equation (17) A x and A y meaning scaling values of weights of x component and y component are respectively given by Equation (16) and Equation (17) As shown, it may be a shift operation. By doing this, the scaling accuracy becomes an integer accuracy, but the scaling process can be calculated by bit shift.
  • B x and B y indicate shift amounts, and the larger the value, the higher the weight reduction ratio when the distance from the center of the screen is larger.
  • the left shift is defined. However, as shown in the equations (18) and (19), the right shift may be used respectively.
  • B x and B y indicate the shift amount, but the larger the value, the farther the distance from the screen center. This is different from the equations (16) and (17) in that the weight reduction ratio is low. Further, as described above, "A x, to the A y B x, a shift operation by B y" is also applicable to Formula (13) and (15).
  • the two-dimensional coordinates of the last processing block for which the calculation process of the code amount S n, t could be performed is (X MIN_NUM_BL , Y MIN_NUM_BL ) (or (X MIN_NUM_BL ′ , Y MIN_NUM_BL ′ )), L x is , Fix it to (W / 2) -1.
  • the value of the evaluation value J is increased, so that the scene change detection sensitivity in the presence / absence determination unit 4 can be increased.
  • a scene change is defined as "the subject moving to the central part of the screen changes discontinuously", but a scene change is defined as "the background of the screen changes discontinuously” You may do it.
  • the weight coefficient w n is as processing blocks close to background-through easy screen edge, is set so that the value increases .
  • the weight coefficient w n may instead the following equation formula function shown in (10) h (x, y ) ( It can be expressed by the function h (x, y) shown in 20).
  • the weighting coefficient w n can be expressed by Equation (14) shows function h (x, y) instead, function h (x, y) as shown in formula (21) of.
  • the method of setting the threshold value Th in the presence / absence determination unit 4 may be the same as that in the first embodiment. Further, as another example, if the MIN_NUM_BL (or MIN_NUM_BL ') is changed for each evaluation object picture P tc, it may be the threshold value Th be calculated by equation (22) obtained from the weighting coefficient w n. In this way, it becomes the threshold in consideration of the variation of the maximum possible value of the evaluation value J of changes in MIN_NUM_BL of each evaluation object picture P tc (or MIN_NUM_BL ') is set, accurate scene change detection Processing can be realized.
  • Th_Base is a constant larger than 0 which is a reference value of the threshold Th and which is set in advance.
  • MIN_NUM_BL when using MIN_NUM_BL 'for calculation of evaluation value J, MIN_NUM_BL of Formula (22) is substituted to MIN_NUM_BL'.
  • this method may be combined with the method described in Embodiment 1 above. For example, there is a method combining the method of the present invention and a method of adaptively calculating the threshold Th according to the shift of the code amount of the stream. In this case, it can be realized by replacing the threshold Th which is adaptively calculated according to the transition of the code amount of the stream by Th_Base.
  • the feature amount calculation unit 2 acquires the weighting factor w m for each coding block instead of the weighting factor w n for each processing block.
  • m is a variable indicating the block number of the coding block numbered in raster scan order
  • w m is a weighting factor for the coding block of block number m.
  • the feature quantity calculation unit 2 replaces the constant M of the equation (1) with a variable M ′ m shown in the following equation (23), and then uses the equation (1) to calculate the feature in the coding block of the block number m.
  • the amount Cm, tc and the feature amount Cm , tp are calculated, or the feature amount Cm , tc , the feature amount Cm , tp and the feature amount Cm , tp ' are calculated.
  • the feature quantity calculation unit 2 uses the variable M ′ m to calculate the feature quantity C m, t (C m, tc, C m, tp, or C m, tp ′ ). Instead of the code amount S n, t of the processing block of block number n, the code amount of the coding block of block number m is used.
  • the feature quantity calculation unit 2 outputs the calculated feature quantity Cm, tc and the feature quantity Cm , tp to the evaluation value calculation unit 3.
  • the feature quantity calculation unit 2 outputs the calculated feature quantity C m, tc , the feature quantity C m, tp and the feature quantity C m, tp ' to the evaluation value calculation unit 3.
  • the evaluation value calculation unit 3 uses the C m, tc instead of w n C n, tc in the equation (6), and uses the C m, tp instead of the w n C n , tp to obtain the evaluation value J. calculate.
  • the evaluation value calculation unit 3 uses C m, tc instead of w n C n, tc , and uses C m, tp instead of w n C n, tp , and w n C
  • the evaluation value J is calculated using C m, tp ' instead of n, tp' .
  • the evaluation value J is calculated using the weighting factor w m for each coding block, the importance of each area is adjusted in units of coding blocks finer than the processing block. And can improve the scene change detection performance.
  • the present invention allows free combination of each embodiment, or modification of any component of each embodiment, or omission of any component in each embodiment. .
  • the present invention is suitable for an image processing apparatus and an image processing method for determining the presence or absence of a scene change which is a change point of a scene.
  • Reference Signs List 1 picture selection unit, 2 feature amount calculation unit, 3 evaluation value calculation unit, 4 presence / absence determination unit, 5 demultiplexers, 11 picture selection circuit, 12 feature amount calculation circuit, 13 evaluation value calculation circuit, 14 presence / absence determination circuit, 21 memory , 22 processors.

Abstract

特徴量算出部(2)により算出された2つのピクチャに含まれるブロック単位の特徴量から、シーンチェンジの有無の判定に用いる評価値を算出する評価値算出部(3)を設け、有無判定部(4)が、評価値算出部(3)により算出された評価値と閾値を比較することで、2つのピクチャの間でのシーンチェンジの有無を判定する。そして、特徴量算出部(2)が、ピクチャ選択部(1)により選択されたピクチャのブロック毎に、当該ブロックの符号量又は当該ブロックに含まれている分割ブロックの最深の階層数から、当該ブロックの特徴量を算出するように、画像処理装置を構成した。

Description

画像処理装置及び画像処理方法
 この発明は、シーンの変化点であるシーンチェンジの有無を判定する画像処理装置及び画像処理方法に関するものである。
 以下の特許文献1には、シーンチェンジの有無を判定する画像処理装置が開示されている。
 この画像処理装置は、符号化映像ストリームから、複数のピクチャの符号化パラメータの一つである動きベクトルを取得し、複数のピクチャの間での動きベクトルの差分からシーンチェンジの有無を判定するようにしている。
国際公開第2010/125757号
 従来の画像処理装置は以上のように構成されているので、符号化映像ストリームの中に、ピクチャの符号化パラメータとして、動きベクトルが含まれていれば、シーンチェンジの有無を判定することができる。しかし、ピクチャの符号化モードが例えば画面内符号化モードであるために、当該ピクチャの符号化パラメータとして、動きベクトルが含まれていないことがある。符号化パラメータとして、動きベクトルが含まれていないピクチャについては、シーンチェンジの有無を判定することができないという課題があった。
 この発明は上記のような課題を解決するためになされたもので、動きベクトルが含まれていないピクチャについても、シーンチェンジの有無を判定することができる画像処理装置及び画像処理方法を得ることを目的とする。
 この発明に係る画像処理装置は、複数のピクチャの中から、シーンの変化点であるシーンチェンジの有無を評価する対象のピクチャとして、2つのピクチャを選択するピクチャ選択部と、ピクチャ選択部により選択された2つのピクチャのそれぞれについて、ピクチャに含まれるブロック単位の特徴量をそれぞれ算出する特徴量算出部と、特徴量算出部により算出された2つのピクチャに含まれるブロック単位の特徴量から、シーンチェンジの有無の判定に用いる評価値を算出する評価値算出部と、評価値算出部により算出された評価値と閾値を比較することで、2つのピクチャの間でのシーンチェンジの有無を判定する有無判定部とを備え、特徴量算出部が、ピクチャ選択部により選択されたピクチャのブロック毎に、当該ブロックの符号量又は当該ブロックに含まれている分割ブロックの最深の階層数から、当該ブロックの特徴量を算出するようにしたものである。
 この発明によれば、特徴量算出部により算出された2つのピクチャに含まれるブロック単位の特徴量から、シーンチェンジの有無の判定に用いる評価値を算出する評価値算出部を設け、有無判定部が、評価値算出部により算出された評価値と閾値を比較することで、2つのピクチャの間でのシーンチェンジの有無を判定する。そして、特徴量算出部が、ピクチャ選択部により選択されたピクチャのブロック毎に、当該ブロックの符号量又は当該ブロックに含まれている分割ブロックの最深の階層数から、当該ブロックの特徴量を算出するように、画像処理装置を構成した。したがって、この発明に係る画像処理装置は、動きベクトルが含まれていないピクチャについても、シーンチェンジの有無を判定することができる。
この発明の実施の形態1による画像処理装置を示す構成図である。 この発明の実施の形態1による画像処理装置を示すハードウェア構成図である。 画像処理装置がソフトウェア又はファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。 画像処理装置がソフトウェア又はファームウェアなどで実現される場合の処理手順である画像処理方法を示すフローチャートである。 符号化映像ストリームに含まれている複数のピクチャの中から、評価対象ピクチャを選択する例を示す説明図である。 符号化映像ストリームに含まれている複数のピクチャの中から、評価対象ピクチャを選択する例を示す説明図である。 符号化方式がAVC/H.264又はHEVC/H.265である場合の符号化映像ストリームの構成例を示す説明図である。 処理ブロック単位の符号量の一例を示す説明図である。 この発明の実施の形態1による他の画像処理装置を示す構成図である。 評価対象ピクチャに含まれている処理ブロックのうち、符号量を特定する処理ブロックを示す説明図である。 評価対象ピクチャに含まれている処理ブロックのうち、符号量を特定する処理ブロックを示す説明図である。 評価対象ピクチャに含まれている処理ブロックのうち、符号量を特定する処理ブロックを示す説明図である。 符号化ブロックにおける分割ブロックの階層数を示す説明図である。 処理ブロックと符号化ブロックの例を示す説明図である。 処理ブロックと符号化ブロックの例を示す説明図である。 処理ブロックの水平方向と垂直方向の座標を示す説明図である。 処理ブロック毎の重み係数wの一例を示す説明図である。 処理ブロック毎の重み係数wの一例を示す説明図である。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、この発明の実施の形態1による画像処理装置を示す構成図である。図2は、この発明の実施の形態1による画像処理装置を示すハードウェア構成図である。
 図1において、ピクチャ選択部1は、例えば図2に示すピクチャ選択回路11で実現される。
 ピクチャ選択部1は、複数のピクチャの符号化データが含まれている符号化映像ストリームを取得する処理を実施する。
 ピクチャ選択部1は、符号化ブロック単位(ブロック単位)に符号化されている符号化データを有する複数のピクチャの中から、シーンの変化点であるシーンチェンジの有無を評価する候補ピクチャを定め、候補ピクチャの中からシーンチェンジの有無を評価する対象ピクチャとして、2つのピクチャを選択する処理を実施する。ただし、候補ピクチャの決定方法は、予め定義されているものとする。
 ピクチャの符号化データは、例えば、マクロブロックと呼ばれる符号化ブロック単位、あるいは、CTU(Coding Tree Unit)と呼ばれる符号化ブロック単位に符号化されているデータである。
 マクロブロック単位に符号化する符号化方式の規格として、例えば、AVC/H.264規格が以下の非特許文献1に開示されている。
 また、CTU単位に符号化する符号化方式の規格として、例えば、HEVC/H.265規格が以下の非特許文献2に開示されている。
[非特許文献1]ISO/IEC 14496-10/ITU-T H.264規格
[非特許文献2]ISO/IEC 23008-2/ITU-T H.265規格
 特徴量算出部2は、例えば図2に示す特徴量算出回路12で実現される。
 特徴量算出部2は、ピクチャ選択部1により選択されたピクチャ毎に、当該ピクチャにおける符号化ブロック単位の符号化データから、処理ブロック単位の特徴量をそれぞれ算出する処理を実施する。処理ブロックは、1以上の符号化ブロックから構成されており、その構成は予め定義されている。処理ブロックは、1以上の符号化ブロックから構成されるため、処理ブロックの定義可能な最小単位は符号化ブロックとなる(処理ブロック=符号化ブロック)。
 図14は、4つの符号化ブロックから処理ブロックを構成する例を示している。また、図15に示す例のように、処理ブロックを構成する縦方向と横方向の符号化ブロック数が異なるように構成してもよい。
 処理ブロック単位の特徴量は、処理ブロック内の各々の符号化ブロックの符号化データから算出する。この実施の形態1では、各々の符号化ブロックの符号化データを復号して、符号化データの復号結果から各々の符号化ブロックの符号量を特定し、各々の処理ブロックに属する符号化ブロックの符号量の総和を処理ブロック単位の特徴量とする。
 なお、ピクチャ選択部1により選択された2つのピクチャの処理ブロックサイズ(予め定義する処理ブロックにおける符号化ブロックの構成)は同一とする。
 評価値算出部3は、例えば図2に示す評価値算出回路13で実現される。
 評価値算出部3は、特徴量算出部2により算出された2つのピクチャに含まれる処理ブロック単位の特徴量から、シーンチェンジの有無の判定に用いる評価値を算出する処理を実施する。
 有無判定部4は、例えば図2に示す有無判定回路14で実現される。
 有無判定部4は、評価値算出部3により算出された評価値と閾値を比較することで、2つのピクチャの間でのシーンチェンジの有無を判定する処理を実施する。
 図1では、画像処理装置の構成要素であるピクチャ選択部1、特徴量算出部2、評価値算出部3及び有無判定部4のそれぞれが、図2に示すような専用のハードウェアで実現されるものを想定している。即ち、ピクチャ選択回路11、特徴量算出回路12、評価値算出回路13及び有無判定回路14で実現されるものを想定している。
 ここで、ピクチャ選択回路11、特徴量算出回路12、評価値算出回路13及び有無判定回路14は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、または、これらを組み合わせたものが該当する。
 画像処理装置の構成要素は、専用のハードウェアで実現されるものに限るものではなく、画像処理装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
 ソフトウェア又はファームウェアはプログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSP(Digital Signal Processor)などが該当する。
 コンピュータのメモリは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性又は揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)などが該当する。
 図3は、画像処理装置がソフトウェア又はファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。
 画像処理装置がソフトウェア又はファームウェアなどで実現される場合、ピクチャ選択部1、特徴量算出部2、評価値算出部3及び有無判定部4の処理手順をコンピュータに実行させるためのプログラムをメモリ21に格納し、コンピュータのプロセッサ22がメモリ21に格納されているプログラムを実行するようにすればよい。
 図4は、画像処理装置がソフトウェア又はファームウェアなどで実現される場合の処理手順である画像処理方法を示すフローチャートである。
 また、図2では、画像処理装置の構成要素のそれぞれが専用のハードウェアで実現される例を示し、図3では、画像処理装置がソフトウェアやファームウェアなどで実現される例を示しているが、画像処理装置における一部の構成要素が専用のハードウェアで実現され、残りの構成要素がソフトウェアやファームウェアなどで実現されるものであってもよい。
 次に動作について説明する。
 ピクチャ選択部1は、複数のピクチャの符号化データが含まれている符号化映像ストリームを取得する。
 ピクチャ選択部1は、取得した符号化映像ストリームから、予め定義された候補ピクチャの決定方法に従って候補ピクチャを決定し、候補ピクチャの中から、シーンの変化点であるシーンチェンジの有無を評価する対象のピクチャとして、2つのピクチャを選択する(図4のステップST1)。
 ここで、選択した2つのピクチャのうち、再生順で後のピクチャを「評価対象ピクチャ」、再生順で先のピクチャを「参照ピクチャ」と称する。「2つのピクチャの間のシーンチェンジの有無を評価する」とは、参照ピクチャより再生順で一つ後のピクチャから評価対象ピクチャまで(評価対象ピクチャ自身を含む)にシーンチェンジが発生しているか否かを評価することを示すものである。
 図5及び図6は、符号化データが符号化映像ストリームに含まれているピクチャの中から、評価対象ピクチャとなる候補ピクチャを決定し、候補ピクチャの中から、評価対象ピクチャと参照ピクチャを選択する例を示す説明図である。
 図5では、符号化データが符号化映像ストリームに含まれている複数のピクチャの全てを候補ピクチャとし、候補ピクチャの中から、再生順で順番に評価対象ピクチャを選択することで、最終的に、符号化映像ストリームに含まれている全てのピクチャが評価対象ピクチャとして選択される例を示している。
 図6では、符号化データが符号化映像ストリームに含まれている複数のピクチャがGOP(Group Of Picture)構造を有しており、各々のGOPにおけるランダムアクセスポイントのイントラピクチャを候補ピクチャとし、候補ピクチャの中から、再生順で順番に評価対象ピクチャとして選択される例を示している。
 AVC/H.264では、IDR(Instantaneous Decoding Refresh)ピクチャが、ランダムアクセスポイントのイントラピクチャである。
 HEVC/H.265では、IRAP(Intra Random Access Point)ピクチャが、ランダムアクセスポイントのイントラピクチャである。
 参照ピクチャは、図5及び図6のいずれでも、に評価対象ピクチャより再生順で一つ前の候補ピクチャとしている。したがって、図5の例では、隣接している2つのピクチャの間でのシーンチェンジの有無、即ち、評価対象ピクチャ自身がシーンチェンジ点であるか否かが評価される。図6の例では、隣接しているGOPにおけるランダムアクセスポイントのイントラピクチャの間でのシーンチェンジの有無が評価される。
 なお、上記以外にもN個(Nは0以上の整数)のピクチャ間隔で評価対象ピクチャを選択する(N=0の場合、図5と同じとなる)など、候補ピクチャの定義を任意に設定することができる。
 図7は、符号化方式がAVC/H.264又はHEVC/H.265である場合の符号化映像ストリームの構成例を示す説明図である。
 図7では、複数のアクセスユニットが符号化順に並んでおり、1つのアクセスユニットが1つのピクチャのデータを示している。
 各々のアクセスユニットは、複数のNAL(Network Abst ruction Layer)ユニットから構成される。
 各々のNALユニットは、ヘッダ情報(non-VCL)と、ピクチャの符号化データであるピクチャデータ(VCL)とに分類される。
 ヘッダ情報(non-VCL)は、アクセスユニットデリミタ、シーケンスレベルヘッダ及びピクチャレベルヘッダを有している。
 AVC/H.264又はHEVC/H.265では、1つのアクセスユニットを構成する1つ以上のNALユニットが連続しており、ストリーム上で隣接するアクセスユニット間の区切り位置が分かるように、アクセスユニットの先頭位置の識別方法が定義されている。その一つの例として、アクセスユニットの先頭を示すNALユニットであるアクセスユニットデリミタが定義されている。
 なお、図7に示すNALユニットは一例であり、NALユニットの構成パターンは、それぞれの規格の仕様に準ずる。このとき、アクセスユニットを構成するNALユニットにアクセスユニットデリミタが存在しない場合もあり、その場合においても、規格で定義されたアクセスユニットの先頭位置の識別方法に従ってアクセスユニットの先頭位置を識別することが可能である。
 したがって、ピクチャ選択部1は、規格で定義されているアクセスユニットの先頭位置の識別方法に従ってアクセスユニットの先頭位置を識別することで、ピクチャであるアクセスユニットの区切り位置を識別することができる。
 ピクチャ選択部1は、アクセスユニットの区切り位置を識別することができるため、複数のアクセスユニットの中から、2つのピクチャを選択することができ、選択した2つのピクチャの符号化データを特徴量算出部2に出力する。
 特徴量算出部2は、ピクチャ選択部1により選択されたピクチャ毎に、符号化ブロック単位の符号化データから、処理ブロック単位の特徴量をそれぞれ算出する(図4のステップST2)。
 以下、特徴量算出部2による処理ブロック単位の特徴量の算出処理を具体的に説明する。
 ここで、ピクチャ選択部1により選択されたピクチャ番号tのピクチャPに含まれる処理ブロックの特徴量をCn,tとし、参照ピクチャのピクチャ番号をt=tp、評価対象ピクチャのピクチャ番号をt=tcとする。
 nは、ピクチャ内の特徴量算出対象の処理ブロックを特定するブロック番号であり、左上の処理ブロックからラスタスキャン順に1,2,・・・,NUM_BLと番号付けされている。ここで、NUM_BLは、ピクチャ番号tのピクチャPにおける特徴量算出対象の処理ブロックの総数を示している。処理ブロックサイズが64×64画素、ピクチャの解像度が3840×2160画素であった場合、1画面の全てを対象としたとすると、NUM_BL=60×34=2040となる。ただし、最下端の列のブロックはブロックサイズが64×48画素となる。NUM_BLは、上記のように画面全体の処理ブロック数としても良いし、処理負荷を低減するために画面全体の処理ブロック数よりも小さい値に制限しても良い。
 よって、t=tp及びt=tcにおける特徴量Cn,tp、Cn,tcをそれぞれ下記に従って算出する。
 特徴量算出部2は、特徴量算出対象ピクチャPにおけるシンタックスの復号処理を実施し、シンタックスの復号処理結果から、処理ブロック単位の符号量Sn,t(n=1,2,・・・,NUM_BL)をそれぞれ特定する。
 例えば、特徴量算出部2は、特徴量算出対象の処理ブロックに属する各々の符号化ブロックの符号化データに含まれている全ての符号化パラメータをそれぞれ復号し、復号した全ての符号化パラメータの符号量の総和を符号量Sn,tとして特定する。
 符号化パラメータは、符号化ブロックの復号画像の生成に必要なパラメータであり、例えば、符号化モードを示すパラメータ、イントラ予測パラメータ、インター予測パラメータ、予測差分符号化パラメータ、動きベクトルなどが該当する。
 次に、特徴量算出部2は、特徴量算出対象ピクチャPの符号量SALL,tを特定し、以下の式(1)に示すように、特徴量算出対象ピクチャPの符号量SALL,tで、処理ブロック単位の符号量Sn,tを除算することで正規化し、処理ブロック単位の特徴量Cn,tとして、正規化した処理ブロック単位の符号量Sn,tをM倍する。Mは、予め設定した定数であり、例えば、0より大きな実数である。
Figure JPOXMLDOC01-appb-I000001
 ここでは、特徴量算出部2が、特徴量算出対象ピクチャPの符号量SALL,tを特定する例を示しているが、特徴量算出対象ピクチャPの符号量SALL,tとして、特徴量算出対象ピクチャPに含まれている全ての処理ブロックの符号量Sn,tの総和を算出する例が考えられる。
 ただし、これは一例に過ぎず、特徴量算出対象ピクチャPの符号量SALL,tとして、特徴量算出対象ピクチャPのピクチャデータ(VCL)のサイズを特定するようにしてもよい。ピクチャデータ(VCL)のサイズは、特徴量算出対象ピクチャPにおけるシンタックスの復号処理を実施することなく、特定することができる。他にも、特徴量算出対象ピクチャPの符号量SALL,tとして、特徴量算出対象ピクチャPのアクセスユニットのサイズを特定するようにしてもよい。アクセスユニットのサイズは、上述したアクセスユニットの区切り位置を識別するのみで計算することができる。
 式(1)で算出される処理ブロック単位の特徴量Cn,tは、各々の処理ブロックの符号量の比を表しており、ピクチャ毎の総符号量の大きさのばらつきの影響を抑えた特徴量になっている。
 図8は、処理ブロック単位の符号量の一例を示す説明図である。
 図8は、処理ブロックが2×2個の符号化ブロックから構成され、符号化ブロックがマクロブロック又はCTUである例を示しており、各々の符号化ブロックの符号量を数字で表している。さらに、各処理ブロックの中央に、当該処理ブロックに属する符号化ブロックの符号量の総和を当該処理ブロックの符号量として表している。
 図8の例では、符号化ブロックの符号量の単位をbyteで表しているが、一例に過ぎず、bit単位で表されていてもよい。
 評価値算出部3は、特徴量算出部2により算出された参照ピクチャPtpにおける処理ブロック単位の特徴量Cn,tpと、評価対象ピクチャPtcにおける処理ブロック単位の特徴量Cn,tcとから、シーンチェンジの有無の判定に用いる評価値Jを算出する(図4のステップST3)。
 例えば、評価値算出部3は、シーンチェンジの有無の判定に用いる評価値Jとして、以下の式(2)に示すように、参照ピクチャPtpと評価対象ピクチャPtcとの間での処理ブロック単位の特徴量の差分絶対値和を算出する。
Figure JPOXMLDOC01-appb-I000002
 評価値算出部3により算出された評価値Jは、参照ピクチャPtpと評価対象ピクチャPtcとの間での絵柄の変化が大きい程、参照ピクチャPtpと評価対象ピクチャPtcの処理ブロック単位の符号量の分布の差異が大きくなり、値が大きくなる。
 また、MIN_NUM_BLは、NUM_BLtpとNUM_BLtcの最小値である。即ち、参照ピクチャPtpと評価対象ピクチャPtcの処理ブロック数が異なる場合、両ピクチャ共に特徴量を算出している処理ブロックのみが評価値Jの算出対象となる。
 例えば、参照ピクチャPtpと評価対象ピクチャPtcの符号化データのサイズが大きく異なる場合、復号処理時間も大きく異なる傾向にある。そのようなケースにて、各ピクチャの符号化データの復号処理や処理ブロック単位の特徴量の算出に割かれる時間が一律に制限されている場合、処理可能な処理ブロック数が両ピクチャで異なる結果となる。このような場合、評価値Jは、両ピクチャ共に特徴量を算出している処理ブロックのみを対象として求められる。なお、上記のように各々のピクチャで消費できる処理時間Tを決定することで、所望の処理速度(フレームレート1/T)での特徴量算出処理が可能となる。
 有無判定部4は、評価値算出部3により算出された評価値Jと、事前に設定された閾値Thとを比較する(図4のステップST4)。
 有無判定部4は、評価値算出部3により算出された評価値Jが閾値Th以上であれば(図4のステップST4:YESの場合)、参照ピクチャPtpと評価対象ピクチャPtcとの間にシーンチェンジが有ると判定する(図4のステップST5)。
 有無判定部4は、評価値算出部3により算出された評価値Jが閾値Th未満であれば(図4のステップST4:NOの場合)、参照ピクチャPtpと評価対象ピクチャPtcとの間にシーンチェンジが無いと判定する(図4のステップST6)。
 有無判定部4は、シーンチェンジの有無の判定結果を出力する。
 なお、閾値Thは、予め設定する固定値であってもよいし、特定の条件に従って切り替えたり、変化したりするものであってもよい。例えば、コンテンツの種類(ドラマ、ニュース、スポーツ等)毎に閾値Thを用意して切り替えるようにする方法、放送局毎に閾値Thを用意して切り替えるようにする方法、ストリームを生成するエンコーダ毎に閾値Thを用意して切り替えるようにする方法、ストリームを生成するエンコーダの設定に従って適応的に閾値Thを算出する(エンコーダの設定値を変数とした閾値Thの算出式を用意する)方法、ストリームの符号量推移に従って適応的に閾値Thを算出する(符号量の時間変化(時間方向の1~n次微分、nは1以上の整数)を変数とした閾値Thの算出式を用意する)方法、対象とする処理ブロック数、即ち、MIN_NUM_BLに比例した値(Th=MIN_NUM_BL×Th_Base、Th_Baseは、閾値Thの基準値となる予め設定する0より大きい定数)とする方法などが考えられる。なお、MIN_NUM_BLに比例した値とする方法では、評価対象ピクチャPtc毎のMIN_NUM_BL(またはMIN_NUM_BL’)の変動による評価値Jの取りうる最大値の変動を加味した閾値が設定されることとなり、高精度なシーンチェンジ検出処理を実現できる。
 さらに、これらの方法を組み合わせた方法でもよい。例えば、ストリームの符号量推移に従って適応的に閾値Thを算出する方法と、MIN_NUM_BLに比例した値とする方法とを組み合わせた方法等である。この場合、ストリームの符号量推移に従って適応的に算出する閾値ThをTh_Baseに置き換えることで実現できる。
 ピクチャ選択部1により決定された候補ピクチャの中に、未だ評価対象ピクチャとして選択していないピクチャが残っていれば(図4のステップST7:YESの場合)、ステップST1の処理に戻り、ステップST1~ST7の処理が繰り返される。
 なお、戻ったステップST1の処理で、ピクチャ選択部1により選択された2つのピクチャのうち、特徴量が既に算出されているピクチャについては、特徴量算出部2による特徴量の算出処理を省略するようにしてもよい。このようにすることで、特徴量の再計算を実施せずに済み、処理時間を短縮することができる。例えば、図5、図6で説明したように、候補ピクチャの中から、再生順に評価対象ピクチャを選択し、参照ピクチャを評価対象ピクチャより再生順で一つ前の候補ピクチャとする場合、評価対象ピクチャにおける特徴量Cn,tcは、再生順で一つ先の候補ピクチャを評価対象ピクチャに選択した際の参照ピクチャにおける特徴量Cn,tpとなる。したがって、算出した特徴量Cn,tcを順次保存しておき、特徴量Cn,tpは、保存された特徴量から読み出すようにすることで特徴量の算出処理を省略することができる。
 また、復号順と再生順が異なる場合、復号順に評価対象ピクチャを選択し、参照ピクチャを評価対象ピクチャより復号順で前かつ再生順で最も評価対象ピクチャに近い候補ピクチャとしてシーンチェンジの有無を評価してもよい。この場合においても、特徴量が既に算出されているピクチャは、特徴量の算出結果を流用して処理を省略するようにしてもよい。
 ピクチャ選択部1により決定された候補ピクチャの中に、未だ評価対象ピクチャとして選択していない候補ピクチャが残っていなければ(図4のステップST7:NOの場合)、一連の処理が終了する。
 以上で明らかなように、この実施の形態1によれば、特徴量算出部2により算出された2つのピクチャに含まれるブロック単位の特徴量から、シーンチェンジの有無の判定に用いる評価値を算出する評価値算出部3を設け、有無判定部4が、評価値算出部3により算出された評価値と閾値を比較することで、2つのピクチャの間でのシーンチェンジの有無を判定する。そして、特徴量算出部2が、ピクチャ選択部1により選択されたピクチャのブロック毎に、当該ブロックの符号量から、当該ブロックの特徴量を算出するように、画像処理装置を構成した。したがって、画像処理装置は、動きベクトルが含まれていないピクチャについても、シーンチェンジの有無を判定することができる。
 この実施の形態1では、符号化映像ストリームが画像処理装置のピクチャ選択部1に与えられる例を示しているが、符号化映像ストリームを格納するメディア伝送ストリームが画像処理装置に与えられることがある。
 この場合、図9に示すように、メディア伝送ストリームから符号化映像ストリームを取り出して、符号化映像ストリームをピクチャ選択部1に出力するデマルチプレクサ5を備えるようにしてもよい。
 図9は、この発明の実施の形態1による他の画像処理装置を示す構成図である。
 メディア伝送ストリームとしては、例えば、MPEG-2 TS(ISO/IEC 13818-1/ITU-T H.222.0のTransport Stream)、あるいは、MMT(ISO/IEC 23008-1)などのメディア伝送フォーマットでパケット化されているメディア伝送ストリームなどが想定される。
 デマルチプレクサ5は、与えられたメディア伝送ストリームのヘッダ情報から、各々のアクセスユニットの間の区切り、NALユニットの種類及びサイズを知ることができる。
 デマルチプレクサ5が、各々のアクセスユニットの間の区切りを示す情報をピクチャ選択部1に与えるようにすれば、ピクチャ選択部1では、デマルチプレクサ5から与えられた情報に基づいて、符号化映像ストリームの中から所望のピクチャを選択することができる。
 また、デマルチプレクサ5が、NALユニットの種類及びサイズを示す情報を特徴量算出部2に与えるようにすれば、特徴量算出部2では、評価対象ピクチャにおけるシンタックスの復号処理を実施することなく、上記評価対象ピクチャの符号量を特定することができる。
 この実施の形態1では、特徴量算出部2が、処理ブロックの符号量Sn,tの算出処理において、ピクチャ全体の処理ブロックを対象とする例を示している。
 これは一例に過ぎず、特徴量算出部2の処理負荷を軽減するために、処理ブロックの符号量Sn,tの算出処理において、ピクチャ内の一部の処理ブロックだけを対象とするようにしてもよい。
 具体的には、図10に示すように、行方向及び列方向のそれぞれで、1つおきの処理ブロックだけを対象とするようにしてもよい。
 図10は、ピクチャを構成する処理ブロックのうち、符号量を特定する処理ブロックを示す説明図である。
 図10において、“1”が記述されている処理ブロックは、符号量を特定する処理ブロックであり、“0”が記述されている処理ブロックは、符号量を特定しない処理ブロックである。
 また、図11に示すように、1行おきの処理ブロック、あるいは、1列おきの処理ブロックだけを対象とするようにしてもよい。
 図11は、ピクチャを構成する処理ブロックのうち、符号量を特定する処理ブロックを示す説明図である。
 図11において、“1”が記述されている処理ブロックは、符号量を特定する処理ブロックであり、“0”が記述されている処理ブロックは、符号量を特定しない処理ブロックである。
 図12に示すように、処理ブロックの符号量Sn,tの算出処理において、ピクチャの左上の処理ブロックからラスタスキャン順に特定の処理ブロックまでを対象とし、残りの処理ブロックは対象としないようにしてもよい。
 図12は、ピクチャを構成する処理ブロックのうち、符号量を特定する処理ブロックを示す説明図である。
 図12において、“1”が記述されている処理ブロックは、符号量を特定する処理ブロックであり、“0”が記述されている処理ブロックは、符号量を特定しない処理ブロックである。
 なお、図10から図12において、“1”が記述されている処理ブロックと、“0”が記述されている処理ブロックとが逆であってもよい。
実施の形態2.
 上記実施の形態1では、特徴量算出部2が、符号化ブロックの符号化データを復号して、符号化データの復号結果から処理ブロックの符号量を特定し、処理ブロックの符号量から、処理ブロックの特徴量を算出する例を示している。
 この実施の形態2では、特徴量算出部2が、ピクチャ選択部1により選択されたピクチャ番号tのピクチャPの処理ブロック毎に、当該処理ブロックの特徴量Cn,tとして、当該処理ブロックに含まれている分割ブロックの個数を用いるようにしてもよい。
 当該処理ブロックに含まれている分割ブロックの個数は、当該処理ブロックに属する各符号化ブロックに含まれている分割ブロックの個数を加算することで算出される。
 符号化ブロックに含まれている分割ブロックの個数は、例えば、符号化方式がAVC/H.264であれば、マクロブロックタイプ(mb_type)で決まるマクロブロック内のブロック数に相当する。マクロブロック内のブロック数は、評価対象ピクチャにおけるシンタックスの復号処理を実施することで得られる。
 符号化方式がHEVC/H.265であれば、符号化ブロックであるCTU内のCU(Coding Unit)の数に相当する。CTU内のCUの数は、評価対象ピクチャにおけるシンタックスの復号処理を実施することで得られる。
 処理ブロックの特徴量として、当該処理ブロックに含まれている分割ブロックの個数を特定する場合、特徴量算出部2が、処理ブロックの特徴量を算出する際に符号量を正規化する処理が不要になり、特徴量算出部2の処理負荷が軽減される。
実施の形態3.
 上記実施の形態1では、特徴量算出部2が、符号化ブロックの符号化データを復号して、符号化データの復号結果から処理ブロックの符号量を特定し、処理ブロックの符号量から、処理ブロックの特徴量を算出する例を示している。
 この実施の形態3では、特徴量算出部2が、ピクチャ選択部1により選択されたピクチャ番号tのピクチャPの処理ブロック毎に、当該処理ブロックの特徴量Cn,tとして、当該処理ブロックにおける分割ブロックの最深の階層数を用いるようにしてもよい。
 当該処理ブロックにおける分割ブロックの最深の階層数は、当該処理ブロックに属する各符号化ブロックにおける分割ブロックの最深の階層数の最大値を求めることで算出される。
 符号化ブロックにおける分割ブロックの最深の階層数は、例えば、符号化方式がHEVC/H.265であれば、図13に示すように、符号化ブロックであるCTUに含まれている複数のCUのうち、分割の階層が最も深い数に相当する。
 図13は、符号化ブロックにおける分割ブロックの階層数を示す説明図である。
 図13の例では、CU depthの最大値が3であるため、符号化ブロックにおける分割ブロックの最深の階層数は、3である。
 分割ブロックの最深の階層数は、評価対象ピクチャにおけるシンタックスの復号処理を実施することで得られる。
 処理ブロックの特徴量として、当該処理ブロックにおける分割ブロックの最深の階層数を特定する場合、特徴量算出部2が、処理ブロックの特徴量を算出する際に符号量を正規化する処理が不要になり、特徴量算出部2の処理負荷が軽減される。
実施の形態4.
 上記実施の形態1では、評価値算出部3が、特徴量算出部2により算出された参照ピクチャPtpにおける処理ブロック単位の特徴量Cn,tpと、評価対象ピクチャPtcにおける処理ブロック単位の特徴量Cn,tcとから、評価値Jを算出する例を示している。
 この実施の形態4では、評価値算出部3が、ピクチャ番号t=tpの参照ピクチャPtpにおける処理ブロック単位の特徴量Cn,tpと、ピクチャ番号t=tcの評価対象ピクチャPtcにおける処理ブロック単位の特徴量Cn,tcと、候補ピクチャの中で参照ピクチャPtpよりも再生時刻的に1つ前のピクチャ番号t=tp’の二次参照ピクチャPtp’における処理ブロック単位の特徴量Cn,tp’とから、評価値Jを算出する例を説明する。
 なお、二次参照ピクチャPtp’は参照ピクチャPtpの参照ピクチャ、即ち、参照ピクチャPtpが評価対象ピクチャPtcであったときの参照ピクチャPtpである。したがって、3つのピクチャの再生時刻的位置関係はtp’<tp<tcである。ただし、一般に、GOP毎のピクチャ数は、可変でも良いことから、図6の候補ピクチャの例において、tp’、tp、tcの各候補ピクチャの間隔(tc-tp、tp-tp’)は、異なる可能性がある。
 二次参照ピクチャPtp’が再生順で1番目のピクチャであるとすると、参照ピクチャPtpが再生順で2番目のピクチャであり、評価対象ピクチャPtcが再生順で3番目のピクチャである。
 次に動作について説明する。
 この実施の形態4では、上記実施の形態1と同様に、図4のフローチャートに従って処理されるが、処理内容は、下記に説明する処理に変更となる。
 ピクチャ選択部1は、上記実施の形態1と同様に、複数のピクチャの符号化データが含まれている符号化映像ストリームを取得する。
 ピクチャ選択部1は、符号化データが符号化映像ストリームに含まれている複数のピクチャの中から、予め定義された候補ピクチャの決定方法に従って候補ピクチャを決定し、候補ピクチャの中から、上記実施の形態1と同様に、参照ピクチャPtp及び評価対象ピクチャPtcを選択する。
 また、ピクチャ選択部1は、候補ピクチャの中から、二次参照ピクチャPtp’を選択する。即ち、図4のステップST1では、評価対象ピクチャと参照ピクチャに加えて、二次参照ピクチャも選択する。
 特徴量算出部2は、上記実施の形態1と同様に、ピクチャ選択部1により選択されたピクチャ毎に、当該評価対象ピクチャに含まれる符号化ブロック単位の符号化データから、処理ブロック単位の特徴量をそれぞれ算出する(図4のステップST2)。
 即ち、特徴量算出部2は、参照ピクチャPtpに含まれる処理ブロック単位の特徴量Cn,tpと、評価対象ピクチャPtcに含まれる処理ブロック単位の特徴量Cn,tcとを算出する。
 また、特徴量算出部2は、二次参照ピクチャPtp’に含まれる処理ブロック単位の特徴量Cn,tp’を算出する。
 評価値算出部3は、特徴量算出部2により算出された参照ピクチャPtpに含まれる処理ブロック単位の特徴量Cn,tpと、評価対象ピクチャPtcに含まれる処理ブロック単位の特徴量Cn,tcと、二次参照ピクチャPtp’に含まれる処理ブロック単位の特徴量Cn,tp’とから、評価値Jを算出する(図4のステップST3)。
 具体的には、評価値算出部3は、参照ピクチャPtpと評価対象ピクチャPtcとの間での処理ブロック単位の特徴量の差分絶対値和を算出する。
 また、評価値算出部3は、参照ピクチャPtpと二次参照ピクチャPtp’との間での処理ブロック単位の特徴量の差分絶対値和を算出する。
 評価値算出部3は、評価値Jとして、以下の式(3)に示すように、算出した双方の差分絶対値和の差分を算出する。
Figure JPOXMLDOC01-appb-I000003
 ここで、MIN_NUM_BL’は、NUM_BLtp’、NUM_BLtp、NUM_BLtcの3つの値の最小値である。即ち、二次参照ピクチャPtp’と参照ピクチャPtpと評価対象ピクチャPtcの処理ブロック数が全て同じでない場合、3つのピクチャ共通で特徴量を算出している処理ブロックのみが評価値Jの算出対象となる。
 評価値算出部3により算出された評価値Jは、二次参照ピクチャPtp’と参照ピクチャPtpの間で絵柄があまり変化せずに処理ブロック単位の特徴量の変化が小さくなり、さらに、参照ピクチャPtpと評価対象ピクチャPtcの間で絵柄が大きく変化して処理ブロック単位の特徴量の変化が大きくなる場合、値が大きくなる。
 したがって、上記実施の形態1~3では、参照ピクチャPtpと評価対象ピクチャPtcの間の絵柄の変化の大きさを評価していたが、この実施の形態4では、参照ピクチャPtpにおける絵柄の変化の程度と評価対象ピクチャPtcにおける絵柄の変化の程度の差異の大きさを評価するようにしたので、シーンチェンジではないピクチャ間での緩やかな絵柄の変化を、画面全体の絵柄が大きく変化するシーンチェンジと誤検出する可能性を低減し、上記実施の形態1~3よりも、シーンチェンジの検出精度を高めることができる。
 また、処理ブロック単位の特徴量の算出対象となる処理ブロックの定義方法は、上記実施の形態1と同様(ピクチャ内全ての処理ブロック、図10~12のような一部の処理ブロック等)に任意に定義できる。
 有無判定部4は、上記実施の形態1と同様に、評価値算出部3により算出された評価値Jと、事前に設定された閾値Thとを比較する(図4のステップST4)。
 有無判定部4は、上記実施の形態1と同様に、評価値算出部3により算出された評価値Jが閾値Th以上であれば、参照ピクチャPtpと評価対象ピクチャPtcとの間にシーンチェンジが有ると判定する(図4のステップST5)。
 有無判定部4は、上記実施の形態1と同様に、評価値算出部3により算出された評価値Jが閾値Th未満であれば、参照ピクチャPtpと評価対象ピクチャPtcとの間にシーンチェンジが無いと判定する(図4のステップST6)。
 有無判定部4は、シーンチェンジの有無の判定結果を出力する。
 また、閾値Thの設定方法は、上記実施の形態1と同様である。
 ピクチャ選択部1により決定された候補ピクチャの中に、未だ評価対象ピクチャとして選択していないピクチャが残っていれば(図4のステップST7:YESの場合)、ステップST1の処理に戻り、ステップST1~ST7の処理が繰り返される。
 なお、戻ったステップST1の処理で、ピクチャ選択部1により選択された3つのピクチャのうち、特徴量が既に算出されているピクチャについては、特徴量算出部2による特徴量の算出処理を省略するようにしてもよい。このようにすることで、特徴量の再計算を実施せずに済み、処理時間を短縮することができる。
 ピクチャ選択部1により決定された候補ピクチャの中に、未だ評価対象ピクチャとして選択していないピクチャが残っていなければ(図4のステップST7:NOの場合)、一連の処理が終了する。
実施の形態5.
 上記実施の形態1~4では、評価値算出部3が、式(2)又は式(3)を用いて、特徴量算出部2により算出された処理ブロック単位の特徴量Cn,tから、評価値Jを算出する例を示している。
 この実施の形態5では、評価値算出部3が、評価値Jを算出する際に、処理ブロック単位の特徴量Cn,tと、当該処理ブロックに対応する重み係数wとを用いて、評価値Jを算出する例を説明する。
 この実施の形態5では、式(2)を以下の式(4)に変更する。あるいは、式(3)を以下の式(5)に変更する。
 評価値算出部3は、処理ブロック単位の特徴量Cn,tである特徴量Cn,tc及び特徴量Cn,tpと、重み係数wとを式(4)に代入することで、評価値Jを算出する。
 あるいは、評価値算出部3は、処理ブロック単位の特徴量Cn,tである特徴量Cn,tc、特徴量Cn,tp及び特徴量Cn,tp’と、重み係数wとを式(5)に代入することで、評価値Jを算出する。

Figure JPOXMLDOC01-appb-I000004
 式(4)及び式(5)において、特徴量Cn,tcは、評価対象ピクチャPtcにおけるブロック番号nの処理ブロックの特徴量であり、特徴量Cn,tpは、参照ピクチャPtpにおけるブロック番号nの処理ブロックの特徴量である。
 また、特徴量Cn,tp’は、二次参照ピクチャPtp’におけるブロック番号nの処理ブロックの特徴量である。
 wは、特徴量Cn,tcと特徴量Cn,tpとの差分絶対値に乗算する重み係数、あるいは、特徴量Cn,tpと特徴量Cn,tp’との差分絶対値に乗算する重み係数である。
 式(4)は、以下の式(6)のように変形することができる。また、式(5)は、以下の式(7)のように変形することができる。

Figure JPOXMLDOC01-appb-I000005
 したがって、評価値算出部3は、式(6)又は式(7)を用いて、評価値Jを算出することができる。
 評価値算出部3が、式(6)を用いて、評価値Jを算出する場合、評価値算出部3が、差分絶対値に重み係数wを乗算する代わりに、特徴量算出部2が、特徴量Cn,tc及び特徴量Cn,tpのそれぞれに重み係数wを乗算する。
 評価値算出部3が、式(7)を用いて、評価値Jを算出する場合、評価値算出部3が、差分絶対値に重み係数wを乗算する代わりに、特徴量算出部2が、特徴量Cn,tc、特徴量Cn,tp及び特徴量Cn,tp’のそれぞれに重み係数wを乗算する。
 具体的には、評価値算出部3が式(6)を用いて、評価値Jを算出する場合、特徴量算出部2は、式(1)の定数Mを以下の式(8)に示す変数M’に置き換えた上で、式(1)を用いて、特徴量Cn,tc及び特徴量Cn,tpのそれぞれを算出する。
 特徴量算出部2は、算出した特徴量Cn,tc及び特徴量Cn,tpを評価値算出部3に出力する。
 特徴量算出部2から出力された特徴量Cn,tcは、式(6)に示すwn,tcに相当し、特徴量算出部2から出力された特徴量Cn,tpは、式(6)に示すwn,tpに相当する。

Figure JPOXMLDOC01-appb-I000006
 評価値算出部3が式(7)を用いて、評価値Jを算出する場合、特徴量算出部2は、式(1)の定数Mを式(8)に示す変数M’に置き換えた上で、式(1)を用いて、特徴量Cn,tc、特徴量Cn,tp及び特徴量Cn,tp’のそれぞれを算出する。
 特徴量算出部2は、算出した特徴量Cn,tc、特徴量Cn,tp及び特徴量Cn,tp’を評価値算出部3に出力する。
 特徴量算出部2から出力された特徴量Cn,tcは、式(7)に示すwn,tcに相当し、特徴量算出部2から出力された特徴量Cn,tpは、式(7)に示すwn,tpに相当する。また、特徴量算出部2から出力された特徴量Cn,tp’は、式(7)に示すwn,tp’に相当する。
 評価値算出部3は、特徴量算出部2から出力された特徴量Cn,tcをwn,tc、特徴量算出部2から出力された特徴量Cn,tpをwn,tpとして式(6)に代入することで、評価値Jを算出する。
 あるいは、評価値算出部3は、特徴量算出部2から出力された特徴量Cn,tcをwn,tc、特徴量算出部2から出力された特徴量Cn,tpをwn,tp、特徴量算出部2から出力された特徴量Cn,tp’をwn,tp’として式(7)に代入することで、評価値Jを算出する。
 ここで、処理ブロック毎の重み係数wは、処理ブロックの重要度を示すものであり、重み係数wの値が大きい処理ブロックほど、シーンチェンジを検出するに際して、重要な処理ブロックであることを意味している。
 したがって、処理ブロック毎の重み係数wは、検出したいシーンの変化パターンにおいて、絵柄の変化が不連続または変化が急峻となりやすい処理ブロック程、大きな値になるように設計されていればよい。
 以下、重み係数wの具体例を挙げる。
 以下の式(9)に示すように、処理ブロックの2次元座標(X,Y)を変数とする関数h(X,Y)で、重み係数wを定義する。

Figure JPOXMLDOC01-appb-I000007

 例えば、ピクチャに含まれる複数の処理ブロックが、図16のように表される場合、(X,Y)は、ブロック番号nの処理ブロックの2次元座標(X:水平方向(x)成分、Y:垂直方向(y)成分)を示している。
 図16は、処理ブロックの水平方向と垂直方向の座標を示す説明図である。
 図16の例では、左上の処理ブロック(0,0)を基準の処理ブロックとしており、基準の処理ブロックの2次元座標は、(X,Y)である。
 例えば、処理ブロック(5,1)の2次元座標は、(X,Y)であり、処理ブロック(2,3)の2次元座標は、(X21,Y21)である。
 例えば、シーンチェンジを、「画面の中央部分に移る被写体が不連続に変化することである」と定義する場合、以下の式(10)に示す関数h(x,y)で表される重み係数wは、画面中央に近い処理ブロック程、値が大きくなるように設定される。

Figure JPOXMLDOC01-appb-I000008
 式(10)において、Wは、ピクチャ全体を処理ブロックで分割したときの水平方向の処理ブロック数、Hは、ピクチャ全体を処理ブロックで分割したときの垂直方向の処理ブロック数、A、A、L、Lは、それぞれ正の定数である。さらに、A、Aは、それぞれx成分、y成分の重みのスケーリング値の役割を持っており、値が大きいほど、画面中央からの距離が離れたときの重みの低減比率が高くなる。
 f(x)は、任意の単調増加関数である。f(x)の例として、以下の式(11)又は式(12)で表される関数が考えられる。
Figure JPOXMLDOC01-appb-I000009
 式(11)及び式(12)において、a及びbは、それぞれ正の定数である。
 例えば、W=6、H=4として、ピクチャに含まれる複数の処理ブロックが、図16のように表され、単調増加関数f(x)が、式(11)で表される関数であるとする。
 このとき、例えば、a1=a2=1、A=1、A=1、L=(W/2)-1=2、L=(H/2)-1=1であれば、図17のように、画面中心の処理ブロックの重み係数が、最も大きいw=1となり、画面中心から離れている処理ブロックの重み係数ほど、小さい重み係数となる。一方、L、Lの値を小さい値とする。例えばa1=a2=1、A=1、A=1、L=1、L=1とすれば、各々の処理ブロックの重み係数wは、図18のように、画面中央部分で重み係数がw=1となり、重み係数が大きい処理ブロックの数が、図17の場合よりも増加する。
 図17及び図18は、処理ブロック毎の重みwの一例を示す説明図である。
 図17では、例えば、処理ブロック(5,0)の重み係数wは、1/√6、処理ブロック(1,1)の重み係数wは、1/√2、処理ブロック(3,1)の重み係数wは、1である。
 図18では、例えば、処理ブロック(5,0)の重み係数wは、1/√3、処理ブロック(1,1)及び処理ブロック(3,1)の重み係数wは、1である。
 また、式(10)について、f(x)が、式(11)で表される関数であり、a1=a2=1、L=(W/2)-1、L=(H/2)-1の場合、式(10)は、式(13)のように変形できる。これによって、x、yの値に応じた場合分けが不要となる。
Figure JPOXMLDOC01-appb-I000010
 また、重み係数wは、式(10)に示す関数h(x,y)の代わりに、以下の式(14)に示す関数h(x,y)としてもよい。
Figure JPOXMLDOC01-appb-I000011
 重み係数wを式(14)に示す関数h(x,y)で表す場合、二乗の計算及び平方根の計算がないため、重み係数wを式(10)に示す関数h(x,y)で表す場合よりも、計算負荷を下げることができる。
式(10)の例と同様に、例えば、a=a=1、L=(W/2)-1、L=(H/2)-1であれば、画面中心の処理ブロックの重み係数が、最も大きいw=1となり、画面中心から離れている処理ブロックの重み係数ほど、小さい重み係数となる。一方、L、Lの値を小さい値とする。例えばa=a=1、L=1、L=1とすれば、各々の処理ブロックの重み係数wは、画面中央部分で重み係数がw=1となり、重み係数が大きい処理ブロックの数が増加する。
 また、式(14)について、f(x)が、式(11)で表される関数であり、a1=a2=1、L=(W/2)-1、L=(H/2)-1の場合、式(14)は、式(15)のように変形できる。これによって、x、yの値に応じた場合分けが不要となる。
Figure JPOXMLDOC01-appb-I000012
 さらに、式(10)及び式(14)の計算負荷を削減するため、x成分、y成分の重みのスケーリング値を意味するA、Aは、それぞれ式(16)及び式(17)に示すように、シフト演算としてもよい。このようにすることで、スケーリングの精度は、整数精度となるが、スケーリング処理は、ビットシフトで演算可能となる。
Figure JPOXMLDOC01-appb-I000013

Figure JPOXMLDOC01-appb-I000014
 ここで、B、Bは、シフト量を示し、値が大きいほど、画面中央からの距離が離れたときの重みの低減比率が高くなる。さらに、式(16)及び式(17)では、左シフトするように定義したが、式(18)及び式(19)に示すように、それぞれ右シフトを用いるようにしてもよい。
Figure JPOXMLDOC01-appb-I000015

Figure JPOXMLDOC01-appb-I000016
 式(18)及び式(19)は、式(16)及び式(17)と同様に、B、Bは、シフト量を示すが、値が大きいほど、画面中央からの距離が離れたときの重みの低減比率が低くなる点で、式(16)及び式(17)と異なる。
 また、上記で説明した「A、AをB、Bによるシフト演算とすること」は、式(13)及び式(15)にも適用できる。
 また、図12に示すように、処理ブロックの符号量Sn,tの算出処理において、ピクチャを構成する処理ブロックのうち、ピクチャの左上の処理ブロックからラスタスキャン順に特定の処理ブロックまでを算出対象とする。そして、残りの処理ブロックについては、算出対象としないようにする場合、あるいは、復号処理時間等の制約で符号量Sn,tの算出処理を行える処理ブロックの数がピクチャ毎に変化する場合、LとLは、評価値Jの算出単位に可変としてもよい。
 例えば、符号量Sn,tの算出処理を実施できた最後の処理ブロックの2次元座標を(XMIN_NUM_BL,YMIN_NUM_BL)(あるいは(XMIN_NUM_BL’,YMIN_NUM_BL’))とした場合、Lは、(W/2)-1に固定する。一方、Lは、YMIN_NUM_BL(あるいはYMIN_NUM_BL’)が(H/2)-1より小さい場合、L=YMIN_NUM_BL(あるいはYMIN_NUM_BL’)とし、それ以外は、L=(H/2)-1とする。これによって、評価値Jを算出する際のMIN_NUM_BL(あるいはMIN_NUM_BL’)が小さい場合において、L=(H/2)-1で固定した場合よりも、それぞれの処理ブロックの重み係数wが大きくなって評価値Jの値が大きくなるため、有無判定部4でのシーンチェンジ検出感度を高くすることができる。
 上記では、シーンチェンジを、「画面の中央部分に移る被写体が不連続に変化することである」と定義したが、シーンチェンジを、「画面の背景が不連続に変化することである」と定義するようにしてもよい。
 シーンチェンジを、「画面の背景が不連続に変化することである」と定義する場合、重み係数wは、背景が写りやすい画面端に近い処理ブロック程、値が大きくなるように設定される。
 シーンチェンジを、「画面の背景が不連続に変化することである」と定義する場合、重み係数wは、式(10)に示す関数h(x,y)の代わりに、以下の式(20)に示す関数h(x,y)で表すことができる。
Figure JPOXMLDOC01-appb-I000017
 あるいは、重み係数wは、式(14)に示す関数h(x,y)の代わりに、以下の式(21)に示す関数h(x,y)で表すことができる。
Figure JPOXMLDOC01-appb-I000018
 有無判定部4での閾値Thの設定方法は、上記実施の形態1と同様として良い。さらに、他の例として、MIN_NUM_BL(またはMIN_NUM_BL’)が評価対象ピクチャPtc毎に変わる場合、閾値Thを重み係数wから求まる式(22)で算出するようにしても良い。このようにすることで、評価対象ピクチャPtc毎のMIN_NUM_BL(またはMIN_NUM_BL’)の変動による評価値Jの取りうる最大値の変動を加味した閾値が設定されることとなり、高精度なシーンチェンジ検出処理を実現できる。
Figure JPOXMLDOC01-appb-I000019
ただし、Th_Baseは、閾値Thの基準値となる予め設定する0より大きい定数である。また、評価値Jの算出にMIN_NUM_BL’を用いる場合は、式(22)のMIN_NUM_BLをMIN_NUM_BL’に置き換える。
 さらに、本方法を上記実施の形態1に記載の方法と組み合わせた方法でもよい。例えば、本方法とストリームの符号量推移に従って適応的に閾値Thを算出する方法とを組み合わせた方法等である。この場合、ストリームの符号量推移に従って適応的に算出する閾値ThをTh_Baseに置き換えることで実現できる。
実施の形態6.
 上記実施の形態5では、処理ブロック毎の重み係数wを用いて、評価値Jを算出する例を示している。
 この実施の形態6では、符号化ブロック毎の重み係数wを用いて、評価値Jを算出する例を説明する。
 まず、特徴量算出部2は、処理ブロック毎の重み係数wの代わりに、符号化ブロック毎の重み係数wを取得する。mは、ラスタスキャン順に番号付けされた符号化ブロックのブロック番号を示す変数であり、wは、ブロック番号mの符号化ブロックについての重み係数である。
 特徴量算出部2は、式(1)の定数Mを以下の式(23)に示す変数M’に置き換えた上で、式(1)を用いて、ブロック番号mの符号化ブロックにおける特徴量Cm,tc及び特徴量Cm,tpのそれぞれを算出、あるいは、特徴量Cm,tc、特徴量Cm,tp及び特徴量Cm,tp’のそれぞれを算出する。
Figure JPOXMLDOC01-appb-I000020
 特徴量算出部2は、変数M’を用いて、特徴量Cm,t(Cm,tc、m,tp、あるいは、Cm,tp’)を算出する場合、式(1)におけるブロック番号nの処理ブロックの符号量Sn,tの代わりに、ブロック番号mの符号化ブロックの符号量を用いる。
 特徴量算出部2は、算出した特徴量Cm,tc及び特徴量Cm,tpを評価値算出部3に出力する。
 あるいは、特徴量算出部2は、算出した特徴量Cm,tc、特徴量Cm,tp及び特徴量Cm,tp’を評価値算出部3に出力する。
 評価値算出部3は、式(6)において、wn,tcの代わりにCm,tcを用い、wn,tpの代わりにCm,tpを用いて、評価値Jを算出する。
 あるいは、評価値算出部3は、式(7)において、wn,tcの代わりにCm,tcを用い、wn,tpの代わりにCm,tpを用い、wn,tp’の代わりにCm,tp’を用いて、評価値Jを算出する。
 この実施の形態6では、符号化ブロック毎の重み係数wを用いて、評価値Jを算出するようにしているので、処理ブロックよりも細かい符号化ブロック単位で、各領域の重要度を調節することができ、シーンチェンジの検出性能を高めることができる。
 なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 この発明は、シーンの変化点であるシーンチェンジの有無を判定する画像処理装置及び画像処理方法に適している。
 1 ピクチャ選択部、2 特徴量算出部、3 評価値算出部、4 有無判定部、5 デマルチプレクサ、11 ピクチャ選択回路、12 特徴量算出回路、13 評価値算出回路、14 有無判定回路、21 メモリ、22 プロセッサ。

Claims (11)

  1.  複数のピクチャの中から、シーンの変化点であるシーンチェンジの有無を評価する対象のピクチャとして、2つのピクチャを選択するピクチャ選択部と、
     前記ピクチャ選択部により選択された2つのピクチャのそれぞれについて、ピクチャに含まれるブロック単位の特徴量をそれぞれ算出する特徴量算出部と、
     前記特徴量算出部により算出された2つのピクチャに含まれるブロック単位の特徴量から、シーンチェンジの有無の判定に用いる評価値を算出する評価値算出部と、
     前記評価値算出部により算出された評価値と閾値を比較することで、前記2つのピクチャの間でのシーンチェンジの有無を判定する有無判定部とを備え、
     前記特徴量算出部は、前記ピクチャ選択部により選択されたピクチャのブロック毎に、当該ブロックの符号量又は当該ブロックに含まれている分割ブロックの最深の階層数から、当該ブロックの特徴量を算出することを特徴とする画像処理装置。
  2.  前記特徴量算出部は、前記ピクチャ選択部により選択されたピクチャのブロック毎に、当該ブロックの符号量を特定し、当該ブロックの符号量を当該ピクチャ全体の符号量で除算することで、当該ブロックの特徴量を算出することを特徴とする請求項1記載の画像処理装置。
  3.  前記特徴量算出部は、前記ピクチャ選択部により選択されたピクチャのブロック毎に、当該ブロックに含まれている分割ブロックの最深の階層数を特定し、前記階層数を当該ブロックの特徴量とすることを特徴とする請求項1記載の画像処理装置。
  4.  前記評価値算出部は、シーンチェンジの有無の判定に用いる評価値として、前記特徴量算出部により算出された2つのピクチャの間でのブロック単位の特徴量の差分絶対値和を算出することを特徴とする請求項1記載の画像処理装置。
  5.  前記ピクチャ選択部は、シーンチェンジの有無を評価する対象のピクチャとして、3つのピクチャを選択し、
     前記特徴量算出部は、前記ピクチャ選択部により選択された3つのピクチャのそれぞれについて、ピクチャに含まれるブロック単位の特徴量をそれぞれ算出し、
     前記評価値算出部は、前記特徴量算出部によりブロック単位の特徴量が算出された3つのピクチャのうち、再生順で、2番目のピクチャと3番目のピクチャとの間でのブロック単位の特徴量の差分絶対値和を算出するとともに、再生順で、1番目のピクチャと2番目のピクチャとの間でのブロック単位の特徴量の差分絶対値和を算出し、シーンチェンジの有無の判定に用いる評価値として、算出した双方の差分絶対値和の差分を算出し、
     前記有無判定部は、前記評価値算出部により算出された評価値と閾値を比較することで、再生順で、2番目のピクチャと3番目のピクチャとの間でのシーンチェンジの有無を判定することを特徴とする請求項1記載の画像処理装置。
  6.  前記評価値算出部は、シーンチェンジの有無の判定に用いる評価値として、
     前記特徴量算出部により算出された2つのピクチャの間でのブロック単位の特徴量の差分絶対値に対して、当該ブロックに対応する重み係数をそれぞれ乗算して、それぞれ重み係数を乗算したブロック単位の差分絶対値の総和を算出することを特徴とする請求項1記載の画像処理装置。
  7.  前記特徴量算出部は、前記ピクチャ選択部により選択された2つのピクチャの間でのブロック単位の特徴量に対して、当該ブロックに対応する重み係数をそれぞれ乗算し、前記2つのピクチャの間でのブロック単位の特徴量として、それぞれ重み係数を乗算した特徴量を出力し、
     前記評価値算出部は、シーンチェンジの有無の判定に用いる評価値として、前記特徴量算出部から出力された2つのピクチャの間でのブロック単位の特徴量の差分絶対値和を算出することを特徴とする請求項1記載の画像処理装置。
  8.  前記ピクチャ選択部は、シーンチェンジの有無を評価する対象のピクチャとして、3つのピクチャを選択し、
     前記特徴量算出部は、前記ピクチャ選択部により選択された3つのピクチャのそれぞれについて、ピクチャに含まれるブロック単位の特徴量をそれぞれ算出し、
     前記評価値算出部は、前記特徴量算出部によりブロック単位の特徴量が算出された3つのピクチャのうち、再生順で、2番目のピクチャと3番目のピクチャとの間でのブロック単位の特徴量の差分絶対値に対して、当該ブロックに対応する重み係数をそれぞれ乗算して、それぞれ重み係数を乗算したブロック単位の差分絶対値の総和を算出するとともに、再生順で、1番目のピクチャと2番目のピクチャとの間でのブロック単位の特徴量の差分絶対値に対して、当該ブロックに対応する重み係数をそれぞれ乗算して、それぞれ重み係数を乗算したブロック単位の差分絶対値の総和を算出し、シーンチェンジの有無の判定に用いる評価値として、算出した双方の差分絶対値の総和の差分を算出し、
     前記有無判定部は、前記評価値算出部により算出された評価値と閾値を比較することで、再生順で、2番目のピクチャと3番目のピクチャとの間でのシーンチェンジの有無を判定することを特徴とする請求項1記載の画像処理装置。
  9.  前記ピクチャ選択部は、シーンチェンジの有無を評価する対象のピクチャとして、3つのピクチャを選択し、
     前記特徴量算出部は、前記ピクチャ選択部により選択された3つのピクチャのそれぞれについて、ピクチャに含まれるブロック単位の特徴量をそれぞれ算出して、それぞれ算出したブロック単位の特徴量に対して、当該ブロックに対応する重み係数をそれぞれ乗算し、前記ピクチャに含まれるブロック単位の特徴量として、それぞれ重み係数を乗算した特徴量を出力し、
     前記評価値算出部は、前記特徴量算出部からブロック単位の特徴量が出力された3つのピクチャのうち、再生順で、2番目のピクチャと3番目のピクチャとの間でのブロック単位の特徴量の差分絶対値和を算出するとともに、再生順で、1番目のピクチャと2番目のピクチャとの間でのブロック単位の特徴量の差分絶対値和を算出し、シーンチェンジの有無の判定に用いる評価値として、算出した双方の差分絶対値和の差分を算出し、
     前記有無判定部は、前記評価値算出部により算出された評価値と閾値を比較することで、再生順で、2番目のピクチャと3番目のピクチャとの間でのシーンチェンジの有無を判定することを特徴とする請求項1記載の画像処理装置。
  10.  ピクチャ選択部が、複数のピクチャの中から、シーンチェンジの有無を評価する対象のピクチャとして、2つのピクチャを選択し、
     特徴量算出部が、前記ピクチャ選択部により選択された2つのピクチャのそれぞれについて、ピクチャに含まれるブロック単位の特徴量をそれぞれ算出し、
     評価値算出部が、前記特徴量算出部により算出された2つのピクチャに含まれるブロック単位の特徴量から、シーンチェンジの有無の判定に用いる評価値を算出し、
     有無判定部が、前記評価値算出部により算出された評価値と閾値を比較することで、前記2つのピクチャの間でのシーンチェンジの有無を判定するものであり、
     前記特徴量算出部が、前記ピクチャ選択部により選択されたピクチャのブロック毎に、当該ブロックの符号量又は当該ブロックに含まれている分割ブロックの最深の階層数から、当該ブロックの特徴量を算出することを特徴とする画像処理方法。
  11.  前記ピクチャ選択部は、シーンチェンジの有無を評価する対象のピクチャとして、3つのピクチャを選択し、
     前記特徴量算出部は、前記ピクチャ選択部により選択された3つのピクチャのそれぞれについて、ピクチャに含まれるブロック単位の特徴量をそれぞれ算出し、
     前記評価値算出部は、前記特徴量算出部によりブロック単位の特徴量が算出された3つのピクチャのうち、再生順で、2番目のピクチャと3番目のピクチャとの間でのブロック単位の特徴量の差分絶対値和を算出するとともに、再生順で、1番目のピクチャと2番目のピクチャとの間でのブロック単位の特徴量の差分絶対値和を算出し、シーンチェンジの有無の判定に用いる評価値として、算出した双方の差分絶対値和の差分を算出し、
     前記有無判定部は、前記評価値算出部により算出された評価値と閾値を比較することで、再生順で、2番目のピクチャと3番目のピクチャとの間でのシーンチェンジの有無を判定することを特徴とする請求項10記載の画像処理方法。
PCT/JP2018/013789 2017-10-24 2018-03-30 画像処理装置及び画像処理方法 WO2019082413A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018550470A JP6782789B2 (ja) 2017-10-24 2018-03-30 画像処理装置及び画像処理方法
TW107127425A TWI673652B (zh) 2017-10-24 2018-08-07 影像處理裝置及影像處理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPPCT/JP2017/038339 2017-10-24
PCT/JP2017/038339 WO2019082268A1 (ja) 2017-10-24 2017-10-24 画像処理装置及び画像処理方法

Publications (1)

Publication Number Publication Date
WO2019082413A1 true WO2019082413A1 (ja) 2019-05-02

Family

ID=66247342

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2017/038339 WO2019082268A1 (ja) 2017-10-24 2017-10-24 画像処理装置及び画像処理方法
PCT/JP2018/013789 WO2019082413A1 (ja) 2017-10-24 2018-03-30 画像処理装置及び画像処理方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/038339 WO2019082268A1 (ja) 2017-10-24 2017-10-24 画像処理装置及び画像処理方法

Country Status (3)

Country Link
JP (1) JP6782789B2 (ja)
TW (1) TWI673652B (ja)
WO (2) WO2019082268A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06133305A (ja) * 1992-09-07 1994-05-13 Fujitsu Ltd 画像データ符号化方法、その方法を用いた画像データ符号化装置、画像データ復元方法、その方法を用いた画像データ復元装置、シーン変化検出方法、その方法を用いたシーン変化検出装置、シーン変化記録装置、及び画像データのシーン変化記録・再生装置
JPH07152779A (ja) * 1993-11-29 1995-06-16 Toshiba Corp 動画インデックス検出処理方法及び動画インデックス検出処理機能を持つ動画処理装置
JPH10294923A (ja) * 1997-04-18 1998-11-04 Matsushita Electric Ind Co Ltd シーンチェンジ検出方法およびシーンチェンジ検出装置
JP2016032285A (ja) * 2014-07-30 2016-03-07 Kddi株式会社 客観画質評価装置、客観画質評価方法、およびプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0636026A (ja) * 1992-07-13 1994-02-10 Toshiba Corp 動画像処理装置
JP2001251630A (ja) * 2000-03-06 2001-09-14 Nec Corp 画像信号符号化装置およびその方法
US7382417B2 (en) * 2004-12-23 2008-06-03 Intel Corporation Method and algorithm for detection of scene cuts or similar images in video images
JP4618166B2 (ja) * 2006-03-07 2011-01-26 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
TW200822739A (en) * 2006-11-10 2008-05-16 Benq Corp Method for chaptering an image datum according to scene change
JP4420056B2 (ja) * 2007-04-20 2010-02-24 ソニー株式会社 画像処理装置と画像処理方法および画像処理プログラム、並びに再生情報生成装置と再生情報生成方法及び再生情報生成プログラム
CN101681518B (zh) * 2007-05-21 2012-11-14 三菱电机株式会社 图像差检测方法和装置、场景转换检测方法和装置、以及图像差分检测方法和装置
US7859547B2 (en) * 2007-09-25 2010-12-28 Himax Technologies Limited Display parameter adjusting method and apparatus for scene change compensation
JP5191240B2 (ja) * 2008-01-09 2013-05-08 オリンパス株式会社 シーン変化検出装置およびシーン変化検出プログラム
JP5178616B2 (ja) * 2009-04-22 2013-04-10 三菱電機株式会社 シーンチェンジ検出装置および映像記録装置
JP2012142645A (ja) * 2009-04-28 2012-07-26 Mitsubishi Electric Corp 映像音声再生装置、映像音声記録再生装置、映像音声編集装置、映像音声再生方法、映像音声記録再生方法、および映像音声編集方法
JP2015216632A (ja) * 2014-04-22 2015-12-03 ソニー株式会社 符号化装置および符号化方法
JP6588745B2 (ja) * 2015-06-24 2019-10-09 日本放送協会 シーンチェンジ検出装置、及びそのプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06133305A (ja) * 1992-09-07 1994-05-13 Fujitsu Ltd 画像データ符号化方法、その方法を用いた画像データ符号化装置、画像データ復元方法、その方法を用いた画像データ復元装置、シーン変化検出方法、その方法を用いたシーン変化検出装置、シーン変化記録装置、及び画像データのシーン変化記録・再生装置
JPH07152779A (ja) * 1993-11-29 1995-06-16 Toshiba Corp 動画インデックス検出処理方法及び動画インデックス検出処理機能を持つ動画処理装置
JPH10294923A (ja) * 1997-04-18 1998-11-04 Matsushita Electric Ind Co Ltd シーンチェンジ検出方法およびシーンチェンジ検出装置
JP2016032285A (ja) * 2014-07-30 2016-03-07 Kddi株式会社 客観画質評価装置、客観画質評価方法、およびプログラム

Also Published As

Publication number Publication date
TWI673652B (zh) 2019-10-01
TW201917631A (zh) 2019-05-01
JP6782789B2 (ja) 2020-11-11
WO2019082268A1 (ja) 2019-05-02
JPWO2019082413A1 (ja) 2019-11-21

Similar Documents

Publication Publication Date Title
EP3389276B1 (en) Hash-based encoder decisions for video coding
JP6005157B2 (ja) 深度マップ符号化および復号化
JP6072678B2 (ja) 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム
US9367616B2 (en) Video descriptor generation device
WO2015139615A1 (en) Method for depth lookup table signaling in 3d video coding based on high efficiency video coding standard
TW201338559A (zh) 動態影像編碼裝置、動態影像編碼方法及動態影像編碼程式、以及動態影像解碼裝置、動態影像解碼方法及動態影像解碼程式
US20150146103A1 (en) Method and apparatus for processing video signal
JP2007124408A (ja) 動きベクトル検出装置および動きベクトル検出方法
EP2960854A1 (en) Method and device for determining a set of modifiable elements in a group of pictures
US20080112631A1 (en) Method of obtaining a motion vector in block-based motion estimation
JP2006148419A (ja) 画像符号化装置,画像符号化方法,画像符号化プログラムおよびコンピュータ読み取り可能な記録媒体
JP5178616B2 (ja) シーンチェンジ検出装置および映像記録装置
CA2871668A1 (en) Macroblock partitioning and motion estimation using object analysis for video compression
WO2019082413A1 (ja) 画像処理装置及び画像処理方法
JP2007158855A (ja) 動きベクトル検出装置および動きベクトル検出方法
JP2010278519A (ja) 動きベクトル検出装置
JP4759537B2 (ja) 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラム,画像復号プログラムおよびコンピュータ読み取り可能な記録媒体
JP2009267726A (ja) 動画像符号化装置、録画装置、動画像符号化方法、動画像符号化プログラム
JP2008182408A (ja) 動画像符号化装置及び方法
JP2008028707A (ja) 画質評価装置、符号化装置及び画質評価方法
KR101492060B1 (ko) 동영상의 일괄 컬러 변환 방법 및 그 기록매체
JP2005302059A (ja) デジタル映像処理方法及びその装置
US10075691B2 (en) Multiview video coding method using non-referenced view video group
US10063880B2 (en) Motion detecting apparatus, motion detecting method and program
KR102224321B1 (ko) 평면 모델링을 통한 깊이 영상 부호화 방법 및 장치

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018550470

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18870944

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18870944

Country of ref document: EP

Kind code of ref document: A1