WO2023053166A1 - 映像処理システム、情報処理装置、映像処理方法、及び記録媒体 - Google Patents

映像処理システム、情報処理装置、映像処理方法、及び記録媒体 Download PDF

Info

Publication number
WO2023053166A1
WO2023053166A1 PCT/JP2021/035513 JP2021035513W WO2023053166A1 WO 2023053166 A1 WO2023053166 A1 WO 2023053166A1 JP 2021035513 W JP2021035513 W JP 2021035513W WO 2023053166 A1 WO2023053166 A1 WO 2023053166A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
frames
estimated value
estimated
feature amount
Prior art date
Application number
PCT/JP2021/035513
Other languages
English (en)
French (fr)
Inventor
フロリアン バイエ
浩一 二瓶
チャルヴィ ヴィタル
勇人 逸身
悠介 篠原
亜南 沢辺
孝法 岩井
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2023550757A priority Critical patent/JPWO2023053166A1/ja
Priority to PCT/JP2021/035513 priority patent/WO2023053166A1/ja
Publication of WO2023053166A1 publication Critical patent/WO2023053166A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding

Definitions

  • the present invention relates to a video processing system, an information processing device, a video processing method, and a recording medium.
  • Patent Literature 1 describes a technique for allocating resources of a communication device according to user QoE and service priority.
  • the relationship between bit rate and QoE is determined in advance.
  • the QoE index that represents the accuracy of recognizing the images depends on the information contained in the images even if the bit rate is the same. be high or low. Therefore, a technique capable of suitably estimating the bit rate or image recognition accuracy is desired, but the technique disclosed in Patent Document 1 cannot perform such an estimation.
  • One aspect of the present invention has been made in view of the above problems, and an example of its purpose is to provide a technique capable of suitably estimating a bit rate or image recognition accuracy.
  • a video processing system is obtained by decoding one or more past video frames, video compression parameters in encoding processing of the video frames, and the encoded video frames. a video recognition result of a video frame after decoding; and estimating means for calculating at least one of an estimated value of image recognition accuracy.
  • a video processing system is a video processing system including a first video processing device and a second video processing device, wherein the first video processing device is configured to acquisition of at least one of video frames, video compression parameters in encoding processing of the video frames, and video recognition results of decoded video frames obtained by decoding the encoded video frames and a feature quantity calculation means for calculating a feature quantity from the data acquired by the acquisition means, wherein the second video processing device includes: a feature quantity acquisition means for acquiring the feature quantity; estimated value calculation means for calculating at least one of an estimated value of a bit rate of one or more future video frames and an estimated value of video recognition accuracy from the feature amount acquired by the means.
  • An information processing apparatus is obtained by decoding one or more video frames in the past, video compression parameters in encoding processing of the video frames, and the encoded video frames. a video recognition result of a decoded video frame; A feature quantity calculation means for calculating a feature quantity referred to for calculating at least one of an estimated bit rate of a video frame and an estimated video recognition accuracy.
  • An information processing apparatus is obtained by decoding one or more video frames in the past, video compression parameters in encoding processing of the video frames, and the encoded video frames.
  • a feature amount acquisition means for acquiring a feature amount calculated by referring to at least one of a video recognition result of a decoded video frame;
  • Estimated value calculation means for calculating at least one of an estimated value of a bit rate of video frames for each frame and an estimated value of video recognition accuracy.
  • An information processing method is obtained by decoding one or a plurality of past video frames, video compression parameters in encoding processing of the video frames, and the encoded video frames. obtaining at least one of a video recognition result of a decoded video frame; and an estimated value of a bit rate of one or more future video frames by referring to the data obtained in the step of obtaining. and/or calculating an estimate of image recognition accuracy.
  • a recording medium is a recording medium that enables a computer to decode one or more past video frames, video compression parameters in encoding processing of the video frames, and the encoded video frames. a video recognition result of the decoded video frame to be obtained;
  • a computer-readable program recorded with a program that functions as feature amount calculation means for calculating a feature amount that is referred to for calculating at least one of an estimated bit rate of a video frame for each minute and an estimated value of image recognition accuracy.
  • a recording medium is a recording medium that enables a computer to decode one or more past video frames, video compression parameters in encoding processing of the video frames, and the encoded video frames.
  • a feature amount acquisition means for acquiring a feature amount calculated by referring to at least one of the video recognition result of the decoded video frame obtained;
  • a computer-readable recording medium recording a program functioning as estimated value calculation means for calculating at least one of an estimated bit rate of video frames for a plurality of frames and an estimated value of video recognition accuracy.
  • FIG. 1 is a block diagram showing the configuration of a video processing system according to exemplary Embodiment 1 of the present invention
  • FIG. FIG. 3 is a flow diagram showing the flow of the video processing method according to exemplary embodiment 1 of the present invention
  • FIG. 3 is a block diagram showing the configuration of a video processing system according to exemplary embodiment 2 of the present invention
  • FIG. 11 is a block diagram showing the configuration of a video processing system according to exemplary Embodiment 3 of the present invention
  • FIG. 10 is a diagram showing an example of processing executed by a feature amount calculation unit and an estimated value calculation unit according to exemplary Embodiment 3 of the present invention
  • FIG. 9 is a graph showing how an optimizer calculates video compression parameters according to exemplary embodiment 3 of the present invention
  • FIG. 8 is a flow diagram showing the flow of a video processing method according to exemplary embodiment 3 of the present invention
  • FIG. 12 is a block diagram showing the configuration of a video processing system according to exemplary Embodiment 4 of the present invention
  • FIG. 12 is a diagram showing an example of processing in which the learning unit according to exemplary Embodiment 4 of the present invention causes the estimated value calculation unit to learn
  • FIG. 12 is a block diagram showing the configuration of a video processing system according to exemplary embodiment 5 of the present invention
  • FIG. 11 is a graph showing how an optimizer calculates video compression parameters according to exemplary embodiment 5 of the present invention
  • FIG. FIG. 12 is a block diagram showing the configuration of a video processing system according to exemplary embodiment 6 of the present invention
  • FIG. 12 is a block diagram showing the configuration of a video processing system according to exemplary embodiment 7 of the present invention
  • FIG. 12 is a block diagram showing the configuration of a video processing system according to exemplary embodiment 8 of the present invention
  • FIG. 12 is a block diagram showing the configuration of a video processing system according to exemplary embodiment 9 of the present invention
  • 1 is a block diagram showing an example of a hardware configuration of an information processing device in each exemplary embodiment of the present invention
  • FIG. 1 is a block diagram showing the configuration of a video processing system 1 according to this exemplary embodiment.
  • the video processing system 1 is a system that estimates and calculates at least one of the bit rate in video compression and the video recognition accuracy in video recognition. Specifically, the video processing system 1 estimates at least one of an estimated bit rate of one or a plurality of future video frames and an estimated video recognition accuracy of one or a plurality of future video frames.
  • the video processing system 1 receives an estimated bit rate of one or a plurality of video frames output from a camera in the future, and a recognition engine that recognizes a subject included in the video frame by inputting the video frame. Calculates an estimate of the accuracy of the video recognition result output from .
  • the video processing system 1 includes an acquisition unit 11 and a determination unit 12.
  • the acquisition unit 11 and the determination unit 12 are configured to implement acquisition means and estimation means, respectively, in this exemplary embodiment.
  • Acquisition unit 11 acquires at least one of the following data. ⁇ Video frames for one or more frames in the past ⁇ Video compression parameters in video frame encoding processing ⁇ Video recognition results of decoded video frames obtained by decoding encoded video frames Examples of video compression parameters Examples include, but are not limited to, CRF (Constant Rate Factor) and QP (Quantization parameter).
  • the video recognition result of the decoded video frame is the video recognition result output from the recognition engine that recognizes the subject included in the decoded video frame with the decoded video frame as input. Further, the video recognition result of the video frame after decoding may be information obtained as a result of human judgment.
  • the acquisition unit 11 may be configured to acquire at least one of the following data in addition to the data described above.
  • ⁇ Length of code of video frames for one or more frames in the past ⁇ Decoded video frames obtained by decoding encoded video frames ⁇ Intermediate feature values in video recognition processing of video frames after decoding
  • the intermediate feature amount in the image recognition processing of the decoded image frame is the feature amount obtained in the intermediate layer of the recognition engine that executes the image recognition processing.
  • a feature amount is a numerical value of a feature extracted from a video frame.
  • An example of the feature amount is a feature vector in which the extracted features are arranged and expressed as a vector, but is not limited to this.
  • the recognition engine is, for example, composed of a neural network consisting of an input layer, one or more intermediate layers, and an output layer.
  • the recognition engine when a video frame is input to the input layer, feature amounts in the video frame are extracted in one or more intermediate layers, and video recognition results are output from the output layer.
  • the feature amount extracted from at least one of the one or a plurality of intermediate layers is the intermediate feature amount in the image recognition processing of the image frame.
  • the determination unit 12 refers to the data acquired by the acquisition unit 11 and calculates at least one of an estimated value of the bit rate of one or a plurality of future video frames and an estimated value of the video recognition accuracy. More specifically, the determination unit 12 uses, as an estimated value of the bit rate, an estimated value of the transmission bit rate of a video frame after encoding one or more frames in the future, and an estimated value of the video recognition accuracy as: At least one of an estimated value of video recognition accuracy of video frames after decoding one or more frames in the future is calculated.
  • a CNN Convolution Neural Network
  • an RNN Recurrent Neural Network
  • Non-neural network models such as random forests and support vector machines may also be used.
  • the acquisition unit 11 obtains one or a plurality of past video frames, video compression parameters in video frame encoding processing, and the encoding and/or a video recognition result of a decoded video frame obtained by decoding the processed video frame.
  • the determination unit 12 refers to the data acquired by the acquisition unit 11 and calculates at least one of an estimated bit rate of one or a plurality of future video frames and an estimated video recognition accuracy. configuration is adopted.
  • one or a plurality of past video frames, video compression parameters in video frame encoding processing, and encoded video frames are decoded.
  • At least one of the bit rate of the video frame and the estimated value of the video recognition accuracy is calculated by referring to at least one of the video recognition result of the decoded video frame obtained by can be estimated to
  • FIG. 2 is a flow diagram showing the flow of the video processing method S1.
  • step S11 the acquisition unit 11 decodes one or more video frames in the past, video compression parameters in video frame encoding processing, and decoded video frames obtained by decoding encoded video frames. and at least one of the video recognition results of
  • step S12 the determination unit 12 refers to the data acquired in step S11 and obtains at least one of an estimated bit rate of one or a plurality of future video frames and an estimated video recognition accuracy. calculate.
  • step S11 the acquisition unit 11 obtains one or a plurality of past video frames, video compression parameters in the video frame encoding process, , and a video recognition result of a decoded video frame obtained by decoding the encoded video frame.
  • step S12 the determination unit 12 refers to the data acquired in step S11, and determines at least one of the estimated value of the bit rate of one or a plurality of future video frames and the estimated value of video recognition accuracy. or Therefore, according to the image processing method S1 according to this exemplary embodiment, the same effects as those of the image processing system 1 can be obtained.
  • FIG. 3 is a block diagram showing the configuration of a video processing system 1A according to the second exemplary embodiment of the invention.
  • the video processing system 1A includes a first video processing device 10A and a second video processing device 20A.
  • the first video processing device 10A and the second video processing device 20A are communicably connected to each other.
  • the first video processing device 10A acquires data related to video frames and calculates feature amounts from the data. Further, in the video processing system 1A, the second video processing device 20A acquires the feature amount calculated by the first video processing device 10A, and based on the feature amount, one or more future video frames. At least one of an estimated bit rate and an estimated video recognition accuracy is calculated.
  • the first video processing device 10A includes an acquisition unit 11 and a feature amount calculation unit 121.
  • the feature amount calculation unit 121 is a configuration that realizes feature amount calculation means in this exemplary embodiment.
  • the acquisition unit 11 is as described above.
  • the feature amount calculation unit 121 calculates feature amounts from the data acquired by the acquisition unit 11 .
  • the feature amount calculated by the feature amount calculation unit 121 is referred to calculate at least one of an estimated bit rate of one or a plurality of future video frames and an estimated video recognition accuracy.
  • the feature quantity calculator 121 outputs the calculated feature quantity to the second video processing device 20A.
  • the second video processing device 20A includes a feature quantity acquisition section 21 and an estimated value calculation section 122 .
  • the feature quantity acquisition unit 21 and the estimated value calculation unit 122 are configured to implement feature quantity acquisition means and estimated value calculation means, respectively, in this exemplary embodiment.
  • the feature quantity acquisition unit 21 acquires the feature quantity output from the first video processing device 10A.
  • the estimated value calculation unit 122 calculates at least one of an estimated value of the bit rate of one or a plurality of future video frames and an estimated value of the video recognition accuracy from the feature values acquired by the feature value acquisition unit 21. .
  • the feature amount calculation unit 121 and the estimated value calculation unit 122 constitute the determination unit 12 described above.
  • the determination unit 12 includes a feature quantity calculation unit 121 and an estimated value calculation unit 122 .
  • the first video processing device 10A includes one or a plurality of past video frames, video compression parameters in video frame encoding processing, and at least one of the video recognition result of the decoded video frame obtained by decoding the encoded video frame, and the feature amount is calculated from the acquired data.
  • the second video processing device 20A acquires the feature amount calculated by the first video processing device 10A, and from the feature amount, an estimated bit rate of one or a plurality of future video frames, and At least one of the estimated values of image recognition accuracy is calculated. Therefore, according to the video processing system 1A according to this exemplary embodiment, the same effect as the video processing system 1 according to the first exemplary embodiment can be obtained.
  • FIG. 4 is a block diagram showing the configuration of a video processing system 1B according to the third exemplary embodiment of the invention.
  • the video processing system 1B includes a first video processing device 10B and a second video processing device 20B.
  • the first video processing device 10B and the second video processing device 20B are connected via a network N so as to be able to communicate with each other.
  • the specific configuration of the network N does not limit this embodiment, but as an example, a wireless LAN (Local Area Network), a wired LAN, a WAN (Wide Area Network), a public line network, a mobile data communication network, or A combination of these networks can be used.
  • a wireless LAN Local Area Network
  • a wired LAN a wired LAN
  • a WAN Wide Area Network
  • public line network a public line network
  • mobile data communication network or A combination of these networks can be used.
  • the first video processing device 10B acquires video data and outputs a video frame obtained by encoding the video data and the feature amount of the video frame.
  • the second video processing device 20B executes the following processes. Acquisition of the feature amount output from the first video processing device 10B, and from the feature amount, at least one of an estimated value of the bit rate of a video frame for one or a plurality of frames in the future and an estimated value of the video recognition accuracy. Obtaining the video frame output from the first video processing device 10B, decoding the video frame, and outputting the decoded video frame Obtaining network statistical data and obtaining one or more frames in the future
  • the network statistical data is data indicating the usage environment of the network N, and an example is the bandwidth available in the network N. It is not limited to this.
  • the first video processing device 10B includes an acquisition unit 11, a feature amount calculation unit 121, an encoding unit 13, and a communication unit .
  • the acquisition unit 11 acquires video data.
  • the acquisition unit 11 supplies the acquired video data to the feature amount calculation unit 121 and the encoding unit 13 .
  • the feature amount calculation unit 121 receives the video data supplied from the acquisition unit 11, the video compression parameters in the video frame encoding process supplied from the encoding unit 13 described later, and the output from the second video processing device 20B described later. A feature amount is calculated by referring to at least one of the video recognition results of the decoded video frame. The feature quantity calculation unit 121 supplies the calculated feature quantity to the communication unit 14 . The details of the process of calculating the feature amount by the feature amount calculation unit 121 will be described later.
  • the encoding unit 13 encodes the video data supplied from the acquisition unit 11. More specifically, the encoding unit 13 encodes video frames forming video data using video compression parameters. The encoding unit 13 supplies the encoded video frames to the communication unit 14 . Also, the encoding unit 13 supplies video compression parameters in the encoding process to the feature amount calculation unit 121 .
  • the communication unit 14 is a communication module that communicates with the second video processing device 20B via the network N.
  • the communication unit 14 transmits the feature quantity supplied from the feature quantity calculation unit 121 and the encoded video frame supplied from the encoding unit 13 to the second video processing device 20B via the network N.
  • the image recognition result of the decoded image frame is obtained from the second image processing device 20B.
  • the second video processing device 20B includes a feature acquisition unit 21, a communication unit 23, an optimization unit 24, a decoding unit 25, a recognition unit 26, an output unit 27, an available band prediction unit 28, and An estimated value calculator 122 is provided.
  • the optimization unit 24 is a configuration that implements parameter calculation means in this exemplary embodiment.
  • the communication unit 23 is a communication module that communicates with the first video processing device 10B via the network N.
  • the communication unit 23 acquires the feature amount and the encoded video frame output from the first video processing device 10B, or acquires the decoded video frame supplied from the recognition unit 26, which will be described later.
  • the recognition result is output to the first video processing device 10B.
  • the feature quantity acquisition unit 21 acquires the feature quantity supplied from the communication unit 23.
  • the feature amount acquisition unit 21 supplies the acquired feature amount to the estimated value calculation unit 122 .
  • the estimated value calculation unit 122 calculates at least one of an estimated value of the bit rate of one or a plurality of future video frames and an estimated value of the video recognition accuracy from the feature values acquired by the feature value acquisition unit 21. .
  • the details of the process of calculating at least one of the estimated value of the bit rate of one or a plurality of future video frames and the estimated value of the video recognition accuracy by the estimated value calculation unit 122 will be described later.
  • the optimization unit 24 refers to the estimated value of the bit rate and the estimated value of the video recognition accuracy calculated by the estimated value calculation unit 122, and determines the video compression parameter in the encoding process of one or more video frames in the future. Calculate The details of the process by which the optimization unit calculates the video compression parameters in the future video frame encoding process for one or a plurality of frames will be described later.
  • the optimization unit 24 uses data supplied by the available band prediction unit 28 (to be described later) that can be used for communication between the first video processing device 10B and the second video processing device 20B in the network N.
  • a video compression parameter may be calculated by further referring to the available bandwidth and the compression parameter of the future segment.
  • the optimization unit 24 also derives compression parameter candidate values that are referred to by the prediction value calculation unit 1221, which will be described later.
  • the optimization unit 24 supplies the derived compression parameter candidate values to the prediction value calculation unit 1221 .
  • the optimization unit 24 may use at least one of a plurality of preset values as a compression parameter candidate value, may use a compression parameter candidate value derived to have a random value, or may use a compression parameter candidate value derived to have a random value. compression parameters may be referenced to derive compression parameter candidate values.
  • the available band prediction unit 28 acquires network statistical data and predicts the available band that can be used for communication between the first video processing device 10B and the second video processing device 20B on the network N.
  • the decoding unit 25 acquires the encoded video frame supplied from the communication unit 23 and decodes the video frame.
  • the decoding unit 25 supplies the decoded video frame to the recognition unit 26 and the output unit 27 .
  • the recognition unit 26 receives the decoded video frame supplied from the decoding unit 25 and acquires the video recognition result output from the recognition engine that recognizes the subject included in the video frame.
  • the recognition unit 26 supplies the acquired image recognition result to the communication unit 23 .
  • the recognition unit 26 may also supply the decoded video frame to the output unit 27 .
  • the recognition engine is, for example, composed of a neural network consisting of an input layer, one or more intermediate layers, and an output layer.
  • the recognition engine when a video frame is input to the input layer, feature amounts in the video frame are extracted in one or more intermediate layers, and video recognition results are output from the output layer.
  • the feature amount extracted from at least one of the one or a plurality of intermediate layers is the intermediate feature amount in the image recognition processing of the image frame.
  • the recognition unit 26 may be configured to acquire a video recognition result by a human regarding the decoded video frame supplied from the decoding unit 25 .
  • the output unit 27 outputs the decoded video frame supplied from the decoding unit 25 or recognition unit 26 .
  • An example in which the output unit 27 outputs a decoded video frame includes a configuration in which an image is displayed by outputting it to a display panel, but the present invention is not limited to this.
  • FIG. 5 is a diagram showing an example of processing executed by the feature amount calculation unit 121 and the estimated value calculation unit 122 according to the third exemplary embodiment of the present invention.
  • a schematic time axis is set in the vertical direction, and each pre-compression video is shown on the time axis. Also, as an example, the current time is indicated by time t1, and the video frame PF1, video frame PF2, . The video frames FF1, .
  • the feature amount calculation unit 121 includes a feature amount extraction unit 1211, a first aggregation unit 1212, and a second aggregation unit 1213.
  • the feature quantity extraction unit 1211 acquires the video frames PF1 to PFn that make up the past segment, and calculates the feature quantity in the video frames PF1 to PFn.
  • the feature quantity extraction unit 1211 supplies the calculated feature quantity to the first aggregation unit 1212 .
  • the first aggregation unit 1212 acquires the feature amount supplied from the feature amount calculation unit 121 and the compression parameter CP of the past segment, and aggregates the acquired feature amount and compression parameter CP for each frame. As an example, the first aggregation unit 1212 repeatedly processes the feature amount supplied from the feature amount calculation unit 121 and the compression parameter CP of the past segment for each frame in the convolution layer and the ReLU (Rectified Linear Unit) layer. and calculate aggregated data. The first aggregation unit 1212 supplies the aggregated data to the second aggregation unit 1213 .
  • the second aggregating unit 1213 acquires the data supplied from the first aggregating unit 1212 and aggregates them on the time axis. As an example, the second aggregation unit 1213 iteratively processes the aggregated data of the video frames PF1 to PFn in the convolution layer and ReLU layer on the time axis, and calculates the feature amount SV aggregated on the time axis. The second aggregating unit 1213 outputs the calculated feature amount SV.
  • a CNN Convolution Neural Network
  • RNN Recurrent Neural Network
  • Non-neural network models such as random forests and support vector machines may also be used.
  • the estimated value calculator 122 includes a predicted value calculator 1221 .
  • the predicted value calculation unit 1221 is a configuration that implements candidate value acquisition means in this exemplary embodiment.
  • the prediction value calculation unit 1221 acquires the feature amount SV output from the second aggregation unit 1213 and the compression parameter candidate value FCPC, which is a candidate value of the video compression parameter for one or a plurality of frames in the future, and calculates the future segment. At least one of the predicted value (estimated value) of the bit rate of the future segment and the predicted value (estimated value) of the video recognition accuracy of the future segment is calculated.
  • the prediction value calculation unit 1221 performs a process of repeatedly calculating prediction values in the FC (Fully Connected) layer and the ReLU layer, and for each compression parameter candidate value FCPC of the future segment supplied from the optimization unit 24, Then, at least one of the predicted bit rate of the future segment and the predicted video recognition accuracy of the future segment is calculated.
  • FIG. 6 is a graph illustrating how the optimizer 24 calculates video compression parameters according to the third exemplary embodiment of the present invention.
  • the optimization unit 24 selects at least one of the estimated value of the bit rate of the future segment and the estimated value of the video recognition accuracy of the future segment calculated by the estimated value calculation unit 122 for the compression parameter candidate value FCPC of the future segment. are stored in advance.
  • the upper part of FIG. 6 is a graph showing the relationship between the estimated value of the bit rate of the future segment and the estimated value of the video recognition accuracy of the future segment accumulated by the optimization unit 24 .
  • the optimization unit 24 refers to the estimated value of the bit rate of the future segment, the estimated value of the video recognition accuracy of the future segment, and the like, and determines the video compression parameters in the encoding process of one or more future video frames.
  • the optimization unit 24 uses a gradient method or the like to calculate a video compression parameter in encoding processing of one or more future video frames.
  • the optimization unit 24 uses the following formula (1) to calculate a video compression parameter in encoding processing of video for one or more frames in the future.
  • Equation (1) is a predetermined loss function whose arguments are the estimated bit rate and the estimated video recognition accuracy.
  • Each variable in Formula (1) represents the following.
  • D C Estimated value of video recognition error (reciprocal of recognition accuracy, etc.) in video frame
  • ⁇ C Candidate value for compression parameter of video frame
  • X C Video frame for one or more frames in the past, in video frame encoding processing At least one of the video compression parameter and the video recognition result of the decoded video frame obtained by decoding the encoded video frame
  • R C Estimated value of bit rate in the video frame
  • B Available bandwidth prediction unit 28
  • the predicted value calculator 1221 acquires a plurality of compression parameter candidate values ⁇ C that are video compression parameter candidate values for one or more frames in the future.
  • the predicted value calculation unit 1221 calculates, for each of the obtained candidate values of the plurality of video compression parameters ⁇ C , one or a plurality of past video frames, the video compression parameter in the video frame encoding process, and the encoding process.
  • Estimated bit rate R C and estimated image recognition error D C (in other words, the reciprocal of the estimated value of image recognition accuracy) is calculated.
  • the predicted value calculation unit 1221 can obtain the distribution of the bit rate estimated value R_C and the distribution of the video recognition accuracy error estimated value D_C .
  • the optimization unit 24 calculates the estimated bit rate R C and the estimated video recognition error D C (in other words, Then, the video compression parameter ⁇ * is calculated so that the predetermined loss function Equation (1) having the inverse of the estimated value of the video recognition accuracy as an argument becomes smaller.
  • ⁇ * calculated by Equation (1) corresponds to OB in the lower graph of FIG.
  • the prediction value calculator 1221 obtains compression parameter candidate values ⁇ C1 , ⁇ C2 , ⁇ C3 , . Next , for each of the obtained compression parameter candidate values ⁇ C1 , ⁇ C2 , ⁇ C3 , . Calculate C. Then, the optimization unit 24 refers to each estimated value R C of the bit rate calculated by the prediction value calculation unit 1221 and the estimated value D C of each video recognition error, and calculates , to calculate the video compression parameter ⁇ * .
  • the predicted value calculation unit 1221 and the optimization unit 24 calculate the video compression parameter ⁇ * for a plurality of candidate values of the video compression parameter, and calculate the smallest video compression parameter ⁇ * .
  • FIG. 7 is a flow diagram showing the flow of the video processing method S1B.
  • step S101 the acquisition unit 11 of the first video processing device 10B acquires video data of the target segment.
  • step S102 the encoding unit 13 encodes the video data acquired by the acquisition unit 11 using the video compression parameter to generate encoded data.
  • Step S103 the feature amount calculation unit 121 calculates the video data acquired by the acquisition unit 11, the video compression parameters used in the encoding process by the encoding unit 13, and the decoded video data output from the second video processing device 20B.
  • a feature amount of video data is calculated by referring to at least one of the video recognition results of the video frame. Since the specific processing by the feature amount calculation unit 121 has been described above, the description thereof is omitted here.
  • Step S104 the communication unit 14 transmits the feature amount calculated by the feature amount calculation unit 121 and the encoded data used when the encoding unit 13 performed the encoding process through the network N to the second video processing. Send to device 20B.
  • step S201 the communication unit 23 of the second video processing device 20B receives the feature quantity and encoded data transmitted from the first video processing device 10B.
  • step S202 the decoding unit 25 decodes the encoded data received by the communication unit 23 and restores the video data.
  • Step S203 In step S ⁇ b>203 , the recognition unit 26 executes image recognition processing of the image data decoded by the decoding unit 25 .
  • Step S204 In step S ⁇ b>204 , the output unit 27 outputs the video data decoded by the decoding unit 25 . Further, the recognition unit 26 supplies the communication unit 23 with a video recognition result indicating the result of the video recognition processing executed in step S203. The communication unit 23 transmits the supplied video recognition result to the first video processing device 10B via the network N. FIG. Upon receiving the video recognition result, the communication unit 14 of the first video processing device 10B supplies the video recognition result to the feature amount calculation unit 121 . The feature amount calculation unit 121 refers to the supplied video recognition result and calculates the feature amount.
  • Step S205 In step S ⁇ b>205 , the feature quantity acquisition unit 21 acquires the feature quantity received by the communication unit 23 .
  • the estimated value calculation unit 122 calculates an estimated value of the bit rate of one or a plurality of future video frames and an estimated value of the video recognition accuracy from the feature values acquired by the feature value acquisition unit 21 . Further, in step S205, the estimated value calculation unit 122 acquires the candidate value FCPC of the video compression parameter for one or a plurality of frames in the future, further refers to the candidate value FCPC of the video compression parameter, and obtains 1 or 1 in the future. At least one of the estimated value of the bit rate of video frames for a plurality of frames and the estimated value of the video recognition accuracy may be calculated. Since the specific processing by the estimated value calculation unit 122 has been described above, the description is omitted here.
  • step S206 the optimization unit 24 refers to the estimated value of the bit rate and the estimated value of the video recognition accuracy calculated by the estimated value calculation unit 122 to calculate video compression parameters in the future segment encoding process. Since the specific processing by the optimization unit 24 has been described above, the description thereof is omitted here.
  • Step S207 the communication unit 23 transmits the video compression parameters calculated by the optimization unit 24 to the first video processing device 10B via the network N.
  • the communication unit 14 of the first video processing device 10B supplies the video compression parameters to the encoding unit 13 .
  • the encoding unit 13 uses the supplied video compression parameters in the future segment encoding process.
  • the optimization unit 24 in the second video processing device 20B calculates the estimated value of the bit rate and the estimated value of the video recognition accuracy.
  • a video compression parameter in encoding processing of one or more video frames in the future is calculated. Therefore, according to the video processing system 1B according to the present exemplary embodiment, it is possible to preferably calculate suitable video compression parameters in encoding processing of one or a plurality of future video frames.
  • step S205 the estimated value calculation unit 122 in the second video processing device 20B calculates the candidate value FCPC of the video compression parameter for one or more frames in the future. is obtained, and the candidate value FCPC of the video compression parameter is further referred to to calculate the estimated value of the bit rate and the estimated value of the video recognition accuracy. Therefore, according to the video processing system 1B according to the present exemplary embodiment, it is possible to preferably calculate a suitable estimated value of the bit rate and an estimated value of the video recognition accuracy.
  • FIG. 8 is a block diagram showing the configuration of a video processing system 1C according to the fourth exemplary embodiment of the invention.
  • the video processing system 1C includes the first video processing device 10C and the second video processing device 20C instead of the first video processing device 10B and the second video processing device 20B in the video processing system 1B described above. It is a configuration that includes
  • the first video processing device 10B and the second video processing device 20B acquire teacher data, respectively, and make the feature amount calculation unit 121 and the estimated value calculation unit 122 learn.
  • the first video processing device 10C includes a learning unit 19 in addition to the components of the first video processing device 10B.
  • the acquisition unit 11 and the learning unit 19 are configured to implement acquisition means and learning means, respectively, in this exemplary embodiment.
  • the acquisition unit 11 obtains one or more video frames in the past, video compression parameters in the encoding processing of the video frames, and video recognition of the decoded video frames obtained by decoding the encoded video frames. result, and at least one of the actual bit rate of one or a plurality of video frames at a point in time after the past, and the actual video recognition accuracy.
  • the learning unit 19 causes the feature amount calculation unit 121 to learn using the teacher data. Details of the processing of the learning unit 19 will be described later.
  • the second video processing device 20C includes a learning unit 29 in addition to the components of the second video processing device 20B.
  • the learning unit 29 is a configuration that implements acquisition means and learning means in this exemplary embodiment.
  • the learning unit 29 acquires the teacher data from the acquisition unit 11 of the first video processing device 10C. More specifically, the learning unit 29 decodes one or more video frames in the past, video compression parameters in video frame encoding processing, and decoded video frames obtained by decoding encoded video frames. and at least one of the video recognition result of the video frame, and at least one of the actual bit rate of the video frame for one or more frames at a point in time after the past, and the actual video recognition accuracy. to get
  • the learning unit 29 causes the estimated value calculation unit 122 to learn using the acquired teacher data. Details of the processing of the learning unit 29 will be described later.
  • FIG. 9 schematically shows an example of processing by which the learning unit 29 causes the estimated value calculation unit 122 to learn, and an example of processing by which the learning unit 19 causes the feature amount calculation unit 121 to learn, according to the fourth exemplary embodiment of the present invention.
  • FIG. 4 is a diagram showing;
  • a schematic time axis is set in the vertical direction, and each pre-compression video is shown on the time axis. Further, as an example, a time point after the video frames PF1 to PFn, a time point before the video frames FF1 to FFn is indicated by a time point t1, and a time point after the video frames PF1 to PFn is indicated by a time point t2.
  • the estimated value calculation unit 122 stores the calculated estimated value of video recognition accuracy and the calculated estimated value of bit rate in a storage unit (not shown).
  • the calculation processing of each value by the estimated value calculation unit 122 may be based on an instruction from the learning unit 29 as an example. Further, each of the data referred to by the estimated value calculation unit 122 constitutes a part of the teacher data described above.
  • the encoding unit 13 encodes the video frames FF1 to FFn.
  • the video frames FF1 to FFn were future video frames at time t1, but are past video frames at time t2.
  • the encoding unit 13 outputs the actual bit rates of the encoded video frames FF1 to FFn and encoded data obtained by encoding the video frames FF1 to FFn to the second video processing device 20C. do.
  • the decoding unit 25 of the second video processing device 20C acquires the encoded data output from the encoding unit 13 and decodes the encoded data to restore the video data. Also, the decoding unit 25 stores the actual bit rate obtained from the encoding unit 13 in a storage unit (not shown). Then, the recognition unit 26 performs image recognition processing on the image data decoded by the decoding unit 25, and acquires actual image recognition accuracy in image recognition. The recognition unit 26 stores the acquired actual image recognition accuracy in a storage unit (not shown). The actual bit rate and the actual video recognition accuracy described above form part of the teacher data described above.
  • the learning unit 29 an estimated video recognition accuracy value and an estimated bit rate value for the video frames FF1 to FFn described above;
  • the estimation value calculation unit 122 is trained by updating the parameters in the estimation value calculation unit 122 so that the difference between the actual video recognition accuracy and the actual bit rate for the video frames FF1 to FFn is reduced.
  • the estimated value of the video recognition accuracy and the estimated value of the bit rate for the video frames FF1 to FFn are calculated by the estimated value calculation unit 122 through the above-described processing.
  • the learning unit 19 an estimated video recognition accuracy value and an estimated bit rate value for the video frames FF1 to FFn described above;
  • the feature quantity calculation unit 121 is made to learn by updating the parameters in the feature quantity calculation unit 121 so that the differences between the actual video recognition accuracy and the actual bit rate for the video frames FF1 to FFn described above are reduced.
  • the estimated value of the video recognition accuracy and the estimated value of the bit rate for the video frames FF1 to FFn are calculated by the estimated value calculation unit 122 through the above-described processing.
  • the learning unit 19 and the learning unit 29 at least one of past video frames PF1 to PFn, video compression parameters in encoding processing of video frames PF1 to PFn, and video recognition results of decoded video frames obtained by decoding encoded video frames;
  • teacher data including the actual video recognition accuracy and the actual bit rate of the video frames FF1 to FFn at a point in time after the past, an estimated video recognition accuracy value and an estimated bit rate value for the video frames FF1 to FFn described above;
  • the feature amount calculation unit 121 and the estimated value calculation unit 122 are trained so that the differences between the actual video recognition accuracy and the actual bit rate for the video frames FF1 to FFn described above are reduced.
  • the estimated value of the bit rate of the video frame for one or a plurality of frames in the future is calculated.
  • an estimated value of image recognition accuracy are preferably calculated.
  • FIG. 10 is a block diagram showing the configuration of a video processing system 1D according to the fifth exemplary embodiment of the invention.
  • the video processing system 1D includes a plurality of first video processing devices 10B in the video processing system 1B, and further includes a second video processing device 20D in place of the second video processing device 20B.
  • the first video processing device 10B-1 acquires the video data 1
  • the first video processing device 10B-2 acquires the video data 2
  • the 1 image processing device 10B-3 acquires image data 3
  • the second video processing device 20D calculates a video compression parameter in encoding processing of one or more future video frames for each of a plurality of transmission target videos.
  • the first video processing device 10B-1, the first video processing device 10B-2, and the first video processing device 10B-3 are illustrated. are not intended to limit this exemplary embodiment.
  • the video processing system 1D can be configured to include any number of first video processing devices.
  • the plurality of first image processing apparatuses have the same main configuration as each other.
  • the second video processing device 20D includes an estimated value calculating section 122a and an optimizing section 24a instead of the estimated value calculating section 122 and the optimizing section 24 in the second video processing device 20B. ing.
  • the estimated value calculation unit 122a refers to each feature amount transmitted from the first video processing devices 10B-1 to 10B-3 for each of a plurality of transmission target videos, and calculates one or more video frames in the future. and each estimated value of the video recognition accuracy.
  • each of the feature amounts transmitted from the first video processing devices 10B-1 to 10B-3 is one or a plurality of past video frames acquired by each acquisition unit 11,
  • the feature amount calculation unit 121 refers to at least one of video compression parameters in video frame encoding processing and video recognition results of decoded video frames obtained by decoding the encoded video frames. This is the data obtained.
  • the optimization unit 24a refers to the estimated bit rate and the estimated image recognition accuracy for each of the plurality of transmission target videos, and optimizes one or more frames in the future for each of the plurality of transmission target videos.
  • a video compression parameter in the video frame encoding process is calculated.
  • FIG. 11 is a graph showing how the optimizer 24a calculates video compression parameters according to the fifth exemplary embodiment of the present invention.
  • the optimization unit 24a calculates the estimated value of the bit rate of the future segment and the video of the future segment, which are calculated by the estimated value calculation unit 122 for each of the compression parameter candidate values FCPC of the future segment, for each of the plurality of transmission target videos. At least some of the recognition accuracy estimates are pre-stored.
  • the upper diagram of FIG. 11 shows the estimated bit rate of the future segment and the estimated image recognition accuracy of the future segment accumulated by the optimization unit 24a for each of the video data 1, the video data 2, and the video data 3. It is a graph showing the relationship.
  • the optimization unit 24a refers to the estimated value of the bit rate of the future segment, the estimated value of the image recognition accuracy of the future segment, etc. for each of the plurality of transmission target images, and A video compression parameter in frame encoding processing is calculated.
  • the optimization unit 24a uses the following formula (2) to calculate a video compression parameter in encoding processing of one or more future video frames for each of a plurality of transmission target videos.
  • Each variable in Expression (2) represents the following, as in Expression (1).
  • ⁇ * Calculated video compression parameter C: Number of videos D C : Estimated value of video recognition error (reciprocal of recognition accuracy, etc.) in video frame
  • ⁇ C Candidate value of compression parameter of video frame X C : 1 or 1 in the past At least one of a plurality of video frames, a video compression parameter in video frame encoding processing, and a video recognition result of a decoded video frame obtained by decoding the encoded video frame
  • R C video Estimated value of bit rate in frame B: Available bandwidth predicted by available bandwidth prediction unit 28
  • the prediction value calculation unit 1221 acquires a plurality of compression parameter candidate values ⁇ C , which are video compression parameter candidate values for one or more frames in the future. Then, for each of the plurality of acquired candidate values of the video compression parameter ⁇ C , the predicted value calculation unit 1221 calculates one or more past video frames, encoding of the video frame for each of the plurality of transmission target videos.
  • a bit rate estimate R C with reference to X C which is at least one of a video compression parameter in the process and a video recognition result of a decoded video frame obtained by decoding the encoded video frame.
  • an estimated value DC of the image recognition error in other words, the reciprocal of the estimated value of the image recognition accuracy.
  • the prediction value calculation unit 1221 can obtain the distribution of the bit rate estimation values R_C and the distribution of the image recognition error estimation values D_C for each of the plurality of transmission target images.
  • the optimization unit 24 calculates the bit rate estimate value R C and the video
  • the video compression parameter ⁇ * is calculated so that Equation (2), which is a predetermined loss function whose argument is the estimated recognition error value D C (in other words, the reciprocal of the estimated value of the video recognition accuracy), becomes smaller.
  • ⁇ * of each image data calculated by Equation (2) corresponds to OB1 for image data 1, OB2 for image data 2, and OB3 for image data 3 in the lower graph of FIG.
  • the prediction value calculator 1221 obtains compression parameter candidate values ⁇ C1 , ⁇ C2 , ⁇ C3 , . Next , for each of the obtained compression parameter candidate values ⁇ C1 , ⁇ C2 , ⁇ C3 , . Calculate C. Then, the optimization unit 24 refers to each estimated value R C of the bit rate and the estimated value D C of each video recognition error calculated by the prediction value calculation unit 1221, and calculates , to calculate the video compression parameter ⁇ * .
  • the acquisition unit 11 of the first video processing device 10B obtains one or a plurality of past frames of video for each of a plurality of transmission target videos. At least one of a frame, a video compression parameter in encoding processing of a video frame, and a video recognition result of a decoded video frame obtained by decoding the encoded video frame is acquired.
  • the feature amount calculation unit 121 of the first video processing device 10B and the estimated value calculation unit 122a of the second video processing device 20B are configured to transmit a plurality of transmission targets.
  • the data acquired by the acquisition unit 11 is referenced to calculate an estimated value of the bit rate of one or a plurality of future image frames and an estimated value of image recognition accuracy.
  • the optimization unit 24a of the second video processing device 20B calculates the estimated bit rate and the video recognition accuracy for each of the plurality of transmission target videos.
  • a video compression parameter in encoding processing of one or a plurality of future video frames is calculated for each of the plurality of transmission target videos. Therefore, according to the video processing system 1D according to the present exemplary embodiment, it is possible to calculate suitable video compression parameters in encoding processing of one or more future video frames for each of a plurality of transmission target videos. can be done.
  • FIG. 12 is a block diagram showing the configuration of a video processing system 1E according to the sixth exemplary embodiment of the invention.
  • the video processing system 1E includes a second video processing device 20E instead of the second video processing device 20B in the video processing system 1B.
  • the second video processing device 20E ⁇ Length of video frame code for one or more frames in the past ⁇ Decoded video frame obtained by decoding the encoded video frame ⁇ Result of video recognition processing of the video frame after decoding, or the video At least one of the intermediate feature amounts in the recognition process is further referred to, and at least one of an estimated bit rate of one or a plurality of future video frames and an estimated video recognition accuracy is calculated.
  • the estimated value calculation section 122 is configured to acquire data from the decoding section 25 and the recognition section .
  • the estimated value calculation unit 122 is a configuration that implements an acquisition unit in this exemplary embodiment.
  • the estimated value calculation unit 122 acquires at least one of the code length of one or a plurality of past video frames and the decoded video frame from the decoding unit 25, and, from the recognition unit 26, decodes A result of image recognition processing of a later image frame or an intermediate feature amount in the image recognition processing is acquired. Then, the estimated value calculation unit 122 adds the feature amount acquired by the feature amount acquisition unit 21 to the decoded video frame, the video recognition processing result of the decoded video frame, or the intermediate feature amount in the video recognition processing. At least one of them is further referred to, and at least one of an estimated value of a bit rate of video frames for one or a plurality of frames in the future and an estimated value of video recognition accuracy is calculated.
  • the intermediate feature amount in image recognition processing is the feature amount obtained in the intermediate layer of the recognition engine that executes image recognition processing.
  • a feature amount is a numerical value of a feature extracted from a video frame.
  • An example of the feature amount is a feature vector in which the extracted features are arranged and expressed as a vector, but is not limited to this.
  • the recognition engine is, for example, composed of a neural network consisting of an input layer, one or more intermediate layers, and an output layer.
  • the recognition engine when a video frame is input to the input layer, feature amounts in the video frame are extracted in one or more intermediate layers, and video recognition results are output from the output layer.
  • the feature amount extracted from at least one of the one or a plurality of intermediate layers is the intermediate feature amount in the image recognition processing of the image frame.
  • the estimated value calculation unit 122 of the second video processing device 20E calculates the code length of one or a plurality of past video frames, Further refer to at least one of the decoded video frame obtained by decoding the encoded video frame, the video recognition processing result of the decoded video frame, or the intermediate feature amount in the video recognition processing, and in the future At least one of an estimated bit rate and an estimated image recognition accuracy of one or more video frames is calculated. Therefore, according to the image processing system 1E according to the present exemplary embodiment, it is possible to preferably calculate a more preferable estimated value of the bit rate and the estimated value of the image recognition accuracy.
  • FIG. 13 is a block diagram showing the configuration of a video processing system 1F according to the seventh exemplary embodiment of the invention.
  • the video processing system 1F includes a first video processing device 10F and a second video processing device 20F instead of the first video processing device 10B and the second video processing device 20B in the video processing system 1B. .
  • the feature amount of the video frame is calculated in the second video processing device 20F.
  • the first video processing device 10F does not include the feature amount calculation unit 121 in the first video processing device 10B. That is, in the first video processing device 10F, the encoded data encoded by the encoding unit 13 and the encoded data encoded by the encoding unit 13 are sent to the second video processing device 20F via the communication unit A video compression parameter used for encoding processing and the data acquired by the acquisition unit 11 are transmitted.
  • the second video processing device 20F includes a feature quantity calculation unit 121 instead of the feature quantity acquisition unit 21 in the second video processing device 20B.
  • the feature amount calculation unit 121 is configured to acquire data from the decoding unit 25 and the recognition unit 26 .
  • the feature amount calculation unit 121 receives the decoded video frame supplied from the decoding unit 25, the video recognition result of the decoded video frame supplied from the recognition unit 26, and the video frame transmitted from the first video processing device 10F.
  • the video compression parameters and the data obtained by the obtaining unit 11 are obtained.
  • the feature amount calculation unit 121 refers to the obtained decoded video frame, the video recognition result, the video compression parameter, and the data obtained by the obtaining unit 11 to calculate the feature amount.
  • the feature amount calculator 121 supplies the calculated feature amount to the estimated value calculator 122 .
  • Estimated value calculation unit 122 Calculates at least one of an estimated bit rate of one or a plurality of future video frames and an estimated video recognition accuracy from the feature values acquired by the feature value acquisition unit 21 .
  • the second video processing device 20F includes the feature amount calculation unit 121. Therefore, according to the video processing system 1F according to this exemplary embodiment, at least one of the calculation of the feature quantity, the estimated value of the bit rate of one or a plurality of future video frames, and the estimated value of the video recognition accuracy is calculated. Calculation processing such as this calculation and calculation of video compression parameters in encoding processing of one or more video frames in the future can be performed only by the second video processing device 20F.
  • FIG. 14 is a block diagram showing the configuration of an image processing system 1G according to the eighth exemplary embodiment of the invention.
  • the video processing system 1G includes a second video processing device 20G instead of the second video processing device 20B in the video processing system 1B, and further includes a third video processing device 30G.
  • the video processing system 1G calculation of at least one of an estimated value of a bit rate of a video frame for one or a plurality of future frames and an estimated value of video recognition accuracy, and a code of a video frame for one or a plurality of frames in the future.
  • the second video processing device 20G performs the calculation of the video compression parameters in the conversion process.
  • the third video processing device 30G performs decoding of the encoded data, video recognition processing of the decoded video frames, and output of the decoded video frames.
  • the second video processing device 20G does not include the decoding unit 25, the recognition unit 26, and the output unit 27 of the second video processing device 20B. That is, in the second video processing device 20G, the estimated value calculation unit 122 calculates at least one of the estimated value of the bit rate of the video frame for one or a plurality of frames in the future and the estimated value of the video recognition accuracy, The optimization unit 24 calculates a video compression parameter in encoding processing of one or more video frames in the future. The second video processing device 20G then transmits the calculated video compression parameters to the first video processing device 10B.
  • the third video processing device 30G includes a decoding section 25, a recognition section 26, and an output section 27.
  • the decoding unit 25 decodes the encoded data
  • the recognition unit 26 performs video recognition processing on the decoded video frame
  • the output unit 27 outputs the video frame. done.
  • the video processing system 1G As described above, in the video processing system 1G according to this exemplary embodiment, data transmission/reception occurs between the first video processing device 10B and the second video processing device 20G.
  • the video processing device 30G only receives data. Therefore, the physical distance between the first video processing device 10B and the second video processing device 20G is shortened, or the distance between the first video processing device 10B and the second video processing device 20G is relayed. By reducing the number of devices, the RTT (Round Trip Time) in the video processing system 1F can be shortened.
  • FIG. 15 is a block diagram showing the configuration of a video processing system 1H according to the ninth exemplary embodiment of the invention.
  • the video processing system 1H includes a second video processing device 20H instead of the second video processing device 20B in the video processing system 1B.
  • the second video processing device 20H predicts the packet loss occurrence rate, refers to the predicted packet loss occurrence rate, and encodes one or more future video frames. Calculate the video compression parameters in
  • the second video processing device 20H has a configuration in which a packet loss prediction unit 31 and a packet loss detection unit 32 are added to the second video processing device 20B.
  • the packet loss prediction unit 31 predicts the packet loss rate, which is the frequency at which packet losses occur in data transmission/reception.
  • the packet loss prediction unit 31 supplies the predicted packet loss rate to the estimated value calculation unit 122 .
  • the packet loss detection unit 32 detects packet losses that have occurred in past data transmission/reception.
  • the packet loss detection unit 32 supplies the packet loss detection result to the estimated value calculation unit 122 .
  • the estimated value calculation unit 122 further refers to the packet loss rate supplied by the packet loss prediction unit 31 and the detection result supplied by the packet loss detection unit 32 in addition to the feature amount acquired by the feature amount acquisition unit 21 described above. , and at least one of an estimated value of the bit rate of video frames for one or a plurality of frames in the future and an estimated value of the video recognition accuracy.
  • the estimated value calculation unit 122 sets the GOP (Group Of Picture) in the received encoded data. is referred to, and the estimated value of the video recognition accuracy of the GOP including the frame in which the packet loss occurs is made lower than the estimated value of the video recognition accuracy of the other GOPs.
  • the estimated value calculation unit 122 determines that the estimated value of the video recognition accuracy of a GOP including frames having a packet loss rate higher than a predetermined value supplied by the packet loss prediction unit 31 is the video recognition accuracy of another GOP. Try to be lower than the accuracy estimate.
  • the second video processing device 20H includes a packet loss prediction unit that predicts the packet loss rate, which is the frequency at which packet loss occurs in data transmission/reception. 31, and a packet loss detection unit 32 for detecting packet loss that has occurred in past data transmission/reception. Therefore, according to the video processing system 1H according to this exemplary embodiment, by referring to whether a packet loss has occurred or whether the predicted packet loss rate is lower than a predetermined value, the video recognition accuracy can be improved. Since the estimated value is calculated, it is possible to suitably calculate the estimated value of the video recognition accuracy.
  • the technology in each embodiment is widely applicable to one or more AGVs (Automatic Guided Vehicles), construction machines, self-driving vehicles, monitoring systems, and the like.
  • AGVs Automatic Guided Vehicles
  • construction machines construction machines
  • self-driving vehicles monitoring systems, and the like.
  • the technology in each embodiment receives images from a plurality of cameras installed at each of a plurality of work sites, recognizes the images captured by the plurality of cameras, and performs danger detection and notification in a system , can be used to calculate a suitable bit rate to be assigned to each of the plurality of cameras.
  • Video processing system 1 first video processing devices 10A, 10B, 10C, 10F, second video processing devices 20A, 20B, 20C, 20D, 20E, 20F, 20G, 20H, and third video processing device 30G
  • Some or all of the functions may be implemented by hardware such as an integrated circuit (IC chip), or may be implemented by software.
  • the processing device 30G is implemented, for example, by a computer that executes program instructions, which are software that implements each function.
  • An example of such a computer hereinafter referred to as computer C) is shown in FIG.
  • Computer C comprises at least one processor C1 and at least one memory C2.
  • the memory C2 stores the computer C in the video processing system 1, the first video processing devices 10A, 10B, 10C, 10F, the second video processing devices 20A, 20B, 20C, 20D, 20E, 20F, 20G, 20H, and A program P for operating as the third video processing device 30G is recorded.
  • the processor C1 reads the program P from the memory C2 and executes it so that the video processing system 1, the first video processing devices 10A, 10B, 10C and 10F, the second video processing devices 20A and 20B, Each function of 20C, 20D, 20E, 20F, 20G, 20H and the third video processing device 30G is realized.
  • processor C1 for example, CPU (Central Processing Unit), GPU (Graphic Processing Unit), DSP (Digital Signal Processor), MPU (Micro Processing Unit), FPU (Floating point number Processing Unit), PPU (Physics Processing Unit) , a microcontroller, or a combination thereof.
  • memory C2 for example, a flash memory, HDD (Hard Disk Drive), SSD (Solid State Drive), or a combination thereof can be used.
  • the computer C may further include a RAM (Random Access Memory) for expanding the program P during execution and temporarily storing various data.
  • Computer C may further include a communication interface for sending and receiving data to and from other devices.
  • Computer C may further include an input/output interface for connecting input/output devices such as a keyboard, mouse, display, and printer.
  • the program P can be recorded on a non-temporary tangible recording medium M that is readable by the computer C.
  • a recording medium M for example, a tape, disk, card, semiconductor memory, programmable logic circuit, or the like can be used.
  • the computer C can acquire the program P via such a recording medium M.
  • the program P can be transmitted via a transmission medium.
  • a transmission medium for example, a communication network or broadcast waves can be used.
  • Computer C can also obtain program P via such a transmission medium.
  • Appendix 1 At least one or more video frames in the past, a video compression parameter in the encoding process of the video frame, and a video recognition result of the decoded video frame obtained by decoding the encoded video frame.
  • the estimating means uses, as the estimated value of the bit rate, an estimated value of a transmission bit rate of a video frame after encoding for one or a plurality of frames in the future, and 1 in the future as an estimated value of the video recognition accuracy.
  • the video processing system according to appendix 1 wherein at least one of estimated values of video recognition accuracy of video frames after decoding a plurality of frames is calculated.
  • the obtaining means obtains a code length of one or a plurality of past video frames, a decoded video frame obtained by decoding the encoded video frame, and the decoded video frame. further acquires at least one of the intermediate feature amounts in the image recognition processing of , and the estimation means refers to the data acquired by the acquisition means to determine the estimated value of the bit rate and the estimated value of the accuracy of image recognition. 3.
  • the estimation means includes feature amount calculation means for calculating a feature amount from the data acquired by the acquisition means, and an estimated value of the bit rate and the video recognition accuracy from the feature amount calculated by the feature amount calculation means. 4.
  • the video processing system according to any one of Appendices 1 to 3, further comprising estimated value calculation means for calculating at least one of the estimated values.
  • Appendix 6 further comprising candidate value acquiring means for acquiring a candidate value of the video compression parameter for one or more frames in the future, wherein the estimating means obtains the candidates for the video compression parameter for one or more frames in the future acquired by the acquiring means; 6.
  • the candidate value acquiring means acquires a plurality of candidate values of the video compression parameter, and the estimating means estimates the bit rate for each of the plurality of candidate values of the video compression parameter acquired by the acquiring means, and calculating the estimated value of the video recognition accuracy, and the parameter calculating means calculates the estimated value of the bit rate and the estimated value of the video recognition accuracy for each of the plurality of candidate values of the video compression parameter acquired by the acquiring means.
  • the obtaining means decodes one or a plurality of past video frames, video compression parameters in encoding processing of the video frames, and the encoded video frames for each of a plurality of transmission target videos. and at least one of the video recognition result of the obtained decoded video frame, and the estimating means refers to the data acquired by the acquiring means for each of the plurality of transmission target videos, and determines one in the future or Calculating an estimated bit rate and an estimated image recognition accuracy of video frames for a plurality of frames, the parameter calculating means calculates the estimated bit rate and the estimated bit rate and the video for each of the plurality of transmission target videos.
  • the obtaining means obtains one or more video frames in the past, a video compression parameter in encoding processing of the video frames, and a decoded video frame obtained by decoding the encoded video frames. and at least one of the recognition result, the actual bit rate of one or more video frames at a point in time after the past, and at least one of the actual video recognition accuracy.
  • the video processing system according to any one of appendices 1 to 8, further comprising learning means for making the estimation means learn using the teacher data.
  • a video processing system including a first video processing device and a second video processing device, wherein the first video processing device performs one or more past video frames and encoding processing of the video frames and a video recognition result of a decoded video frame obtained by decoding the encoded video frame; and from the data acquired by the acquisition means. and a feature quantity calculating means for calculating a quantity, wherein the second video processing device includes: a feature quantity obtaining means for obtaining the feature quantity; Alternatively, an estimated value calculation means for calculating at least one of an estimated bit rate of video frames for a plurality of frames and an estimated value of video recognition accuracy.
  • (Appendix 11) At least one or more video frames in the past, a video compression parameter in the encoding process of the video frame, and a video recognition result of the decoded video frame obtained by decoding the encoded video frame.
  • Acquisition means for acquiring either; and feature amount calculation means for calculating a feature amount from the data acquired by the acquisition means, wherein an estimated value of a bit rate of a video frame for one or a plurality of frames in the future, and video recognition
  • An information processing apparatus comprising feature quantity calculation means for calculating a feature quantity referred to in order to calculate at least one of the estimated values of accuracy.
  • (Appendix 12) At least one or more video frames in the past, a video compression parameter in the encoding process of the video frame, and a video recognition result of the decoded video frame obtained by decoding the encoded video frame.
  • a feature amount acquiring means for acquiring a feature amount calculated by referring to any one; an estimated bit rate of one or more future video frames from the feature amount acquired by the feature amount acquiring means; and estimated value calculation means for calculating at least one of an estimated value of image recognition accuracy.
  • a computer decodes one or more video frames in the past, video compression parameters in the encoding process of the video frames, and video recognition results of the decoded video frames obtained by decoding the encoded video frames. and a feature quantity calculation means for calculating a feature quantity from the data acquired by the acquisition means, wherein an estimated bit rate of one or a plurality of future video frames, and feature quantity calculation means for calculating a feature quantity referred to for calculating at least one of the estimated value of the video recognition accuracy, and a computer-readable recording medium recording a program to function as the computer-readable recording medium.
  • a computer decodes one or more video frames in the past, video compression parameters in the encoding process of the video frames, and video recognition results of the decoded video frames obtained by decoding the encoded video frames. and a feature amount acquiring means for acquiring a feature amount calculated by referring to at least one of;
  • a computer-readable recording medium recording a program functioning as estimated value calculation means for calculating at least one of an estimated value and an estimated value of image recognition accuracy.
  • the processor decodes one or more past video frames, video compression parameters in encoding processing of the video frames, and decoding obtained by decoding the encoded video frames an acquisition process for acquiring at least one of a video recognition result of a later video frame; and an estimation process for calculating at least one of estimated values of recognition accuracy.
  • this video processing system may further include a memory, and this memory may store a program for causing the processor to execute the acquisition process and the estimation process. Also, this program may be recorded in a computer-readable non-temporary tangible recording medium.
  • the processor decodes one or more past video frames, video compression parameters in encoding processing of the video frames, and decoding obtained by decoding the encoded video frames a feature amount acquisition process for acquiring a feature amount calculated by referring to at least one of the video recognition result of a subsequent video frame; and one or more frames in the future from the feature amount acquired in the feature amount acquisition process. and an estimated value calculation process for calculating at least one of an estimated value of a bit rate of video frames of 1 minute and an estimated value of video recognition accuracy.
  • the information processing apparatus may further include a memory, and the memory may store a program for causing the processor to execute the feature amount acquisition process and the estimated value calculation process. good. Also, this program may be recorded in a computer-readable non-temporary tangible recording medium.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

ビットレート又は画像認識精度を好適に推定するために、映像処理システム(1)は、過去における映像フレーム、映像フレームの符号化処理における映像圧縮パラメータ、及び符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを取得する取得部(11)と、未来における映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する判定部(12)を備えている。

Description

映像処理システム、情報処理装置、映像処理方法、及び記録媒体
 本発明は、映像処理システム、情報処理装置、映像処理方法、及び記録媒体に関する。
 ユーザが知覚する通信品質であるQoE(Quality of Experience)を向上させる技術が知られている。特許文献1には、通信装置のリソースを、ユーザQoE及びサービス優先度に応じて割り当てる技術が記載されている。
日本国特開2011-172150号公報
 特許文献1の技術では、ビットレートとQoEとの関係性は事前に決められている。しかしながら、例えば映像を受信し、物体検出器などの機械が映像を認識するサービスの場合、当該映像を認識する精度を表すQoE指標は、ビットレートが同じであっても、映像に含まれる情報によって高かったり低かったりする。したがって、ビットレート又は画像認識精度を好適に推定することのできる技術が望まれているが、特許文献1の技術ではそのような推定を行うことはできない。
 本発明の一態様は、上記の問題に鑑みてなされたものであり、その目的の一例は、ビットレート又は画像認識精度を好適に推定することのできる技術を提供することである。
 本発明の一側面に係る映像処理システムは、過去における1又は複数フレーム分の映像フレーム、前記映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを取得する取得手段と、前記取得手段が取得したデータを参照して、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する推定手段とを備えている。
 本発明の一側面に係る映像処理システムは、第1の映像処理装置と第2の映像処理装置とを含む映像処理システムであって、前記第1の映像処理装置は、過去における1又は複数フレーム分の映像フレーム、前記映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを取得する取得手段と、前記取得手段が取得したデータから特徴量を算出する特徴量算出手段と、を備え、前記第2の映像処理装置は、前記特徴量を取得する特徴量取得手段と、前記特徴量取得手段が取得した前記特徴量から、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する推定値算出手段とを備えている。
 本発明の一側面に係る情報処理装置は、過去における1又は複数フレーム分の映像フレーム、前記映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを取得する取得手段と、前記取得手段が取得したデータから特徴量を算出する特徴量算出手段であって、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出するために参照される特徴量を算出する特徴量算出手段とを備えている。
 本発明の一側面に係る情報処理装置は、過去における1又は複数フレーム分の映像フレーム、前記映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを参照して算出された特徴量を取得する特徴量取得手段と、前記特徴量取得手段が取得した前記特徴量から、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する推定値算出手段とを備えている。
 本発明の一側面に係る情報処理方法は、過去における1又は複数フレーム分の映像フレーム、前記映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを取得することと、前記取得する工程において取得されたデータを参照して、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出することとを含む。
 本発明の一側面に係る記録媒体は、コンピュータを、過去における1又は複数フレーム分の映像フレーム、前記映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを取得する取得手段と、前記取得手段が取得したデータから特徴量を算出する特徴量算出手段であって、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出するために参照される特徴量を算出する特徴量算出手段と、として機能させるプログラムを記録したコンピュータ読み取り可能な記録媒体。
 本発明の一側面に係る記録媒体は、コンピュータを、過去における1又は複数フレーム分の映像フレーム、前記映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを参照して算出された特徴量を取得する特徴量取得手段と、前記特徴量取得手段が取得した前記特徴量から、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する推定値算出手段と、として機能させるプログラムを記録したコンピュータ読み取り可能な記録媒体。
 本発明の一態様によれば、ビットレート又は画像認識精度を好適に推定することができる。
本発明の例示的実施形態1に係る映像処理システムの構成を示すブロック図である。 本発明の例示的実施形態1に係る映像処理方法の流れを示すフロー図である。 本発明の例示的実施形態2に係る映像処理システムの構成を示すブロック図である。 本発明の例示的実施形態3に係る映像処理システムの構成を示すブロック図である。 本発明の例示的実施形態3に係る特徴量算出部及び推定値算出部が実行する処理例を示す図である。 本発明の例示的実施形態3に係る最適化部が映像圧縮パラメータを算出する方法を示すグラフである。 本発明の例示的実施形態3に係る映像処理方法の流れを示すフロー図である。 本発明の例示的実施形態4に係る映像処理システムの構成を示すブロック図である。 本発明の例示的実施形態4に係る学習部が推定値算出部を学習させる処理例を示す図である。 本発明の例示的実施形態5に係る映像処理システムの構成を示すブロック図である。 本発明の例示的実施形態5に係る最適化部が映像圧縮パラメータを算出する方法を示すグラフである。 本発明の例示的実施形態6に係る映像処理システムの構成を示すブロック図である。 本発明の例示的実施形態7に係る映像処理システムの構成を示すブロック図である。 本発明の例示的実施形態8に係る映像処理システムの構成を示すブロック図である。 本発明の例示的実施形態9に係る映像処理システムの構成を示すブロック図である。 本発明の各例示的実施形態における情報処理装置のハードウェア構成の一例を示すブロック図である。
 〔例示的実施形態1〕
 本発明の第1の例示的実施形態について、図面を参照して詳細に説明する。本例示的実施形態は、後述する例示的実施形態の基本となる形態である。
 (映像処理システム1の構成)
 本例示的実施形態に係る映像処理システム1の構成について、図1を参照して説明する。図1は、本例示的実施形態に係る映像処理システム1の構成を示すブロック図である。映像処理システム1は、映像圧縮におけるビットレート及び映像認識における映像認識精度の少なくとも何れかを推定算出するシステムである。具体的には、映像処理システム1は、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び未来における1又は複数フレーム分の映像フレームの映像認識精度の推定値の少なくとも何れかを算出する。一例として、映像処理システム1は、未来においてカメラから出力される1又は複数フレーム分の映像フレームのビットレートの推定値、及び当該映像フレームを入力として当該映像フレームに含まれる被写体を認識する認識エンジンから出力される映像認識結果の精度の推定値を算出する。
 図1に示すように、映像処理システム1は、取得部11及び判定部12を備えている。取得部11及び判定部12は、本例示的実施形態においてそれぞれ取得手段及び推定手段を実現する構成である。
 取得部11は、以下のデータの少なくとも何れかを取得する。
・過去における1又は複数フレーム分の映像フレーム
・映像フレームの符号化処理における映像圧縮パラメータ
・符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果
 映像圧縮パラメータの例として、CRF(Constant Rate Factor)及びQP(Quantization parameter)が挙げられるが、これらに限定されない。
 復号後の映像フレームの映像認識結果とは、復号後の映像フレームを入力として当該復号後の映像フレームに含まれる被写体を認識する認識エンジンから出力される映像認識結果である。また、復号後の映像フレームの映像認識結果は、人間による判断の結果、得られる情報であってもよい。
 また、取得部11は、上述したデータに加えて、以下のデータの少なくとも何れかを取得する構成であってもよい。
・過去における1又は複数フレーム分の映像フレームの符号の長さ
・符号化処理された映像フレームを復号して得られる復号後の映像フレーム
・復号後の映像フレームの映像認識処理における中間特徴量
 ここで、復号後の映像フレームの映像認識処理における中間特徴量とは、映像認識処理を実行する認識エンジンの中間層において得られる特徴量である。また、特徴量とは、映像フレームから抽出された特徴を数値化したものであり、特徴量の一例として、抽出された特徴を並べてベクトルで表した特徴ベクトルが挙げられるが、これに限定されない。
 また、上記認識エンジンは、一例として、入力層、1又は複数の中間層、及び出力層からなるニューラルネットワークで構成される。当該認識エンジンでは、入力層に映像フレームが入力されると、当該映像フレームにおける特徴量が1又は複数の中間層において抽出され、出力層から映像認識結果が出力される。ここで、当該1又は複数の中間層の少なくとも何れかにおいて抽出された特徴量が、映像フレームの映像認識処理における中間特徴量である。
 判定部12は、取得部11が取得したデータを参照して、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する。より具体的には、判定部12は、ビットレートの推定値として、未来における1又は複数フレーム分の符号化後の映像フレームの伝送ビットレートの推定値、及び、映像認識精度の推定値として、未来における1又は複数フレーム分の復号後の映像フレームの映像認識精度の推定値、の少なくとも何れかを算出する。
 判定部12の具体的構成の一例として、CNN(Convolution Neural Network)、RNN(Recurrent Neural Network)、又はそれらの組み合わせを用いることができる。また、ランダムフォレストやサポートベクターマシンのような非ニューラルネットワーク型のモデルを用いてもよい。
 以上のように、本例示的実施形態に係る映像処理システム1においては、取得部11は、過去における1又は複数フレーム分の映像フレーム、映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを取得する。そして、判定部12は、取得部11が取得したデータを参照して、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する構成が採用されている。
 したがって、本例示的実施形態に係る映像処理システム1によれば、過去における1又は複数フレーム分の映像フレーム、映像フレームの符号化処理における映像圧縮パラメータ、及び符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを参照して映像フレームのビットレート及び映像認識精度の推定値の少なくとも何れかを算出するので、ビットレート又は画像認識精度を好適に推定することができる。
 (映像処理方法S1の流れ)
 本例示的実施形態に係る映像処理方法S1の流れについて、図2を参照して説明する。図2は、映像処理方法S1の流れを示すフロー図である。
 (ステップS11)
 ステップS11において、取得部11は、過去における1又は複数フレーム分の映像フレーム、映像フレームの符号化処理における映像圧縮パラメータ、及び符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを取得する。
 (ステップS12)
 ステップS12において、判定部12は、ステップS11において取得されたデータを参照して、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する。
 以上のように、本例示的実施形態に係る映像処理方法S1においては、ステップS11において、取得部11は、過去における1又は複数フレーム分の映像フレーム、前記映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを取得する。そして、ステップS12において、判定部12が、ステップS11において取得されたデータを参照して、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する。したがって、本例示的実施形態に係る映像処理方法S1によれば、映像処理システム1と同様の効果を奏する。
 〔例示的実施形態2〕
 本発明の第2の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。
 (映像処理システム1Aの構成)
 図3は、本発明の第2の例示的実施形態に係る映像処理システム1Aの構成を示すブロック図である。映像処理システム1Aは、第1の映像処理装置10Aと第2の映像処理装置20Aとを含んでいる。
 第1の映像処理装置10Aと第2の映像処理装置20Aとは、互いに通信可能に接続されている。
 映像処理システム1Aでは、第1の映像処理装置10Aは、映像フレームに関するデータを取得し、当該データから特徴量を算出する。また、映像処理システム1Aでは、第2の映像処理装置20Aは、第1の映像処理装置10Aによって算出された特徴量を取得し、当該特徴量から、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する。
 (第1の映像処理装置10Aの構成)
 図3に示すように、第1の映像処理装置10Aは、取得部11及び特徴量算出部121を備えている。特徴量算出部121は、本例示的実施形態において特徴量算出手段を実現する構成である。取得部11は、上述した通りである。
 特徴量算出部121は、取得部11が取得したデータから特徴量を算出する。特徴量算出部121が算出した特徴量は、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出するために参照される。特徴量算出部121は、算出した特徴量を第2の映像処理装置20Aに出力する。
 (第2の映像処理装置20Aの構成)
 図3に示すように、第2の映像処理装置20Aは、特徴量取得部21及び推定値算出部122を備えている。特徴量取得部21及び推定値算出部122は、本例示的実施形態においてそれぞれ特徴量取得手段及び推定値算出手段を実現する構成である。
 特徴量取得部21は、第1の映像処理装置10Aから出力された特徴量を取得する。
 推定値算出部122は、特徴量取得部21が取得した特徴量から、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する。
 ここで、特徴量算出部121と推定値算出部122とは、上述した判定部12を構成していると言える。換言すると、判定部12は、特徴量算出部121と推定値算出部122とを備えている。
 以上のように、本例示的実施形態に係る映像処理システム1Aにおいては、第1の映像処理装置10Aは、過去における1又は複数フレーム分の映像フレーム、映像フレームの符号化処理における映像圧縮パラメータ、及び符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果の少なくとも何れかを取得し、取得したデータから特徴量を算出する。また、第2の映像処理装置20Aは、第1の映像処理装置10Aが算出した特徴量を取得し、当該特徴量から、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する。したがって、本例示的実施形態に係る映像処理システム1Aによれば、例示的実施形態1に係る映像処理システム1と同様の効果を奏する。
 〔例示的実施形態3〕
 本発明の第3の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1および2にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
 (映像処理システム1Bの構成)
 図4は、本発明の第3の例示的実施形態に係る映像処理システム1Bの構成を示すブロック図である。映像処理システム1Bは、第1の映像処理装置10Bと第2の映像処理装置20Bとを含んでいる。
 第1の映像処理装置10Bと第2の映像処理装置20Bとは、ネットワークNを介して互いに通信可能に接続されている。
 ネットワークNの具体的構成は本実施形態を限定するものではないが、一例として、無線LAN(Local Area Network)、有線LAN、WAN(Wide Area Network)、公衆回線網、モバイルデータ通信網、又は、これらのネットワークの組み合わせを用いることができる。
 映像処理システム1Bでは、第1の映像処理装置10Bは、映像データを取得し、当該映像データを符号化処理した映像フレームと、当該映像フレームの特徴量とを出力する。
 また、映像処理システム1Bでは、第2の映像処理装置20Bは、以下の処理を実行する。
・第1の映像処理装置10Bから出力された特徴量を取得し、当該特徴量から、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する
・第1の映像処理装置10Bから出力された映像フレームを取得し、当該映像フレームを復号し、復号した映像フレームを出力する
・ネットワーク統計データを取得し、未来における1又は複数フレーム分の映像フレームの符号化処理における映像圧縮パラメータを算出する
 ここで、ネットワーク統計データとは、ネットワークNの利用環境を示すデータであり、一例として、ネットワークNにおいて使用可能な帯域が挙げられるが、これに限定されない。
 (第1の映像処理装置10Bの構成)
 図4に示すように、第1の映像処理装置10Bは、取得部11、特徴量算出部121、符号化部13、及び通信部14を備えている。
 取得部11は、映像データを取得する。取得部11は、取得した映像データを、特徴量算出部121及び符号化部13に供給する。
 特徴量算出部121は、取得部11から供給された映像データ、後述する符号化部13から供給された映像フレームの符号化処理における映像圧縮パラメータ、及び後述する第2の映像処理装置20Bから出力された復号後の映像フレームの映像認識結果の少なくとも何れかを参照し、特徴量を算出する。特徴量算出部121は、算出した特徴量を、通信部14に供給する。特徴量算出部121が特徴量を算出する処理の詳細については後述する。
 符号化部13は、取得部11から供給された映像データを符号化する。より具体的には、符号化部13は、映像データを構成する映像フレームを、映像圧縮パラメータを用いて符号化する。符号化部13は、符号化した映像フレームを通信部14に供給する。また、符号化部13は、符号化処理における映像圧縮パラメータを、特徴量算出部121に供給する。
 通信部14は、ネットワークNを介して第2の映像処理装置20Bと通信する通信モジュールである。一例として、通信部14は、特徴量算出部121から供給された特徴量及び符号化部13から供給された符号化処理された映像フレームを、ネットワークNを介して第2の映像処理装置20Bに出力したり、第2の映像処理装置20Bから復号後の映像フレームの映像認識結果を取得したりする。
 (第2の映像処理装置20Bの構成)
 図4に示すように、第2の映像処理装置20Bは、特徴量取得部21、通信部23、最適化部24、復号部25、認識部26、出力部27、可用帯域予測部28、及び推定値算出部122を備えている。最適化部24は、本例示的実施形態においてパラメータ算出手段を実現する構成である。
 通信部23は、ネットワークNを介して第1の映像処理装置10Bと通信する通信モジュールである。一例として、通信部23は、第1の映像処理装置10Bから出力された特徴量及び符号化処理された映像フレームを取得したり、後述する認識部26から供給される復号後の映像フレームの映像認識結果を第1の映像処理装置10Bに出力したりする。
 特徴量取得部21は、通信部23から供給される特徴量を取得する。特徴量取得部21は、取得した特徴量を推定値算出部122に供給する。
 推定値算出部122は、特徴量取得部21が取得した特徴量から、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する。推定値算出部122が未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する処理の詳細については後述する。
 最適化部24は、推定値算出部122が算出したビットレートの推定値、及び映像認識精度の推定値を参照して、未来における1又は複数フレーム分の映像フレームの符号化処理における映像圧縮パラメータを算出する。最適化部が未来における1又は複数フレーム分の映像フレームの符号化処理における映像圧縮パラメータを算出する処理の詳細については、後述する。
 また、最適化部24は、上記データに加えて、後述する可用帯域予測部28が供給した、ネットワークNにおいて第1の映像処理装置10Bと第2の映像処理装置20Bとの通信に使用可能な可用帯域、及び未来セグメントの圧縮パラメータを更に参照し、映像圧縮パラメータを算出してもよい。
 また、最適化部24は、後述する予測値算出部1221によって参照される圧縮パラメータ候補値を導出する。最適化部24は、導出した圧縮パラメータ候補値を、予測値算出部1221に供給する。
 最適化部24は、予め設定された複数の値の少なくとも何れかを圧縮パラメータ候補値として用いてもよいし、無作為な値を有するよう導出した圧縮パラメータ候補値を用いてもよいし、過去の圧縮パラメータを参照して、圧縮パラメータ候補値を導出してもよい。
 可用帯域予測部28は、ネットワーク統計データを取得し、ネットワークNにおいて第1の映像処理装置10Bと第2の映像処理装置20Bとの通信に使用可能な可用帯域を予測する。
 復号部25は、通信部23から供給される符号化処理された映像フレームを取得し、当該映像フレームを復号する。復号部25は、復号後の映像フレームを、認識部26及び出力部27に供給する。
 認識部26は、復号部25から供給された復号後の映像フレームを入力として当該映像フレームに含まれる被写体を認識する認識エンジンから出力される映像認識結果を取得する。認識部26は、取得した映像認識結果を、通信部23に供給する。また、認識部26は、復号後の映像フレームを出力部27に供給してもよい。
 また、上記認識エンジンは、一例として、入力層、1又は複数の中間層、及び出力層からなるニューラルネットワークで構成される。当該認識エンジンでは、入力層に映像フレームが入力されると、当該映像フレームにおける特徴量が1又は複数の中間層において抽出され、出力層から映像認識結果が出力される。ここで、当該1又は複数の中間層の少なくとも何れかにおいて抽出された特徴量が、映像フレームの映像認識処理における中間特徴量である。
 なお、認識部26は、復号部25から供給された復号後の映像フレームに関する人間による映像認識結果を取得する構成としてもよい。
 出力部27は、復号部25又は認識部26から供給された復号の映像フレームを出力する。出力部27が復号の映像フレームを出力する例として、表示パネルへ出力して画像を表示する構成が挙げられるが、これに限定されない。
 (特徴量算出部121及び推定値算出部122が実行する処理例)
 特徴量算出部121及び推定値算出部122が実行する処理例について、図5を用いて説明する。図5は、本発明の第3の例示的実施形態に係る特徴量算出部121及び推定値算出部122が実行する処理例を示す図である。
 図5に示す図において、縦方向に模式的な時間軸が設定されており、時間軸上に各圧縮前映像を示している。また、一例として、現時点は時点t1で示されており、圧縮前映像の映像フレームPF1、映像フレームPF2、・・・映像フレームPFnは過去の映像フレームの集合である過去セグメント(過去における1又は複数フレーム分の映像フレーム)であり、映像フレームFF1、・・・映像フレームFFnは未来の映像フレームの集合である未来セグメント(未来における1又は複数フレーム分の映像フレーム)である。
 図5に示す図では、図4における特徴量算出部121及び推定値算出部122が実行する処理について説明するため、特徴量算出部121及び推定値算出部122の間でデータを送受信する通信部14及び通信部23といったブロックは省略している。
 図5に示すように、特徴量算出部121は、特徴量抽出部1211、第1の集約部1212、及び第2の集約部1213を備えている。
 特徴量抽出部1211は、過去セグメントを構成する映像フレームPF1~PFnを取得し、映像フレームPF1~PFnにおける特徴量を算出する。特徴量抽出部1211は、算出した特徴量を第1の集約部1212に供給する。
 第1の集約部1212は、特徴量算出部121から供給された特徴量と、過去セグメントの圧縮パラメータCPとを取得し、取得した特徴量及び圧縮パラメータCPを各フレームに関して集約する。一例として、第1の集約部1212は、各フレームに関し、特徴量算出部121から供給された特徴量と、過去セグメントの圧縮パラメータCPとを、畳み込み層及びReLU(Rectified Linear Unit)層において繰り返し処理し、集約されたデータを算出する。第1の集約部1212は、集約したデータを第2の集約部1213に供給する。
 第2の集約部1213は、第1の集約部1212から供給されたデータを取得し、時間軸上の集約を行う。一例として、第2の集約部1213は、映像フレームPF1~PFnそれぞれの集約したデータを、時間軸の畳み込み層及びReLU層において繰り返し処理し、時間軸上に集約した特徴量SVを算出する。第2の集約部1213は、算出した特徴量SVとして出力する。
 第1の集約部1212及び第2の集約部1213の具体的構成の一例として、CNN(Convolution Neural Network)、RNN(Recurrent Neural Network)、又はそれらの組み合わせを用いることができる。また、ランダムフォレストやサポートベクターマシンのような非ニューラルネットワーク型のモデルを用いてもよい。
 また、図5に示すように、推定値算出部122は、予測値算出部1221を備えている。予測値算出部1221は、本例示的実施形態において候補値取得手段を実現する構成である。
 予測値算出部1221は、第2の集約部1213から出力された特徴量SVと、未来における1又は複数フレーム分における映像圧縮パラメータの候補値である圧縮パラメータ候補値FCPCとを取得し、未来セグメントのビットレートの予測値(推定値)及び未来セグメントの映像認識精度の予測値(推定値)の少なくとも何れかを算出する。一例として、予測値算出部1221は、FC(Fully Connected)層やReLU層において繰り返し予測値を算出する処理を行い、最適化部24から供給される未来セグメントの圧縮パラメータ候補値FCPCのそれぞれに対して、未来セグメントのビットレートの予測値及び未来セグメントの映像認識精度の予測値の少なくとも何れかを算出する。
 (最適化部24が実行する処理例)
 最適化部24が実行する処理例について、図6を用いて説明する。図6は、本発明の第3の例示的実施形態に係る最適化部24が映像圧縮パラメータを算出する方法を示すグラフである。
 まず、最適化部24は、未来セグメントの圧縮パラメータ候補値FCPCに対して推定値算出部122が算出した、未来セグメントのビットレートの推定値及び未来セグメントの映像認識精度の推定値の少なくとも何れかを、予め蓄積する。図6の上段の図は、最適化部24が蓄積した未来セグメントのビットレートの推定値及び未来セグメントの映像認識精度の推定値の関係を示すグラフである。
 次に、最適化部24は、未来セグメントのビットレートの推定値及び未来セグメントの映像認識精度の推定値等を参照し、未来における1又は複数フレーム分の映像フレームの符号化処理における映像圧縮パラメータを算出する。一例として、最適化部24は、勾配法等を用いて、未来における1又は複数フレーム分の映像フレームの符号化処理における映像圧縮パラメータを算出する。例えば、最適化部24は、以下の数式(1)を用いて、未来における1又は複数フレーム分の映像の符号化処理における映像圧縮パラメータを算出する。数式(1)は、ビットレートの推定値と映像認識精度の推定値とを引数とする所定の損失関数である。
Figure JPOXMLDOC01-appb-M000001
 数式(1)における各変数は、以下を表している。
λ:算出された映像圧縮パラメータ
C:映像データの数(本例示的実施形態ではC=1)
:映像フレームにおける映像認識誤差(認識精度の逆数など)の推定値
λ:映像フレームの圧縮パラメータ候補値
:過去における1又は複数フレーム分の映像フレーム、映像フレームの符号化処理における映像圧縮パラメータ、及び符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れか
:映像フレームにおけるビットレートの推定値
B:可用帯域予測部28が予測した可用帯域
 すなわち、まず、予測値算出部1221が、未来における1又は複数フレーム分における映像圧縮パラメータの候補値である圧縮パラメータ候補値λを複数取得する。そして、予測値算出部1221は、取得した複数の映像圧縮パラメータλの候補値の各々について、過去における1又は複数フレーム分の映像フレーム、映像フレームの符号化処理における映像圧縮パラメータ、及び符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかであるXを参照して、ビットレートの推定値R、及び映像認識誤差の推定値D(換言すると、映像認識精度の推定値の逆数)を算出する。これにより、予測値算出部1221は、ビットレートの推定値Rの分布、及び映像認識精誤差の推定値Dの分布を得ることができる。
 次に、最適化部24は、予測値算出部1221が取得した複数の映像圧縮パラメータλの候補値の各々についての、ビットレートの推定値Rと映像認識誤差の推定値D(換言すると、映像認識精度の推定値の逆数)とを引数とする所定の損失関数である数式(1)がより小さくなるように、前記映像圧縮パラメータλを算出する。数式(1)によって算出されたλは、図6の下段のグラフにおけるOBに対応する。
 より具体的には、ある映像セグメントにおいて、予測値算出部1221は、圧縮パラメータ候補値λC1,λC2,λC3・・・を取得する。次に、予測値算出部1221は、取得した圧縮パラメータ候補値λC1,λC2,λC3・・・の各々について、ビットレートの各推定値R、及び映像認識誤差の各推定値Dを算出する。そして、最適化部24は、予測値算出部1221が算出したビットレートの各推定値R、及び各映像認識誤差の推定値Dを参照し、勾配法などを用いた数式(1)により、映像圧縮パラメータλを算出する。
 このように、予測値算出部1221及び最適化部24は、複数の映像圧縮パラメータの候補値について、映像圧縮パラメータλを算出し、最も小さい映像圧縮パラメータλを算出する。
 (映像処理方法S1Bの流れ)
 本例示的実施形態に係る映像処理方法S1Bの流れについて、図7を参照して説明する。図7は、映像処理方法S1Bの流れを示すフロー図である。
 (ステップS101)                
 ステップS101において、第1の映像処理装置10Bの取得部11は、対象セグメントの映像データを取得する。
 (ステップS102)
 ステップS102において、符号化部13は、取得部11が取得した映像データを、映像圧縮パラメータを用いて符号化し、符号化データを生成する。
 (ステップS103)
 ステップS103において、特徴量算出部121は、取得部11が取得した映像データ、符号化部13が符号化処理において用いた映像圧縮パラメータ、及び第2の映像処理装置20Bから出力された復号後の映像フレームの映像認識結果の少なくとも何れかを参照し、映像データの特徴量を算出する。特徴量算出部121による具体的な処理は上述したためここでは説明を省略する。
 (ステップS104)
 ステップS104において、通信部14は、特徴量算出部121が算出した特徴量及び符号化部13が符号化処理を行った際に用いた符号化データを、ネットワークNを介して第2の映像処理装置20Bに送信する。
 (ステップS201)
 ステップS201において、第2の映像処理装置20Bの通信部23は、第1の映像処理装置10Bから送信された特徴量及び符号化データを受信する。
 (ステップS202)
 ステップS202において、復号部25は、通信部23が受信した符号化データを復号し、映像データを復元する。
 (ステップS203)
 ステップS203において、認識部26は、復号部25が復号した映像データの映像認識処理を実行する。
 (ステップS204)
 ステップS204において、出力部27は、復号部25が復号した映像データを出力する。また、認識部26は、ステップS203において実行した映像認識処理の結果を示す映像認識結果を、通信部23に供給する。通信部23は、供給された映像認識結果を、ネットワークNを介して第1の映像処理装置10Bに送信する。第1の映像処理装置10Bの通信部14は、映像認識結果を受信すると、当該映像認識結果を特徴量算出部121に供給する。特徴量算出部121は、供給された映像認識結果を参照し、特徴量を算出する。
 (ステップS205)
 ステップS205において、特徴量取得部21は、通信部23が受信した特徴量を取得する。次に、推定値算出部122は、特徴量取得部21が取得した特徴量から、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値を算出する。また、ステップS205において、推定値算出部122は、未来における1又は複数フレーム分における映像圧縮パラメータの候補値FCPCを取得し、当該映像圧縮パラメータの候補値FCPCを更に参照して、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出してもよい。推定値算出部122による具体的な処理は上述したためここでは説明を省略する。
 (ステップS206)
 ステップS206において、最適化部24は、推定値算出部122が算出したビットレートの推定値、及び映像認識精度の推定値を参照して、未来セグメントの符号化処理における映像圧縮パラメータを算出する。最適化部24による具体的な処理は上述したためここでは説明を省略する。
 (ステップS207)
 ステップS207において、通信部23は、最適化部24が算出した映像圧縮パラメータを第1の映像処理装置10BにネットワークNを介して送信する。第1の映像処理装置10Bの通信部14は、映像圧縮パラメータを受信すると、当該映像圧縮パラメータを符号化部13に供給する。符号化部13は、未来セグメントの符号化処理において、供給された映像圧縮パラメータを用いる。
 以上のように、本例示的実施形態に係る映像処理システム1Bにおいては、第2の映像処理装置20Bにおける最適化部24は、ステップS206において、ビットレートの推定値及び映像認識精度の推定値を参照して、未来における1又は複数フレーム分の映像フレームの符号化処理における映像圧縮パラメータを算出する。したがって、本例示的実施形態に係る映像処理システム1Bによれば、未来における1又は複数フレーム分の映像フレームの符号化処理における好適な映像圧縮パラメータを好適に算出することができる。
 また、本例示的実施形態に係る映像処理システム1Bにおいては、第2の映像処理装置20Bにおける推定値算出部122は、ステップS205において、未来における1又は複数フレーム分における映像圧縮パラメータの候補値FCPCを取得し、映像圧縮パラメータの候補値FCPCを更に参照して、ビットレートの推定値及び映像認識精度の推定値を算出する。したがって、本例示的実施形態に係る映像処理システム1Bによれば、好適なビットレートの推定値及び映像認識精度の推定値を好適に算出することができる。
 〔例示的実施形態4〕
 本発明の第4の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1~3にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
 (映像処理システム1Cの構成)
 図8は、本発明の第4の例示的実施形態に係る映像処理システム1Cの構成を示すブロック図である。映像処理システム1Cは、上述した映像処理システム1Bにおける第1の映像処理装置10Bと第2の映像処理装置20Bとに替えて、第1の映像処理装置10Cと第2の映像処理装置20Cとを含む構成である。
 映像処理システム1Cでは、第1の映像処理装置10Bと第2の映像処理装置20Bとは、それぞれ教師データを取得し、特徴量算出部121と推定値算出部122とを学習させる。
 (第1の映像処理装置10Cの構成)
 図8に示すように、第1の映像処理装置10Cは、上述した第1の映像処理装置10Bが備える構成に加えて、学習部19を備えている。取得部11及び学習部19は、それぞれ本例示的実施形態において取得手段及び学習手段を実現する構成である。
 取得部11は、過去における1又は複数フレーム分の映像フレーム、当該映像フレームの符号化処理における映像圧縮パラメータ、及び符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかと、当該過去よりも後の時点における1又は複数フレーム分の映像フレームの実際のビットレート、及び実際の映像認識精度の少なくとも何れかとの組を含む教師データを取得する。
 学習部19は、上記教師データを用いて、特徴量算出部121を学習させる。学習部19の処理の詳細については、後述する。
 (第2の映像処理装置20Cの構成)
 一方、図8に示すように、第2の映像処理装置20Cは、上述した第2の映像処理装置20Bが備える構成に加えて、学習部29を備えている。学習部29は、本例示的実施形態において取得手段及び学習手段を実現する構成である。
 学習部29は、第1の映像処理装置10Cの取得部11から、上記教師データを取得する。より具体的には、学習部29は、過去における1又は複数フレーム分の映像フレーム、映像フレームの符号化処理における映像圧縮パラメータ、及び符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかと、当該過去よりも後の時点における1又は複数フレーム分の映像フレームの実際のビットレート、及び実際の映像認識精度の少なくとも何れかとの組を含む教師データを取得する。
 そして、学習部29は、取得した教師データを用いて、推定値算出部122を学習させる。学習部29の処理の詳細については、後述する。
 (学習部19及び学習部29による学習処理例)
 学習部29が推定値算出部122を学習させる処理例、及び学習部19が特徴量算出部121を学習させる処理例について、図9を用いて説明する。図9は、本発明の第4の例示的実施形態に係る学習部29が推定値算出部122を学習させる処理例、及び学習部19が特徴量算出部121を学習させる処理例を模式的に示す図である。
 図9に示す図において、縦方向に模式的な時間軸が設定されており、時間軸上に各圧縮前映像を示している。また、一例として、映像フレームPF1~PFnより後の時点であり、映像フレームFF1~FFnより前の時点を時点t1、映像フレームPF1~PFnより後の時点を時点t2で示している。
 まず、図5を参照して説明した処理と同様に、推定値算出部122は、時点t1において、過去における映像フレームPF1~PFn、映像フレームPF1~PFnの符号化処理における映像圧縮パラメータ、及び符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果の少なくとも何れかを参照し、未来セグメントである映像フレームFF1~FFnの映像認識精度の推定値と、ビットレートの推定値とを算出する。そして、例示的実施形態では、推定値算出部122は、算出した映像認識精度の推定値とビットレートの推定値とを、図示しない記憶部に格納する。ここで、推定値算出部122による上記各値の算出処理は、一例として学習部29による指示に基づくものであってもよい。また、推定値算出部122が参照する上記各データは、上述した教師データの一部を構成する。
 次に、時点t2において、符号化部13は、映像フレームFF1~FFnを符号化する。当該映像フレームFF1~FFnは、時点t1では、未来における映像フレームであったが、時点t2では、過去における映像フレームになっている。符号化部13は、符号化処理した映像フレームFF1~FFnの実際のビットレートと、映像フレームFF1~FFnを符号化処理して得られた符号化データとを第2の映像処理装置20Cに出力する。
 第2の映像処理装置20Cの復号部25は、符号化部13から出力された符号化データを取得し、当該符号化データを復号して映像データを復元する。また、復号部25は、符号化部13から取得した実際のビットレートを、図示しない記憶部に格納する。そして、認識部26は、復号部25が復号した映像データの映像認識処理を行い、映像認識における実際の映像認識精度を取得する。認識部26は、取得した実際の映像認識精度を、図示しない記憶部に格納する。上述した実際のビットレートと実際の映像認識精度は、上述した教師データの一部を構成する。
 学習部29は、
  上述した映像フレームFF1~FFnに関する映像認識精度の推定値及びビットレートの推定値と、
  上述した映像フレームFF1~FFnに関する実際の映像認識精度及び実際のビットレートと
のそれぞれの相違が小さくなるように、推定値算出部122におけるパラメータを更新することによって推定値算出部122を学習させる。ここで、映像フレームFF1~FFnに関する映像認識精度の推定値及びビットレートの推定値は、上述の処理によって、推定値算出部122が算出したものである。
 同様に、学習部19は、
  上述した映像フレームFF1~FFnに関する映像認識精度の推定値及びビットレートの推定値と、
  上述した映像フレームFF1~FFnに関する実際の映像認識精度及び実際のビットレートと
のそれぞれの相違が小さくなるように、特徴量算出部121におけるパラメータを更新することによって特徴量算出部121を学習させる。ここで、映像フレームFF1~FFnに関する映像認識精度の推定値及びビットレートの推定値は、上述の処理によって、推定値算出部122が算出したものである。
 このように、学習部19、及び学習部29は、
  過去における映像フレームPF1~PFn、映像フレームPF1~PFnの符号化処理における映像圧縮パラメータ、及び符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果の少なくとも何れかと、
  前記過去よりの後の時点における映像フレームFF1~FFnの実際の映像認識精度及び実際のビットレートと
を含む教師データを用いて、
  上述した映像フレームFF1~FFnに関する映像認識精度の推定値及びビットレートの推定値と、
  上述した映像フレームFF1~FFnに関する実際の映像認識精度及び実際のビットレートと
のそれぞれの相違が小さくなるように、特徴量算出部121及び推定値算出部122を学習させる。
 
 したがって、本例示的実施形態に係る映像処理システム1Cによれば、特徴量算出部121及び推定値算出部122が学習されるので、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値が好適に算出される。
 〔例示的実施形態5〕
 本発明の第5の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1~4にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
 (映像処理システム1Dの構成)
 図10は、本発明の第5の例示的実施形態に係る映像処理システム1Dの構成を示すブロック図である。映像処理システム1Dは、映像処理システム1Bにおける第1の映像処理装置10Bを複数備え、更に第2の映像処理装置20Bに替えて、第2の映像処理装置20Dを含む構成である。
 映像処理システム1Dでは、複数の伝送対象映像の各々に関して、第1の映像処理装置10B-1は映像データ1を取得し、第1の映像処理装置10B-2は映像データ2を取得し、第1の映像処理装置10B-3は映像データ3を取得する。また、映像処理システム1Dでは、第2の映像処理装置20Dは、複数の伝送対象映像の各々に関して、未来における1又は複数フレーム分の映像フレームの符号化処理における映像圧縮パラメータを算出する。
 なお、図10に示す例では、第1の映像処理装置10B-1、第1の映像処理装置10B-2、及び第1の映像処理装置10B-3の3つを例示しているが、これは本例示的実施形態を限定するものではない。映像処理システム1Dは、任意の個数の第1の映像処理装置を含む構成とすることができる。また、本例示的実施形態において、複数の第1の映像処理装置は、互いに同様な要部構成を備えている。
 (第2の映像処理装置20Dの構成)
 図10に示すように、第2の映像処理装置20Dは、第2の映像処理装置20Bにおける推定値算出部122及び最適化部24に替えて、推定値算出部122a及び最適化部24aを備えている。
 推定値算出部122aは、複数の伝送対象映像の各々に関し、第1の映像処理装置10B-1~10B-3から送信された各特徴量を参照し、未来における1又は複数フレーム分の映像フレームのビットレートの各推定値、及び映像認識精度の各推定値を算出する。ここで、第1の映像処理装置10B-1~10B-3から送信される各特徴量は、上述したように、各々の取得部11が取得した過去における1又は複数フレーム分の映像フレーム、前記映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果の少なくとも何れかを特徴量算出部121が参照して算出したデータである。
 最適化部24aは、複数の伝送対象映像の各々に関する、ビットレートの推定値、及び前記映像認識精度の推定値を参照して、複数の伝送対象映像の各々に関する、未来における1又は複数フレーム分の映像フレームの符号化処理における映像圧縮パラメータを算出する。
 (最適化部24aが実行する処理例)
 最適化部24aが実行する処理例について、図11を用いて説明する。図11は、本発明の第5の例示的実施形態に係る最適化部24aが映像圧縮パラメータを算出する方法を示すグラフである。
 最適化部24aは、複数の伝送対象映像の各々に関して、未来セグメントの圧縮パラメータ候補値FCPCのそれぞれに対して推定値算出部122が算出した、未来セグメントのビットレートの推定値及び未来セグメントの映像認識精度の推定値の少なくとも何れかを、予め蓄積する。図11の上段の図は、映像データ1、映像データ2、及び映像データ3の各々に関して、最適化部24aが蓄積した未来セグメントのビットレートの推定値及び未来セグメントの映像認識精度の推定値の関係を示すグラフである。
 次に、最適化部24aは、複数の伝送対象映像の各々に関して、未来セグメントのビットレートの推定値及び未来セグメントの映像認識精度の推定値等を参照し、未来における1又は複数フレーム分の映像フレームの符号化処理における映像圧縮パラメータを算出する。一例として、最適化部24aは、以下の数式(2)を用いて、複数の伝送対象映像の各々に関する、未来における1又は複数フレーム分の映像フレームの符号化処理における映像圧縮パラメータを算出する。
Figure JPOXMLDOC01-appb-M000002
 数式(2)における各変数は、数式(1)と同様、以下を表している。
λ:算出された映像圧縮パラメータ
C:映像の数
:映像フレームにおける映像認識誤差(認識精度の逆数など)の推定値
λ:映像フレームの圧縮パラメータ候補値
:過去における1又は複数フレーム分の映像フレーム、映像フレームの符号化処理における映像圧縮パラメータ、及び符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れか
:映像フレームにおけるビットレートの推定値
B:可用帯域予測部28が予測した可用帯域
 ここで、上述した例示的実施形態では、映像の数C=1であったが、本例示的実施形態では、映像の数Cは、第1の映像処理装置10Bの数と等しくなる。例えば、図10に示す映像処理システム1Dでは、映像の数C=3である。
 すなわち、まず、予測値算出部1221が、未来における1又は複数フレーム分における映像圧縮パラメータの候補値である圧縮パラメータ候補値λを複数取得する。そして、予測値算出部1221は、取得した複数の映像圧縮パラメータλの候補値の各々について、複数の伝送対象映像の各々に関し、過去における1又は複数フレーム分の映像フレーム、映像フレームの符号化処理における映像圧縮パラメータ、及び符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかであるXを参照して、ビットレートの推定値R、及び映像認識誤差(換言すると、映像認識精度の推定値の逆数)の推定値Dを算出する。これにより、予測値算出部1221は、複数の伝送対象映像の各々に関し、ビットレートの推定値Rの分布、及び映像認識誤差の推定値Dの分布を得ることができる。
 次に、最適化部24は、複数の伝送対象映像の各々に関し、予測値算出部1221が取得した複数の映像圧縮パラメータλの候補値の各々についての、ビットレートの推定値Rと映像認識誤差の推定値D(換言すると、映像認識精度の推定値の逆数)とを引数とする所定の損失関数である数式(2)がより小さくなるように、前記映像圧縮パラメータλを算出する。数式(2)によって算出された各映像データのλは、図11の下段のグラフにおいて、それぞれ映像データ1がOB1、映像データ2がOB2、映像データ3がOB3に対応する。
 より具体的には、複数の伝送対象映像の各々におけるある映像セグメントにおいて、予測値算出部1221は、圧縮パラメータ候補値λC1,λC2,λC3・・・を取得する。次に、予測値算出部1221は、取得した圧縮パラメータ候補値λC1,λC2,λC3・・・の各々について、ビットレートの各推定値R、及び映像認識誤差の各推定値Dを算出する。そして、最適化部24は、予測値算出部1221が算出したビットレートの各推定値R、及び各映像認識誤差の推定値Dを参照し、勾配法などを用いた数式(2)によって、映像圧縮パラメータλを算出する。
 以上のように、本例示的実施形態に係る映像処理システム1Dにおいては、第1の映像処理装置10Bの取得部11は、複数の伝送対象映像の各々に関し、過去における1又は複数フレーム分の映像フレーム、映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果の少なくとも何れかを取得する。次に、本例示的実施形態に係る映像処理システム1Dにおいては、第1の映像処理装置10Bの特徴量算出部121及び第2の映像処理装置20Bの推定値算出部122aは、複数の伝送対象映像の各々に関し、取得部11が取得したデータを参照して、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値を算出する。そして、本例示的実施形態に係る映像処理システム1Dにおいては、第2の映像処理装置20Bの最適化部24aは、複数の伝送対象映像の各々に関する、ビットレートの推定値、及び映像認識精度の推定値を参照して、複数の伝送対象映像の各々に関する、未来における1又は複数フレーム分の映像フレームの符号化処理における映像圧縮パラメータを算出する。したがって、本例示的実施形態に係る映像処理システム1Dによれば、複数の伝送対象映像の各々に関する、未来における1又は複数フレーム分の映像フレームの符号化処理における好適な映像圧縮パラメータを算出することができる。
 〔例示的実施形態6〕
 本発明の第6の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1~5にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
 (映像処理システム1Eの構成)
 図12は、本発明の第6の例示的実施形態に係る映像処理システム1Eの構成を示すブロック図である。映像処理システム1Eは、映像処理システム1Bにおける第2の映像処理装置20Bに替えて、第2の映像処理装置20Eを含む構成である。
 映像処理システム1Eでは、第2の映像処理装置20Eは、
・過去における1又は複数フレーム分の映像フレームの符号の長さ
・符号化処理された映像フレームを復号して得られる復号後の映像フレーム
・復号後の映像フレームの映像認識処理結果、又は当該映像認識処理における中間特徴量
の少なくとも何れかを更に参照し、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する。
 (第2の映像処理装置20Eの構成)
 図12に示すように、第2の映像処理装置20Eでは、推定値算出部122は復号部25と認識部26からデータを取得する構成になっている。推定値算出部122は、本例示的実施形態において取得手段を実現する構成である。
 一例として、推定値算出部122は、復号部25から、過去における1又は複数フレーム分の映像フレームの符号の長さ及び復号後の映像フレームの少なくとも何れかを取得し、認識部26から、復号後の映像フレームの映像認識処理結果、又は当該映像認識処理における中間特徴量を取得する。そして、推定値算出部122は、特徴量取得部21が取得した特徴量に加えて、復号後の映像フレーム、及び復号後の映像フレームの映像認識処理結果又は当該映像認識処理における中間特徴量の少なくとも何れかを更に参照し、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する。
 ここで、映像認識処理における中間特徴量とは、映像認識処理を実行する認識エンジンの中間層において得られる特徴量である。また、特徴量とは、映像フレームから抽出された特徴を数値化したものであり、特徴量の一例として、抽出された特徴を並べてベクトルで表した特徴ベクトルが挙げられるが、これに限定されない。
 また、上記認識エンジンは、一例として、入力層、1又は複数の中間層、及び出力層からなるニューラルネットワークで構成される。当該認識エンジンでは、入力層に映像フレームが入力されると、当該映像フレームにおける特徴量が1又は複数の中間層において抽出され、出力層から映像認識結果が出力される。ここで、当該1又は複数の中間層の少なくとも何れかにおいて抽出された特徴量が、映像フレームの映像認識処理における中間特徴量である。
 以上のように、本例示的実施形態に係る映像処理システム1Eにおいては、第2の映像処理装置20Eの推定値算出部122は、過去における1又は複数フレーム分の映像フレームの符号の長さ、符号化処理された映像フレームを復号して得られる復号後の映像フレーム、及び復号後の映像フレームの映像認識処理結果又は当該映像認識処理における中間特徴量の少なくとも何れかを更に参照し、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する。したがって、本例示的実施形態に係る映像処理システム1Eによれば、より好適なビットレートの推定値及び映像認識精度の推定値を好適に算出することができる。
 〔例示的実施形態7〕
 本発明の第7の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1~6にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
 (映像処理システム1Fの構成)
 図13は、本発明の第7の例示的実施形態に係る映像処理システム1Fの構成を示すブロック図である。映像処理システム1Fは、映像処理システム1Bにおける第1の映像処理装置10B及び第2の映像処理装置20Bに替えて、第1の映像処理装置10F及び第2の映像処理装置20Fを含む構成である。
 映像処理システム1Fでは、映像フレームの特徴量を、第2の映像処理装置20Fにおいて算出する。
 (第1の映像処理装置10F)
 図13に示すように、第1の映像処理装置10Fは、第1の映像処理装置10Bにおける特徴量算出部121を含まない構成である。すなわち、第1の映像処理装置10Fでは、通信部14を介して、第2の映像処理装置20Fに対して、符号化部13が符号化処理を行った符号化データと、符号化部13が符号化処理に用いて映像圧縮パラメータと、取得部11が取得したデータとを送信する。
 (第2の映像処理装置20F)
 図13に示すように、第2の映像処理装置20Fは、第2の映像処理装置20Bにおける特徴量取得部21に替えて、特徴量算出部121を含む構成である。また、第2の映像処理装置20Fでは、特徴量算出部121は、復号部25及び認識部26からデータを取得する構成になっている。
 特徴量算出部121は、復号部25から供給される復号後の映像フレームと、認識部26から供給される号後の映像フレームの映像認識結果と、第1の映像処理装置10Fから送信される映像圧縮パラメータ及び取得部11が取得したデータとを取得する。そして、特徴量算出部121は、取得した復号後の映像フレーム、映像認識結果、映像圧縮パラメータ、及び取得部11が取得したデータを参照して、特徴量を算出する。特徴量算出部121は、算出した特徴量を、推定値算出部122に供給する。推定値算出部122特徴量取得部21が取得した特徴量から、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する。
 以上のように、本例示的実施形態に係る映像処理システム1Fにおいては、第2の映像処理装置20Fが特徴量算出部121を備えている。したがって、本例示的実施形態に係る映像処理システム1Fによれば、特徴量の算出と、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかの算出と、未来における1又は複数フレーム分の映像フレームの符号化処理における映像圧縮パラメータの算出と、といった算出処理を、第2の映像処理装置20Fのみで行うことができる。
 〔例示的実施形態8〕
 本発明の第8の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1~7にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
 (映像処理システム1Gの構成)
 図14は、本発明の第8の例示的実施形態に係る映像処理システム1Gの構成を示すブロック図である。映像処理システム1Gは、映像処理システム1Bにおける第2の映像処理装置20Bに替えて、第2の映像処理装置20Gを含み、更に第3の映像処理装置30Gを含む構成である。
 映像処理システム1Gでは、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかの算出と、未来における1又は複数フレーム分の映像フレームの符号化処理における映像圧縮パラメータの算出とを、第2の映像処理装置20Gが行う。そして、符号化データの復号、復号後の映像フレームの映像認識処理、及び復号後の映像フレームの出力を第3の映像処理装置30Gが行う。
 (第2の映像処理装置20Gの構成)
 図14に示すように、第2の映像処理装置20Gは、第2の映像処理装置20Bにおける復号部25、認識部26、及び出力部27を備えない構成になっている。すなわち、第2の映像処理装置20Gでは、推定値算出部122において、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかが算出され、最適化部24において、未来における1又は複数フレーム分の映像フレームの符号化処理における映像圧縮パラメータを算出される。そして、第2の映像処理装置20Gは、算出した映像圧縮パラメータを、第1の映像処理装置10Bに送信する。
 (第3の映像処理装置30Gの構成)
 図14に示すように、第3の映像処理装置30Gは、復号部25、認識部26、及び出力部27を備えている。すなわち、第3の映像処理装置30Gでは、復号部25において符号化データの復号が行われ、認識部26において復号後の映像フレームの映像認識処理が行われ、出力部27において映像フレームの出力が行われる。
 以上のように、本例示的実施形態に係る映像処理システム1Gにおいては、第1の映像処理装置10Bと第2の映像処理装置20Gとの間においてはデータの送受信が発生するが、第3の映像処理装置30Gはデータの受信しか行わない。したがって、第1の映像処理装置10Bと第2の映像処理装置20Gとの間の物理的な距離を縮めたり、第1の映像処理装置10Bと第2の映像処理装置20Gとの間において中継する装置を少なくしたりすることにより、映像処理システム1FにおけるRTT(Round Trip Time)を短くすることができる。
 〔例示的実施形態9〕
 本発明の第9の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1~8にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
 (映像処理システム1Hの構成)
 図15は、本発明の第9の例示的実施形態に係る映像処理システム1Hの構成を示すブロック図である。映像処理システム1Hは、映像処理システム1Bにおける第2の映像処理装置20Bに替えて、第2の映像処理装置20Hを含む構成である。
 映像処理システム1Hでは、第2の映像処理装置20Hは、パケットロスの発生率を予測し、予測したパケットロスの発生率を参照して、未来における1又は複数フレーム分の映像フレームの符号化処理における映像圧縮パラメータを算出する。
 (第2の映像処理装置20Hの構成)
 図15に示すように、第2の映像処理装置20Hは、第2の映像処理装置20Bに、パケットロス予測部31及びパケットロス検出部32を加えた構成になっている。
 パケットロス予測部31は、データの送受信においてパケットロスが発生する頻度であるパケットロス率を予測する。パケットロス予測部31は、予測したパケットロス率を、推定値算出部122に供給する。
 パケットロス検出部32は、過去のデータの送受信において発生したパケットロスを検出する。パケットロス検出部32は、パケットロスの検出結果を、推定値算出部122に供給する。
 推定値算出部122は、上述した特徴量取得部21が取得した特徴量に加えて、パケットロス予測部31が供給したパケットロス率、及びパケットロス検出部32が供給した検出結果を更に参照し、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する。
 一例として、パケットロス検出部32が供給した検出結果がパケットロスが発生したことを示す場合、推定値算出部122は、受信した符号化データにおけるGOP(Group Of Picture)をどのように設定するかを示すパラメータを参照し、パケットロスが発生したフレームを含むGOPの映像認識精度の推定値が、他のGOPの映像認識精度の推定値よりも低くなるようにする。
 また、他の例として、推定値算出部122は、パケットロス予測部31が供給したパケットロス率が所定の値より高いフレームを含むGOPの映像認識精度の推定値が、他のGOPの映像認識精度の推定値よりも低くなるようにする。
 以上のように、本例示的実施形態に係る映像処理システム1Hにおいては、第2の映像処理装置20Hは、データの送受信においてパケットロスが発生する頻度であるパケットロス率を予測するパケットロス予測部31と、過去のデータの送受信において発生したパケットロスを検出するパケットロス検出部32とを備える。したがって、本例示的実施形態に係る映像処理システム1Hによれば、パケットロスが発生したか否か、又は予測したパケットロス率が所定の値より低いか否かを参照して、映像認識精度の推定値を算出するので、好適な映像認識精度の推定値を好適に算出することができる。
 (付記事項)
 各実施形態における技術は、1又は複数のAGV(Automatic Guided Vehicle)、建設機械、自動運転車両、及び監視システム等に広く適用可能である。
 例えば、各実施形態における技術は、複数の作業現場のそれぞれに設置されている複数のカメラから映像を受信し、当該複数のカメラによって撮像された映像を認識し、危険検知及び通知をするシステムにおいて、当該複数のカメラのそれぞれに割り当てる好適なビットレートの算出に用いることができる。
 〔ソフトウェアによる実現例〕
 映像処理システム1、第1の映像処理装置10A、10B、10C、10F、第2の映像処理装置20A、20B、20C、20D、20E、20F、20G、20H、及び第3の映像処理装置30Gの一部又は全部の機能は、集積回路(ICチップ)等のハードウェアによって実現してもよいし、ソフトウェアによって実現してもよい。
 後者の場合、映像処理システム1、第1の映像処理装置10A、10B、10C、10F、第2の映像処理装置20A、20B、20C、20D、20E、20F、20G、20H、及び第3の映像処理装置30Gは、例えば、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータによって実現される。このようなコンピュータの一例(以下、コンピュータCと記載する)を図16に示す。コンピュータCは、少なくとも1つのプロセッサC1と、少なくとも1つのメモリC2と、を備えている。メモリC2には、コンピュータCを映像処理システム1、第1の映像処理装置10A、10B、10C、10F、第2の映像処理装置20A、20B、20C、20D、20E、20F、20G、20H、及び第3の映像処理装置30Gとして動作させるためのプログラムPが記録されている。コンピュータCにおいて、プロセッサC1は、プログラムPをメモリC2から読み取って実行することにより、映像処理システム1、第1の映像処理装置10A、10B、10C、10F、第2の映像処理装置20A、20B、20C、20D、20E、20F、20G、20H、及び第3の映像処理装置30Gの各機能が実現される。
 プロセッサC1としては、例えば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、DSP(Digital Signal Processor)、MPU(Micro Processing Unit)、FPU(Floating point number Processing Unit)、PPU(Physics Processing Unit)、マイクロコントローラ、又は、これらの組み合わせなどを用いることができる。メモリC2としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は、これらの組み合わせなどを用いることができる。
 なお、コンピュータCは、プログラムPを実行時に展開したり、各種データを一時的に記憶したりするためのRAM(Random Access Memory)を更に備えていてもよい。また、コンピュータCは、他の装置との間でデータを送受信するための通信インタフェースを更に備えていてもよい。また、コンピュータCは、キーボードやマウス、ディスプレイやプリンタなどの入出力機器を接続するための入出力インタフェースを更に備えていてもよい。
 また、プログラムPは、コンピュータCが読み取り可能な、一時的でない有形の記録媒体Mに記録することができる。このような記録媒体Mとしては、例えば、テープ、ディスク、カード、半導体メモリ、又はプログラマブルな論理回路などを用いることができる。コンピュータCは、このような記録媒体Mを介してプログラムPを取得することができる。また、プログラムPは、伝送媒体を介して伝送することができる。このような伝送媒体としては、例えば、通信ネットワーク、又は放送波などを用いることができる。コンピュータCは、このような伝送媒体を介してプログラムPを取得することもできる。
 〔付記事項1〕
 本発明は、上述した実施形態に限定されるものでなく、請求項に示した範囲で種々の変更が可能である。例えば、上述した実施形態に開示された技術的手段を適宜組み合わせて得られる実施形態についても、本発明の技術的範囲に含まれる。
 〔付記事項2〕
 上述した実施形態の一部又は全部は、以下のようにも記載され得る。ただし、本発明は、以下の記載する態様に限定されるものではない。
 (付記1)
 過去における1又は複数フレーム分の映像フレーム、前記映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを取得する取得手段と、前記取得手段が取得したデータを参照して、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する推定手段とを備えている映像処理システム。
 (付記2)
 前記推定手段は、前記ビットレートの推定値として、前記未来における1又は複数フレーム分の符号化後の映像フレームの伝送ビットレートの推定値、及び前記映像認識精度の推定値として、前記未来における1又は複数フレーム分の復号後の映像フレームの映像認識精度の推定値の少なくとも何れかを算出する付記1に記載の映像処理システム。
 (付記3)
 前記取得手段は、前記過去における1又は複数フレーム分の映像フレームの符号の長さ、前記符号化処理された映像フレームを復号して得られる復号後の映像フレーム、及び、前記復号後の映像フレームの映像認識処理における中間特徴量の少なくとも何れかを更に取得し、前記推定手段は、前記取得手段が取得したデータを参照して、前記ビットレートの推定値、及び前記映像認識精度の推定値の少なくとも何れかを算出する付記1又は2に記載の映像処理システム。
 (付記4)
 前記推定手段は、前記取得手段が取得したデータから特徴量を算出する特徴量算出手段と、前記特徴量算出手段が算出した前記特徴量から、前記ビットレートの推定値、及び前記映像認識精度の推定値の少なくとも何れかを算出する推定値算出手段とを備えている付記1から3の何れか1項に記載の映像処理システム。
 (付記5)
 前記推定手段が算出した前記ビットレートの推定値、及び前記映像認識精度の推定値を参照して、前記未来における1又は複数フレーム分の映像フレームの符号化処理における映像圧縮パラメータを算出するパラメータ算出手段を更に備えている付記1から4の何れか1項に記載の映像処理システム。
 (付記6)
 未来における1又は複数フレーム分における映像圧縮パラメータの候補値を取得する候補値取得手段を更に備え、前記推定手段は、前記取得手段が取得した前記未来における1又は複数フレーム分における映像圧縮パラメータの候補値を更に参照して、前記ビットレートの推定値、及び前記映像認識精度の推定値を算出する付記5に記載の映像処理システム。
 (付記7)
 前記候補値取得手段は、前記映像圧縮パラメータの候補値を複数取得し、前記推定手段は、前記取得手段が取得した複数の前記映像圧縮パラメータの候補値の各々について、前記ビットレートの推定値、及び前記映像認識精度の推定値を算出し、前記パラメータ算出手段は、前記取得手段が取得した複数の前記映像圧縮パラメータの候補値の各々についての、前記ビットレートの推定値と前記映像認識精度の推定値とを引数とする所定の損失関数がより小さくなるように、前記映像圧縮パラメータを算出する付記6に記載の映像処理システム。
 (付記8)
 前記取得手段は、複数の伝送対象映像の各々に関し、過去における1又は複数フレーム分の映像フレーム、前記映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを取得し、前記推定手段は、複数の伝送対象映像の各々に関し、前記取得手段が取得したデータを参照して、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値を算出し、前記パラメータ算出手段は、前記複数の伝送対象映像の各々に関する、前記ビットレートの推定値、及び前記映像認識精度の推定値を参照して、前記複数の伝送対象映像の各々に関する、前記未来における1又は複数フレーム分の映像フレームの符号化処理における映像圧縮パラメータを算出する付記5から7の何れか1項に記載の映像処理システム。
 (付記9)
 前記取得手段は、過去における1又は複数フレーム分の映像フレーム、前記映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかと、当該過去よりも後の時点における1又は複数フレーム分の映像フレームの実際のビットレート、及び実際の映像認識精度の少なくとも何れかとの組を含む教師データを取得し、当該映像処理システムは、前記教師データを用いて前記推定手段を学習させる学習手段を更に備えている付記1から8の何れか1項に記載の映像処理システム。
 (付記10)
 第1の映像処理装置と第2の映像処理装置とを含む映像処理システムであって、前記第1の映像処理装置は、過去における1又は複数フレーム分の映像フレーム、前記映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを取得する取得手段と、前記取得手段が取得したデータから特徴量を算出する特徴量算出手段と、を備え、前記第2の映像処理装置は、前記特徴量を取得する特徴量取得手段と、前記特徴量取得手段が取得した前記特徴量から、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する推定値算出手段とを備えている映像処理システム。
 (付記11)
 過去における1又は複数フレーム分の映像フレーム、前記映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを取得する取得手段と、前記取得手段が取得したデータから特徴量を算出する特徴量算出手段であって、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出するために参照される特徴量を算出する特徴量算出手段とを備えている情報処理装置。
 (付記12)
 過去における1又は複数フレーム分の映像フレーム、前記映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを参照して算出された特徴量を取得する特徴量取得手段と、前記特徴量取得手段が取得した前記特徴量から、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する推定値算出手段とを備えている情報処理装置。
 (付記13)
 過去における1又は複数フレーム分の映像フレーム、前記映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを取得することと、前記取得する工程において取得されたデータを参照して、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出することとを含む映像処理方法。
 (付記14)
 コンピュータを、過去における1又は複数フレーム分の映像フレーム、前記映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを取得する取得手段と、前記取得手段が取得したデータから特徴量を算出する特徴量算出手段であって、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出するために参照される特徴量を算出する特徴量算出手段と、として機能させるプログラムを記録したコンピュータ読み取り可能な記録媒体。
 (付記15)
 コンピュータを、過去における1又は複数フレーム分の映像フレーム、前記映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを参照して算出された特徴量を取得する特徴量取得手段と、前記特徴量取得手段が取得した前記特徴量から、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する推定値算出手段と、として機能させるプログラムを記録したコンピュータ読み取り可能な記録媒体。
 〔付記事項3〕
 上述した実施形態の一部又は全部は、更に、以下のように表現することもできる。
 少なくとも1つのプロセッサを備え、前記プロセッサは、過去における1又は複数フレーム分の映像フレーム、前記映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、少なくとも何れかを取得する取得処理と、前記取得処理において取得したデータを参照して、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する推定処理とを実行する映像処理システム。
 なお、この映像処理システムは、更にメモリを備えていてもよく、このメモリには、前記取得処理と、前記推定処理とを前記プロセッサに実行させるためのプログラムが記憶されていてもよい。また、このプログラムは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録されていてもよい。
 少なくとも1つのプロセッサを備え、前記プロセッサは、過去における1又は複数フレーム分の映像フレーム、前記映像フレームの符号化処理における映像圧縮パラメータ、及び前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、の少なくとも何れかを参照して算出された特徴量を取得する特徴量取得処理と、前記特徴量取得処理において取得した前記特徴量から、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する推定値算出処理とを実行する情報処理装置。
 なお、この情報処理装置は、更にメモリを備えていてもよく、このメモリには、前記特徴量取得処理と、前記推定値算出処理とを前記プロセッサに実行させるためのプログラムが記憶されていてもよい。また、このプログラムは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録されていてもよい。
 1、1A、1B、1C、1D、1E、1F、1G、1H 映像処理システム
 10、10A、10B、10C、10F 第1の映像処理装置
 11 取得部
 12 判定部
 13 符号化部
 14、23 通信部
 19、29 学習部
 20A、20B、20C、20D、20E、20F、20G、20H 第2の映像処理装置
 21 特徴量取得部
 24、24a 最適化部
 25 復号部
 26 認識部
 27 出力部
 28 可用帯域予測部
 30G 第3の映像処理装置
 31 パケットロス予測部
 32 パケットロス検出部
 121 特徴量算出部
 122、122a 推定値算出部
 1211 特徴量抽出部
 1212 第1の集約部
 1213 第2の集約部
 1221 予測値算出部

 

Claims (15)

  1.  過去における1又は複数フレーム分の映像フレーム、
     前記映像フレームの符号化処理における映像圧縮パラメータ、及び
     前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、
    の少なくとも何れかを取得する取得手段と、
     前記取得手段が取得したデータを参照して、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する推定手段と
    を備えている映像処理システム。
  2.  前記推定手段は、
      前記ビットレートの推定値として、前記未来における1又は複数フレーム分の符号化後の映像フレームの伝送ビットレートの推定値、及び
      前記映像認識精度の推定値として、前記未来における1又は複数フレーム分の復号後の映像フレームの映像認識精度の推定値
    の少なくとも何れかを算出する
    請求項1に記載の映像処理システム。
  3.  前記取得手段は、
      前記過去における1又は複数フレーム分の映像フレームの符号の長さ、
      前記符号化処理された映像フレームを復号して得られる復号後の映像フレーム、及び、
      前記復号後の映像フレームの映像認識処理における中間特徴量
    の少なくとも何れかを更に取得し、
     前記推定手段は、前記取得手段が取得したデータを参照して、前記ビットレートの推定値、及び前記映像認識精度の推定値の少なくとも何れかを算出する
    請求項1又は2に記載の映像処理システム。
  4.  前記推定手段は、
      前記取得手段が取得したデータから特徴量を算出する特徴量算出手段と、
      前記特徴量算出手段が算出した前記特徴量から、前記ビットレートの推定値、及び前記映像認識精度の推定値の少なくとも何れかを算出する推定値算出手段と
    を備えている請求項1から3の何れか1項に記載の映像処理システム。
  5.  前記推定手段が算出した前記ビットレートの推定値、及び前記映像認識精度の推定値を参照して、前記未来における1又は複数フレーム分の映像フレームの符号化処理における映像圧縮パラメータを算出するパラメータ算出手段を更に備えている
    請求項1から4の何れか1項に記載の映像処理システム。
  6.  未来における1又は複数フレーム分における映像圧縮パラメータの候補値を取得する候補値取得手段を更に備え、
     前記推定手段は、前記取得手段が取得した前記未来における1又は複数フレーム分における映像圧縮パラメータの候補値を更に参照して、前記ビットレートの推定値、及び前記映像認識精度の推定値を算出する
    請求項5に記載の映像処理システム。
  7.  前記候補値取得手段は、前記映像圧縮パラメータの候補値を複数取得し、
     前記推定手段は、前記取得手段が取得した複数の前記映像圧縮パラメータの候補値の各々について、前記ビットレートの推定値、及び前記映像認識精度の推定値を算出し、
     前記パラメータ算出手段は、前記取得手段が取得した複数の前記映像圧縮パラメータの候補値の各々についての、前記ビットレートの推定値と前記映像認識精度の推定値とを引数とする所定の損失関数がより小さくなるように、前記映像圧縮パラメータを算出する
    請求項6に記載の映像処理システム。
  8.  前記取得手段は、
     複数の伝送対象映像の各々に関し、
      過去における1又は複数フレーム分の映像フレーム、
      前記映像フレームの符号化処理における映像圧縮パラメータ、及び
      前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、
    の少なくとも何れかを取得し、
     前記推定手段は、
      複数の伝送対象映像の各々に関し、
      前記取得手段が取得したデータを参照して、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値を算出し、
     前記パラメータ算出手段は、
      前記複数の伝送対象映像の各々に関する、前記ビットレートの推定値、及び前記映像認識精度の推定値を参照して、前記複数の伝送対象映像の各々に関する、前記未来における1又は複数フレーム分の映像フレームの符号化処理における映像圧縮パラメータを算出する
    請求項5から7の何れか1項に記載の映像処理システム。
  9.  前記取得手段は、
      過去における1又は複数フレーム分の映像フレーム、
      前記映像フレームの符号化処理における映像圧縮パラメータ、及び
      前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、
    の少なくとも何れかと、当該過去よりも後の時点における1又は複数フレーム分の映像フレームの実際のビットレート、及び実際の映像認識精度の少なくとも何れかとの組を含む教師データを取得し、
     当該映像処理システムは、
     前記教師データを用いて前記推定手段を学習させる学習手段を更に備えている
    請求項1から8の何れか1項に記載の映像処理システム。
  10.  第1の映像処理装置と第2の映像処理装置とを含む映像処理システムであって、
     前記第1の映像処理装置は、
      過去における1又は複数フレーム分の映像フレーム、
      前記映像フレームの符号化処理における映像圧縮パラメータ、及び
      前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、
    の少なくとも何れかを取得する取得手段と、
      前記取得手段が取得したデータから特徴量を算出する特徴量算出手段と、
    を備え、
     前記第2の映像処理装置は、
      前記特徴量を取得する特徴量取得手段と、
      前記特徴量取得手段が取得した前記特徴量から、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する推定値算出手段と
    を備えている映像処理システム。
  11.  過去における1又は複数フレーム分の映像フレーム、
     前記映像フレームの符号化処理における映像圧縮パラメータ、及び
     前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、
    の少なくとも何れかを取得する取得手段と、
     前記取得手段が取得したデータから特徴量を算出する特徴量算出手段であって、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出するために参照される特徴量を算出する特徴量算出手段と
    を備えている情報処理装置。
  12.  過去における1又は複数フレーム分の映像フレーム、
     前記映像フレームの符号化処理における映像圧縮パラメータ、及び
     前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、
    の少なくとも何れかを参照して算出された特徴量を取得する特徴量取得手段と、
     前記特徴量取得手段が取得した前記特徴量から、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する推定値算出手段と
    を備えている情報処理装置。
  13.  過去における1又は複数フレーム分の映像フレーム、
     前記映像フレームの符号化処理における映像圧縮パラメータ、及び
     前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、
    の少なくとも何れかを取得することと、
     前記取得する工程において取得されたデータを参照して、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出することと
    を含む映像処理方法。
  14.  コンピュータを、
     過去における1又は複数フレーム分の映像フレーム、
     前記映像フレームの符号化処理における映像圧縮パラメータ、及び
     前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、
    の少なくとも何れかを取得する取得手段と、
     前記取得手段が取得したデータから特徴量を算出する特徴量算出手段であって、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出するために参照される特徴量を算出する特徴量算出手段と、
    として機能させるプログラムを記録したコンピュータ読み取り可能な記録媒体。
  15.  コンピュータを、
     過去における1又は複数フレーム分の映像フレーム、
     前記映像フレームの符号化処理における映像圧縮パラメータ、及び
     前記符号化処理された映像フレームを復号して得られる復号後の映像フレームの映像認識結果、
    の少なくとも何れかを参照して算出された特徴量を取得する特徴量取得手段と、
     前記特徴量取得手段が取得した前記特徴量から、未来における1又は複数フレーム分の映像フレームのビットレートの推定値、及び映像認識精度の推定値の少なくとも何れかを算出する推定値算出手段と、
    として機能させるプログラムを記録したコンピュータ読み取り可能な記録媒体。
     

     
PCT/JP2021/035513 2021-09-28 2021-09-28 映像処理システム、情報処理装置、映像処理方法、及び記録媒体 WO2023053166A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023550757A JPWO2023053166A1 (ja) 2021-09-28 2021-09-28
PCT/JP2021/035513 WO2023053166A1 (ja) 2021-09-28 2021-09-28 映像処理システム、情報処理装置、映像処理方法、及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/035513 WO2023053166A1 (ja) 2021-09-28 2021-09-28 映像処理システム、情報処理装置、映像処理方法、及び記録媒体

Publications (1)

Publication Number Publication Date
WO2023053166A1 true WO2023053166A1 (ja) 2023-04-06

Family

ID=85781459

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/035513 WO2023053166A1 (ja) 2021-09-28 2021-09-28 映像処理システム、情報処理装置、映像処理方法、及び記録媒体

Country Status (2)

Country Link
JP (1) JPWO2023053166A1 (ja)
WO (1) WO2023053166A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008111458A1 (ja) * 2007-03-14 2008-09-18 Nippon Telegraph And Telephone Corporation 符号化ビットレート制御方法及び装置、そのプログラム並びにプログラムを記録した記録媒体
JP2016046707A (ja) * 2014-08-25 2016-04-04 ルネサスエレクトロニクス株式会社 画像通信装置、画像送信装置および画像受信装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008111458A1 (ja) * 2007-03-14 2008-09-18 Nippon Telegraph And Telephone Corporation 符号化ビットレート制御方法及び装置、そのプログラム並びにプログラムを記録した記録媒体
JP2016046707A (ja) * 2014-08-25 2016-04-04 ルネサスエレクトロニクス株式会社 画像通信装置、画像送信装置および画像受信装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHINOHARA YUSUKE; ITSUMI HAYATO; FLORIAN BEYE; IWAI TAKANORI: "Video Compression Estimating Recognition Accuracy for Remote Site Object Detection", 2020 INTERNATIONAL WIRELESS COMMUNICATIONS AND MOBILE COMPUTING (IWCMC), IEEE, 15 June 2020 (2020-06-15), pages 285 - 290, XP033799719, DOI: 10.1109/IWCMC48107.2020.9148347 *

Also Published As

Publication number Publication date
JPWO2023053166A1 (ja) 2023-04-06

Similar Documents

Publication Publication Date Title
US10990812B2 (en) Video tagging for video communications
US8558903B2 (en) Accelerometer / gyro-facilitated video stabilization
CN103650509B (zh) 基于照相机和背景运动的参考帧缓冲区的自适应配置
US9602819B2 (en) Display quality in a variable resolution video coder/decoder system
WO2021114846A1 (zh) 一种视频降噪处理方法、装置及存储介质
JP5164866B2 (ja) ビデオ画像シーケンスの時間的頻度を適合させる方法および装置
JP5766877B2 (ja) 類似度、視覚的品質、および関心に基づくフレーム符号化選択
CN110248189B (zh) 一种视频质量预测方法、装置、介质和电子设备
JP2009147911A (ja) 映像データ圧縮前処理方法およびこれを用いた映像データ圧縮方法と映像データ圧縮システム
KR102126511B1 (ko) 보충 정보를 이용한 영상 프레임의 보간 방법 및 장치
US20120195364A1 (en) Dynamic mode search order control for a video encoder
CN111050169B (zh) 图像编码中量化参数的生成方法、装置及终端
WO2023053166A1 (ja) 映像処理システム、情報処理装置、映像処理方法、及び記録媒体
US8989270B2 (en) Optimized search for reference frames in predictive video coding system
JP2015530807A (ja) ビデオ品質評価のためにコンテンツ複雑性を推定する方法および装置
WO2023077707A1 (zh) 视频编码方法、模型训练方法、设备和存储介质
CN113329226B (zh) 数据的生成方法、装置、电子设备及存储介质
JP2016046685A (ja) 映像のユーザ体感品質を推定するための装置、方法及びプログラム
WO2022221205A1 (en) Video super-resolution using deep neural networks
CN111405293B (zh) 一种视频传输方法及装置
US11825088B2 (en) Adaptively encoding video frames based on complexity
JP2019004294A (ja) 特徴量推定装置及びプログラム
JPWO2023053166A5 (ja)
JP2017005343A (ja) 映像品質推定装置、映像品質推定方法、及びプログラム
EP4300959A1 (en) Video frame processing method and apparatus, training method and apparatus, device, and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21959219

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023550757

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE