WO2007029731A1 - 映像コミュニケーション品質推定装置、方法、およびプログラム - Google Patents

映像コミュニケーション品質推定装置、方法、およびプログラム Download PDF

Info

Publication number
WO2007029731A1
WO2007029731A1 PCT/JP2006/317637 JP2006317637W WO2007029731A1 WO 2007029731 A1 WO2007029731 A1 WO 2007029731A1 JP 2006317637 W JP2006317637 W JP 2006317637W WO 2007029731 A1 WO2007029731 A1 WO 2007029731A1
Authority
WO
WIPO (PCT)
Prior art keywords
delay
quality
video
degradation amount
delay time
Prior art date
Application number
PCT/JP2006/317637
Other languages
English (en)
French (fr)
Inventor
Takanori Hayashi
Kazuhisa Yamagishi
Original Assignee
Nippon Telegraph And Telephone Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph And Telephone Corporation filed Critical Nippon Telegraph And Telephone Corporation
Priority to EP06797532A priority Critical patent/EP1924101B1/en
Priority to US11/990,256 priority patent/US8405773B2/en
Priority to JP2007534445A priority patent/JP4486130B2/ja
Priority to CA2617893A priority patent/CA2617893C/en
Priority to CN200680030787XA priority patent/CN101248679B/zh
Publication of WO2007029731A1 publication Critical patent/WO2007029731A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/004Diagnosis, testing or measuring for television systems or their details for digital television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising

Definitions

  • Video communication quality estimation apparatus apparatus, method, and program
  • the present invention relates to a communication quality estimation technique, and more particularly to a technique for estimating quality related to video communication in which audio media and video media are exchanged bidirectionally.
  • Interactive multimodal services that combine audio media and video media, such as video communication services such as Z-conference and collaboration services, are attracting attention.
  • the Internet used for such services is a V network that does not necessarily guarantee communication quality
  • the communication path connecting user terminals If the usable bandwidth is narrow or the network is congested, the user experience quality experienced by the user at the receiving terminal will deteriorate for audio and video.
  • the processing time at the time of audio media and video media signal transmission includes the code processing time and transmission buffer time of the audio media and video media.
  • delay time in the network such as routers that make up the network Processing time, network physical distance between communicators, etc.
  • the processing time when receiving audio and video media signals includes reception buffer time and decoding time of audio and video media.
  • the present invention is for solving such problems, and can estimate with sufficient accuracy the quality related to video communication in which audio media and video media are combined and exchanged bidirectionally.
  • the purpose is to provide a video communication quality estimation device, method, and program. Means for solving the problem
  • the video communication quality estimation apparatus exchanges audio media and video media in a bidirectional manner between communication terminals connected via a network.
  • This is a video communication quality estimation device that estimates quality related to video communication. It is an audio media quality evaluation value that is a quality evaluation value for audio media output from a communication terminal, and a quality evaluation value for video media output from a communication terminal.
  • the multimodal quality estimation unit that estimates the multimodal quality value, which is the quality evaluation value of the composite media that combines audio media and video media, and the audio media Voice delay time, which is the delay time from input to output between communication terminals
  • Delay quality degradation amount estimation that estimates the amount of delay quality degradation caused by the delay between audio media and video media based on the video delay time that is the delay time from input to output of video media between communication terminals
  • a video communication quality estimation unit that estimates the quality of the video communication based on the multimodal quality value estimated by the multimodal quality estimation unit and the delay quality degradation amount estimated by the delay quality degradation amount estimation unit.
  • the video communication quality estimation method is a video communication method for estimating quality related to video communication in which audio media and video media are exchanged bidirectionally between communication terminals connected via a network.
  • a video communication quality estimation method used in a quality estimation device wherein a multimodal quality estimation unit outputs an audio media quality evaluation value, which is a quality evaluation value for audio media output from a communication terminal, and a communication terminal.
  • Multimodal quality estimation that estimates the multimodal quality value, which is the quality evaluation value of composite media that combines audio media and video media, based on the video media quality evaluation value, which is the quality evaluation value for the recorded video media Step and delay quality degradation amount estimation unit , Based on the audio delay time, which is the delay time from when the audio media is input between the communication terminals until it is output, and the video delay time, which is the delay time from when the video media is input between the communication terminals until it is output.
  • the absolute delay quality degradation amount estimation step for estimating the delay quality degradation amount caused by the delay between the audio media and the video media, and the video communication quality estimation unit
  • a video communication quality estimation step for estimating the quality of video communication based on the multimodal quality value estimated by the multi-modal quality estimation unit and the delay quality degradation amount estimated by the delay quality degradation amount estimation unit.
  • the program according to the present invention is a video communication quality for estimating quality related to video communication in which audio media and video media are interactively exchanged between communication terminals connected via a network.
  • the multi-modal quality estimator receives the audio media quality evaluation value, which is the quality evaluation value for the audio media output from the communication terminal, and the quality evaluation value for the video media output from the communication terminal, by the multimodal quality estimation unit.
  • a multimodal quality estimation step for estimating a multimodal quality value which is a quality evaluation value of a composite media composed of audio media and video media, and a delay quality degradation amount estimation unit Delay until media is input and output between communication terminals
  • the amount of delay quality degradation caused by the delay between the audio media and the video media is calculated based on the audio delay time between the video media and the video delay time between the video media being input and output between the communication terminals.
  • the video communication quality estimation unit, the multimodal quality value estimated by the multimodal quality estimation unit, and the delay quality degradation amount estimated by the delay quality degradation amount estimation unit Based on the absolute delay quality degradation amount estimation step to be estimated, the video communication quality estimation unit, the multimodal quality value estimated by the multimodal quality estimation unit, and the delay quality degradation amount estimated by the delay quality degradation amount estimation unit. And a video communication quality estimation step for estimating the quality of the video communication.
  • the multimodal quality estimation unit estimates the multimodal quality value based on the audio quality evaluation value and the video quality evaluation value
  • the delay quality degradation amount estimation unit estimates the audio delay time.
  • the amount of delay quality degradation is estimated based on the video delay time
  • the video communication quality estimation unit estimates the video communication quality value based on the multimodal quality value and the amount of delay quality degradation. Therefore, it is possible to estimate video communication quality values that take into account quality degradation due to delays in audio and video media, and to ensure sufficient accuracy for video communication in which audio and video media are exchanged in both directions. Can be estimated.
  • FIG. 1 is a block diagram showing a configuration of a video communication quality estimation device that works on the first embodiment of the present invention.
  • FIG. 2 is a flowchart showing an overall processing operation of the video communication quality estimation apparatus that is useful for the first embodiment of the present invention.
  • FIG. 3 is a flowchart showing a multimodal quality estimation process of the video communication quality estimation apparatus which is useful for the first embodiment of the present invention.
  • Fig. 4 shows an example of the characteristics of the multimodal quality estimation model.
  • FIG. 5 is a flowchart showing delay quality degradation amount estimation processing of the video communication quality estimation apparatus according to the first embodiment of the present invention.
  • FIG. 6 is a characteristic example of a delay quality degradation amount estimation model.
  • FIG. 7 is a flowchart showing a video communication quality estimation process of the video communication quality estimation device according to the first embodiment of the present invention.
  • FIG. 8 is a characteristic example of the video communication quality estimation model.
  • FIG. 9 is a graph showing an estimation result of the estimated video communication quality obtained in the present embodiment.
  • FIG. 10 is an explanatory diagram showing a configuration of a main part of a video communication quality estimation apparatus according to a second embodiment of the present invention.
  • FIG. 11 is a flowchart showing delay quality degradation amount estimation processing of the video communication quality estimation apparatus according to the second embodiment of the present invention.
  • FIG. 12 is an example of characteristics of the absolute delay quality degradation estimation.
  • FIG. 13 is a characteristic example of relative delay quality degradation amount estimation.
  • FIG. 14 is a characteristic example of delay quality degradation amount estimation.
  • FIG. 15 is an explanatory diagram showing a configuration of a main part of a video communication quality estimation device according to a third embodiment of the present invention.
  • FIG. 16 is a flowchart showing delay quality degradation amount estimation processing of the video communication quality estimation apparatus according to the third embodiment of the present invention.
  • FIG. 17 is a characteristic example of the relative delay quality degradation amount estimation.
  • FIG. 18 shows video communication quality estimations related to the fourth embodiment of the present invention. It is explanatory drawing which shows the structure of the principal part of a fixed apparatus.
  • FIG. 19 is a flowchart showing a delay quality degradation amount estimation process of the video communication quality estimation apparatus according to the fourth embodiment of the present invention.
  • FIG. 20 is a characteristic example of estimation of the relative delay quality degradation amount.
  • FIG. 21 is a characteristic example of slope coefficient estimation.
  • Fig. 22 is an explanatory diagram showing a configuration of a main part of a video communication quality estimation apparatus according to the fifth embodiment of the present invention.
  • FIG. 23 is a flowchart showing delay quality degradation amount estimation processing of the video communication quality estimation apparatus according to the fifth embodiment of the present invention.
  • FIG. 24 is a characteristic example of estimation of the relative delay quality degradation amount.
  • FIG. 25 is a characteristic example of slope coefficient estimation.
  • FIG. 26 is a characteristic example of the absolute delay quality degradation amount estimation model used in the video communication quality estimation apparatus according to the sixth embodiment of the present invention.
  • FIG. 27 is a characteristic example of a relative delay quality degradation amount estimation model used in the video communication quality estimation device according to the seventh embodiment of the present invention.
  • FIG. 28 is another characteristic example of the relative delay quality degradation amount estimation model used in the video communication quality estimation apparatus according to the seventh embodiment of the present invention.
  • FIG. 29 is another characteristic example of the relative delay quality degradation amount estimation model used in the video communication quality estimation apparatus according to the seventh embodiment of the present invention.
  • FIG. 1 is a block diagram showing a configuration of a video communication quality estimation apparatus according to the first embodiment of the present invention.
  • the video communication quality estimation device 1 has the power of an information processing device that computes and outputs input information, and combines both audio media and video media between communication terminals connected via a network. Related to video communication Estimate quality.
  • the video communication quality estimation apparatus 1 includes a multimodal quality estimation unit 11, a delay quality degradation amount estimation unit 12, and a video communication quality estimation unit 13 as main functional units.
  • the multimodal quality estimation unit 11 uses the audio quality evaluation value 21A, which is a quality evaluation value for the audio media output from the communication terminal, and the quality evaluation for the video media output from the communication terminal. Based on the video quality evaluation value 21B, which is a value, the multimodal quality value 23A, which is the quality evaluation value of the composite media in which audio media and video media are combined, is estimated.
  • the delay quality degradation amount estimation unit 12 receives the audio delay time 22A, which is the delay time until the audio media is input and output between the communication terminals, and the video media are input between the communication terminals. Based on the video delay time 22B, which is the delay time until output, the delay quality degradation amount 23B caused by the delay between the audio media and the video media is estimated.
  • the video communication quality estimation unit 13 Based on the multimodal quality value 23A estimated by the multimodal quality estimation unit 11 1 and the delay quality degradation amount 23B estimated by the delay quality degradation amount estimation unit 12, the video communication quality estimation unit 13 The quality value 24 is estimated.
  • each functional unit of the video communication quality estimation device 1 will be described in detail.
  • the multimodal quality estimator 11 includes an audio quality evaluation value 21A, which is a quality evaluation value for audio media output from the communication terminal, and a video quality evaluation value, which is a quality evaluation value for the video media output from the communication terminal. Based on 21B, it has a function to estimate the multimodal quality value 23A, which is the quality evaluation value of composite media that combines audio and video media.
  • the multimodal quality estimation unit 11 is provided with a storage unit 11A and a multimodal quality calculation unit 11B as main functional means.
  • the storage unit 11A has a function of storing in advance a multimodal quality estimation model 31 indicating the relationship between the audio quality evaluation value 21A, the video quality evaluation value 21B, and the multimodal quality value 23A.
  • the multimodal quality calculation unit 11B has a function of calculating a multimodal quality value 23A corresponding to the audio quality evaluation value 21A and the video quality evaluation value 21B based on the multimodal quality estimation model 31 of the storage unit 11A.
  • the voice quality evaluation value 21A is a user experience that the user feels with respect to the reproduced audio media when the audio media transmitted also with one communication terminal power is received and reproduced with the other communication terminal.
  • the video quality evaluation value 21B is a user experience quality that the user feels for the played back video media when the video media transmitted from one communication terminal is received and played back by the other communication terminal. It is.
  • the delay quality degradation amount estimation unit 12 determines the delay time until the audio media is input between the communication terminals and output until the audio media is input and output between the communication terminals. Based on the video delay time 22B, which is the delay time, it has a function to estimate the delay quality degradation amount 23B caused by the delay between the audio media and the video media.
  • the delay quality degradation amount estimation unit 12 is provided with a storage unit 12A and a delay quality degradation amount calculation unit 12B as main functional means.
  • the storage unit 12A has a function of storing in advance a delay quality degradation amount estimation model 32 indicating the relationship between the audio delay time 22A and the video delay time 22B and the delay quality degradation amount 23B.
  • Delay quality degradation amount calculation unit 12B Based on the delay quality degradation amount estimation model 32 of the storage unit 12A, it has a function of calculating the delay quality degradation amount 23B corresponding to the audio delay time 22A and the video delay time 22B.
  • the audio delay time 22A is a time when audio media is input from one communication terminal and the other communication This is the delay time until it is output at the communication terminal.
  • the video delay time 22B is a delay time from when the video media is input at one communication terminal to when it is output at the other communication terminal.
  • Specific delay times constituting the audio delay time 22A and the video delay time 22B include processing time when transmitting audio media and video media signals, network delay time, and further audio media and video media signals.
  • the processing time at the time of audio media and video media signal transmission includes the encoding time and transmission buffer time of the audio media and video media.
  • the delay time in the network includes the processing time of the routers that make up the network and the physical distance of the network between communicators.
  • the processing time when receiving audio media and video media signals includes reception buffer time and decoding time of audio media and video media.
  • a delay quality degradation amount estimation model 32 indicating the relationship between the audio delay time 22A and the video delay time 22B and the delay quality degradation amount 23B is derived in advance by a test and stored in the storage unit 12A.
  • the delay quality degradation amount estimation unit 12 performs the delay quality degradation amount 23B corresponding to the newly measured audio delay time 22A and video delay time 22B based on the delay quality degradation amount estimation model 32 of the storage unit 12A. Is calculated.
  • the video communication quality estimation unit 13 takes into account the interaction between the multimodal quality value 23A estimated by the multimodal quality estimation unit 11 and the delay quality degradation amount 23B estimated by the delay quality degradation amount estimation unit 12. It has a function to estimate the quality value 24 of video communication realized by the interactive multimodal service.
  • the video communication quality estimation unit 13 includes a storage unit 13A and a video communication quality calculation unit 13B as main functional means.
  • the storage unit 13A has a function of storing in advance a video communication quality estimation model 33 indicating the relationship between the multimodal quality value 23A, the delay quality degradation amount 23B, and the video communication quality value 24.
  • the video communication quality calculation unit 13B is the video communication product of the storage unit 13A. Based on the quality estimation model 33, the video communication quality value 24 corresponding to the multimodal quality value 23A and the delay quality degradation amount 23B is calculated.
  • the storage unit for various arithmetic processing data and programs is also configured with a storage device such as a memory and a hard disk.
  • An arithmetic processing unit (computer) that performs various arithmetic processes is composed of a CPU and its peripheral circuits. By reading and executing a program (not shown) of the storage unit, the hardware and program To realize various functional means.
  • the storage unit and the arithmetic processing unit of each functional unit may be provided individually for each functional unit or may be shared by each functional unit.
  • FIG. 2 is a flowchart showing the overall processing operation of the video communication quality estimation apparatus according to the first embodiment of the present invention.
  • audio quality evaluation value 21A, video quality evaluation value 21B, audio delay time 22A, and video delay time 22B are external devices
  • a case will be described in which a quality value related to the video communication is estimated based on the quality information on the assumption that it is input from a recording medium, a communication network, or a keyboard (not shown).
  • the video communication quality estimation device 1 starts the entire process of Fig. 2 triggered by an operator operation indicating the input of quality information or the start of execution.
  • the video communication quality estimation device 1 performs a multimodal quality estimation step by the multimodal quality estimation unit 11, thereby performing multimodal quality corresponding to the audio quality evaluation value 21A and the video quality evaluation value 21B. Estimate the value 23A (step 100).
  • the video communication quality estimation device 1 estimates the delay quality degradation amount.
  • the unit 12 estimates the delay quality degradation amount 23B corresponding to the audio delay time 22A and the video delay time 22B by executing the delay quality degradation amount estimation step (step 110).
  • the video communication quality estimation apparatus 1 executes the video communication quality estimation step by the video communication quality estimation unit 13, thereby performing video communication corresponding to the multimodal quality value 23A and the delay quality degradation amount 23B.
  • the quality value 24 is estimated (step 120), and the whole series of processing operations ends.
  • the multimodal quality estimation step and the delay quality degradation amount estimation step may be executed in parallel as described above, or the steps may be executed in order.
  • FIG. 3 is a flowchart showing the multimodal quality estimation process of the video communication quality estimation apparatus according to the first embodiment of the present invention.
  • the multimodal quality estimation unit 11 of the video communication quality estimation apparatus 1 executes the multimodal quality estimation process of FIG. 3 in the multimodal quality estimation step of step 100 of FIG.
  • the multimodal quality estimation unit 11 acquires the audio quality evaluation value 21A and the video quality evaluation value 21B input from the external force by the multimodal quality calculation unit 11B (step 101).
  • the multimodal quality calculation unit 11B reads out the model coefficient indicating the storage unit 11A force multimodal quality estimation model 31 (step 102), and based on this multimodal quality estimation model 31, the speech quality evaluation value 21A And a multimodal quality value 23A corresponding to the video quality evaluation value 21B is calculated (step 103).
  • FIG. 4 is a characteristic example of the multimodal quality estimation model.
  • the quality in the case where quality degradation due to delay of video media and audio media is not taken into consideration is multi-valued.
  • the modal quality value is 23A.
  • the multimodal quality value 23A has a constant voice quality evaluation value MOSa. If the video quality evaluation value MOSv is increased, it increases monotonously. If the video quality evaluation value MOSv is constant, the audio quality evaluation value MOSa tends to increase monotonously.
  • the multimodal quality value 23A can be expressed by a mathematical expression indicating the interaction between the audio quality evaluation value 21A and the video quality evaluation value 21B. If the audio quality evaluation value 21A is MOSa, the video quality evaluation value 21B is MOSv, ⁇ , ⁇ 1, y1, ⁇ 1 are constants, and the multimodal quality value 23 ⁇ is MOSmm, MOSmm is (1).
  • MOSmm al ⁇ MOSa + ⁇ ⁇ MOSv + ⁇ 1 ⁇ MOSa-MOSv + ⁇
  • MOSmm MoSmm Can be normalized by the following equation (2).
  • the multimodal quality calculation unit 11B outputs the calculated multimodal quality value 23A to the video communication quality estimation unit 13 (step 104), and ends a series of multimodal quality estimation processes.
  • FIG. 5 is a flowchart showing a delay quality degradation amount estimation process of the video communication quality estimation apparatus according to the first embodiment of the present invention.
  • the delay quality degradation amount estimation unit 12 of the video communication quality estimation apparatus 1 performs the delay quality degradation amount estimation in FIG. 5 in the delay quality degradation amount estimation step in step 110 in FIG. Perform regular processing.
  • the delay quality degradation amount estimation unit 12 acquires the audio delay time 22A and the video delay time 22B input from the outside by the delay quality degradation amount calculation unit 12B (step 111).
  • the delay quality degradation amount calculation unit 12B reads the model coefficient indicating the delay quality degradation amount estimation model 32 from the storage unit 12A (step 112), and based on the delay quality degradation amount estimation model 32, the voice delay time 22A and A delay quality degradation amount 23B corresponding to the video delay time 22B is calculated (step 113).
  • FIG. 6 is a characteristic example of the delay quality degradation amount estimation model.
  • the quality degradation amount due to delay of video media and audio media is referred to as delay quality degradation amount 23B.
  • the delay quality degradation amount Dav increases monotonously with the increase of the video delay time Dv to reach a predetermined maximum value, and further increases the video delay time Dv. It has a convex characteristic that monotonously decreases with an increase.
  • the delay quality degradation amount Dav monotonously increases as the audio delay time Da increases to reach a predetermined maximum value, and monotonously as the audio delay time Da increases further.
  • the delay quality degradation amount 23B can be expressed by a functional expression in which the audio delay time 22A and the video delay time 22B are variables.
  • the audio delay time 22A is Da
  • the video delay time 22B is Dv
  • the function expression indicating the correspondence between the audio delay time 22A and the video delay time 22B and the delay quality degradation amount 23B is f (Da, Dv), a
  • the function that selects the smallest value of b is min (a, b)
  • the function that selects the larger value of a and b is max (a, b)
  • the delay quality degradation amount 23B is
  • Dav normalized to the MOS value range 1 to 5 can be estimated by the following equation (3).
  • the delay quality degradation amount calculation unit 12B uses the calculated delay quality degradation amount 23 ⁇ as a video communication.
  • the data is output to the case quality estimation unit 13 (step 114), and the series of delay quality deterioration amount estimation processing ends.
  • FIG. 7 is a flowchart showing the video communication quality estimation process of the video communication quality estimation apparatus according to the first embodiment of the present invention.
  • the video communication quality estimation unit 13 of the video communication quality estimation device 1 executes the video communication quality estimation process of FIG. 7 in the video communication quality estimation step in step 120 of FIG.
  • the video communication quality estimation unit 13 uses the video communication quality calculation unit 13B to determine the multimodal quality value 23 A estimated by the multimodal quality estimation unit 11 and the delay estimated by the delay quality degradation amount estimation unit 12. Acquire quality degradation amount 23B (step 121).
  • the video communication quality calculation unit 13B reads the model coefficient indicating the video communication quality estimation model 33 from the storage unit 13A (step 122), and based on the video communication quality estimation model 33, the multimodal quality value is read.
  • Video communication quality value 24 corresponding to 23A and delay quality degradation amount 23B is calculated (step 123).
  • FIG. 8 is a characteristic example of the video communication quality estimation model.
  • the quality considering the amount of quality degradation due to delay of video media and audio media is used for video communication.
  • the quality value is 24.
  • the video communication quality value MOSall decreases monotonously as the delay quality degradation amount Dav increases when the multimodal quality value MOSmm is constant, and when the delay quality degradation amount Dav remains constant. Multimodal quality value tends to increase monotonically as MOSmm increases.
  • the video communication quality value 24 can be expressed by a mathematical expression indicating the interaction between the multimodal quality value 23A and the delayed quality degradation amount 23B.
  • Multimodal product When quality value 23A is MOSmm, delay quality inferiority quantity 23B is Dav, a2, ⁇ 2, ⁇ 2, ⁇ 2 are constants, and video communication quality value 24 is MOSall, MOSall is given by It can be estimated by (4).
  • MOSall ⁇ 2 ⁇ MOSmm + ⁇ 2 ⁇ Dav + ⁇ 2 ⁇ MOSmm- Dav + 62...
  • a normalization process is performed for the video communication quality value 24 to indicate a standard MOS value that takes a numerical value of 1 to 5.
  • MOSall It can be normalized by equation (5).
  • the video communication quality calculation unit 13B outputs the calculated video communication quality value 24 to the outside of the apparatus, a recording medium, a communication network, a storage unit, or a display screen (not shown) (step 124). ), A series of video communication quality estimation processing ends.
  • the multimodal quality estimation unit 11 estimates the multimodal quality value 23A based on the audio quality evaluation value 21A and the video quality evaluation value 21B, and estimates the delay quality degradation amount.
  • Unit 12 estimates delay quality degradation amount 23B based on audio delay time 22A and video delay time 22B, and video communication quality estimation unit 13 estimates video based on multimodal quality value 23A and delay quality degradation amount 23B. Since the communication quality value 24 is estimated, the quality evaluation value of individual media for audio media and video media and the video communication quality value 24 considering quality degradation due to delay of audio media and video media are estimated.
  • the quality of video communication which is a two-way exchange of audio and video media, is sufficient. It can be estimated in degrees.
  • the audio delay time and the video delay time The delay quality degradation amount 23B corresponding to the audio delay time 22A and the video delay time 22B is estimated based on the delay quality degradation amount estimation model 32 that shows the relationship with the delay quality degradation amount.
  • the amount of quality degradation 23B can be estimated.
  • FIG. 9 is a graph showing the estimation result of the video communication quality estimation value obtained in the present embodiment.
  • the horizontal axis represents the video communication quality estimate (MOS value) obtained in this embodiment, and the vertical axis represents the result of actual opinion evaluation for each video communication target to be estimated.
  • a certain video communication quality measurement (MOS value) is shown.
  • the estimated video communication quality value and the actual measurement value obtained in this embodiment are plotted on the diagonal line of the graph.
  • the coefficient of determination is 0.91, indicating that a high correlation is obtained.
  • the average value of the 95% confidence interval of the measured value is 0.31
  • the estimated root mean square error (RMSE) is 0.16, which is a practically sufficient estimate. The fact that it has accuracy is remarkable.
  • the delay quality degradation amount estimation model 32 when the audio delay time Da is constant, the delay quality degradation amount Dav monotonously increases with the increase of the video delay time Dv and reaches a predetermined maximum value.
  • the delay quality degradation amount Dav increases monotonously according to the increase of the audio delay time Da, and is predetermined.
  • the convex characteristic that monotonously decreases as the audio delay time Da further increases is used, so that it depends on human visual and auditory characteristics related to quality degradation due to delays in audio and video media. The amount of quality degradation can be estimated accurately and easily.
  • FIG. 10 is an explanatory diagram showing the configuration of the main part of the video communication quality estimation apparatus according to the second embodiment of the present invention.
  • the delay quality degradation amount estimation unit 12 estimates the delay quality degradation amount 23B corresponding to the audio delay time 22A and the video delay time 22B
  • the audio delay time Delay quality degradation amount estimation model showing the relationship between video delay time and delay quality degradation amount
  • the absolute delay quality degradation amount indicating the quality degradation due to the absolute delay between the audio media and the video media from the audio delay time 22A and the video delay time 22B, the absolute delay quality degradation amount indicating the quality degradation due to the absolute delay between the audio media and the video media, and the relative relationship between the audio media and the video media.
  • An example will be described in which a relative delay quality degradation amount indicating quality degradation due to a typical delay is obtained and the delay quality degradation amount 23 B is indirectly estimated from the absolute delay quality degradation amount and the relative delay quality degradation amount.
  • the delay quality degradation amount estimation unit 12 has a storage unit as a main functional means.
  • a delay quality degradation amount calculation unit 12B a delay quality degradation amount calculation unit 12B, an absolute delay quality degradation amount calculation unit 12C, and a relative delay quality degradation amount calculation unit 12D are provided.
  • the storage unit 12A includes an absolute delay quality degradation amount estimation model 32A indicating the relationship between the delay time sum of the audio delay time 22A and the video delay time 22B and the absolute delay quality degradation amount 26, and the audio delay time 22A and the video delay. And a relative delay quality degradation amount estimation model 32B showing a relationship between the delay time difference from the time 22B and the relative delay quality degradation amount 27.
  • the absolute delay quality degradation amount calculation unit 12C calculates the absolute delay quality degradation amount corresponding to the delay time sum of the audio delay time 22A and the video delay time 22B. It has a function to calculate.
  • the relative delay quality degradation amount calculation unit 12D Based on the relative delay quality degradation amount estimation model 32B in the storage unit 12A, the relative delay quality degradation amount calculation unit 12D performs relative delay quality degradation corresponding to the delay time difference between the audio delay time 22A and the video delay time 22B. It has a function to calculate the quantity 27.
  • the delay quality degradation amount calculation unit 12B includes the absolute delay quality degradation amount 26 calculated by the absolute delay quality degradation amount calculation unit 12C and the relative delay quality degradation amount 27 calculated by the relative delay quality degradation amount calculation unit 12D. Based on audio delay time 22A and video delay time 22B It has a function to calculate the delay quality degradation amount 23B.
  • the absolute delay quality degradation amount is a quality degradation amount caused by the absolute delay between the audio media and the video media.
  • the relative delay quality degradation amount is a quality degradation amount caused by a relative delay difference between the audio media and the video media.
  • the absolute delay quality degradation amount 26 is defined as the absolute delay quality degradation amount 26, and the absolute delay quality degradation amount monotonously increases as the delay time sum of the audio delay time and the video delay time increases.
  • the absolute delay quality degradation amount calculation unit 12C estimates the absolute delay quality degradation amount 26.
  • the relative delay that occurs between the communication terminals is defined as a relative delay quality degradation amount 27, and the relative delay quality degradation amount monotonously increases as the delay time difference between the audio delay time and the video delay time increases.
  • the relative delay quality degradation amount 27 is estimated.
  • the storage unit for various arithmetic processing data and programs is also configured with a storage device such as a memory and a hard disk.
  • An arithmetic processing unit (computer) that performs various arithmetic processes is composed of a CPU and its peripheral circuits. By reading and executing a program (not shown) of the storage unit, the hardware and program To realize various functional means.
  • the storage unit and the arithmetic processing unit of each functional unit may be provided individually for each functional unit or may be shared by each functional unit.
  • FIG. 11 is a flowchart showing the delay quality degradation amount estimation processing of the video communication quality estimation apparatus according to the second embodiment of the present invention. Note that the operation of the video communication quality estimation apparatus 1 that contributes to the present embodiment differs from the first embodiment only in the delay quality degradation amount estimation operation. Other processing operations are the same as those in the first embodiment, and a detailed description thereof is omitted here.
  • the delay quality degradation amount estimation unit 12 of the video communication quality estimation device 1 executes the delay quality degradation amount estimation process of FIG. 11 in the delay quality degradation amount estimation step of step 110 of FIG.
  • the delay quality degradation amount estimation unit 12 acquires the audio delay time 22A and the video delay time 22B input from the outside by the delay quality degradation amount calculation unit 12B (step 211).
  • the delay quality degradation amount estimation unit 12 reads the model coefficient indicating the absolute delay quality degradation amount estimation model 32A from the storage unit 12A by the absolute delay quality degradation amount calculation unit 12C (step 212).
  • an absolute delay quality degradation amount 26 corresponding to the delay time sum of the audio delay time 22A and the video delay time 22B is calculated (step 213).
  • FIG. 12 is a characteristic example of the absolute delay quality degradation amount estimation.
  • quality degradation components that change according to the sum of the delay times of the audio delay time 22A and the video delay time 22B out of the quality related to video communication in which audio media and video media are exchanged bidirectionally are combined.
  • the amount of absolute delay quality degradation is 26.
  • the absolute delay quality degradation amount 26 tends to monotonously increase as the delay time sum Dr of the audio delay time Da and the video delay time Dv increases.
  • the absolute delay quality degradation amount 26 can be expressed by a linear function expression using, for example, the delay time sum of the audio delay time 22A and the video delay time 22B as a variable. If audio delay time 2 2A is Da, video delay time 22B is Dv, and sum of delay times is Dr, Dr is obtained by the following equation (6).
  • Dr Da + Dv '(6) [0081] Further, when ⁇ 3,
  • R (Dr) can be estimated by the following equation (7).
  • the delay quality degradation amount estimation unit 12 reads the model coefficient indicating the relative delay quality degradation amount estimation model 32 ⁇ from the storage unit 12A by the relative delay quality degradation amount calculation unit 12D (step 214). Based on the delay quality degradation amount estimation model 32 ⁇ , a relative delay quality degradation amount 27 corresponding to the delay time difference between the audio delay time 22 ⁇ and the video delay time 22 ⁇ is calculated (step 215).
  • FIG. 13 is a characteristic example of relative delay quality degradation amount estimation.
  • quality degradation components that change in accordance with the delay time difference between audio delay time 22 mm and video delay time 22 mm are relative to each other.
  • the amount of delay quality degradation is 27.
  • the relative delay quality degradation amount 27 shows zero until the delay time difference Ds between the audio delay time Da and the video delay time Dv reaches a predetermined value, and decreases monotonously as the delay time difference Ds further increases. Tend to.
  • the relative delay quality degradation amount 27 can be expressed by a linear function expression using, for example, the delay time difference between the audio delay time 22A and the video delay time 22B as a variable. If the audio delay time 22A is Da, the video delay time 22B is Dv, and the delay time difference is Ds, Ds can be calculated by the following equation (8).
  • the delay quality degradation amount estimation unit 12 uses the delay quality degradation amount calculation unit 12B to calculate the absolute delay quality degradation amount 26 calculated by the absolute delay quality degradation amount calculation unit 12C and the relative delay quality degradation amount calculation unit. Based on the relative delay quality degradation amount 27 calculated in 12D, the delay quality degradation amount 23B corresponding to the audio delay time 22A and the video delay time 22B is calculated (step 216).
  • FIG. 14 is a characteristic example of delay quality degradation amount estimation. As shown in FIG. 14, the delay quality degradation amount 23B tends to monotonously increase as the sum of the absolute delay quality degradation amount R (Dr) and the relative delay quality degradation amount S (Ds) increases.
  • the delay quality degradation amount 23B can be expressed, for example, by the sum of the absolute delay quality degradation amount R (Dr) and the relative delay quality degradation amount S (Ds).
  • the absolute delay quality degradation amount 26 is R (Dr)
  • the delay quality degradation amount 23B is Dav
  • the function that selects the smaller one of a and b is min (a, b)
  • the function that selects the larger value is max (a, b)
  • Dav normalized to the MOS value range 1 to 5 is obtained by the following equation (10).
  • Dav min [5, max ⁇ i? (L) r I + 5 ( ⁇ ) 5), ⁇ ]... hi. )
  • the delay quality degradation amount calculation unit 12B outputs the calculated delay quality degradation amount 23 ⁇ to the video communication quality estimation unit 13 (step 217), and ends the series of delay quality degradation amount estimation processing. To do.
  • the audio delay time is calculated by the absolute delay quality degradation amount calculation unit 12C.
  • the absolute delay quality degradation corresponding to the sum of the delay time of the audio delay time and the video delay time based on the absolute delay quality degradation characteristic that the absolute delay quality degradation amount monotonously increases as the delay time sum of the video delay time increases. Since the amount is estimated, the absolute delay quality degradation amount considering the human perceptual characteristic that the degradation of video communication quality is felt due to the absolute delay from the input to the output of each media is simplified. Can be estimated with high accuracy.
  • the relative delay quality degradation amount calculation unit 12D causes the relative delay quality degradation amount in which the relative delay quality degradation amount monotonously decreases as the delay time difference between the audio delay time and the video delay time increases. Since the absolute delay quality degradation amount corresponding to the delay time difference between the audio delay time and the video delay time is estimated based on the characteristics, the video communication is caused by the relative delay time between media, that is, the loss of synchronization. It is possible to accurately estimate the amount of relative delay quality degradation that takes into account human perception characteristics of feeling quality degradation with simple processing.
  • FIG. 15 is an explanatory diagram showing the configuration of the main part of the video communication quality estimation device according to the third embodiment of the present invention.
  • This embodiment is based on the magnitude relationship between the audio delay time 22A and the video delay time 22B.
  • the delay quality degradation amount estimation unit 12 includes, as main functional means, a storage unit 12A, a delay quality degradation amount calculation unit 12B, an absolute delay quality degradation amount calculation unit 12C, and a relative delay quality degradation amount.
  • a calculation unit 12D is provided.
  • the storage unit 12A includes an absolute delay quality degradation amount estimation model 32A showing the relationship between the delay time sum of the audio delay time 22A and the video delay time 22B and the absolute delay quality degradation amount 26, and the audio delay time 22A and the video delay time 22B. It has a function of storing a plurality of different relative delay quality degradation amount estimation models 32B and 32C according to the magnitude relationship in advance.
  • the absolute delay quality degradation amount calculation unit 12C calculates the absolute delay quality corresponding to the sum of the delay times of the audio delay time 22A and the video delay time 22B based on the absolute delay quality degradation amount estimation model 32A of the storage unit 12A. It has a function to calculate the amount of deterioration 26.
  • the relative delay quality degradation amount calculation unit 12D has a function to select a relative delay quality degradation amount estimation model from the storage unit 12A according to the magnitude relationship between the audio delay time 22A and the video delay time 22B, and the selected relative delay quality degradation amount estimation. Based on the model, it has a function of calculating the relative delay quality degradation amount 27 corresponding to the delay time difference between the audio delay time 22A and the video delay time 22B.
  • the delay quality degradation amount calculation unit 12B includes the absolute delay quality degradation amount 26 calculated by the absolute delay quality degradation amount calculation unit 12C and the relative delay quality degradation amount calculated by the relative delay quality degradation amount calculation unit 12D. 27, the delay quality degradation amount 23B corresponding to the audio delay time 22A and the video delay time 22B is calculated.
  • a relative delay quality degradation amount estimation model is selected according to the magnitude relationship between the audio delay time and the video delay time, and based on the selected relative delay quality degradation amount estimation model.
  • the relative delay quality degradation amount calculation unit 12D estimates the relative delay quality degradation amount 27.
  • the storage unit for various arithmetic processing data and programs is also configured with a storage device such as a memory and a hard disk.
  • An arithmetic processing unit (computer) that performs various arithmetic processes is composed of a CPU and its peripheral circuits. By reading and executing a program (not shown) of the storage unit, the hardware and program To realize various functional means.
  • the storage unit and the arithmetic processing unit of each functional unit may be provided individually for each functional unit or may be shared by each functional unit.
  • FIG. 16 is a flowchart showing the delay quality degradation amount estimation process of the video communication quality estimation apparatus according to the third embodiment of the present invention. Note that the operation of the video communication quality estimation apparatus 1 that contributes to the present embodiment differs from the second embodiment only in the delay quality degradation amount estimation operation. Other processing operations are the same as those in the second embodiment, and a detailed description thereof is omitted here.
  • the delay quality degradation amount estimation unit 12 of the video communication quality estimation apparatus 1 executes the delay quality degradation amount estimation process in FIG. 16 in the delay quality degradation amount estimation step in step 110 in FIG.
  • the delay quality degradation amount estimation unit 12 obtains the audio delay time 22A and the video delay time 22B input from the outside by the delay quality degradation amount calculation unit 12B (step 311).
  • the delay quality degradation amount estimation unit 12 reads the model coefficient indicating the absolute delay quality degradation amount estimation model 32A from the storage unit 12A by the absolute delay quality degradation amount calculation unit 12C (step 312).
  • an absolute delay quality degradation amount 26 corresponding to the delay time sum of the audio delay time 22A and the video delay time 22B is calculated (step 313).
  • the delay quality degradation amount estimation unit 12 uses the relative delay quality degradation amount calculation unit 12D to A relative delay quality degradation estimation model is selected according to the magnitude relationship between the voice delay time 22A and the video delay time 22B (step 314). Then, the model coefficient indicating the selected relative delay quality degradation amount estimation model is read from the storage unit 12A (step 315), and based on this relative delay quality degradation amount estimation model, the audio delay time 22A and the video delay time 22B are delayed. Relative delay quality degradation amount 27 corresponding to the time difference is calculated (step 316).
  • FIG. 17 is a characteristic example of relative delay quality degradation amount estimation.
  • the relative delay quality degradation characteristic perceived by the user is related to the magnitude relationship between the audio delay time 22A and the video delay time 22B.
  • the audio delay time 22A is greater or smaller than the video delay time 22B.
  • Two relative delay quality degradation amount estimation models 32 B and 32 C are stored in advance in the storage unit 12 A according to the sign of the delay time difference Ds.
  • the relative delay quality degradation amount estimation model 32B is applied when the audio delay time 22A is greater than or equal to the video delay time 22B, and the relative delay quality degradation amount estimation model 32C has an audio delay time 22A of video delay. Applicable when the time is less than 22B.
  • the relative delay quality degradation amount 27 is the delay time difference Ds between the audio delay time Da and the video delay time Dv being a predetermined value. It shows zero until the value is reached, and tends to monotonously decrease as the delay time difference Ds further increases.
  • the relative delay quality degradation amount 27 indicates zero until the delay time difference D s between the audio delay time Da and the video delay time Dv reaches a predetermined value. There is a tendency to monotonously decrease with further decrease in Ds.
  • the delay quality degradation amount estimation unit 12 uses the delay quality degradation amount calculation unit 12B to calculate the absolute delay quality degradation amount 26 calculated by the absolute delay quality degradation amount calculation unit 12C and the relative delay quality degradation amount calculation unit. Based on the relative delay quality degradation amount 27 calculated in 12D, the delay quality degradation amount 23B corresponding to the audio delay time 22A and the video delay time 22B is calculated (step 317). This step 317 is the same as step 216 of FIG. 11 described above, and detailed description thereof is omitted here.
  • the delay quality degradation amount calculation unit 12B outputs the calculated delay quality degradation amount 23B to the video communication quality estimation unit 13 (step 318), and ends a series of delay quality degradation amount estimation processing.
  • a plurality of relative delay quality degradation amount estimation models 32B and 32C corresponding to the magnitude relationship between the audio delay time 22A and the video delay time 22B are stored in the storage unit 12A.
  • the delay quality degradation amount calculation unit 12D selects a relative delay quality degradation amount estimation model according to the magnitude relationship between the audio delay time 22A and the video delay time 22B, and based on the selected relative delay quality degradation amount estimation model, Since the relative delay quality degradation amount 27 corresponding to the delay time difference between the delay time 22A and the video delay time 22B is calculated, the degree to which the relative delay quality degradation is felt depends on the relationship between the audio delay time and the video delay time. It is possible to accurately estimate the amount of relative delay quality degradation that takes into account human perception characteristics of changes with simple processing.
  • FIG. 18 is an explanatory diagram showing the configuration of the main part of the video communication quality estimation apparatus according to the fourth embodiment of the present invention, where the same reference numerals are given to the same or equivalent parts as in FIG. .
  • the video media frame rate 22C is used, and the relative delay quality corresponding to the audio delay time 22A, the video delay time 22B, and the frame rate 22C is used.
  • the frame rate is the transfer rate of the frames constituting the video media and is represented by the number of frames transmitted per unit time.
  • the configuration of the video communication quality estimation device 1 that works in the present embodiment is different from that of the second embodiment (see FIG. 10) in that the storage unit 12A of the delay quality degradation amount estimation unit 12 Only the relative delay quality degradation amount calculation unit 12D is different, and the slope coefficient calculation unit 12E is newly added.
  • Other configurations are the same as those in the second embodiment, and a detailed description thereof is omitted here.
  • the delay quality degradation amount estimation unit 12 includes, as main functional means, a storage unit 12A, a delay quality degradation amount calculation unit 12B, an absolute delay quality degradation amount calculation unit 12C, and a relative delay quality degradation amount calculation.
  • a section 12D and an inclination coefficient calculation section 12E are provided.
  • the storage unit 12A includes an absolute delay quality degradation amount estimation model 32A indicating the relationship between the delay time sum of the audio delay time 22A and the video delay time 22B and the absolute delay quality degradation amount 26, and the audio delay time 22A and the video delay.
  • the relationship between the delay time difference from time 22B and the relative delay quality degradation amount 27 A function for preliminarily storing a relative delay quality degradation amount estimation model 32B shown in FIG. 5 and a slope coefficient estimation model 32D showing a relationship between a frame rate 22C and a slope coefficient showing the slope of the relative delay quality degradation amount estimation model 32B. is doing.
  • the absolute delay quality degradation amount calculation unit 12C calculates the absolute delay quality corresponding to the sum of the delay times of the audio delay time 22A and the video delay time 22B. It has a function to calculate the amount of deterioration 26.
  • the inclination coefficient calculation unit 12E has a function of calculating an inclination coefficient indicating the inclination of the relative delay quality degradation amount estimation model 32B based on the inclination coefficient estimation model 32D of the storage unit 12A.
  • Relative delay quality degradation amount calculation unit 12D identifies the slope of the relative delay quality degradation amount estimation model 32B of storage unit 12A based on the slope coefficient calculated by slope coefficient calculation unit 12E and the slope. Based on the relative delay quality degradation amount estimation model 32B, a function of calculating the relative delay quality degradation amount 27 corresponding to the delay time difference between the audio delay time 22A and the video delay time 22B is provided.
  • the delay quality degradation amount calculation unit 12B includes the absolute delay quality degradation amount 26 calculated by the absolute delay quality degradation amount calculation unit 12C and the relative delay quality degradation amount 27 calculated by the relative delay quality degradation amount calculation unit 12D. Based on this, it has a function of calculating the delay quality degradation amount 23B corresponding to the audio delay time 22A and the video delay time 22B.
  • the degree of relative delay quality degradation depends on the frame rate of the video media. For example, when the frame rate is low, even if there is a relative deviation between the audio media and the video media, no significant quality degradation is perceived, but as the frame rate increases, the quality degradation becomes significant. Also, as seen in videophone services using mobile phones in recent years, a frame rate of 30 [frame / sec] cannot be realized! /, There are many systems, and the frame rate changes It is a very important issue to consider comprehensive multimodal quality in consideration.
  • the relative delay quality degradation amount calculation unit 12D uses a linear function as the relative delay quality degradation amount estimation model 32B, and the slope coefficient of this linear function is a logarithmic function as the frame rate increases. Characteristic, that is, the slope coefficient estimation model Based on 32D, the slope coefficient calculation unit 12E calculates the slope coefficient of the linear function corresponding to the frame rate. Thereby, it is possible to estimate the relative delay quality deterioration amount of the video communication in consideration of the change of the frame rate.
  • the storage unit for various arithmetic processing data and programs is also configured with a storage device such as a memory and a hard disk.
  • An arithmetic processing unit (computer) that performs various arithmetic processes is composed of a CPU and its peripheral circuits. By reading and executing a program (not shown) of the storage unit, the hardware and program To realize various functional means.
  • the storage unit and the arithmetic processing unit of each functional unit may be provided individually for each functional unit or may be shared by each functional unit.
  • FIG. 19 is a flowchart showing the delay quality degradation amount estimation processing of the video communication quality estimation apparatus according to the fourth embodiment of the present invention. Note that the operation of the video communication quality estimation apparatus 1 that contributes to the present embodiment differs from the second embodiment only in the delay quality degradation amount estimation operation. Other processing operations are the same as those in the second embodiment, and a detailed description thereof is omitted here.
  • the delay quality degradation amount estimation unit 12 of the video communication quality estimation device 1 executes the delay quality degradation amount estimation process of FIG. 19 in the delay quality degradation amount estimation step of step 110 of FIG.
  • the delay quality degradation amount estimation unit 12 obtains the audio delay time 22A, the video delay time 22B, and the frame rate 22C input from the outside by the delay quality degradation amount calculation unit 12B (step 411).
  • the delay quality degradation amount estimation unit 12 reads out the model coefficient indicating the absolute delay quality degradation amount estimation model 32A from the storage unit 12A by the absolute delay quality degradation amount calculation unit 12C (step 412).
  • an absolute delay quality degradation amount 26 corresponding to the delay time sum of the audio delay time 22A and the video delay time 22B is calculated (step 413).
  • the delay quality degradation amount estimation unit 12 reads out the model coefficient indicating the gradient coefficient estimation model 32D from the storage unit 12A by the gradient coefficient calculation unit 12E (step 414), and based on the gradient coefficient estimation model 32D. Accordingly, a slope coefficient indicating the slope of the relative delay quality degradation amount estimation model 32B is calculated (step 415).
  • Fig. 20 shows an example of the characteristics of the relative delay quality degradation estimation.
  • the relative delay quality degradation amount 27 shows zero until the delay time difference Ds between the audio delay time Da and the video delay time Dv reaches a predetermined value, and monotonously increases as the delay time difference Ds further increases. There is a tendency to decrease.
  • the slope ⁇ 4 of the relative delay quality degradation amount estimation model 32B tends to be gentle as the frame rate 22C decreases.
  • Fig. 21 shows an example of the characteristics of slope coefficient estimation. As shown in Fig. 21, the slope ⁇ 4 of the relative delay quality degradation estimation model 32 ⁇ tends to monotonously decrease as the logarithmic value of the frame rate 22C increases.
  • the slope coefficient ⁇ 4 can be expressed by a linear function expression using, for example, a logarithmic value of the frame rate 22C as a variable. If the frame rate 22C is F, the logarithmic value is log (F), «41, ⁇ 41 are constants, and the relative delay quality degradation estimation model 32 ⁇ is the slope coefficient ⁇ 4, then ⁇ 4 is It is obtained by equation (13).
  • the delay quality degradation amount estimation unit 12 reads the model coefficient indicating the relative delay quality degradation amount estimation model 32B from the storage unit 12A by the relative delay quality degradation amount calculation unit 12D (step 416).
  • the slope of the relative delay quality degradation amount estimation model 32B is specified by including the slope coefficient a4 calculated by the slope coefficient calculation unit 12E in this model coefficient (step 417).
  • a relative delay quality degradation amount 27 corresponding to the delay time difference between the audio delay time 22A and the video delay time 22B is calculated (step 418).
  • the delay quality degradation amount estimation unit 12 uses the delay quality degradation amount calculation unit 12B to calculate the absolute delay quality degradation amount 26 calculated by the absolute delay quality degradation amount calculation unit 12C and the relative delay quality degradation amount calculation unit.
  • the delay quality degradation amount 23B corresponding to the audio delay time 22A and the video delay time 22B is calculated (step 419).
  • the delay quality degradation amount calculation unit 12B outputs the calculated delay quality degradation amount 23B to the video communication quality estimation unit 13 (step 420), and ends the series of delay quality degradation amount estimation processing.
  • linear functions are used as the relative delay quality degradation amount estimation model 32B, and the slope coefficient calculation unit 12E causes the slope coefficient of the linear function to be logarithmized as the frame rate increases.
  • the slope coefficient estimation model that increases functionally, the slope coefficient of the linear function corresponding to the frame rate is estimated, and based on the relative delay quality degradation amount estimation model 32B specified by this slope coefficient, speech Since the relative delay quality degradation amount 27 corresponding to the delay time difference between the delay time 22A and the video delay time 22B is calculated, the degree of feeling the relative delay quality degradation changes according to the frame rate of the video media. Relative delay quality degradation considering human perception characteristics can be accurately estimated with simple processing.
  • FIG. 22 is an explanatory diagram showing the configuration of the main part of the video communication quality estimation apparatus according to the fifth embodiment of the present invention, where the same or equivalent parts as those in FIG. .
  • one relative delay quality degradation estimation model that is a linear function force.
  • the slope of 32B is specified by the slope coefficient that also calculates the frame rate 22C force of the video media, and it corresponds to the delay time difference between audio delay time 22A and video delay time 22B based on the specified relative delay quality degradation amount estimation model 32B As an example, the relative delay quality degradation amount of 27 is calculated. In the present embodiment, a case will be described in which the relative delay quality degradation amount estimation model used for estimating the relative delay quality degradation amount 27 is selected based on the magnitude relationship between the audio delay time 22A and the video delay time 22B.
  • the configuration of the video communication quality estimation device 1 that works for this embodiment is different from that of the second embodiment (see FIG. 10) in the storage unit 12A of the delay quality degradation amount estimation unit 12. Only the relative delay quality degradation amount calculation unit 12D is different. Other configurations are the same as those in the fourth embodiment, and a detailed description thereof is omitted here.
  • the delay quality degradation amount estimation unit 12 includes, as main functional means, a storage unit 12A, a delay quality degradation amount calculation unit 12B, an absolute delay quality degradation amount calculation unit 12C, and a relative delay quality degradation amount calculation.
  • a section 12D and an inclination coefficient calculation section 12E are provided.
  • the storage unit 12A includes an absolute delay quality degradation amount estimation model 32A indicating the relationship between the delay time sum of the audio delay time 22A and the video delay time 22B and the absolute delay quality degradation amount 26, and the audio delay time 22A and the video delay.
  • an absolute delay quality degradation amount estimation model 32A indicating the relationship between the delay time sum of the audio delay time 22A and the video delay time 22B and the absolute delay quality degradation amount 26, and the audio delay time 22A and the video delay.
  • the absolute delay quality degradation amount calculation unit 12C calculates the absolute delay quality corresponding to the sum of the delay times of the audio delay time 22A and the video delay time 22B based on the absolute delay quality degradation amount estimation model 32A of the storage unit 12A. It has a function to calculate the amount of deterioration 26.
  • the slope coefficient calculation unit 12E is based on the function of selecting the slope coefficient estimation model corresponding to the magnitude relationship between the audio delay time 22A and the video delay time 22B from the storage part 12A and the selected slope coefficient estimation model 32D.
  • Relative delay quality degradation estimation model It has a function to calculate the slope coefficient indicating the slope of 32B.
  • the relative delay quality degradation amount calculation unit 12D has a function of selecting a relative delay quality degradation amount estimation model from the storage unit 12A according to the magnitude relationship between the audio delay time 22A and the video delay time 22B, and the selected relative delay quality. Function to calculate relative delay quality degradation amount 27 corresponding to the delay time difference between audio delay time 22A and video delay time 22B based on the degradation amount estimation model have.
  • the delay quality degradation amount calculation unit 12B includes the absolute delay quality degradation amount 26 calculated by the absolute delay quality degradation amount calculation unit 12C and the relative delay quality degradation amount 27 calculated by the relative delay quality degradation amount calculation unit 12D. Based on this, it has a function of calculating the delay quality degradation amount 23B corresponding to the audio delay time 22A and the video delay time 22B.
  • an inclination coefficient estimation model and a relative delay quality degradation amount estimation model are selected according to the relationship between the audio delay time and the video delay time, respectively, and based on the selected inclination coefficient estimation model, Then, the inclination coefficient corresponding to the frame rate of the video media is calculated by the inclination coefficient calculation unit 12E, and the inclination of the selected relative delay quality degradation amount estimation model is specified by the inclination coefficient, and this relative delay quality degradation amount estimation model is determined. Therefore, the relative delay quality degradation amount 27 is estimated by the relative delay quality degradation amount calculation unit 12D.
  • the storage unit for various arithmetic processing data and programs is also configured with a storage device such as a memory and a hard disk.
  • An arithmetic processing unit (computer) that performs various arithmetic processes is composed of a CPU and its peripheral circuits. By reading and executing a program (not shown) of the storage unit, the hardware and program To realize various functional means.
  • the storage unit and the arithmetic processing unit of each functional unit may be provided individually for each functional unit or may be shared by each functional unit.
  • FIG. 23 is a flowchart showing delay quality deterioration amount estimation processing of the video communication quality estimation apparatus according to the fifth embodiment of the present invention. Note that this embodiment The operation of the powerful video communication quality estimation device 1 differs from the fourth embodiment only in the delay quality degradation amount estimation operation. Other processing operations are the same as those in the fourth embodiment, and a detailed description thereof is omitted here.
  • the delay quality degradation amount estimation unit 12 of the video communication quality estimation device 1 executes the delay quality degradation amount estimation process of FIG. 23 in the delay quality degradation amount estimation step of step 110 of FIG.
  • the delay quality degradation amount estimation unit 12 obtains the audio delay time 22A, the video delay time 22B, and the frame rate 22C input from the outside by the delay quality degradation amount calculation unit 12B (step 511).
  • the delay quality degradation amount estimation unit 12 reads out the model coefficient indicating the absolute delay quality degradation amount estimation model 32A from the storage unit 12A by the absolute delay quality degradation amount calculation unit 12C (step 512).
  • an absolute delay quality degradation amount 26 corresponding to the sum of the delay times of the audio delay time 22A and the video delay time 22B is calculated (step 513).
  • the delay quality degradation amount estimation unit 12 selects the gradient coefficient estimation model according to the magnitude relationship between the audio delay time 22A and the video delay time 22B by the gradient coefficient calculation unit 12E (step 514). . Then, the model coefficient indicating the selected inclination coefficient estimation model 32D is also read out from the storage unit 12A force (step 515). Is calculated (step 516).
  • FIG. 24 is a characteristic example of the relative delay quality degradation amount estimation.
  • the relative delay quality degradation characteristic perceived by the user is related to the magnitude relationship between the audio delay time 22A and the video delay time 22B.
  • the audio delay time 22A is larger or smaller than the video delay time 22B.
  • two relative delay quality degradation amount estimation models 32B and 32C are stored in the storage unit 12A in advance according to the sign of the delay time difference Ds.
  • the relative delay quality degradation amount estimation model 32B is applied when the audio delay time 22A is greater than or equal to the video delay time 22B
  • the relative delay quality degradation amount estimation model 32C is applied to the audio delay time 22A. 2 Applicable when less than 2B.
  • the relative delay quality degradation amount 27 shows zero until the delay time difference Ds between the audio delay time Da and the video delay time Dv reaches a predetermined value, and tends to monotonously decrease as the delay time difference Ds further increases.
  • the relative delay quality degradation amount 27 indicates zero until the delay time difference D s between the audio delay time Da and the video delay time Dv reaches a predetermined value. There is a tendency to monotonously decrease with further decrease in Ds.
  • Fig. 25 is an example of the characteristics of slope coefficient estimation. As shown in Fig. 25, the slope a5 of the relative delay quality degradation estimation model 32 ⁇ tends to monotonously decrease as the logarithmic value of the frame rate 22C increases. In addition, the slope ⁇ 6 of the relative delay quality degradation estimation model 32C tends to increase monotonically as the logarithmic value of the frame rate 22C increases.
  • the slope coefficients ⁇ 5 and ⁇ 6 can be expressed by a linear function expression using, for example, a logarithmic value of the frame rate 22C as a variable.
  • the logarithmic value is log (F)
  • «51, j8 51 are constants
  • the slope coefficient of the relative delay quality degradation estimation model 32B is ⁇ 5
  • a 5 is It can be obtained from equation (14).
  • the frame rate 22C is F
  • the logarithmic value is log (F)
  • a61 and j861 are constants
  • the slope coefficient of the relative delay quality degradation estimation model 32C is oc6.
  • a 6 is obtained by the following equation (15).
  • the delay quality degradation amount estimation unit 12 selects a relative delay quality degradation amount estimation model according to the magnitude relationship between the audio delay time 22A and the video delay time 22B by the relative delay quality degradation amount calculation unit 12D. (Step 517). Then, a model coefficient indicating the selected relative delay quality degradation amount estimation model is read from the storage unit 12A (step 518), and this model coefficient is read out. Is included with the slope coefficient a5 or a6 calculated by the slope coefficient calculation unit 12E to identify the slope of the selected relative delay quality degradation amount estimation model (step 519).
  • the relative delay quality degradation amount 27 corresponding to the delay time difference between the audio delay time 22A and the video delay time 22B is calculated (step 520).
  • the delay quality degradation amount estimation unit 12 uses the delay quality degradation amount calculation unit 12B to calculate the absolute delay quality degradation amount 26 calculated by the absolute delay quality degradation amount calculation unit 12C and the relative delay quality degradation amount calculation unit. Based on the relative delay quality degradation amount 27 calculated in 12D, a delay quality degradation amount 23B corresponding to the audio delay time 22A and the video delay time 22B is calculated (step 521).
  • steps 517 and 518 are equivalent to steps 314 and 315 in FIG. 16 described above
  • step 519 is equivalent to step 417 in FIG. 19 described above
  • steps 520 and 521 are the same as steps 215 and 215 in FIG. This is equivalent to 216, and a detailed description thereof is omitted here.
  • the delay quality degradation amount calculation unit 12B outputs the calculated delay quality degradation amount 23B to the video communication quality estimation unit 13 (step 522), and ends a series of delay quality degradation amount estimation processing.
  • the slope coefficient estimation model and the relative delay quality degradation amount estimation model are selected according to the magnitude relationship between the audio delay time and the video delay time, and the selected slope coefficient estimation model is selected.
  • the inclination coefficient corresponding to the frame rate of the video media is calculated by the inclination coefficient calculation unit 12E, and the inclination of the selected relative delay quality degradation amount estimation model is specified by the inclination coefficient, and this relative delay is determined.
  • the relative delay quality degradation amount calculation unit 12D estimates the relative delay quality degradation amount 27 based on the quality degradation amount estimation model, the degree to which the relative delay quality degradation is felt according to the frame rate of the video media.
  • the human perception characteristics that change, and the human perception characteristic that the degree of relative delay quality degradation changes according to the relationship between the audio delay time and the video delay time.
  • the relative delay quality degradation amount in consideration of both, can be accurately estimated by simple processing.
  • FIG. 26 is a characteristic example of the absolute delay quality degradation amount estimation model used in the video communication quality estimation apparatus according to the sixth embodiment of the present invention.
  • the absolute delay quality degradation corresponding to the sum of the delay times of the audio delay time 22A and the video delay time 22B in the absolute delay quality degradation amount calculation unit 12C of the delay quality degradation amount estimation unit 12 In the case of calculating the quantity 26, the case where the absolute delay quality degradation amount estimation model 32A is modeled by a linear function has been described as an example.
  • the absolute delay quality degradation amount estimation model 32A varies to some extent depending on the environment for video communication to be evaluated. Therefore, there are cases where the estimation accuracy is improved by modeling with the nonlinear function rather than modeling the absolute delay quality degradation amount estimation model 32A with the linear function.
  • R (Dr) can be estimated by the following equation (16).
  • the absolute delay quality degradation amount estimation model 32A is modeled by the nonlinear function, so that the estimation accuracy can be improved. Furthermore, when the exponential function is used, the absolute delay quality degradation amount estimation model 32A can be modeled with a simple function expression. Note that this embodiment can be applied to the third to fifth embodiments, which are not limited to the second embodiment, and the same effects can be obtained.
  • the relative delay quality degradation amount estimation model used for estimating the relative delay quality degradation amount 27 is based on the magnitude relationship between the audio delay time 22A and the video delay time 22B. A plurality of these models can be used to model these relative delay quality degradation estimation models using nonlinear functions.
  • FIG. 27 is a characteristic example of the relative delay quality degradation amount estimation model used in the video communication quality estimation apparatus according to the seventh embodiment of the present invention.
  • the relative delay quality degradation amount corresponding to the delay time difference between the audio delay time 22A and the video delay time 22B in the relative delay quality degradation amount calculation unit 12D of the delay quality degradation amount estimation unit 12 When calculating 27, the case where the relative delay quality degradation amount estimation model 32B is modeled by a linear function has been described as an example.
  • the relative delay quality degradation amount estimation model 32B varies to some extent depending on the environment for video communication to be evaluated. Therefore, there are cases where the estimation accuracy is improved by modeling with the nonlinear function rather than modeling the absolute delay quality degradation amount estimation model 32A with the linear function.
  • S (Ds) can be estimated by the following equation (17).
  • the relative delay quality degradation amount estimation model 32B When the relative delay quality degradation amount estimation model 32B is modeled by a non-linear function, the audio delay time 22A and the video image are similar to the equations (11) and (12) described in the third embodiment.
  • Two relative delay quality degradation amount estimation models 32B corresponding to the magnitude relationship of the delay time 22B are stored in the storage unit 12A, and the relative delay quality is determined based on the magnitude relationship between the audio delay time 22A and the video delay time 22B. Select the relative delay quality degradation estimation model 3 2B used to estimate degradation 27.
  • FIG. 28 is another characteristic example of relative delay quality degradation amount estimation.
  • the relative delay quality degradation amount 27 starts from zero until the delay time difference Ds between the audio delay time Da and the video delay time Dv reaches a predetermined value. It tends to decrease little by little and monotonously decrease as the delay time difference Ds further increases.
  • the relative delay quality degradation amount 27 decreases the zero force little by little until the delay time difference Ds between the audio delay time Da and the video delay time Dv reaches a predetermined value. As the delay time difference Ds further decreases, it tends to monotonously decrease.
  • the quality degradation amount 27 can be expressed by, for example, a logistic function equation in which the delay time difference between the audio delay time 22A and the video delay time 22B is a variable.
  • Ds the delay time difference between the audio delay time 22A and the video delay time 22B
  • ⁇ ⁇ , ⁇ 10, DslO are constants
  • S (Ds) S (Ds) can be estimated by the following equation (19).
  • the relative delay quality degradation amount 27 tends to converge to the coefficients ⁇ 8 to 10 at the end of the characteristic example.
  • the delay quality degradation amount 23 ⁇ is normally set to the MOS value range 1 to 5, so when estimating the actual relative delay quality degradation amount 27, the above trend part at the end of the characteristic example is Not used.
  • Equations (17) to (19) described above can be expressed by exponential functions.
  • Equation (17) the delay time difference between the audio delay time Da and the video delay time Dv is Ds, all, j811, and Dsll are constants, and the relative delay quality degradation amount 27 is S (D In the case of s), S (Ds) can be estimated by the following equation (20).
  • Ds is the delay time difference between audio delay time Da and video delay time Dv, and a 13, ⁇ ⁇ 3,
  • S (Ds) can be estimated by the following equation (22).
  • the video frame rate can be changed according to the setting parameters of the video communication application.
  • video communication is performed between communication terminals according to the above assumed scene by changing the audio quality, the video quality including the video frame rate, and the delay time of the audio 'video in various states. Evaluate video communication quality with comprehensive consideration of quality factors using a five-level quality scale.
  • MOS value Mean Opinion Score
  • MOS score is 5 to 1 for each of the five grades of quality rating: “very good”, “good”, “normal”, “bad”, “very bad”, and the score given by the evaluator The average value is obtained.
  • audio quality evaluation values video products The quality evaluation value is obtained in the same way. Details of the subjective evaluation experiment method are described in ITU-T recommendation P.911.
  • the audio quality evaluation value and the video quality evaluation value may be values derived by applying an objective quality estimation technique such as ITU-T recommendation P.862 or ITU-T recommendation J.144 described above.
  • each communication terminal that performs video communication using a multimodal service has symmetry between the audio quality evaluation value and the video quality evaluation value.
  • the explanation assumes that equal audio quality evaluation values and video quality evaluation values can be obtained.
  • the multimodal quality estimation unit 11 Both The multimodal quality value 23A may be calculated by combining the multimodal quality of the communication terminals.
  • the multimodal quality estimator 11 estimates individual multimodal quality values 23A for each communication terminal, and the video communication quality estimator 13 estimates the multimodal quality values 23A and the delay quality degradation amount 23B. Therefore, the video communication quality value 24 may be estimated.
  • the delay quality degradation amount calculation unit 12B calculates the delay quality degradation amount Dav corresponding to the audio delay time 22A and the video delay time 22B
  • the absolute delay quality degradation amount R (Dr) calculated by the absolute delay quality degradation amount calculation unit 12C
  • the relative delay quality degradation amount calculated by the relative delay quality degradation amount calculation unit 12D As shown in (10), the absolute delay quality degradation amount R (Dr) calculated by the absolute delay quality degradation amount calculation unit 12C and the relative delay quality degradation amount calculated by the relative delay quality degradation amount calculation unit 12D.
  • S (Ds) and the sum of forces are also calculated for Dav has been described as an example, but is not limited to this.
  • Dav can be estimated by the following equation (23), and the interaction between R (Dr) and S (Ds) is taken into account. Can be estimated.
  • Dav a-R (Dr) + ⁇ 14- S (DS) + Y -R (Dr)-S ⁇ Ds) + ⁇ 14--(23)
  • Parameters that influence the video communication environment include, for example, a communication type parameter indicating the communication type of the video communication service, a playback performance parameter indicating the playback performance of the terminal that plays back the video media, and a certain! There is a playback environment parameter indicating the playback environment.
  • the communication type parameter there is a "task" indicating the communication type performed in the video communication service to be evaluated.
  • playback performance parameters include the “encoding method” In addition to “Formula”, “Video Format”, and “Key Frame”, there are “Monitor Size” and “Monitor Resolution” related to media playback functions on the terminal.
  • playback environment parameters include “room illuminance” during media playback on the terminal.
  • the function form of the estimation model and its coefficients are stored in the storage unit for each combination of such parameters, and the function form of the estimation model or the The coefficient may be selected.
  • the quality value represented by the MOS value has been described as a case where the calculated quality value is normalized so that the MOS value can be in the range of 1 to 5. If the calculated quality value falls within the range of 1 to 5, normalization processing may be omitted.
  • functions such as min () and max O are given as specific examples of normalization. As an example, the case of using is described, but normal function may be performed using other functions.
  • estimation model is modeled by a linear function or a nonlinear function
  • these estimation models are not limited to functions. Models other than functions are used. May be.
  • it may be a tabular database that defines the input / output relationship of the estimation model.
  • a black box model in which only input / output characteristics are specified such as a neural network or a case base, may be used.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Telephonic Communication Services (AREA)

Abstract

 マルチモーダル品質推定部(11)により、音声品質評価値(21A)と映像品質評価値(21B)に基づいてマルチモーダル品質値(23A)を推定するとともに、遅延品質劣化量推定部(12)により、音声遅延時間(22A)と映像遅延時間(22B)に基づいて遅延品質劣化量(23B)を推定し、映像コミュニケーション品質推定部(13)により、マルチモーダル品質値(23A)と遅延品質劣化量(23B)とに基づいて映像コミュニケーション品質値(24)を推定する。

Description

明 細 書
映像コミュニケーション品質推定装置、方法、およびプログラム
技術分野
[0001] 本発明は、通信品質推定技術に関し、特に音声メディアおよび映像メディアを複合 して双方向にやり取りする映像コミュニケーションに関する品質を推定する技術に関 する。
背景技術
[0002] 従来、インターネットへのアクセス回線の高速 ·広帯域ィ匕に伴い、例えばテレビ電話
Z会議などの映像コミュニケーションサービス、コラボレーションサービスなど、音声メ ディアおよび映像メディアを複合した双方向マルチモーダルサービスが注目を集め ている。
[0003] このようなサービスで利用されるインターネットは、必ずしも通信品質の保証されな V、ネットワークであるため、音声メディアおよび映像メディアを複合した通信を行う場 合、ユーザ端末間を結ぶ通信路の使用可能帯域が狭かったり、ネットワークが輻輳し たりすると、音声や映像に対して、受信側端末でユーザが実感するユーザ体感品質 が劣化してしまう。
具体的には、音声に品質劣化が加わると、途切れ '雑音'応答の遅れ等として知覚 され、映像に品質劣化が加わると、ぼけ'にじみ ·モザイク状の歪 ·ぎくしゃく感'応答 の遅れなどの現象として知覚される。
[0004] また、音声メディアおよび映像メディア信号送信時の処理時間、ネットワークにおけ る遅延時間、さらには音声メディアおよび映像メディア信号受信時の処理時間に起 因する遅延時間のそれぞれによって、音声メディアと映像メディアとの同期による応 答の遅れ、つまり映像コミュニケーションサービス応答の遅れが知覚されたり、応答時 間の遅れのズレによって音声メディアと映像メディアとの同期外れが知覚されたりする 場合がある。この際、音声メディアおよび映像メディア信号送信時の処理時間として は、音声メディアおよび映像メディアの符号ィ匕処理時間や送信バッファ時間などがあ る。また、ネットワークにおける遅延時間としては、ネットワークを構成するルータ等の 処理時間、通信者間のネットワークの物理的距離などがある。また、音声メディアおよ び映像メディア信号受信時の処理時間としては、受信バッファ時間、音声メディアお よび映像メディアの復号時間などがある。
[0005] このようなサービスを品質よく提供するためには、サービス提供に先立った品質設 計やサービス開始後の品質管理が重要となり、このためには、ユーザが享受する品 質を適切に表現でき、しかも簡便かつ効率的な品質評価技術の開発が必要となる。 音声品質を推定する技術については、例えば、国際標準化機関 ITU— T Gnternat lonal elecommunication Union felecommunication Standardization Sector^勧告 P. 862において、音声品質客観評価尺度 PESQ (Perceptual Evaluation of Speech Qu ality)が規定されている。一方、映像品質を推定する技術についても、 ITU— T勧告 J . 144などにおいて映像品質客観評価尺度が記載されており、この後も VQEG (Vide 0 Quality Experts Group)などで継続して議論が行われている(例えば、 www.its.bldr aoc.gov/vqeg/など参照)。
[0006] これらの客観品質評価技術は、ある一定の条件下で主観品質の統計的曖昧さと同 程度の推定誤差で主観品質を推定可能にしている。このような背景のもと、発明者ら は、テレビ電話 z会議等の双方向マルチモーダルサービスを対象として、上記の客 観品質評価尺度あるいは主観品質評価実験により求めた、音声メディアあるいは映 像メディア等の個別メディアの品質と、各メディアの伝送遅延時間による影響を考慮 したマルチモーダルサービスの総合的な品質評価尺度を求める手法を提案した (例 えば、特開 2005— 244321号公報など参照)。
発明の開示
発明が解決しょうとする課題
[0007] テレビ電話 Z会議等の双方向マルチモーダルサービスの場合には、各メディアの 入力から出力までの絶対的な遅延時間や、メディア間の相対的な遅延時間のズレに よる同期外れも、サービスの品質を劣化させる原因となり得る。しかしながら、前述し た従来技術では、これらの品質要因を総合的に考慮した品質評価尺度として考慮さ れていないという問題点があった。特に、メディア間の同期外れによる品質劣化の度 合いは、映像メディアを符号ィ匕して得た各フレームのフレームレートに左右されるもの の、従来技術ではフレームレートが標準値 30 [フレーム/ sec]で一定と想定しているた め、フレームレートがこのような標準値とは異なる場合には総合品質の推定精度が低 下するという問題点があった。
[0008] 例えば、フレームレートが低 、場合、音声メディアと映像メディアに相対的なズレが 生じていても大きな品質劣化とは知覚されないが、フレームレートが高くなるに伴って その品質劣化は顕著となる。近年の携帯電話を用いたテレビ電話サービス等に見ら れるように、フレームレートが 30 [フレーム/ sec]を実現できないシステムは多く存在し ており、フレームレートの変ィ匕も考慮して総合的なマルチモーダル品質を求めること は非常に重要な課題である。
[0009] この他,関連が高い技術として、例えば音声品質と映像品質力も総合品質を求める 方法が提案されているが(例えば、特開平 8— 289333号公報、特表 2004— 52397 8号公報など参照)、テレビ放送のような片方向の音声メディアおよび映像メディアの 放送あるいは配信サービスを前提としており、双方向性すなわち遅延時間やメディア 間の同期外れを考慮していないため上記の問題を解決できない。また、音声メディア と映像メディアの品質と両メディア間の同期外れを考慮して総合品質を推定する手法 が提案されているが(例えば、特表 2002— 519960号公報など参照)、こちらも双方 向性すなわち遅延時間を考慮して 、な ヽため上記の問題を解決できな 、。
[0010] さらに、音声メディアと映像メディアの品質と遅延時間および同期外れを考慮して総 合品質を求めるためのフレームワークも提案されているが(例えば、特開 2006— 12 8972号公報など参照)、前述したように、例えばメディア間同期外れの影響とフレー ムレート低下の相互作用を考慮できない等の問題が残されている。一方、音声や映 像信号の品質評価システムが提案されているが(例えば、特開 2001— 298428号 公報など参照)、ユーザが享受する音声や映像の品質をどのように取り扱って総合品 質を導出するのかにつ 、ては全く言及して 、な 、。
[0011] 本発明はこのような課題を解決するためのものであり、音声メディアおよび映像メデ ィァを複合して双方向にやり取りする映像コミュニケーションに関する品質を十分な精 度で推定することができる映像コミュニケーション品質推定装置、方法、およびプログ ラムを提供することを目的として ヽる。 課題を解決するための手段
[0012] このような目的を達成するために、本発明にかかる映像コミュニケーション品質推定 装置は、ネットワークを介して接続された通信端末間で音声メディアおよび映像メディ ァを複合して双方向にやり取りする映像コミュニケーションに関する品質を推定する 映像コミュニケーション品質推定装置であって、通信端末で出力された音声メディア に対する品質評価値である音声メディア品質評価値と、通信端末で出力された映像 メディアに対する品質評価値である映像メディア品質評価値とに基づ!/ヽて、音声メデ ィァと映像メディアを複合した複合メディアの品質評価値であるマルチモーダル品質 値を推定するマルチモーダル品質推定部と、音声メディアが通信端末間で入力され てから出力されるまでの遅延時間である音声遅延時間および映像メディアが通信端 末間で入力されてから出力されるまでの遅延時間である映像遅延時間に基づいて、 音声メディアと映像メディアの遅延により生ずる遅延品質劣化量を推定する遅延品質 劣化量推定部と、マルチモーダル品質推定部で推定されたマルチモーダル品質値 と遅延品質劣化量推定部で推定された遅延品質劣化量とに基づいて、映像コミュ二 ケーシヨンの品質を推定する映像コミュニケーション品質推定部とを備えている。
[0013] また、本発明にかかる映像コミュニケーション品質推定方法は、ネットワークを介し て接続された通信端末間で音声メディアおよび映像メディアを複合して双方向にやり 取りする映像コミュニケーションに関する品質を推定する映像コミュニケーション品質 推定装置で用いられる映像コミュニケーション品質推定方法であって、マルチモーダ ル品質推定部により、通信端末で出力された音声メディアに対する品質評価値であ る音声メディア品質評価値と、通信端末で出力された映像メディアに対する品質評価 値である映像メディア品質評価値とに基づ ヽて、音声メディアと映像メディアを複合し た複合メディアの品質評価値であるマルチモーダル品質値を推定するマルチモーダ ル品質推定ステップと、遅延品質劣化量推定部により、音声メディアが通信端末間で 入力されてから出力されるまでの遅延時間である音声遅延時間および映像メディア が通信端末間で入力されてから出力されるまでの遅延時間である映像遅延時間に 基づいて、音声メディアと映像メディアの遅延により生ずる遅延品質劣化量を推定す る絶対遅延品質劣化量推定ステップと、映像コミュニケーション品質推定部により、マ ルチモーダル品質推定部で推定されたマルチモーダル品質値と遅延品質劣化量推 定部で推定された遅延品質劣化量とに基づいて、映像コミュニケーションの品質を推 定する映像コミュニケーション品質推定ステップとを備えている。
[0014] また、本発明にかかるプログラムは、ネットワークを介して接続された通信端末間で 音声メディアおよび映像メディアを複合して双方向にやり取りする映像コミュ-ケーシ ヨンに関する品質を推定する映像コミュニケーション品質推定装置のコンピュータに、 マルチモーダル品質推定部により、通信端末で出力された音声メディアに対する品 質評価値である音声メディア品質評価値と、通信端末で出力された映像メディア〖こ 対する品質評価値である映像メディア品質評価値とに基づいて、音声メディアと映像 メディアを複合した複合メディアの品質評価値であるマルチモーダル品質値を推定 するマルチモーダル品質推定ステップと、遅延品質劣化量推定部により、音声メディ ァが通信端末間で入力されて力 出力されるまでの遅延時間である音声遅延時間 および映像メディアが通信端末間で入力されてから出力されるまでの遅延時間であ る映像遅延時間に基づいて、音声メディアと映像メディアの遅延により生ずる遅延品 質劣化量を推定する絶対遅延品質劣化量推定ステップと、映像コミュニケーション品 質推定部により、マルチモーダル品質推定部で推定されたマルチモーダル品質値と 遅延品質劣化量推定部で推定された遅延品質劣化量とに基づいて、映像コミュニケ ーシヨンの品質を推定する映像コミュニケーション品質推定ステップとを実行させる。 発明の効果
[0015] 本発明によれば、マルチモーダル品質推定部により、音声品質評価値と映像品質 評価値に基づいてマルチモーダル品質値が推定されるとともに、遅延品質劣化量推 定部により、音声遅延時間と映像遅延時間に基づいて遅延品質劣化量が推定され、 映像コミュニケーション品質推定部により、マルチモーダル品質値と遅延品質劣化量 とに基づいて映像コミュニケーション品質値が推定される。このため、音声メディアや 映像メディアの遅延による品質劣化を考慮した映像コミュニケーション品質値を推定 することができ、音声メディアおよび映像メディアを複合して双方向にやり取りする映 像コミュニケーションに関する品質を十分な精度で推定することができる。
図面の簡単な説明 [図 1]図 1は、本発明の第 1の実施の形態に力かる映像コミュニケーション品質推定装 置の構成を示すブロック図である。
[図 2]図 2は、本発明の第 1の実施の形態に力かる映像コミュニケーション品質推定装 置の全体処理動作を示すフローチャートである。
[図 3]図 3は、本発明の第 1の実施の形態に力かる映像コミュニケーション品質推定装 置のマルチモーダル品質推定処理を示すフローチャートである。
[図 4]図 4は、マルチモーダル品質推定モデルの特性例である。
[図 5]図 5は、本発明の第 1の実施の形態に力かる映像コミュニケーション品質推定装 置の遅延品質劣化量推定処理を示すフローチャートである。
[図 6]図 6は、遅延品質劣化量推定モデルの特性例である。
[図 7]図 7は、本発明の第 1の実施の形態に力かる映像コミュニケーション品質推定装 置の映像コミュニケーション品質推定処理を示すフローチャートである。
[図 8]図 8は、映像コミュニケーション品質推定モデルの特性例である。
[図 9]図 9は、本実施の形態で得られた映像コミュニケーション品質推定値の推定結 果を示すグラフである。
[図 10]図 10は、本発明の第 2の実施の形態にカゝかる映像コミュニケーション品質推 定装置の要部の構成を示す説明図である。
[図 11]図 11は、本発明の第 2の実施の形態にカゝかる映像コミュニケーション品質推 定装置の遅延品質劣化量推定処理を示すフローチャートである。
[図 12]図 12は、絶対遅延品質劣化量推定の特性例である。
[図 13]図 13は、相対遅延品質劣化量推定の特性例である。
[図 14]図 14は、遅延品質劣化量推定の特性例である。
[図 15]図 15は、本発明の第 3の実施の形態にカゝかる映像コミュニケーション品質推 定装置の要部の構成を示す説明図である。
[図 16]図 16は、本発明の第 3の実施の形態にカゝかる映像コミュニケーション品質推 定装置の遅延品質劣化量推定処理を示すフローチャートである。
[図 17]図 17は、相対遅延品質劣化量推定の特性例である。
[図 18]図 18は、本発明の第 4の実施の形態にカゝかる映像コミュニケーション品質推 定装置の要部の構成を示す説明図である。
[図 19]図 19は、本発明の第 4の実施の形態にカゝかる映像コミュニケーション品質推 定装置の遅延品質劣化量推定処理を示すフローチャートである。
[図 20]図 20は、相対遅延品質劣化量推定の特性例である。
[図 21]図 21は、傾き係数推定の特性例である。
[図 22]図 22は、本発明の第 5の実施の形態にカゝかる映像コミュニケーション品質推 定装置の要部の構成を示す説明図である。
[図 23]図 23は、本発明の第 5の実施の形態にカゝかる映像コミュニケーション品質推 定装置の遅延品質劣化量推定処理を示すフローチャートである。
[図 24]図 24は、相対遅延品質劣化量推定の特性例である。
[図 25]図 25は、傾き係数推定の特性例である。
[図 26]図 26は、本発明の第 6の実施の形態にカゝかる映像コミュニケーション品質推 定装置で用いる絶対遅延品質劣化量推定モデルの特性例である。
[図 27]図 27は、本発明の第 7の実施の形態にカゝかる映像コミュニケーション品質推 定装置で用いる相対遅延品質劣化量推定モデルの特性例である。
[図 28]図 28は、本発明の第 7の実施の形態にカゝかる映像コミュニケーション品質推 定装置で用いる相対遅延品質劣化量推定モデルの他の特性例である。
[図 29]図 29は、本発明の第 7の実施の形態にカゝかる映像コミュニケーション品質推 定装置で用いる相対遅延品質劣化量推定モデルの他の特性例である。
発明を実施するための最良の形態
[0017] 次に、本発明の実施の形態について図面を参照して説明する。
[第 1の実施の形態]
まず、図 1を参照して、本発明の第 1の実施の形態に力かる映像コミュニケーション 品質推定装置について説明する。図 1は、本発明の第 1の実施の形態にカゝかる映像 コミュニケーション品質推定装置の構成を示すブロック図である。
[0018] 映像コミュニケーション品質推定装置 1は、入力された情報を演算処理して出力す る情報処理装置力 なり、ネットワークを介して接続された通信端末間で音声メディア および映像メディアを複合して双方向にやり取りする映像コミュニケーションに関する 品質を推定する。
この映像コミュニケーション品質推定装置 1には、主な機能部として、マルチモーダ ル品質推定部 11、遅延品質劣化量推定部 12、および映像コミュニケーション品質推 定部 13が設けられている。
[0019] 本実施の形態は、マルチモーダル品質推定部 11により、通信端末で出力された音 声メディアに対する品質評価値である音声品質評価値 21Aと、通信端末で出力され た映像メディアに対する品質評価値である映像品質評価値 21Bとに基づいて、音声 メディアと映像メディアを複合した複合メディアの品質評価値であるマルチモーダル 品質値 23Aを推定するようにしたものである。
[0020] また、遅延品質劣化量推定部 12により、音声メディアが通信端末間で入力されて 力 出力されるまでの遅延時間である音声遅延時間 22Aおよび映像メディアが通信 端末間で入力されてから出力されるまでの遅延時間である映像遅延時間 22Bに基 づいて、音声メディアと映像メディアの遅延により生ずる遅延品質劣化量 23Bを推定 するようにしたものである。
そして、映像コミュニケーション品質推定部 13により、マルチモーダル品質推定部 1 1で推定されたマルチモーダル品質値 23Aと遅延品質劣化量推定部 12で推定され た遅延品質劣化量 23Bとに基づいて、映像コミュニケーション品質値 24を推定する ようにしたものである。
[0021] 次に、図 1を参照して、映像コミュニケーション品質推定装置 1の各機能部について 詳細に説明する。
[マルチモーダル品質推定部]
マルチモーダル品質推定部 11は、通信端末で出力された音声メディアに対する品 質評価値である音声品質評価値 21Aと、通信端末で出力された映像メディアに対す る品質評価値である映像品質評価値 21Bとに基づ ヽて、音声メディアと映像メディア を複合した複合メディアの品質評価値であるマルチモーダル品質値 23Aを推定する 機能を有している。
[0022] マルチモーダル品質推定部 11には、主な機能手段として、記憶部 11 Aとマルチモ 一ダル品質算出部 11Bが設けられている。 記憶部 11Aは、音声品質評価値 21Aおよび映像品質評価値 21Bとマルチモーダ ル品質値 23Aとの関係を示すマルチモーダル品質推定モデル 31を予め記憶する 機能を有している。
マルチモーダル品質算出部 11Bは 記憶部 11 Aのマルチモーダル品質推定モデ ル 31に基づいて、音声品質評価値 21Aおよび映像品質評価値 21Bに対応するマ ルチモーダル品質値 23Aを算出する機能を有して 、る。
[0023] 音声品質評価値 21Aは、一方の通信端末力も送信された音声メディアを他方の通 信端末で受信して再生した際に、再生された音声メディアに対してユーザが実感す るユーザ体感品質である。また、映像品質評価値 21Bは、一方の通信端末から送信 された映像メディアを他方の通信端末で受信して再生した際に、再生された映像メデ ィァに対してユーザが実感するユーザ体感品質である。これら品質評価値にっ 、て は、実際に行われた映像コミュニケーションを評価あるいは推定して得ることができる
[0024] [遅延品質劣化量推定部]
遅延品質劣化量推定部 12は、音声メディアが通信端末間で入力されて力 出力さ れるまでの遅延時間である音声遅延時間 22Aおよび映像メディアが通信端末間で 入力されてから出力されるまでの遅延時間である映像遅延時間 22Bに基づいて、音 声メディアと映像メディアの遅延により生ずる遅延品質劣化量 23Bを推定する機能を 有している。
[0025] 遅延品質劣化量推定部 12には、主な機能手段として、記憶部 12Aと遅延品質劣 化量算出部 12Bが設けられて 、る。
記憶部 12Aは、音声遅延時間 22Aおよび映像遅延時間 22Bと遅延品質劣化量 2 3Bとの関係を示す遅延品質劣化量推定モデル 32を予め記憶する機能を有している 遅延品質劣化量算出部 12Bは、記憶部 12Aの遅延品質劣化量推定モデル 32に 基づ!ヽて、音声遅延時間 22Aおよび映像遅延時間 22Bに対応する遅延品質劣化 量 23Bを算出する機能を有して 、る。
[0026] 音声遅延時間 22Aは、音声メディアが一方の通信端末で入力されて力 他方の通 信端末で出力されるまでの遅延時間である。また、映像遅延時間 22Bは、映像メディ ァが一方の通信端末で入力されて力 他方の通信端末で出力されるまでの遅延時 間である。
[0027] 音声遅延時間 22A、映像遅延時間 22Bを構成する具体的な遅延時間としては、音 声メディアおよび映像メディア信号送信時の処理時間、ネットワークにおける遅延時 間、さらには音声メディアおよび映像メディア信号受信時の処理時間がある。この際、 音声メディアおよび映像メディア信号送信時の処理時間としては、音声メディアおよ び映像メディアの符号ィ匕処理時間や送信バッファ時間などがある。また、ネットワーク における遅延時間としては、ネットワークを構成するルータ等の処理時間、通信者間 のネットワークの物理的距離などがある。また、音声メディアおよび映像メディア信号 受信時の処理時間としては、受信バッファ時間、音声メディアおよび映像メディアの 復号時間などがある。
[0028] 本実施の形態では、これら音声遅延時間 22Aおよび映像遅延時間 22Bと遅延品 質劣化量 23Bとの関係を示す遅延品質劣化量推定モデル 32を試験により予め導出 して記憶部 12Aに格納しておき、遅延品質劣化量推定部 12により、記憶部 12Aの 遅延品質劣化量推定モデル 32に基づいて、新たに計測された音声遅延時間 22A および映像遅延時間 22Bに対応する遅延品質劣化量 23Bを算出している。
[0029] [映像コミュニケーション品質推定部]
映像コミュニケーション品質推定部 13は、マルチモーダル品質推定部 11で推定さ れたマルチモーダル品質値 23Aと遅延品質劣化量推定部 12で推定された遅延品 質劣化量 23Bの交互作用を考慮して、双方向マルチモーダルサービスで実現される 映像コミュニケーションの品質値 24を推定する機能を有している。
[0030] 映像コミュニケーション品質推定部 13には、主な機能手段として、記憶部 13Aと映 像コミュニケーション品質算出部 13Bが設けられて 、る。
記憶部 13Aは、マルチモーダル品質値 23Aおよび遅延品質劣化量 23Bと映像コミ ュ-ケーシヨン品質値 24との関係を示す映像コミュニケーション品質推定モデル 33 を予め記憶する機能を有して 、る。
映像コミュニケーション品質算出部 13Bは、記憶部 13Aの映像コミュニケーション品 質推定モデル 33に基づ 、て、マルチモーダル品質値 23Aおよび遅延品質劣化量 2 3Bに対応する映像コミュニケーション品質値 24を算出する機能を有している。
[0031] これら機能部のうち、各種演算処理データやプログラムを記憶部は、メモリやハード ディスクなどの記憶装置力も構成されている。また、各種演算処理を行う演算処理部 (コンピュータ)は、 CPUとその周辺回路から構成されており、上記記憶部のプロダラ ム(図示せず)を読み込んで実行することにより、上記ハードウェアとプログラムとを協 働させて各種機能手段を実現する。なお、各機能部の記憶部や演算処理部は、機 能部ごとにそれぞれ個別に設けてもよぐ各機能部で共用してもよい。
[0032] [第 1の実施の形態の動作]
次に、本発明の第 1の実施の形態に力かる映像コミュニケーション品質推定装置の 動作について、詳細に説明する。
[0033] [全体処理動作]
まず、図 2を参照して、本発明の第 1の実施の形態に力かる映像コミュニケーション 品質推定装置の映像コミュニケーション品質推定動作について説明する。図 2は、本 発明の第 1の実施の形態に力かる映像コミュニケーション品質推定装置の全体処理 動作を示すフローチャートである。
[0034] ここでは、通信端末間で行われた任意の映像コミュニケーションに関する品質情報 として、音声品質評価値 21A、映像品質評価値 21B、音声遅延時間 22A、および映 像遅延時間 22Bが、外部装置、記録媒体、通信ネットワーク、あるいはキーボード( 図示せず)から入力されたものとし、これら品質情報に基づいて当該映像コミュニケ ーシヨンに関する品質値を推定する場合について説明する。
[0035] 映像コミュニケーション品質推定装置 1は、品質情報の入力や実行開始を示すォ ペレータ操作を契機として、図 2の全体処理を開始する。
[0036] まず、映像コミュニケーション品質推定装置 1は、マルチモーダル品質推定部 11に より、マルチモーダル品質推定ステップを実行することにより、音声品質評価値 21A および映像品質評価値 21Bに対応するマルチモーダル品質値 23Aを推定する (ス テツプ 100)。
これと並行して、映像コミュニケーション品質推定装置 1は、遅延品質劣化量推定 部 12により、遅延品質劣化量推定ステップを実行することにより、音声遅延時間 22A および映像遅延時間 22Bに対応する遅延品質劣化量 23Bを推定する (ステップ 110
) o
[0037] この後、映像コミュニケーション品質推定装置 1は、映像コミュニケーション品質推 定部 13により、映像コミュニケーション品質推定ステップを実行することにより、マル チモーダル品質値 23Aおよび遅延品質劣化量 23Bに対応する映像コミュニケーショ ン品質値 24を推定し (ステップ 120)、一連の全体処理動作を終了する。
なお、マルチモーダル品質推定ステップと遅延品質劣化量推定ステップは、前述 のように並行して実行してもよぐこれらステップを順に実行してもよ 、。
[0038] [マルチモーダル品質推定動作]
次に、図 3を参照して、本発明の第 1の実施の形態に力かる映像コミュニケーション 品質推定装置のマルチモーダル品質推定動作について説明する。図 3は、本発明 の第 1の実施の形態に力かる映像コミュニケーション品質推定装置のマルチモーダ ル品質推定処理を示すフローチャートである。
映像コミュニケーション品質推定装置 1のマルチモーダル品質推定部 11は、図 2の ステップ 100におけるマルチモーダル品質推定ステップにおいて、図 3のマルチモー ダル品質推定処理を実行する。
[0039] まず、マルチモーダル品質推定部 11は、マルチモーダル品質算出部 11Bにより、 外部力 入力された音声品質評価値 21Aと映像品質評価値 21Bを取得する (ステツ プ 101)。次に、マルチモーダル品質算出部 11Bは、記憶部 11 A力 マルチモーダ ル品質推定モデル 31を示すモデル係数を読み出し (ステップ 102)、このマルチモ 一ダル品質推定モデル 31に基づき、音声品質評価値 21Aと映像品質評価値 21B に対応するマルチモーダル品質値 23Aを算出する (ステップ 103)。
[0040] 図 4は、マルチモーダル品質推定モデルの特性例である。本発明にお 、て、音声メ ディアおよび映像メディアを複合して双方向にやり取りする映像コミュニケーションに 関する品質のうち、映像メディアや音声メディアの遅延による品質劣化を考慮しな ヽ 場合の品質をマルチモーダル品質値 23Aという。
図 4に示すように、マルチモーダル品質値 23Aは、音声品質評価値 MOSaを一定 とした場合は映像品質評価値 MOSvの増加に応じて単調増加し、映像品質評価値 MOSvを一定とした場合は音声品質評価値 MOSaの増加に応じて単調増加する傾 向がある。
[0041] したがって、マルチモーダル品質値 23Aは、音声品質評価値 21Aと映像品質評価 値 21Bの交互作用を示す数式で表すことができる。音声品質評価値 21 Aを MOSaと し、映像品質評価値 21Bを MOSvとし、 α ΐ , β 1, y 1, δ 1をそれぞれ定数とし、マ ルチモーダル品質値 23Αを MOSmmとした場合、 MOSmmは次の式(1)により推 定できる。
[0042] [数 1]
MOSmm = al · MOSa + βΐ · MOSv+ γ1· MOSa-MOSv+ δΐ
[0043] この際、マルチモーダル品質値 23Aについて、 1〜5の数値をとる標準的な MOS 値(Mean Opinion Score :平均オピニオン評点)で示すために正規化処理を行う。 a, bのうちいずれ力 vj、さい値を選択する関数を min (a, b)とし、 a, bのうちいずれか大き い値を選択する関数を max (a, b)とした場合、 MOSmmは次の式(2)により正規ィ匕 できる。
[0044] [数 2]
Figure imgf000015_0001
[0045] この後、マルチモーダル品質算出部 11Bは、算出したマルチモーダル品質値 23A を映像コミュニケーション品質推定部 13へ出力し (ステップ 104)、一連のマルチモー ダル品質推定処理を終了する。
[0046] [遅延品質劣化量推定動作]
次に、図 5を参照して、本発明の第 1の実施の形態に力かる映像コミュニケーション 品質推定装置の遅延品質劣化量推定動作について説明する。図 5は、本発明の第 1の実施の形態にかかる映像コミュニケーション品質推定装置の遅延品質劣化量推 定処理を示すフローチャートである。
映像コミュニケーション品質推定装置 1の遅延品質劣化量推定部 12は、図 2のステ ップ 110における遅延品質劣化量推定ステップにおいて、図 5の遅延品質劣化量推 定処理を実行する。
[0047] まず、遅延品質劣化量推定部 12は、遅延品質劣化量算出部 12Bにより、外部から 入力された音声遅延時間 22Aと映像遅延時間 22Bを取得する (ステップ 111)。次に 、遅延品質劣化量算出部 12Bは、記憶部 12Aから遅延品質劣化量推定モデル 32 を示すモデル係数を読み出し (ステップ 112)、この遅延品質劣化量推定モデル 32 に基づき、音声遅延時間 22Aと映像遅延時間 22Bに対応する遅延品質劣化量 23B を算出する (ステップ 113)。
[0048] 図 6は、遅延品質劣化量推定モデルの特性例である。本発明にお ヽて、音声メディ ァおよび映像メディアを複合して双方向にやり取りする映像コミュニケーションに関す る品質のうち、映像メディアや音声メディアの遅延による品質劣化量を遅延品質劣化 量 23Bという。
図 6に示すように、音声遅延時間 Daを一定とした場合、遅延品質劣化量 Davは、 映像遅延時間 Dvの増加に応じて単調増加して所定の最大値に達し、映像遅延時間 Dvのさらなる増加に応じて単調減少する凸型の特性を有している。
また、映像遅延時間 Dvが一定の場合、遅延品質劣化量 Davは、音声遅延時間 Da の増加に応じて単調増加して所定の最大値に達し、音声遅延時間 Daのさらなる増 加に応じて単調減少する凸型の特性を有して!/ヽる。
[0049] したがって、遅延品質劣化量 23Bは、音声遅延時間 22Aと映像遅延時間 22Bを変 数とする関数式で表すことができる。音声遅延時間 22Aを Daとし、映像遅延時間 22 Bを Dvとし、音声遅延時間 22Aおよび映像遅延時間 22Bと遅延品質劣化量 23Bの 対応関係を示す関数式を f (Da, Dv)とし、 a, bのうちいずれカゝ小さい値を選択する 関数を min (a, b)とし、 a, bのうちいずれか大きい値を選択する関数を max (a, b)と し、遅延品質劣化量 23Bを Davとした場合、 MOS値の範囲 1〜5に正規化した Dav は次の式(3)により推定できる。
[0050] [数 3]
Dav = min[5, max{/ {Da, v),l}] ·'·(3) , [0051] この後、遅延品質劣化量算出部 12Bは、算出した遅延品質劣化量 23Βを映像コミ ュ-ケーシヨン品質推定部 13へ出力し (ステップ 114)、一連の遅延品質劣化量推定 処理を終了する。
[0052] [映像コミュニケーション品質推定]
次に、図 7を参照して、本発明の第 1の実施の形態に力かる映像コミュニケーション 品質推定装置のマルチモーダル品質推定動作について説明する。図 7は、本発明 の第 1の実施の形態に力かる映像コミュニケーション品質推定装置の映像コミュニケ ーシヨン品質推定処理を示すフローチャートである。
映像コミュニケーション品質推定装置 1の映像コミュニケーション品質推定部 13は、 図 2のステップ 120における映像コミュニケーション品質推定ステップにおいて、図 7 の映像コミュニケーション品質推定処理を実行する。
[0053] まず、映像コミュニケーション品質推定部 13は、映像コミュニケーション品質算出部 13Bにより、マルチモーダル品質推定部 11で推定されたマルチモーダル品質値 23 Aと遅延品質劣化量推定部 12で推定された遅延品質劣化量 23Bを取得する (ステツ プ 121)。次に、映像コミュニケーション品質算出部 13Bは、記憶部 13Aから映像コミ ュ-ケーシヨン品質推定モデル 33を示すモデル係数を読み出し (ステップ 122)、こ の映像コミュニケーション品質推定モデル 33に基づき、マルチモーダル品質値 23A と遅延品質劣化量 23Bに対応する映像コミュニケーション品質値 24を算出する (ステ ップ 123)。
[0054] 図 8は、映像コミュニケーション品質推定モデルの特性例である。本発明にお 、て、 音声メディアおよび映像メディアを複合して双方向にやり取りする映像コミュ-ケーシ ヨンに関する品質のうち、映像メディアや音声メディアの遅延による品質劣化量を考 慮した品質を映像コミュニケーション品質値 24という。
図 8に示すように、映像コミュニケーション品質値 MOSallは、マルチモーダル品質 値 MOSmmを一定とした場合は遅延品質劣化量 Davの増加に応じて単調減少し、 遅延品質劣化量 Davを一定とした場合はマルチモーダル品質値 MOSmmの増加 に応じて単調増加する傾向がある。
[0055] したがって、映像コミュニケーション品質値 24は、マルチモーダル品質値 23Aと遅 延品質劣化量 23Bの交互作用を示す数式で表すことができる。マルチモーダル品 質値 23Aを MOSmmとし、遅延品質劣ィ匕量 23Bを Davとし、 a 2, β 2, γ 2, δ 2を それぞれ定数とし、映像コミュニケーション品質値 24を MOSallとした場合、 MOSall は次の式 (4)により推定できる。
[0056] 画
MOSall = α 2 · MOSmm + β2 · Dav + γ 2 · MOSmm- Dav + 62 …
[0057] この際、映像コミュニケーション品質値 24について、 1〜5の数値をとる標準的な M OS値で示すために正規化処理を行う。 a, bのうちいずれか小さい値を選択する関数 を min (a, b)とし、 a, bのうちいずれか大きい値を選択する関数を max (a, b)とした 場合、 MOSallは次の式(5)により正規化できる。
[0058] [数 5]
MOSall = min{5,max( O5i2/ )} -(5)
[0059] この後、映像コミュニケーション品質算出部 13Bは、算出した映像コミュニケーショ ン品質値 24を、装置外部、記録媒体、通信ネットワーク、記憶部、あるいは表示画面 (図示せず)へ出力し (ステップ 124)、一連の映像コミュニケーション品質推定処理を 終了する。
[0060] このように、本実施の形態は、マルチモーダル品質推定部 11により、音声品質評価 値 21Aと映像品質評価値 21Bに基づいてマルチモーダル品質値 23Aを推定すると ともに、遅延品質劣化量推定部 12により、音声遅延時間 22Aと映像遅延時間 22B に基づいて遅延品質劣化量 23Bを推定し、映像コミュニケーション品質推定部 13に より、マルチモーダル品質値 23Aと遅延品質劣化量 23Bとに基づいて映像コミュ二 ケーシヨン品質値 24を推定するようにしたので、音声メディアや映像メディアの個別メ ディアの品質評価値と、音声メディアや映像メディアの遅延による品質劣化を考慮し た映像コミュニケーション品質値 24を推定でき、音声メディアおよび映像メディアを複 合して双方向にやり取りする映像コミュニケーションに関する品質を十分な精度で推 定することができる。
[0061] また、遅延品質劣化量推定部 12において、音声遅延時間および映像遅延時間と 遅延品質劣化量との関係を示す遅延品質劣化量推定モデル 32に基づいて、音声 遅延時間 22Aと映像遅延時間 22Bに対応する遅延品質劣化量 23Bを推定するよう にしたので、正確かつ容易に遅延品質劣化量 23Bを推定できる。
[0062] 図 9は、本実施の形態で得られた映像コミュニケーション品質推定値の推定結果を 示すグラフである。図 9において、横軸は、本実施の形態で得られた映像コミュニケ ーシヨン品質推定値 (MOS値)を示し、縦軸は、推定対象とした各映像コミュニケ一 シヨンについて実際にオピニオン評価した結果である映像コミュニケーション品質実 測値 (MOS値)を示して 、る。
本実施の形態で得られた映像コミュニケーション品質推定値と実測値とが、グラフ の対角線上にプロットされている。この場合、決定係数は 0. 91となり、高い相関が得 られていることがわかる。また、実測値の 95%信頼区間の平均値が 0. 31であるのに 対して、推定値の平均二乗誤差平方根 (RMSE:Root Mean Square Error)は 0. 16で あり、実用上十分な推定精度を有していることがわ力る。
[0063] また、遅延品質劣化量推定モデル 32として、音声遅延時間 Daを一定とした場合、 遅延品質劣化量 Davが映像遅延時間 Dvの増加に応じて単調増加して所定の最大 値に達し、映像遅延時間 Dvのさらなる増加に応じて単調減少する凸型の特性を有し 、映像遅延時間 Dvが一定の場合、遅延品質劣化量 Davが音声遅延時間 Daの増加 に応じて単調増加して所定の最大値に達し、音声遅延時間 Daのさらなる増加に応じ て単調減少する凸型の特性を用いるようにしたので、音声メディアや映像メディアの 遅延による品質劣化に関する人間の視覚特性および聴覚特性に応じた品質劣化量 を、正確かつ容易に推定できる。
[0064] [第 2の実施の形態]
次に、図 10を参照して、本発明の第 2の実施の形態に力かる映像コミュニケーショ ン品質推定装置について説明する。図 10は、本発明の第 2の実施の形態にかかる 映像コミュニケーション品質推定装置の要部の構成を示す説明図であり、前述した図
1と同じまたは同等部分には同一符号を付してある。
[0065] 第 1の実施の形態では、遅延品質劣化量推定部 12において、音声遅延時間 22A と映像遅延時間 22Bに対応する遅延品質劣化量 23Bを推定する際、音声遅延時間 および映像遅延時間と遅延品質劣化量との関係を示す遅延品質劣化量推定モデル
32に基づいて、遅延品質劣化量 23Bを直接的に推定する場合を例として説明した。
[0066] 本実施の形態では、音声遅延時間 22Aと映像遅延時間 22Bから、音声メディアと 映像メディアの絶対的な遅延による品質劣化を示す絶対遅延品質劣化量と、音声メ ディアと映像メディアの相対的な遅延による品質劣化を示す相対遅延品質劣化量と を求め、これら絶対遅延品質劣化量と相対遅延品質劣化量から遅延品質劣化量 23 Bを間接的に推定する場合を例として説明する。
[0067] なお、本実施の形態に力かる映像コミュニケーション品質推定装置 1の構成は、第 1の実施の形態(図 1参照)と比較して、遅延品質劣化量推定部 12のみが異なる。他 の構成については、第 1の実施の形態と同様であり、ここでの詳細な説明は省略する
[0068] [遅延品質劣化量推定部]
図 10に示すように、遅延品質劣化量推定部 12には、主な機能手段として、記憶部
12A、遅延品質劣化量算出部 12B、絶対遅延品質劣化量算出部 12C、および相対 遅延品質劣化量算出部 12Dが設けられている。
[0069] 記憶部 12Aは、音声遅延時間 22Aと映像遅延時間 22Bの遅延時間和と絶対遅延 品質劣化量 26との関係を示す絶対遅延品質劣化量推定モデル 32Aと、音声遅延 時間 22Aと映像遅延時間 22Bとの遅延時間差と相対遅延品質劣化量 27との関係を 示す相対遅延品質劣化量推定モデル 32Bと、を予め記憶する機能を有して 、る。 絶対遅延品質劣化量算出部 12Cは、記憶部 12Aの絶対遅延品質劣化量推定モ デル 32Aに基づいて、音声遅延時間 22Aと映像遅延時間 22Bの遅延時間和に対 応する絶対遅延品質劣化量 26を算出する機能を有している。
[0070] 相対遅延品質劣化量算出部 12Dは、記憶部 12Aの相対遅延品質劣化量推定モ デル 32Bに基づいて、音声遅延時間 22Aと映像遅延時間 22Bの遅延時間差に対 応する相対遅延品質劣化量 27を算出する機能を有している。
遅延品質劣化量算出部 12Bは、絶対遅延品質劣化量算出部 12Cで算出された絶 対遅延品質劣化量 26と相対遅延品質劣化量算出部 12Dで算出された相対遅延品 質劣化量 27とに基づいて、音声遅延時間 22Aおよび映像遅延時間 22Bに対応する 遅延品質劣化量 23Bを算出する機能を有している。
[0071] 絶対遅延品質劣化量は、音声メディアと映像メディアの絶対的な遅延に起因して生 ずる品質劣化量である。また、相対遅延品質劣化量は、音声メディアと映像メディア の間の相対的な遅延差に起因して生ずる品質劣化量である。
[0072] 音声メディアおよび映像メディアを複合して双方向にやり取りする映像コミュニケ一 シヨンでは、音声メディアや映像メディアが通信端末間でやり取りされた際に、通信端 末間で生ずる絶対的な遅延に応じて、ユーザはこれらメディアに対する品質劣化を 知覚する。本実施の形態では、このような品質劣化量を絶対遅延品質劣化量 26とし て定義し、音声遅延時間と映像遅延時間の遅延時間和の増加に伴って絶対遅延品 質劣化量が単調増加する特性を示す絶対遅延品質劣化量推定モデル 32Aに基づ いて、絶対遅延品質劣化量算出部 12Cにより絶対遅延品質劣化量 26を推定してい る。
[0073] また、音声メディアおよび映像メディアを複合して双方向にやり取りする映像コミュ 二ケーシヨンでは、音声メディアや映像メディアが通信端末間でやり取りされた際に、 通信端末間で生ずる相対的な遅延すなわちメディア間の同期外れ (再生タイミングの ズレ)に応じて、ユーザはこれらメディアに対する品質劣化を知覚する。本実施の形 態では、このような品質劣化量を相対遅延品質劣化量 27として定義し、音声遅延時 間と映像遅延時間の遅延時間差の増加に伴って相対遅延品質劣化量が単調増加 する特性を示す相対遅延品質劣化量推定モデル 32Bに基づ ヽて、相対遅延品質 劣化量算出部 12Dにより相対遅延品質劣化量 27を推定している。
[0074] これら機能部のうち、各種演算処理データやプログラムを記憶部は、メモリやハード ディスクなどの記憶装置力も構成されている。また、各種演算処理を行う演算処理部 (コンピュータ)は、 CPUとその周辺回路から構成されており、上記記憶部のプロダラ ム(図示せず)を読み込んで実行することにより、上記ハードウェアとプログラムとを協 働させて各種機能手段を実現する。なお、各機能部の記憶部や演算処理部は、機 能部ごとにそれぞれ個別に設けてもよぐ各機能部で共用してもよい。
[0075] [第 2の実施の形態の動作]
次に、図 11を参照して、本発明の第 2の実施の形態に力かる映像コミュニケーショ ン品質推定装置の動作のうち遅延品質劣化量推定動作について詳細に説明する。 図 11は、本発明の第 2の実施の形態に力かる映像コミュニケーション品質推定装置 の遅延品質劣化量推定処理を示すフローチャートである。なお、本実施の形態にか 力る映像コミュニケーション品質推定装置 1の動作は、第 1の実施の形態と比較して、 遅延品質劣化量推定動作のみが異なる。他の処理動作については、第 1の実施の 形態と同様であり、ここでの詳細な説明は省略する。
[0076] 映像コミュニケーション品質推定装置 1の遅延品質劣化量推定部 12は、図 2のステ ップ 110における遅延品質劣化量推定ステップにおいて、図 11の遅延品質劣化量 推定処理を実行する。
[0077] まず、遅延品質劣化量推定部 12は、遅延品質劣化量算出部 12Bにより、外部から 入力された音声遅延時間 22Aと映像遅延時間 22Bを取得する (ステップ 211)。次に 、遅延品質劣化量推定部 12は、絶対遅延品質劣化量算出部 12Cにより、記憶部 12 Aカゝら絶対遅延品質劣化量推定モデル 32Aを示すモデル係数を読み出し (ステップ 212)、この絶対遅延品質劣化量推定モデル 32Aに基づき、音声遅延時間 22Aと映 像遅延時間 22Bの遅延時間和に対応する絶対遅延品質劣化量 26を算出する (ステ ップ 213)。
[0078] 図 12は、絶対遅延品質劣化量推定の特性例である。本発明において、音声メディ ァおよび映像メディアを複合して双方向にやり取りする映像コミュニケーションに関す る品質のうち、音声遅延時間 22Aと映像遅延時間 22Bの遅延時間和に応じて変化 する品質劣化成分を絶対遅延品質劣化量 26という。
図 12に示すように、絶対遅延品質劣化量 26は、音声遅延時間 Daと映像遅延時間 Dvの遅延時間和 Drの増加に伴って単調増加する傾向がある。
[0079] したがって、絶対遅延品質劣化量 26は、例えば音声遅延時間 22Aと映像遅延時 間 22Bの遅延時間和を変数とする線形関数式で表すことができる。音声遅延時間 2 2Aを Daとし、映像遅延時間 22Bを Dvとし、遅延時間和を Drとした場合、 Drは次の 式(6)で求められる。
[0080] [数 6]
Dr = Da + Dv '(6) [0081] また、 α 3, |8 3をそれぞれ定数とし、絶対遅延品質劣化量 26を R(Dr)とした場合、
R (Dr)は、次の式(7)で推定できる。
[0082] [数 7]
R{Dr) = a3 - Dr + β3 -(7)
[0083] また、遅延品質劣化量推定部 12は、相対遅延品質劣化量算出部 12Dにより、記 憶部 12Aから相対遅延品質劣化量推定モデル 32Βを示すモデル係数を読み出し( ステップ 214)、この相対遅延品質劣化量推定モデル 32Βに基づき、音声遅延時間 22Αと映像遅延時間 22Βの遅延時間差に対応する相対遅延品質劣化量 27を算出 する(ステップ 215)。
[0084] 図 13は、相対遅延品質劣化量推定の特性例である。本発明において、音声メディ ァおよび映像メディアを複合して双方向にやり取りする映像コミュニケーションに関す る品質のうち、音声遅延時間 22Αと映像遅延時間 22Βの遅延時間差に応じて変化 する品質劣化成分を相対遅延品質劣化量 27という。
図 13に示すように、相対遅延品質劣化量 27は、音声遅延時間 Daと映像遅延時間 Dvの遅延時間差 Dsが所定の値に達するまでゼロを示し、遅延時間差 Dsのさらなる 増加に伴って単調減少する傾向がある。
[0085] したがって、相対遅延品質劣化量 27は、例えば音声遅延時間 22Aと映像遅延時 間 22Bの遅延時間差を変数とする線形関数式で表すことができる。音声遅延時間 2 2Aを Daとし、映像遅延時間 22Bを Dvとし、遅延時間差を Dsとした場合、 Dsは次の 式(8)で求められる。
[0086] [数 8]
Ds = Da - Dv . (8)
[0087] また、 α 4, β 4をそれぞれ定数とし、相対遅延品質劣化量 27を S (Ds)とした場合、
S (Ds)は、次の式(9)で推定できる。
[0088] [数 9]
S(Ds) = min{a4{Ds - β4),θ} … ) [0089] 続いて、遅延品質劣化量推定部 12は、遅延品質劣化量算出部 12Bにより、絶対 遅延品質劣化量算出部 12Cで算出された絶対遅延品質劣化量 26と相対遅延品質 劣化量算出部 12Dで算出された相対遅延品質劣化量 27とに基づいて、音声遅延 時間 22Aおよび映像遅延時間 22Bに対応する遅延品質劣化量 23Bを算出する (ス テツプ 216)。
[0090] 図 14は、遅延品質劣化量推定の特性例である。図 14に示すように、遅延品質劣 化量 23Bは、絶対遅延品質劣化量 R (Dr)と相対遅延品質劣化量 S (Ds)の和の増 加に伴って単調増加する傾向がある。
したがって、遅延品質劣化量 23Bは、例えば絶対遅延品質劣化量 R (Dr)と相対遅 延品質劣化量 S (Ds)の和で表すことができる。絶対遅延品質劣化量 26を R (Dr)と し、遅延品質劣化量 23Bを Davとし、 a, bのうちいずれか小さい値を選択する関数を min (a, b)とし、 a, bのうちいずれか大きい値を選択する関数を max (a, b)とした場 合、 MOS値の範囲 1〜5に正規化した Davは次の式(10)で求められる。
[0091] [数 10]
Dav = min[5, max{i?(l)r I + 5(ΐ)5),ΐ}] …ひ。)
[0092] この後、遅延品質劣化量算出部 12Bは、算出した遅延品質劣化量 23Βを映像コミ ュ-ケーシヨン品質推定部 13へ出力し (ステップ 217)、一連の遅延品質劣化量推定 処理を終了する。
[0093] このように、本実施の形態は、音声遅延時間 22Αと映像遅延時間 22Βから、音声メ ディアと映像メディアの絶対的な遅延による品質劣化を示す絶対遅延品質劣化量と 、音声メディアと映像メディアの相対的な遅延による品質劣化を示す相対遅延品質 劣化量とを求め、これら絶対遅延品質劣化量と相対遅延品質劣化量から遅延品質 劣化量 23Βを間接的に推定するようにしたので、極めて簡素な推定モデルで音声遅 延時間 22Αと映像遅延時間 22Βに対応する遅延品質劣化量 23Βを推定することが でき、映像コミュニケーション品質の推定に要する処理負荷や処理時間を削減するこ とがでさる。
[0094] また、本実施の形態では、絶対遅延品質劣化量算出部 12Cにより、音声遅延時間 と映像遅延時間の遅延時間和の増加に伴って絶対遅延品質劣化量が単調増加す る絶対遅延品質劣化特性に基づいて、音声遅延時間と映像遅延時間の遅延時間和 に対応する絶対遅延品質劣化量を推定するようにしたので、各メディアの入力から出 力までの絶対的な遅延に起因して映像コミュニケーション品質の劣化を感じるという、 人間の知覚特性を考慮した絶対遅延品質劣化量を、簡素な処理で精度よく推定で きる。
[0095] また、本実施の形態では、相対遅延品質劣化量算出部 12Dにより、音声遅延時間 と映像遅延時間の遅延時間差の増加に伴って相対遅延品質劣化量が単調減少す る相対遅延品質劣化特性に基づいて、音声遅延時間と映像遅延時間の遅延時間差 に対応する絶対遅延品質劣化量を推定するようにしたので、メディア間の相対的な 遅延時間のズレすなわち同期外れに起因して映像コミュニケーション品質の劣化を 感じるという、人間の知覚特性を考慮した相対遅延品質劣化量を、簡素な処理で精 度よく推定できる。
[0096] [第 3の実施の形態]
次に、図 15を参照して、本発明の第 3の実施の形態に力かる映像コミュニケーショ ン品質推定装置について説明する。図 15は、本発明の第 3の実施の形態にかかる 映像コミュニケーション品質推定装置の要部の構成を示す説明図であり、前述した図
10と同じまたは同等部分には同一符号を付してある。
[0097] 第 2の実施の形態では、 1つの相対遅延品質劣化量推定モデル 32Bに基づいて、 音声遅延時間 22Aと映像遅延時間 22Bの遅延時間差に対応する相対遅延品質劣 化量 27を求める場合を例として説明した。
本実施の形態は、音声遅延時間 22Aと映像遅延時間 22Bの大小関係に基づいて
、相対遅延品質劣化量 27の推定に用いる相対遅延品質劣化量推定モデルを選択 する場合について説明する。
[0098] なお、本実施の形態に力かる映像コミュニケーション品質推定装置 1の構成は、第
2の実施の形態(図 10参照)と比較して、遅延品質劣化量推定部 12の記憶部 12Aと 相対遅延品質劣化量算出部 12Dのみが異なる。他の構成については、第 2の実施 の形態と同様であり、ここでの詳細な説明は省略する。 [0099] [遅延品質劣化量推定部]
図 15に示すように、遅延品質劣化量推定部 12には、主な機能手段として、記憶部 12A、遅延品質劣化量算出部 12B、絶対遅延品質劣化量算出部 12C、および相対 遅延品質劣化量算出部 12Dが設けられている。
記憶部 12Aは、音声遅延時間 22Aと映像遅延時間 22Bの遅延時間和と絶対遅延 品質劣化量 26との関係を示す絶対遅延品質劣化量推定モデル 32Aと、音声遅延 時間 22Aと映像遅延時間 22Bの大小関係に応じた複数の異なる相対遅延品質劣化 量推定モデル 32B, 32Cを予め記憶する機能を有して 、る。
[0100] 絶対遅延品質劣化量算出部 12Cは、記憶部 12Aの絶対遅延品質劣化量推定モ デル 32Aに基づいて、音声遅延時間 22Aと映像遅延時間 22Bの遅延時間和に対 応する絶対遅延品質劣化量 26を算出する機能を有している。
相対遅延品質劣化量算出部 12Dは、音声遅延時間 22Aと映像遅延時間 22Bの 大小関係に応じた相対遅延品質劣化量推定モデルを記憶部 12Aから選択する機能 と、選択した相対遅延品質劣化量推定モデルに基づいて、音声遅延時間 22Aと映 像遅延時間 22Bの遅延時間差に対応する相対遅延品質劣化量 27を算出する機能 を有している。
[0101] 遅延品質劣化量算出部 12Bは、絶対遅延品質劣化量算出部 12Cで算出された絶 対遅延品質劣化量 26と相対遅延品質劣化量算出部 12Dで算出された相対遅延品 質劣化量 27とに基づいて、音声遅延時間 22Aおよび映像遅延時間 22Bに対応する 遅延品質劣化量 23Bを算出する機能を有している。
[0102] 音声メディアおよび映像メディアを複合して双方向にやり取りする映像コミュニケ一 シヨンでは、音声メディアや映像メディアが通信端末間でやり取りされた際に、通信端 末間で生ずる相対的な遅延すなわちメディア間の同期外れ (再生タイミングのズレ) に応じて、ユーザはこれらメディアに対する品質劣化を知覚する。この際、ユーザは、 音声遅延時間と映像遅延時間の大小関係に応じて相対遅延品質劣化を感じる度合 V、が変化すると 、う知覚特性を有して!/、る。
本実施の形態では、音声遅延時間と映像遅延時間の大小関係に応じて相対遅延 品質劣化量推定モデルを選択し、選択した相対遅延品質劣化量推定モデルに基づ いて、相対遅延品質劣化量算出部 12Dにより相対遅延品質劣化量 27を推定してい る。
[0103] これら機能部のうち、各種演算処理データやプログラムを記憶部は、メモリやハード ディスクなどの記憶装置力も構成されている。また、各種演算処理を行う演算処理部 (コンピュータ)は、 CPUとその周辺回路から構成されており、上記記憶部のプロダラ ム(図示せず)を読み込んで実行することにより、上記ハードウェアとプログラムとを協 働させて各種機能手段を実現する。なお、各機能部の記憶部や演算処理部は、機 能部ごとにそれぞれ個別に設けてもよぐ各機能部で共用してもよい。
[0104] [第 3の実施の形態の動作]
次に、図 16を参照して、本発明の第 3の実施の形態に力かる映像コミュニケーショ ン品質推定装置の動作のうち遅延品質劣化量推定動作について詳細に説明する。 図 16は、本発明の第 3の実施の形態に力かる映像コミュニケーション品質推定装置 の遅延品質劣化量推定処理を示すフローチャートである。なお、本実施の形態にか 力る映像コミュニケーション品質推定装置 1の動作は、第 2の実施の形態と比較して、 遅延品質劣化量推定動作のみが異なる。他の処理動作については、第 2の実施の 形態と同様であり、ここでの詳細な説明は省略する。
[0105] 映像コミュニケーション品質推定装置 1の遅延品質劣化量推定部 12は、図 2のステ ップ 110における遅延品質劣化量推定ステップにおいて、図 16の遅延品質劣化量 推定処理を実行する。
[0106] まず、遅延品質劣化量推定部 12は、遅延品質劣化量算出部 12Bにより、外部から 入力された音声遅延時間 22Aと映像遅延時間 22Bを取得する (ステップ 311)。次に 、遅延品質劣化量推定部 12は、絶対遅延品質劣化量算出部 12Cにより、記憶部 12 Aカゝら絶対遅延品質劣化量推定モデル 32Aを示すモデル係数を読み出し (ステップ 312)、この絶対遅延品質劣化量推定モデル 32Aに基づき、音声遅延時間 22Aと映 像遅延時間 22Bの遅延時間和に対応する絶対遅延品質劣化量 26を算出する (ステ ップ 313)。これらステップ 311〜313は前述した図 11のステップ 211〜213と同じで あり、ここでの詳細な説明は省略する。
[0107] また、遅延品質劣化量推定部 12は、相対遅延品質劣化量算出部 12Dにより、音 声遅延時間 22Aと映像遅延時間 22Bの大小関係に応じた相対遅延品質劣化量推 定モデルを選択する (ステップ 314)。そして、選択した相対遅延品質劣化量推定モ デルを示すモデル係数を記憶部 12Aから読み出し (ステップ 315)、この相対遅延品 質劣化量推定モデルに基づき、音声遅延時間 22Aと映像遅延時間 22Bの遅延時 間差に対応する相対遅延品質劣化量 27を算出する (ステップ 316)。
[0108] 図 17は、相対遅延品質劣化量推定の特性例である。本実施の形態では、ユーザ が知覚する相対遅延品質劣化特性を、音声遅延時間 22Aと映像遅延時間 22Bの大 小関係、ここでは、音声遅延時間 22Aが映像遅延時間 22Bより大きいか小さいか、 すなわち遅延時間差 Dsの正負に応じて 2つの相対遅延品質劣化量推定モデル 32 B, 32Cを予め記憶部 12Aに格納してある。このうち、相対遅延品質劣化量推定モ デル 32Bは、音声遅延時間 22Aが映像遅延時間 22Bより大きいか等しい場合に適 用され、相対遅延品質劣化量推定モデル 32Cは、音声遅延時間 22Aが映像遅延時 間 22Bより小さい場合に適用される。
[0109] 図 17に示すように、音声遅延時間 22Aが映像遅延時間 22Bより大きいか等しい場 合、相対遅延品質劣化量 27は、音声遅延時間 Daと映像遅延時間 Dvの遅延時間差 Dsが所定の値に達するまでゼロを示し、遅延時間差 Dsのさらなる増加に伴って単調 減少する傾向がある。また、音声遅延時間 22Aが映像遅延時間 22Bより小さい場合 、相対遅延品質劣化量 27は、音声遅延時間 Daと映像遅延時間 Dvの遅延時間差 D sが所定の値に達するまでゼロを示し、遅延時間差 Dsのさらなる減少に伴って単調 減少する傾向がある。
[0110] したがって、音声遅延時間 22Aが映像遅延時間 22Bより大きいか等しい場合、相 対遅延品質劣化量 27は、例えば音声遅延時間 22Aと映像遅延時間 22Bの遅延時 間差を変数とする線形関数式で表すことができる。音声遅延時間 22Aと映像遅延時 間 22Bの遅延時間差を Ds ( = Da— Dv)とし、 α 5, j8 5をそれぞれ定数とし、相対遅 延品質劣化量 27を S (Ds)とした場合、 S (Ds)は、次の式(11)で推定できる。
[0111] [数 11]
S{DS) = min{a5(D5 - β5),θ} when Ds≥0 〜(ιι) [0112] 同様にして、音声遅延時間 22Aが映像遅延時間 22Bより小さい場合、相対遅延品 質劣化量 27は、例えば音声遅延時間 22Aと映像遅延時間 22Bの遅延時間差を変 数とする線形関数式で表すことができる。音声遅延時間 22Aと映像遅延時間 22Bの 遅延時間差を Ds ( = Da— Dv)とし、 α 6, β 6をそれぞれ定数とし、相対遅延品質劣 化量 27を S (Ds)とした場合、 S (Ds)は、次の式(12)で推定できる。
[0113] [数 12]
S{Ds) =
Figure imgf000029_0001
- β6), } when Ds<0 —(12)
[0114] 続いて、遅延品質劣化量推定部 12は、遅延品質劣化量算出部 12Bにより、絶対 遅延品質劣化量算出部 12Cで算出された絶対遅延品質劣化量 26と相対遅延品質 劣化量算出部 12Dで算出された相対遅延品質劣化量 27とに基づいて、音声遅延 時間 22Aおよび映像遅延時間 22Bに対応する遅延品質劣化量 23Bを算出する (ス テツプ 317)。このステップ 317は前述した図 11のステップ 216と同じであり、ここでの 詳細な説明は省略する。
この後、遅延品質劣化量算出部 12Bは、算出した遅延品質劣化量 23Bを映像コミ ュ-ケーシヨン品質推定部 13へ出力し (ステップ 318)、一連の遅延品質劣化量推定 処理を終了する。
[0115] このように、本実施の形態は、音声遅延時間 22Aと映像遅延時間 22Bの大小関係 に応じた相対遅延品質劣化量推定モデル 32B, 32Cを記憶部 12Aで複数記憶して おき、相対遅延品質劣化量算出部 12Dにより、音声遅延時間 22Aと映像遅延時間 2 2Bの大小関係に応じた相対遅延品質劣化量推定モデルを選択し、選択した相対遅 延品質劣化量推定モデルに基づき、音声遅延時間 22Aと映像遅延時間 22Bの遅 延時間差に対応する相対遅延品質劣化量 27を算出するようにしたので、音声遅延 時間と映像遅延時間の大小関係に応じて相対遅延品質劣化を感じる度合いが変化 するという、人間の知覚特性を考慮した相対遅延品質劣化量を、簡素な処理で精度 よく推定できる。
[0116] 一般に、人間の知覚特性には、音声メディアが映像メディアより先に再生される場 合と比較して、逆に音声メディアが映像メディアより遅れて再生される場合のほうが、 映像コミュニケーション品質の劣化が大きいと感じる特性がある。したがって、本実施 の形態を適用することにより、このような知覚特性を考慮した相対遅延品質劣化量を 推定することができ、高 、精度で映像コミュニケーション品質を推定できる。
[0117] [第 4の実施の形態]
次に、図 18を参照して、本発明の第 4の実施の形態に力かる映像コミュニケーショ ン品質推定装置について説明する。図 18は、本発明の第 4の実施の形態にかかる 映像コミュニケーション品質推定装置の要部の構成を示す説明図であり、前述した図 10と同じまたは同等部分には同一符号を付してある。
[0118] 第 2の実施の形態では、相対遅延品質劣化量推定モデル 32Bに基づいて、音声 遅延時間 22Aと映像遅延時間 22Bに対応する相対遅延品質劣化量 27を求める場 合を例として説明した。
本実施の形態では、音声遅延時間 22Aと映像遅延時間 22Bに加えて映像メディア のフレームレート 22Cを用い、これら音声遅延時間 22A、映像遅延時間 22B、およ びフレームレート 22Cに対応する相対遅延品質劣化量 27を求める場合について説 明する。なお、フレームレートとは、映像メディアを構成するフレームの転送速度であ り、単位時間当たりに送信されるフレーム数で表される。
[0119] なお、本実施の形態に力かる映像コミュニケーション品質推定装置 1の構成は、第 2の実施の形態(図 10参照)と比較して、遅延品質劣化量推定部 12の記憶部 12Aと 相対遅延品質劣化量算出部 12Dのみが異なり、傾き係数算出部 12Eが新たに追カロ されている。他の構成については、第 2の実施の形態と同様であり、ここでの詳細な 説明は省略する。
[0120] [遅延品質劣化量推定部]
図 18に示すように、遅延品質劣化量推定部 12には、主な機能手段として、記憶部 12A、遅延品質劣化量算出部 12B、絶対遅延品質劣化量算出部 12C、相対遅延 品質劣化量算出部 12D、および傾き係数算出部 12Eが設けられている。
[0121] 記憶部 12Aは、音声遅延時間 22Aと映像遅延時間 22Bの遅延時間和と絶対遅延 品質劣化量 26との関係を示す絶対遅延品質劣化量推定モデル 32Aと、音声遅延 時間 22Aと映像遅延時間 22Bとの遅延時間差と相対遅延品質劣化量 27との関係を 示す相対遅延品質劣化量推定モデル 32Bと、フレームレート 22Cと相対遅延品質劣 化量推定モデル 32Bの傾きを示す傾き係数との関係を示す傾き係数推定モデル 32 Dと、を予め記憶する機能を有している。
[0122] 絶対遅延品質劣化量算出部 12Cは、記憶部 12Aの絶対遅延品質劣化量推定モ デル 32Aに基づいて、音声遅延時間 22Aと映像遅延時間 22Bの遅延時間和に対 応する絶対遅延品質劣化量 26を算出する機能を有している。
傾き係数算出部 12Eは、記憶部 12Aの傾き係数推定モデル 32Dに基づいて、相 対遅延品質劣化量推定モデル 32Bの傾きを示す傾き係数を算出する機能を有して いる。
[0123] 相対遅延品質劣化量算出部 12Dは、傾き係数算出部 12Eで算出された傾き係数 に基づいて記憶部 12Aの相対遅延品質劣化量推定モデル 32Bの傾きを特定する 機能と、傾きを特定した相対遅延品質劣化量推定モデル 32Bに基づいて、音声遅 延時間 22Aと映像遅延時間 22Bの遅延時間差に対応する相対遅延品質劣化量 27 を算出する機能を有している。
遅延品質劣化量算出部 12Bは、絶対遅延品質劣化量算出部 12Cで算出された絶 対遅延品質劣化量 26と相対遅延品質劣化量算出部 12Dで算出された相対遅延品 質劣化量 27とに基づいて、音声遅延時間 22Aおよび映像遅延時間 22Bに対応する 遅延品質劣化量 23Bを算出する機能を有している。
[0124] 相対遅延品質劣化量の度合いは、映像メディアのフレームレートに左右される。例 えば、フレームレートが低い場合、音声メディアと映像メディアに相対的なズレが生じ ていても大きな品質劣化とは知覚されないが、フレームレートが高くなるに伴ってその 品質劣化は顕著となる。また、近年の携帯電話を用いたテレビ電話サービス等に見 られるように、フレームレートが 30 [フレーム/ sec]を実現できな!/、システムは多く存在 しており、フレームレートの変ィ匕も考慮して総合的なマルチモーダル品質を求めるこ とは非常に重要な課題である。
[0125] 本実施の形態では、相対遅延品質劣化量算出部 12Dにより、相対遅延品質劣化 量推定モデル 32Bとして線形関数を用い、この線形関数の傾き係数がフレームレー トの増加に伴って対数関数的に大きくなるという特性、すなわち傾き係数推定モデル 32Dに基づいて、傾き係数算出部 12Eによりフレームレートに対応する線形関数の 傾き係数を算出している。これにより、フレームレートの変化も考慮して当該映像コミ ュ-ケーシヨンの相対遅延品質劣化量を推定することができる。
[0126] これら機能部のうち、各種演算処理データやプログラムを記憶部は、メモリやハード ディスクなどの記憶装置力も構成されている。また、各種演算処理を行う演算処理部 (コンピュータ)は、 CPUとその周辺回路から構成されており、上記記憶部のプロダラ ム(図示せず)を読み込んで実行することにより、上記ハードウェアとプログラムとを協 働させて各種機能手段を実現する。なお、各機能部の記憶部や演算処理部は、機 能部ごとにそれぞれ個別に設けてもよぐ各機能部で共用してもよい。
[0127] [第 4の実施の形態の動作]
次に、図 19を参照して、本発明の第 4の実施の形態に力かる映像コミュニケーショ ン品質推定装置の動作のうち遅延品質劣化量推定動作について詳細に説明する。 図 19は、本発明の第 4の実施の形態に力かる映像コミュニケーション品質推定装置 の遅延品質劣化量推定処理を示すフローチャートである。なお、本実施の形態にか 力る映像コミュニケーション品質推定装置 1の動作は、第 2の実施の形態と比較して、 遅延品質劣化量推定動作のみが異なる。他の処理動作については、第 2の実施の 形態と同様であり、ここでの詳細な説明は省略する。
[0128] 映像コミュニケーション品質推定装置 1の遅延品質劣化量推定部 12は、図 2のステ ップ 110における遅延品質劣化量推定ステップにおいて、図 19の遅延品質劣化量 推定処理を実行する。
[0129] まず、遅延品質劣化量推定部 12は、遅延品質劣化量算出部 12Bにより、外部から 入力された音声遅延時間 22A、映像遅延時間 22B、およびフレームレート 22Cを取 得する (ステップ 411)。次に、遅延品質劣化量推定部 12は、絶対遅延品質劣化量 算出部 12Cにより、記憶部 12Aから絶対遅延品質劣化量推定モデル 32Aを示すモ デル係数を読み出し (ステップ 412)、この絶対遅延品質劣化量推定モデル 32Aに 基づき、音声遅延時間 22Aと映像遅延時間 22Bの遅延時間和に対応する絶対遅延 品質劣化量 26を算出する (ステップ 413)。これらステップ 411〜413は前述した図 1 1のステップ 211〜 213と同じであり、ここでの詳細な説明は省略する。 [0130] また、遅延品質劣化量推定部 12は、傾き係数算出部 12Eにより、記憶部 12Aから 傾き係数推定モデル 32Dを示すモデル係数を読み出し (ステップ 414)、この傾き係 数推定モデル 32Dに基づ 、て、相対遅延品質劣化量推定モデル 32Bの傾きを示す 傾き係数を算出する (ステップ 415)。
図 20は、相対遅延品質劣化量推定の特性例である。図 20に示すように、相対遅 延品質劣化量 27は、音声遅延時間 Daと映像遅延時間 Dvの遅延時間差 Dsが所定 の値に達するまでゼロを示し、遅延時間差 Dsのさらなる増加に伴って単調減少する 傾向がある。
[0131] また、相対遅延品質劣化量推定モデル 32Bの傾き α 4は、フレームレート 22Cの低 下に応じて緩やかになる傾向がある。
図 21は、傾き係数推定の特性例である。図 21に示すように、相対遅延品質劣化量 推定モデル 32Βの傾き α 4は、フレームレート 22Cの対数値の増加に応じて単調減 少する傾向がある。
[0132] したがって、傾き係数 α 4は、例えばフレームレート 22Cの対数値を変数とする線形 関数式で表すことができる。フレームレート 22Cを Fとし、その対数値を log (F)とし、 « 41 , β 41をそれぞれ定数とし、相対遅延品質劣化量推定モデル 32Βの傾き係数 を α 4とした場合、 α 4は次の式(13)で求められる。
[0133] [数 13] a4 = aAl- log\F) + a42 … )
[0134] 続いて、遅延品質劣化量推定部 12は、相対遅延品質劣化量算出部 12Dにより、 記憶部 12Aから相対遅延品質劣化量推定モデル 32Bを示すモデル係数を読み出 し (ステップ 416)、このモデル係数に傾き係数算出部 12Eにより算出された傾き係数 a 4を含めることにより相対遅延品質劣化量推定モデル 32Bの傾きを特定する (ステ ップ 417)。
そして、得られた相対遅延品質劣化量推定モデル 32Bに基づき、音声遅延時間 2 2Aと映像遅延時間 22Bの遅延時間差に対応する相対遅延品質劣化量 27を算出す る(ステップ 418)。 [0135] 続いて、遅延品質劣化量推定部 12は、遅延品質劣化量算出部 12Bにより、絶対 遅延品質劣化量算出部 12Cで算出された絶対遅延品質劣化量 26と相対遅延品質 劣化量算出部 12Dで算出された相対遅延品質劣化量 27とに基づいて、音声遅延 時間 22Aおよび映像遅延時間 22Bに対応する遅延品質劣化量 23Bを算出する (ス テツプ 419)。これらステップ 418, 419は前述した図 11のステップ 215, 216と同じで あり、ここでの詳細な説明は省略する。
この後、遅延品質劣化量算出部 12Bは、算出した遅延品質劣化量 23Bを映像コミ ュ-ケーシヨン品質推定部 13へ出力し (ステップ 420)、一連の遅延品質劣化量推定 処理を終了する。
[0136] このように、本実施の形態は、相対遅延品質劣化量推定モデル 32Bとして線形関 数を用い、傾き係数算出部 12Eにより、フレームレートの増加に伴って線形関数の傾 き係数が対数関数的に大きくなる傾き係数推定モデルに基づいて、フレームレートに 対応する線形関数の傾き係数を推定し、この傾き係数により特定された相対遅延品 質劣化量推定モデル 32Bに基づ ヽて、音声遅延時間 22Aと映像遅延時間 22Bの 遅延時間差に対応する相対遅延品質劣化量 27を算出するようにしたので、映像メデ ィァのフレームレートに応じて相対遅延品質劣化を感じる度合いが変化するという、 人間の知覚特性を考慮した相対遅延品質劣化量を、簡素な処理で精度よく推定で きる。
[0137] [第 5の実施の形態]
次に、図 22を参照して、本発明の第 5の実施の形態に力かる映像コミュニケーショ ン品質推定装置について説明する。図 22は、本発明の第 5の実施の形態にかかる 映像コミュニケーション品質推定装置の要部の構成を示す説明図であり、前述した図 18と同じまたは同等部分には同一符号を付してある。
[0138] 第 4の実施の形態では、線形関数力 なる 1つの相対遅延品質劣化量推定モデル
32Bの傾きを、映像メディアのフレームレート 22C力も算出した傾き係数により特定し 、その特定した相対遅延品質劣化量推定モデル 32Bに基づいて、音声遅延時間 22 Aと映像遅延時間 22Bの遅延時間差に対応する相対遅延品質劣化量 27を求める 場合を例として説明した。 本実施の形態では、音声遅延時間 22Aと映像遅延時間 22Bの大小関係に基づ 、 て、相対遅延品質劣化量 27の推定に用いる相対遅延品質劣化量推定モデルを選 択する場合について説明する。
[0139] なお、本実施の形態に力かる映像コミュニケーション品質推定装置 1の構成は、第 2の実施の形態(図 10参照)と比較して、遅延品質劣化量推定部 12の記憶部 12Aと 相対遅延品質劣化量算出部 12Dのみが異なる。他の構成については、第 4の実施 の形態と同様であり、ここでの詳細な説明は省略する。
[0140] [遅延品質劣化量推定部]
図 22に示すように、遅延品質劣化量推定部 12には、主な機能手段として、記憶部 12A、遅延品質劣化量算出部 12B、絶対遅延品質劣化量算出部 12C、相対遅延 品質劣化量算出部 12D、および傾き係数算出部 12Eが設けられている。
[0141] 記憶部 12Aは、音声遅延時間 22Aと映像遅延時間 22Bの遅延時間和と絶対遅延 品質劣化量 26との関係を示す絶対遅延品質劣化量推定モデル 32Aと、音声遅延 時間 22Aと映像遅延時間 22Bの大小関係に応じた複数の異なる相対遅延品質劣化 量推定モデル 32B, 32Cと、音声遅延時間 22Aと映像遅延時間 22Bの大小関係に 応じた複数の異なる傾き係数推定モデル 32D, 32Eと、を予め記憶する機能を有し ている。
[0142] 絶対遅延品質劣化量算出部 12Cは、記憶部 12Aの絶対遅延品質劣化量推定モ デル 32Aに基づいて、音声遅延時間 22Aと映像遅延時間 22Bの遅延時間和に対 応する絶対遅延品質劣化量 26を算出する機能を有している。
傾き係数算出部 12Eは、音声遅延時間 22Aと映像遅延時間 22Bの大小関係に応 じた傾き係数推定モデルを記憶部 12Aから選択する機能と、選択した傾き係数推定 モデル 32Dに基づ 、て、相対遅延品質劣化量推定モデル 32Bの傾きを示す傾き係 数を算出する機能を有している。
[0143] 相対遅延品質劣化量算出部 12Dは、音声遅延時間 22Aと映像遅延時間 22Bの 大小関係に応じた相対遅延品質劣化量推定モデルを記憶部 12Aから選択する機能 と、選択した相対遅延品質劣化量推定モデルに基づいて、音声遅延時間 22Aと映 像遅延時間 22Bの遅延時間差に対応する相対遅延品質劣化量 27を算出する機能 を有している。
遅延品質劣化量算出部 12Bは、絶対遅延品質劣化量算出部 12Cで算出された絶 対遅延品質劣化量 26と相対遅延品質劣化量算出部 12Dで算出された相対遅延品 質劣化量 27とに基づいて、音声遅延時間 22Aおよび映像遅延時間 22Bに対応する 遅延品質劣化量 23Bを算出する機能を有している。
[0144] 音声メディアおよび映像メディアを複合して双方向にやり取りする映像コミュニケ一 シヨンでは、音声メディアや映像メディアが通信端末間でやり取りされた際に、通信端 末間で生ずる相対的な遅延すなわちメディア間の同期外れ (再生タイミングのズレ) に応じて、ユーザはこれらメディアに対する品質劣化を知覚する。この際、ユーザは、 音声遅延時間と映像遅延時間の大小関係に応じて相対遅延品質劣化を感じる度合 V、が変化すると 、う知覚特性を有して!/、る。
[0145] 本実施の形態では、音声遅延時間と映像遅延時間の大小関係に応じて傾き係数 推定モデルと相対遅延品質劣化量推定モデルをそれぞれ選択し、選択した傾き係 数推定モデルに基づ 、て、映像メディアのフレームレートに対応する傾き係数を傾き 係数算出部 12Eにより算出し、その傾き係数により同じく選択した相対遅延品質劣化 量推定モデルの傾きを特定し、この相対遅延品質劣化量推定モデルに基づ 、て、 相対遅延品質劣化量算出部 12Dにより相対遅延品質劣化量 27を推定している。
[0146] これら機能部のうち、各種演算処理データやプログラムを記憶部は、メモリやハード ディスクなどの記憶装置力も構成されている。また、各種演算処理を行う演算処理部 (コンピュータ)は、 CPUとその周辺回路から構成されており、上記記憶部のプロダラ ム(図示せず)を読み込んで実行することにより、上記ハードウェアとプログラムとを協 働させて各種機能手段を実現する。なお、各機能部の記憶部や演算処理部は、機 能部ごとにそれぞれ個別に設けてもよぐ各機能部で共用してもよい。
[0147] [第 5の実施の形態の動作]
次に、図 23を参照して、本発明の第 5の実施の形態に力かる映像コミュニケーショ ン品質推定装置の動作のうち遅延品質劣化量推定動作について詳細に説明する。 図 23は、本発明の第 5の実施の形態に力かる映像コミュニケーション品質推定装置 の遅延品質劣化量推定処理を示すフローチャートである。なお、本実施の形態にか 力る映像コミュニケーション品質推定装置 1の動作は、第 4の実施の形態と比較して、 遅延品質劣化量推定動作のみが異なる。他の処理動作については、第 4の実施の 形態と同様であり、ここでの詳細な説明は省略する。
[0148] 映像コミュニケーション品質推定装置 1の遅延品質劣化量推定部 12は、図 2のステ ップ 110における遅延品質劣化量推定ステップにおいて、図 23の遅延品質劣化量 推定処理を実行する。
[0149] まず、遅延品質劣化量推定部 12は、遅延品質劣化量算出部 12Bにより、外部から 入力された音声遅延時間 22A、映像遅延時間 22B、およびフレームレート 22Cを取 得する (ステップ 511)。次に、遅延品質劣化量推定部 12は、絶対遅延品質劣化量 算出部 12Cにより、記憶部 12Aから絶対遅延品質劣化量推定モデル 32Aを示すモ デル係数を読み出し (ステップ 512)、この絶対遅延品質劣化量推定モデル 32Aに 基づき、音声遅延時間 22Aと映像遅延時間 22Bの遅延時間和に対応する絶対遅延 品質劣化量 26を算出する (ステップ 513)。これらステップ 511〜513は前述した図 1 1のステップ 211〜 213と同じであり、ここでの詳細な説明は省略する。
[0150] また、遅延品質劣化量推定部 12は、傾き係数算出部 12Eにより、音声遅延時間 2 2Aと映像遅延時間 22Bの大小関係に応じた傾き係数推定モデルを選択する (ステ ップ 514)。そして、選択した傾き係数推定モデル 32Dを示すモデル係数を記憶部 1 2A力も読み出し (ステップ 515)、この傾き係数推定モデル 32Dに基づいて、相対遅 延品質劣化量推定モデル 32Bの傾きを示す傾き係数を算出する (ステップ 516)。
[0151] 図 24は、相対遅延品質劣化量推定の特性例である。本実施の形態では、ユーザ が知覚する相対遅延品質劣化特性を、音声遅延時間 22Aと映像遅延時間 22Bの大 小関係、こでは、音声遅延時間 22Aが映像遅延時間 22Bより大きいか小さいか、す なわち遅延時間差 Dsの正負に応じて 2つの相対遅延品質劣化量推定モデル 32B, 32Cを予め記憶部 12Aに格納してある。このうち、相対遅延品質劣化量推定モデル 32Bは、音声遅延時間 22Aが映像遅延時間 22Bより大きいか等しい場合に適用さ れ、相対遅延品質劣化量推定モデル 32Cは、音声遅延時間 22Aが映像遅延時間 2 2Bより小さい場合に適用される。
[0152] 図 24に示すように、音声遅延時間 22Aが映像遅延時間 22Bより大きいか等しい場 合、相対遅延品質劣化量 27は、音声遅延時間 Daと映像遅延時間 Dvの遅延時間差 Dsが所定の値に達するまでゼロを示し、遅延時間差 Dsのさらなる増加に伴って単調 減少する傾向がある。また、音声遅延時間 22Aが映像遅延時間 22Bより小さい場合 、相対遅延品質劣化量 27は、音声遅延時間 Daと映像遅延時間 Dvの遅延時間差 D sが所定の値に達するまでゼロを示し、遅延時間差 Dsのさらなる減少に伴って単調 減少する傾向がある。
[0153] また、相対遅延品質劣化量推定モデル 32B, 32Cの傾き α 5, α 6は、フレームレ ート 22Cの低下に応じて緩やかになる傾向がある。
図 25は、傾き係数推定の特性例である。図 25に示すように、相対遅延品質劣化量 推定モデル 32Βの傾き a 5は、フレームレート 22Cの対数値の増加に応じて単調減 少する傾向がある。また、相対遅延品質劣化量推定モデル 32Cの傾き《6は、フレ ームレート 22Cの対数値の増加に応じて単調増加する傾向がある。
[0154] したがって、傾き係数 α 5, α 6は、例えばフレームレート 22Cの対数値を変数とす る線形関数式で表すことができる。フレームレート 22Cを Fとし、その対数値を log (F) とし、 « 51 , j8 51をそれぞれ定数とし、相対遅延品質劣化量推定モデル 32Bの傾き 係数を α 5とした場合、 a 5は次の式(14)で求められる。
[0155] [数 14] a5 = a51- log(jP ) + a52 when Ds ^ O ..-(14)
[0156] また、フレームレート 22Cを Fとし、その対数値を log (F)とし、 a 61 , j8 61をそれぞ れ定数とし、相対遅延品質劣化量推定モデル 32Cの傾き係数を oc 6とした場合、 a 6 は次の式(15)で求められる。
[0157] [数 15] ao = a61- log(JF) + «62 when Ds<S) . '.(15)
[0158] また、遅延品質劣化量推定部 12は、相対遅延品質劣化量算出部 12Dにより、音 声遅延時間 22Aと映像遅延時間 22Bの大小関係に応じた相対遅延品質劣化量推 定モデルを選択する (ステップ 517)。そして、選択した相対遅延品質劣化量推定モ デルを示すモデル係数を記憶部 12Aから読み出し (ステップ 518)、このモデル係数 に傾き係数算出部 12Eにより算出された傾き係数 a 5または a 6を含めることにより、 選択した相対遅延品質劣化量推定モデルの傾きを特定する (ステップ 519)。
そして、得られた相対遅延品質劣化量推定モデルに基づき、音声遅延時間 22Aと 映像遅延時間 22Bの遅延時間差に対応する相対遅延品質劣化量 27を算出する (ス テツプ 520)。
[0159] 続いて、遅延品質劣化量推定部 12は、遅延品質劣化量算出部 12Bにより、絶対 遅延品質劣化量算出部 12Cで算出された絶対遅延品質劣化量 26と相対遅延品質 劣化量算出部 12Dで算出された相対遅延品質劣化量 27とに基づいて、音声遅延 時間 22Aおよび映像遅延時間 22Bに対応する遅延品質劣化量 23Bを算出する (ス テツプ 521)。これらステップ 517, 518は前述した図 16のステップ 314, 315と同等 であり、ステップ 519は前述した図 19のステップ 417と同等であり、ステップ 520, 52 1は、前述した図 11のステップ 215, 216と同等であり、ここでの詳細な説明は省略 する。
この後、遅延品質劣化量算出部 12Bは、算出した遅延品質劣化量 23Bを映像コミ ュ-ケーシヨン品質推定部 13へ出力し (ステップ 522)、一連の遅延品質劣化量推定 処理を終了する。
[0160] このように、本実施の形態は、音声遅延時間と映像遅延時間の大小関係に応じて 傾き係数推定モデルと相対遅延品質劣化量推定モデルをそれぞれ選択し、選択し た傾き係数推定モデルに基づ 、て、映像メディアのフレームレートに対応する傾き係 数を傾き係数算出部 12Eにより算出し、その傾き係数により同じく選択した相対遅延 品質劣化量推定モデルの傾きを特定し、この相対遅延品質劣化量推定モデルに基 づいて、相対遅延品質劣化量算出部 12Dにより相対遅延品質劣化量 27を推定する ようにしたので、映像メディアのフレームレートに応じて相対遅延品質劣化を感じる度 合いが変化するという人間の知覚特性と、音声遅延時間と映像遅延時間の大小関係 に応じて相対遅延品質劣化を感じる度合いが変化するという人間の知覚特性の両方 を考慮した相対遅延品質劣化量を、簡素な処理で精度よく推定できる。
[0161] [第 6の実施の形態]
次に、図 26を参照して、本発明の第 6の実施の形態に力かる映像コミュニケーショ ン品質推定装置について説明する。図 26は、本発明の第 6の実施の形態にかかる 映像コミュニケーション品質推定装置で用いる絶対遅延品質劣化量推定モデルの特 性例である。
[0162] 第 2の実施の形態では、遅延品質劣化量推定部 12の絶対遅延品質劣化量算出部 12Cにおいて、音声遅延時間 22Aと映像遅延時間 22Bの遅延時間和に対応する絶 対遅延品質劣化量 26を算出する際、絶対遅延品質劣化量推定モデル 32Aを線形 関数でモデルィ匕した場合を例として説明した。
本実施の形態では、絶対遅延品質劣化量推定モデル 32Aを非線形関数でモデル 化する場合について説明する。なお、他の構成や動作については、第 2の実施の形 態と同様であり、ここでの詳細な説明は省略する。
[0163] 図 26に示すように、絶対遅延品質劣化量推定モデル 32Aは、評価対象となる映像 コミュニケーションを行う環境によってある程度変動する。したがって、絶対遅延品質 劣化量推定モデル 32Aを線形関数でモデルィ匕するより、非線形関数でモデルィ匕し たほうが推定精度の向上に繋がる場合がある。
非線形関数には各種の関数型が存在する。例えば、指数関数を用いた場合は、音 声遅延時間 Daと映像遅延時間 Dvの遅延時間和を Drとし、 α 7, β 7, Dr7をそれぞ れ定数とし、絶対遅延品質劣化量 26を R (Dr)とした場合、 R (Dr)は、次の式(16)で 推定できる。
[0164] [数 16]
Figure imgf000040_0001
[0165] このように、本実施の形態は、絶対遅延品質劣化量推定モデル 32Aを非線形関数 でモデルィ匕するようにしたので、推定精度の向上を図ることができる。さらに、指数関 数を用いた場合には、簡素な関数式で絶対遅延品質劣化量推定モデル 32Aをモデ ルイ匕することが可能となる。なお、本実施の形態は、第 2の実施の形態だけでなぐ第 3〜第 5の実施の形態にも適用でき、同様の作用効果が得られる。特に、第 3および 第 5の実施の形態では、音声遅延時間 22Aと映像遅延時間 22Bの大小関係に基づ いて、相対遅延品質劣化量 27の推定に用いる相対遅延品質劣化量推定モデルを 複数用いており、これら相対遅延品質劣化量推定モデルをそれぞれ非線形関数で モデルィ匕することもできる。
[0166] [第 7の実施の形態]
次に、図 27を参照して、本発明の第 7の実施の形態に力かる映像コミュニケーショ ン品質推定装置について説明する。図 27は、本発明の第 7の実施の形態にかかる 映像コミュニケーション品質推定装置で用いる相対遅延品質劣化量推定モデルの特 性例である。
[0167] 第 2の実施の形態では、遅延品質劣化量推定部 12の相対遅延品質劣化量算出部 12Dにおいて、音声遅延時間 22Aと映像遅延時間 22Bの遅延時間差に対応する相 対遅延品質劣化量 27を算出する際、相対遅延品質劣化量推定モデル 32Bを線形 関数でモデルィ匕した場合を例として説明した。
本実施の形態では、相対遅延品質劣化量推定モデル 32Bを非線形関数でモデル 化する場合について説明する。なお、他の構成や動作については、第 2の実施の形 態と同様であり、ここでの詳細な説明は省略する。
[0168] 図 27に示すように、相対遅延品質劣化量推定モデル 32Bは、評価対象となる映像 コミュニケーションを行う環境によってある程度変動する。したがって、絶対遅延品質 劣化量推定モデル 32Aを線形関数でモデルィ匕するより、非線形関数でモデルィ匕し たほうが推定精度の向上に繋がる場合がある。
非線形関数には各種の関数型が存在する。例えば、ロジスティック関数を用いた場 合は、音声遅延時間 Daと映像遅延時間 Dvの遅延時間差を Dsとし、 α 8, β 8, Ds8 をそれぞれ定数とし、相対遅延品質劣化量 27を S (Ds)とした場合、 S (Ds)は、次の 式(17)で推定できる。
[0169] [数 17]
Figure imgf000041_0001
このように、本実施の形態は、相対遅延品質劣化量推定モデル 32Bを非線形関数 でモデルィ匕するようにしたので、推定精度の向上を図ることができる。さらに、口ジス ティック関数を用いた場合には、簡素な関数式で相対遅延品質劣化量推定モデル 3 2Bをモデルィ匕することが可能となる。なお、本実施の形態は、第 2の実施の形態だけ でなぐ第 3〜第 5の実施の形態にも適用でき、同様の作用効果が得られる。
[0171] また、相対遅延品質劣化量推定モデル 32Bを非線形関数でモデルィ匕する場合、 第 3の実施の形態で説明した式(11) ,式(12)と同様に、音声遅延時間 22Aと映像 遅延時間 22Bの大小関係に応じた 2つの相対遅延品質劣化量推定モデル 32Bを記 憶部 12Aに格納しておき、音声遅延時間 22Aと映像遅延時間 22Bの大小関係に基 づいて、相対遅延品質劣化量 27の推定に用いる相対遅延品質劣化量推定モデル 3 2Bを選択するようにしてもょ ヽ。
[0172] 図 28は、相対遅延品質劣化量推定の他の特性例である。この特性例では、音声 遅延時間 22Aが映像遅延時間 22Bより大きいか等しい場合、相対遅延品質劣化量 27は、音声遅延時間 Daと映像遅延時間 Dvの遅延時間差 Dsが所定の値に達する までゼロから少しずつ減少し、遅延時間差 Dsのさらなる増加に伴って単調減少する 傾向がある。また、音声遅延時間 22Aが映像遅延時間 22Bより小さい場合、相対遅 延品質劣化量 27は、音声遅延時間 Daと映像遅延時間 Dvの遅延時間差 Dsが所定 の値に達するまでゼロ力も少しずつ減少し、遅延時間差 Dsのさらなる減少に伴って 単調減少する傾向がある。
[0173] したがって、音声遅延時間 22Aが映像遅延時間 22Bより大きいか等しい場合、相 対遅延品質劣化量 27は、例えば音声遅延時間 22Aと映像遅延時間 22Bの遅延時 間差を変数とするロジスティック関数式で表すことができる。音声遅延時間 22Aと映 像遅延時間 22Bの遅延時間差を Ds ( = Da— Dv)とし、 α 9, β 9, Ds9をそれぞれ 定数とし、相対遅延品質劣化量 27を S (Ds)とした場合、 S (Ds)は、次の式(18)で 推定できる。
[0174] [数 18]
S(Ds) = a9 - when Ds≥0 …( )
Figure imgf000042_0001
[0175] 同様にして、音声遅延時間 22Aが映像遅延時間 22Bより小さい場合、相対遅延品 質劣化量 27は、例えば音声遅延時間 22Aと映像遅延時間 22Bの遅延時間差を変 数とするロジスティック関数式で表すことができる。音声遅延時間 22Aと映像遅延時 間 22Bの遅延時間差を Ds ( = Da— Dv)とし、 α ΐθ, β 10, DslOをそれぞれ定数と し、相対遅延品質劣化量 27を S (Ds)とした場合、 S (Ds)は、次の式(19)で推定で きる。
[0176] [数 19]
S(Ds) = alO- when Ds<0 ー(19)
Figure imgf000043_0001
[0177] なお、図 27および図 28では、特性例の端部において、相対遅延品質劣化量 27が 係数 α 8〜ひ 10へ収束する傾向が示されて 、るが、前述した式(10)に示したように 、遅延品質劣化量 23Βは MOS値の範囲 1〜5に正規ィ匕されるため、実際の相対遅 延品質劣化量 27の推定に際し、特性例の端部における上記傾向部分は利用されな い。
[0178] また、相対遅延品質劣化量推定モデル 32Βを非線形関数でモデル化する場合、口 ジスティック関数を用いた式(17)〜式(19)以外の関数を用いてもよい。図 29は、相 対遅延品質劣化量推定の他の特性例である。このような特性例については、前述し た式( 17)〜式( 19)を指数関数で表現できる。
[0179] 例えば、式(17)については、音声遅延時間 Daと映像遅延時間 Dvの遅延時間差 を Dsとし、 a l l , j8 11 , Dsl lをそれぞれ定数とし、相対遅延品質劣化量 27を S (D s)とした場合、 S (Ds)は、次の式(20)で推定できる。
[0180] [数 20]
5( = «11 11 (20)
[0181] また、音声遅延時間 22Aが映像遅延時間 22Bより大きいか等しい場合の式(18) については、音声遅延時間 Daと映像遅延時間 Dvの遅延時間差を Dsとし、 a 12, β 12, Ds 12をそれぞれ定数とし、相対遅延品質劣化量 27を S (Ds)とした場合、 S ( Ds)は、次の式(21)で推定できる。 [0182] [数 21]
S(Ds) = al2-Ds when Ds≥0 〜(21)
[0183] 同様にして、音声遅延時間 22Aが映像遅延時間 22Bより小さい場合の式(19)に ついては、音声遅延時間 Daと映像遅延時間 Dvの遅延時間差を Dsとし、 a 13, β ΐ 3, Ds 13をそれぞれ定数とし、相対遅延品質劣化量 27を S (Ds)とした場合、 S (Ds) は、次の式(22)で推定できる。
[0184] [数 22]
S{Ds)
Figure imgf000044_0001
when Ds<0 · ' '(22)
[0185] [第 8の実施の形態]
次に、以上の各実施の形態で用いた各数式の定数値を導出する方法について説 明する。
まず、映像コミュニケーションを利用する、例えば使用する通信端末や符号化方式 などの通信環境と、ビジネス会議や自由会話などの想定する利用シーンを定め、音 声品質、映像フレームレートを含む映像品質、音声 ·映像の遅延時間が制御できる 評価実験系を構築する。これら品質は、パケット損失率、パケット遅延時間 Ζゆらぎ 時間等のネットワーク品質パラメータが制御できるネットワークエミュレータ装置で変 ィ匕させることができる。また、映像フレームレートは映像コミュニケーションアプリケー シヨンの設定パラメータにより変化させることができる。
[0186] 次に、音声品質、映像フレームレートを含む映像品質、音声'映像の遅延時間を様 々な状態で変化させて上記想定シーンにしたがって、通信端末間で映像コミュニケ ーシヨンを行い、全ての品質要因を総合的に考慮した映像コミュニケーション品質を 5段階品質尺度によって評価する。
[0187] 品質は平均オピニオン評点 MOS値(Mean Opinion Score)で表現する。 MOS値は 「非常に良い」、「良い」、「普通」、「悪い」、「非常に悪い」の 5段階の品質評価尺度に 対してそれぞれ 5〜1点を付け、評価者が投票した得点の平均値で求められる。主観 品質評価実験では、映像コミュニケーション品質の他に、音声品質評価値、映像品 質評価値も同様に求める。なお、主観評価実験方法の詳細は ITU—T勧告 P. 911 に記載されている。また、音声品質評価値と映像品質評価値は、前述の ITU— T勧 告 P. 862や ITU— T勧告 J. 144などの客観品質推定技術を適用して導出した値を 用いても良い。
[0188] このようにして、各種品質評価値を取得した後、各種数式の係数を導出するための 処理を行う。ここでは、第 5の実施の形態を例として説明する。
まず、遅延時間の影響がない条件の評価結果から、音声品質評価値 MOSaおよ び映像品質評価値 MOSvとマルチモーダル品質値 MOSmmの関係を前述した式( 1)の関数形で近似し、各定数 α 1, /3 1, γ ΐ, δ 1を導出する。
次に、音声品質と映像品質が最高レベルの条件において、音声'映像の遅延時間 を変化させた場合の品質劣化量を前述した式 (6)〜式 (8) ,式(11) ,式(12) ,式(1 4) ,式(15)の関数形でそれぞれ近似し、各定数《3, β 3, β 5, « 51, « 52, β 6 , « 61, α 62を導出する。
[0189] この後、全ての評価結果を用いて、マルチモーダル品質値 MOSmmおよび遅延 品質劣化量 Davと映像コミュニケーション品質値 MOSallの関係を、前述した式 (4) の関数形で近似し、各定数 α 2, 2, γ 2, δ 2を導出する。
[0190] これらの定数は、映像コミュニケーションをどのような通信環境で利用するの力 ど のようなシーンに適用して利用するの力、どのような会話を行うか等により変化する値 であるが、想定するサービス利用シーンを決定して、一度主観品質評価実験を行うこ とにより一意に定めることが可能である。なお、本実施の形態は、第 5の実施の形態 を例として説明したが、他の実施の形態にも同様にして適用できる。
[0191] [実施の形態の拡張]
以上の各実施の形態では、マルチモーダルサービスを利用して映像コミュニケーシ ヨンを行う各通信端末にぉ 、て、音声品質評価値と映像品質評価値に対称性を有し 、両通信端末において、等しい音声品質評価値と映像品質評価値が得られる場合を 前提として説明している。これら通信端末において、音声品質評価値と映像品質評 価値に対称性がなぐ両通信端末において、等しい音声品質評価値と映像品質評 価値が得られない場合には、例えばマルチモーダル品質推定部 11において、両通 信端末のマルチモーダル品質を合成したマルチモーダル品質値 23Aを算出しても よい。
[0192] あるいは、マルチモーダル品質推定部 11において、通信端末ごとに個別のマルチ モーダル品質値 23Aを推定し、映像コミュニケーション品質推定部 13により、これら マルチモーダル品質値 23Aと遅延品質劣化量 23Bに基づ 、て、映像コミュニケーシ ヨン品質値 24を推定してもよい。
[0193] また、第 2〜第 5の実施の形態では、遅延品質劣化量算出部 12Bにより、音声遅延 時間 22Aおよび映像遅延時間 22Bに対応する遅延品質劣化量 Davを算出する際、 前述した式(10)に示したように、絶対遅延品質劣化量算出部 12Cで算出された絶 対遅延品質劣化量 R (Dr)と相対遅延品質劣化量算出部 12Dで算出された相対遅 延品質劣化量 S (Ds)と和力も Davを算出する場合を例として説明したが、これに限 定されるものではない。例えば、 α 14, β 14, y 14, δ 14をそれぞれ定数とした場 合、 Davは次の式(23)により推定でき、 R(Dr)と S (Ds)の相互作用を考慮して Dav を推定できる。
[0194] [数 23]
Dav= a - R{Dr)+ β14- S(DS) + Y - R(Dr)- S\Ds)+ δ14 - -(23)
[0195] また、各実施の形態では、各種品質値や傾き係数を算出するための推定モデルと して、それぞれ 1つの推定モデル、または 2つの推定モデルのいずれかを用いる場 合を例に説明した力 これに限定されるものではない。
これら推定モデルは、評価対象となる映像コミュニケーションを行う環境によってあ る程度変動する。映像コミュニケーション環境を左右するパラメータとしては、例えば 、映像通信サービスの通信種別を示す通信種別パラメータ、映像メディアを再生する 端末の再生性能を示す再生性能パラメータ、ある!ヽは映像メディアを再生する端末 の再生環境を示す再生環境パラメータがある。
[0196] 通信種別パラメータの具体例としては、評価対象となる映像通信サービスで行われ る通信種別を示す「タスク」がある。
再生性能パラメータの具体例としては、映像メディアの符号ィ匕に関する「符号化方 式」、「映像フォーマット」、「キーフレーム」のほか、端末でのメディア再生機能に関す る「モニタサイズ」、「モニタ解像度」などがある。
再生環境パラメータの具体例としては、端末でのメディア再生の際の「室内照度」な どがある。
[0197] したがって、このようなパラメータの組合せごとに推定モデルの関数形やその係数 を記憶部に格納しておき、推定の際、外部力 入力されたこれらパラメータに基づい て推定モデルの関数形やその係数を選択してもよい。これにより、映像コミュニケ一 シヨン環境が異なる場合でも柔軟に対応することができ、高 、精度で映像コミュニケ ーシヨン品質値を推定することが可能となる。
[0198] また、各実施の形態では、 MOS値で表す品質値については、 MOS値がとりうる 1 〜5の範囲となるよう、算出した品質値を正規ィ匕する場合について説明したが、元々 、算出される品質値が 1〜5の範囲に治まるのであれば、正規化処理を省いてもよい また、各実施の形態では、正規化の具体例として、 min ()や max Oなどの関数を用 いた場合を例として説明したが、他の関数を用いて正規ィ匕を行ってもよい。
[0199] また、各実施の形態では、推定モデルを線形関数や非線形関数によりモデルィ匕し た場合を例として説明したが、これら推定モデルは関数に限定されるものではなぐ 関数以外のモデルを用いてもよい。例えば、推定モデルの入出力の関係が規定され た表形式のデータベースでもよい。また、ニューラルネットワークや事例ベースなど、 入出力特性のみが特定されるようなブラックボックスモデルであってもよい。

Claims

請求の範囲
[1] ネットワークを介して接続された通信端末間で音声メディアおよび映像メディアを複 合して双方向にやり取りする映像コミュニケーションに関する品質を推定する映像コミ ュ-ケーシヨン品質推定装置であって、
前記通信端末で出力された音声メディアに対する品質評価値である音声メディア 品質評価値と、前記通信端末で出力された映像メディアに対する品質評価値である 映像メディア品質評価値とに基づ ヽて、前記音声メディアと前記映像メディアを複合 した複合メディアの品質評価値であるマルチモーダル品質値を推定するマルチモー ダル品質推定部と、
前記音声メディアが前記通信端末間で入力されてから出力されるまでの遅延時間 である音声遅延時間および前記映像メディアが前記通信端末間で入力されてから出 力されるまでの遅延時間である映像遅延時間に基づ!/、て、前記音声メディアと前記 映像メディアの遅延により生ずる遅延品質劣化量を推定する遅延品質劣化量推定 部と、
前記マルチモーダル品質推定部で推定されたマルチモーダル品質値と前記遅延 品質劣化量推定部で推定された前記遅延品質劣化量とに基づ!ヽて、前記映像コミュ 二ケーシヨンの品質を推定する映像コミュニケーション品質推定部と
を備えることを特徴とする映像コミュニケーション品質推定装置。
[2] 請求項 1に記載の映像コミュニケーション品質推定装置において、
前記遅延品質劣化量推定部は、
音声遅延時間および映像遅延時間と遅延品質劣化量との関係を示す遅延品質劣 化量推定モデルを予め記憶する記憶部と、
前記遅延品質劣化量推定モデルに基づ!、て、前記音声遅延時間および前記映像 遅延時間に対応する遅延品質劣化量を算出する遅延品質劣化量算出部と
を有することを特徴とする映像コミュニケーション品質推定装置。
[3] 請求項 2に記載の映像コミュニケーション品質推定装置において、
前記遅延品質劣化量推定モデルは、前記音声遅延時間が一定の場合、前記映像 遅延時間の増加に応じて前記遅延品質劣化量が単調増加して所定の最大値に達し 、前記映像遅延時間のさらなる増加に応じて前記遅延品質劣化量が単調減少する 凸型の特性を有し、前記映像遅延時間が一定の場合、前記音声遅延時間の増加に 応じて前記遅延品質劣化量が単調増加して所定の最大値に達し、前記音声遅延時 間のさらなる増加に応じて前記遅延品質劣化量が単調減少する凸型の特性を有す ることを特徴とする映像コミュニケーション品質推定装置。
[4] 請求項 1に記載の映像コミュニケーション品質推定装置にぉ 、て、
前記遅延品質劣化量推定部は、
前記音声遅延時間および前記映像遅延時間に基づいて前記音声メディアと前記 映像メディアの絶対的な遅延に起因して生ずる絶対遅延品質劣化量を算出する絶 対遅延品質劣化量算出部と、
前記音声遅延時間および前記映像遅延時間に基づいて前記音声メディアと前記 映像メディアの間の相対的な遅延に起因して生ずる相対遅延品質劣化量を算出す る相対遅延品質劣化量算出部と、
前記絶対遅延品質劣化量と前記相対遅延品質劣化量に基づいて前記遅延品質 劣化量を算出する遅延品質劣化量算出部と
を有することを特徴とする映像コミュニケーション品質推定装置。
[5] 請求項 4に記載の映像コミュニケーション品質推定装置において、
前記遅延品質劣化量推定部は、音声遅延時間と映像遅延時間の遅延時間和の増 加に伴って絶対遅延品質劣化量が単調増加する特性を示す絶対遅延品質劣化量 推定モデルを予め記憶する記憶部を有し、
前記絶対遅延品質劣化量推定部は、前記絶対遅延品質劣化量推定モデルに基 づいて、前記音声遅延時間と前記映像遅延時間の遅延時間和に対応する絶対遅延 品質劣化量を算出することを特徴とする映像コミュニケーション品質推定装置。
[6] 請求項 4に記載の映像コミュニケーション品質推定装置において、
前記遅延品質劣化量推定部は、音声遅延時間と映像遅延時間の遅延時間差の増 加に伴って相対遅延品質劣化量が単調増加する特性を示す相対遅延品質劣化量 推定モデルを予め記憶する記憶部を有し、
前記相対遅延品質劣化量推定部は、前記相対遅延品質劣化量推定モデルに基 づいて、前記音声遅延時間と前記映像遅延時間の遅延時間差に対応する相対遅延 品質劣化量を導出し、前記相対遅延品質劣化量として出力することを特徴とする映 像コミュニケーション品質推定装置。
[7] 請求項 6に記載の映像コミュニケーション品質推定装置において、
前記記憶部は、音声遅延時間と映像遅延時間の大小関係に応じた相対遅延品質 劣化量推定モデルを複数記憶し、
前記相対遅延品質劣化量推定部は、前記音声遅延時間と前記映像遅延時間の大 小関係に応じた相対遅延品質劣化量推定モデルを前記記憶部力 選択し、選択し た相対遅延品質劣化量推定モデルに基づいて前記音声遅延時間と前記映像遅延 時間の遅延時間差に対応する相対遅延品質劣化量を算出する
ことを特徴とする映像コミュニケーション品質推定装置。
[8] 請求項 1に記載の映像コミュニケーション品質推定装置において、
前記遅延品質劣化量推定部は、
前記音声遅延時間および前記映像遅延時間に基づいて前記音声メディアと前記 映像メディアの絶対的な遅延に起因して生ずる絶対遅延品質劣化量を推定する絶 対遅延品質劣化量推定部と、
前記音声遅延時間、前記映像遅延時間、および前記映像メディアのフレームレート に基づいて前記音声メディアと前記映像メディアの間の相対的な遅延に起因して生 ずる相対遅延品質劣化量を推定する相対遅延品質劣化量推定部と
を有することを特徴とする映像コミュニケーション品質推定装置。
[9] 請求項 8に記載の映像コミュニケーション品質推定装置において、
前記遅延品質劣化量推定部は、
音声遅延時間と映像遅延時間の遅延時間差の増加に伴って相対遅延品質劣化 量が単調増加する遅延時間差 相対遅延品質劣化量特性を示す線形関数力 な る相対遅延品質劣化量推定モデルとフレームレートの増加に伴って前記線形関数 の傾き係数が対数関数的に大きくなる傾き係数特性を示す傾き係数推定モデルとを 予め記憶する記憶部と、
前記傾き係数推定モデルに基づ 、て、前記映像メディアのフレームレートに対応す る前記線形関数の傾き係数を算出する傾き係数算出部と
を有し、
前記相対遅延品質劣化量推定部は、前記傾き係数により傾きを特定した前記相対 遅延品質劣化量推定モデルに基づ!、て、前記音声遅延時間および前記映像遅延 時間の遅延時間差に対応する相対遅延品質劣化量を算出することを特徴とする映 像コミュニケーション品質推定装置。
[10] 請求項 9に記載の映像コミュニケーション品質推定装置において、
前記記憶部は、音声遅延時間と映像遅延時間の大小関係に応じた相対遅延品質 劣化量推定モデルおよび係数推定モデルをそれぞれ複数記憶し、
前記傾き係数算出部は、前記音声遅延時間と前記映像遅延時間の大小関係に応 じた傾き係数推定モデルを前記記憶部カゝら選択し、選択した傾き係数推定モデルに 基づいて前記傾き係数を算出し、
前記相対遅延品質劣化量推定部は、前記音声遅延時間と前記映像遅延時間の大 小関係に応じた相対遅延品質劣化量推定モデルを前記記憶部力 選択して前記傾 き係数により傾きを特定し、得られた相対遅延品質劣化量推定モデルに基づ 、て、 前記音声遅延時間および前記映像遅延時間の遅延時間差に対応する相対遅延品 質劣化量を算出する
ことを特徴とする映像コミュニケーション品質推定装置。
[11] 請求項 1に記載の映像コミュニケーション品質推定装置において、
前記映像コミュニケーション品質算出部は、
マルチモーダル品質値および遅延品質劣化量と映像コミュニケーション品質値との 関係を示す映像コミュニケーション品質推定モデルを予め記憶する記憶部と、 前記映像コミュニケーション品質推定モデルに基づ 、て、マルチモーダル品質値 および遅延品質劣化量に対応する映像コミュニケーション品質値を算出する映像コミ ュ-ケーシヨン品質算出部と
を有することを特徴とする映像コミュニケーション品質推定装置。
[12] ネットワークを介して接続された通信端末間で音声メディアおよび映像メディアを複 合して双方向にやり取りする映像コミュニケーションに関する品質を推定する映像コミ ュ-ケーシヨン品質推定装置で用いられる映像コミュニケーション品質推定方法であ つて、
マルチモーダル品質推定部により、前記通信端末で出力された音声メディアに対 する品質評価値である音声メディア品質評価値と、前記通信端末で出力された映像 メディアに対する品質評価値である映像メディア品質評価値とに基づ!/ヽて、前記音 声メディアと前記映像メディアを複合した複合メディアの品質評価値であるマルチモ 一ダル品質値を推定するマルチモーダル品質推定ステップと、
遅延品質劣化量推定部により、前記音声メディアが前記通信端末間で入力されて から出力されるまでの遅延時間である音声遅延時間および前記映像メディアが前記 通信端末間で入力されてから出力されるまでの遅延時間である映像遅延時間に基 づ ヽて、前記音声メディアと前記映像メディアの遅延により生ずる遅延品質劣化量を 推定する絶対遅延品質劣化量推定ステップと、
映像コミュニケーション品質推定部により、前記マルチモーダル品質推定部で推定 されたマルチモーダル品質値と前記遅延品質劣化量推定部で推定された前記遅延 品質劣化量とに基づいて、前記映像コミュニケーションの品質を推定する映像コミュ 二ケーシヨン品質推定ステップと
を備えることを特徴とする映像コミュニケーション品質推定方法。
ネットワークを介して接続された通信端末間で音声メディアおよび映像メディアを複 合して双方向にやり取りする映像コミュニケーションに関する品質を推定する映像コミ ュ-ケーシヨン品質推定装置のコンピュータに、
マルチモーダル品質推定部により、前記通信端末で出力された音声メディアに対 する品質評価値である音声メディア品質評価値と、前記通信端末で出力された映像 メディアに対する品質評価値である映像メディア品質評価値とに基づ!/ヽて、前記音 声メディアと前記映像メディアを複合した複合メディアの品質評価値であるマルチモ 一ダル品質値を推定するマルチモーダル品質推定ステップと、
遅延品質劣化量推定部により、前記音声メディアが前記通信端末間で入力されて から出力されるまでの遅延時間である音声遅延時間および前記映像メディアが前記 通信端末間で入力されてから出力されるまでの遅延時間である映像遅延時間に基 づ ヽて、前記音声メディアと前記映像メディアの遅延により生ずる遅延品質劣化量を 推定する絶対遅延品質劣化量推定ステップと、
映像コミュニケーション品質推定部により、前記マルチモーダル品質推定部で推定 されたマルチモーダル品質値と前記遅延品質劣化量推定部で推定された前記遅延 品質劣化量とに基づいて、前記映像コミュニケーションの品質を推定する映像コミュ 二ケーシヨン品質推定ステップと
を実行させるプログラム。
PCT/JP2006/317637 2005-09-06 2006-09-06 映像コミュニケーション品質推定装置、方法、およびプログラム WO2007029731A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP06797532A EP1924101B1 (en) 2005-09-06 2006-09-06 Video communication quality estimation device, method, and program
US11/990,256 US8405773B2 (en) 2005-09-06 2006-09-06 Video communication quality estimation apparatus, method, and program
JP2007534445A JP4486130B2 (ja) 2005-09-06 2006-09-06 映像コミュニケーション品質推定装置、方法、およびプログラム
CA2617893A CA2617893C (en) 2005-09-06 2006-09-06 Video communication quality estimation device, method, and program
CN200680030787XA CN101248679B (zh) 2005-09-06 2006-09-06 视频通信品质推测装置、方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005257880 2005-09-06
JP2005-257880 2005-09-06
JP2006171240 2006-06-21
JP2006-171240 2006-06-21

Publications (1)

Publication Number Publication Date
WO2007029731A1 true WO2007029731A1 (ja) 2007-03-15

Family

ID=37835850

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/317637 WO2007029731A1 (ja) 2005-09-06 2006-09-06 映像コミュニケーション品質推定装置、方法、およびプログラム

Country Status (7)

Country Link
US (1) US8405773B2 (ja)
EP (1) EP1924101B1 (ja)
JP (1) JP4486130B2 (ja)
KR (1) KR100947275B1 (ja)
CN (1) CN101248679B (ja)
CA (1) CA2617893C (ja)
WO (1) WO2007029731A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009164727A (ja) * 2007-12-28 2009-07-23 Nippon Telegr & Teleph Corp <Ntt> マルチメディア総合品質推定方法および装置
JP2012004779A (ja) * 2010-06-16 2012-01-05 Nippon Telegr & Teleph Corp <Ntt> 会話種別判定装置、マルチメディア品質推定装置、会話種別判定方法およびマルチメディア品質推定方法
JP2014110525A (ja) * 2012-11-30 2014-06-12 Yamaha Corp ネットワーク音楽セッションにおける遅延測定方法及び装置
JP2015526958A (ja) * 2012-08-22 2015-09-10 ▲ホア▼▲ウェイ▼技術有限公司 マルチメディア品質監視方法および装置

Families Citing this family (152)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4894858B2 (ja) * 2006-11-06 2012-03-14 パナソニック株式会社 受信機
US8554868B2 (en) 2007-01-05 2013-10-08 Yahoo! Inc. Simultaneous sharing communication interface
US8599704B2 (en) * 2007-01-23 2013-12-03 Microsoft Corporation Assessing gateway quality using audio systems
EP2106154A1 (en) * 2008-03-28 2009-09-30 Deutsche Telekom AG Audio-visual quality estimation
CN102057634B (zh) 2008-06-11 2015-01-28 日本电信电话株式会社 音频质量估计方法以及音频质量估计设备
US8400566B2 (en) * 2008-08-21 2013-03-19 Dolby Laboratories Licensing Corporation Feature optimization and reliability for audio and video signature generation and detection
US8284259B2 (en) * 2009-09-23 2012-10-09 Avaya Inc. Policy-based video quality assessment
KR101345098B1 (ko) 2009-12-18 2013-12-26 한국전자통신연구원 실시간 영상품질 측정 장치 및 방법
CN102972042A (zh) * 2010-07-05 2013-03-13 三菱电机株式会社 影像质量管理系统
IL306019A (en) 2011-07-12 2023-11-01 Snap Inc Methods and systems for delivering editing functions to visual content
US11734712B2 (en) 2012-02-24 2023-08-22 Foursquare Labs, Inc. Attributing in-store visits to media consumption based on data collected from user devices
US8972357B2 (en) 2012-02-24 2015-03-03 Placed, Inc. System and method for data collection to validate location data
US10155168B2 (en) 2012-05-08 2018-12-18 Snap Inc. System and method for adaptable avatars
WO2014031899A1 (en) 2012-08-22 2014-02-27 Goldrun Corporation Augmented reality virtual content platform apparatuses, methods and systems
US8775972B2 (en) 2012-11-08 2014-07-08 Snapchat, Inc. Apparatus and method for single action control of social network profile access
US9705831B2 (en) 2013-05-30 2017-07-11 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US9742713B2 (en) 2013-05-30 2017-08-22 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US10439972B1 (en) 2013-05-30 2019-10-08 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US9083770B1 (en) 2013-11-26 2015-07-14 Snapchat, Inc. Method and system for integrating real time communication features in applications
CA2863124A1 (en) 2014-01-03 2015-07-03 Investel Capital Corporation User content sharing system and method with automated external content integration
US9628950B1 (en) 2014-01-12 2017-04-18 Investment Asset Holdings Llc Location-based messaging
US10082926B1 (en) * 2014-02-21 2018-09-25 Snap Inc. Apparatus and method for alternate channel communication initiated through a common message thread
US8909725B1 (en) 2014-03-07 2014-12-09 Snapchat, Inc. Content delivery network for ephemeral objects
US9276886B1 (en) 2014-05-09 2016-03-01 Snapchat, Inc. Apparatus and method for dynamically configuring application component tiles
US9396354B1 (en) 2014-05-28 2016-07-19 Snapchat, Inc. Apparatus and method for automated privacy protection in distributed images
US9537811B2 (en) 2014-10-02 2017-01-03 Snap Inc. Ephemeral gallery of ephemeral messages
US11625443B2 (en) 2014-06-05 2023-04-11 Snap Inc. Web document enhancement
US9113301B1 (en) 2014-06-13 2015-08-18 Snapchat, Inc. Geo-location based event gallery
US9225897B1 (en) 2014-07-07 2015-12-29 Snapchat, Inc. Apparatus and method for supplying content aware photo filters
US10055717B1 (en) 2014-08-22 2018-08-21 Snap Inc. Message processor with application prompts
US10423983B2 (en) 2014-09-16 2019-09-24 Snap Inc. Determining targeting information based on a predictive targeting model
US10824654B2 (en) 2014-09-18 2020-11-03 Snap Inc. Geolocation-based pictographs
US11216869B2 (en) 2014-09-23 2022-01-04 Snap Inc. User interface to augment an image using geolocation
US10284508B1 (en) 2014-10-02 2019-05-07 Snap Inc. Ephemeral gallery of ephemeral messages with opt-in permanence
KR101600284B1 (ko) * 2014-10-17 2016-03-07 주식회사 이노와이어리스 영상 품질 측정 방법
US9015285B1 (en) 2014-11-12 2015-04-21 Snapchat, Inc. User interface for accessing media at a geographic location
US9385983B1 (en) 2014-12-19 2016-07-05 Snapchat, Inc. Gallery of messages from individuals with a shared interest
US10311916B2 (en) 2014-12-19 2019-06-04 Snap Inc. Gallery of videos set to an audio time line
US9854219B2 (en) 2014-12-19 2017-12-26 Snap Inc. Gallery of videos set to an audio time line
US9754355B2 (en) 2015-01-09 2017-09-05 Snap Inc. Object recognition based photo filters
US11388226B1 (en) 2015-01-13 2022-07-12 Snap Inc. Guided personal identity based actions
US10133705B1 (en) 2015-01-19 2018-11-20 Snap Inc. Multichannel system
US9521515B2 (en) 2015-01-26 2016-12-13 Mobli Technologies 2010 Ltd. Content request by location
US10223397B1 (en) 2015-03-13 2019-03-05 Snap Inc. Social graph based co-location of network users
EP3272078B1 (en) 2015-03-18 2022-01-19 Snap Inc. Geo-fence authorization provisioning
US9692967B1 (en) 2015-03-23 2017-06-27 Snap Inc. Systems and methods for reducing boot time and power consumption in camera systems
US10135949B1 (en) 2015-05-05 2018-11-20 Snap Inc. Systems and methods for story and sub-story navigation
US9881094B2 (en) 2015-05-05 2018-01-30 Snap Inc. Systems and methods for automated local story generation and curation
US10993069B2 (en) 2015-07-16 2021-04-27 Snap Inc. Dynamically adaptive media content delivery
US10817898B2 (en) 2015-08-13 2020-10-27 Placed, Llc Determining exposures to content presented by physical objects
US9652896B1 (en) 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
US10474321B2 (en) 2015-11-30 2019-11-12 Snap Inc. Network resource location linking and visual content sharing
US9984499B1 (en) 2015-11-30 2018-05-29 Snap Inc. Image and point cloud based tracking and in augmented reality systems
KR102000590B1 (ko) * 2015-12-16 2019-07-16 니폰 덴신 덴와 가부시끼가이샤 오디오 비주얼 품질 추정 장치, 오디오 비주얼 품질 추정 방법, 및 프로그램
US10354425B2 (en) 2015-12-18 2019-07-16 Snap Inc. Method and system for providing context relevant media augmentation
US10285001B2 (en) 2016-02-26 2019-05-07 Snap Inc. Generation, curation, and presentation of media collections
US11023514B2 (en) 2016-02-26 2021-06-01 Snap Inc. Methods and systems for generation, curation, and presentation of media collections
US10679389B2 (en) 2016-02-26 2020-06-09 Snap Inc. Methods and systems for generation, curation, and presentation of media collections
US10339365B2 (en) 2016-03-31 2019-07-02 Snap Inc. Automated avatar generation
US11900418B2 (en) 2016-04-04 2024-02-13 Snap Inc. Mutable geo-fencing system
US10638256B1 (en) 2016-06-20 2020-04-28 Pipbin, Inc. System for distribution and display of mobile targeted augmented reality content
US11044393B1 (en) 2016-06-20 2021-06-22 Pipbin, Inc. System for curation and display of location-dependent augmented reality content in an augmented estate system
US11785161B1 (en) 2016-06-20 2023-10-10 Pipbin, Inc. System for user accessibility of tagged curated augmented reality content
US10334134B1 (en) 2016-06-20 2019-06-25 Maximillian John Suiter Augmented real estate with location and chattel tagging system and apparatus for virtual diary, scrapbooking, game play, messaging, canvasing, advertising and social interaction
US11201981B1 (en) 2016-06-20 2021-12-14 Pipbin, Inc. System for notification of user accessibility of curated location-dependent content in an augmented estate
US11876941B1 (en) 2016-06-20 2024-01-16 Pipbin, Inc. Clickable augmented reality content manager, system, and network
US10805696B1 (en) 2016-06-20 2020-10-13 Pipbin, Inc. System for recording and targeting tagged content of user interest
US10430838B1 (en) 2016-06-28 2019-10-01 Snap Inc. Methods and systems for generation, curation, and presentation of media collections with automated advertising
US9681265B1 (en) 2016-06-28 2017-06-13 Snap Inc. System to track engagement of media items
US10387514B1 (en) 2016-06-30 2019-08-20 Snap Inc. Automated content curation and communication
US10348662B2 (en) 2016-07-19 2019-07-09 Snap Inc. Generating customized electronic messaging graphics
KR102420857B1 (ko) 2016-08-30 2022-07-15 스냅 인코포레이티드 동시 로컬화 및 매핑을 위한 시스템 및 방법
US10432559B2 (en) 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
KR102257909B1 (ko) 2016-11-07 2021-05-28 스냅 인코포레이티드 이미지 변경자들의 선택적 식별 및 순서화
US10203855B2 (en) 2016-12-09 2019-02-12 Snap Inc. Customized user-controlled media overlays
US11616745B2 (en) 2017-01-09 2023-03-28 Snap Inc. Contextual generation and selection of customized media content
US10454857B1 (en) 2017-01-23 2019-10-22 Snap Inc. Customized digital avatar accessories
US10915911B2 (en) 2017-02-03 2021-02-09 Snap Inc. System to determine a price-schedule to distribute media content
US11250075B1 (en) 2017-02-17 2022-02-15 Snap Inc. Searching social media content
US10319149B1 (en) 2017-02-17 2019-06-11 Snap Inc. Augmented reality anamorphosis system
US10074381B1 (en) 2017-02-20 2018-09-11 Snap Inc. Augmented reality speech balloon system
US10565795B2 (en) 2017-03-06 2020-02-18 Snap Inc. Virtual vision system
US10523625B1 (en) 2017-03-09 2019-12-31 Snap Inc. Restricted group content collection
US10582277B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
US10581782B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
US11170393B1 (en) 2017-04-11 2021-11-09 Snap Inc. System to calculate an engagement score of location based media content
US10387730B1 (en) 2017-04-20 2019-08-20 Snap Inc. Augmented reality typography personalization system
US10212541B1 (en) 2017-04-27 2019-02-19 Snap Inc. Selective location-based identity communication
US11409407B2 (en) 2017-04-27 2022-08-09 Snap Inc. Map-based graphical user interface indicating geospatial activity metrics
US11893647B2 (en) 2017-04-27 2024-02-06 Snap Inc. Location-based virtual avatars
US10467147B1 (en) 2017-04-28 2019-11-05 Snap Inc. Precaching unlockable data elements
US10803120B1 (en) 2017-05-31 2020-10-13 Snap Inc. Geolocation based playlists
US11475254B1 (en) 2017-09-08 2022-10-18 Snap Inc. Multimodal entity identification
US10740974B1 (en) 2017-09-15 2020-08-11 Snap Inc. Augmented reality system
US10499191B1 (en) 2017-10-09 2019-12-03 Snap Inc. Context sensitive presentation of content
US10573043B2 (en) 2017-10-30 2020-02-25 Snap Inc. Mobile-based cartographic control of display content
US11265273B1 (en) 2017-12-01 2022-03-01 Snap, Inc. Dynamic media overlay with smart widget
US11017173B1 (en) 2017-12-22 2021-05-25 Snap Inc. Named entity recognition visual context and caption data
US10678818B2 (en) 2018-01-03 2020-06-09 Snap Inc. Tag distribution visualization system
US11507614B1 (en) 2018-02-13 2022-11-22 Snap Inc. Icon based tagging
US10979752B1 (en) 2018-02-28 2021-04-13 Snap Inc. Generating media content items based on location information
US10885136B1 (en) 2018-02-28 2021-01-05 Snap Inc. Audience filtering system
US10327096B1 (en) 2018-03-06 2019-06-18 Snap Inc. Geo-fence selection system
EP3766028A1 (en) 2018-03-14 2021-01-20 Snap Inc. Generating collectible items based on location information
US11163941B1 (en) 2018-03-30 2021-11-02 Snap Inc. Annotating a collection of media content items
US10219111B1 (en) 2018-04-18 2019-02-26 Snap Inc. Visitation tracking system
US10896197B1 (en) 2018-05-22 2021-01-19 Snap Inc. Event detection system
US10679393B2 (en) 2018-07-24 2020-06-09 Snap Inc. Conditional modification of augmented reality object
US10997760B2 (en) 2018-08-31 2021-05-04 Snap Inc. Augmented reality anthropomorphization system
US10698583B2 (en) 2018-09-28 2020-06-30 Snap Inc. Collaborative achievement interface
US10778623B1 (en) 2018-10-31 2020-09-15 Snap Inc. Messaging and gaming applications communication platform
US10939236B1 (en) 2018-11-30 2021-03-02 Snap Inc. Position service to determine relative position to map features
US11199957B1 (en) 2018-11-30 2021-12-14 Snap Inc. Generating customized avatars based on location information
US11032670B1 (en) 2019-01-14 2021-06-08 Snap Inc. Destination sharing in location sharing system
US10939246B1 (en) 2019-01-16 2021-03-02 Snap Inc. Location-based context information sharing in a messaging system
US11294936B1 (en) 2019-01-30 2022-04-05 Snap Inc. Adaptive spatial density based clustering
US11972529B2 (en) 2019-02-01 2024-04-30 Snap Inc. Augmented reality system
US10936066B1 (en) 2019-02-13 2021-03-02 Snap Inc. Sleep detection in a location sharing system
US10838599B2 (en) 2019-02-25 2020-11-17 Snap Inc. Custom media overlay system
US10964082B2 (en) 2019-02-26 2021-03-30 Snap Inc. Avatar based on weather
US10852918B1 (en) 2019-03-08 2020-12-01 Snap Inc. Contextual information in chat
US11868414B1 (en) 2019-03-14 2024-01-09 Snap Inc. Graph-based prediction for contact suggestion in a location sharing system
US11852554B1 (en) 2019-03-21 2023-12-26 Snap Inc. Barometer calibration in a location sharing system
US11249614B2 (en) 2019-03-28 2022-02-15 Snap Inc. Generating personalized map interface with enhanced icons
US10810782B1 (en) 2019-04-01 2020-10-20 Snap Inc. Semantic texture mapping system
US10560898B1 (en) 2019-05-30 2020-02-11 Snap Inc. Wearable device location systems
US10582453B1 (en) 2019-05-30 2020-03-03 Snap Inc. Wearable device location systems architecture
US10893385B1 (en) 2019-06-07 2021-01-12 Snap Inc. Detection of a physical collision between two client devices in a location sharing system
US11307747B2 (en) 2019-07-11 2022-04-19 Snap Inc. Edge gesture interface with smart interactions
US11821742B2 (en) 2019-09-26 2023-11-21 Snap Inc. Travel based notifications
US11218838B2 (en) 2019-10-31 2022-01-04 Snap Inc. Focused map-based context information surfacing
US11128715B1 (en) 2019-12-30 2021-09-21 Snap Inc. Physical friend proximity in chat
US11429618B2 (en) 2019-12-30 2022-08-30 Snap Inc. Surfacing augmented reality objects
US10880496B1 (en) 2019-12-30 2020-12-29 Snap Inc. Including video feed in message thread
US11343323B2 (en) 2019-12-31 2022-05-24 Snap Inc. Augmented reality objects registry
US11169658B2 (en) 2019-12-31 2021-11-09 Snap Inc. Combined map icon with action indicator
US11228551B1 (en) 2020-02-12 2022-01-18 Snap Inc. Multiple gateway message exchange
EP4104450A4 (en) * 2020-02-13 2024-01-24 Ssimwave Inc DISTRIBUTED MEASUREMENT OF LATENCY AND SYNCHRONIZATION DELAY BETWEEN AUDIO/VIDEO STREAMS
US11516167B2 (en) 2020-03-05 2022-11-29 Snap Inc. Storing data based on device location
US11619501B2 (en) 2020-03-11 2023-04-04 Snap Inc. Avatar based on trip
US11430091B2 (en) 2020-03-27 2022-08-30 Snap Inc. Location mapping for large scale augmented-reality
US10956743B1 (en) 2020-03-27 2021-03-23 Snap Inc. Shared augmented reality system
US11314776B2 (en) 2020-06-15 2022-04-26 Snap Inc. Location sharing using friend list versions
US11503432B2 (en) 2020-06-15 2022-11-15 Snap Inc. Scalable real-time location sharing framework
US11483267B2 (en) 2020-06-15 2022-10-25 Snap Inc. Location sharing using different rate-limited links
US11290851B2 (en) 2020-06-15 2022-03-29 Snap Inc. Location sharing using offline and online objects
US11308327B2 (en) 2020-06-29 2022-04-19 Snap Inc. Providing travel-based augmented reality content with a captured image
US11349797B2 (en) 2020-08-31 2022-05-31 Snap Inc. Co-location connection service
US11606756B2 (en) 2021-03-29 2023-03-14 Snap Inc. Scheduling requests for location data
US11645324B2 (en) 2021-03-31 2023-05-09 Snap Inc. Location-based timeline media content system
US11829834B2 (en) 2021-10-29 2023-11-28 Snap Inc. Extended QR code
US12001750B2 (en) 2022-04-20 2024-06-04 Snap Inc. Location-based shared augmented reality experience system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08289333A (ja) 1995-04-14 1996-11-01 Nippon Telegr & Teleph Corp <Ntt> 音声映像総合品質推定方法
JP2001298428A (ja) 2000-04-14 2001-10-26 Genista Corp 通信・放送ネットワークを介した信号伝送の品質評価システム、端末、端末の制御方法、ならびに、情報記録媒体
JP2005244321A (ja) * 2004-02-24 2005-09-08 Nippon Telegr & Teleph Corp <Ntt> 音声・映像通信サービス品質推定方法及びその装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5446492A (en) * 1993-01-19 1995-08-29 Wolf; Stephen Perception-based video quality measurement system
US5953049A (en) * 1996-08-02 1999-09-14 Lucent Technologies Inc. Adaptive audio delay control for multimedia conferencing
DE69801165T2 (de) * 1997-10-22 2002-03-28 British Telecomm Signalverarbeitung
EP1046281B1 (en) * 1998-01-07 2002-09-11 Thomson Licensing S.A. Apparatus for providing a video lip sync delay and method therefore
JP4414094B2 (ja) 1998-06-29 2010-02-10 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー 通信システムの動作特性
US6453336B1 (en) * 1998-09-14 2002-09-17 Siemens Information And Communication Networks, Inc. Video conferencing with adaptive client-controlled resource utilization
JP3586719B2 (ja) * 2000-03-23 2004-11-10 日本電信電話株式会社 音声映像通信の品質監視装置および品質監視方法ならびに該方法を記録した記録媒体
EP1139665A1 (en) * 2000-03-29 2001-10-04 Deutsche Thomson-Brandt Gmbh Method and apparatus for changing the output delay of audio or video data encoding
EP1244312A1 (en) 2001-03-23 2002-09-25 BRITISH TELECOMMUNICATIONS public limited company Multimodal quality assessment
JP2004080177A (ja) * 2002-08-13 2004-03-11 Nippon Telegr & Teleph Corp <Ntt> 映像品質評価装置、映像品質評価方法、映像品質評価プログラム及びそのプログラムを記録した記録媒体
JP4510583B2 (ja) 2004-10-28 2010-07-28 日本電信電話株式会社 双方向マルチモーダルサービス品質推定装置および方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08289333A (ja) 1995-04-14 1996-11-01 Nippon Telegr & Teleph Corp <Ntt> 音声映像総合品質推定方法
JP2001298428A (ja) 2000-04-14 2001-10-26 Genista Corp 通信・放送ネットワークを介した信号伝送の品質評価システム、端末、端末の制御方法、ならびに、情報記録媒体
JP2005244321A (ja) * 2004-02-24 2005-09-08 Nippon Telegr & Teleph Corp <Ntt> 音声・映像通信サービス品質推定方法及びその装置

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
HAYASHI T. ET AL.: "B-11-12 Onsei.eizo Hinshitsu no Sogo Sayo o Koryo shita Multimodal Hinshitsu Suitei Model", PROCEEDINGS OF THE 2004 IEICE GENERAL CONFERENCE, 2004, pages 505, XP003009800 *
HAYASHI T. ET AL.: "Frame Rate no Henka ga Dogazo Shukan Hinshitsu ni Oyobosu Eikyo", NTT R & D, vol. 46, no. 8, 1997, pages 793 - 800, XP003010102 *
ITU-T RECOMMENDATION, 5 July 2005 (2005-07-05), pages 911, Retrieved from the Internet <URL:http://www.itu.int/rec/recommendation.asp?type=folders& lang=e&parent=T-REC-P.911>
See also references of EP1924101A4 *
VQEG (VIDEO QUALITY EXPERT GROUP, 5 July 2005 (2005-07-05), Retrieved from the Internet <URL:http://www.vqeg.org>
YAMAGISHI K. ET AL.: "Sohoko Multimodal Service ni Taisuru Sogo Hinshitsu Suitei Model no Ichikento", IEICE TECHNICAL REPORT, vol. 104, 2004, pages 49 - 53, XP003010101 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009164727A (ja) * 2007-12-28 2009-07-23 Nippon Telegr & Teleph Corp <Ntt> マルチメディア総合品質推定方法および装置
JP2012004779A (ja) * 2010-06-16 2012-01-05 Nippon Telegr & Teleph Corp <Ntt> 会話種別判定装置、マルチメディア品質推定装置、会話種別判定方法およびマルチメディア品質推定方法
JP2015526958A (ja) * 2012-08-22 2015-09-10 ▲ホア▼▲ウェイ▼技術有限公司 マルチメディア品質監視方法および装置
US9402074B2 (en) 2012-08-22 2016-07-26 Huawei Technologies Co., Ltd. Multimedia quality monitoring method, and device
US10116929B2 (en) 2012-08-22 2018-10-30 Huawei Technologies Co., Ltd. Multimedia quality monitoring method, and device
JP2014110525A (ja) * 2012-11-30 2014-06-12 Yamaha Corp ネットワーク音楽セッションにおける遅延測定方法及び装置

Also Published As

Publication number Publication date
CA2617893C (en) 2011-05-03
US8405773B2 (en) 2013-03-26
EP1924101A4 (en) 2011-09-14
JP4486130B2 (ja) 2010-06-23
CN101248679B (zh) 2010-07-14
CN101248679A (zh) 2008-08-20
JPWO2007029731A1 (ja) 2009-03-19
KR100947275B1 (ko) 2010-03-11
CA2617893A1 (en) 2007-03-15
EP1924101A1 (en) 2008-05-21
US20090096874A1 (en) 2009-04-16
KR20080028483A (ko) 2008-03-31
EP1924101B1 (en) 2013-04-03

Similar Documents

Publication Publication Date Title
WO2007029731A1 (ja) 映像コミュニケーション品質推定装置、方法、およびプログラム
CA2604053C (en) Video quality estimation appartus, method, and program
US8154602B2 (en) Video quality estimation apparatus, method, and program
US20090262198A1 (en) Video Quality Estimation Apparatus, Method, and Program
JP4490374B2 (ja) 映像品質評価装置および方法
JP4787210B2 (ja) 映像品質推定方法、装置、およびプログラム
JP4510583B2 (ja) 双方向マルチモーダルサービス品質推定装置および方法
JP4451856B2 (ja) 映像品質推定装置、方法、およびプログラム
JP4027330B2 (ja) 音声・映像通信サービス品質推定方法及びその装置
JP4802183B2 (ja) マルチメディア総合品質推定方法および装置
WO2019194034A1 (ja) 視聴行動推定装置、視聴行動推定方法及びプログラム
JP2007306109A (ja) 映像品質パラメータ推定装置、方法、およびプログラム
JP4740967B2 (ja) 映像品質推定装置、方法、およびプログラム
Yamagishi et al. Verification of video quality opinion model for videophone services
JP4408120B2 (ja) 映像品質推定装置、方法、およびプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680030787.X

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007534445

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2006797532

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2617893

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 1020087003084

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 11990256

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE