-
Die Erfindung betrifft das Abschätzen der Qualität und/oder die Komprimierung von Videodaten bei einer Anwendung, bei der Videodaten aus einer Kamera einem weiteren Endgerät, beispielsweise einem Consumer-Gerät, einem Mobiltelefon, einem Computer, einer Anzeigeeinrichtung in einem Fahrzeug oder dergleichen über eine bandbreitenbegrenzte drahtlose Kommunikationsverbindung zur Verfügung gestellt werden sollen.
-
Der Endnutzer soll die Möglichkeit erhalten, aus den übertragenen Videodaten Rückschlüsse auf eine Umgebungsinformation zu erhalten, um beispielsweise eine Stausituation und/oder eine Wetterbedingung aus dem übertragenen Videobild zu erkennen.
-
Da eine drahtlose Kommunikationsverbindung lediglich über eine beschränkte Bandbreite verfügt, müssen die Videodaten komprimiert werden. Im Stand der Technik sind objektive Video-Qualitäts-Modelle (VQM) bekannt, die eine Veränderung der Codierung von Videos im örtlichen und zeitlichen Bereich auf eine subjektive Nutzerzufriedenheit (Quality-of-Experience-Modelle; QoE; Modell, der vom Benutzer wahrgenommenen Qualität) abbilden, indem beispielsweise ein Quantisierungsparameter, Auflösung und/oder eine Rahmenrate (Frame-Rate) geändert werden. Ein Beispiel für ein derartiges Qualitätsmodell ist beispielsweise STVQM (Spatio-Temporal Video Quality Metric; örtliche temporäre Videoqualitätsmetrik) von
Peng, Yang und Eckehard Steinbach, "A novel fullreference video quality metric and its application to wireless video transmission", Image Processing (ICIP), 2011 18th IEEE International Conference on IEEE, 2011, welches neben den Codierparametern, PSNR (peak signal-to-noise ratio; Spitzenwert des Signalrausabstandes) und der Rahmenrate (Frame-Rate), die auf den Videoinhalt beruhenden Größen TA (temporal activity; zeitliche Aktivität) und SA (spatial activity; örtlicheAktivität) nutzt, um die subjektive Nutzerzufriedenheit zu bestimmen. Eine Berechnung dieser Parameter basiert auf komplexen Algorithmen, beispielsweise dem Sobel-Operator zur Kantendetektion, welcher zur Bestimmung der SA-Werte erforderlich ist.
-
-
Ein Video-Qualitäts-Modell des Standes der Technik, beispielsweise die zuvor genannten STVQM und VQMTQ, basieren auf inhaltsabhängigen Größen eines Videos bzw. Videodatenstroms. Dies ist nachteilig, da zur Bestimmung der Modellgrößen eine direkte Analyse der Video-Rahmen (Video-Frames) erforderlich ist. Dies erfordert eine weitere Berechnungseinheit. Ferner ist nachteilig, dass die Bestimmung der Video-Qualitäts-Modellparameter auf rechenintensiven Algorithmen basiert, die zusätzlich zur Encodierparametern (Codierparametern) erforderlich sind. Im STVQM ist es beispielsweise erforderlich, zur Abschätzung der SA-Werte für die Kantendetektion eine rechenintensive Bestimmung der Kanten auf Grundlage eines Sobel-Operators durchzuführen. Zur Bestimmung dieser Größen ist folglich eine leistungsfähige Berechnungseinheit erforderlich.
-
Bei einer Anwendung in einem Kraftfahrzeug könnte dies beispielsweise bedeuten, dass ein deutlich leistungsfähigeres Steuergerät oder ein weiteres Steuergerät erforderlich ist, was zu Mehrkosten führen kann.
-
Die Erfindung stellt sich zur Aufgabe, ein Verfahren und eine Vorrichtung zum Schätzen der Qualität, beispielsweise der vom Benutzer wahrgenommenen Qualität, von Videodaten zu schaffen.
-
Die Aufgabe der Erfindung wird durch ein Verfahren zum Schätzen der Qualität von Videodaten nach Anspruch 1, ein Computerprogrammprodukt nach Anspruch 5, eine Videoauswertevorrichtung nach Anspruch 6 und ein Kraftfahrzeug nach Anspruch 10 gelöst. Die abhängigen Ansprüche beanspruchen bevorzugte Ausführungsformen.
-
Ein Verfahren zum Schätzen der Qualität der Videodaten umfasst das Erfassen von Videodaten von einem Bildsensor und das Ermitteln eines subjektiven Qualitätsmodells der Videodaten. Erfindungsgemäß umfasst der Schritt des Ermittelns des subjektiven Qualitätsmodells der Videodaten den Schritt des Anpassens des subjektiven Qualitätsmodells mittels Daten, die durch zumindest einen weiteren Sensor ermittelt werden. Der Sensor erfasst Umgebungsdaten. Aus den Umgebungsdaten kann geschätzt werden, welche subjektive Qualität die Videodaten aufweisen und/oder wie stark die Videodaten komprimiert werden müssen. Ferner kann anhand der Umgebungsdaten geschätzt werden, welcher Komprimierungsalgorithmus verwendet werden soll und/oder wie der Komprimierungsalgorithmus parametriert werden soll. Dadurch müssen die Videodaten nicht analysiert werden, wodurch das Ermitteln des subjektiven Qualitätsmodells der Videodaten weniger Rechnerleistung erfordert. Das subjektive Videoqualitätsmodell kann als Eingangsgröße für die Komprimierung der Videodaten verwendet werden, beispielsweise für die Steuerung der Rahmen-Rate, der Auflösung und/oder der Quantisierungsparameter.
-
Der Sensor kann die Geschwindigkeit des Bildsensors gegenüber der Umgebung, die Geschwindigkeit zumindest eines Objektes gegenüber dem Bildsensor, den Ort des Bildsensors, ein ortsabhängiges Umfeldmodell des Bildsensors, das Wetter in der Umgebung des Bildsensors einen Kontext der Umgebung des Bildsensors und/oder ein beliebiges ortsabhängiges Szenario ermitteln. Ferner kann der Sensor die Geschwindigkeit des Kraftfahrzeuges, an dem der Sensor angeordnet ist, die Geschwindigkeit zumindest eines anderen Kraftfahrzeuges, an dem der Sensor angeordnet ist, den Ort des Kraftfahrzeuges, an dem der Sensor angeordnet ist, ein ortsabhängiges Fahrzeugumfeldmodell, an dem der Sensor angeordnet ist, und/oder das Wetter in der Umgebung des Kraftfahrzeuges, an dem der Sensor angeordnet ist, ermitteln. Der Sensor kann die zuvor genannten Daten direkt ermitteln. Es ist aber auch möglich, dass der Sensor lediglich den Ort des Bildsensors und/oder des Kraftfahrzeuges, an dem der Sensor angeordnet ist, beispielsweise mittels eines satellitengestützten Verfahrens, ermittelt und das Umfeldmodell sowie das ortsabhängige Szenario sowie das Wetter für den jeweiligen Ort aus einer Datenbank abruft.
-
Der Schritt des Anpassens des subjektiven Videoqualitätsmodells und/oder der Komprimierung kann das Parametrieren mittels eines ersten Parameters und/oder eines zweiten Parameters umfassen, wobei der erste Parameter von einer örtlichen Aktivität der Umgebung des Bildsensors abhängt und der zweite Parameter von einer zeitlichen Aktivität der Umgebung des Bildsensors abhängt. Der erste Parameter und/oder der zweite Parameter können auf Grundlage der Geschwindigkeit des Bildsensors gegenüber der Umgebung, der Geschwindigkeit zumindest eines Objektes gegenüber dem Bildsensor, des Ortes des Bildsensors, eines ortsabhängigen Umfeldmodells des Bildsensors, des Wetters in der Umgebung des Bildsensors, eines Kontextes der Umgebung des Bildsensors, eines ortsabhängigen Szenarios, der Geschwindigkeit des Kraftfahrzeuges, der Geschwindigkeit zumindest eines anderen Kraftfahrzeuges, des Ortes des Kraftfahrzeuges, eines ortsabhängigen Fahrzeugumfeldmodells des und/oder des Wetters in der Umgebung des Kraftfahrzeuges bestimmt werden.
-
Die Erfindung betrifft auch ein Computerprogrammprodukt, das, wenn es in einen Prozessor eines Computers mit einem Speicher geladen wird, das zuvor beschriebene Verfahren ausführt.
-
Erfindungsgemäß wird die subjektive Qualität des dargestellten Videostroms für den Fall einer beschränkten Übertragungskapazität durch die Nutzung eines Quality-of-Experience-Modells (QoE; subjektives, wahrnehmungsbasiertes Qualitätsmodell) verbessert. Die Erfinder der vorliegenden Erfindung haben erkannt, dass die Komprimierung eines Videodatenstroms durch die Ermittlung und/oder Berücksichtigung eines Video-Qualitäts-Modells, das auf Umgebungsdaten aus dem Kontext der aufnehmenden Kamera beruht, verbessert und/oder vereinfacht werden kann. Der Kontext des Videos kann die Eigenschaften der Kamera umfassen, das das Video aufnimmt. Der Kontext des Videos umfasst Umgebungseigenschaften, die in einem Umfeldmodell abgebildet werden können, beispielsweise die Geschwindigkeit, die Helligkeit, das Wetter, das Szenario und dergleichen.
-
Die Aufgabe der Erfindung wird auch durch eine Videoqualitätsermittlungsvorrichtung gelöst, die dazu ausgebildet ist, die Qualität von Videodaten zu ermitteln. Die Videoqualitätsermittlungsvorrichtung umfasst eine Empfangseinrichtung, die dazu ausgebildet ist, Videodaten zu empfangen, und eine Qualitätsmodellermittlungseinrichtung, die dazu ausgebildet ist, ein subjektives Qualitätsmodell der Videodaten zu ermitteln. Erfindungsgemäß ist die Qualitätsmodellermittlungseinrichtung dazu ausgebildet, das subjektive Qualitätsmodell auf Grundlage von Daten anzupassen, die durch zumindest einen weiteren Sensor ermittelt werden.
-
Die Videoqualitätsermittlungsvorrichtung kann so weitergebildet sein, wie zuvor hinsichtlich des Verfahrens beschrieben wurde. Ferner kann das zuvor beschriebene Verfahren so weitergebildet sein, wie nachfolgend hinsichtlich der Videoqualitätsermittlungsvorrichtung beschrieben wird.
-
Die Empfangseinrichtung und Qualitätsmodellermittlungseinrichtung müssen nicht in einer Vorrichtung ausgebildet sein, sondern können auf zwei Vorrichtungen verteilt sein. Die Empfangseinrichtung und die Qualitätsmodellermittlungseinrichtung müssen nicht so gekoppelt sein, dass Signale, Informationen und dergleichen ausgetauscht werden. Es muss lediglich sichergestellt werden, dass das subjektive Qualitätsmodell den Videodaten zugeordnet wird. Das Verfahren und die Vorrichtung können somit den Schritt des Zuordnens des subjektiven Qualitätsmodells zu den Videodaten ausführen.
-
Das ermittelte subjektive Qualitätsmodell kann an eine Videokomprimierungsvorrichtung übergeben werden, wobei ein Komprimierungsalgorithmus auf Grundlage des ermittelten subjektiven Qualitätsmodells ausgewählt wird und/oder der Komprimierungsalgorithmus auf Grundlage des ermittelten subjektiven Qualitätsmodells parametriert wird. Bei bestimmten Codierparametern bzw. Encodierparametern gilt, dass das Videoqualitätsmodell eine Funktion der Quantisierung, Rahmen-Rate und/oder Auflösung ist. Der Sensor kann dazu ausgebildet sein, zumindest die Geschwindigkeit des Bildsensors gegenüber der Umgebung, die Geschwindigkeit zumindest eines Objektes gegenüber dem Bildsensor, den Ort des Bildsensors, ein ortsabhängiges Umfeldmodell des Bildsensors, ein ortsabhängiges Szenario, das Wetter in der Umgebung des Bildsensors, einen Kontext der Umgebung des Bildsensors, die Geschwindigkeit des Kraftfahrzeuges, die Geschwindigkeit zumindest eines anderen Kraftfahrzeuges, den Ort des Kraftfahrzeuges, ein ortsabhängiges Fahrzeugumfeldmodell und/oder das Wetter in der Umgebung des Kraftfahrzeuges zu ermitteln. Der Sensor kann die oben genannten Größen direkt ermitteln oder alternativ oder zusätzlich den Ort des Bildsensors bzw. des Kraftfahrzeuges ermitteln, und die oben genannten Größen für den jeweiligen Ort aus einer Datenbank abrufen.
-
Die Videoqualitätsmodellermittlungseinrichtung kann die Anpassung des subjektiven Qualitätsmodells mittels eines ersten Parameters und/oder eines zweiten Parameters parametrieren, wobei der erste Parameter von einer örtlichen Aktivität der Umgebung des Bildsensors abhängt und der zweite Parameter von einer zeitlichen Aktivität der Umgebung des Bildsensors abhängt. Der erste und/oder der zweite Parameter können auf Grundlage zumindest der Geschwindigkeit des Bildsensors gegenüber der Umgebung, der Geschwindigkeit zumindest eines Objektes gegenüber dem Bildsensor, des Ortes des Bildsensors, eines ortsabhängigen Umfeldmodells des Bildsensors, eines ortsabhängigen Szenarios, des Wetters in der Umgebung des Bildsensors, des Kontextes der Umgebung des Bildsensors, der Geschwindigkeit des Kraftfahrzeuges, der Geschwindigkeit zumindest eines anderen Kraftfahrzeuges, des Ortes des Kraftfahrzeuges, eines ortsabhängigen Fahrzeugumfeldmodells und/oder des Wetters in der Umgebung des Kraftfahrzeuges bestimmt werden.
-
Die Erfindung betrifft auch ein Kraftfahrzeug mit der zuvor beschriebenen Videoauswertevorrichtung.
-
Das Verfahren und die Videoauswertevorrichtung werden nun im Kontext der Anmeldung im Zusammenspiel mit einem Kraftfahrzeug beschrieben. Die Anmelder behalten sich jedoch vor, das Schutzbegehren auch in anderen Anwendungen und allgemein zu beanspruchen.
-
Die Erfindung wird nun unter Bezugnahme auf 1 erläutert, die eine exemplarische und nicht beschränkende Ausführungsform zeigt, wobei gilt:
-
1 zeigt eine Anwendung der vorliegenden Erfindung beim Übertragen von Bewegtbildern zwischen zwei Kraftfahrzeugen.
-
Die Erfinder der vorliegenden Erfindung schlagen vor, ein Video-Qualitäts-Modell über Kontextgrößen der Videoquelle auszuwählen, bestimmen und/oder zu parametrieren. Die Erfinder schlagen vor, eine Inhaltsabhängigkeit des Video-Qualitäts-Modells durch Kontextgrößen zu erfassen. Beispielsweise können inhaltsabhängige Elemente der Parametrierung, beispielsweise die zeitliche Abhängigkeit (TA) und die örtliche Abhängigkeit (SA) durch Kontextgrößen realisiert werden. Mit anderen Worten: VQM = f(Kontext);
-
Im Ergebnis liegt ein Video-Qualitäts-Modell vor, das nicht auf inhaltsabhängigen Größen des Videos, beispielsweise von Werten, die aus dem Inhalt des Videos ermittelt werden, sondern vom Kontext des Bildsensors bzw. der Kamera des Quell-Videos abhängen. Dies kann beispielsweise bei der Übertragung eines Videostroms von einer Quelle zu einer Senke angewendet werden, bei der eine Anpassung der Codierung aufgrund von Verbindungseigenschaften, beispielsweise Bandbreite, zwischen Quelle und Senke vorgenommen werden muss.
-
Es versteht sich, dass die relevanten Kontextgrößen vom Inhalt der Videodaten und von der Umgebung der Quelle des Videos abhängen. Dieser Zusammenhang wird anhand des vorliegenden Beispiels im Rahmen der Komprimierung der Videodaten erläutert.
-
Ein erstes Kraftfahrzeug 4, beispielsweise ein Straßenfahrzeug, umfasst eine Frontkamera 20 und eine Komprimierungseinrichtung 24, die die von der Kamera 20 erfassten Bewegtbilderdaten (Videodaten) komprimiert. Das erste Kraftfahrzeug 4 sendet die komprimierten Videodaten über eine Antenne 26 und eine Mobilfunkverbindung 14 mittels eines Mobilfunknetzes 8 an ein zweites Kraftfahrzeug 6. Das zweite Kraftfahrzeug 6 empfängt die komprimierten Videodaten mittels einer Antenne 28. Die komprimierten Videodaten werden in einer Entkomprimierungseinrichtung 30 entkomprimiert und auf einer Anzeigeeinrichtung 22, beispielsweise einem Monitor, dargestellt. In diesem Fall werden die Videodaten direkt vom ersten Kraftfahrzeug 4 über das Mobilfunknetz 8 an das zweite Kraftfahrzeug 6 übertragen. Der Fahrer oder ein Navigationssystem des zweiten Kraftfahrzeuges 6 kann anhand der Bilddaten die Verkehrssituation und/oder die Wettersituation in der Umgebung des ersten Kraftfahrzeuges 6 beurteilen und eine Route gemäß dieser Beurteilung planen.
-
Das erste Kraftfahrzeug 4 kann die komprimierten Videodaten über eine zweite Mobilfunkverbindung 16 mittels des Mobilfunknetzes 8 an einen zentralen Videoserver 12 senden, der die Videodaten in einer Datenbank 12 speichert. Das zweite Kraftfahrzeug kann über eine dritte Mobilfunkverbindung 18 mittels des Mobilfunknetzes 8 die Videodaten vom Videoserver 10 und dessen Datenbank abrufen und, beispielsweise zeitversetzt, auf dem Monitor 22 anzeigen oder an ein Navigationsgerät weiterleiten.
-
Im Rahmen einer Flottengemeinschaft eines Fahrzeugherstellers besteht die Möglichkeit, Bilddaten einer Fahrerassistenzkamera, die nach vorne gerichtet ist, eines Kraftfahrzeuges, beispielsweise eines anderen Kraftfahrzeuges zu betrachten, um einem Fahrer und/oder einem Navigationssystem Rückschlüsse auf das Verkehrsaufkommen vor dem ersten Fahrzeug 4 zu geben. Der Nutzer eines anderen Fahrzeuges, beispielsweise des Kraftfahrzeuges 6, ist an der Verkehrssituation in der Umgebung des ersten Kraftfahrzeuges 4 interessiert. Ein Übertragungssystem, beispielsweise ein Mobilfunknetz 8 kann durch ein adaptives und/oder dynamisches Streaming-System realisiert sein, das eine Anpassung eines Bandbreitenbedarfs des Videos an Endpunkt-zu-Endpunkt-Performance-Eigenschaften der drahtlosen Verbindung zwischen den beiden Kraftfahrzeugen 4, 6 erlaubt.
-
Das erste Kraftfahrzeug 4 kann einen Geschwindigkeitssensor 40 aufweisen, der die Geschwindigkeit v des Kraftfahrzeuges 4 ermittelt. Ferner weist das erste Kraftfahrzeug 4 einen Positionssensor 36 auf, der die aktuelle Position des ersten Kraftfahrzeuges 4 ermittelt, beispielsweise mittels eines satellitengestützten Ortungssystems. Ferner umfasst das erste Kraftfahrzeug 4 einen Frontumgebungssensor, beispielsweise ein Frontradar oder ein Lidar, das die Verkehrssituation vor dem ersten Kraftfahrzeug 4 erfassen kann, beispielsweise die Geschwindigkeit anderer Kraftfahrzeuge und/oder Objekte. Der Frontumgebungssensor kann ein Fahrzeugumfeldmodell (VEM; Vehicle Environment Modell) erstellen, das aus den Daten mehrerer Sensoren aggregiert wird. Im Umfeldmodell werden Objektlisten erzeugt, die beispielsweise weitere sich vor dem Fahrzeug befindliche Fahrzeuge und/oder andere Objekte beinhalten kann.
-
Ferner kann das erste Kraftfahrzeug 4 einen Wettersensor 42 aufweisen, der beispielsweise eine Temperatur, eine Niederschlagsmenge, Windverhältnisse etc. ermittelt.
-
Die Sensordaten des Frontumgebungssensors 32, des Positionssensors 36, des Geschwindigkeitssensors 40 und/oder des Wettersensor 42 werden an eine Videoqualitätsermittlungsvorrichtung 23 weitergeleitet. Die Videoqualitätsermittlungsvorrichtung 23 ermittelt ein subjektives Qualitätsmodell der Videodaten aufgrund der Sensordaten. Die Videoqualitätsermittlungsvorrichtung 23 muss hierzu die Videodaten nicht analysieren. Das subjektive Qualitätsmodell wird an die Komprimierungseinrichtung 24 weitergegeben, wobei ein Komprimierungsalgorithmus und/oder zumindest ein Parameter des Komprimierungsalgorithmus auf Grundlage des subjektiven Qualitätsmodells ausgewählt werden. Der Videoqualitätsermittlungsvorrichtung kann beispielsweise das Fahrzeugumfeldmodell von dem zumindest einen Sensor zur Verfügung gestellt werden.
-
Im Folgenden wird exemplarisch eine Ermittlung der inhaltsabhängigen Größen auf Grundlage des kontextabhängigen STVQM in der Videoqualitätsermittlungsvorrichtung 23 dargestellt. Die im Beispiel zur Verfügung gestellten Kontextgrößen sind die Geschwindigkeit v des ersten Kraftfahrzeuges 4 und das Szenario, in dem sich das erste Kraftfahrzeug 4 befindet (Stadt, Autobahn, Überland). Das Szenario kann beispielsweise mittels der Ortsinformation bestimmt werden, beispielsweise indem die aktuelle Ortsinformation an eine Kartendatenbank weitergeleitet wird.
-
Im Folgenden wird die Bestimmung der Parameter TA (zeitliche Aktivität) und SA (örtliche Aktivität) aufgrund der Kontextdaten des ersten Kraftfahrzeuges 4 ermittelt.
-
Eine derartige Bestimmung der Parameter TA und SA kann beispielhaft wie folgt durchgeführt werden: TA(Szenario, v) = gTA,1·f(Szenario) + gTA,2·f(v) + gTA,3; SA(Szenario) = gSA,1·f(Szenario) + gSA,2;
-
gTA,1, gTA,2, gTA,3, gSA,1, gSA,2 stellen hierbei trainierte Modellgrößen dar, v ist die Geschwindigkeit des Kraftfahrzeuges 4, f(Szenario) stellt eine Abbildung von Szenarien dar. Somit ergibt sich für das STVQM-Modell folgende Abhängigkeit: STVQM(TA, SA) = f(v, Szenario);
-
Die Erfinder haben ein kontextabhängiges VQM unter Berücksichtigung der oben erwähnten RTSV-Anwendung (RTSV: Read Time Street View; Straßenansicht in Echtzeit) und der Kontextgrößen entwickelt. Die RTSV-Anwendung gestattet es, Live-Bilder, die von einer Kamera eines Kraftfahrzeuges aufgenommen werden, an einen zentralen Server oder an ein anderes Kraftfahrzeug zu schicken.
-
Anhand dieser Bilder können Verkehrssituationen, Verkehrsbehinderungen und das Wetter am Ort eines Kraftfahrzeuges, dessen Kamera die Videodaten aufgenommen hat, beurteilt werden.
-
Die Funktionsabbildungen wurden hierbei wie folgt realisiert: f(Szenario) = 1, falls städtisches Szenario f(Szenario) = 0, falls Autobahn-/oder Überland-Szenario f(v) = 1,Vego ≥ 10 m / s; f(v) = 0,Vego < 10 m / s;
-
Hierbei haben sich beispielhaft folgende Parameter für TA-/SA-Abbildung ergeben:
gTA,1 | gTA,2 | gTA,3 | gSA,1 | gSA,2 |
10,62 | 4,66 | 4,48 | 10,62 | 4,66 |
-
Hieraus ergibt sich die folgende Performanz des entwickelten Modells (Kontext-STVQM) im Vergleich zu einem STVQM, der auf TA-/SA-Werten, die aus den Videorahmen (Inhalts-STVQM) bestimmt wurden:
| PC | RMSE |
Inhalts-STVQM | 0,9785 | 5,92 |
Kontext-STVQM | 0,9679 | 5,97 |
-
In einer vorteilhaften Ausprägung wird darüber hinaus ein Algorithmus eingesetzt, der das o. g. VQM-Modell auf Basis des Kontexts nutzt, um über die Mobilfunkverbindung der beiden Fahrzeuge hinweg einen optimalen Arbeitspunkt zur Maximierung der subjektiven Nutzerzufriedenheit zu gewährleisten.
-
Der Parameter TA kann mittels folgender Formel ermittelt werden, bei der zusätzlich zu der zuvor genannten Formel zur Ermittlung des Parameters TA auch die Geschwindigkeit v
AF anderer Fahrzeuge berücksichtigt wird und ein Parameter g
TA,AF ein Parameter für die TA-Abbildung der Geschwindigkeit v
AF anderer Fahrzeuge ist:
-
Die Erfindung bietet den Vorteil, dass durch Nutzung des zuvor beschriebenen Verfahrens und der zuvor beschriebenen Videoqualitätsermittlungsvorrichtung ein Video-Qualitäts-Modell realisiert werden kann, das auf bereits vorhandenen Umgebungssensordaten aus den VEM beruht. Hierdurch kann die Schätzung der zu erwartenden Nutzerzufriedenheit, beispielsweise die subjektive Dienstgüte oder die durch einen Nutzer erlebte Güte (QoE) erheblich vereinfacht werden, da die Berechnung des Video-Qualitäts-Modells im Wesentlichen in Echtzeit realisiert werden kann und/oder weitere Berechnungseinheiten (leistungsfähigere Computer zum Ermitteln der Komprimierungsparameter aus den Videodaten, eingespart werden können).
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Nicht-Patentliteratur
-
- Peng, Yang und Eckehard Steinbach, "A novel fullreference video quality metric and its application to wireless video transmission", Image Processing (ICIP), 2011 18th IEEE International Conference on IEEE, 2011 [0003]
- Yen-Fu Ou, Zanhn Ma, Tao Liu und Yao Wang, "Perceptual Quality Assessment of Video Considering Both Frame Rate and Quantization Artifacts", IEEE Trans. Circuit Syst. Video Technol. Vol. 21, no. 3, pp. 286–298, März 2011 [0004]