DE102014100431A1 - Abschätzung der subjektiven Dienstgüte eines Videostreams basierend auf Umgebungsdaten - Google Patents

Abschätzung der subjektiven Dienstgüte eines Videostreams basierend auf Umgebungsdaten Download PDF

Info

Publication number
DE102014100431A1
DE102014100431A1 DE102014100431.0A DE102014100431A DE102014100431A1 DE 102014100431 A1 DE102014100431 A1 DE 102014100431A1 DE 102014100431 A DE102014100431 A DE 102014100431A DE 102014100431 A1 DE102014100431 A1 DE 102014100431A1
Authority
DE
Germany
Prior art keywords
image sensor
motor vehicle
video data
parameter
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014100431.0A
Other languages
English (en)
Inventor
Christian Lottermann
Alexander Machado
Eckehard Steinbach
Damien SCHROEDER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Technische Universitaet Muenchen
Original Assignee
Bayerische Motoren Werke AG
Technische Universitaet Muenchen
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG, Technische Universitaet Muenchen filed Critical Bayerische Motoren Werke AG
Priority to DE102014100431.0A priority Critical patent/DE102014100431A1/de
Publication of DE102014100431A1 publication Critical patent/DE102014100431A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Die Erfindung offenbart ein Verfahren und eine Vorrichtung zum Auswerten von Videodaten, das bzw. die auf folgenden Schritten beruht: – Erfassen von Videodaten von einem Bildsensor; und – Ermitteln eines subjektiven Qualitätsmodells der Videodaten; wobei der Schritt des Ermittelns des subjektiven Qualitätsmodells der Videodaten den Schritt des Anpassens der subjektiven Qualitätsmodells mittels Daten umfasst, die durch zumindest einen weiteren Sensor ermittelt werden.

Description

  • Die Erfindung betrifft das Abschätzen der Qualität und/oder die Komprimierung von Videodaten bei einer Anwendung, bei der Videodaten aus einer Kamera einem weiteren Endgerät, beispielsweise einem Consumer-Gerät, einem Mobiltelefon, einem Computer, einer Anzeigeeinrichtung in einem Fahrzeug oder dergleichen über eine bandbreitenbegrenzte drahtlose Kommunikationsverbindung zur Verfügung gestellt werden sollen.
  • Der Endnutzer soll die Möglichkeit erhalten, aus den übertragenen Videodaten Rückschlüsse auf eine Umgebungsinformation zu erhalten, um beispielsweise eine Stausituation und/oder eine Wetterbedingung aus dem übertragenen Videobild zu erkennen.
  • Da eine drahtlose Kommunikationsverbindung lediglich über eine beschränkte Bandbreite verfügt, müssen die Videodaten komprimiert werden. Im Stand der Technik sind objektive Video-Qualitäts-Modelle (VQM) bekannt, die eine Veränderung der Codierung von Videos im örtlichen und zeitlichen Bereich auf eine subjektive Nutzerzufriedenheit (Quality-of-Experience-Modelle; QoE; Modell, der vom Benutzer wahrgenommenen Qualität) abbilden, indem beispielsweise ein Quantisierungsparameter, Auflösung und/oder eine Rahmenrate (Frame-Rate) geändert werden. Ein Beispiel für ein derartiges Qualitätsmodell ist beispielsweise STVQM (Spatio-Temporal Video Quality Metric; örtliche temporäre Videoqualitätsmetrik) von Peng, Yang und Eckehard Steinbach, "A novel fullreference video quality metric and its application to wireless video transmission", Image Processing (ICIP), 2011 18th IEEE International Conference on IEEE, 2011, welches neben den Codierparametern, PSNR (peak signal-to-noise ratio; Spitzenwert des Signalrausabstandes) und der Rahmenrate (Frame-Rate), die auf den Videoinhalt beruhenden Größen TA (temporal activity; zeitliche Aktivität) und SA (spatial activity; örtlicheAktivität) nutzt, um die subjektive Nutzerzufriedenheit zu bestimmen. Eine Berechnung dieser Parameter basiert auf komplexen Algorithmen, beispielsweise dem Sobel-Operator zur Kantendetektion, welcher zur Bestimmung der SA-Werte erforderlich ist.
  • Ein weiteres Beispiel ist der VQMTQ-Algorithmus von Yen-Fu Ou, Zanhn Ma, Tao Liu und Yao Wang, "Perceptual Quality Assessment of Video Considering Both Frame Rate and Quantization Artifacts", IEEE Trans. Circuit Syst. Video Technol. Vol. 21, no. 3, pp. 286–298, März 2011, bei dem die Bestimmung der zeitlichen Veränderung auf der Bewegungsaktivität beruht, wobei für dieses Verfahren auch komplexe Algorithmen verwendet werden.
  • Ein Video-Qualitäts-Modell des Standes der Technik, beispielsweise die zuvor genannten STVQM und VQMTQ, basieren auf inhaltsabhängigen Größen eines Videos bzw. Videodatenstroms. Dies ist nachteilig, da zur Bestimmung der Modellgrößen eine direkte Analyse der Video-Rahmen (Video-Frames) erforderlich ist. Dies erfordert eine weitere Berechnungseinheit. Ferner ist nachteilig, dass die Bestimmung der Video-Qualitäts-Modellparameter auf rechenintensiven Algorithmen basiert, die zusätzlich zur Encodierparametern (Codierparametern) erforderlich sind. Im STVQM ist es beispielsweise erforderlich, zur Abschätzung der SA-Werte für die Kantendetektion eine rechenintensive Bestimmung der Kanten auf Grundlage eines Sobel-Operators durchzuführen. Zur Bestimmung dieser Größen ist folglich eine leistungsfähige Berechnungseinheit erforderlich.
  • Bei einer Anwendung in einem Kraftfahrzeug könnte dies beispielsweise bedeuten, dass ein deutlich leistungsfähigeres Steuergerät oder ein weiteres Steuergerät erforderlich ist, was zu Mehrkosten führen kann.
  • Die Erfindung stellt sich zur Aufgabe, ein Verfahren und eine Vorrichtung zum Schätzen der Qualität, beispielsweise der vom Benutzer wahrgenommenen Qualität, von Videodaten zu schaffen.
  • Die Aufgabe der Erfindung wird durch ein Verfahren zum Schätzen der Qualität von Videodaten nach Anspruch 1, ein Computerprogrammprodukt nach Anspruch 5, eine Videoauswertevorrichtung nach Anspruch 6 und ein Kraftfahrzeug nach Anspruch 10 gelöst. Die abhängigen Ansprüche beanspruchen bevorzugte Ausführungsformen.
  • Ein Verfahren zum Schätzen der Qualität der Videodaten umfasst das Erfassen von Videodaten von einem Bildsensor und das Ermitteln eines subjektiven Qualitätsmodells der Videodaten. Erfindungsgemäß umfasst der Schritt des Ermittelns des subjektiven Qualitätsmodells der Videodaten den Schritt des Anpassens des subjektiven Qualitätsmodells mittels Daten, die durch zumindest einen weiteren Sensor ermittelt werden. Der Sensor erfasst Umgebungsdaten. Aus den Umgebungsdaten kann geschätzt werden, welche subjektive Qualität die Videodaten aufweisen und/oder wie stark die Videodaten komprimiert werden müssen. Ferner kann anhand der Umgebungsdaten geschätzt werden, welcher Komprimierungsalgorithmus verwendet werden soll und/oder wie der Komprimierungsalgorithmus parametriert werden soll. Dadurch müssen die Videodaten nicht analysiert werden, wodurch das Ermitteln des subjektiven Qualitätsmodells der Videodaten weniger Rechnerleistung erfordert. Das subjektive Videoqualitätsmodell kann als Eingangsgröße für die Komprimierung der Videodaten verwendet werden, beispielsweise für die Steuerung der Rahmen-Rate, der Auflösung und/oder der Quantisierungsparameter.
  • Der Sensor kann die Geschwindigkeit des Bildsensors gegenüber der Umgebung, die Geschwindigkeit zumindest eines Objektes gegenüber dem Bildsensor, den Ort des Bildsensors, ein ortsabhängiges Umfeldmodell des Bildsensors, das Wetter in der Umgebung des Bildsensors einen Kontext der Umgebung des Bildsensors und/oder ein beliebiges ortsabhängiges Szenario ermitteln. Ferner kann der Sensor die Geschwindigkeit des Kraftfahrzeuges, an dem der Sensor angeordnet ist, die Geschwindigkeit zumindest eines anderen Kraftfahrzeuges, an dem der Sensor angeordnet ist, den Ort des Kraftfahrzeuges, an dem der Sensor angeordnet ist, ein ortsabhängiges Fahrzeugumfeldmodell, an dem der Sensor angeordnet ist, und/oder das Wetter in der Umgebung des Kraftfahrzeuges, an dem der Sensor angeordnet ist, ermitteln. Der Sensor kann die zuvor genannten Daten direkt ermitteln. Es ist aber auch möglich, dass der Sensor lediglich den Ort des Bildsensors und/oder des Kraftfahrzeuges, an dem der Sensor angeordnet ist, beispielsweise mittels eines satellitengestützten Verfahrens, ermittelt und das Umfeldmodell sowie das ortsabhängige Szenario sowie das Wetter für den jeweiligen Ort aus einer Datenbank abruft.
  • Der Schritt des Anpassens des subjektiven Videoqualitätsmodells und/oder der Komprimierung kann das Parametrieren mittels eines ersten Parameters und/oder eines zweiten Parameters umfassen, wobei der erste Parameter von einer örtlichen Aktivität der Umgebung des Bildsensors abhängt und der zweite Parameter von einer zeitlichen Aktivität der Umgebung des Bildsensors abhängt. Der erste Parameter und/oder der zweite Parameter können auf Grundlage der Geschwindigkeit des Bildsensors gegenüber der Umgebung, der Geschwindigkeit zumindest eines Objektes gegenüber dem Bildsensor, des Ortes des Bildsensors, eines ortsabhängigen Umfeldmodells des Bildsensors, des Wetters in der Umgebung des Bildsensors, eines Kontextes der Umgebung des Bildsensors, eines ortsabhängigen Szenarios, der Geschwindigkeit des Kraftfahrzeuges, der Geschwindigkeit zumindest eines anderen Kraftfahrzeuges, des Ortes des Kraftfahrzeuges, eines ortsabhängigen Fahrzeugumfeldmodells des und/oder des Wetters in der Umgebung des Kraftfahrzeuges bestimmt werden.
  • Die Erfindung betrifft auch ein Computerprogrammprodukt, das, wenn es in einen Prozessor eines Computers mit einem Speicher geladen wird, das zuvor beschriebene Verfahren ausführt.
  • Erfindungsgemäß wird die subjektive Qualität des dargestellten Videostroms für den Fall einer beschränkten Übertragungskapazität durch die Nutzung eines Quality-of-Experience-Modells (QoE; subjektives, wahrnehmungsbasiertes Qualitätsmodell) verbessert. Die Erfinder der vorliegenden Erfindung haben erkannt, dass die Komprimierung eines Videodatenstroms durch die Ermittlung und/oder Berücksichtigung eines Video-Qualitäts-Modells, das auf Umgebungsdaten aus dem Kontext der aufnehmenden Kamera beruht, verbessert und/oder vereinfacht werden kann. Der Kontext des Videos kann die Eigenschaften der Kamera umfassen, das das Video aufnimmt. Der Kontext des Videos umfasst Umgebungseigenschaften, die in einem Umfeldmodell abgebildet werden können, beispielsweise die Geschwindigkeit, die Helligkeit, das Wetter, das Szenario und dergleichen.
  • Die Aufgabe der Erfindung wird auch durch eine Videoqualitätsermittlungsvorrichtung gelöst, die dazu ausgebildet ist, die Qualität von Videodaten zu ermitteln. Die Videoqualitätsermittlungsvorrichtung umfasst eine Empfangseinrichtung, die dazu ausgebildet ist, Videodaten zu empfangen, und eine Qualitätsmodellermittlungseinrichtung, die dazu ausgebildet ist, ein subjektives Qualitätsmodell der Videodaten zu ermitteln. Erfindungsgemäß ist die Qualitätsmodellermittlungseinrichtung dazu ausgebildet, das subjektive Qualitätsmodell auf Grundlage von Daten anzupassen, die durch zumindest einen weiteren Sensor ermittelt werden.
  • Die Videoqualitätsermittlungsvorrichtung kann so weitergebildet sein, wie zuvor hinsichtlich des Verfahrens beschrieben wurde. Ferner kann das zuvor beschriebene Verfahren so weitergebildet sein, wie nachfolgend hinsichtlich der Videoqualitätsermittlungsvorrichtung beschrieben wird.
  • Die Empfangseinrichtung und Qualitätsmodellermittlungseinrichtung müssen nicht in einer Vorrichtung ausgebildet sein, sondern können auf zwei Vorrichtungen verteilt sein. Die Empfangseinrichtung und die Qualitätsmodellermittlungseinrichtung müssen nicht so gekoppelt sein, dass Signale, Informationen und dergleichen ausgetauscht werden. Es muss lediglich sichergestellt werden, dass das subjektive Qualitätsmodell den Videodaten zugeordnet wird. Das Verfahren und die Vorrichtung können somit den Schritt des Zuordnens des subjektiven Qualitätsmodells zu den Videodaten ausführen.
  • Das ermittelte subjektive Qualitätsmodell kann an eine Videokomprimierungsvorrichtung übergeben werden, wobei ein Komprimierungsalgorithmus auf Grundlage des ermittelten subjektiven Qualitätsmodells ausgewählt wird und/oder der Komprimierungsalgorithmus auf Grundlage des ermittelten subjektiven Qualitätsmodells parametriert wird. Bei bestimmten Codierparametern bzw. Encodierparametern gilt, dass das Videoqualitätsmodell eine Funktion der Quantisierung, Rahmen-Rate und/oder Auflösung ist. Der Sensor kann dazu ausgebildet sein, zumindest die Geschwindigkeit des Bildsensors gegenüber der Umgebung, die Geschwindigkeit zumindest eines Objektes gegenüber dem Bildsensor, den Ort des Bildsensors, ein ortsabhängiges Umfeldmodell des Bildsensors, ein ortsabhängiges Szenario, das Wetter in der Umgebung des Bildsensors, einen Kontext der Umgebung des Bildsensors, die Geschwindigkeit des Kraftfahrzeuges, die Geschwindigkeit zumindest eines anderen Kraftfahrzeuges, den Ort des Kraftfahrzeuges, ein ortsabhängiges Fahrzeugumfeldmodell und/oder das Wetter in der Umgebung des Kraftfahrzeuges zu ermitteln. Der Sensor kann die oben genannten Größen direkt ermitteln oder alternativ oder zusätzlich den Ort des Bildsensors bzw. des Kraftfahrzeuges ermitteln, und die oben genannten Größen für den jeweiligen Ort aus einer Datenbank abrufen.
  • Die Videoqualitätsmodellermittlungseinrichtung kann die Anpassung des subjektiven Qualitätsmodells mittels eines ersten Parameters und/oder eines zweiten Parameters parametrieren, wobei der erste Parameter von einer örtlichen Aktivität der Umgebung des Bildsensors abhängt und der zweite Parameter von einer zeitlichen Aktivität der Umgebung des Bildsensors abhängt. Der erste und/oder der zweite Parameter können auf Grundlage zumindest der Geschwindigkeit des Bildsensors gegenüber der Umgebung, der Geschwindigkeit zumindest eines Objektes gegenüber dem Bildsensor, des Ortes des Bildsensors, eines ortsabhängigen Umfeldmodells des Bildsensors, eines ortsabhängigen Szenarios, des Wetters in der Umgebung des Bildsensors, des Kontextes der Umgebung des Bildsensors, der Geschwindigkeit des Kraftfahrzeuges, der Geschwindigkeit zumindest eines anderen Kraftfahrzeuges, des Ortes des Kraftfahrzeuges, eines ortsabhängigen Fahrzeugumfeldmodells und/oder des Wetters in der Umgebung des Kraftfahrzeuges bestimmt werden.
  • Die Erfindung betrifft auch ein Kraftfahrzeug mit der zuvor beschriebenen Videoauswertevorrichtung.
  • Das Verfahren und die Videoauswertevorrichtung werden nun im Kontext der Anmeldung im Zusammenspiel mit einem Kraftfahrzeug beschrieben. Die Anmelder behalten sich jedoch vor, das Schutzbegehren auch in anderen Anwendungen und allgemein zu beanspruchen.
  • Die Erfindung wird nun unter Bezugnahme auf 1 erläutert, die eine exemplarische und nicht beschränkende Ausführungsform zeigt, wobei gilt:
  • 1 zeigt eine Anwendung der vorliegenden Erfindung beim Übertragen von Bewegtbildern zwischen zwei Kraftfahrzeugen.
  • Die Erfinder der vorliegenden Erfindung schlagen vor, ein Video-Qualitäts-Modell über Kontextgrößen der Videoquelle auszuwählen, bestimmen und/oder zu parametrieren. Die Erfinder schlagen vor, eine Inhaltsabhängigkeit des Video-Qualitäts-Modells durch Kontextgrößen zu erfassen. Beispielsweise können inhaltsabhängige Elemente der Parametrierung, beispielsweise die zeitliche Abhängigkeit (TA) und die örtliche Abhängigkeit (SA) durch Kontextgrößen realisiert werden. Mit anderen Worten: VQM = f(Kontext);
  • Im Ergebnis liegt ein Video-Qualitäts-Modell vor, das nicht auf inhaltsabhängigen Größen des Videos, beispielsweise von Werten, die aus dem Inhalt des Videos ermittelt werden, sondern vom Kontext des Bildsensors bzw. der Kamera des Quell-Videos abhängen. Dies kann beispielsweise bei der Übertragung eines Videostroms von einer Quelle zu einer Senke angewendet werden, bei der eine Anpassung der Codierung aufgrund von Verbindungseigenschaften, beispielsweise Bandbreite, zwischen Quelle und Senke vorgenommen werden muss.
  • Es versteht sich, dass die relevanten Kontextgrößen vom Inhalt der Videodaten und von der Umgebung der Quelle des Videos abhängen. Dieser Zusammenhang wird anhand des vorliegenden Beispiels im Rahmen der Komprimierung der Videodaten erläutert.
  • Ein erstes Kraftfahrzeug 4, beispielsweise ein Straßenfahrzeug, umfasst eine Frontkamera 20 und eine Komprimierungseinrichtung 24, die die von der Kamera 20 erfassten Bewegtbilderdaten (Videodaten) komprimiert. Das erste Kraftfahrzeug 4 sendet die komprimierten Videodaten über eine Antenne 26 und eine Mobilfunkverbindung 14 mittels eines Mobilfunknetzes 8 an ein zweites Kraftfahrzeug 6. Das zweite Kraftfahrzeug 6 empfängt die komprimierten Videodaten mittels einer Antenne 28. Die komprimierten Videodaten werden in einer Entkomprimierungseinrichtung 30 entkomprimiert und auf einer Anzeigeeinrichtung 22, beispielsweise einem Monitor, dargestellt. In diesem Fall werden die Videodaten direkt vom ersten Kraftfahrzeug 4 über das Mobilfunknetz 8 an das zweite Kraftfahrzeug 6 übertragen. Der Fahrer oder ein Navigationssystem des zweiten Kraftfahrzeuges 6 kann anhand der Bilddaten die Verkehrssituation und/oder die Wettersituation in der Umgebung des ersten Kraftfahrzeuges 6 beurteilen und eine Route gemäß dieser Beurteilung planen.
  • Das erste Kraftfahrzeug 4 kann die komprimierten Videodaten über eine zweite Mobilfunkverbindung 16 mittels des Mobilfunknetzes 8 an einen zentralen Videoserver 12 senden, der die Videodaten in einer Datenbank 12 speichert. Das zweite Kraftfahrzeug kann über eine dritte Mobilfunkverbindung 18 mittels des Mobilfunknetzes 8 die Videodaten vom Videoserver 10 und dessen Datenbank abrufen und, beispielsweise zeitversetzt, auf dem Monitor 22 anzeigen oder an ein Navigationsgerät weiterleiten.
  • Im Rahmen einer Flottengemeinschaft eines Fahrzeugherstellers besteht die Möglichkeit, Bilddaten einer Fahrerassistenzkamera, die nach vorne gerichtet ist, eines Kraftfahrzeuges, beispielsweise eines anderen Kraftfahrzeuges zu betrachten, um einem Fahrer und/oder einem Navigationssystem Rückschlüsse auf das Verkehrsaufkommen vor dem ersten Fahrzeug 4 zu geben. Der Nutzer eines anderen Fahrzeuges, beispielsweise des Kraftfahrzeuges 6, ist an der Verkehrssituation in der Umgebung des ersten Kraftfahrzeuges 4 interessiert. Ein Übertragungssystem, beispielsweise ein Mobilfunknetz 8 kann durch ein adaptives und/oder dynamisches Streaming-System realisiert sein, das eine Anpassung eines Bandbreitenbedarfs des Videos an Endpunkt-zu-Endpunkt-Performance-Eigenschaften der drahtlosen Verbindung zwischen den beiden Kraftfahrzeugen 4, 6 erlaubt.
  • Das erste Kraftfahrzeug 4 kann einen Geschwindigkeitssensor 40 aufweisen, der die Geschwindigkeit v des Kraftfahrzeuges 4 ermittelt. Ferner weist das erste Kraftfahrzeug 4 einen Positionssensor 36 auf, der die aktuelle Position des ersten Kraftfahrzeuges 4 ermittelt, beispielsweise mittels eines satellitengestützten Ortungssystems. Ferner umfasst das erste Kraftfahrzeug 4 einen Frontumgebungssensor, beispielsweise ein Frontradar oder ein Lidar, das die Verkehrssituation vor dem ersten Kraftfahrzeug 4 erfassen kann, beispielsweise die Geschwindigkeit anderer Kraftfahrzeuge und/oder Objekte. Der Frontumgebungssensor kann ein Fahrzeugumfeldmodell (VEM; Vehicle Environment Modell) erstellen, das aus den Daten mehrerer Sensoren aggregiert wird. Im Umfeldmodell werden Objektlisten erzeugt, die beispielsweise weitere sich vor dem Fahrzeug befindliche Fahrzeuge und/oder andere Objekte beinhalten kann.
  • Ferner kann das erste Kraftfahrzeug 4 einen Wettersensor 42 aufweisen, der beispielsweise eine Temperatur, eine Niederschlagsmenge, Windverhältnisse etc. ermittelt.
  • Die Sensordaten des Frontumgebungssensors 32, des Positionssensors 36, des Geschwindigkeitssensors 40 und/oder des Wettersensor 42 werden an eine Videoqualitätsermittlungsvorrichtung 23 weitergeleitet. Die Videoqualitätsermittlungsvorrichtung 23 ermittelt ein subjektives Qualitätsmodell der Videodaten aufgrund der Sensordaten. Die Videoqualitätsermittlungsvorrichtung 23 muss hierzu die Videodaten nicht analysieren. Das subjektive Qualitätsmodell wird an die Komprimierungseinrichtung 24 weitergegeben, wobei ein Komprimierungsalgorithmus und/oder zumindest ein Parameter des Komprimierungsalgorithmus auf Grundlage des subjektiven Qualitätsmodells ausgewählt werden. Der Videoqualitätsermittlungsvorrichtung kann beispielsweise das Fahrzeugumfeldmodell von dem zumindest einen Sensor zur Verfügung gestellt werden.
  • Im Folgenden wird exemplarisch eine Ermittlung der inhaltsabhängigen Größen auf Grundlage des kontextabhängigen STVQM in der Videoqualitätsermittlungsvorrichtung 23 dargestellt. Die im Beispiel zur Verfügung gestellten Kontextgrößen sind die Geschwindigkeit v des ersten Kraftfahrzeuges 4 und das Szenario, in dem sich das erste Kraftfahrzeug 4 befindet (Stadt, Autobahn, Überland). Das Szenario kann beispielsweise mittels der Ortsinformation bestimmt werden, beispielsweise indem die aktuelle Ortsinformation an eine Kartendatenbank weitergeleitet wird.
  • Im Folgenden wird die Bestimmung der Parameter TA (zeitliche Aktivität) und SA (örtliche Aktivität) aufgrund der Kontextdaten des ersten Kraftfahrzeuges 4 ermittelt.
  • Eine derartige Bestimmung der Parameter TA und SA kann beispielhaft wie folgt durchgeführt werden: TA(Szenario, v) = gTA,1·f(Szenario) + gTA,2·f(v) + gTA,3; SA(Szenario) = gSA,1·f(Szenario) + gSA,2;
  • gTA,1, gTA,2, gTA,3, gSA,1, gSA,2 stellen hierbei trainierte Modellgrößen dar, v ist die Geschwindigkeit des Kraftfahrzeuges 4, f(Szenario) stellt eine Abbildung von Szenarien dar. Somit ergibt sich für das STVQM-Modell folgende Abhängigkeit: STVQM(TA, SA) = f(v, Szenario);
  • Die Erfinder haben ein kontextabhängiges VQM unter Berücksichtigung der oben erwähnten RTSV-Anwendung (RTSV: Read Time Street View; Straßenansicht in Echtzeit) und der Kontextgrößen entwickelt. Die RTSV-Anwendung gestattet es, Live-Bilder, die von einer Kamera eines Kraftfahrzeuges aufgenommen werden, an einen zentralen Server oder an ein anderes Kraftfahrzeug zu schicken.
  • Anhand dieser Bilder können Verkehrssituationen, Verkehrsbehinderungen und das Wetter am Ort eines Kraftfahrzeuges, dessen Kamera die Videodaten aufgenommen hat, beurteilt werden.
  • Die Funktionsabbildungen wurden hierbei wie folgt realisiert: f(Szenario) = 1, falls städtisches Szenario f(Szenario) = 0, falls Autobahn-/oder Überland-Szenario f(v) = 1,Vego ≥ 10 m / s; f(v) = 0,Vego < 10 m / s;
  • Hierbei haben sich beispielhaft folgende Parameter für TA-/SA-Abbildung ergeben:
    gTA,1 gTA,2 gTA,3 gSA,1 gSA,2
    10,62 4,66 4,48 10,62 4,66
  • Hieraus ergibt sich die folgende Performanz des entwickelten Modells (Kontext-STVQM) im Vergleich zu einem STVQM, der auf TA-/SA-Werten, die aus den Videorahmen (Inhalts-STVQM) bestimmt wurden:
    PC RMSE
    Inhalts-STVQM 0,9785 5,92
    Kontext-STVQM 0,9679 5,97
  • In einer vorteilhaften Ausprägung wird darüber hinaus ein Algorithmus eingesetzt, der das o. g. VQM-Modell auf Basis des Kontexts nutzt, um über die Mobilfunkverbindung der beiden Fahrzeuge hinweg einen optimalen Arbeitspunkt zur Maximierung der subjektiven Nutzerzufriedenheit zu gewährleisten.
  • Der Parameter TA kann mittels folgender Formel ermittelt werden, bei der zusätzlich zu der zuvor genannten Formel zur Ermittlung des Parameters TA auch die Geschwindigkeit vAF anderer Fahrzeuge berücksichtigt wird und ein Parameter gTA,AF ein Parameter für die TA-Abbildung der Geschwindigkeit vAF anderer Fahrzeuge ist:
    Figure DE102014100431A1_0002
  • Die Erfindung bietet den Vorteil, dass durch Nutzung des zuvor beschriebenen Verfahrens und der zuvor beschriebenen Videoqualitätsermittlungsvorrichtung ein Video-Qualitäts-Modell realisiert werden kann, das auf bereits vorhandenen Umgebungssensordaten aus den VEM beruht. Hierdurch kann die Schätzung der zu erwartenden Nutzerzufriedenheit, beispielsweise die subjektive Dienstgüte oder die durch einen Nutzer erlebte Güte (QoE) erheblich vereinfacht werden, da die Berechnung des Video-Qualitäts-Modells im Wesentlichen in Echtzeit realisiert werden kann und/oder weitere Berechnungseinheiten (leistungsfähigere Computer zum Ermitteln der Komprimierungsparameter aus den Videodaten, eingespart werden können).
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • Peng, Yang und Eckehard Steinbach, "A novel fullreference video quality metric and its application to wireless video transmission", Image Processing (ICIP), 2011 18th IEEE International Conference on IEEE, 2011 [0003]
    • Yen-Fu Ou, Zanhn Ma, Tao Liu und Yao Wang, "Perceptual Quality Assessment of Video Considering Both Frame Rate and Quantization Artifacts", IEEE Trans. Circuit Syst. Video Technol. Vol. 21, no. 3, pp. 286–298, März 2011 [0004]

Claims (10)

  1. Verfahren zum Schätzen der Qualität von Videodaten, mit den folgenden Schritten: – Erfassen von Videodaten mittels eines Bildsensor (20); und – Ermitteln eines subjektiven Qualitätsmodells der Videodaten; wobei der Schritt des Ermittelns des subjektiven Qualitätsmodells der Videodaten den Schritt des Anpassens der subjektiven Qualitätsmodells mittels Daten umfasst, die durch zumindest einen weiteren Sensor (32, 36, 40, 42) ermittelt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das subjektive Qualitätsmodell anzeigt, wie ein Betrachter der Videodaten die Videodaten wahrnimmt.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Schritt des Ermittelns des subjektiven Qualitätsmodells das Bestimmen des Qualitätsmodells mittels eines ersten Parameters und/oder eines zweiten Parameters umfasst, wobei der erste Parameter von einer örtliche Aktivität abhängt und der zweite Parameter von einer zeitlichen Aktivität abhängt.
  4. Verfahren nach einen der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der weitere Sensor zumindest eine der folgenden Größen ermittelt und/oder der erste Parameter und/oder der zweite Parameter auf Grundlage zumindest einer der folgenden Größen bestimmt werden: – der Geschwindigkeit des Bildsensors (20) gegenüber der Umgebung; – des Geschwindigkeit zumindest eines Objektes gegenüber dem Bildsensor (20); – des Ortes des Bildsensors (20); – eines ortsabhängigen Umfeldmodells des Bildsensors (20); – des Wetters in der Umgebung des Bildsensors (20); – eines ortsabhängigen Szenarios; – eines Kontexts der Umgebung des Bildsensors (20); – der Geschwindigkeit eines Kraftfahrzeuges (4), auf dem der Bildsensor (20) angebracht ist; – der Geschwindigkeit zumindest eines anderen Kraftfahrzeuges; – des Ortes des Kraftfahrzeuges (4), auf dem der Bildsensor (20) angebracht ist; – eines ortsabhängigen Fahrzeugumfeldmodells des Kraftfahrzeuges (4), auf dem der Bildsensor (20) angebracht ist; und/oder – des Wetters in der Umgebung des Kraftfahrzeuges (4), auf dem der Bildsensor (20) angebracht ist.
  5. Computerprogrammprodukt, das, wenn es in einen Prozessor eines Computers mit einem Speicher geladen wird, die Schritte des Verfahrens nach einem der Ansprüche 1 bis 4 ausführt.
  6. Videoqualitätsermittlungsvorrichtung (23), die dazu ausgebildet ist, Videodaten auszuwerten, die von einem Bildsensor (20) aufgenommen werden, mit – einer Empfangseinrichtung, die dazu ausgebildet ist, Videodaten zu empfangen; und – einer Qualitätsmodellermittlungseinrichtung, die dazu ausgebildet ist, ein subjektives Qualitätsmodell der Videodaten zu ermitteln; wobei die Qualitätsmodellermittlungseinrichtung (24) dazu ausgebildet ist, das subjektives Qualitätsmodell des Videodatenstroms auf Grundlage von Daten zu ermitteln, die durch zumindest einen weiteren Sensor (32, 36, 40, 42) ermittelt werden.
  7. Videoqualitätsermittlungsvorrichtung (23) nach Anspruch 6, dadurch gekennzeichnet, dass das subjektive Qualitätsmodell anzeigt, wie ein Betrachter der Videodaten die Videodaten wahrnimmt.
  8. Videoqualitätsermittlungsvorrichtung (23) nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass das Ermitteln des subjektiven Qualitätsmodells das Parametrieren des subjektiven Qualitätsmodells mittels eines ersten Parameters und/oder eines zweiten Parameters umfasst, wobei der erste Parameter von einer örtlichen Aktivität abhängt und der zweite Parameter von einer zeitlichen Aktivität abhängt.
  9. Videoqualitätsermittlungsvorrichtung (23) nach einen der Ansprüche 6 bis 8, dadurch gekennzeichnet, der weitere Sensor zumindest eine der folgenden Größen ermittelt und/oder der erste Parameter und/oder der zweite Parameter auf Grundlage zumindest einer der folgenden Größen bestimmt werden: – der Geschwindigkeit des Bildsensors (20) gegenüber der Umgebung; – des Geschwindigkeit zumindest eines Objektes gegenüber dem Bildsensor (20); – des Ortes des Bildsensors (20); – eines ortsabhängigen Umfeldmodells des Bildsensors (20); – des Wetters in der Umgebung des Bildsensors (20); – eines ortsabhängigen Szenarios; – eines Kontexts der Umgebung des Bildsensors (20); – der Geschwindigkeit eines Kraftfahrzeuges (4), auf dem der Bildsensor (20) angebracht ist; – der Geschwindigkeit zumindest eines anderen Kraftfahrzeuges; – des Ortes des Kraftfahrzeuges (4), auf dem der Bildsensor (20) angebracht ist; – eines ortsabhängigen Fahrzeugumfeldmodells des Kraftfahrzeuges, auf dem der Bildsensor (20) angebracht ist; und/oder – des Wetters in der Umgebung des Kraftfahrzeuges (4), auf dem der Bildsensor (20) angebracht ist.
  10. Kraftfahrzeug (4) mit einer Videoqualitätsermittlungsvorrichtung (23) nach einem der Ansprüche 6 bis 9.
DE102014100431.0A 2014-01-15 2014-01-15 Abschätzung der subjektiven Dienstgüte eines Videostreams basierend auf Umgebungsdaten Pending DE102014100431A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014100431.0A DE102014100431A1 (de) 2014-01-15 2014-01-15 Abschätzung der subjektiven Dienstgüte eines Videostreams basierend auf Umgebungsdaten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014100431.0A DE102014100431A1 (de) 2014-01-15 2014-01-15 Abschätzung der subjektiven Dienstgüte eines Videostreams basierend auf Umgebungsdaten

Publications (1)

Publication Number Publication Date
DE102014100431A1 true DE102014100431A1 (de) 2015-07-16

Family

ID=53484790

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014100431.0A Pending DE102014100431A1 (de) 2014-01-15 2014-01-15 Abschätzung der subjektiven Dienstgüte eines Videostreams basierend auf Umgebungsdaten

Country Status (1)

Country Link
DE (1) DE102014100431A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007124155A (ja) * 2005-10-26 2007-05-17 Alpine Electronics Inc 車載動画像圧縮装置及びドライブレコーダ
US20110093605A1 (en) * 2009-10-16 2011-04-21 Qualcomm Incorporated Adaptively streaming multimedia
US20110267452A1 (en) * 2009-02-20 2011-11-03 Panasonic Corporation Image compressing apparatus, image compressing method and vehicle-mounted image recording apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007124155A (ja) * 2005-10-26 2007-05-17 Alpine Electronics Inc 車載動画像圧縮装置及びドライブレコーダ
US20110267452A1 (en) * 2009-02-20 2011-11-03 Panasonic Corporation Image compressing apparatus, image compressing method and vehicle-mounted image recording apparatus
US20110093605A1 (en) * 2009-10-16 2011-04-21 Qualcomm Incorporated Adaptively streaming multimedia

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Peng, Yang und Eckehard Steinbach, "A novel fullreference video quality metric and its application to wireless video transmission", Image Processing (ICIP), 2011 18th IEEE International Conference on IEEE, 2011
Yen-Fu Ou, Zanhn Ma, Tao Liu und Yao Wang, "Perceptual Quality Assessment of Video Considering Both Frame Rate and Quantization Artifacts", IEEE Trans. Circuit Syst. Video Technol. Vol. 21, no. 3, pp. 286-298, März 2011

Similar Documents

Publication Publication Date Title
DE102013205810B4 (de) System und verfahren zum einschätzen von verfügbaren parkplätzen zum parken auf der strasse mit mehreren plätzen
EP3011752B1 (de) Konzept zur bestimmung der qualität eines mediadatenstroms mit variierender qualität-zu-bitrate
DE102018102285A1 (de) System und verfahren zum beurteilen des innenraums eines autonomen fahrzeugs
DE102008062121B4 (de) Kameraeinheit mit Fahrkorridor-Anzeigefunktion für ein Fahrzeug, Verfahren zur Anzeige einer vorausberechneten Fahrzeugtrajektorie und System zur Generierung von Fahrkorridormarkierungen
DE102011013310A1 (de) Adaptives Szenen-Rendering und gemeinsame V2X-Nutzung von Videos/Bildern
DE112017000816T5 (de) Fahrerassistenzsystem mit variabler Bildauflösung
DE112006000457T5 (de) Infrarot-Kamerasystem und -Verfahren
DE112018005163T5 (de) Bildverarbeitungsvorrichtung
DE102008001076A1 (de) Verfahren, Vorrichtung sowie Computerprogramm zur Auflösungsreduktion eines Eingangsbilds
DE102016113764A1 (de) Dynamische bildschirmreplikation und display-darstellung in echtzeit basierend auf medienanwendungseigenschaften
DE102021124986A1 (de) Bildeinfärbung für fahrzeugkamerabilder
DE102010030068A1 (de) Verarbeitung von Bilddaten, die durch ein Fahrzeug aufgenommen werden
DE102013220312A1 (de) Fortbewegungsmittel und Verfahren zum Informationsaustausch mit einem Fortbewegungsmittel
DE112018004819T5 (de) Bildverarbeitungsvorrichtung
WO2016050413A1 (de) Anpassung einer videokomprimierung bei einem mobilen server
DE102018215859A1 (de) Verfahren zur adaptiven Datenübertragung für einen Teleoperationsbetrieb für ein Fortbewegungsmittel
DE102019100512A1 (de) Selektives Anwenden von Farbe auf ein Bild
DE102023121647A1 (de) Verfahren zum aufrechterhalten der netzdienstqualität für fahrzeuginterne anwendungen
DE102014100431A1 (de) Abschätzung der subjektiven Dienstgüte eines Videostreams basierend auf Umgebungsdaten
DE102010055156A1 (de) Multikamerasystem für ein Kraftfahrzeug, Kraftfahrzeug und Verfahren zum Betreiben eines Multikamerasystems in einem Kraftfahrzeug
DE102015120967A1 (de) Verfahren und Vorrichtung zur Bildkorrektur
DE102015225042B4 (de) Anwenderendgerät, Fortbewegungsmittel und Verfahren zur Durchführung einer Videoübertragung mittels einer Drahtloskommunikationsverbindung
DE102014213270A1 (de) Verfahren und Vorrichtung zum Überwachen eines zum Öffnen einer Klappe eines Fahrzeugs erforderlichen Raums
DE102014209199A1 (de) Übertragungsanordnung zum Übertragen von Daten zu einer Datenverarbeitungsstation über ein Kommunikationsnetzwerk
DE102017212429A1 (de) Verfahren zum Kartieren eines Streckenabschnitts und Informationssystem

Legal Events

Date Code Title Description
R163 Identified publications notified
R082 Change of representative

Representative=s name: WITTMANN, GUENTHER, DIPL.-ING. UNIV., DE

R012 Request for examination validly filed