-
VERWANDTE ANMELDUNGEN
-
Diese Offenbarung beansprucht die Vorteile der vorläufigen US-Patentanmeldung Nr.
63/165,698 mit dem Titel „OPTICAL TRANSMITTER TUNING USING MACHINE LEARNING“, die am 24. März 2021 eingereicht wurde, und der vorläufigen US-Patentanmeldung Nr.
63/272,998 mit dem Titel „OPTICAL TRANSMITTER TUNING USING MACHINE LEARNING AND REFERENCE PARAMETERS“, DIE AM 28. Oktober 2021 eingereicht wurde, und die hier vollständig enthalten sind.
-
TECHNISCHES GEBIET
-
Diese Offenbarung bezieht sich auf Test- und Messsysteme, insbesondere auf Systeme und Verfahren zum Abstimmen von Parametern einer zu testenden Vorrichtung z. B. eines optischen Transceivers.
-
STAND DER TECHNIK
-
Die Hersteller von optischen Sendern testen ihre Sender, indem sie sie abstimmen, um sicherzustellen, dass sie korrekt funktionieren. Jeder Sender kann im schlimmsten Fall bis zu zwei Stunden in Anspruch nehmen. Die Abstimmung erfolgt in der Regel in Form eines Sweeps der Drehparameter, d. h. der Sender stimmt sich bei jedem Pegel der einzelnen Parameter ab. Im schlimmsten Fall kann dies bis zu 200 Iterationen und im besten Fall drei bis fünf Iterationen dauern. Eine Beschleunigung dieses Prozesses, um die Anzahl der Iterationen zur Abstimmung des Senders zu reduzieren, verringert sowohl die Zeit als auch die Kosten der Herstellung.
-
Ausführungsformen der beschriebenen Geräte und Verfahren beheben Mängel des Standes der Technik.
-
Figurenliste
-
- 1 und 2 zeigen Ausführungsformen eines Test- und Messsystems.
- 3 zeigt eine Ausführungsform eines Trainingsverfahrens für ein optisches Senderabstimmungssystem.
- 4 zeigt eine Ausführungsform eines Laufzeitprozesses für ein optisches Senderabstimmungssystem.
- 5 zeigt ein Flussdiagramm einer Ausführungsform eines Verfahrens zur Ermittlung einer Grundgesamtheit von Abstimmungsparametern.
- 6 zeigt ein Flussdiagramm einer Ausführungsform eines Verfahrens zum Trainieren eines neuronalen Netzes, um optimierte Abstimmungsparameter für optische Transceiver zu erhalten.
- 7 zeigt ein Flussdiagramm einer Ausführungsform eines Verfahrens zur Verwendung eines neuronalen Netzes, um optimierte Abstimmungsparameter für optische Transceiver zu erhalten.
- 8 zeigt Beispiele für Wellenformen und Tensor-Bilder.
-
AUSFÜHRLICHE BESCHREIBUNG
-
Derzeit wird bei der Abstimmung von optischen Transceivern keine Art von maschinellem Lernen eingesetzt, um den Zeitaufwand für die Abstimmung und Prüfung der Transceiver zu verringern. Der Zeitaufwand für das Training der Geräte erhöht die Gesamtkosten der Transceiver. Durch den Einsatz eines maschinellen Lernprozesses kann der Zeitaufwand für die Abstimmung und Prüfung sowie für die Feststellung, ob ein Teil besteht oder nicht, verringert werden. In den vorliegenden Ausführungsformen werden ein oder mehrere neuronale Netze verwendet, um die Abstimmungsparameter für optische Transceiver zu ermitteln, damit schneller als bei den derzeitigen Verfahren festgestellt werden kann, ob der Transceiver korrekt funktioniert.
-
1 zeigt eine Ausführungsform eines Test- und Messsystems oder -geräts, das ein maschinelles Lernsystem zur Bestimmung der Betriebsparameter für die Teile verwendet. Die Ausgabemessungen, die der Benutzer abstimmen mag und die zur Messung des Betriebs verwendet werden, können u. a. folgende Werte umfassen: TDECQ (Transmitter Dispersion Eye Closure Penalty Quaternary; Sender- und Dispersions-Augenschluss-Quartär), Extinktionsverhältnis, durchschnittliche optische Leistung, optische Modulationsamplitude, Pegeltrennungs-Fehlanpassungsverhältnis und andere. Die Abstimmungsparameter, auf die in dieser Diskussion Bezug genommen wird, umfassen die Einstellungen, die in den Transceiver geladen werden, um die gewünschten Ergebnisse zu erzielen. Diese Parameter sind je nach Art der optischen Transceiver und ihrer Funktionsweise sehr unterschiedlich. Sie können Werte für Spannung, Strom, Frequenz, Modulation usw. umfassen.
-
Die Test- und Messvorrichtung 10 kann viele verschiedene Komponenten enthalten. 1 zeigt eine mögliche Ausführungsform und kann mehr oder weniger Komponenten enthalten. Die Vorrichtung in 1 ist mit dem DUT (device under test; zu testende Vorrichtung) verbunden, in diesem Fall einem optischen Transceiver 12. Die Test- und Messvorrichtung, z. B. ein Oszilloskop, kann ein optisches/elektrisches (O/E-) Umwandlungsmodul 14 enthalten, das über eine Verbindung wie 16 mit der Test- und Messvorrichtung verbunden ist. Der Prozessor 18 stellt einen oder mehrere Prozessoren dar und ist so ausgebildet, dass er Code ausführt, um den Prozessor zu veranlassen, verschiedene Aufgaben auszuführen. 1 zeigt das maschinelle Lernsystem 22 als Teil der Test- und Messvorrichtung. Das maschinelle Lernsystem kann sich auf einem separaten Gerät wie einem Computer befinden, der mit der Test- und Messvorrichtung kommuniziert. In ähnlicher Weise kann sich der von einem Prozessor ausgeführte Testautomatisierungscode 20 in einer Fertigungsvorrichtung befinden, an die der Prozessor 18 angeschlossen ist.
-
Für die Zwecke dieser Erörterung schließt der Begriff „Test- und Messvorrichtung“, wie er hier verwendet wird, diejenigen Ausführungsformen ein, die ein externes Rechengerät als Teil der Test- und Messvorrichtung umfassen. Der Speicher 24 kann sich auf der Test- und Messvorrichtung befinden oder zwischen der Test- und Messvorrichtung und dem Computergerät verteilt sein. Wie später noch näher erläutert wird, kann der Speicher Trainingsdaten und Laufzeitdaten enthalten, die von dem maschinellen Lernsystem verwendet werden. Die Test- und Messvorrichtung kann auch eine Benutzeroberfläche 26 enthalten, die einen oder mehrere Touchscreens, Videobildschirme, Knöpfe, Tasten, Lichter, eine Tastatur, eine Maus usw. umfassen kann.
-
1 zeigt eine Ausführungsform des Systems während des Trainierens. Beim Training wird der optische Transceiver 12 über den O/E-Wandler 14 und den Anschluss 16 mit der Test- und Messvorrichtung verbunden. Ein Testautomatisierungsprozess 20 sendet die Transceiver-Abstimmungsparameter an den Transceiver, was als „Laden“ des Transceivers in einem Prozess bezeichnet werden kann, der weiter unten näher erläutert wird. Der Testautomatisierungsprozess 20 erstellt Trainingsabstimmungsparameter und sendet diese an das maschinelle Lernsystem 22. Die für das Training verwendeten Abstimmungsparameter können beispielsweise auf Durchschnittsparametern beruhen, die durch historische Tests mit herkömmlichen Testmethoden entwickelt wurden. Die Test- und Messvorrichtung erfasst eine Wellenform von dem mit den geladenen Abstimmungsparametern arbeitenden Transceiver-DUT und sendet die erfasste Wellenform an den Prozessor zurück. Das System kann Messungen an der Wellenform durchführen und sendet die Wellenform an das maschinelle Lernsystem 22.
-
2 zeigt einen Teil einer Ausführungsform des Systems während des Betriebs. In einem ersten Teil des Prozesses erzeugt der Testautomatisierungsprozess 20 Referenzabstimmungsparameter und lädt sie in den Transceiver 12. Die Test- und Messvorrichtung erfasst eine Reihe von Referenzwellenformen vom Transceiver und sendet sie zurück, die das maschinelle Lernsystem zur Vorhersage der optimierten Abstimmungsparameter verwendet. Das maschinelle Lernsystem liefert dann die vorausberechneten Abstimmungsparameter, die auch als optimierte Parameter bezeichnet werden. Das Testautomatisierungssystem lädt dann diese vorhergesagten Parameter in den Transceiver. Die Test- und Messvorrichtung erfasst eine neu erzeugte Wellenform vom Transceiver, der mit den vorhergesagten Parametern arbeitet (hier als vorhergesagte Wellenform bezeichnet), und gibt diese Wellenform an den Testautomatisierungsprozess zurück, um festzustellen, ob der Transceiver besteht oder nicht. Diese Wellenform kann auch an das maschinelle Lernsystem als Rückmeldung über das Training zurückgegeben werden.
-
Im Folgenden bezieht sich der Begriff „Referenz“, entweder Parameter oder Wellenform, auf den Satz von Wellenformen, die durch den Testautomatisierungsprozess erzeugt und sowohl beim Training als auch beim Betrieb des maschinellen Lernsystems verwendet werden. Der Begriff „vorhergesagt“ bezieht sich auf die Ausgabe des maschinellen Lernsystems. Der Begriff „optimiert“ bezieht sich auf Einstellparameter, die aus einem Optimierungsprozess der Testautomatisierung oder des maschinellen Lernsystems resultieren.
-
In den folgenden Ausführungen werden Wellenformen verwendet, die im Rahmen der Testautomatisierung vom Transceiver erfasst werden. In den folgenden Ausführungen werden drei Wellenformen für nichtlineare Transceiver verwendet. Eine Beschränkung auf eine bestimmte Anzahl von Wellenformen ist nicht beabsichtigt und sollte auch nicht impliziert werden.
-
3 zeigt ein Blockdiagramm einer Ausführungsform eines Trainingssystems für ein optisches Transceiver-Abstimmungssystem, das maschinelles Lernen verwendet. Das Testautomatisierungssystem misst eine Anzahl optischer Transceiver, Tx. Das Testautomatisierungssystem stimmt sie mit dem „Standard“- oder herkömmlichen Herstellerabstimmungsverfahren optimal ab. Für das Training müssen viele TX-Beispielgeräte gemessen und optimal abgestimmt werden, um Daten für das Training zu liefern. Die Anzahl der Einheiten sollte ausreichend sein, um eine gute Verteilung für das Histogramm der optimalen Parameter des DUTs zu erhalten. Jede Sendeeinheit wird seriell getestet, eine nach der anderen, wie der serielle Eingangsdatenstrom in Tx 34 zeigt, der jeder Sendeeinheit zugeführt wird.
-
Es wird ein Histogramm für jeden Abstimmungsparameter für jedes Gerät bei jeder Temperatur für eine optimale Abstimmung erstellt. Dieses wird dann zur Entwicklung eines durchschnittlichen Parametersatzes verwendet. Es ist anzumerken, dass der Prozess nicht zwangsläufig einen durchschnittlichen oder mittleren Parametersatz verwenden muss, aber zur Vereinfachung der Diskussion und zum besseren Verständnis wird dies in dieser Diskussion verwendet. Der Benutzer oder das System könnte dann zwei Variationen des mittleren Parametersatzes, MeanPar, erzeugen, indem er beispielsweise zu den mittleren Parametern addiert, um den DeltalPar-Satz zu erzeugen, und von den mittleren Parametern subtrahiert, um den Delta2Par-Satz zu erzeugen.
-
Der MeanPar-Satz sowie die DeltalPar- und Delta2Par-Parametersätze werden dann als Referenzparameter für das Training und die Laufzeit des Systems verwendet. Ziel ist es, drei Stichprobenpunkte auf den nichtlinearen Kennlinien der Parameter bereitzustellen, so dass das neuronale Netz über genügend Daten verfügt, um den optimalen Parametersatz anhand der verarbeiteten Wellenformen aus diesen Referenzparametereinstellungen genau vorherzusagen. Die Anzahl der Referenzparametersätze kann zwischen 1 und N liegen, wobei N durch Rechenzeit und Ressourcen begrenzt ist. In einem Beispiel werden 200 Transceiver fünf Erfassungen mit diesen drei Parametersätzen getestet, was zu 15 Wellenformen für jeden Transceiver führt, was insgesamt 3000 Wellenformen für das Training ergibt. In 3 besteht der Schalter 30 nicht aus einem Hardware-Schalter, sondern aus einem Logikblock, der bewirkt, dass jeder Parametersatz in jeden Transceiver 32 bis 34 geladen wird, wobei auch hier N nur durch Zeit und Ressourcen begrenzt ist.
-
Die resultierenden Wellenformen werden dann nacheinander verarbeitet, dargestellt durch den Schalter 36, gefolgt von einem Digitalisierer 38. Für jeden Satz von Referenzparametern wird eine Wellenform im Speicher gespeichert, wie z. B. in 1 dargestellt. Dies erfordert drei Erfassungen durch den A/D, wobei für jede Erfassung ein anderer Satz von Referenzparametern verwendet wird. Die Testautomatisierungsanwendung steuert die Systemtemperatur in Verbindung mit einem bestimmten Satz von Abstimmungsparametern. In diesem Beispiel wird die Temperatur, die mit jedem Parametersatz verbunden ist, in 44 angegeben, ebenso wie ein Rauschprofil des Instruments in 46. Diese Temperatur wird in den hyperspektraler Tensor-Builder 42 eingegeben und in die Tensor-Bilder integriert, die für Training und Laufzeit verwendet werden. Die Temperatur kann in den Bildern als Balkendiagramm dargestellt werden. Sie kann jedoch auch als Tortendiagramm oder in einer anderen Form dargestellt werden, falls dies gewünscht wird.
-
Wie bereits erwähnt, wird der Testautomatisierungsprozess 20 den „Standard“-Abstimmungsprozess verwenden, der durch den schnelleren maschinellen Lernprozess der Ausführungsformen ersetzt werden soll. Die optimalen Abstimmungsparameter, die beim Training verwendet werden, können in Abhängigkeit von den Daten bei 41 normalisiert oder standardisiert werden. Durch die Normalisierung oder Standardisierung werden die Werte der Abstimmungsparameter so skaliert, dass sie in einen normalisierten Bereich passen, mit dem das neuronale Netz 22 gut umgehen kann. In einer Ausführungsform würde die Normalisierung darin bestehen, den Abstimmungsparameter so zu skalieren, dass er in einen Bereich von 0 bis 1 fällt, oder ihn in einem Bereich von -1 bis 1 auf null zu zentrieren. Eine Ausführungsform der Formel für die Normalisierung ist y = (x-min)/(max-min), wobei y der normalisierte Wert und x der ursprüngliche Wert ist. Wenn das System ein vortrainiertes Netz verwendet, das nicht über eine eingebaute Normalisierung verfügt, würde es diese Normalisierung verwenden.
-
Der Benutzeralgorithmus 40 stimmt jede Probe des Sendegeräts auf optimale Abstimmungsparameter ab, die dann verwendet werden, um das Netzwerk darauf zu trainieren, die optimalen Abstimmungsparameter mit einer bestimmten Wellenform und Merkmalen wie Temperatur und Oszillatorrauschen zu verknüpfen. Diese Zuordnung erfolgt immer unter Verwendung der gleichen Eingangsreferenzabstimmungsparameter, die während der Wellenformerfassung im Tx-DUT gespeichert wurden.
-
Bei der Erstellung des hyperspektralen Tensors kann ein Verfahren zur Erstellung eines Kurzmustertensors für maschinelles Lernen verwendet werden. Der Builder 42 verwendet das dekodierte Muster und die Eingangswellenform, um die Datensatzlänge zu durchsuchen und nach vorgegebenen Mustern zu suchen, die je nach Anwendung aus einem Einheitsintervall im maschinellen Lernsystem definiert oder vor dem Benutzer verborgen werden können. Es können mehrere verschiedene Muster verwendet werden. Für die optische Abstimmung kann das System ein kurzes Muster jeder Stufe ohne Übergänge für fünf einzelne Einheitsintervalle verwenden, um die PAM4-Stufen durch die Maschine zu betrachten. Dadurch kann das Gerät die Einstellungen der Tx-Pegel-Parameter leichter erkennen.
-
Zur Erkennung von FFE-Abgriffen (FFE-Taps) der TX-Parametereinstellungen werden Impulsantwort-Codesequenzen, d. h. kurze Muster, herausgezogen und in die Bilder eingefügt, die dem neuronalen Netz 22 eingegeben werden. Der Begriff hyperspektral wird in dem Sinne verwendet, dass das Bild, das in das neuronale Netz 22 für tiefes Lernen eingegeben wird, drei Farbkanäle hat, die mit R, G und B (rot, grün und blau) bezeichnet werden. Die Wellenformen, aus denen diese hyperspektralen Bilder bestehen, sind nicht tatsächlich in diesen Farben, sondern das System verwendet die drei Farbkanäle, um die verschiedenen Bilder zu integrieren, die vom Tensor-Builder erstellt wurden. Das System sammelt drei Wellenformen, und jedes der Bilder von jeder der drei Wellenformen wird in einen der Farbkanäle eingefügt. Beispielsweise kann der wfmMean, der sich aus dem MeanPar-Datensatz ergibt, ohne Einschränkung auf dem roten Kanal, wfmDelta1 aus dem DeltalPar-Satz auf dem blauen Kanal und wfmDelta2 aus dem Delta2Par-Satz auf dem grünen Kanal liegen. Es gibt keine Beschränkung auf diese Kanäle. Zusätzliche Farbkanäle neben dem RGB-Kanal können falls erwünscht einbezogen werden. Die vortrainierten Deep-Learning-Netzwerke, die hier verwendet werden, haben nur drei Farbkanäle, aber mehr Kanäle könnten aus einem benutzerdefinierten Deep-Learning-Netzwerk oder mehreren vortrainierten Dreifarbkanal-Netzwerken resultieren.
-
Wie weiter unten noch näher erläutert wird, werden hier zwei Beispiele für Tensor-Builder vorgestellt. Der eine erzeugt Bilder, die für das Training des Netzes mit optimalen Parametern verwendet werden. Der andere kann für die Abstimmung eines Netzwerks verwendet werden, das TDECQ (Transmitter Dispersion Eye Closure Quaternary) und optimierte FFE (Feed-Forward Equalization) Filtertaps ausgibt. Zusammenfassend lässt sich sagen, dass das maschinelle Lernsystem so trainiert ist, dass es Wellenform-Tensor-Bilder empfängt und einen Satz optimierter Senderparameter ausgibt und auch einen Satz optimierter FFE-Abgriffe und TDECQ ausgeben kann.
-
4 zeigt ein Blockdiagramm einer Ausführungsform eines Laufzeitsystems für ein optisches Transceiver-Abstimmungssystem, das maschinelles Lernen verwendet. Während der Laufzeit schaltet die automatisierte Testanwendung des Benutzers drei verschiedene Referenzsätze von Abstimmungsparametern auf einen einzelnen zu testenden Transceiver wie 32 und erfasst eine Wellenform für jeden, dargestellt durch Schalter 30. Die TDECQ-Analyse, in 6 als 90 dargestellt, tastet Wellenformen neu ab, dekodiert das Muster und gleicht das Muster und die Wellenform ab. Während der Laufzeit wird TDECQ nicht berechnet. TDECQ und FFE-Taps werden vom zweiten trainierten Deep-Learning-Netz ausgegeben, das in 6 mit 100 bezeichnet ist. Die Blöcke des hyperspektralen Tensor Builders 42 erzeugen die gleiche Art von Tensor-Bildern einschließlich Balkendiagrammen, die während des Trainings erstellt wurden. Diese Tensor-Bilder sind die Eingaben für das trainierte neuronale Deep-Learning-Netz 22. Die Ausgaben des trainierten neuronalen Deep-Learning-Netzes 22 sind optimale Abstimmungsparameter, TDECQ und optimierte FFE-Abgriffe. Das System wendet dann einen Block 43 zur inversen Normalisierung oder Standardisierung an, um die gewünschten Werte aus der Ausgabe des neuronalen Netzes zu erhalten.
-
5 zeigt eine Ausführungsform eines Verfahrens zur Erstellung eines Histogramms optimierter Abstimmungsparameter, die in den Trainings- und Laufzeitprozessen verwendet werden. Bei diesem Verfahren wird die herkömmliche „Standard“-Abstimmungsmethode verwendet, um das Histogramm und die Durchschnittswerte zu erzeugen, die zur Erstellung einer Struktur der Durchschnittsparameter (APS) verwendet werden. Der Hersteller schließt den Transceiver bei 50 an das Test- und Messsystem an, stellt dann die Temperatur ein und wartet, bis sie sich bei 52 stabilisiert. Die Wellenform des Transceivers wird dann bei 54 erfasst. Die TDECQ-Analyse 56 ermöglicht es dem System dann, einen Mittelwert zu berechnen 58. In ähnlicher Weise führt die Standardabstimmungsmethode bei 60 zu Abstimmungsparametern für jeden Transceiver, über die bei 62 ein Mittelwert gebildet werden kann. Dies ermöglicht auch die Erstellung eines Histogramms, das beim Training verwendet wird 64. Aus all diesen Informationen wird in 66 eine Struktur der Durchschnittsparameter (APS) erstellt, die in 6 näher erläutert wird und in 68 an die Trainings- und Laufzeitprozesse gesendet wird.
-
Der Vorgang wird dann so oft wie nötig wiederholt. Für jeden Transceiver ändert sich die Temperatur, bis der Transceiver die Tests für den gewünschten Temperaturbereich bei 70 abgeschlossen hat. Der Prozess geht dann zum nächsten Transceiver bei 72 über, bis eine ausreichende Anzahl von Tests durchgeführt wurde, um ein ausreichend hohes Maß an Genauigkeit zu gewährleisten.
-
6 zeigt ein Flussdiagramm einer Ausführungsform des Trainings eines maschinellen Lernsystems, um es auf die Durchführung von Laufzeitvorhersagen optimierter Transceiver-Parameter vorzubereiten. Der Benutzer schließt den Transceiver an das Test- und Messsystem an 80, stellt die Temperatur ein und wartet, bis sie sich stabilisiert 82. Bei 84 wird der Transceiver mit einem der Referenzparametersätze in der Durchschnittsparameterstruktur (APS) 68 aus 5 geladen. Dann wird der Transceiver in Betrieb genommen, und das Test- und Messsystem erfasst, das bedeutet erhält, die Wellenform bei 86. Der Benutzer führt dann die Standardabstimmung durch (88), und das System führt das TDECQ-Analysemodul durch (90). Dies wiederholt sich wie unter 92 angegeben, bis alle drei Referenzparametersätze durchlaufen wurden. Das TDECQ-Analysemodul sendet dann die Wellenformen und Muster für alle Referenzsätze an den Tensor Builder (94). Das TDECQ-Modul führt eine erneute Abtastung der Wellenformen durch, dekodiert das Muster und richtet das Muster und die Wellenformen aus, bevor es diese an den Tensor-Builder sendet. In dieser Ausführungsform gibt es nur ein Muster, da es für alle Wellenformen, die für das Training und die Laufzeit verarbeitet werden, gleich ist.
-
Der Tensor-Builder erzeugt dann mehrere Ausgaben und sendet sie an das neuronale Netz, das mehrere Teilnetze innerhalb des maschinellen Lernsystems umfassen kann. Der Tensor-Builder sendet einen Pegeltensor an ein erstes neuronales Netz, das als neuronales Netz A bezeichnet wird, einen Impulstensor an das neuronale Netz B des Transceivers mit FFE-Abgriffen, den Impulstensor an das neuronale Netz C für optimierte FFE-Abgriffen zusammen mit dem Array für optimierte FFE-Taps aus dem TDECQ-Modul und einen kombinierten Tensor an das neuronale Netz D für die TDECQ-Ergebnisse. Dies wird fortgesetzt, bis der aktuelle Transceiver alle Temperaturen bei 96 durchlaufen hat, und dann für alle Transceiver bei 98 wiederholt, bis genug verarbeitet wurden, woraufhin der Trainingsprozess endet. Um festzustellen, ob genügend Transceiver verarbeitet wurden, kann das maschinelle Lernsystem getestet werden, um seine Genauigkeit zu ermitteln.
-
8 zeigt Beispiele der ursprünglichen 4-stufigen Pulsamplitudenmodulationsbilder (PAM4) aus den Wellenformen und die resultierenden Tensoren. Wie bereits erwähnt, werden in dieser Ausführungsform drei Kanäle verwendet. 8 zeigt die Eingangswellenformen auf der linken Seite, wobei die drei Kanäle die Eingangswellenformen des roten Kanals 140, des blauen 142 und des grünen 144 zeigen. Der Tensor 150 und die Tensoren in der gleichen Position quer durch die Abbildung entsprechen dem roten Kanal, die Position des Tensors 152 entspricht dem blauen Kanal und die Position des Tensors 154 entspricht dem grünen Kanal.
-
Nach dem Training und der Validierung wird das maschinelle Lernsystem zur Laufzeit eingesetzt. 7 zeigt ein Flussdiagramm einer Ausführungsform dieses Prozesses. Der Benutzer schließt den Transceiver bei 110 an, stellt die Temperatur ein und wartet, bis sie sich bei 112 stabilisiert hat. Die in der Durchschnittsparameterstruktur 68 enthaltenen Referenzparameter werden bei 114 als geeignete Parameter für diesen Teil des Prozesses in den Transceiver geladen. Wie noch näher erläutert werden wird, können sich die geeigneten Parameter ändern, je nachdem, wo sich der Transceiver in seinem Zyklus befindet.
-
Der Prozess wird ähnlich wie der Trainingszyklus fortgesetzt, indem die Wellenform bei 116 erfasst oder eingeholt wird und die TDECQ-Analyse bei 118 durchgeführt wird. Bei 120 prüft das System, ob der Transceiver den Prozess für alle drei Referenzparametersätze durchlaufen hat. Sobald alle drei Referenzparametersätze abgeschlossen sind, werden die drei Wellenformen und das dekodierte Muster an den Tensor-Builder bei 122 gesendet. Der Tensor-Builder erstellt ein Tensor-Bild für alle drei Wellenformen und kombiniert sie alle zu einem RGB-Bild, wie zuvor beschrieben. Ähnlich wie beim Trainingsprozess sendet der Tensor-Builder den Pegel-Tensor, den Impuls-Tensor und das kombinierte Tensor-Bild an das neuronale Netz 124. Während der Laufzeit erzeugt das neuronale Netz bzw. das maschinelle Lernsystem jedoch die optimierten FFE-Abgriffe und TDECQ-Informationen, um einen vorhergesagten, optimierten Satz von Abstimmungsparametern für den Transceiver bereitzustellen.
-
Nachdem die Vorhersagen gemacht wurden, wird das APS-Flag bei 126 auf „false“ gesetzt. Wenn der Prozess zu 114 zurückkehrt, um den Transceiver auf die entsprechenden Parameter einzustellen, sind die entsprechenden Parameter nun die vorhergesagten Abstimmungsparameter. Dies bedeutet auch, dass das System nur eine Wellenform erfassen sollte und nur ein Tensor-Bild erzeugt wird, und das neuronale Netz D erzeugt einen einzigen TDECQ-Wert. Das APS-Flag bleibt bei 126 falsch, so dass der Wert bei 130 geprüft wird und der Transceiver entweder besteht oder nicht. Wenn er bestanden hat, wird bei 128 die nächste Temperatur ausgewählt, falls noch welche getestet werden müssen, oder der Prozess endet.
-
Auf diese Weise wurde mehr als ein neuronales Netz innerhalb des Gesamtsystems aus neuronalem Netz und maschinellem Lernen trainiert. Zwei Netzwerke sagen die optimalen Senderabstimmungsparameter voraus, eines, Netzwerk C, wird zur Vorhersage der FFE-Abgriffe verwendet, und D wird zur Vorhersage einer TDECQ-Messung verwendet.
-
Das System verwendet die TDECQ-Messung während des Trainings als Eingabe für das Netz D, so dass das Netz D eine Eingangswellenform mit einem TDECQ-Wert assoziiert. In ähnlicher Weise wurden die optimierten FFE-Abgriffe aus dem TDECQ-Modul während des Trainings für das C-Netzwerk verwendet, so dass das C-Netzwerk Wellenformen mit optimierten Abgriffs-Werten assoziiert. Sowohl Netzwerk A als auch Netzwerk B stellten Abstimmungsparameter zur Verfügung, die mit drei Referenzwellenformen verknüpft wurden. Netzwerk A lieferte Parameter für Pegel und Verstärkungstyp. Netzwerk B assoziierte FFE-Abstimmungsparameter. Der Sender verfügt über einen eingebauten FFE, so dass die Abgriffe des FFE-Filters Abstimmungsparameter sind.
-
Die optimierten FFE-Abgriffe aus dem TDECQ-Modul sind anders. Es handelt sich dabei nicht um Abstimmungsparameter für den Sender, sondern um den Wert, auf den man einen FFE einstellen würde, um das Auge so weit wie möglich zu öffnen, um die TDECQ-Messung durchführen zu können. Diese FFE-Abgriffe werden auf die Wellenform angewendet, bevor die TDECQ-Messung durchgeführt wird.
-
Während die oben beschriebenen Ausführungsformen anhand der Beispielanwendung von Abstimmungsprozessen für optische Transceiver erörtert werden, können Ausführungsformen der Offenlegung in jedem Prozess verwendet werden, der die Anpassung von Betriebsparametern eines beliebigen Typs von zu testenden Vorrichtungen beinhaltet, und sie können besonders nützlich sein, um Prozesse zu verbessern, die eine iterative Anpassung von Betriebsparametern beinhalten, um eine gewünschte Leistungsmessung des DUTs zu erreichen oder um ein passendes Testergebnis für das DUT zu erzielen.
-
Aspekte der Offenlegung können auf einer speziell entwickelten Hardware, auf Firmware, digitalen Signalprozessoren oder auf einem speziell programmierten Allzweckcomputer mit einem Prozessor, der nach programmierten Anweisungen arbeitet, arbeiten. Die hier verwendeten Begriffe „Controller“ oder „Prozessor“ sollen Mikroprozessoren, Mikrocomputer, anwendungsspezifische integrierte Schaltungen (ASICs) und spezielle Hardware-Controller umfassen. Ein oder mehrere Aspekte der Offenbarung können in computerverwendbaren Daten und computerausführbaren Anweisungen verkörpert sein, beispielsweise in einem oder mehreren Programmmodulen, die von einem oder mehreren Computern (einschließlich Überwachungsmodulen) oder anderen Geräten ausgeführt werden. Im Allgemeinen umfassen Programmmodule Routinen, Programme, Objekte, Komponenten, Datenstrukturen usw., die bestimmte Aufgaben ausführen oder bestimmte abstrakte Datentypen implementieren, wenn sie von einem Prozessor in einem Computer oder einem anderen Gerät ausgeführt werden. Die computerausführbaren Anweisungen können auf einem nicht transitorischen, computerlesbaren Medium wie einer Festplatte, einer optischen Platte, einem Wechselspeichermedium, einem Festkörperspeicher, einem Random Access Memory (RAM) usw. gespeichert sein. Wie dem Fachmann klar sein wird, kann die Funktionalität der ProgrammModule in verschiedenen Aspekten beliebig kombiniert oder verteilt werden. Darüber hinaus kann die Funktionalität ganz oder teilweise in Firmware oder Hardware-Äquivalenten wie integrierten Schaltungen, FPGA und dergleichen verkörpert sein. Bestimmte Datenstrukturen können verwendet werden, um einen oder mehrere Aspekte der Offenbarung effektiver zu implementieren, und solche Datenstrukturen werden im Rahmen der hier beschriebenen computerausführbaren Anweisungen und computerverwendbaren Daten in Betracht gezogen.
-
Die offengelegten Aspekte können in einigen Fällen in Hardware, Firmware, Software oder einer Kombination davon implementiert werden. Die offengelegten Aspekte können auch in Form von Befehlen implementiert werden, die auf einem oder mehreren nicht-übertragbaren computerlesbaren Medien gespeichert sind, die von einem oder mehreren Prozessoren gelesen und ausgeführt werden können. Solche Anweisungen können als Computerprogrammprodukt bezeichnet werden. Computerlesbare Medien, wie hier beschrieben, sind alle Medien, auf die ein Computer zugreifen kann. Computerlesbare Medien können zum Beispiel Computerspeichermedien und Kommunikationsmedien umfassen, ohne darauf beschränkt zu sein.
-
Computerspeichermedien sind alle Medien, die zum Speichern von computerlesbaren Informationen verwendet werden können. Zu den Computerspeichermedien gehören beispielsweise RAM, ROM, EEPROM (Electrically Erasable Programmable Read-Only Memory), Flash-Speicher oder andere Speichertechnologien, CD-ROM (Compact Disc Read Only Memory), DVD (Digital Video Disc) oder andere optische Plattenspeicher, Magnetkassetten, Magnetbänder, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen sowie alle anderen flüchtigen oder nicht flüchtigen, entfernbaren oder nicht entfernbaren Medien, die in beliebigen Technologien eingesetzt werden. Computerspeichermedien schließen Signale als solche und vorübergehende Formen der Signalübertragung aus.
-
Kommunikationsmedien sind alle Medien, die für die Übertragung von computerlesbaren Informationen verwendet werden können. Zu den Kommunikationsmedien gehören beispielsweise Koaxialkabel, Glasfaserkabel, Luft oder jedes andere Medium, das für die Übertragung von elektrischen, optischen, Hochfrequenz- (HF), Infrarot-, akustischen oder anderen Signalen geeignet ist.
-
Außerdem wird in dieser schriftlichen Beschreibung auf bestimmte Merkmale verwiesen. Es ist davon auszugehen, dass die Offenbarung in dieser Spezifikation alle möglichen Kombinationen dieser besonderen Merkmale umfasst. Wenn beispielsweise ein bestimmtes Merkmal im Zusammenhang mit einem bestimmten Aspekt offenbart wird, kann dieses Merkmal, soweit möglich, auch im Zusammenhang mit anderen Aspekten verwendet werden.
-
Wenn in dieser Anmeldung auf ein Verfahren mit zwei oder mehr definierten Schritten oder Vorgängen Bezug genommen wird, können die definierten Schritte oder Vorgänge in beliebiger Reihenfolge oder gleichzeitig ausgeführt werden, es sei denn, der Kontext schließt diese Möglichkeiten aus.
-
BEISPIELE
-
Im Folgenden werden Beispiele für die offengelegten Technologien aufgeführt. Eine Ausführungsform der Technologien kann eines oder mehrere und jede Kombination der unten beschriebenen Beispiele umfassen.
-
Beispiel 1 ist ein Test- und Messsystem, das Folgendes umfasst: eine Test- und Messvorrichtung; eine Verbindung, die es der Test- und Messvorrichtung ermöglicht, sich mit einem optischen Transceiver zu verbinden; und einen oder mehrere Prozessoren, die so ausgebildet sind, dass sie einen Code ausführen, der den einen oder die mehreren Prozessoren veranlasst, Folgendes zu tun: Setzen von Betriebsparametern für den optischen Transceiver auf Referenzbetriebsparameter; Erfassen einer Wellenform von dem optischen Transceiver; wiederholtes Ausführen des Codes, um den einen oder die mehreren Prozessoren zu veranlassen, Betriebsparameter zu setzen und eine Wellenform zu erfassen, für jeden einer vorbestimmten Anzahl von Sätzen von Referenzbetriebsparametern; Aufbauen eines oder mehrerer Tensoren aus den erfassten Wellenformen; Senden des einen oder der mehreren Tensoren an ein maschinelles Lernsystem, um einen Satz von vorhergesagten Betriebsparametern zu erhalten; Setzen der Betriebsparameter für den optischen Transceiver auf die vorhergesagten Betriebsparameter; und Testen des optischen Transceivers unter Verwendung der vorhergesagten Betriebsparameter.
-
Beispiel 2 ist das Test- und Messsystem aus Beispiel 1, wobei der eine oder die mehreren Prozessoren ferner so ausgebildet sind, dass sie die Ausführung des Codes für jede Temperatureinstellung in einem Bereich von Temperatureinstellungen wiederholen.
-
Beispiel 3 ist das Test- und Messsystem der Beispiele 1 oder 2, wobei der eine oder die mehreren Prozessoren auf die Test- und Messvorrichtung, ein Testautomatisierungssystem und ein von der Test- und Messvorrichtung getrenntes maschinelles Lernsystem verteilt sind.
-
Beispiel 4 ist das Test- und Messsystem aus einem der Beispiele 1 bis 3, wobei das maschinelle Lernsystem eine Vielzahl von neuronalen Netzen umfasst, eines oder mehrere, um die vorhersagenden Betriebsparameter zu erzeugen, eines, um einen vorhergesagten Messwert zu erzeugen, und eines, um einen Satz von optimierten Vorwärtsentzerrungsfilter-Abgriffswerten zu erzeugen.
-
Beispiel 5 ist das Test- und Messsystem nach einem der Beispiele 1 bis 4, wobei die vorgegebene Anzahl von Sätzen von Referenzparametern drei beträgt, ein Satz von Durchschnittswerten für die Parameter, ein Satz mit Werten, die höher als die Durchschnittswerte sind, und ein Satz mit Werten, die niedriger als die Durchschnittswerte sind.
-
Beispiel 6 ist das Test- und Messsystem nach einem der Beispiele 1 bis 5, wobei der eine oder die mehreren Prozessoren ferner so ausgebildet sind, dass sie einen Code ausführen, der den einen oder die mehreren Prozessoren veranlasst, eine inverse Normalisierung auf die vorhergesagten Betriebsparameter anzuwenden.
-
Beispiel 7 ist ein Verfahren zum Abstimmen optischer Transceiver, das Folgendes umfasst: Verbinden des optischen Transceivers mit einer Test- und Messvorrichtung; Setzen von Betriebsparametern zum Abstimmen des Transceivers auf Referenzbetriebsparameter; Erfassen einer Wellenform von dem optischen Transceiver; Wiederholen des Setzens von Betriebsparametern und Erfassen einer Wellenform für jeden einer vorbestimmten Anzahl von Sätzen von Referenzbetriebsparametern; Aufbauen eines oder mehrerer Tensoren aus den erfassten Wellenformen; Senden des einen oder der mehreren Tensoren an ein maschinelles Lernsystem, um einen Satz von vorhergesagten Betriebsparametern zu erhalten; Setzen der Betriebsparameter zum Abstimmen des optischen Transceivers auf die vorhergesagten Betriebsparameter; und Validieren der vorhergesagten Betriebsparameter.
-
Beispiel 8 ist das Verfahren von Beispiel 7, das ferner ein Wiederholen des Verfahrens für jede Temperatur in einem Temperaturbereich umfasst.
-
Beispiel 9 ist das Verfahren der Beispiele 7 oder 8, wobei die Bildung eines oder mehrerer Tensoren die Bildung eines Pegeltensors, eines Impulstensors und eines kombinierten Tensors umfasst.
-
Beispiel 10 ist das Verfahren nach einem der Beispiele 7 bis 9, wobei das Bilden eines kombinierten Tensors die Erstellung eines Bildes mit drei oder mehr Kanälen umfasst.
-
Beispiel 11 ist das Verfahren von Beispiel 10, wobei das Bild ein Balkendiagramm enthält, das mindestens einen Temperaturwert oder einen Rauschwert darstellt.
-
Beispiel 12 ist das Verfahren aus einem der Beispiele 7 bis 11, das ferner das Erzeugen von Referenzbetriebsparametern umfasst, das Folgendes umfasst: Abstimmen einer Vielzahl von optischen Transceivern bei einer Vielzahl von Temperaturen; Erzeugen eines Histogramms jedes Abstimmungsparameters bei jeder Temperatur für die Vielzahl von abgestimmten optischen Transceivern; Berechnen eines mittleren Referenzparametersatzes durch Mittelwertbildung von Werten für jeden Parameter in den Histogrammen; Erhöhen von Werten im mittleren Parametersatz, um einen ersten Delta-Referenzparametersatz zu erzeugen; und Verringern von Werten im mittleren Parametersatz, um einen zweiten Delta-Referenzparametersatz zu erzeugen.
-
Beispiel 13 ist das Verfahren wie in einem der Beispiele 7 bis 13, wobei ein Bilden eines oder mehrerer Tensoren ein Bilden eines Tensors mit drei Kanälen umfasst, einem Kanal für einen mittleren Referenztensor, einem Kanal für einen ersten Delta-Tensor und einem Kanal für einen zweiten Delta-Tensor.
-
Beispiel 14 ist das Verfahren nach einem der Beispiele 7 bis 13, wobei das Senden des einen oder der mehreren Tensoren an ein maschinelles Lernsystem Folgendes umfasst: Senden des einen oder der mehreren Tensoren an zwei neuronale Netze in dem maschinellen Lernsystem, um optimierte Betriebsparameter zu erhalten; Senden eines Impulstensors an ein drittes neuronales Netz, um optimierte Feed-Forward-Entzerrungsfilter-Abgriffe zu erhalten; und Senden eines kombinierten Tensors an ein viertes neuronales Netz, um ein vorhergesagtes Sender- und Dispersions-Augenschluss-Quartär (TDECQ; transmitter dispersion eye closure quaternary) zu erhalten.
-
Beispiel 15 ist das Verfahren nach einem der Beispiele 7 bis 14, wobei die Validierung der vorhergesagten Betriebsparameter das Messen des Ausgangs des Sende-Empfängers und die Bestimmung, ob der Ausgang innerhalb eines vorbestimmten Bereichs liegt, umfasst.
-
Beispiel 16 ist das Verfahren nach einem der Beispiele 7 bis 15, das ferner die Anwendung einer inversen Normierung auf die vorhergesagten Betriebsparameter umfasst.
-
Beispiel 17 ist ein Verfahren zum Trainieren eines maschinellen Lernsystems zum Abstimmen optischer Transceiver, umfassend: Erzeugen einer vorbestimmten Anzahl von Sätzen von Referenzbetriebsparametern; Wiederholen, für jeden Satz von Referenzbetriebsparametern: Setzen der Betriebsparameter für den optischen Transceiver auf einen Satz von Referenzbetriebsparametern; Erfassen einer Wellenform von dem optischen Transceiver; Abstimmen des optischen Transceivers, um eine gewünschte Ausgabe zu erfüllen; und Durchführen einer quaternären Sender- und Dispersions-Augenschluss-Analyse (TDECQ-Analyse) an der Wellenform; Bereitstellen von Ergebnissen der Analyse und der Wellenformen an einen Tensor-Builder; Senden eines oder mehrerer Tensoren an ein oder mehrere neuronale Netze mit den zugehörigen Wellenformen und Referenzbetriebsparametern; und Wiederholen des Verfahrens, bis eine ausreichende Anzahl von Sendern abgestimmt worden ist.
-
Beispiel 18 ist das Verfahren von Beispiel 17, wobei das Erzeugen der vorbestimmten Anzahl von Sätzen von Referenzbetriebsparametern umfasst: Abstimmen einer Vielzahl von optischen Transceivern bei einer Vielzahl von Temperaturen; Erzeugen eines Histogramms jedes Parameters bei jeder Temperatur für die Vielzahl von abgestimmten optischen Transceivern; Berechnen eines mittleren Referenzparametersatzes durch Mittelwertbildung von Werten für jeden Parameter in den Histogrammen; Erhöhen von Werten in dem mittleren Parametersatz, um einen ersten Delta-Referenzparametersatz zu erzeugen; und Verringern von Werten in dem mittleren Parametersatz, um einen zweiten Delta-Referenzparametersatz zu erzeugen.
-
Beispiel 19 ist das Verfahren der Beispiele 17 oder 18, das außerdem die Normalisierung der Referenzparameter umfasst.
-
Beispiel 20 ist das Verfahren nach einem der Beispiele 17 bis 19, wobei das eine oder die mehreren neuronalen Netze ein oder mehrere neuronale Netze für Pegel, ein Netz zur Bereitstellung von Werten für Feed-Forward-Entzerrungsfilter und ein Netz für einen quaternären Zeitdispersions-Augenverschlusswert umfassen.
-
Alle in der Beschreibung, einschließlich der Ansprüche, der Zusammenfassung und der Zeichnungen, offengelegten Merkmale und alle Schritte in jedem offengelegten Verfahren oder Prozess können in jeder Kombination kombiniert werden, mit Ausnahme von Kombinationen, bei denen sich zumindest einige dieser Merkmale und/oder Schritte gegenseitig ausschließen. Jedes in der Beschreibung, einschließlich der Ansprüche, der Zusammenfassung und der Zeichnungen, offenbarte Merkmal kann durch alternative Merkmale ersetzt werden, die dem gleichen, gleichwertigen oder ähnlichen Zweck dienen, sofern nicht ausdrücklich etwas anderes angegeben ist.
-
Obwohl bestimmte Ausführungsformen zum Zwecke der Veranschaulichung dargestellt und beschrieben wurden, können verschiedene Änderungen vorgenommen werden, ohne vom Geist und Umfang der Offenbarung abzuweichen. Dementsprechend sollte die Erfindung nicht eingeschränkt werden, außer wie durch die beigefügten Ansprüche.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- US 63/165698 [0001]
- US 63/272998 [0001]