DE102008022132A1 - Verfahren zum Konfigurieren einer Testeinrichtung, Testverfahren und Testeinrichtung - Google Patents

Verfahren zum Konfigurieren einer Testeinrichtung, Testverfahren und Testeinrichtung Download PDF

Info

Publication number
DE102008022132A1
DE102008022132A1 DE102008022132A DE102008022132A DE102008022132A1 DE 102008022132 A1 DE102008022132 A1 DE 102008022132A1 DE 102008022132 A DE102008022132 A DE 102008022132A DE 102008022132 A DE102008022132 A DE 102008022132A DE 102008022132 A1 DE102008022132 A1 DE 102008022132A1
Authority
DE
Germany
Prior art keywords
test
simulation
records
components
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102008022132A
Other languages
English (en)
Inventor
Maan Dipl.-Ing. Al-Homci
Klemens Dipl.-Ing. Brumm
Jan Dipl.-Ing. Bobolecki
Rainer Dipl.-Ing. Dr. Casdorff
Josef Dipl.-Ing. Kruse
Dirk Dipl.-Ing. Dr. Martinen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Operations GmbH
Original Assignee
Airbus Operations GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Airbus Operations GmbH filed Critical Airbus Operations GmbH
Priority to DE102008022132A priority Critical patent/DE102008022132A1/de
Priority to US12/435,013 priority patent/US8660832B2/en
Publication of DE102008022132A1 publication Critical patent/DE102008022132A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design

Abstract

Die Erfindung betrifft ein Verfahren zum Konfigurieren einer Testeinrichtung (10) für eine zu testende Vorrichtung (26), die als Komponente eines Systems vorgesehen ist, das mehrere Komponenten enthält, wobei die Komponenten des Systems durch Datensätze beschrieben werden, die Elemente aufweisen, welche Beziehungen von Komponenten untereinander beschreiben, wobei das Verfahren die Schritte umfasst: Verknüpfen der Datensätze und Erzeugen einer Systembeschreibung, basierend auf den verknüpften Datensätzen, Simulieren des Systems durch eine Simulation, basierend auf der Systembeschreibung durch eine Simulationseinrichtung (18), wobei ein Abbild der zu testenden Vorrichtung (26) in der Simulation erfasst wird, Entfernen des Abbilds der zu testenden Vorrichtung (26) aus der Simulation und Bereitstellen einer oder mehrerer Testschnittstellen (22) zur Kommunikation zwischen der Simulationseinrichtung (18) und der zu testenden Vorrichtung (26).

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Konfigurieren von Testeinrichtungen, sowie ferner ein Testverfahren und Testeinrichtungen.
  • Hintergrund der Erfindung
  • Heutzutage werden in vielen Bereichen der Technik zunehmend komplexere Systeme mit digitalen Komponenten entwickelt und verwendet. Dies betrifft unter anderem den Bereich der Luftfahrt, der Computertechnologie, der Fahrzeugtechnologie und der Kommunikationstechnologie.
  • Die zunehmende Komplexität dieser Systeme beruht teilweise auf der zunehmenden Anzahl verwendeter Komponenten, wird teilweise aber auch durch die zunehmende Komplexität der einzelnen Komponenten selbst hervorgerufen, beispielsweise durch die ständige Zunahme der Schaltungsdichte auf Halbleiterelementen.
  • Bevor derartige Systeme einsatzreif sind, müssen sie auf korrekte Funktionalität getestet werden. Eine hohe Komplexität solcher zu testender Systeme macht allerdings das Testen kompliziert und aufwendig. Insbesondere dann, wenn eine Vielzahl von Komponenten miteinander in Verbindung stehen, ist ein zuverlässiges Testen außerordentlich komplex und zeitaufwendig. Sofern sich ein System noch in der Entwicklung befindet und regelmäßigen Anpassungen und Änderungen unterliegt, ergeben sich ständig wechselnde Anforderungen für das Testverfahren. Dann ist es in der Regel nicht möglich, ein automatisches Testen eines Systems in der Entwicklung durchzuführen. Im Allgemeinen ist stattdessen ein manueller Testbetrieb notwendig, und ein Testingenieur muss an vielen Stellen direkt in die Testentwicklung, Konfiguration und Ausführung eingreifen.
  • Im Stand der Technik wird in der Regel so vorgegangen, dass ein System, beispielsweise eine integrierte Schaltung, durch eine Simulation abgebildet wird. Die integrierte Schaltung wird mit Signalen angesteuert und ihr Antwortverhalten wird registriert und mit dem Verhalten der Simulation verglichen, um eventuelle Fehler der Schaltung festzustellen. Um ein solches Verfahren durchführen zu können, ist es notwendig, dass die Daten für die Simulation den idealen Zustand der zu testenden Vorrichtung vollständig und korrekt beschreiben. Ein Fehler in der Simulation macht einen korrekten Testvorgang unmöglich und kann sogar zu gefährlich falschen Testergebnissen führen. Verfahren dieser Art werden in beispielsweise in den Schriften US 2002/0073375 A1 und US 2004/0225459 A1 behandelt.
  • Mit derartigen Verfahren des Standes der Technik werden zumeist bereits fertig entwickelte Komponenten auf korrektes Funktionieren als Teil der Qualitätskontrolle bei der Herstellung getestet. Diese Verfahren sind allerdings nicht darauf ausgelegt, zu testen, ob etwa ein Gesamtsystem in der Entwicklung bei Verwenden einer bestimmten zu testenden Vorrichtung innerhalb bestimmter vorgegebener Systemparameter betrieben werden kann, also bestimmte Systemerfordernisse erfüllen kann. Dafür sind aufwendige Tests größerer Systemteile oder sogar des Gesamtsystems erforderlich.
  • Ein weiteres, damit zusammenhängendes Problem beim Stand der Technik besteht darin, dass die zu testende Vorrichtung nicht in der Umgebung getestet wird, in der sie eingesetzt wird. Die zum Testen an die zu testende Vorrichtung übertragenen Signale sind von der zukünftigen Systemumgebung unabhängig. Die Systemumgebung selbst wird nicht abgebildet, so dass sich eine sehr unvollständige Umgebung für die zu testende Vorrichtung ergibt und ein dynamisches Umfeld, wie es sich im Einsatz ergeben kann, nicht in die Prüfung einbezogen wird. Auch führen Änderungen der Systemumgebung dazu, dass die an die zu testende Vorrichtung zu übertragenden Signale manuell angepasst werden müssen.
  • Es besteht demnach ein Bedarf für ein Verfahren und ein System zum Testen von Komponenten eines Systems, die leicht an Änderungen der zu testenden Vorrichtung und/oder ihrer Systemumgebung angepasst werden können und die auch die anderen angesprochenen Probleme löst. Dazu ist zunächst einmal erforderlich, eine Testeinrichtung vor dem eigentlichen Testen zu konfigurieren.
  • Abriss der Erfindung
  • Die vorliegende Erfindung schlägt zur Lösung der oben erwähnten Aufgaben ein Verfahren zum Konfigurieren einer Testeinrichtung für eine zu testende Vorrichtung vor, die als Komponente eines Systems vorgesehen ist, das mehrere Komponenten enthält, wobei die Komponenten des Systems durch Datensätze beschrieben werden, die Elemente aufweisen, welche Beziehungen von Komponenten untereinander beschreiben. Das Verfahren umfasst die Schritte des Verknüpfens der Datensätze und Erzeugens einer Systembeschreibung basierend auf den verknüpften Datensätzen, des Simulierens des Systems mittels einer Simulation mittels einer Simulationseinrichtung basierend auf der Systembeschreibung, wobei ein Abbild der zu testenden Vorrichtung in der Simulation erfasst wird, des Entfernens des Abbilds der zu testenden Vorrichtung aus der Simulation und des Bereitstellens einer oder mehrere Testschnittstellen zur Kommunikation zwischen der Simulationseinrichtung und der zu testenden Vorrichtung.
  • Erfindungsgemäß wird somit ein Testsystem konfiguriert, das eine Simulation einer Systemumgebung der zu testenden Vorrichtung und nicht nur die von einer Umgebung erzeugten Signale über die eine oder die mehreren Testschnittstellen bereitstellt. Die Simulation enthält ein virtuelles Abbild der zu testenden Vorrichtung sowie virtuelle Abbilder der anderen Komponenten, die als zum System gehörend definiert sind. Ferner werden die Beziehungen der Komponenten untereinander abgebildet, was beispielsweise die Kommunikationmöglichkeiten zwischen den Komponenten beschreiben kann. Aus dieser Simulation wird das virtuelle Abbild der zu testenden Vorrichtung herausgelöst. Dabei ist darauf zu achten, dass nur das Abbild dieser Vorrichtung aus der Simulation entfernt wird, die Verbindungen bzw. Beziehungen der Komponenten jedoch erhalten bleiben. Es ergibt sich so eine Art Leerstelle in der Simulation, zu der weiterhin Verbindungen laufen. Damit wird eine virtuelle Systemumgebung für die zu testende Vorrichtung geschaffen, die über die Testschnittstellen und eventuell weitere geeignete Maßnahmen (wie etwa weitere Software-Schnittstellen) mit den nach dem Entfernen des Abbilds der zu testenden Komponente offenen Verbindungen verbunden werden kann. Die Verbindungen zu dem Abbild der zu testenden Komponente werden also derart gekappt, dass virtuell dieses Abbild entfernt werden kann und durch die tatsächliche zu testende Einheit ersetzt werden kann. Somit lässt sich ein umfassender Test der zu testenden Vorrichtung vornehmen. Ferner trägt die Konfiguration der Testeinrichtung Änderungen bei Komponenten des Systems Rechnung, indem diese in die Systembeschreibung und nachfolgend in die Simulation integriert werden. Dies schließt automatisch Änderungen der zu testenden Vorrichtung mit ein. Durch dieses Verfahren wird im Vergleich zum Stand der Technik ein größerer Fokus auf die Systemumgebung statt nur auf die zu testende Vorrichtung gelegt. Das Konfigurieren der Testeinrichtung kann teilweise in Software erfolgen, andererseits ist jedenfalls zum Bereitstellen einer oder mehrerer Testschnittstellen an der Testeinrichtung zur Kommunikation mit der zu testenden Vorrichtung Hardware erforderlich. Das Verknüpfen der Datensätze erfolgt nach Maßgabe der die Beziehungen der Komponenten untereinander beschreibenden Elemente der Datensätze.
  • In einer bevorzugten Ausführungsform ist vorgesehen, dass Datensätze ferner weitere Eigenschaften einer Komponente beschreibende Elemente aufweisen. Dadurch können auch Eigenschaften in die Systembeschreibung aufgenommen werden, die nicht unmittelbar Beziehungen der Komponenten untereinander zugeordnet sind, wie beispielsweise Zustände einer Komponente, benötigte Ressourcen und ähnliches.
  • Vorzugsweise werden beim Verknüpfen die Beziehungen der Komponenten beschreibenden Elemente der Datensätze auf Konsistenz überprüft. Dadurch lässt sich feststellen, ob die Beziehungen der Komponenten untereinander konsistent durch die Datensätze beschrieben werden, ob sich also ein konsistentes System von Beziehungen ergibt. Es ist vorteilhaft, dass dann, wenn eine Inkonsistenz festgestellt wird, diesbezügliche Informationen ausgegeben werden. Diese stellen wertvolle Entwicklungsdaten dar und können dann beispielsweise an Entwickler weitergeleitet werden, welche die Datensätze beziehungsweise die zugehörigen Komponenten entsprechend anpassen. Es können dabei auch die Datensätze insgesamt auf Konsistenz überprüft werden, damit auch die weiteren Eigenschaften der Komponenten erfasst werden.
  • In einer bevorzugten Ausführungsform wird der Schritt, die Datensätze zu verknüpfen und die Systembeschreibung zu erzeugen, durchgeführt, ohne Beziehungen der Komponenten beschreibende Elemente der Datensätze zu berücksichtigen, die nicht konsistent sind. Diese werden also weggelassen, so dass sich bezüglich der Beziehungen der Komponenten untereinander immer eine konsistente Systembeschreibung ergibt. Dadurch werden undefinierte Zustände in der Simulation vermieden und Fehlerquellen ausgeschaltet. Gleichzeitig führt dies zu einer Simulation des Systems, die recht nahe an der Leistungsfähigkeit des simulierten Systems liegt, da dieses nur innerhalb seines konsistent spezifizierten Bereich angemessen funktionsfähig ist. Alternativ wird der Schritt, die Datensätze zu verknüpfen und die Systembeschreibung zu erzeugen, ohne Berücksichtigung von Elementen der Datensätze durchgeführt, die nicht konsistent sind. Dadurch wird eine sogar noch bessere Simulation der tatsächlichen Leistungsfähigkeit des Systems erreicht, da auch weitere Komponenteneigenschaften Berücksichtigung finden.
  • Vorteilhafterweise beschreiben die Datensätze zwischen Komponenten austauschbare Signale. So lassen sich abstrakt die Beziehungen zwischen den Komponenten darstellen.
  • Es kann vorgesehen sein, dass beim Überprüfen festgestellt wird, ob Signale, die gemäß einem einer ersten Komponente zugeordneten Datensatz durch die erste Komponente von einer zweiten Komponente empfangen werden können, mit Signalen übereinstimmen, die gemäß einem der zweiten Komponente zugeordneten Datensatz von dieser an die erste Komponente gesandt werden können. In der Regel werden die Beziehungen zwischen einzelnen Komponenten nämlich durch die Signale definiert, die sie miteinander austauschen. Auf die vorgeschlagene Art lässt sich einfach eine Konsistenzüberprüfung derartig definierter Beziehungen der Komponenten untereinander durchführen.
  • In einer vorteilhaften Weiterbildung der Erfindung ist vorgesehen, dass die Testeinrichtung mit einer Datenbank verbunden wird, welche die Datensätze enthält. Auf diese Art lassen sich die Datensätze bequem speichern und verwalten. Außerdem erlaubt dies, die Daten unabhängig von der Testeinrichtung zu pflegen.
  • Es ist wünschenswert, einen Schritt des Erzeugens eines Treibers für die zu testende Vorrichtung basierend auf den Datensätzen durchzuführen, gemäß dem die zu testende Vorrichtung über die eine oder mehrere Schnittstellen angesteuert wird. In einer modernen digitalen Systemumgebung müssen einzelne Komponenten nach bestimmten vorgeschriebenen Regeln angesprochen werden, um definiert zu funktionieren. Um dies zu erreichen, kann aus den die Komponenten beschreibenden Datensätzen ein Treiber für die zu testende Vorrichtung erzeugt werden, der bei einer Änderung der Beschreibung der zu testenden Vorrichtung automatisch an die Änderungen angepasst wird.
  • Die Erfindung betrifft auch ein Testverfahren, das ferner die Schritte vorsieht, die zu testende Vorrichtung mit der Simulationseinrichtung über die eine oder mehreren Testschnittstellen zu verbinden und die zu testende Vorrichtung durch Versenden von Signalen an die zu testende Vorrichtung und Empfangen von Antwortsignalen über die eine oder mehrere Testschnittstellen zu testen.
  • Es ist vorteilhaft, Wenn bei jedem ausgeführten Schritt eine vollständige Dokumentation erfolgt, in der die anfallenden und ausgetauschten Daten herausgeschrieben und gespeichert werden. Insbesondere ist es wünschenswert, alle in der Simulation anfallenden Daten zu protokollieren.
  • Ferner betrifft die vorliegende Erfindung eine Testeinrichtung zum Testen einer zu testenden Vorrichtung, wobei die zu testende Vorrichtung als eine Komponente eines Systems vorgesehen ist, wobei die Komponenten des Systems durch Datensätze mit Elementen zur Beschreibung von Beziehungen von Komponenten untereinander beschrieben sind. Die Testeinrichtung umfasst eine Systembeschreibungseinrichtung zur Verknüpfung der Datensätze und zur Erzeugung einer Systembeschreibung basierend auf den verknüpften Datensätzen, eine Simulationseinrichtung zur Simulation des Systems basierend auf der Systembeschreibung, wobei die zu testende Vorrichtung durch ein Abbild in der Simulation erfasst ist und vorgesehen ist, dass das Abbild der zu testenden Vorrichtung aus der Simulation entfernbar ist, und eine oder mehrere Testschnittstellen zum Ermöglichen einer Kommunikation zwischen der Simulationseinrichtung und der zu testenden Vorrichtung.
  • Ferner können weitere Einrichtungen und Ausgestaltungen vorgesehen sein, um die oben ausgeführten Schritte durchzuführen.
  • Kurze Beschreibung der Figuren
  • 1 zeigt schematisch einen Aufbau einer erfindungsgemäßen Testeinrichtung und damit verbindbarer Einrichtungen.
  • 2 zeigt schematisch ein Verfahren zum Konfigurieren der Testeinrichtung.
  • 3 zeigt schematisch eine mögliche Struktur von Datensätzen zur Beschreibung der Komponenten eines Systems.
  • Beschreibung der Figuren
  • Im Rahmen der Beschreibung bezieht sich der Begriff Komponente auf einen Teil eines übergeordneten Systems, in dem die zu testende Vorrichtung verwendet werden soll. Eine Komponente dieses System kann dabei Software oder Hardware sein, in der Regel wird sie aber sowohl über Software- als auch Hardwareanteile verfügen. Die zu testende Vorrichtung verfügt immer über einen Hardwareanteil und ist Teil des Systems.
  • In 1 ist eine beispielhafte Testeinrichtung 10 dargestellt, welche eine Verbindungseinrichtung 12 aufweist. Neben der Verbindungseinrichtung 12 umfasst die Testeinrichtung 10 eine Systembeschreibungseinrichtung 14, die mit einer Überprüfungseinrichtung 16 zum Datentransport verbunden ist. Die Überprüfungseinheit 16 und die Systembeschreibungseinrichtung 14 können auch als eine gemeinsame Einrichtung ausgebildet sein. Weiterhin ist die Systembeschreibungseinrichtung 14 einerseits mit der Verbindungseinrichtung 12 und andererseits mit einer Simulationseinrichtung 18 verbunden. Eine oder mehrere Schnittstellen 22 sind zum Datenaustausch mit der Simulationseinrichtung vorgesehen und mit einer Treibereinrichtung 20 verbunden. Zwischen den Einrichtungen 12, 14, 16, 18, 20 und den Testschnittstellen 22 bestehen geeignete Verbindungen zum Datenaustausch.
  • Die verschiedenen Einrichtungen der Testeinrichtung 10 können separat ausgebildet sein, oder in einer Rechnereinheit implementiert sein. Es kann auch von Vorteil sein, einige der Einheiten auf einer Rechnereinheit zu implementieren und die anderen entweder jeweils separat oder teilweise zusammen auf andere Rechnereinheiten zu verteilen. Jede der erwähnten Einrichtungen 12, 16, 14, 18, 20 kann als Programm implementiert sein, das beispielsweise auf einer zur Testeinrichtung 10 gehörenden Rechnereinheit läuft. Insbesondere die Treibereinrichtung 20 ist zweckmäßigerweise als Software ausgeführt.
  • Die Verbindungseinrichtung 12 der Testeinrichtung 10 ist über eine nicht näher bezeichnete Verbindung auf bekannte Art mit einem Datenbanksystem 24 verbunden, zum Beispiel über eine TCP/IP-Verbindung. Über diese Verbindung werden die Datensätze nach Bedarf an die Testeinrichtung 10 übertragen. Die Datenbank 24 kann selbstverständlich auch mit der Testeinrichtung 10 integriert ausgebildet sein.
  • Das Datenbanksystem 24 speichert die Datensätze, welche die Beziehungen von Komponenten untereinander und vorzugsweise auch Eigenschaften der einzelnen Komponenten beschreiben. Die Datensätze können beispielsweise Spezifikationen für Komponenten enthalten, wie sie in der Luftfahrt Verwendung finden. In den Datensätzen sind zweckmäßigerweise insbesondere jene Signale gespeichert, die eine Komponente an andere Komponenten versenden und von diesen empfangen können soll. Vorzugsweise enthalten die Datensätze jeweils die Signalkonfiguration (z. B. die Art, wie und wann bestimmte Signale verwendet werden), Signaleingangs/ausgangs-Beschreibungen (z. B. die jeweilige Art der Verbindung mit anderen Komponenten betreffend), und Angaben über die Signale selbst; diese Kombination von Informationen wird nachfolgend als Signalprotokoll bezeichnet. Dabei können sich Signalprotokolle bezüglich verschiedener Komponenten überschneiden, wenn beispielsweise Daten über die gleiche Verbindung (Schnittstelle) an verschiedene Komponenten versandt werden können.
  • Auch kann ein Datensatz als Eigenschaftsinformationen Daten über die Funktionsweise, Betriebsbedingungen (zum Beispiel Stromverbrauch, Ressourcen), Notfalleigenschaften, Zustände der Komponente und ähnliches enthalten. Je nach Komplexität des System können in der Datenbank sehr viele Datensätze enthalten sein, jeder mit einer Vielzahl von Elementen, die eine Komponente beschreiben. Es ist vorteilhaft, für jede Komponente einen einzelnen Datensatz anzulegen, um bei einer Änderung einer Komponente nur einen geringen Aufwand bei der Datenpflege zu haben. Bei der Entwicklung großer Systeme ist es zweckmäßig, das Erstellen und Verwalten der Datensätze (welche die Komponenten spezifizieren) separat von der Testeinrichtung 10 vorzunehmen, um eine möglichst große Flexibilität und Unabhängigkeit der Entwickler zu gewährleisten.
  • Die Testeinrichtung 10 ist über die eine oder mehreren Testschnittstellen 22 mit einer zu testenden Vorrichtung 26 verbindbar, die Teil eines aus den durch die Datensätze beschriebenen Komponenten zu bildenden Systems ist.
  • Aus den von dem Datenbanksystem 24 erhaltenen Datensätzen erzeugt die Systembeschreibungseinheit 14 eine Systembeschreibung des Systems, als dessen Teil die zu testende Komponente definiert ist, basierend auf den in den Datensätzen enthaltenen Informationen über die Beziehungen der beschriebenen Komponenten untereinander und den beschriebenen Eigenschaften der Komponenten. Die Systembeschreibungseinrichtung 14 kann zu diesem Zweck die Datensätze auf Basis der Beziehungen der Komponenten beschreibender Elemente verknüpfen.
  • Die Überprüfungseinrichtung 16 ist vorgesehen, um zu überprüfen, ob die Beziehungen konsistent beschrieben sind. Insbesondere ist in diesem Beispiel vorgesehen, dass die Überprüfungseinrichtung 16 feststellt, ob die Angaben für den Signalaustausch zwischen verschiedenen Komponenten konsistent sind. Dies kann beispielsweise eine Überprüfung umfassen, ob die eine Komponente auf ein bestimmtes Signal A ein definiertes Antwortsignal B von einer anderen Komponente erwartet, diese aber laut ihrem Datensatz ein völlig anderes Signal C übermitteln soll oder ob überhaupt von einer Komponente ein Signal A abgegeben werden kann, das eine andere Komponente von dieser empfangen können soll. Auch überprüft die Überprüfungseinheit 16, ob jeder Datensatz für sich konsistent ist, beispielsweise, ob widersprüchliche Angaben zu Funktionen oder Eigenschaften vorliegen. Zusätzlich wird überprüft, ob bestimmte benötigte Informationen in den Datensätzen vorhanden sind, oder eventuell undefinierte Elemente der Datensätze vorliegen. Stellt die Überprüfungseinrichtung 16 einen Widerspruch oder eine Definitionslücke fest, gibt sie eine Warninformation aus. Diese kann gespeichert und beispielsweise den Entwicklern zur Verfügung gestellt werden, so dass diese ihre Entwicklungsarbeit vervollständigen können. Die Überprüfungseinrichtung 16 überprüft also die Spezifikationen der Komponenten, die in den Datensätzen gespeichert sind und informiert über auftretende Fehler. In diesem Beispiel werden schon hier die fehlerbehafteten Informationen in den Datensätzen herausgefiltert. Es ist allerdings auch möglich, die fehlerbehafteten Informationen zu markieren, so dass sie später weggelassen werden können. Alternativ können auch Referenzen auf die fehlerbehafteten Informationen gespeichert werden. Dabei werden fehlerbehaftete Informationen in möglichst kleinen Informationseinheiten behandelt, d. h. insbesondere wird bei Auftreten eines Fehlers nicht der gesamte Datensatz als fehlerbehaftet behandelt, sondern nur die tatsächlich fehlerbehafteten Elemente des Datensatzes.
  • Die Systembeschreibungseinrichtung 14 erzeugt eine Systembeschreibung, welche nicht nur die Beziehungen der Komponenten untereinander enthält, sondern auch die restlichen Elemente der Datensätze, falls vorhanden. Die fehlerbehafteten Informationen werden nicht in die Systembeschreibung aufgenommen. Bei einer Variante kann dies daran liegen, dass sie schon durch die Überprüfungseinrichtung 16 herausgefiltert worden sind; alternativ werden sie bei der Erzeugung der Systembeschreibung beispielsweise durch Verwendung von Markierungen bzw. Referenzen herausgefiltert.
  • Die Simulationseinrichtung 18 erzeugt aus der Systembeschreibung eine Simulation des Systems, welche den Informationsaustausch und die definierten Wechselwirkungen der Komponenten simuliert und auch das Verhalten der einzelnen Komponenten darstellt. Dabei sind die fehlerbehafteten Elemente der Datensätze nicht berücksichtigt, da sie schon in der Systembeschreibung nicht mehr vorkommen. Alternativ besteht die Möglichkeit, dass die Systembeschreibungseinrichtung 14 dazu ausgelegt ist, die fehlerbehafteten Informationen nicht herauszufiltern, und diese Aufgabe die Simulationseinrichtung 18 durchführen zu lassen. Das Weglassen der fehlerbehafteten Informationen aus der Simulation ist allerdings zum Konfigurieren der Testeinrichtung nicht notwendig. Die Simulationseinrichtung 18 simuliert also ein ganzes System, von dem die zu testende Vorrichtung ein Teil ist.
  • Die Simulationseinrichtung 18 ist dazu ausgelegt, nach Fertigstellung der Simulation das Abbild der zu testenden Komponente 26 aus der Simulation zu entfernen und dazu geeignet zu sein, über die eine oder mehreren Testschnittstellen 22 mit einer verbundenen zu testenden Vorrichtung 26 zu kommunizieren. Weiterhin ist die Simulationseinrichtung 18 in der Lage, die Simulation zu beobachten und ihr Verhalten aufzuzeichnen.
  • Die Systembeschreibungseinrichtung 14 und die Verbindungseinrichtung 12 können auch miteinander integriert ausgebildet oder implementiert sein. Gleichermaßen können auch die Systembeschreibungseinrichtung 14 und die Überprüfungseinrichtung 16 integral ausgebildet sein. Auch eine integrale Kombination aus den drei Einrichtungen 12, 14, 16 ist möglich.
  • Die Treibereinrichtung 20 ist vorgesehen, um auf der Basis der Datensätze der zu testenden Komponente und Datensätzen, die den mit ihr kommunizierenden Komponenten zugeordnet sind, einen Treiber für die zu testende Vorrichtung 26 zu erstellen, damit die Simulationseinrichtung 18 mit der zu testenden Vorrichtung 26 über die eine oder mehreren Testschnittstellen 22 kommunizieren kann. Dies ist möglich, da die Datensätze die auszutauschenden Signale bzw. Signalprotokolle enthalten. In diesem Beispiel ist der Treiber allerdings um eventuell fehlerhafte Signale bereinigt, wenn die Überprüfungseinrichtung 16 solche gefunden haben sollte. Die Treibereinrichtung 20 ist mit der Systembeschreibungseinrichtung 14 verbunden. Alternativ kann die Treibereinrichtung 20 auch mit der Überprüfungseinrichtung 16 verbunden sein. Es ist selbstverständlich auch möglich, einen für die zu testende Komponente 26 vordefinierten Treiber vorzuhalten, der zur Kommunikation zwischen der zu testenden Vorrichtung 26 und der Testeinrichtung 10 über die eine oder mehreren Testschnittstellen 22 vorgesehen ist.
  • Die Einrichtungen 12, 14, 16, 18, 20 sind dazu ausgelegt, ihr Verhalten zu dokumentieren, insbesondere während des Betriebs vollständige Log-Dateien anzulegen und zu führen. Damit wird jeder einzelne Schritt nachvollziehbar, was für eine Testeinrichtung in einem sicherheitsrelevanten Bereich von erheblichem Vorteil ist.
  • Nachfolgend ist mit Bezug auf 2 beispielhaft ein Verfahren zur Konfiguration einer Testeinrichtung 10 beschrieben.
  • In einem Schritt S10 wird die Testeinrichtung 10 mit einem Datenbanksystem 24 verbunden. Die Datensätze, welche die zum System gehörigen Komponenten beschreiben, werden aus der Datenbank zur Testeinrichtung 10 übertragen. Aus den Datensätzen wird in Schritt S20 eine Systembeschreibung der Elemente der Datensätze erzeugt, welche die Beziehungen der Komponenten untereinander beschreiben. Während des Schrittes S20 läuft in einem Schritt S30 eine Überprüfung der Elemente der Datensätze, welche Beziehungen der Komponenten untereinander beschreiben, auf Konsistenz ab. Die Schritte S20 und S30 werden parallel zueinander ausgeführt, so dass während der Erzeugung der Systembeschreibung die Konsistenz-Prüfung erfolgt. Im Schritt S30 kann auch eine Dokumentation der festgestellten Fehler der Spezifizierung der Komponenten vorgenommen werden.
  • Es ist weiterhin ein Schritt S40 vorgesehen, bei dem aus der in den Schritten S20 und S30 erzeugten Systembeschreibung eine Simulation des gesamten durch die Datensätze beschriebenen Systems erzeugt wird, wobei fehlerhafte Elemente der Datensätze nicht berücksichtigt sind. Die in dem in 2 gezeigten Beispiel durchgeführte Überprüfung ist jedoch nicht notwendig, um zu einer Testkonfiguration zu gelangen. Durch die Überprüfung in Schritt S30 ergibt sich allerdings eine in sich konsistente Simulation des System, in dem die zu testende Vorrichtung eingesetzt werden soll. Ein Abbild der zu testenden Vorrichtung ist in der Simulation enthalten.
  • In einem Schritt S50 wird das Abbild der zu testenden Vorrichtung aus der Simulation entfernt. Die Simulation wird ohne das Abbild fortgeführt.
  • Für einen Schritt S60 ist vorgesehen, aus der Systembeschreibung des Schritts S20 beziehungsweise der Schritte S20 und S30 einen Treiber für die zu testende Vorrichtung zu erzeugen. Dieser Schritt ist nicht unbedingt notwendig, es kann stattdessen ein vorbereiteter Treiber verwendet werden, oder ganz auf einen Treiber verzichtet werden, sollte ein solcher nicht erforderlich sein.
  • Im Schritt S70 werden eine oder mehrere Testschnittstellen 22 bereitgestellt, über welche eine Kommunikation zwischen dem simulierten System, das fortwährend bereitgehalten wird, und der zu testenden Vorrichtung 26 vermittels des Treibers möglich wird.
  • Damit ist die Konfiguration der Testeinrichtung abgeschlossen.
  • Wie der Fachmann leicht erkennen wird, ist es nicht notwendig, das Verfahren in der beschriebenen Reihenfolge durchzuführen. Insbesondere ist es möglich, die Schritte S50 bis S70 in eine beliebige andere Reihenfolge zu bringen, ohne die Konfiguration der Testeinrichtung zu beeinträchtigen.
  • Optional kann in einem Schritt S80 die zu testende Komponente 26 über die eine oder mehreren Testschnittstellen 22 mit der Testeinrichtung 10 verbunden werden und ein Testbetrieb durchgeführt werden. Dazu werden Signale zwischen der Simulation und der zu testenden Vorrichtung 26 übertragen. Die zu testende Vorrichtung 26 wird durch bestimmte Signale angesprochen und ihre Antwort wird registriert und gespeichert. Gleichzeitig wird die Simulation durchgeführt und ihr Verhalten in Wechselwirkung mit der zu testenden Vorrichtung studiert.
  • 3 zeigt schematisch eine beispielhafte Struktur von Datensätzen, welche eine Komponente K1 und eine Komponente K2 beschreiben. Jeder Datensatz weist Signalprotokolle zum Signalaustausch mit anderen Komponenten auf. Es ist nicht notwendig, dass eine Komponente des Systems mit allen anderen Komponenten kommuniziert. Bei dem in der 3 gezeigten Beispiel ist vorgesehen, dass die Komponente K1 mit der Komponente K2 kommuniziert, und auch mit beliebigen weiteren Komponenten K3, ... Kn kommunizieren kann. Die Komponente K2 wiederum kommuniziert neben der Komponente K1 ebenfalls mit der Komponente K3 und ansonsten mit beliebigen weiteren Komponenten. Die Signalprotokolle legen die an zugehörige Komponenten versendbaren und empfangbaren Signale und Signalwege fest. Ferner umfasst ein Datensatz komponentenspezifische Daten, welche die Eigenschaften der jeweiligen Komponente spezifizieren. Diese Daten können durchaus in Verbindung mit bestimmten Signalprotokollen stehen. Beispielsweise kann in einem Datensatz enthalten sein, dass eine Komponente ihren Zustand ändert, wenn sie ein bestimmtes Signal erhalten hat, etwa wenn ein Schalter aufgrund eines übertragenen Signals zu betätigen ist.
  • Erfindungsgemäß ist die Testeinrichtung so konfiguriert, dass der zu testenden Vorrichtung eine Systemumgebung simuliert wird, wie sie im tatsächlichen Einsatz auftritt. Dies ermöglicht eine Analyse der zu testenden Komponente unter Einsatzbedingungen. Darüber hinaus lassen sich auf Basis einer erzeugten Simulation eine Vielzahl Komponenten testen, indem einfach das entsprechende Abbild der zu testenden Komponente aus der Simulation entfernt wird. Eine solche Neukonfiguration ist einfach durchzuführen, ohne dass eine neue Gesamtsimulation erzeugt werden muss. Bei Änderungen am System, etwa weil neue Komponenten hinzugefügt werden oder bestimmte Komponenten durch Komponenten mit anderen Eigenschaften ersetzt werden, führt die Erfindung zu einer zuverlässig an das System angepassten Simulation. Ferner lässt sich durch die Erfindung eine Testeinrichtung bereitstellen, die derart konfiguriert ist, dass eine zu testende Vorrichtung (und das zugehörige System) nicht nur auf korrekte Funktionsfähigkeit, sondern darüber hinaus auf das Erfüllen bestimmter Systemerfordernisse getestet wird. Indem nämlich eine Simulation bereitgestellt wird, deren Verhalten beobachtet wird, lassen sich leicht Verhaltensparameter der zu testenden Vorrichtung und Systemparameter unter Einsatzbedingungen überprüfen und auf Erfüllung definierter Systemerfordernisse überwachen.
  • Die beschriebenen Verfahren und die Testeinrichtung sind besonders geeignet für eine Verwendung bei der Flugzeugentwicklung, und hier insbesondere bei der Entwicklung des Kabinensystems. Für die Flugzeugentwicklung verwendete Komponenten sind nämlich nach genauen Spezifikationen herzustellen und müssen im System definierte Systemerfordernisse erfüllen. Es liegen also schon von vorne herein genaue Spezifikationen für die Komponenten vor, und die Entwickler sind gezwungen, diese zu pflegen, so dass sie auf dem neuesten Stand sind, was sie leicht für die vorliegende Erfindung verwendbar macht. Die strengen Test der hochkomplexen Systeme, die im Flugzeugbau erforderlich sind, lassen sich erfindungsgemäß besonders günstig und leicht ausführen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 2002/0073375 A1 [0005]
    • - US 2004/0225459 A1 [0005]

Claims (21)

  1. Verfahren zum Konfigurieren einer Testeinrichtung (10) für eine zu testende Vorrichtung (26), die als Komponente (K1, K2) eines Systems vorgesehen ist, das mehrere Komponenten (K1, K2) enthält, wobei die Komponenten (K1, K2) des Systems durch Datensätze beschrieben werden, die Elemente aufweisen, welche Beziehungen von Komponenten (K1, K2) untereinander beschreiben, wobei das Verfahren die Schritte umfasst: Verknüpfen der Datensätze und Erzeugen einer Systembeschreibung basierend auf den verknüpften Datensätzen, Simulieren des Systems durch eine Simulation mittels einer Simulationseinrichtung (18) basierend auf der Systembeschreibung, wobei ein Abbild der zu testenden Vorrichtung (26) in der Simulation erfasst wird, Entfernen des Abbilds der zu testenden Vorrichtung (26) aus der Simulation, und Bereitstellen einer oder mehrere Testschnittstellen (22) zur Kommunikation zwischen der Simulationseinrichtung (18) und der zu testenden Vorrichtung (22).
  2. Verfahren nach Anspruch 1, wobei ferner Datensätze Elemente aufweisen, die weitere Eigenschaften einer Komponente (K1, K2) beschreiben.
  3. Verfahren nach Anspruch 1, wobei ferner beim Verknüpfen der Datensätze und/oder Erzeugen der Systembeschreibung die Beziehungen der Komponenten (K1, K2) beschreibende Elemente der Datensätze auf Konsistenz überprüft werden.
  4. Verfahren nach Anspruch 2, wobei ferner beim Verknüpfen der Datensätze und/oder Erzeugen der Systembeschreibung die Elemente der Datensätze auf Konsistenz überprüft werden.
  5. Verfahren nach Anspruch 3 oder 4, wobei der Schritt des Verknüpfens der Datensätze und Erzeugens der Systembeschreibung und/oder des Erzeugens der Simulation unter Weglassen von Beziehungen der Komponenten (K1, K2) beschreibenden Elementen der Datensätze durchgeführt wird, die nicht konsistent sind.
  6. Verfahren nach Anspruch 4, wobei der Schritt des Verknüpfens der Datensätze und Erzeugens der Systembeschreibung und/oder des Erzeugens der Simulation unter Weglassen von Elementen der Datensätze durchgeführt wird, die nicht konsistent sind.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Datensätze zwischen Komponenten austauschbare Signale beschreiben.
  8. Verfahren nach einem der Ansprüche 3 bis 6, wobei beim Überprüfen festgestellt wird, ob Signale, die gemäß einem einer ersten Komponente (K1) zugeordneten Datensatz durch die erste Komponente (K1) von einer zweiten Komponente (K2) empfangen werden können, mit Signalen übereinstimmen, die gemäß einem der zweiten Komponente (K2) zugeordneten Datensatz von dieser an die erste Komponente (K1) versendet werden können.
  9. Verfahren nach einem der vorhergehenden Ansprüche, wobei ferner ein Schritt vorgesehen ist: Verbinden der Testeinrichtung (10) mit einer Datenbank (24), welche die Datensätze enthält.
  10. Verfahren nach einem der vorhergehenden Ansprüche, wobei ferner ein Schritt vorgesehen ist: Erzeugen, basierend auf den Datensätzen, eines Treibers für die zu testende Vorrichtung (26), gemäß dem die zu testende Vorrichtung über die eine oder mehrere Testschnittstellen (22) angesteuert werden kann.
  11. Verfahren zum Testen einer zu testenden Vorrichtung (26), das die Schritte nach einem der Ansprüche 1 bis 10 enthält, ferner umfassend die Schritte: Verbinden der zu testenden Vorrichtung (26) mit der Simulationseinrichtung (18) über die eine oder mehreren Testschnittstellen (22) und Testen der zu testenden Vorrichtung (26) durch Versenden von Signalen an die zu testende Vorrichtung (26) und Empfangen von Antwortsignalen durch die Simualtionseinrichtung (18) über die eine oder mehreren Testschnittstellen (22).
  12. Testeinrichtung (10) zum Testen einer zu testenden Vorrichtung (26), wobei die zu testende Vorrichtung (26) als eine Komponente (K1, K2) eines übergeordneten Systems vorgesehen ist, wobei die Komponenten (K1, K2) des Systems durch Datensätze mit Elementen zur Beschreibung von Beziehungen von Komponenten (K1, K2) untereinander beschrieben sind, wobei die Testeinrichtung (10) umfasst: eine Systembeschreibungseinrichtung (14) zur Verknüpfung der Datensätze und Erzeugung einer Systembeschreibung basierend auf den verknüpften Datensätzen, eine Simulationseinrichtung (18) zur Simulation des Systems basierend auf der Systembeschreibung, wobei die zu testende Vorrichtung (26) durch ein Abbild in der Simulation erfasst ist und das Abbild der zu testenden Vorrichtung (26) aus der Simulation entfernbar ist, eine oder mehrere Testschnittstellen (22) zum Ermöglichen einer Kommunikation zwischen der Simulationseinrichtung (18) und der zu testenden Vorrichtung (26).
  13. Testeinrichtung nach Anspruch 12, wobei ferner vorgesehen ist, dass die Datensätze ferner jeweils Eigenschaften einer Komponente (K1, K2) beschreibende Elemente aufweisen.
  14. Testeinrichtung nach Anspruch 12, wobei ferner eine Überprüfungseinrichtung (16) zum überprüfen von Beziehungen der Komponenten (K1, K2) beschreibenden Elementen der Datensätze auf Konsistenz vorgesehen ist.
  15. Testeinrichtung nach Anspruch 13, wobei ferner eine Überprüfungseinrichtung (16) zum Überprüfen der Datensätze auf Konsistenz vorgesehen ist.
  16. Testeinrichtung nach Anspruch 14, wobei die Systembeschreibungseinrichtung (14) und/oder die Simulationseinrichtung (18) dazu ausgelegt ist, die Verknüpfung der Datensätze und Erzeugung der Systembeschreibung und/oder die Erzeugung der Simulation unter Weglassen von Beziehungen der Komponenten (K1, K2) untereinander durchzuführen, die nicht konsistent sind.
  17. Testeinrichtung nach Anspruch 15, wobei die Systembeschreibungseinrichtung (14) und/oder die Simulationseinrichtung (18) dazu ausgelegt ist, die Verknüpfung der Datensätze und die Erzeugung der Systembeschreibung und/oder die Simulation unter Weglassen von Eigenschaften der Komponenten (K1, K2) und Beziehungen der Komponenten (K1, K2) beschreibenden Elementen durchzuführen, die nicht konsistent sind.
  18. Testeinrichtung nach einem der Ansprüche 12 bis 17, wobei die Datensätze eine Beschreibung zwischen den Komponenten (K1, K2) austauschbarer Signale enthalten.
  19. Testeinrichtung nach einem der Ansprüche 14 bis 17, wobei die Überprüfungseinrichtung (16) dazu ausgelegt ist, eine Übereinstimmung von Signalen, die gemäß einem einer ersten Komponente (K1) zugeordneten Datensatz durch die erste Komponente (K1) von einer zweiten Komponente (K2) empfangbar sind, mit Signalen festzustellen, die gemäß einem der zweiten Komponente (K2) zugeordneten Datensatz von dieser an die erste Komponente (K1) versendbar sind.
  20. Testeinrichtung nach einem der Ansprüche 12 bis 19, wobei die Testeinrichtung über eine Verbindungseinrichtung (12) mit einer Datenbank (24) verbunden oder verbindbar ist, welche die Datensätze enthält.
  21. Testeinrichtung nach einem der Ansprüche 12 bis 20, wobei ferner eine Treibereinrichtung (20) vorgesehen ist, die zur auf den Datensätzen basierenden Erzeugung eines Treibers für die zu testende Vorrichtung (26) ausgelegt ist, gemäß dem die zu testende Vorrichtung (26) über die eine oder mehrere Testschnittstellen (22) ansteuerbar ist.
DE102008022132A 2008-05-05 2008-05-05 Verfahren zum Konfigurieren einer Testeinrichtung, Testverfahren und Testeinrichtung Ceased DE102008022132A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102008022132A DE102008022132A1 (de) 2008-05-05 2008-05-05 Verfahren zum Konfigurieren einer Testeinrichtung, Testverfahren und Testeinrichtung
US12/435,013 US8660832B2 (en) 2008-05-05 2009-05-04 Method for configuring a test arrangement, test method and test arrangement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102008022132A DE102008022132A1 (de) 2008-05-05 2008-05-05 Verfahren zum Konfigurieren einer Testeinrichtung, Testverfahren und Testeinrichtung

Publications (1)

Publication Number Publication Date
DE102008022132A1 true DE102008022132A1 (de) 2009-11-19

Family

ID=41180275

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008022132A Ceased DE102008022132A1 (de) 2008-05-05 2008-05-05 Verfahren zum Konfigurieren einer Testeinrichtung, Testverfahren und Testeinrichtung

Country Status (2)

Country Link
US (1) US8660832B2 (de)
DE (1) DE102008022132A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3772480A1 (de) * 2019-08-09 2021-02-10 Inventio AG Verfahren zum testen physischer komponenten einer personentransportanlage

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9582389B2 (en) * 2013-07-10 2017-02-28 International Business Machines Corporation Automated verification of appliance procedures
ES2911479T3 (es) * 2018-04-23 2022-05-19 Siemens Ag Procedimiento y dispositivo para la configuración asistida por ordenador de un sistema técnico

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1986005298A1 (en) * 1985-03-01 1986-09-12 Mentor Graphics Corporation Hardware modeling system and method for simulating portions of electrical circuits
US5923567A (en) * 1996-04-10 1999-07-13 Altera Corporation Method and device for test vector analysis
US20020073375A1 (en) 1997-06-03 2002-06-13 Yoav Hollander Method and apparatus for test generation during circuit design
US20040225459A1 (en) 2003-02-14 2004-11-11 Advantest Corporation Method and structure to develop a test program for semiconductor integrated circuits

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5745738A (en) * 1996-05-29 1998-04-28 Microsoft Corporation Method and engine for automating the creation of simulations for demonstrating use of software
US7360158B1 (en) * 2002-03-28 2008-04-15 At&T Mobility Ii Llc Interactive education tool
US7424418B1 (en) * 2003-12-31 2008-09-09 Sun Microsystems, Inc. Method for simulation with optimized kernels and debugging with unoptimized kernels

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1986005298A1 (en) * 1985-03-01 1986-09-12 Mentor Graphics Corporation Hardware modeling system and method for simulating portions of electrical circuits
US5923567A (en) * 1996-04-10 1999-07-13 Altera Corporation Method and device for test vector analysis
US20020073375A1 (en) 1997-06-03 2002-06-13 Yoav Hollander Method and apparatus for test generation during circuit design
US20040225459A1 (en) 2003-02-14 2004-11-11 Advantest Corporation Method and structure to develop a test program for semiconductor integrated circuits

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
RIEGEL, J.P., SCHÜTZE, M., ZIMMERMANN, G.: Objektorientierte Modellierung einer Simulationsumgebung mit Patterns. Bericht 09/1996, Sonderforschungsbereich 501, Fachbereich Informatik, Universität Kaiserslautern *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3772480A1 (de) * 2019-08-09 2021-02-10 Inventio AG Verfahren zum testen physischer komponenten einer personentransportanlage

Also Published As

Publication number Publication date
US20090276201A1 (en) 2009-11-05
US8660832B2 (en) 2014-02-25

Similar Documents

Publication Publication Date Title
EP2685382B1 (de) Verfahren und Vorrichtung zum Erstellen und Testen eines Steuergeräteprogramms
DE60017457T2 (de) Verfahren zur isolierung eines fehlers in fehlernachrichten
EP2990892B1 (de) Verfahren zum Verbinden einer Eingabe/Ausgabe-Schnittstelle eines für das Testen eines Steuergeräts eingerichteten Testgeräts
DE102005010900A1 (de) Modellspezifische Registeroperationen
DE112012004776T5 (de) Erzeugen einer Produktionsserver-Lastaktivität für einen Testserver
DE10127170A1 (de) Fehlersuchverfahren und Fehlersuchvorrichtung
EP2671122B1 (de) Automatisierte projektierung einer leittechnik einer technischen anlage
DE10333087A1 (de) Verfahren zum automatischen Zerlegen von dynamischen Systemmodellen in Teilmodelle
DE102017211433A1 (de) Verfahren zum Durchführen eines Funktionstests eines Steuergeräts in einem Hardware-in-the-Loop-Test, HIL-Test, sowie HIL-Prüfstand und Steuergerät
EP3306295A1 (de) Verfahren und vorrichtung zum testen elektronischer steuerungen, insbesondere zum testen von automobilsteuerungen
DE102008022132A1 (de) Verfahren zum Konfigurieren einer Testeinrichtung, Testverfahren und Testeinrichtung
DE112021003677T5 (de) Automatisierte unterstützte schaltkreisvalidierung
DE102007053048A1 (de) System und Verfahren zur Minimierung von Ausfallzeiten medizintechnischer Geräte
EP2492701B1 (de) Verfahren und Vorrichtung zum Testen einer Windturbinenanlage
DE102006047762B4 (de) System zum Testen der Funktion eines Computernetzwerkes
EP2399176A1 (de) Verfahren und system zum engineering einer automatisierung zumindest eines teils einer technischen anlage
EP1997007B1 (de) Verfahren und managementsystem zum konfigurieren eines informationssystems
EP1866715A2 (de) Entwurfsvorrichtung zum entwerfen einer leittechnischen anlage und verfahren zum überprüfen der technologischen aufgabenstellung beim entwurf einer leittechnischen anlage
DE102020213809A1 (de) Verfahren zum Betreiben eines Steuergeräts beim Testen einer Software des Steuergeräts und Verfahren zum Betreiben eines Testcomputers beim Testen einer Software eines Steuergeräts
DE102006015207A1 (de) Verfahren und Vorrichtung zur Entwicklung eines Systems für die Betriebsdiagnostik von Fahrzeugen
EP2977894B1 (de) Erstellen eines FPGA-Codes mit automatisch eingefügter Beeinflussungsstruktur
DE102020203657B3 (de) Simulieren eines Realbetriebs einer Vorrichtung mit einer Simulatoranordnung
DE112018002344T5 (de) Entwicklungsunterstützungsvorrichtung
EP3553679A1 (de) Verfahren zur computergestützten fehlerdiagnose für ein technisches system
DE102012217328A1 (de) Verfahren zum Simulieren eines Steuergeräts

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8181 Inventor (new situation)

Inventor name: CASDORFF, RAINER, DIPL.-ING. DR., 20457 HAMBUR, DE

Inventor name: MARTINEN, DIRK, DIPL.-ING. DR., 21635 JORK, DE

Inventor name: KRUSE, JOSEF, DIPL.-ING., 22559 HAMBURG, DE

Inventor name: BRUMM, KLEMENS, DIPL.-ING., 22880 WEDEL, DE

Inventor name: BOBOLECKI, JAN, DIPL.-ING., 25494 BORSTEL-HOHE, DE

Inventor name: AL-HOMCI, MAAN, DIPL.-ING., 22527 HAMBURG, DE

8127 New person/name/address of the applicant

Owner name: AIRBUS OPERATIONS GMBH, 21129 HAMBURG, DE

R008 Case pending at federal patent court
R003 Refusal decision now final
R011 All appeals rejected, refused or otherwise settled
R003 Refusal decision now final

Effective date: 20141128