DE102015121509A1 - Methodik und Vorrichtung zur Konsistenzprüfung durch Vergleich von Ontologiemodellen - Google Patents

Methodik und Vorrichtung zur Konsistenzprüfung durch Vergleich von Ontologiemodellen Download PDF

Info

Publication number
DE102015121509A1
DE102015121509A1 DE102015121509.8A DE102015121509A DE102015121509A1 DE 102015121509 A1 DE102015121509 A1 DE 102015121509A1 DE 102015121509 A DE102015121509 A DE 102015121509A DE 102015121509 A1 DE102015121509 A1 DE 102015121509A1
Authority
DE
Germany
Prior art keywords
term
terms
documents
ontology
request
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102015121509.8A
Other languages
English (en)
Inventor
Dnyanesh Rajpathak
Ramesh Sethu
Prakash M. Peranandam
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102015121509A1 publication Critical patent/DE102015121509A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/10Requirements analysis; Specification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Animal Behavior & Ethology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)
  • Stored Programmes (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Es wird ein Verfahren zum Erzeugen von Ontologiemodellen aus Anforderungsdokumenten und Software und Durchführen von Konsistenzprüfungen zwischen Anforderungsdokumenten und Softwarecode unter Verwendung von Ontologiemodellen bereitgestellt. In der Vielzahl von Anforderungsdokumenten, die aus einer Datenbank erhalten werden, werden Terme identifiziert. Ein Prozessor ordnet jedem Term ein Wortart-Tag zu. Das Wortart-Tag gibt eine grammatikalische Verwendung jedes Terms in den Anforderungsdokumenten an. Der Prozessor klassifiziert jeden Term auf der Grundlage der Wortart-Tags. Die Klassifizierung identifiziert, ob jeder Term ein Teil, ein Symptom, eine Aktion, ein Ereignis oder ein Fehlermodus ist, um eine Ontologie zu bilden. Der Prozessor konstruiert eine ontologiebasierte Konsistenzmaschine als Funktion der Ontologien. Eine Konsistenzprüfung wird durch Anwenden der ontologiebasierten Konsistenzmaschine zwischen Ontologien, die aus zwei Kontextdokumenten extrahiert werden, durchgeführt. Es werden inkonsistente Terme zwischen den Kontextdokumenten identifiziert. Es wird zumindest eines der Kontextdokumente mit inkonsistenten Termen korrigiert.

Description

  • HINTERGRUND DER ERFINDUNG
  • Eine Ausführungsform bezieht sich allgemein auf Anforderungsdokument- und Softwarecode-Konsistenzprüfungen in Bezug auf die Verwendung von Ontologiemodellen, die aus Anforderungsdokumenten und Softwarecode konstruiert werden.
  • In einem Systementwicklungsprozess stellen Anforderungsdokumente eine notwendige Information über die Funktionalitäten, die eine Software für die erfolgreiche Funktion eines Systems bereitstellen muss, bereit. Anforderungen werden in der Regel in freier englischer Sprache erfasst, und die daraus resultierenden Anforderungsdokumente verteilen sich über Hunderte von Seiten. Eine Vielzahl von funktionalen Anforderungen kann einige überlappende Funktionalitäten sowie Unterfunktionalitäten aufweisen. Als Ergebnis können Inkonsistenzen bei den ähnlichen Funktionen Störungen der Software verursachen, die entweder Fehler verursachen oder zu diesen führen. Typischerweise überprüft ein Experte auf dem Gebiet SME das Anforderungsdokument, um die Inkonsistenz und Korrektheit von Problemen zu identifizieren und sie zu bereinigen, um die Konsistenz der Anforderungsdokumente sowie den Softwarecode zu verbessern. Ferner kann, wenn ein Fehler in dem Bereich einer spezifischen Entität (z. B. Fahrzeug) beobachtet wird, die Grundursache eines solchen Fehlers auch zurückverfolgt werden, entweder zu dessen Anforderungsdokument oder zu der Software, die in den in einem Fahrzeug installierten Modulen ausgeführt wird. Angesichts der Länge eines Anforderungsdokuments und der Anzahl von Softwarealgorithmen, die den Anforderungen zugehörig sind, ist die Aufgabe eines manuellen Koppelns geeigneter Anforderungen in einem mentalen Modell eine nicht triviale, zeitaufwendige und störungsanfällige Tätigkeit.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Ein Vorteil einer Ausführungsform ist die Identifizierung von Inkonsistenzen zwischen Anforderungsdokumenten und zwischen Anforderungen und Softwarecode, was eine Fehlerverfolgbarkeit zwischen verschiedenen Teilsystemen ermöglicht. Die Erfindung ermöglicht auch das Verfolgen der Fehler, die bei Fahrzeugen beobachtet werden, zu ihren Anforderungsdokumenten oder zu der Software, die in den Modulen installiert ist, die Teil der Fahrzeuganordnung sind. Die hierin beschriebenen Ausführungsformen verwenden einen Vergleich extrahierter Ontologien von sowohl Anforderungsdokumenten als auch Softwarecode und von den Daten, die zusammengetragen werden, wenn die Fehler in dem Bereich beobachtet werden, um Inkonsistenzen zu identifizieren. Die hierin beschriebenen Ausführungsformen können große Mengen von Daten, die aus verschiedenen heterogenen Quellen erhalten werden, handhaben sowie Grundursachen auf einer Anforderungsdokumentebene und Softwarecodeebene ermitteln, was die Produktqualität verbessert, indem Garantiekosten minimiert werden.
  • Eine Ausführungsform zieht ein Verfahren zum Anwenden von Konsistenzprüfungen unter Anforderungsdokumenten und Softwarecode in Betracht. Es werden Terme in der Vielzahl von Anforderungsdokumenten, die aus einer Datenbank erhalten werden, identifiziert. Ein Prozessor ordnet jedem Term ein Wortart-Tag zu. Das Wortart-Tag gibt eine grammatikalische Verwendung jedes Terms in den Anforderungsdokumenten an. Der Prozessor klassifiziert jeden Term auf der Grundlage der Wortart-Tags. Die Klassifizierung identifiziert, ob jeder Term ein Teilterm, ein Symptomterm, ein Aktionsterm, ein Ereignisterm oder ein Fehlermodusterm ist. Der Prozessor konstruiert eine ontologiebasierte Konsistenzmaschine als Funktion der klassifizierten Terme. Eine Konsistenzprüfung wird durch Anwenden der ontologiebasierten Konsistenzmaschine zwischen Ontologien, die aus zwei Kontextdokumenten extrahiert werden, durchgeführt. Es werden inkonsistente Terme zwischen den Kontextdokumenten identifiziert. Es wird zumindest eines der Kontextdokumente mit inkonsistenten Termen korrigiert.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm einer Konsistenzprüfungsanforderungstechnik eines allgemeinen Flussprozesses.
  • 2 ist ein Blockdiagramm der Gesamtmethodik der Anforderungskopplungstechnik.
  • 3 ist ein Flussdiagramm zum Identifizieren kritischer n-Gramme.
  • 4 ist ein beispielhafter POS-Tagging-Prozess unter Verwendung der kritischen N-Gramme.
  • 5 ist ein Flussdiagramm für eine beispielhafte Wahrscheinlichkeitsschätzung für ein POS-Tagging.
  • 6 ist ein Flussdiagramm, um Wahrscheinlichkeiten mit einer Kontextinformation in Verbindung zu bringen.
  • 7 veranschaulicht die Verwendung einer Trainingstabelle mit Testdaten.
  • 8 veranschaulicht eine beispielhafte ontologiebasierte Konsistenzprüfungsmaschine.
  • 9 veranschaulicht ein Flussdiagramm für ein Verfahren zur Ontologieentwicklung.
  • 10 veranschaulicht eine beispielhafte bereichsspezifische Ontologie.
  • 11 veranschaulicht eine beispielhafte Instanz der Ontologie.
  • DETAILLIERTE BESCHREIBUNG
  • 1 veranschaulicht ein Blockdiagramm 10 eines allgemeinen Flussprozesses einer ontologiebasierten Konsistenzmaschine. Während die hierin beschriebene Ausführungsform ein fahrzeugbasiertes System ist, ist zu verstehen, dass das System auf verschiedene andere Systeme, die Flugzeug- oder andere nicht auf Fahrzeugen basierende Systeme umfassen, angewandt werden kann. Die ontologiebasierte Konsistenzmaschine verwendet eine(n) oder mehrere Prozessoren, Speicher, wie beispielsweise eine Speichereinrichtung, Datenbanken und Ausgabeeinrichtungen zum Ausgeben von Ergebnissen von Konsistenzprüfungen. Ferner können der Prozessor oder eine andere Verarbeitungseinheit eine autonome Korrektur der Kontextdokumente mit inkonsistenten Termen durchführen. In Kasten 11 werden Anforderungsdokumente, die eine Vielzahl von Anforderungen umfassen, erhalten. Es wird eine jeweilige Anforderung von den Anforderungsdokumenten ausgewählt. Eine Anforderung ist eine Beschreibung bezüglich eines Teils, eines Systems oder einer Software, die Details in Bezug auf die Funktionalität und Betriebsanforderungen des Teils, des Systems oder der Software bereitstellt.
  • In Kasten 12 werden Stoppwörter in der Anforderung gelöscht. Stoppwörter fügen unnötiges Rauschen in den Daten hinzu, während eine Verarbeitung natürlicher Sprache der Daten durchgeführt wird. Stoppwörter bestehen aus ”ein”, ”eine”, ”der/die/das”, ”wer”, ”www”, ”weil” und ”wird”, die als nicht beschreibend betrachtet werden, sind jedoch nicht darauf beschränkt. Eine Stoppwortliste kann in einem Speicher 13, wie beispielsweise einem Speicher eines Servers, einer Datenbank, einer Vergleichsdatenbank oder einer anderen entsprechenden Datenbank oder einem anderen entsprechenden Speicher gespeichert sein. Stoppwörter, die in der aus dem Speicher 13 erhaltenen Stoppwortliste identifiziert werden und Teil der extrahierten Information in den Anforderungen sind, werden entfernt. Stoppwörter, die Teil kritischer Terme sind, werden beibehalten, und nur jeweilige Stoppwörter, die nicht Teil der kritischen Terme sind, werden gelöscht, um die richtige Bedeutung von Dokumenten zu erhalten.
  • In Kasten 14 wird eine Wortart-(POS- von parts-of-speech-) und n-Gramm-Konstruktion auf die verbleibenden extrahierten Terme oder Phrasen, die von Kasten 12 ausgegeben werden, angewandt, was in 2 ausführlich dargestellt ist.
  • In Kasten 15 werden die Positionen der n-Gramme in den Daten ermittelt, was in 3 ausführlich gezeigt ist.
  • In Kasten 16 werden unterschiedliche und gemeinsame POS-Tags von kritischen Termen identifiziert, was in 4 und 5 ausführlich gezeigt ist.
  • In Kasten 17 fährt die Routine, wenn ein POS-Tag gemeinsam ist, mit Kasten 18 fort; andernfalls fährt die Routine mit Kasten 20 fort.
  • In Kasten 18 wird eine lexikographische beidseitige Information geschätzt.
  • In Kasten 19 werden Kontextwahrscheinlichkeiten basierend auf einem Naïve Bayes-Klassifizierer geschätzt.
  • In Kasten 20 werden die Terme als Teil-, Symptom-, Ereignis-, Fehlermodus- oder Aktionsterm klassifiziert, um die Ontologievergleichsmaschine zu konstruieren.
  • In Kasten 21 werden Anforderungsteilsysteme erzeugt und identifiziert. In Kasten 22 wird eine Ontologievergleichsmaschine erzeugt und verwendet, um eine Konsistenzprüfung zwischen den jeweiligen Anforderungsteilsystemen durchzuführen. Die Konsistenzprüfung kann zwischen zwei oder mehr Anforderungsdokumenten, Anforderungsdokumenten und Softwarecode, zwischen Softwarecode von verschiedenen Teilsystemen und zum Detektieren einer Fehlerverfolgbarkeit zwischen Softwarecodes angewandt werden.
  • 2 veranschaulicht einen Wortart-Tagger, bei dem Wortdaten in den Anforderungsdokumenten getaggt werden. Wie es in 2 gezeigt ist, werden Wortarten mit einem jeweiligen Identifikator getaggt, wobei Phrasen, wie beispielsweise ”are”, ”see”, ”24HR”, ”purge”, ”evap”, ”selenoid”, die folgenden POS-Tags zugeordnet werden: ”are/VBP”, see/VB”, ”24HR/JJ” ”purge/NNP, ”evap/NNP” und ”solenoid/NNP”.
  • Ein POS-Tagging-Modul wird verwendet, um Tags auf die Terme anzuwenden. Beispiele für solche Tags sind in dem Penn Treebank Project (http://www.ling.upenn.edu/courses/Fall_2007/ling001/penn_treebank_pos.html) zu finden, sind jedoch nicht darauf beschränkt. Tags können CC (nebenordnende Konjunktion), CD (Grundzahl), JJ (Adjektiv), JJR (Adjektiv komparativ), NN (Nomen, singular oder Stoffname), NNS (Nomen plural), NNP (Eigenname singular), NNPS (Eigenname plural), RB (Adverb), RBR (Adverb komparativ), RBS (Adverb superlativ), VB (Verb, Grundform), VBD (Verb Präteritum), VBD (Verb, Partizip Präsens), VBN (Verb, Partizip Perfekt), VBP (Verb, nicht 3. Person singular Präsens), VBZ (Verb, 3. Person singular Präsens) umfassen, sind jedoch nicht darauf beschränkt. Es ist zu verstehen, dass die POS-Tags hierin beispielhaft sind und dass verschiedene POS-Identifikatoren verwendet werden können.
  • Es werden der extrahierten Phrase zugehörige n-Gramme identifiziert. Der Begriff ”Gramm” bezieht sich auf den Term oder die Terme der Phrase als Ganzes, und ”n” bezieht sich auf eine Anzahl von Termen, die der Phrase zugehörig sind.
  • 3 ist eine beispielhafte Darstellung einer n-Gramm-Tabelle. Aus jedem Anforderungsdokument werden die folgenden Typen von n-Grammen konstruiert: Unigramme, die Phrasen mit einem einzigen Wort (z. B. battery, transmission) umfassen; Bigramme, die Phrasen mit zwei Wörtern (z. B. battery dead) umfassen; Trigramme, die Phrasen mit drei Wörtern (z. B. body control module, instrument panel cluster, powertrain control module) umfassen; Tetragramme, die Phrasen mit vier Wörtern (z. B. body control module inoperative, transmission control module assembly) umfassen, und Pentagramme, die Phrasen mit fünf Wörtern (z. B. transmission control module assembly failed) umfassen. Der Grund, dass möglicherweise ein n-Gramm, das fünf Wörter lang ist, verwendet wird, ist in einigen Fällen auf eine kritische Natur einer Phrase zurückzuführen, die fünf Wörter enthält, wie z. B. Fuel Tank Pressure Sensor Module. Zum Beispiel können kritische Terme, die die Namen von Teilen, Symptomen, Ereignissen, Aktionen und Fehlermodi umfassen, fünf Wörter lang sein.
  • Die n-Gramme werden konstruiert und verwendet, wenn die verwendete Technik keine bereichsspezifische Ontologie (d. h. Taxonomie) verwendet, die eine Herkunft oder Datenbank von Termen bereitstellen würde, um kritische Terme aus jedem Anforderungsdokument zu identifizieren. Als Ergebnis kann ein Ansatz einer Verarbeitung natürlicher Sprache (NLP von natural language processing) verwendet werden, bei dem die in dieser Stufe der Technik konstruierten n-Gramme anschließend mit ihrer Wortart getaggt werden, um die korrekte Klassifizierung von Termen zu identifizieren.
  • 4 veranschaulicht eine Tabelle, in der Positionen von n-Grammen in den Daten identifiziert werden. Es werden die Start- und Endposition von Phrasen für ihre POS-Tags identifiziert, um ihre Wortlänge zu ermitteln. Wie es nachstehend gezeigt ist, wird auf beiden Seiten eines jeweiligen n-Gramms ein Wortfenster von drei Wörtern vorgesehen. Das Wortfenster ist eine Variable, die basierend auf der Art des Dokuments festgelegt werden soll. XXXXT1XX[T2xxStartIndex{Phrasei}EndindexT3XT4]XXX Kontextinformation auf der linken Seite = (Phrasei T2)
    Kontextinformation auf der rechten Seite = ((Phrasei T3), (Phrasei, T4))
  • Die Terme, die zusammen mit einem n-Gramm in dem Wortfenster auftreten, werden als Kontextinformation zusammengetragen. Dies hilft dabei, gemeinsame Phrasen und kritische Phrasen zu identifizieren.
  • 5 veranschaulicht Tabellen, die identifizieren, wenn gemeinsame und unterschiedliche POS-Tags Phrasen zugehörig sind. Gemeinsame POS-Tags werden identifiziert, indem die einem ersten Teilsystem zugeordnete POS mit einer einem zweiten Teilsystem zugeordneten POS analysiert wird. Die Gruppierung der POS-Tags unterstützt das Identifizieren jener jeweiligen POS-Tags, die zwischen Teilsystemen gemeinsam sind. 6 veranschaulicht eine graphische logische Schnittmenge, auch als logische UND-Verknüpfung bekannt, zwischen den Teilmengen. Wie es in 6 veranschaulicht ist, können jene jeweiligen Phrasen mit gemeinsamen POS-Tags zwischen den beiden Teilsystemen unterschieden werden.
  • Wenn herausgefunden wird, dass POS-Tags, die den verschiedenen Teilsystemen zugehörig sind, gemeinsam sind, dann wird eine Wahrscheinlichkeitstechnik einer lexikographischen beidseitigen Information (LMI von lexicographic mutual information) angewandt. Die LMI-Wahrscheinlichkeitstechnik unterstützt das Ermitteln, in welche Klassifizierung der POS-Tag eingeordnet werden sollte. Zum Beispiel tritt die folgende Phrase: ”shall not be activated” bei sowohl Symptom- als auch Fehlermodusphrasen auf: ”MD RB VB VBN”. Die LMI-Wahrscheinlichkeit der folgenden Phrasen für eine potentielle Klassifizierung wird ermittelt: P(shall not be activatedsy|MD RB VB VBN) und P(shall not be activatedFM|MF RB VB VBN) werden ermittelt.
  • Die LIM für jede jeweilige Phrase wird unter Verwendung der folgenden Formeln ermittelt:
    Figure DE102015121509A1_0002
  • Wenn die jeweiligen Wahrscheinlichkeiten ermittelt sind, erfolgt ein Vergleich der Wahrscheinlichkeit von Ngrami, tagi, beobachtet zusammen mit der Wahrscheinlichkeit von Ngrami, tagi, unabhängig beobachtet in den Daten, wobei tagi ∊ (tagSy) ∧ (tagFM). Als Ergebnis wird das jeweilige Tag (tagFM) oder (tagSy) mit der höheren LMI-Wahrscheinlichkeit der Klassifizierung für die jeweilige Phrase zugeordnet.
  • Zusätzlich kann eine Kontextwahrscheinlichkeit basierend auf einem Naïve Bayes-Modell verwendet werden, die den Kontext erfasst, in dem eine spezifische Phrase spezifiziert wird. Das Naïve Bayes-Modell sagt die Klassenzugehörigkeitswahrscheinlichkeiten voraus. Die folgenden Schritte werden verwendet, um die Kontextwahrscheinlichkeit zu ermitteln:
  • Schritt 1:
    • • Es sei T der Satz von getaggten n-Grammen mit einem spezifischen Tag,
      Figure DE102015121509A1_0003
      in den Trainingsdaten.
    • • ∃k Klassen, (C1, C2, ..., Ck) und mit einem gegebenen Satz von T wird geschätzt, ob T mit einer maximalen A-posteriori-Wahrscheinlichkeit zu einer spezifischen Klasse gehört, d. h.
      Figure DE102015121509A1_0004
  • Schritt 2:
  • Die Terme, die zusammen mit dem aktuellen getaggten Term auftreten, stellen einen Kontext 'c' gemäß Naïve Bayes hinsichtlich eines Terms bereit, wobei ein aktuelles Tag unabhängig von den Tags ist, die den vorangehenden Termen entsprechen
    Figure DE102015121509A1_0005
  • Schritt 3:
  • Eine Schätzung einer maximalen Wahrscheinlichkeit wird wie folgt berechnet:
    Figure DE102015121509A1_0006
  • Nachdem die LMI und die Kontextwahrscheinlichkeiten für die gemeinsamen POS-Tags ermittelt wurden, werden die Terme oder Phrasen in ihre jeweiligen Urnen (z. B. Klassen) klassifiziert. Die klassifizierten Urnen können für Konsistenzprüfungen zwischen Anforderungsdokumenten, Softwarecodes oder zwischen Anforderungsdokumenten und Softwarecodes verwendet werden. Ferner können die klassifizierten Urnen in eine Trainingstabelle eingegeben werden, die mit Testdaten verwendet werden kann
  • 7 veranschaulicht die Verwendung der Trainingstabelle zusammenwirkend mit den Testdaten. In Kasten 30 werden Testdaten in die Maschine eingegeben. In Kasten 31 werden in den Testdaten n-Gramme identifiziert, und es werden kritische n-Gramme aus den Testdaten identifiziert.
  • Die kritischen n-Gramme von Kasten 31 werden zusammenwirkend mit der Trainingstabelle 32 verwendet, um in Kasten 33 n-Gramm-Muster in den Testdaten abzugleichen. Die sich daraus ergebenden Übereinstimmungen werden in Kasten 34 in ihre jeweiligen Urnen klassifiziert.
  • Ein Experte auf dem Gebiet (SME) analysiert die klassifizierten Urnen in Kasten 35, um zu ermitteln, ob irgendwelche Terme oder Phrasen falsch klassifiziert sind. In Kasten 36 erzeugt der SME überarbeitete Urnen.
  • In Kasten 37 werden Ontologien aus den jeweiligen klassifizierten Urnen konstruiert. Es kann eine jeweilige Ontologie des Softwarecodes aus den Ergebnissen konstruiert werden, was für Konsistenzprüfungen zwischen Softwarecodes und Anforderungsdokumenten verwendet werden kann. Der Vorteil des Ontologiemodells wie gezeigt gegenüber anderen Typen von Modellerstellung, wie beispielsweise eine Modellerstellung endlicher Zustände (FSM von finite-state-modeling) ist, dass FSM hauptsächlich für eine Prozessflussmodellerstellung vorgesehen ist, während eine Ontologie für die Formalisierung des Bereichs des Diskurses eingesetzt werden kann. Das heißt, die Ontologie unterscheidet zwischen einem Weltbild einer Klassenebene und einer Instanzebene. Folglich erfordert die Ontologie keine vollständige Ansicht des Anwendungsbereichs, während eine Modellerstellungstechnik, wie beispielsweise eine Modellerstellung endlicher Zustände, eine vollständige Information des Anwendungsbereichs erfordert. Es kann auch eine andere Klasse von Anwendungen, die für einen spezifischen Bereich relevant sind, ohne Änderung von Bereichsebenenklassen, sondern nur durch Erfassen neuer Instanzen, die für eine neue Anwendung spezifisch sind, modelliert werden.
  • 8 zeigt eine beispielhafte ontologiebasierte Konsistenzprüfung zwischen verschiedenen Teilsystemen. Die Ontologiemaschine 38 wird auf ein Grundkonzept Oi und ein Grundkonzept Oj angewandt. Die Terme von Oi und Oj werden auf Konsistenz geprüft. Es werden die folgenden Schritte angewandt: 1. IC(c) = log–1P(c) wobei P(c) eine Wahrscheinlichkeit eines Auftretens einer Instanz eines Konzepts c ist (in einer hierarchischen Struktur ist P(c) monoton.
    Figure DE102015121509A1_0007
    wobei Sup(ci, cj) ein Satz von Konzepten ist, der ci, cj zusammenfasst.
  • Bei Mehrfachvererbungen hinsichtlich Worten werden mehr als eine Ähnlichkeitsbedeutung von direkten Superklassen ermittelt.
    Figure DE102015121509A1_0008
    wobei Sen(w) den Satz von möglichen Bedeutungen für Wort w bezeichnet.
  • Die ermittelten Ähnlichkeiten können mit vorbestimmten Ähnlichkeiten verglichen werden, um eine Konsistenz zu ermitteln. Zum Beispiel:
    Falls sim(ci, cj) ≥ 0,78,
    dann wird ermittelt, dass Oi und Oj konsistent miteinander sind.
    Falls sim(w1, w2) ≥ 0,64,
    dann wird ermittelt, dass Oi und Oj konsistent miteinander sind.
  • 9 veranschaulicht ein Flussdiagramm für eine Technik einer Ontologieentwicklung aus Software.
  • In Kasten 40 wird für jede Methode der Methodenname erhalten.
  • In Kasten 41 wird ermittelt, ob eine externe Methode verwendet wird. Wenn zum Beispiel eine Methode innerhalb ihrer Ausführung eine andere Methode aufruft, wird der Aufruf einer anderen Methode innerhalb der ursprünglichen Methode als externe Methode bezeichnet. Wenn keine externe Methode verwendet wird, fährt die Routine mit Kasten 43 fort; andernfalls fährt die Routine mit Kasten 42 fort.
  • In Schritt 42 wird der Name der externen Methode erhalten, und die Routine fährt mit Schritt 43 fort.
  • In Schritt 43 wird der Rückgabetyp erhalten. Der Begriff des Rückgabetyps spezifiziert hierin den Ausgang, den die Methode nach dem Ausführen der Schritte zurückgibt. In Schritt 44 werden Schleifen und deren Umfang identifiziert. In Schritt 45 werden ”falls”-Parameter und ”erhalte”-Bedingungsparameter identifiziert. In Schritt 46 werden Eingangsvariablen und Variablentypen identifiziert. Die Schritte 4346 können gleichzeitig oder nacheinander ausgeführt werden. Ferner muss die Reihenfolge, in der die Schritte 4346 durchgeführt werden, nicht notwendigerweise die hierin beschriebene Reihenfolge sein. In Ansprechen auf das Zusammentragen einer Information und das Identifizieren der Methode fährt die Routine mit Schritt 47 fort.
  • In Schritt 47 wird eine Methodenhierarchie erhalten.
  • In Schritt 48 werden Klassennamen identifiziert.
  • In Schritt 49 werden ein Projektordner und eine Anzahl von Zählwerteinheiten identifiziert. Die Extraktion der Information wird in diesem Schritt angewandt, da der Ordner typischerweise die gesamte Information eines spezifischen Anforderungsmerkmals umfasst, und daher ermöglicht ein Extrahieren einer Ordnerinformation, dass eine relevante Information, die diesem spezifischen Anforderungsmerkmal zugehörig ist, in einer konsistenten Weise erhalten wird.
  • In Schritt 50 werden Parameter aus dem Softwarecode abgerufen und wird eine Ontologie basierend auf den in den Schritten 4050 identifizierten Parameteranforderungen konstruiert.
  • 10 veranschaulicht ein Beispiel einer bereichsspezifischen Ontologie, die verwendet werden kann, um kritische Komponenten von Java-Code (z. B. Software) zu erfassen. Die Ontologie zeigt die Klassen und die ”hat-ein(e/n)”-Beziehungen zwischen jeglichen zwei in der Ontologie umfassten Klassen. Grundsätzlich gibt die Ontologie an, dass ein Java-Code eine ”Methode” haben kann, und dass eine ”Methode” einen ”Namen”, eine ”Schleife”, einen ”Eingangsparameter”, ”Falls-Bedingungen”, etc. haben kann.
  • Wenn ein Vergleich zwischen einem ersten Java-Code und einem zweiten Java-Code durchgeführt wird, muss eine Instanz der Ontologie in Bezug auf den ersten Java-Code und den zweiten Java-Code erzeugt werden, um die beiden Java-Codes zu vergleichen.
  • 11 zeigt eine Instanz der in 10 gezeigten Ontologie. Die Instanz wird basierend auf dem nachstehenden Beispiel-Java-Code erzeugt: Java Code:
    Figure DE102015121509A1_0009
  • Die ”Klasse” definiert eine Struktur, und Instanzen dieser Klasse definieren Objekte in der Klasse. Wie es in 11 gezeigt ist, weist ein Merkmal des Java-Codes ”ExteriorLightSubsystemFeatureRequirement” eine Methode namens ”checkLampActivation” auf, und diese Methode weist zwei jeweilige Eingänge ”vehicleSpeed” und ”lampActivated” auf. Diese Methode weist auch einen Ausgang auf, der mit der Rückgabeanweisung ”lampActivated” bezeichnet ist, und weist auch eine Falls-Bedingung mit einem Vergleichsoperator ”>” auf. Diese Falls-Bedingung weist konsequente Zuordnungsanweisungen auf, die auf der Grundlage eines ”Wahr”- oder ”Falsch”-Werts der Falls-Bedingung zugeordnet werden. Es ist zu verstehen, dass 10 & 11 Beispiele für die bereichsspezifische Ontologie und die resultierende Instanz der Ontologie sind, und dass die hierin beschriebene Erfindung nicht auf die hierin gezeigten Beispiele beschränkt ist.
  • Fehler in dem Bereich können mit Anforderungsproblemen gekoppelt sein. Ein Verfolgen des Fehlers, wie beispielsweise von Parameterwerten, die in den Anforderungen oder der Software erfasst werden, ist eine Technik zum Identifizieren und Korrigieren des Problems. Ein Verfolgen der Probleme bis zur Anforderungsebene ist in den meisten Fällen erforderlich, da eine Auswirkung einer Korrektur oder von Änderungen an einem anderen Teil des Systems auf der Anforderungsebene im Vergleich zu höheren Ebenen leicht analysiert werden kann.
  • Eine Fehlerverfolgbarkeit wird durch unabhängiges Testen verschiedener Artefakte und manuelles Abbilden der Ergebnisse verschiedener Artefakte (z. B. Abbilden von Anforderungen und Software) durchgeführt. Die Techniken ermöglichen wie hierin beschrieben eine Fehlerverfolgung in Vorwärtsrichtung, wie beispielsweise ”Anforderungsebene” zu ”Komponentenebene” zu ”Systemebene”, zusätzlich zur Rückwärtsrichtung wie beispielsweise ”Systemebene” zu ”Komponentenebene” zu ”Anforderungsebene”.
  • Während bestimmte Ausführungsformen der vorliegenden Erfindung ausführlich beschrieben wurden, wird der Fachmann, den diese Erfindung betrifft, verschiedene alternative Entwürfe und Ausführungsformen zum Ausführen der Erfindung, wie sie durch die folgenden Ansprüche definiert ist, erkennen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • http://www.ling.upenn.edu/courses/Fall_2007/ling001/penn_treebank_pos.html [0027]

Claims (10)

  1. Verfahren zum Durchführen von Konsistenzprüfungen zwischen Anforderungsdokumenten und Softwarecode unter Verwendung von konstruierten Ontologiemodellen, umfassend die Schritte: Identifizieren von Termen in der Vielzahl von Anforderungsdokumenten, die aus einer Datenbank erhalten werden; Zuordnen, durch einen Prozessor, eines Wortart-Tags zu jedem Term, wobei das Wortart-Tag eine grammatikalische Verwendung jedes Terms in den Anforderungsdokumenten angibt; Klassifizieren, durch den Prozessor, jedes Terms basierend auf den Wortart-Tags, wobei die Klassifizierung identifiziert, ob jeder Term ein Teilterm, ein Symptomterm, ein Aktionsterm, ein Ereignisterm oder ein Fehlermodusterm ist; Konstruieren, durch den Prozessor, einer ontologiebasierten Konsistenzmaschine als Funktion der klassifizierten Terme; Durchführen einer Konsistenzprüfung durch Anwenden der ontologiebasierten Konsistenzmaschine zwischen Ontologien, die aus zwei Kontextdokumenten extrahiert werden; Identifizieren inkonsistenter Terme zwischen den Kontextdokumenten; Korrigieren zumindest eines der Kontextdokumente mit inkonsistenten Termen.
  2. Verfahren nach Anspruch 1, ferner umfassend die Schritte des Identifizierens, ob jeder Term ein Teil einer Phrase ist, in Ansprechen auf das Zuordnen eines Wortart-Tags zu jedem Term; und Gruppierens der Phrasen als n-Gramme mit einer gleichen Anzahl von Termen.
  3. Verfahren nach Anspruch 2, ferner umfassend die Schritte des: Identifizierens einer Start- und Endposition von Phrasen auf der Grundlage der POS-Tags, um ihre Wortlänge zu ermitteln.
  4. Verfahren nach Anspruch 3, wobei die lexikographische beidseitige Information für eine erste Phrase und eine zweite Phrase durch die folgende Formel ermittelt wird:
    Figure DE102015121509A1_0010
  5. Verfahren nach Anspruch 4, wobei die LMI-Wahrscheinlichkeit, die der ersten Phrase zugehörig ist, mit der LMI-Wahrscheinlichkeit, die der zweiten Phrase zugehörig ist, verglichen wird, und wobei die Klassifizierung, die der jeweiligen LMI mit der höheren Wahrscheinlichkeit zugehörig ist, der ersten Phrase und der zweiten Phrase zugeordnet wird.
  6. Verfahren nach Anspruch 1, wobei die Konsistenzprüfung zwischen den beiden Kontextdokumenten ein erstes Anforderungsdokument und ein zweites Anforderungsdokument umfasst.
  7. Verfahren nach Anspruch 1, wobei die Konsistenzprüfung zwischen den beiden Kontextdokumenten einen ersten Softwarecode und einen zweiten Softwarecode umfasst.
  8. Verfahren nach Anspruch 1, wobei die Konsistenzprüfung zwischen den beiden Kontextdokumenten ein Anforderungsdokument und einen Softwarecode umfasst.
  9. Verfahren nach Anspruch 1, wobei die Konsistenzprüfung durch Finden einer Ähnlichkeit zwischen einem ersten Satz von Konzepttermen und einem zweiten Satz von Konzepttermen ermittelt wird, wobei eine Ähnlichkeit unter Verwendung der folgenden Formeln ermittelt wird: IC(c) = log–1P(c) wobei P(c) eine Wahrscheinlichkeit eines Auftretens einer Instanz eines Konzepts c ist, und
    Figure DE102015121509A1_0011
    wobei, wenn sim(ci, cj) größer als ein erster vorbestimmter Schwellenwert ist, ermittelt wird, dass der erste und zweite Satz von Konzepten miteinander konsistent sind.
  10. Verfahren nach Anspruch 1, wobei die Konsistenzprüfung durch Finden einer Ähnlichkeit zwischen einem ersten Satz von Konzepttermen und einem zweiten Satz von Konzepttermen ermittelt wird, wenn eine Mehrfachvererbung von Worten verwendet wird, wobei die Ähnlichkeit unter Verwendung der folgenden Formeln ermittelt wird: IC(c) = log–1P(c) wobei P(c) eine Wahrscheinlichkeit eines Auftretens einer Instanz eines Konzepts c ist,
    Figure DE102015121509A1_0012
    wobei Sen(w) den Satz von möglichen Bedeutungen für Wort w bezeichnet, wobei, wenn sim(wi, wj) größer als ein zweiter vorbestimmter Schwellenwert ist, ermittelt wird, dass der erste und zweite Satz von Konzepten miteinander konsistent sind.
DE102015121509.8A 2014-12-18 2015-12-10 Methodik und Vorrichtung zur Konsistenzprüfung durch Vergleich von Ontologiemodellen Withdrawn DE102015121509A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/574,962 2014-12-18
US14/574,962 US20160179868A1 (en) 2014-12-18 2014-12-18 Methodology and apparatus for consistency check by comparison of ontology models

Publications (1)

Publication Number Publication Date
DE102015121509A1 true DE102015121509A1 (de) 2016-06-23

Family

ID=56099685

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015121509.8A Withdrawn DE102015121509A1 (de) 2014-12-18 2015-12-10 Methodik und Vorrichtung zur Konsistenzprüfung durch Vergleich von Ontologiemodellen

Country Status (3)

Country Link
US (1) US20160179868A1 (de)
CN (1) CN105718256A (de)
DE (1) DE102015121509A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570187A (zh) * 2016-11-14 2017-04-19 南京邮电大学 一种基于本体概念相似度的软件构件检索方法
DE102018008923A1 (de) 2018-10-09 2020-05-20 makmad.org e. V. Verfahren zur Erstellung einer effizienten, logisch vollständigen, ontologischen Ebene im erweiterten relationalen Datenbankkonzept

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170249309A1 (en) * 2016-02-29 2017-08-31 Microsoft Technology Licensing, Llc Interpreting and Resolving Conditional Natural Language Queries
US10713432B2 (en) * 2017-03-31 2020-07-14 Adobe Inc. Classifying and ranking changes between document versions
US10891375B1 (en) * 2017-09-27 2021-01-12 Allure Security Technology Inc. Document behavior analytics—abnormal document flows to identify suspicious exfiltration utility patent
CN110928546A (zh) * 2018-09-20 2020-03-27 西门子股份公司 确定存在依赖违规的方法、装置、电子设备、介质及程序
CN110516722B (zh) * 2019-08-15 2023-08-22 南京航空航天大学 一种基于主动学习的需求与代码之间可追踪性的自动生成方法
CN112733517B (zh) * 2021-01-12 2022-12-06 上海复佳信息科技有限公司 需求模板符合性检查的方法、电子设备及存储介质
CN114218402B (zh) * 2021-12-17 2024-05-28 迈创企业管理服务股份有限公司 一种计算机硬件故障更换件推荐的方法
US11803365B2 (en) 2022-03-25 2023-10-31 GM Global Technology Operations LLC System and process for vehicle software configuration coverage measurement for update validation

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8522196B1 (en) * 2001-10-25 2013-08-27 The Mathworks, Inc. Traceability in a modeling environment
WO2003107139A2 (en) * 2002-06-17 2003-12-24 Beingmeta, Inc. Extensible structured controlled vocabularies
US7367023B2 (en) * 2003-07-10 2008-04-29 International Business Machines Corporation Method and apparatus for generating computer programming code selectively optimized for execution performance and not optimized for serviceability
US7788640B2 (en) * 2004-12-28 2010-08-31 Microsoft Corporation Using code analysis to generate documentation
DE102005051617B4 (de) * 2005-10-27 2009-10-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Automatisches, computerbasiertes Ähnlichkeitsberechnungssystem zur Quantifizierung der Ähnlichkeit von Textausdrücken
US7734623B2 (en) * 2006-11-07 2010-06-08 Cycorp, Inc. Semantics-based method and apparatus for document analysis
US8191044B1 (en) * 2006-12-14 2012-05-29 Fannie Mae System and method for maintaining requirements traceability
WO2008120030A1 (en) * 2007-04-02 2008-10-09 Sobha Renaissance Information Latent metonymical analysis and indexing [lmai]
US20100257127A1 (en) * 2007-08-27 2010-10-07 Stephen Patrick Owens Modular, folder based approach for semi-automated document classification
US8151248B1 (en) * 2007-10-31 2012-04-03 Sprint Communications Company L.P. Method and system for software defect management
US8266519B2 (en) * 2007-11-27 2012-09-11 Accenture Global Services Limited Document analysis, commenting, and reporting system
US8271870B2 (en) * 2007-11-27 2012-09-18 Accenture Global Services Limited Document analysis, commenting, and reporting system
US9002857B2 (en) * 2009-08-13 2015-04-07 Charite-Universitatsmedizin Berlin Methods for searching with semantic similarity scores in one or more ontologies
CN102141993A (zh) * 2010-02-02 2011-08-03 同济大学 一种基于语义本体的案例表示方法
US10089390B2 (en) * 2010-09-24 2018-10-02 International Business Machines Corporation System and method to extract models from semi-structured documents
US9262126B2 (en) * 2010-12-17 2016-02-16 Tata Consultancy Services Limited Recommendation system for agile software development
CN102194013A (zh) * 2011-06-23 2011-09-21 上海毕佳数据有限公司 一种基于领域知识的短文本分类方法及文本分类系统
US9292410B2 (en) * 2011-11-06 2016-03-22 International Business Machines Corporation Using traceability links strength for software development integrity monitoring
CN102662923A (zh) * 2012-04-23 2012-09-12 天津大学 一种基于机器学习的本体实例学习方法
US9229800B2 (en) * 2012-06-28 2016-01-05 Microsoft Technology Licensing, Llc Problem inference from support tickets
US9519872B2 (en) * 2013-08-23 2016-12-13 Wal-Mart Stores, Inc. Systematic discovery of business ontology
CN103593335A (zh) * 2013-09-05 2014-02-19 姜赢 基于本体一致性验证推理的中文语义校对方法
US9086824B1 (en) * 2014-01-15 2015-07-21 International Business Machines Corporation Requirements factorization mechanism
CN103853824B (zh) * 2014-03-03 2017-05-24 沈之锐 一种基于深度语义挖掘的内文广告发布方法与系统

Non-Patent Citations (17)

* Cited by examiner, † Cited by third party
Title
Biemann, C.; Riedl, M.: From Distributional to Contextual Similarity, Technical Report, TU Darmstadt, 2013. URL: http://www.ukp.tu-darmstadt.de/fileadmin/user_upload/Group_UKP/publikationen/2013/jlm-text2d-tech-report.pdf [abgerufen am 19.02.2016] *
Distributional semantics. In: Wikipedia, the free encyclopedia. Bearbeitungs-stand: 24.05.2014. URL: https://en.wikipedia.org/w/index.php?title=Distributional_semantics&oldid=609925361 [abgerufen am 18.02.2016] *
Ganapathy, G.; Sagayaraj, S.: To Generate the Ontology from Java Source Code. In: International Journal of Advanced Computer Science and Applications (IJACSA), 2, 2011, 2, S. 111-116. http://thesai.org/Publications/ViewPaper?Volume=2&Issue=2&Code=IJACSA&SerialNo=18 [abgerufen am 19.02.2016] *
Gutiererz, F. [u.a.]: Online Reasoning for Ontology-Based Error Detection in Text. On the Move to Meaningful Internet Systems: OTM 2014 Conferences: Confederated International Conferences: CoopIS, and ODBASE 2014, Amantea, Italy, October 27-31, 2014, Proceedings. Berlin, Heidelberg : Springer, 31.10.2014. S. 562-579. - ISBN 978-3-662-45563-0. http://dx.doi.org/10.1007/978-3-662-45563-0_34 [abgerufen am 19.02.2016] *
Herger, P.: Learning semantic relations withdistributional similarity, Master's Thesis, TU Berlin, 23.09.2014. URL: https://www.lt.informatik.tu-darmstadt.de/fileadmin/user_upload/Group_LangTech/student_theses/pherger_msc_140923.pdf [abgerufen am 19.02.2016] *
http://www.ling.upenn.edu/courses/Fall_2007/ling001/penn_treebank_pos.html
Lexical substitution. In: Wikipedia, the free encyclopedia. Bearbeitungsstand: 17.06.2014. URL: https://en.wikipedia.org/w/index.php?title=Lexical_substitution&oldid=497998442 [abgerufen am 17.02.2016] *
Natural language processing. In: Wikipedia, the free encyclopedia. Bearbeitungsstand: 27.11.2014. URL: https://en.wikipedia.org/w/index.php?title=Natural_language_processing&oldid=635697805 [abgerufen am 16.02.2016]
Natural language processing. In: Wikipedia, the free encyclopedia. Bearbeitungsstand: 27.11.2014. URL: https://en.wikipedia.org/w/index.php?title=Natural_language_processing&oldid=635697805 [abgerufen am 16.02.2016] *
Outline of natural language processing. In: Wikipedia, the free encyclopedia. Bearbeitungsstand: 10.12.2014. URL: https://en.wikipedia.org/w/index.php?title=Outline_of_natural_language_processing&oldid=637427260 [abgerufen am 18.02.2016] *
Part-of-speech tagging. In: Wikipedia, the free encyclopedia. Bearbeitungs-stand: 10.12.2014. URL: https://en.wikipedia.org/w/index.php?title=Part-of-speech_tagging&oldid=637501749 [abgerufen am 16.02.2016] *
Semantic compression. In: Wikipedia, the free encyclopedia. Bearbeitungs-stand: 16.10.2014. URL: https://en.wikipedia.org/w/index.php?title=Semantic_compression&oldid=629817402 [abgerufen am 17.02.2016] *
Semantic similarity. In: Wikipedia, the free encyclopedia. Bearbeitungsstand: 28.11.2014. URL: https://en.wikipedia.org/w/index.php?title=Semantic_similarity&oldid=635786205 [abgerufen am 16.02.2016] *
Shalini, Ghosh [u.a.]: ARSENAL: Automatically Extracting Requirements Specifications from Natural Language. In: CoRR, 14.07.2014, S. 1-32. http://arxiv.org/abs/1403.3142v2 [abgerufen am 19.02.2016] *
Text simplification. In: Wikipedia, the free encyclopedia. Bearbeitungsstand: 25.11.2014. URL: https://en.wikipedia.org/w/index.php?title=Text_simplification&oldid=635365276 [abgerufen am 17.02.2016] *
Witte, R. [u.a.]: Ontological Text Mining of Software Documents. Natural Language Processing and Information Systems: 12th International Conference on Applications of Natural Language to Information Systems, NLDB 2007, Paris, France, June 27-29, 2007. Proceedings. Berlin, Heidelberg : Springer, 2007. S. 168-180. - ISBN 978-3-540-73351-5. http://dx.doi.org/10.1007/978-3-540-73351-5_15 [abgerufen am 19.02.2016] *
Word-sense disambiguation. In: Wikipedia, the free encyclopedia. Bearbei-tungsstand: 22.11.2014. URL: https://en.wikipedia.org/w/index.php?title=Word-sense_disambiguation&oldid=634966606 [abgerufen am 16.02.2016] *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570187A (zh) * 2016-11-14 2017-04-19 南京邮电大学 一种基于本体概念相似度的软件构件检索方法
CN106570187B (zh) * 2016-11-14 2020-04-21 南京邮电大学 一种基于本体概念相似度的软件构件检索方法
DE102018008923A1 (de) 2018-10-09 2020-05-20 makmad.org e. V. Verfahren zur Erstellung einer effizienten, logisch vollständigen, ontologischen Ebene im erweiterten relationalen Datenbankkonzept

Also Published As

Publication number Publication date
CN105718256A (zh) 2016-06-29
US20160179868A1 (en) 2016-06-23

Similar Documents

Publication Publication Date Title
DE102015121509A1 (de) Methodik und Vorrichtung zur Konsistenzprüfung durch Vergleich von Ontologiemodellen
DE112018000334T5 (de) System und Verfahren zur domänenunabhängigen Aspektebenen-Stimmungserkennung
DE112018005894T5 (de) Maschinenlernen zum integrieren von wissens- und natürlicher sprachverarbeitung
DE112012005177T5 (de) Erzeugens eines Verarbeitungsmodells für natürliche Sprache für einen Informationsbereich
DE102019001267A1 (de) Dialogartiges System zur Beantwortung von Anfragen
DE102013209868A1 (de) Abfragen und Integrieren strukturierter und unstrukturierter Daten
DE112020004623T5 (de) Ml-basierte ereignishandhabung
DE112018006345T5 (de) Abrufen von unterstützenden belegen für komplexe antworten
DE102011106550A1 (de) Methodik zur Wissensextraktion für unstrukturierte Daten mittels ontologiebasiertem Text-Mining
DE102014116369A1 (de) Verwaltung von sprachmarkern bei internationaler datenspeicherung
DE112010000947T5 (de) Verfahren zur völlig modifizierbaren Framework-Datenverteilung im Data-Warehouse unter Berücksichtigung der vorläufigen etymologischen Separation der genannten Daten
DE102014103281A1 (de) Verknüpfen unterschiedlicher typerzwingungskomponenten zum beurteilen eines latenten typs
DE112020005268T5 (de) Automatisches erzeugen von schema-annotationsdateien zum umwandeln von abfragen in natürlicher sprache in eine strukturierte abfragesprache
DE102021130081A1 (de) Auf deep learning basierende automatische ontologieextraktion zur erfassung von neuen wissensbereichen
DE112020002129T5 (de) Deep-learning-ansatz für datenverarbeitungsspannen
DE102008005083A1 (de) Abrufen einer Information eines fallbasierten Schliessens aus Archivaufzeichnungen
CN107103363A (zh) 一种基于lda的软件故障专家系统的构建方法
DE102021004562A1 (de) Abwandlung von Szenengraphen auf Grundlage von Befehlen in natürlicher Sprache
DE102012100392A1 (de) Effiziente Quelle zur Bestimmung einer Unausführbarkeit in Timed Automata-Spuren
DE112021005782T5 (de) Korrigieren von Antwortpannen
DE112021005847T5 (de) Dynamische gradientenverschleierung gegen feindliche beispiele bei maschinenlernmodellen
DE202022002902U1 (de) Iteratives Training für einen Text-Bild-Layout-Transformer
DE112018005620T5 (de) Auftragsverwaltung in einem datenverarbeitungssystem
DE112020003767T5 (de) Erzeugen eines ausführbaren verfahrens aus einer textbeschreibung, die in einer natürlichen sprache geschrieben ist
DE112021001743T5 (de) Vektoreinbettungsmodelle für relationale tabellen mit null- oder äquivalenten werten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee