DE102007055117A1 - Ein System von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen basierend auf einer natürlichen Sprache und das Arbeitsverfahren von dem System - Google Patents

Ein System von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen basierend auf einer natürlichen Sprache und das Arbeitsverfahren von dem System Download PDF

Info

Publication number
DE102007055117A1
DE102007055117A1 DE102007055117A DE102007055117A DE102007055117A1 DE 102007055117 A1 DE102007055117 A1 DE 102007055117A1 DE 102007055117 A DE102007055117 A DE 102007055117A DE 102007055117 A DE102007055117 A DE 102007055117A DE 102007055117 A1 DE102007055117 A1 DE 102007055117A1
Authority
DE
Germany
Prior art keywords
cyborg
abstract
android
computer system
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007055117A
Other languages
English (en)
Inventor
Boris Kaplan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US11/727,322 external-priority patent/US7672922B2/en
Application filed by Individual filed Critical Individual
Publication of DE102007055117A1 publication Critical patent/DE102007055117A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Toys (AREA)

Abstract

Ein System von künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigeorientierte Objekterfassungsverfahren von Informationen basierend auf einer natürlichen Sprache, bestehend aus den Hardwarebaugruppen (27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37), den Sensorengruppen (1, 2, 3, 4, 5, 6), den Schnittstellen (7, 8, 9, 10, 11, 12, 15, 16, 17, 18, 19, 20, 21, 22, 24, 25), dem Sinneninputreceiver (13), dem Sinnenoutputsender (14), der Datenbank (23), dem Cyborg-Interpreter (26), wobei das Sensorennetzwerk des Systems Reaktionen aller fünf Sinnenorgane umfasst. Diese natürliche Sprache, die das System bei seinem Arbeitsverfahren verwendet, wird von diesem System objektorientiert interpretiert. Die Objekte sind keine Objekte einer Programmiersprache. Die Systemfunktionalität isten Objekten, die eindeutig und relativ zur Zeit sind, realisiert. Diese von der natürlichen Sprache erzeugten Objekte können mehr Reaktionen jeweils von mehr Sensorengruppen als fünf Reaktionen von fünf Sinnenorganen präsentieren. Für das Arbeitsverfahren in einer anderen Sprache verwendet das System die Referenzen auf diese Objekte.

Description

  • Ein System von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen basierend auf einer natürlichen Sprache und das Arbeitsverfahren von dem System.
  • Die vorliegende Erfindung bezieht sich auf das System von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen und das Arbeitsverfahren von dem System. Das System ist auf einer natürlichen Sprache basiert.
  • Es sind Systeme von der Künstlichen Intelligenz bekannt zur Klassifizierung von Ereignissen, Objekten oder Situationen, die z. B. für die Klassifizierung von seismischen Ereignissen dienen. (Die Europäische Patentschrift ( FR 9908472 , DE 60005350 )). Dies ist auf dem unscharfen Expertensystem (FES) basiert. Diese Erfindung ist nicht als System von Künstlicher Intelligenz von einem Cyborg oder einem Android vorgesehen sowie ist es nicht auf einer natürlichen Sprache basiert.
  • Von der Europäischen Patentschrift ( JP 32376590 , DE 69132026 ) ist ein Software-Werkzeug, welches bei der Software-Arbeit in einem Informationsverarbeitungsgerät verwendet wird, bekannt, das Software auf dem Gebiet der Künstlichen Intelligenz (AI) dynamisch verwaltet. In dieser Erfindung geht es nicht um ein System von Künstlicher Intelligenz von einem Cyborg oder einem Android. Hier geht es um ein Werkzeug, das die Software zu ihrer Laufzeit intelligent dynamisch verwaltet.
  • Es ist eine Vorrichtung zum Hinzufügen von Attributen zu einem Objekt während der Laufzeit in einer objektorientierten Rechnerumgebung von der Europäischen Patentschrift ( US 96112432 , DE 69616449 ) bekannt. In dieser Vorrichtung wird das Verfahren zum Zuordnen einer Eigenschaft zu einem Objekt in einem Computersystem, wobei das Computersystem eine Definition einer Klasse enthält, die eine oder mehrere Klasseneigenschaften eines Objekts spezifiziert, sowie zum Kompilieren während der Laufzeit realisiert. In dieser Erfindung geht es nicht um ein System von Künstlicher Intelligenz von einem Cyborg oder einem Android. Bei Objektmodellierung geht es hier um die Verwendung einer Programmiersprache und eines Compilers.
  • Es ist ein natürliche Sprache Verstehendes Verfahren und eine verstehende Vorrichtung zur Sprachsteuerung einer Anwendung von der Europäischen Patentschrift ( US 93293897 , DE 69814114 ) bekannt. Diese Erfindung betrifft allgemein computerisierte natürliche Sprachsysteme, insbesondere zum Bereitstellen von Sprachverständnisfähigkeiten für ein Dialog-Sprachantwortsystem oder ein Computersystem und ein Verfahren zum Interpretieren von Äußerungen in einer mit Randbedingungen versehenden Spracherkennungsanwendung. Das Computersystem ist auf einer vorherbestimmen festen Spracherkennung-(ASR)-Corpusdatei, die eine Aufzählung aller erwarteten gültigen Äußerungen enthält, basiert. Diese Erfindung ist nicht als System von Künstlicher Intelligenz von einem Cyborg oder einem Android vorgesehen.
  • In der Europäischen Patentschrift ( EP 93918750 , DE 69303013 ) ist eine Anwendung einer Sprache mit einer ähnlichen Darstellung für Programme und Daten in der verteilten Datenverarbeitung patentiert. Diese Erfindung ist auf einer Programmiersprache basiert.
  • Von der Europäischen Patentschrift ( KR 2003000254 , DE 10361726 ) ist ein Roboterspielzeug mit künstlicher Intelligenz und Steuerverfahren dafür bekannt. In diesem Patent sind mehrere roboterspezifische Patentansprüche patentiert. Die KI von diesem Roboterspielzeug ist für seine mechanische Steuerung vorgesehen.
  • Es ist eine Objekterkennungsmethode für eine Mobile Roboternavigation von der Amerikanischen Patentschrift ( US 5963663 A ) bekannt. Als Objekte sind in dieser Erfindung die Orientiere (die Kennzeichen) bezeichnet. In der Erfindung wird mit Hilfe eines Elementes der Zeichenerkennung, das nach dem Prinzip von Mustererkennung („the Pattern recognition") arbeitet, des neuronalen Netzes ein Muster in einem Signal von einem anderen Muster unterschieden. Für die Mustererkennung wird der einkommende Signal auf „rote" Werte, „grüne” Werte und „blaue" Werte zerlegt. Diese Erfindung macht es möglich, dass ein Roboter verschiedene Fachaufgaben ausführt. Diese Erfindung ist nicht als System von Künstlicher Intelligenz von einem Cyborg oder einem Android vorgesehen.
  • Für den aktuellen Stand der Technik ist ein Gutachten der sozialen interaktiven Roboter von dem Artikel (T. Fong et al.: „A survey of socially interactive robots"; Robotics and Autonomous Systems 42 (2003); Seiten 143–166) relevant, in dem es um die soziale „peer-to-peer" Mensch-Roboter Interaktion (HRI) geht. Die wichtigsten Topics dieses Artikels sind:
    • 1. das Design von Robotern für die Mensch-Roboter Interaktion: 1.1. z. B., dass die Ausführungsform (als „Human-gleich" oder mindestens „creature-like") oder Struktur (z. B. das Material) von den Robotern wichtig ist, weil dies den sozialen Erwartungen für die Mensch-Roboter Interaktion entsprechend ist, sowie sie aufzubauen hilft;
    • 2. die Emotionen von Menschen während der Mensch-Roboter Interaktion: 2.1. z. B., dass für Sprachausgabe die Lautstärke, die Tonhöhe (das Level, die Variation, der Tonumfang) und der Rhythmus wichtig sind;
    • 3. der Mensch-Roboter Dialog während der Mensch-Roboter Interaktion: 3.1. z. B., dass ein Roboter-Hund einfache Wörter: „Ball", „Rot", „Komm", „Sitz", „bei Fuß" lernen kann; 3.2. z. B., dass für eine Navigationssystemfunktionalität oder für die Museumsführerfunktionalität eine Spracherkennung verwendet werden kann; 3.3. z. B., dass „in welchem Umfang die Mensch-Roboter Schnittstellen auf der natürlichen Sprache basieren sollten, bleibt noch ein offener Punkt";
    • 4. das Kreieren von den Robotern für die Mensch-Roboter Interaktion, die einen Menschen imitieren können: 4.1. z. B., dass der Roboter sich entscheiden sollte, wann er seine Imitation startet bzw. wann sie gestoppt wird, und wann ein passender Augenblick für die Imitation ist;
    • 5. der Unterschied zwischen konventionellen und interaktiven Robotern: 5.1. z. B., dass der entscheidende Unterschied darin liegt, wie ein Mensch einen Roboter, der die ermittelten Erwartungen als ein sozialer Agent implementiert, erkennt. Dies führt zu Menschen Interaktionen mit Robotern.
  • Es ist eine Sensorbasierte Bewegungsgeneration von Robotern in unbekannten dynamischen und störenden Szenarios von dem Artikel (J. Minguez et al.: „Sensor-based robot motion generation in unknown, dynamic and troublesome scenarios"; Robotics and Autonomous Systems 52 (2005); Seiten 290–311) für den aktuellen Stand der Technik relevant. In diesem Artikel geht es:
    • 1. um ein Sensorbasiertes Bewegungssteuerungssystem, das entwickelt wurde um automatisch ein Fahrzeug ohne Kollisionen zu fahren. (Ein autonomes Navigationssystem für Roboter für robuste und vertrauenswürdige Navigation in sehr komplizierten Umgebungen): 1.1. z. B. um gefährliche Materialen zu transportieren;
    • 2. um das, dass das Sensorbasierte Steuerungs-Untersystem für Bewegung entwickelt wurde um ein Fahrzeug zu den gewünschten Positionen (d. h. von dem Punkt A zu dem Punkt B) ohne Kollisionen zu bewegen. Seine Funktionalität ist lediglich ein Unterpunkt von dem kompletten Mobilitätsproblem;
    • 3. um die Umgebung von dem Roboter. Die Umgebung, die zu diesem Artikel relevant ist, sind die Hindernisse, die den Roboter umkreisen;
    • 4. um das, dass mit Hilfe von drei Arten von Modulen der Roboter immer wieder einen Weg in einer sehr komplizierten Umgebung (auch in einer dynamisch änderbaren Umgebung) findet;
    • 5. um die Techniken, die in diesem Artikel beschrieben sind. Sie werden den Grad von der Mobilität des Roboters vergrößern und die Intervention von Menschen reduzieren;
    • 6. um das, dass das Sensorbasierte Bewegungssteuerungssystem als ein „Subset" von einem kompletten Navigationssystem präsentiert wurde.
  • Es ist Sensor und Treiber Abstraktion und Gruppierung in einer Hardware Abstraktion Schicht für einen Roboter von der Amerikanischen Patentschrift ( US 2003/0171846 A1 ) bekannt.
    • 1. In diesem Patent geht es um Hardware Treiber für Roboter, die zwischen Software und Firmware oder zwischen Roboter Steuerungssoftware und darunter liegenden Roboter Hardware oder dem Betriebssystem für die Hardware installiert werden: 1.1. In Einzelheiten bezieht sich diese Erfindung auf den Hardware Abstraktion Layer, der die Portierung von der Steuerungs- und Handlungssoftwaren bei verschiedenen Robotertypen verbessert und den Softwareentwicklern eine Möglichkeit gibt das Schreiben von der Steuerungssoftware des Roboters in einer roboterunabhängigen Manier. 1.2. Z. B. das HAL (Hardware Abstraktion Layer) effizient erlaubt, dass die Steuerung Software, die für einen Roboter entwickelt wurde, werden für einen anderen Roboter verwendet – die Portierung. 1.3. Bei HAL geht es hauptsächlich um Ressourcen Software-Treiber, die zwischen Hardware Baustein Treiber und „Higher-Level" Software (z. B. für Planen, für eine Applikation, für eine Fachaufgabe, für eine Handlungsweise) von einem Roboter implementiert sind. 1.4. Eine Ausführungsart dieses Patentes beinhaltet ein „computer-readable" Medium mit „computer-executable" Instruktionen, z. B. Hard Disks, Floppy Disks, ..., RAM, ROM, Memory Karten, ... CD-ROM, DVD-Rom. 1.5. Die „IResourceDriver", "IResource", "IRSensor", „IResourceContainer" oder „Implemenmented Resource Interfaces" („IAudioBase", „IAudioLevel", „ICamera", "ICamera Group", "IBumpSerisor", „IRangeSensor", „ISpitalSEnsor", „IFace", „IMotorCommand", „IMotorQuery", „IDriveSystem", "IOdometry", "IImageDisplay", „IJoystick", „ISwitchDevice", „IGripper", „ISpeechRecognizer”, "ISpeechTTS", „IPollable", „ITransactable") usw. sind in einer Programmiersprache (C++) entwickelt.
    • 2. Dieses Patent bezieht sich auf Roboter und macht es möglich, dass ein Roboter eine Fachaufgabe, z. B. gehen, aufheben, oder lächeln physikalisch ausführen kann, oder z. B. ein Roboterhund „mit dem Schwanz wackeln" physikalisch ausführen kann.
  • Es ist der Nichtlineare genetische Prozess für Verwendung mit Mehrzahl von mitentwickelnden Populationen von der Amerikanischen Patentschrift ( US 5148513 A ) bekannt. In der Erfindung geht es:
    • 1. um Computerprogramme, um den Quellcode. „Solche Expressions wie (–(*5 4)(*3 2) werden in LISP als Symbolische Expressions (S-expressions) genannt." „Es ist hilfreich eine Programmierungssprache-Funktionsexpression grafisch darzustellen."
    • 2. Um die Programmiersprache LISP. „Diese scheinbare Einfachheit gibt LISP enorme Flexibilität (inklusiv der Flexibilität die rechenbetonten Prozeduren, die sich selber modifizieren und sich selber ausführen, zu unterbringen). Diese enorme Flexibilität macht LISP zur bevorzugten Programmiersprache für die vorliegende Erfindung".
    • 3. Um Computerprogramme, die als „Entities" (die Wesenheiten) vorgestellt werden. Z. B., „12 zeigt eine einfache Entity, nämlich die symbolische Expression in LISP Programmierungssprache für die mathematische Expression A + B*C".
    • 4. Um Populationen von Computerprogrammen verschiedenen Grossen und Strukturen. Diese Computerprogramme können gleichzeitig, parallel in einer Umgebung ausgeführt werden.
    • 5. Um den „Co-Evolution" Prozess, der dem nichtlinearen genetischen Prozess gleich ist, von diesen Populationen von Computerprogrammen.
    • 6. Um den „Co-Evolution" Prozess von diesen Populationen von den Computerprogrammen mit („co-evolving") von den entstehenden und verbleibenden Programmen, bzw. mit den entstehenden und verbleibenden Populationen von den Computerprogrammen.
    • 7. Um das, dass man diese Erfindung z. B. in Computerspielen verwenden kann, wo es immer wieder, je mehr der Spieler qualifiziert ist, desto komplizierter das Spiel gestaltet wird, bzw. für die optimale Strategie für den Spieler.
  • Es ist eine Schnittstellenkopplung von Silizium-Nanodrähten mit Säugetierzellen von dem Artikel (Woong Kim, Jennifer K. Ng, Miki E. Kunitake, Bruce R. Conklin, and Peidong Yang: „Interfacing Silicon Nanowires with Mammalian Cells"; ACS PUBLICATIONS; Journal of the American Chemical Society (JACS); Published an Web: May 22, 2007; Copyright @ 2007 American Chemical Society; Seiten 7228–7229) bekannt. In dem Artikel geht es um das, dass die US-Forscher der University of California in Berkeley Säugetierzellensammlung auf den Nanodrähten wachsen. Das Ziel der Forschung ist externe Sensoren elektronisch an die Säugetierzelle anzubinden. Die Forscher lassen die Säugetierzellen auf einem Silizium-Substrat, das von einer Schicht aus Silizium-Nanodrähten bedeckt wird, wachsen. Die Drähte werden ein ganz natürlicher Teil der Zellen, weil die Nanodrähte sehr dünn sind.
  • Es ist im Rahmen des vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projektes das Projekt „Berlin Brain-Computer Interface" (BBCI) bekannt. (Das BCI Produktblatt, „BBCI-Berlin Brain-Computer Interface", „Schnittstelle zwischen Gehirn und Rechner", Fraunhofer-Institut für Rechnerarchitektur und Softwaretechnik FIRST, Klinik für Neurologie, Campus Benjamin Franklin der Charitä – Universitätsmedizin Berlin, die Projektleiter: Prof. Dr. Klaus-Robert Müller, Prof. Dr. Gabriel Curio.)
  • In dem Projekt geht es um:
    • 1. „Bereits seit einigen Jahren arbeiten Forschungsgruppen in Europa und den USA an Systemen, die einen direkten Dialog zwischen Mensch und Maschine ermöglichen sollen. Hierzu wird eine Schnittstelle zwischen Gehirn und Rechner entwickelt, das Brain-Computer Interface (BCI)."
    • 2. „Man nutzt dazu die elektrische Hirnaktivität in Form des Elektroenzephalogramms (EEG). An der Kopfhaut angebrachte Elektroden messen die hirnelektrischen Signale. Diese werden verstärkt und an den Computer übermittelt, der die Gehirnsignale in technische Steuersignale umwandelt. Das Funktionsprinzip des BCI basiert darauf, dass die Hirnaktivität bereits die rein gedankliche Vorstellung eines Verhaltens widerspiegelt, zum Beispiel die Vorstellung, eine Hand oder einen Full zu bewegen. Das BCI erkennt die damit korrelierenden Veränderungen des Hirnstrombildes und nutzt sie etwa zur Auswahl zwischen zwei Alternativen: während eine Option durch die Vorstellung, die linke Hand zu bewegen, ausgewählt wird, führt die Vorstellung einer Bewegung der rechten Hand zur Auswahl der alternativen Option. Auf diese Weise können Geräte gesteuert werden, die an einen Computer angeschlossen sind ...".
    • 3. „Im Rahmen des vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projektes werden EEG-gesteuerte Systeme für den rechnergestützten Arbeitsplatz entworfen, um beispielsweise einen Cursor auf der Basis von Gehirnwellen zu steuern. Darüber hinaus werden medizinische Werkzeuge für Patienten entwickelt, die von Muskelschwund betroffen oder querschnittsgelähmt sind."
  • Es ist ein Projekt der Gehirnchipimplementierung von der amerikanischen Firma Cyberkinetics bekannt. Der Chip heißt „BrainGate" (TM) „Neural Interface System" und ist eine Schnittstelle zwischen Gehirn und Rechner. Der Chip wird von Neurochirurgen im Gehirn über dem so genannten „motorischen Cortex" eingepflanzt. Das Implantat empfängt Nervensignale und leitet sie zu einem Prozessor weiter. Der Prozessor kennt die Nervensignale der gesunden Menschen. Dadurch wandelt der Prozessor die Signale in elektrische Impulse um. Mit den elektrischen Impulsen kann man eine Roboterprothese, z. B. einen Roboterarm, oder auch einen Computer steuern. D. h. die Roboterprothesenbewegungen werden direkt vom dem menschlichen Gehirn gesteuert. Die Firma plant die Menschen, die durch Unfälle, Muskelschwund, Schlaganfall oder Nervenerkrankungen behindert oder krank sind, zu heilen. Nach der Operation wird der Mensch mit einem Computer verbunden über eine Schnittstelle, ein Draht, der direkt in dem menschlichen Kopf implantiert wurde. Von meiner Patentanmeldung ( DE 10 2006 052 141.2-53 ) ist das zeigerorientierte Objekterfassungsverfahren für abstrakte Behandlung von Informationen von dem Computersystem von KI von einem Cyborg oder einem Android basierend auf einer natürlichen Sprache bekannt. In dieser Patentanmeldung geht es um das, dass bei dem zeigerorientierten Objekterfassungsverfahren für abstrakte Behandlung von Informationen von dem Computersystem von KI von einem Cyborg oder einem Android basierend auf einer natürlichen Sprache in dem Arbeitsspeicher des Computersystems von KI von einem Cyborg oder einem Android zur Laufzeit in der natürlichen Sprache, in der das Computersystem zur Zeit arbeitet, auf eine Art des Denkmusters von dem Klassen-basierten Modell von OOP, bzw. der Programmiersprache C++, wie bei der Instanzierung eines Objektes auf dem Heap (dem frei verfügbaren Speicherbereich bei dynamischer Speicheranforderung), drei Zeiger kreiert werden. Auf diese Weise werden das subjektive Objekt, das assoziative Objekt und das abstrakte Objekt des Computersystems von KI von einem Cyborg oder einem Android instanziert und initialisiert.
  • Durch diese Objekte, die in der natürlichen Sprache realisiert sind, kann man auf die Elementvariablen, d. h. auf die Datenelemente einer Klasse zugreifen, bzw. mit den Elementvariablen, d. h. mit den Datenelementen einer Klasse von dem Klassifizierungsbaum des Computersystems von KI von einem Cyborg oder einem Android manipulieren. Mit dem assoziativen Objekt, bzw. mit dem zweiten Zeiger, wird eine Assoziation im Computersystem von KI von einem Cyborg oder einem Android physikalisch substanziiert. Mit dem abstrakten Objekt, bzw. mit dem dritten Zeiger, wird ein Gedanke von dem Computersystem von KI von einem Cyborg oder einem Android physikalisch substanziiert.
  • Von meiner Patentanmeldung ( DE 10 2007 001 208 ) ist das Arbeitsverfahren für Behandlung von abstrakten Objekten von dem Computersystem von KI von einem Cyborg oder einem Android bekannt, bei dem die Behandlung der abstrakten Objekte oder der Klassen der Objekte von dem, dass das abstrakte Objekt mit den anderen abstrakten Objekten, abgestimmt ist, angestoßen wird.
  • Das Arbeitsverfahren wird von dem Computersystem von KI von dem Cyborg oder dem Android selber getrieben. In dem Arbeitsverfahren werden von dem Computersystem von KI von dem Cyborg oder dem Android die abstrakten Objekte, bzw. die Klassen von den abstrakten Objekten, in einem nicht kontinuierlichen Behandlungsmodus, das heißt diskret, bearbeitet. Der Behandlungsmodus wird aus der Klassifizierungspolymorphie des Computersystems von KI von dem Cyborg oder dem Android ermittelt. Die Entscheidung, ob ein abstraktes Objekt zu behandeln ist, und, wie das abstrakte Objekt im Rahmen des Behandlungsmodus zu behandeln ist, wird nach dem Klassifizierungsbaum des Computersystems von KI von dem Cyborg oder dem Android getroffen. Die Klassen von den abstrakten Objekten werden von dem Computersystem von KI von dem Cyborg oder dem Android selber subjektiv in einer natürlichen Sprache klassifiziert. Bei dem Arbeitsverfahren können mehr als zehn interne Richtlinien der abstrakten Subjektivität des Computersystems verwendet werden.
  • Weiter sind humanoide Roboter bekannt, die sich auf menschliche oder tierische Art und Weise bewegen können.
  • Z. B. ASIMO ist ein von Firma Honda entwickelter Roboter, der sich auf menschliche Weise bewegen kann.
  • Der AIBO von Firma Sony, ein Roboterhund, der programmiert werden kann. Außerdem kann er laufen, sehen, seine Gefühle zeigen und vordefinierte Wörter sprechen. Der QRIO von Firma Sony. Er ist humanoider Roboter der sich auf menschliche Art bewegen kann. Er kann alles, was der AIBO kann. Er kann auch Sprechen, bzw. ein Dialog führen. Dabei ist eine Spracherkennung eingesetzt und vordefinierte Antwortszenarios mit vielen Tausenden Wörter vorbereitet. Außerdem ist der QRIO sehr kostenspielig.
  • Weiter ist die Prädikatenlogik, die in der Informatik, bei der Programmierung von Expertensystemen und KI eine große Rolle spielt, weltweit bekannt. Die ist auf dem logischen Prädikat basiert, bei dem es mehr um eine Eigenschaft geht, als um eine Aktion. Das Prädikat ist nicht objektorientiert betrachtet. Weder Subjektsterm noch Prädikatsterm sind nicht relativ zur Zeit betrachtet.
  • Einige Begriffe müssen für die Beschreibung der aktuellen Erfindung definiert werden. Diese Begriffe und ihre Definitionen sind:
    • 1. Android: 1.1. Android der, -en/-en, Androide der, -n/-n ein zu bestimmen Tätigkeiten fähiger → Automat in Menschengestalt (die Brockhaus-Enzyklopädie: in 24 Bd. –19., völlig neubearb. Auflage, F.A. Brockhaus GmbH, Mannheim 1986, ISBN 3-7653-1101-4/3-7653-1201-0; Seite 562). 1.2. „Android (gr. andro- von ανδρoζ = Mann – griechisch: menschenförmig) ist die Bezeichnung für einen Roboter, der einem Menschen ... ähnlich sieht und sich menschenähnlich verhält." – Wikipedia, the free encyclopedia.htm (http://en.wikipedia.org/wiki/Android). 1.2.1. Unter einem Android werden bezeichnet: 1.2.1.1. ein Roboter (ein mechanisches Wesen), der einem Menschen ähnlich sieht und sich menschenähnlich verhält; 1.2.1.2. ein Cyborg (teilweise ein mechanisches Wesen oder teilweise ein organisches Wesen), der einem Menschen ähnlich sieht und sich menschenähnlich verhält; 1.2.1.3. ein künstliches Wesen, jedoch vornehmlich organisch, der einem Menschen ähnlich sieht und sich menschenähnlich verhält.
    • 2. Cyborg: 2.1. Cyborg ['saibo: g; Kw. aus engl. cybernetic organism > kybernetisches Lebenswesen <] der, -s/s, in der Futurologie Bez. für einen Menschen, in dessen Körper techn. Geräte als Ersatz zur Unterstützung nicht ausreichend leistungsfähiger Organe (z. B. für lange Raumflüge) integriert sind (die Brockhaus-Enzyklopädie: in 24 Bd. –19., völlig neubearb. Auflage, F.A. Brockhaus GmbH, Mannheim 1988, ISBN 3-7653-1105-7/3-7653-1205-3; Seite 67). 2.2. „Der Begriff Cyborg bezeichnet einen" „portmanteau of cybernetic organism", „der aus biologischen und künstlichen Teilen besteht. Der Cyborg ist ein Mischwesen zwischen lebendigem Organismus und Maschine." – Wikipedia, the free encyclopedia.htm (http://en.wikipedia.org/wiki/Cyborg): 2.2.1. „Generell, das Ziel ist erzeugen, wiederaufbauen, verbessern, hinzufügen die Fähigkeit von dem menschlichen Organismus bei Verwendung der Technology." 2.2.2. „Isaak Asimow untersuchte in seiner Kurzstory" „The Bicentennial Man" „die Konzepte von Kybernetik. Seine Untersuchungen führten zum Durchbruch in der menschlichen Medizin mittels der künstlichen Organen und Prothesen." (Ein „künstliches ... Gehirn" war in der Story auch dargestellt). 2.2.3. „Der Begriff Cyborg wird benutzt um einen Mann oder Frau mit bionischen oder mechanischen Implantaten zu bezeichnen."
    • 3. Starke Künstliche Intelligenz: 3.1. „Im Verständnis des Begriffs Künstliche Intelligenz spiegelt sich oft die aus der Aufklärung stammende Vorstellung vom Menschen als Maschine wieder, dessen Nachahmung sich die sogenannte starke KI zum Ziel setzt: eine Intelligenz zu erschaffen, die wie der Mensch nachdenken und Probleme lösen kann..."; 3.2. "...gemäß starker KI, der Computer ist nicht lediglich ein Tool um den Verstand zu studieren, sondern ein entsprechend programmierter Computer ist wirklich ein Verstand..." „(J. Searle in Minds, Brains and Programs. The Behavioral and Brain Sciences, vol. 3, 1980)" – Wikipedia, the free encyclopedia.htm (http://en.wikipedia.org/wiki/strong_Al).
    • 4. „Der Verstand ist der übliche Begriff, der meistens verwendet wird, um die höheren Funktionalitäten des menschlichen Gehirnes zu beschreiben." – Wikipedia, the free encyclopedia.htm (http://en.wikipedia.org/wiki/blind).
    • 5. „In der Psychologie... sind zwei ... Reize (in den Reiz-Reaktion Reflexen) assoziiert, wenn der Erfahrungswert von einem zu den Effekten von dem anderem führt... Das wird manchmal als Pawlows Assoziation („Pavlovian assoziation”) genannt." – Wikipedia, the free encyclopedia.htm (http://en.wikipedia.org/wiki/Association_%28psychology%29).
    • 6. Gedanke: 6.1. „Ein Gedanke ist ein unmittelbares Sinngebilde des Denkens. ... bezeichnet der Gedanke ein Ergebnis, Produkt des Denkprozesses..." – Wikipedia, the free encyclopedia.htm (http://de.wikipedia.org/wiki/Gedanke). 6.2. „Der Gedanke ist ein Synonym von einer Idee." – Wikipedia, the free encyclopedia.htm (http://en.wikipedia.org/wiki/Thought_(disambiguation)).
    • 7. „Telepathie (von grichisch τέλη, tele, „fern" und ττάθεια, patheia, „Empfindung" oder „Empfänglichkeit") bezeichnet die Fähigkeit, Information von einem Menschen zu einem anderen Menschen ... zu übertragen". „Der deutsche Begriff für Telepathie ist Gedankenübertragung" – Wikipedia, the free encyclopedia (http://de.wikipedia.org/wiki/Telepathie).
    • 8. „Das meistens populäre und entwickelte Modell von OOP ist ein Klassen-basiertes Modell... In diesem Model sind Objekte die" „Entities", „die der Zustand (d. h. die Daten), das Verhalten (d. h. die Prozeduren oder die Methoden) und die Identität (d. h. die eindeutige Existenz zwischen allen anderen Objekten) zusammenfassen. Die Struktur und das Verhältnis von einem Objekt sind bei einer Klasse definiert, die eine Definition oder ein Instanzierung- und Initialisierungsplan von allen Objekten von einem spezifischen Typ ist...- Wikipedia, the free encyclopedia.htm (http://en.wikipedia.org/wiki/Class-based_OOP).
    • 9. Zeiger: 9.1. Ein Zeiger oder Pointer bezeichnet in der Informatik eine spezielle Klasse von Variablen, die auf einen anderen Speicherbereich oder diese Variablen selbst verweisen... Der referenzierte Speicherbereich enthält entweder Daten (Objekt, Variable) oder Programmcode. – Wikipedia, the free encyclopedia.htm (http://de.wikipedia.org/wiki/Zeiger). 9.2. In C und C++ sind Zeiger Variablen, die Adressen (von einem Speicherbereich) speichern und NULL (der NULL-Zeiger speichert die Adresse von einem NULL-Objekt, bzw. wird auf nichts verwiesen) sein können. Ein Zeiger ist eine einfache Implementierung von der generellen Referenz ...(obwohl das vollkommen unterschiedlich von der Begriffbezeichnung ist, die als eine Referenz in C++ bezeichnet wurde). – Wikipedia, the free encyclopedia.htm (http://en.wikipedia.org/wiki/Pointer).
    • 10. Referenz: 10.1. Eine Referenz repräsentiert einen Verweis auf ein Objekt. ...stellt eine Referenz damit einen Alias-Namen für eine Entität dar... – Wikipedia, the free encyclopedia.htm (http://de.wikipedia.org/wiki/Referenz_%28Programmierung%29). 10.2. Eine Referenz ist ein Alias-Name. Wenn man eine Referenz erzeugt, initialisiert man Sie mit dem Namen eines anderen Objektes, dem Ziel. Von diesem Moment an ist die Referenz wie ein alternativer Name für das Ziel, und alles, was man mit der Referenz anstellt, bezieht sich tatsächlich auf das Ziel (das Buch „C++ in 21 Tagen", Jesse Liberty, 2000 by Markt&Technik Verlag, ISBN 3-8272-5624-0, die Autorisierte Übersetzung der amerikanischen Originalausgabe: „Teach Yourself C++ in 21 Days"© 1999 by SAMS Publishing; Seite 290).
    • 11. Objekt: 11.1. Mit ... erzeugt man neue Objekte auf dem Heap (der Freispeicher, der dynamische Speicher). Die ... zurückgegebene Adresse (von dem Speicherbereich) legt man in einem Zeiger ab (das Buch „C++ in 21 Tagen", Jesse Liberty, 2000 by Markt&Technik Verlag, ISBN 3-8272-5624-0, die Autorisierte Übersetzung der amerikanischen Originalausgabe: „Teach Yourself C++ in 21 Days"© 1999 by SAMS Publishing; Seiten 263, 264, 267, 285). 11.2. Das Operator new erzeugt solche Objekte, und der Operator delete kann benutzt werden, um sie zu zerstören. Objekte, die durch new angelegt wurden, werden als »im Freispeicher« befindlich bezeichnet (und auch als » Heap-Objekte « oder » im dynamischen Speicher angelegt «) (das Buch „Die C++-Programmiersprache"; 3. Auflage; Bjarne Stroustrup (der Erfinder von C++); Addison Wesley Longman Verlag; 1998; ISBN 3-8273-1296-5; Seite 136).
  • Der Erfindung liegt das Problem zu Grunde, das System von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen basierend auf einer natürlichen Sprache zu realisieren. Das System sollte bei seinem Arbeitsverfahren:
    von keiner Hardware abhängig sein;
    von keinem Betriebssystem abhängig sein;
    von keiner Programmiersprache abhängig sein;
    von keinem Code abhängig sein;
    von keiner Software abhängig sein;
    von keinem Softwareentwickler, softwareentwicklungsmäßig, abhängig sein;
    von keinem Softwareentwickler, als ein Mensch, der alle Sachen mit der eigenen Subjektivität betrachtet, abhängig sein;
    von keiner Datenbank oder einem anderen Verfahren, die Daten speichern, abhängig sein;
    (von keinen Datenbankspezifischen Datenbankdatentypen für den Primärschlüssel, z. B. Integer, Number, Universal Unique Identifier, Global Unique Identifier usw. für das Kreieren von allen Primärschlüsseln der Datenbanktabellen, wenn Daten in einer Datenbank geschrieben werden, abhängig sein).
  • Das System sollte sehr günstig für die Weiterentwicklung bezüglich sowie der Hardwarebausteine als auch der Softwarekomponente sein.
  • Die erfindungsgemäße Lösung besteht für die eingangs genannte Gattung darin, dass das Sensorennetzwerk des Systems von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen basierend auf einer natürlichen Sprache Reaktionen aller fünf Sinnenorgane umfasst, bzw. die Reaktionen aller fünf Sinnenorgane und noch aller restlichen n Sinnenorgane dazu unter einem Objekt umfasst. Eine natürliche Sprache, die das System bei seinem Arbeitsverfahren verwendet, ist von diesem System objektorientiert interpretiert. Das heißt, diese Objekte, die in der natürlichen Sprache klassifiziert werden, können mehr Reaktionen jeweils von mehr Sensorengruppen (eine Sensorengruppe für jeden Sinn) als fünf Reaktionen von fünf Sinnenorganen präsentieren. Diese Objekte sind keine Objekte einer Programmiersprache. Die Systemfunktionalität ist auf diesen Objekten, die eindeutig sind, die später relativ zur Zeit betrachtet werden, basiert. Für das Arbeitsverfahren in einer anderen Sprache verwendet das System die Referenzen auf diese Objekte.
  • In Einzelheiten folgt nach der subjektiven Erstaufnahme des Systems von den einkommenden Sensorengruppensignalen das Zusammenfassen der Sensorengruppensignale.
  • Zuerst werden durch alle fünf Sensorengruppen des Sensorennetzwerks des Systems von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen basierend auf einer natürlichen Sprache von allen fünf Sinnenorganen alle Sensorenreaktionen auf die einkommenden Signale zu einem Objekt zusammengefasst. Das heißt z. B., die Aussehens-Signal-Sensorenreaktion, die Hörens-Signal-Sensorenreaktion, die Riechens-Signal-Sensorenreaktion, die Tastens-Signal-Sensorenreaktion, die Schmeckens-Signal-Sensorenreaktion werden zu einem Objekt zusammengefasst. Selbstverständlich werden irgendwelche Reaktionen subjektiv mit null initialisiert, sind aber immer in dem Objekt beinhaltet. Das gesamte Signalenobjekt wird nicht zeitrelativ betrachtet.
  • Beim subjektiven Zusammenfassen des Systems von den einkommenden Sensorengruppensignalen wird eine Signalenkombination gebildet. Damit wird für das System ein subjektives Objekt ermittelt. Mit dem subjektiven Objekt, der Signalenkombination, bzw. der subjektiven Sensorenreaktionenkombination auf die einkomenden Signale, wird ein Signalenobjekt des Systems von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen basierend auf einer natürlichen Sprache physikalisch substanziiert, im Sinne eine Substanz von dem Signalenobjekt zu bilden.
  • Dann folgt das assoziative Erfassen des Systems von den einkommenden Sensorengruppensignalen zu einer Phrase in einer natürlichen Sprache. Die Kombination von fünf einkommenden Sensorengruppensignalen mit dieser Phrase präsentiert ein assoziative Objekt des Systems. Nach der Arbeit des Cyborg-Interpreter ist diese Phrase vervollständigt und sie ist mit einem Zeitstempel versehen. Beim assoziativen Erfassen werden die Ziele verfolgt, dass das assoziative Objekt vervollständigt wird, dass es eindeutig für längere Zeit gespeichert wird, sowie, dass es relativ zur Zeit immer wieder gefunden werden kann. Mit dem assoziativen Objekt wird eine Assoziation des Systems von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen basierend auf einer natürlichen Sprache physikalisch substanziiert, im Sinne eine Substanz von der Assoziation zu bilden.
  • Bei der Arbeit des Cyborg-Interpreter ist die Phrase, die das assoziative Objekt beinhaltet, abstrakt analisiert. Beim abstrakten Analisieren ist diese Phrase auf einzige Wörter geparst. Jedes geparste Wort ist mit der Wortart, bzw. als der Satzteil definiert. Dann wird jedes Wort der Phrase bezüglich der Klassenklassifizierung, der Polymorphie, der Maßeinheit, der Intonation abstrakt anglisiert.
  • Danach wird jedes Wort der Phrase, klassifiziert nach einer Aktion in einer natürlichen Sprache, mit einem analytischen Wesen, mit der Rücksicht auf die Satzgliederung der Phrase, relativ zur Zeit des Zusammenfassens der einkommenden Sensorengruppensignalen, eindeutig langfristig gespeichert. So eine wortweise gespeicherte Phrase präsentiert ein abstraktes Objekt des Systems. Mit dem abstrakten Objekt wird ein Gedanke des Systems von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen basierend auf einer natürlichen Sprache physikalisch substanziiert, im Sinne eine Substanz von dem Gedanken zu bilden.
  • Mit diesem abstrakten Objekt operiert das System während seiner Arbeit.
  • Z. B. ist damit eine neue Klasse in der Klassenklassifizierung nach Vererbung spezifiziert oder ein neues unbekanntes Objekt polymorph zu einer bestehenden Klasse angeordnet.
  • Das abstrakte Objekt kann von dem System immer wieder gefunden werden. Nach dem abstrakten Objekt wird das assoziative Objekt gefunden. Nach dem assoziativen Objekt wird das subjektive Objekt gefunden.
  • Das subjektive Objekt kann man zurückgeben.
  • Bei Rückgabe ist das subjektive Objekt auf einzige Sensorengruppensignale gesplittet, d. h. für jede Sensorengruppenoutputschnittstelle wird die Outputart, der Outputwert und die Outputmaßeinheit definiert.
  • Für das Arbeitsverfahren verwendet das System eine natürliche Sprache. Für das Arbeitsverfahren in einer anderen (oder in mehreren) natürlichen Sprache(n) verwendet das System die Referenzen in der anderen (oder in mehreren) natürlichen Sprache(n) auf die abstrakten Objekte der ersten, originalen natürlichen Sprache.
  • Diese Erfindung, wie auch meine Erfindungen „Das zeigerorientierte Objekterfassungsverfahren für abstrakte Behandlung von Informationen von dem Computersystem von KI von einem Cyborg oder einem Android basierend auf einer natürlichen Sprache", Patentanmeldung, das Aktenzeichen 10 2006 052 141.2-53 , sowie „Das Arbeitsverfahren für Behandlung von abstrakten Objekten von dem Computersystem von KI von einem Cyborg oder einem Android", Patentanmeldung, das Aktenzeichen 10 2007 001 208 , basiert auf einer meiner Naturwissenschaftlichen Entdeckungen, bzw. auf meiner Subjektivitätstheorie. Mit dem Thema – „Menschliche Intelligenz. Natürliche Intelligenz. Die Funktionalität von der Menschlichen (Natürlichen) Intelligenz".
  • Die drei Erfindungen machen es möglich entweder die Umwandlung eines humanoiden Roboters zu einem Android oder die Umwandlung eines Menschen zu einem Cyborg mit dem künstlichen Teil – der Künstlichen Intelligenz.
  • Hinter dieser Erfindung versteckt sich ein enormes riesiges Jobpotenzial, das aus tausender hochqualifizierter, hochmotivierter, hochwertiger Jobs in den verschiedenen Branchen besteht.
  • Außer der Verwendung des Systems und des Arbeitsverfahrens als ein System von Künstlicher Intelligenz von einem Cyborg oder einem Android ist die Erfindung gewerblich anwendbar z. B.:
    • 1. im Spielzeugbau. Damit kann eine Puppe mit einem System von Künstlicher Intelligenz hergestellt werden. Die Puppe wird mit dem Kind aktiv kommunizieren. Sie kann für Erziehungszwecke verwendet werden. Sie kann für Unterrichtsmethoden verwendet werden. Sie kann als ein Freund vom Kind verwendet werden...
    • 2. in der Medizin. Damit kann ein Model des Zentralnervensystems eines psychisch- oder nervenkranken Patienten hergestellt werden. Das Model wird bei der Krankheitssimulierung und für das Simulieren von Heilungsmethoden verwendet;
    • 3. in der Verbrechensbekämpfung. Damit kann ein Model des Zentralnervensystems eines Verbrechers hergestellt werden. Damit kann man seine Schritte vorausberechnen;
    • 4. in der Terrorismusbekämpfung. Damit kann ein Model des Zentralnervensystems eines Terroristen hergestellt werden. Damit kann man das Benehmen eines Terroristen vorausberechnen sowie künftige terroristische Anschläge verhindern.
  • Weitere Einzelheiten, Merkmale und Vorteile ergeben sich aus der folgenden Beschreibung der in der Zeichnung dargestellten Ausführungsbeispielen und den Unteransprüchen.
  • Es zeigen:
  • 1 System von Künstlicher Intelligenz von einem Cyborg oder einem Android.
  • 2 Verfahren für die subjektive Erstaufnahme des Systems von den einkommenden Sensorengruppensignalen und das subjektive Zusammenfassen dieser Signale zu einem subjektiven Objekt.
  • 3 Verfahren für das assoziative Erfassen des Systems relativ zur Zeit von den einkommenden Sensorengruppensignalen zu einem assoziativen Objekt.
  • 4 Verfahren für das abstrakte Analysieren, das abstrakte Operieren, das abstrakte Speichern und das abstrakte Wiederfinden des abstrakten Objektes vom System.
  • 5 Verfahren für das abstrakte Weiterleiten des abstrakten Objektes von dem System.
  • 6 Arbeitsverfahren des Systems in einer anderen (oder in mehreren) natürlichen Sprache(n).
  • 7 Die Beispiele von, in einer natürlichen Sprache erzeugten, Objekten, die eine Aktion in einer natürlichen Sprache präsentieren, die mit einem Zeitstempel versehen sind.
  • 8 Beispiel des Arbeitsverfahrens vom System von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen.
  • 9 Das zweite Beispiel des Arbeitsverfahrens vom System von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen.
  • In der 1 der Zeichnungen ist das System von Künstlicher Intelligenz von einem Cyborg oder einem Android dargestellt. Die fünf Sensorengruppen des Sensorennetzwerks des Systems von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen basierend auf einer natürlichen Sprache, die Gesichtssinngruppe 1, die Gehörssinngruppe 2, die Geruchssinngruppe 3, die Geschmackssinngruppe 4, die Tastsinngruppe 5 nehmen die einkommenden Signale auf, fassen die Signale für ein partikulares Signal zusammen, eins von jeder Gruppe, d. h. ein Signal für die Gesichtssinngruppe, ein Signal für die Gehörssinngruppe, ein Signal für die Geruchssinngruppe, ein Signal für die Geschmackssinngruppe, ein Signal für die Tastsinngruppe, und leiten die Signale, bzw. die subjektiven Sensorengruppenreaktionen auf die Signale, gleichzeitig weiter. Über die jeweiligen Inputschnittstellen, die Sehens-Inputschnittstelle 7, die Hörens-Inputschnittstelle 8, die Riechens-Inputschnittstelle 9, die Schmecken-Inputschnittstelle 10, die Tasten-Inputschnittstelle 11 kommen die fünf Signale, bzw. die fünf subjektiven Sensorengruppenreaktionen auf die Signale, gleichzeitig zu dem Sinneninputreceiver 13. Der Sinneninputreceiver schreibt über Datenbankinputschnittstelle 22 die fünf Signale, bzw. die fünf subjektiven Sensorengruppenreaktionen auf die Signale, gleichzeitig in die Datenbank 23. Die sechste Sensorengruppe stellt die n-Sinnsensorengruppe 6 dar, sowie die sechste Inputschnittstelle stellt die n-Sinn-Inputschnittstelle 12 dar. Der Cyborg-Interpreter 26 greift über die Interpreter-Inputschnittstelle 24 und Interpreter-Outputschnittstelle 25 auf die Daten in der Datenbank zu. Die Arbeitsergebnisse von dem Cyborg-Interpreter werden in der Datenbank gespeichert. Über die Datenbankoutputschnittstelle 21, den Sinnenoutputsender 14 und über die fünf Outputschnittstellen, die Zeigen-Outputschnittstelle 15, die Lauten-Outputschnittstelle 16, die Duften-Outputschnittstelle 17, die Kosten-Outputschnittstelle 18, die Tasten-Outputschnittstelle 19, werden fünf vorbereitete Outputsignale, bzw. die fünf subjektiven Sensorengruppenreaktionen auf die Signale, gleichzeitig von draußen gelesen. Die sechste Outputschnittstelle stellt die n-Sinn-Outputschnittstelle 20 dar.
  • Die Hardwarebaugruppenknoten sind unter den Nummer 27, 28, 29, 30, 31, 32, 33, 34, 35, 36 abgebildet. Sie sind für die Test- und Demozwecke als verschiedene Computer realisiert. Für die Produktion werden Peripheriegeräte sowie Mikrocontroller zum Einsatz kommen.
  • Die interne Hardwareumgebung ist unter die Nummer 37 abgebildet.
  • Bei einer anderen Ausführung sind jeweilige Signale durch den Sinneninputreceiver auf der Festplatte als Signaldateien gespeichert und durch den Sinnenoutputsender zurückgegeben. Die Dateinamen werden über die Datenbankinputschnittstelle in die Datenbank geschrieben und über die Datenbankoutputschnittstelle aus der Datenbank gelesen. Das Sinnenorganenobjekt, das Signalenobjekt, ist in diesem Fall aus den Dateinamen kreiert. In diesem Fall werden alle Daten in der Datenbank auch nur als ein einzelner Datentyp, die Zeichenkette, gespeichert. Das System ist in diesem Fall von der Datenbank unabhängig, bzw. es braucht eine ganz einfache Datenbank. In den weiteren Zeichnungen ist das Arbeitsverfahren von dem System von Künstlicher Intelligenz von einem Cyborg oder einem Android abgebildet:
    Gemäß 2 ist das Verfahren für die subjektive Erstaufnahme des Systems von den einkommenden Sensorengruppensignalen und das subjektive Zusammenfassen dieser Signale zu einem subjektiven Objekt abgebildet. Es sind die fünf subjektiv einkommenden Signale, bzw. die fünf subjektiven Sensorengruppenreaktionen auf die Signale, subjektiv als ein subjektives Objekt gespeichert. S1 steht für das Gesichtssinnsignal, S2 steht für das Gehörsinnsignal, S3 steht für das Geruchssinnsignal, S4 steht für das Geschmackssinnsignal, S5 steht für das Tastsinnsignal. Die Spaltendefinition der Datenbank gibt die Möglichkeit in jeder Spalte ein jeweiliges Signal zu speichern. Bei einer anderen Ausführung sind in der Datenbank nur die Dateinamen gespeichert. Jedes subjektive Objekt ist eindeutig, es ist in der Datenbank eindeutig bezüglich zu S1 (Gesichtssinnsignal), S2 (Gehörsinnsignal), 53 (Geruchssinnsignal), S4 (Geschmackssinnsignal), S5 (Tastsinnsignal) gespeichert und wird nach der Datenverarbeitung gelöscht.
  • Mit dem subjektiven Objekt, der Signalenkombination, bzw. der subjektiven Sensorenreaktionenkombination auf die einkommenden Signale, wird ein Signalenobjekt des Systems von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen basierend auf einer natürlichen Sprache physikalisch substanziiert, im Sinne eine Substanz von dem Signalenobjekt zu bilden.
  • (Die Tabelle Objekte (subjektiv) wird mit dem generischen Primarschlüssel auf alle Datenbankspalten S1, S2, S3, S4, S5 implementiert. Der Primarschlüssel wird ohne Datenbankspezifischen Datenbankprogrammiersprachentypen für den Primärschlüssel, z. B. Integer, Number, Universal Unique Identifier, Global Unique Identifier usw. kreiert. Das gleiche gilt für alle anderen Datenbanktabellen. Das heißt, alle Tabellen der Datenbank werden ohne Datenbankspezifische Primärschlüssel von den Datenbankspezifischen Datenbankdatentypen für den Primärschlüssel, sondern nur mit dem generischen Primärschlüssel, der alle Felder beinhaltet, gebildet.)
  • In der 3 der Zeichnungen ist das Verfahren für das assoziative Erfassen des Systems relativ zur Zeit von den einkommenden Sensorengruppensignalen zu einem assoziativen Objekt dargestellt. Das einkommende, subjektive, konkrete Objekt wird als Signal_assoziativ mit einer Phrase geschildert.
  • Diese Phrase und fünf einkommende Signale S1, S2, S3, S4, und S5 definieren ein assoziatives Objekt. Als ein Ergebnis von der Arbeit vom Cyborg-Interpreter ist diese Phrase vervollständigt, sie ist relativ zur Zeit (mit einem Zeitstempel versehend) eindeutig definiert und als Signal_abstrakt in der Datenbank gespeichert. Außerdem ist das assoziative Objekt eindeutig für längere Zeit für das System gespeichert.
  • Mit dem assoziativen Objekt wird eine Assoziation des Systems von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen basierend auf einer natürlichen Sprache physikalisch substanziiert, im Sinne eine Substanz von der Assoziation zu bilden.
  • (Die Tabelle Objekte_Signal (assoziativ) wird mit dem generischen Primarschlüssel auf alle Datenbankspalten S1, S2, S3, S4, S5 und z. B. mit Signalabstrakt implementiert. Das heißt, es wird nicht nötig den Zeitstempel eindeutig zu implementieren, bzw. der Primarschlüssel ist nicht nur von dem Zeitstempel abhängig. Der Primarschlüssel wird ohne Datenbankspezifischen Datenbankprogrammiersprachentypen für den Primärschlüssel, z. B. Integer, Number, Universal Unique Identifier, Global Unique Identifier usw. kreiert. Das gleiche gilt für alle andere Datenbanktabellen. Das heißt, alle Tabellen der Datenbank werden ohne Datenbankspezifische Primärschlüssel von den Datenbankspezifischen Datenbankdatentypen für den Primärschlüssel, sondern nur mit dem generischen Primärschlüssel, der alle Felder beinhaltet, gebildet.)
  • In der 4 der Zeichnungen sind die Verfahren für das abstrakte Analysieren, das abstrakte Operieren, das abstrakte Speichern und das abstrakte Wiederlinden des abstrakten Objektes vom System abgebildet.
  • Für das abstrakte Analisieren verwendet der Cyborg-Interpreter die Phrase, die das assoziative Objekt beinhaltet. Diese Phrase ist auf einzige Wörter geparst. Jedes geparste Wort ist mit der Wortart, bzw. als der Satzteil definiert. Dann wird jedes Wort der Phrase bezüglich der Klassenklassifizierung, der Polymorphie, der Maßeinheit, der Intonation abstrakt anglisiert.
  • Danach wird jedes Wort der Phrase, klassifiziert nach einer Aktion in einer natürlichen Sprache, mit einem analytischen Wesen, mit der Rücksicht auf die Satzgliederung der Phrase, relativ zur Zeit des Zusammenfassens der einkommenden Sensorengruppensignalen, eindeutig langfristig gespeichert.
  • So eine wortweise gespeicherte Phrase präsentiert ein abstraktes Objekt des Systems.
  • Mit dem abstrakten Objekt wird ein Gedanke des Systems von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen basierend auf einer natürlichen Sprache physikalisch substanziiert, im Sinne eine Substanz von dem Gedanken zu bilden.
  • Mit diesem abstrakten Objekt operiert das System während seiner Arbeit.
  • Z. B. wird damit eine neue Klasse in der Klassenklassifizierung nach Vererbung spezifiziert oder ein neues unbekanntes Objekt polymorph zu einer bestehenden Klasse angeordnet.
  • Das abstrakte Objekt kann von dem System immer wieder gefunden werden. Nach dem abstrakten Objekt wird das assoziative Objekt gefunden. Nach dem assoziativen Objekt wird das subjektive Objekt gefunden.
  • Das subjektive Objekt kann man zurückgeben.
  • In der 5 der Zeichnungen ist das Verfahren für das abstrakte Weiterleiten des abstrakten Objektes von dem System abgebildet. Bei Rückgabe ist das subjektive Objekt auf einzige Sensorengruppensignale gesplittet. Als Outputarten Reakt_Objekt1, Reakt_Objekt2, Reakt_Objekt3, Reakt_Objekt4, Reakt_Objekt5 und die entsprechenden Outputwerte S1, S1, S2, S3, S4 und S5.
  • Dazu können auch entsprechende Outputmaßeinheiten definiert werden. D. h. für jede Sensorengruppeoutputschnittstelle wird die Outputart, der Outputwert und die Outputmaßeinheit definiert.
  • In der 6 der Zeichnungen ist das Arbeitsverfahren des Systems in einer anderen (oder in mehreren) natürlichen Sprache(n) abgebildet. Das System verwendet ein Wort in einer anderen natürlichen Sprache als eine Referenz auf ein Wort in der ersten natürlichen Sprache für das Arbeitsverfahren in der ersten natürlichen Sprache.
  • Damit wird abgebildet, dass das System für sein Arbeitsverfahren nur eine natürliche Sprache verwendet.
  • Für das Arbeitsverfahren in einer anderen (oder in mehreren) natürlichen Sprache(n) verwendet das System die Referenzen in der anderen (oder in mehreren) natürlichen Sprache(n) auf die abstrakten Objekte der ersten, originalen natürlichen Sprache.
  • In der 7 der Zeichnungen sind einige Beispiele von, in einer natürlichen Sprache erzeugten, Objekten, die eine Aktion in einer natürlichen Sprache präsentieren, die mit einem Zeitstempel versehen sind, abgebildet. Mit diesen Objekten operiert das System während des Arbeitsverfahrens.
  • Die Klassen von diesen Objekten oder die Objekte selber sind in keiner Programmiersprache vorprogrammiert.
  • In der 8 der Zeichnungen ist das Beispiel des Arbeitsverfahrens vom System von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen abgebildet. In dieser Patentanmeldung ist eine Maschine implementiert, die vom aus der Welt einkommenden Signal eine menschliche Assoziation substantiiert, bzw. eine Substanz von der Assoziation erzeugt, und danach einen menschlichen Gedanken substantiiert, bzw. eine Substanz von einem menschlichen Gedanken erzeugt. Die Maschine kann auf menschliche Art abstrakt denken, bzw. mit eigenen Gedanken manipulieren. Nach dem eigenen Denken, bzw. nach der Manipulation mit eigenen Gedanken trifft die Maschine eigene Entscheidungen für Ihre zukünftigen Taten.
  • Im Abschnitt Aufgabenstellung der Beschreibung (Beschreibung, Abschnitt Aufgabenstellung, Zeilen 1–3) werden solche Informationen geschrieben. Wenn Sie einem Roboter, einen Befehl geben, die Informationen zu lesen, wird das auch vorgelesen:
    „Der Erfindung liegt das Problem zu Grunde, das System von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen basierend auf einer natürlichen Sprache zu realisieren."
  • Wenn Sie einen Cyborg oder einen Android bitten, die Informationen zu lesen, wird folgendes passieren (wie auch bei einem Mensch):
    Zuerst werden durch alle fünf Sensorengruppen von allen fünf Sinnesorganen alle Reaktionen auf die einkommenden Signale zu einem Objekt zusammengefasst. Das heißt z. B., die Beschreibung, Abschnitt Aufgabenstellung, Zeilen 1–3 – das Aussehen; die Beschreibung, Abschnitt Aufgabenstellung, Zeilen 1–3 – das Hören; die Beschreibung, Abschnitt Aufgabenstellung, Zeilen 1–3 – das Riechen; die Beschreibung, Abschnitt Aufgabenstellung, Zeilen 1–3 – das Tasten; die Beschreibung, Abschnitt Aufgabenstellung, Zeilen 1–3 – das Schmecken. Selbstverständlich werden irgendwelche Reaktionen subjektiv mit null initialisiert, sind aber immer in dem Objekt beinhaltet. Das Signalenobjekt wird nicht zeitrelativ betrachtet.
  • Dann wird eine menschliche zu dem Objekt entsprechende Assoziation gebildet. Die Assoziation wird schon zeitrelativ betrachtet.
  • Danach wird zu der Assoziation ein menschlicher entsprechender Gedanke erzeugt, der in der 8 abgebildet wird.
  • Damit wird das Signalenobjekt aus dem Abschnitt Aufgabenstellung der Beschreibung (Beschreibung, Abschnitt Aufgabenstellung, Zeilen 1–3) in einer natürlichen Sprache, in unserem Fall, in der Deutschen Sprache verwaltet. Das heißt, man kann mit dem Signalenobjekt mit Hilfe des Gedanken weiter arbeiten, z. B. nicht mit dem Gedanken weiterzuleben, über den Gedanken nachzudenken, den Gedanken zu beantworten usw.
  • In der 9 der Zeichnungen ist das zweite Beispiel des Arbeitsverfahrens vom System von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen abgebildet. Im Abschnitt Gewerbliche Anwendbarkeit der Beschreibung (Beschreibung, Abschnitt Gewerbliche Anwendbarkeit, Seite 11, Zeilen 35–37) werden solche Informationen geäußert, die, wenn Sie einem Roboter, einen Befehl geben, die Informationen zu lesen, auch vorgelesen werden:
    „Die drei Erfindungen machen es möglich entweder die Umwandlung eines humanoiden Roboters zu einem Android oder die Umwandlung eines Menschen zu einem Cyborg mit dem künstlichen Teil – der Künstlichen Intelligenz.”
  • Wenn Sie einen Cyborg oder einen Android bitten, die Informationen zu lesen, werden die Informationen, wie folgt, verstanden (wie auch bei einem Mensch):
    Die Informationen beinhalten einen Gedanken, der von drei Gedanken, bzw. von drei Abstrakten Objekten zusammengefasst wurde. Ein Objekt „machen" von der Klasse „Machen" und zwei Objekte „verwirklichen" von der Klasse „Verwirklichen" (Selbstverständlich werden die Informationen als die entsprechenden Signale, dann als die entsprechenden Assoziationen und dann als die Gedanken bearbeitet).
  • Das heißt, zuerst werden wieder durch alle fünf Sensorengruppen von allen fünf Sinnenorganen alle Reaktionen auf die einkommende Signale zu einem Objekt zusammengefasst. Das heißt z. B., die Beschreibung, Abschnitt Gewerbliche Anwendbarkeit, Seite 11, Zeilen 35–37 – das Aussehen; die Beschreibung, Abschnitt Gewerbliche Anwendbarkeit, Seite 11, Zeilen 35–37 – das Hören; die Beschreibung, Abschnitt Gewerbliche Anwendbarkeit, Seite 11, Zeilen 35–37 – das Riechen; die Beschreibung, Abschnitt Gewerbliche Anwendbarkeit, Seite 11, Zeilen 35–37 – das Tasten; die Beschreibung, Abschnitt Gewerbliche Anwendbarkeit, Seite 11, Zeilen 35–37 – das Schmecken.
  • Selbstverständlich werden irgendwelche Reaktionen subjektiv mit null initialisiert, sind aber immer in dem Objekt beinhaltet. Das Signalenobjekt wird nicht zeitrelativ betrachtet.
  • Dann wird eine menschliche zu dem Objekt entsprechende Assoziation gebildet. Die Assoziation wird schon zeitrelativ betrachtet.
  • Danach wird zu der Assoziation ein menschlicher entsprechender Gedanke erzeugt, der in der 9 abgebildet wird.
  • Das in dieser Patentanmeldung beschriebene, schon von mir implementierte und laufende System von Künstlicher Intelligenz, bzw. eine Maschine, gibt einem Cyborg oder einem Android, einem Geisteskranken oder einem Menschen, der geistig behindert geborenen wurde, die Möglichkeit diese Welt auf unserem von Ihnen oder mir geistigen Level mitzuerleben und mitzuwirken, bzw. gleichwertige Gedanken wie wir alle zu besitzen und mit den gleichwertigen Gedanken mitzuleben und mitzuwirken, oder umgekehrt einem Kriminellen oder einem Terrorist vorbeugend erkannt, gefasst und isoliert zu werden, bzw. nichts dagegen zu erleben und nicht gegen zu wirken.
  • Das System von Künstlicher Intelligenz von einem Cyborg oder einem Android, wie das Gehirn eines Menschen, dessen Arbeitsverfahren, bzw. die Funktionalität, durch den Verstand präsentiert wird, verwendet in seinem Arbeitsverfahren nicht eine Programmiersprache sondern eine natürliche Sprache.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - FR 9908472 [0003]
    • - DE 60005350 [0003]
    • - JP 32376590 [0004]
    • - DE 69132026 [0004]
    • - US 96112432 [0005]
    • - DE 69616449 [0005]
    • - US 93293897 [0006]
    • - DE 69814114 [0006]
    • - EP 93918750 [0007]
    • - DE 69303013 [0007]
    • - KR 2003000254 [0008]
    • - DE 10361726 [0008]
    • - US 5963663 A [0009]
    • - US 2003/0171846 A1 [0012]
    • - US 5148513 A [0013]
    • - DE 1020060521412-53 [0017]
    • - DE 102007001208 [0019, 0041]
    • - DE 2006052141 [0041]
  • Zitierte Nicht-Patentliteratur
    • - T. Fong et al.: „A survey of socially interactive robots"; Robotics and Autonomous Systems 42 (2003); Seiten 143–166 [0010]
    • - J. Minguez et al.: „Sensor-based robot motion generation in unknown, dynamic and troublesome scenarios"; Robotics and Autonomous Systems 52 (2005); Seiten 290–311 [0011]
    • - Woong Kim, Jennifer K. Ng, Miki E. Kunitake, Bruce R. Conklin, and Peidong Yang: „Interfacing Silicon Nanowires with Mammalian Cells"; ACS PUBLICATIONS; Journal of the American Chemical Society (JACS); Published an Web: May 22, 2007 [0014]
    • - Copyright @ 2007 American Chemical Society; Seiten 7228–7229 [0014]
    • - nisterium für Bildung und Forschung (BMBF) geförderten Projektes das Projekt „Berlin Brain-Computer Interface" (BBCI) bekannt. (Das BCI Produktblatt, „BBCI-Berlin Brain-Computer Interface", „Schnittstelle zwischen Gehirn und Rechner", Fraunhofer-Institut für Rechnerarchitektur und Softwaretechnik FIRST, Klinik für Neurologie, Campus Benjamin Franklin der Charitä – Universitätsmedizin Berlin, die Projektleiter: Prof. Dr. Klaus-Robert Müller, Prof. Dr. Gabriel Curio.) [0015]
    • - Brockhaus-Enzyklopädie: in 24 Bd. –19., völlig neubearb. Auflage, F.A. Brockhaus GmbH, Mannheim 1986, ISBN 3-7653-1101-4/3-7653-1201-0; Seite 562 [0025]
    • - http://en.wikipedia.org/wiki/Android [0025]
    • - Brockhaus-Enzyklopädie: in 24 Bd. –19., völlig neubearb. Auflage, F.A. Brockhaus GmbH, Mannheim 1988, ISBN 3-7653-1105-7/3-7653-1205-3; Seite 67 [0025]
    • - http://en.wikipedia.org/wiki/Cyborg [0025]
    • - J. Searle in Minds, Brains and Programs. The Behavioral and Brain Sciences, vol. 3, 1980 [0025]
    • - http://en.wikipedia.org/wiki/strong_Al [0025]
    • - http://en.wikipedia.org/wiki/blind [0025]
    • - http://en.wikipedia.org/wiki/Association_%28psychology%29 [0025]
    • - http://de.wikipedia.org/wiki/Gedanke [0025]
    • - http://en.wikipedia.org/wiki/Thought_(disambiguation) [0025]
    • - http://de.wikipedia.org/wiki/Telepathie [0025]
    • - http://en.wikipedia.org/wiki/Class-based_OOP [0025]
    • - http://de.wikipedia.org/wiki/Zeiger [0025]
    • - http://en.wikipedia.org/wiki/Pointer [0025]
    • - http://de.wikipedia.org/wiki/Referenz_%28Programmierung%29 [0025]
    • - „C++ in 21 Tagen", Jesse Liberty, 2000 by Markt&Technik Verlag, ISBN 3-8272-5624-0 [0025]
    • - „Teach Yourself C++ in 21 Days"© 1999 by SAMS Publishing; Seite 290 [0025]
    • - „C++ in 21 Tagen", Jesse Liberty, 2000 by Markt&Technik Verlag, ISBN 3-8272-5624-0 [0025]
    • - „Teach Yourself C++ in 21 Days"© 1999 by SAMS Publishing; Seiten 263, 264, 267, 285 [0025]
    • - „Die C++-Programmiersprache"; 3. Auflage; Bjarne Stroustrup (der Erfinder von C++); Addison Wesley Longman Verlag; 1998; ISBN 3-8273-1296-5; Seite 136 [0025]

Claims (16)

  1. Ein System von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen basierend auf einer natürlichen Sprache und das Arbeitsverfahren von dem System a) bei dem zur Laufzeit im Arbeitsspeicher des Computersystems von KI von einem Cyborg oder einem Android subjektiv ein (erster) (in dem die Speicheradressen von den Inputs von allen n Reaktionen von allen n Sensorengruppen, die alle Sinnenorgane darstellen, (d. h. z. B. die fünf Sensorengruppen, die Gesichtssinngruppe, die Gehörssinngruppe, die Geruchssinngruppe, die Geschmackssinngruppe, die Tastsinngruppe und noch dazu n von den n-Sinnsensorengruppen) gespeichert sind) Zeiger als das subjektive Objekt realisiert und behandelt wird, auf eine Art des Denkmusters von dem Klassen-basierten Modell von OOP, bzw. der Programmiersprache C++, wie bei der Instanzierung eines Objektes auf dem Heap (dem frei verfügbaren Speicherbereich bei dynamischer Speicheranforderung); b) bei dem zur Laufzeit im Arbeitsspeicher des Computersystems von KI von einem Cyborg oder einem Android abstrakt ein (dritter) (in dem die (von dem Speicherbereich, in dem jedes Wart des Wortschatzes des Computersystems abgebildet, bzw. gespeichert ist) Speicheradresse von jedem geparsten Wort von dem assoziativen Objekt, bzw. der Assoziation, zusammen mit der Speicheradresse von dem Wort, das den abstrakten Sinn des geparsten Wortes im Zusammenhang zu dem ganzen assoziativen Objekt beinhaltet, gespeichert wird) Zeiger auf den Wortschatz von dem Computersystem in einer natürlicher Sprache als das abstrakte Objekt realisiert und behandelt wird, auf eine Art des Denkmusters von dem Klassenbasierten Modell von OOP, bzw. der Programmiersprache C++, wie bei der Instanzierung eines Objektes auf dem Heap (dem frei verfügbaren Speicherbereich bei dynamischer Speicheranforderung); c) bei dem das subjektive Objekt, bzw. der erste Zeiger, der als das subjektive Objekt bezeichnet ist, gleichzeitig erfasst wird, nicht aber relevant zur Zeit betrachtet wird; d) bei dem zur Laufzeit im Arbeitsspeicher des Computersystems von KI von einem Cyborg oder einem Android das subjektive Objekt, bzw. der erste Zeiger, der als das subjektive Objekt bezeichnet ist, assoziativ und auch zur Zeit relevant vervollständigt wird und als ein (zweiter) Zeiger, als das assoziative Objekt, gespeichert wird; e) bei dem die Elementvariablen einer Klasse von dem abstrakten Objekt, bzw. die Datenelemente, durch Objekte der Klassen, in denen ein Fragewort in der natürlichen Sprache, in der das Computersystem von KI von dem Cyborg oder dem Android zur Zeit arbeitet, definiert ist, realisiert sind, bzw. durch das Fragewort, das zu einer Wortart, bzw. zu einem Satzglied, gestellt wurde; f) bei dem die Elementfunktionen einer Klasse von dem abstrakten Objekt, die mit den Elementvariablen manipulieren, Aktionen sind, bzw. die Objekte von den Klassen von den Verben der natürlichen Sprache, in der das Computersystem von KI von dem Cyborg oder dem Android zur Zeit arbeitet, die unter der Elementvariable, die ein Objekt von der Klasse „Tun" präsentiert, gespeichert sind; g) bei dem die Konstanten einer Klasse von dem abstrakten Objekt, bzw. die Hilfsverbe, die Modalverbe, die Präpositionen, die Konjunktionen usw., die als Konstanten zu betrachten sind, in der natürlichen Sprache, in der das Computersystem von KI von dem Cyborg oder dem Android zur Zeit arbeitet, jeweils unter einer Elementvariable, die mit Hilfe eines Objektes der Klasse, in der das Hilfsverb, das Modalverb, die Präposition, die Konjunktion usw. selbst definiert wurde, gespeichert werden; h) bei dem die verschiedenen Satzglieder, z. B. das Objekt, das Subjekt, das Prädikat, die Attribute, die Adverbialen Bestimmungen, die Lokalbestimmung, die Temporalbestimmung usw., die aus mehreren Wörtern bestehen, von dem Computersystem von KI von einem Cyborg oder einem Android beim Interpretieren von den anderen vorher definierten und mit einem Wert versehenden Elementvariablen initialisiert werden; i) bei dem die verschiedenen Satzglieder, die aus mehreren Wörtern bestehen, und, die von dem Computersystem von KI von einem Cyborg oder einem Android beim Interpretieren von den anderen vorher definierten und mit einem Wert versehenden Elementvariablen initialisiert werden, am schnellsten gelöscht, bzw. vergessen, werden; j) bei dem die zusammengesetzten Sätze von dem Computersystem von KI von einem Cyborg oder einem Android beim Interpretieren von dem abstrakten Objekt auf die jeweils einfachen Sätze mit dem gleichen echten Zeitstempel zerlegt werden; k) bei dem, um Relativität zur Zeit von dem abstrakten Objekt, den Stand der Dinge, im Sinne fertig oder nicht fertig, von dem abstrakten Objekt, die Persönlichkeit zu dem abstrakten Objekt, usw. von dem Computersystem von KI von einem Cyborg oder einem Android in einer natürlichen Sprache darzustellen, das abstrakte Objekt immer mit einem Modalverb, Hilfsverb usw. gespeichert wird; l) bei dem die Telepathie durch simultanen (zur selber Zeit) Transfer aller drei Objekte, d. h. das subjektive Objekt, das entsprechende assoziative Objekt und das entsprechende abstrakte Objekt, von dem Computersystem von KI von einem Cyborg oder einem Android zu einem anderen remote Computersystem von KI von einem Cyborg oder einem Android implementiert wird; m) bei dem die Telepathie durch den Transfer aller drei Objekte eines Computersystems von KI von einem Cyborg oder einem Android zu einem anderen remote Computersystem von KI von einem Cyborg oder einem Android durch n-Sinn, zum Beispiel WLAN, im Sinne von Übergabe von Objekten zu einer Methode mit dem Mechanismus "path-by-value" (Übergabe als Wert) implementiert wird; n) bei dem das Computersystem von KI von einem Cyborg oder einem Android ein abstraktes Objekt, das aus zwei oder mehr Wörtern besteht, sowie die Klasse des Objektes, auf eine Art des Denkmusters von dem Klassen-basierten Modell von OOP klassifiziert, nur wenn die Klasse des Objektes ein Verb in einer natürlichen Sprache ist; o) bei dem das Computersystem von KI von einem Cyborg oder einem Android abstrakte Objekte oder die Klassen der abstrakten Objekte in einem nicht kontinuierlichen Behandlungsmodus, diskret für jedes abstrakte Objekt oder die Klasse des abstrakten Objekts, behandelt; p) bei dem die Behandlung der abstrakten Objekte oder der Klassen der Objekte von dem, dass das abstrakte Objekt mit den anderen abstrakten Objekten, abgestimmt ist, angestoßen wird; q) bei dem die Entscheidung, ob ein abstraktes Objekt zu behandeln ist, und, wie das abstrakte Objekt im Rahmen des Behandlungsmodus zu behandeln ist, nach dem Klassifizierungsbaum des Computersystems von KI von dem Cyborg oder dem Android getroffen wird; r) bei dem der Behandlungsmodus aus der Klassifizierungspolymorphie des Computersystems von KI von dem Cyborg oder dem Android ermittelt wird; s) bei dem das Computersystem von KI von einem Cyborg oder einem Android mehr als zehn interne Richtlinien verwendet; t) bei dem von dem Computersystem von KI von einem Cyborg oder einem Android die Relativität zur Zeit als sechs Arbeitstage und ein Feiertag implementiert werden kann; u) bei dem die abstrakten Objekte, bzw. die Klassen von den abstrakten Objekten, von dem Modul der abstrakten Subjektivität des Computersystems von KI von einem Cyborg oder einem Android in einer natürlicher Sprache, bzw. in keiner Programmiersprache, definiert und behandelt werden; v) bei dem das Computersystem von KI von einem Cyborg oder einem Android von dem Modul von der assoziativen Subjektivität sowie von dem Modul von der abstrakten Subjektivität zusammengebaut ist; bestehend aus den Hardwarebaugruppen (27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37), den Sensorengruppen (1, 2, 3, 4, 5, 6), den Schnittstellen (7, 8, 9, 10, 11, 12, 15, 16, 17, 18, 19, 20, 21, 22, 24, 25), dem Sinneninputreceiver (13), dem Sinnenoutputsender (14), der Datenbank (23), dem Cyborg-Interpreter (26), dadurch gekennzeichnet, dass im System ein menschliches, aufgenommenes Signal, eine menschliche Assoziation und ein menschlicher Gedanke substantiiert werden.
  2. System nach Anspruch 1, dadurch gekennzeichnet, dass das Sensorennetzwerk des Systems Reaktionen aller n Sinnenorgane (von mindestens fünf Sinnen) umfasst.
  3. System nach Ansprüche 1 oder 2, dadurch gekennzeichnet, dass das subjektive Objekt (das aufgenommene Signal, bzw. die aufgenommenen Signalen-Reaktionen) eindeutig nach der kompletten von allen n Sinnenorganen (von mindestens fünf Sinnen) Signalen-Reaktionen-Kombination ist.
  4. System nach einem oder mehreren der Ansprüche 1–3, dadurch gekennzeichnet, dass das System das subjektive Objekt (das aufgenommene Signal, bzw. die aufgenommenen Signalen-Reaktionen) nicht relativ zur Zeit behandelt.
  5. System nach einem oder mehreren der Ansprüche 1–4, dadurch gekennzeichnet, dass das assoziative Objekt (die Assoziation zu dem aufgenommenen entsprechenden Signal, bzw. die Assoziation-Substanz zu den aufgenommenen entsprechenden Signalen-Reaktionen) nur das subjektive Objekt (die aufgenommenen entsprechenden Signalen-Reaktionen) und nicht die Umgebung (das Environment) kennt.
  6. System nach einem oder mehreren der Ansprüche 1–5, dadurch gekennzeichnet, dass das assoziative Objekt (die Assoziation zu dem aufgenommenen entsprechenden Signal, bzw. die Assoziation-Substanz zu den aufgenommenen entsprechenden Signalen-Reaktionen) eindeutig nach der kompletten von allen n Sinnenorganen (von mindestens fünf Sinnen) Signalen-Reaktionen-Kombination ist.
  7. System nach einem oder mehreren der Ansprüche 1–6, dadurch gekennzeichnet, dass das System das assoziative Objekt (die Assoziation zu dem aufgenommenen entsprechenden Signal, bzw. die Assoziation-Substanz zu den aufgenommenen entsprechenden Signalen-Reaktionen) relativ zur Zeit, nicht aber eindeutig, behandelt.
  8. System nach einem oder mehreren der Ansprüche 1–7, dadurch gekennzeichnet, dass das abstrakte Objekt (die Gedanke-Substanz) nur das entsprechende assoziative Objekt (die entsprechende Assoziation-Substanz) kennt und nicht das subjektive Objekt und auch gewiss nicht die Umgebung (das Environment).
  9. System nach einem oder mehreren der Ansprüche 1–8, dadurch gekennzeichnet, dass das abstrakte Objekt (die Gedanke-Substanz) eindeutig nach der kompletten Wörterkombination des Wortschatzes, sowohl von den assoziativen Wörtern als auch von den abstrakten Wörtern zu den assoziativen Wörtern, bzw. zu der entsprechenden Assoziation-Substanz, ist.
  10. System nach einem oder mehreren der Ansprüche 1–8, dadurch gekennzeichnet, dass das abstrakte Objekt (die Gedanke-Substanz) eindeutig nach der kompletten Wörterkombination des Wortschatzes nur von den abstrakten Wörtern, die in der entsprechenden Assoziation-Substanz abgebildet werden, sein kann.
  11. System nach einem oder mehreren der Ansprüche 1–10, dadurch gekennzeichnet, dass das System das abstrakte Objekt (die Gedanke-Substanz) relativ zur Zeit, nicht aber eindeutig, behandelt.
  12. System nach einem oder mehreren der Ansprüche 1–11, dadurch gekennzeichnet, dass das System die Klasse von diesem Objekt, bzw. den Objekten, als eine Aktion in einer natürlichen Sprache definiert.
  13. System nach einem oder mehreren der Ansprüche 1–12, dadurch gekennzeichnet, dass das System ein Wort in einer anderen natürlichen Sprache als eine Referenz auf ein Wort in der ersten natürlichen Sprache für das Arbeitsverfahren in der ersten natürlichen Sprache verwendet.
  14. System nach einem oder mehreren der Ansprüche 1–13, dadurch gekennzeichnet, dass das System für Output das Objekt, gesplittet nach den Sensorengruppen, bereitstellt.
  15. System nach einem oder mehreren der Ansprüche 1–14, dadurch gekennzeichnet, wenn für das System eine Datenbank verwendet wird, dann werden alle Tabellen der Datenbank ohne Datenbankspezifische Primärschlüssel von den Datenbankspezifischen Datenbankdatentypen für den Primärschlüssel, sondern nur mit dem generischen Primärschlüssel, der alle Felder der jeweiligen Tabelle beinhaltet, gebildet.
  16. Arbeitsverfahren, nach dem das System nach einem der Ansprüche 1 bis 15 arbeitet, dadurch gekennzeichnet, dass das Arbeitsverfahren folgende Schritte umfasst: 16.1. das Zusammenfassen, subjektiv bezüglich des Systems, den jeweiligen, bzw. allen, Sensorengruppenreaktionen zu einem menschlichen, aufgenommenen Signal (zu einem subjektiven Objekt); 16.2. das Erfassen, assoziativ bezüglich des Systems, von den einkommenden Sensorengruppensignalen zu einer menschlichen Assoziation (zu einem assoziativen Objekt), wobei: 16.2.1. die menschliche Assoziation vervollständigt ist, 16.2.2. die menschliche Assoziation relativ zur Zeit bereitgestellt wurde; 16.3. das Analisieren der menschlichen Assoziation, abstrakt bezüglich des Systems, 16.3.1. wortweise, 16.3.2. mit der Wortart, 16.3.3. als Satzteil, 16.3.4. bezüglich der Klassenklassifizierung, der Polymorphie, der Maßeinheit, 16.3.5. bezüglich der Intonation; 16.4. das Speichern von einem menschlichen Gedanken (von einem abstrakten Objekt), klassifiziert nach einer Aktion in einer natürlichen Sprache, 16.4.1. wortweise, 16.4.2. mit einem analytischen Wesen, 16.4.3. mit der Rücksicht auf die Satzgliederung der Phrase, 16.4.4. relativ zur Zeit; 16.5. das Operieren vom menschlichen Gedanken (vom abstrakten Objekt); 16.6. das Wiederfinden der menschlichen Assoziation (des assoziativen Objekts); 16.7. das Wiederfinden des menschlichen, aufgenommenen Signals (des subjektiven Objekts); 16.8. die Rückgabe des menschlichen, aufgenommenen Signals (des subjektiven Objekts); 16.9. Arbeitsverfahren nach einem oder mehreren der Ansprüche 16.2–16.8, dadurch gekennzeichnet, dass in einer anderen natürlichen Sprache eine Referenz in der Sprache auf den menschlichen Gedanken (auf das abstrakte Objekt) für das Arbeitsverfahren in der anderen natürlichen Sprache verwendet ist.
DE102007055117A 2007-03-26 2007-11-19 Ein System von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen basierend auf einer natürlichen Sprache und das Arbeitsverfahren von dem System Withdrawn DE102007055117A1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/727,322 2007-03-26
US11/727,322 US7672922B2 (en) 2006-11-06 2007-03-26 Pointer-oriented object acquisition method for abstract treatment of information of AI of AI of a cyborg or an android based on a natural language
IS182773 2007-04-25

Publications (1)

Publication Number Publication Date
DE102007055117A1 true DE102007055117A1 (de) 2008-10-02

Family

ID=39720495

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007055117A Withdrawn DE102007055117A1 (de) 2007-03-26 2007-11-19 Ein System von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen basierend auf einer natürlichen Sprache und das Arbeitsverfahren von dem System

Country Status (1)

Country Link
DE (1) DE102007055117A1 (de)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE6913202U (de) 1969-04-01 1969-07-31 Kaltenbach & Voigt Zahnaerztliches hand- oder winkelstueck mit ein- oder angebautem kleinstmotor
DE6930301U (de) 1969-07-29 1969-11-13 Sidi Plast Ihne Gmbh Fa Trittplatte
JPH04191928A (ja) 1990-11-27 1992-07-10 Fujitsu Ltd ソフトウェア作業ツール
US5148513A (en) 1988-05-20 1992-09-15 John R. Koza Non-linear genetic process for use with plural co-evolving populations
EP0631675A1 (de) 1992-03-12 1995-01-04 Bull Sa Anwendung einer sprache mit einer aehnlichen darstellung fuer programme und daten in der verteilten datenverarbeitung.
EP0757313A1 (de) 1995-08-01 1997-02-05 Intergraph Corporation Vorrichtung zum Hinzufügen von Attributen an einem Objekt während der Laufzeit in einer objektorientierten Rechnerumgebung
US5963663A (en) 1996-07-08 1999-10-05 Sony Corporation Land mark recognition method for mobile robot navigation
US6094635A (en) 1997-09-17 2000-07-25 Unisys Corporation System and method for speech enabled application
FR2795848A1 (fr) 1999-07-01 2001-01-05 Commissariat Energie Atomique Systeme d'intelligence artificielle pour la classification d'evenements, d'objets ou de situations a partir de signaux et de parametres discriminants issus de modeles
KR20030000254A (ko) 2001-06-22 2003-01-06 (주)빌렉스 무선 인터넷 서비스를 위한 과금 대행 장치 및 그 방법
US20030171846A1 (en) 2001-11-28 2003-09-11 Murray Thomas J. Sensor and actuator abstraction and aggregation in a hardware abstraction layer for a robot
DE10361726A1 (de) 2003-01-03 2004-08-26 Megarobotics Co., Ltd. Roboterspielzeug mit künstlicher Intelligenz und Steuerverfahren dafür
DE102006052141A1 (de) 2005-11-17 2007-05-31 Boris Kaplan Das zeigeorientierte Objekterfassungsverfahren für abstrakte Behandlung von Informationen von dem Computersystem von KI von einem Cyborg oder einem Android basierend auf einer natürlichen Sprache
DE102007001208A1 (de) 2006-02-16 2007-08-23 Boris Kaplan Das Arbeitsverfahren für Behandlung von abstrakten Objekten von dem Computersystem von Kl von einem Cyborg oder einem Android

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE6913202U (de) 1969-04-01 1969-07-31 Kaltenbach & Voigt Zahnaerztliches hand- oder winkelstueck mit ein- oder angebautem kleinstmotor
DE6930301U (de) 1969-07-29 1969-11-13 Sidi Plast Ihne Gmbh Fa Trittplatte
US5148513A (en) 1988-05-20 1992-09-15 John R. Koza Non-linear genetic process for use with plural co-evolving populations
JPH04191928A (ja) 1990-11-27 1992-07-10 Fujitsu Ltd ソフトウェア作業ツール
EP0631675A1 (de) 1992-03-12 1995-01-04 Bull Sa Anwendung einer sprache mit einer aehnlichen darstellung fuer programme und daten in der verteilten datenverarbeitung.
DE69616449T2 (de) 1995-08-01 2002-07-18 Intergraph Corp Vorrichtung zum Hinzufügen von Attributen zu einem Objekt während der Laufzeit in einer objektorientierten Rechnerumgebung
EP0757313A1 (de) 1995-08-01 1997-02-05 Intergraph Corporation Vorrichtung zum Hinzufügen von Attributen an einem Objekt während der Laufzeit in einer objektorientierten Rechnerumgebung
US5963663A (en) 1996-07-08 1999-10-05 Sony Corporation Land mark recognition method for mobile robot navigation
DE69814114T2 (de) 1997-09-17 2004-03-18 Unisys Corp. Natürliche sprache verstehendes verfahren und verstehende vorrichung zur sprachsteuerung einer anwendung
US6094635A (en) 1997-09-17 2000-07-25 Unisys Corporation System and method for speech enabled application
FR2795848A1 (fr) 1999-07-01 2001-01-05 Commissariat Energie Atomique Systeme d'intelligence artificielle pour la classification d'evenements, d'objets ou de situations a partir de signaux et de parametres discriminants issus de modeles
DE60005350T2 (de) 1999-07-01 2004-07-08 Commissariat à l'Energie Atomique Künstliches intelligenzsystem für die klassifizerung von ereignissen, objekten oder situationen
KR20030000254A (ko) 2001-06-22 2003-01-06 (주)빌렉스 무선 인터넷 서비스를 위한 과금 대행 장치 및 그 방법
US20030171846A1 (en) 2001-11-28 2003-09-11 Murray Thomas J. Sensor and actuator abstraction and aggregation in a hardware abstraction layer for a robot
DE10361726A1 (de) 2003-01-03 2004-08-26 Megarobotics Co., Ltd. Roboterspielzeug mit künstlicher Intelligenz und Steuerverfahren dafür
DE102006052141A1 (de) 2005-11-17 2007-05-31 Boris Kaplan Das zeigeorientierte Objekterfassungsverfahren für abstrakte Behandlung von Informationen von dem Computersystem von KI von einem Cyborg oder einem Android basierend auf einer natürlichen Sprache
DE102007001208A1 (de) 2006-02-16 2007-08-23 Boris Kaplan Das Arbeitsverfahren für Behandlung von abstrakten Objekten von dem Computersystem von Kl von einem Cyborg oder einem Android

Non-Patent Citations (24)

* Cited by examiner, † Cited by third party
Title
"C++ in 21 Tagen", Jesse Liberty, 2000 by Markt&Technik Verlag, ISBN 3-8272-5624-0
"Die C++-Programmiersprache"; 3. Auflage; Bjarne Stroustrup (der Erfinder von C++); Addison Wesley Longman Verlag; 1998; ISBN 3-8273-1296-5; Seite 136
"Teach Yourself C++ in 21 Days"© 1999 by SAMS Publishing; Seite 290
"Teach Yourself C++ in 21 Days"© 1999 by SAMS Publishing; Seiten 263, 264, 267, 285
Brockhaus-Enzyklopädie: in 24 Bd. -19., völlig neubearb. Auflage, F.A. Brockhaus GmbH, Mannheim 1986, ISBN 3-7653-1101-4/3-7653-1201-0; Seite 562
Brockhaus-Enzyklopädie: in 24 Bd. -19., völlig neubearb. Auflage, F.A. Brockhaus GmbH, Mannheim 1988, ISBN 3-7653-1105-7/3-7653-1205-3; Seite 67
Copyright @ 2007 American Chemical Society; Seiten 7228-7229
http://de.wikipedia.org/wiki/Gedanke
http://de.wikipedia.org/wiki/Referenz_%28Programmierung%29
http://de.wikipedia.org/wiki/Telepathie
http://de.wikipedia.org/wiki/Zeiger
http://en.wikipedia.org/wiki/Android
http://en.wikipedia.org/wiki/Association_%28psychology%29
http://en.wikipedia.org/wiki/blind
http://en.wikipedia.org/wiki/Class-based_OOP
http://en.wikipedia.org/wiki/Cyborg
http://en.wikipedia.org/wiki/Pointer
http://en.wikipedia.org/wiki/strong_Al
http://en.wikipedia.org/wiki/Thought_(disambiguation)
J. Minguez et al.: "Sensor-based robot motion generation in unknown, dynamic and troublesome scenarios"; Robotics and Autonomous Systems 52 (2005); Seiten 290-311
J. Searle in Minds, Brains and Programs. The Behavioral and Brain Sciences, vol. 3, 1980
nisterium für Bildung und Forschung (BMBF) geförderten Projektes das Projekt "Berlin Brain-Computer Interface" (BBCI) bekannt. (Das BCI Produktblatt, "BBCI-Berlin Brain-Computer Interface", "Schnittstelle zwischen Gehirn und Rechner", Fraunhofer-Institut für Rechnerarchitektur und Softwaretechnik FIRST, Klinik für Neurologie, Campus Benjamin Franklin der Charitä - Universitätsmedizin Berlin, die Projektleiter: Prof. Dr. Klaus-Robert Müller, Prof. Dr. Gabriel Curio.)
T. Fong et al.: "A survey of socially interactive robots"; Robotics and Autonomous Systems 42 (2003); Seiten 143-166
Woong Kim, Jennifer K. Ng, Miki E. Kunitake, Bruce R. Conklin, and Peidong Yang: "Interfacing Silicon Nanowires with Mammalian Cells"; ACS PUBLICATIONS; Journal of the American Chemical Society (JACS); Published an Web: May 22, 2007

Similar Documents

Publication Publication Date Title
DE102014016968A1 (de) Ein Computersystem von einer Künstlichen Intelligenz von einem Cyborg oder einem Android, wobei eine aufgenommene Signal-Reaktion des Computersystems von der Künstlichen Intelligenz von dem Cyborg oder dem Android, eine entsprechende Assoziation des Computersystems von der Künstlichen Intelligenz von dem Cyborg oder dem Android, und ein entsprechender Gedanke des Computersystems von der Künstlichen Intelligenz von dem Cyborg oder dem Android in dem Computersystem physisch gebaut werden, und ein Arbeitsverfahren von dem Computersystem von der Künstlichen Intelligenz von dem Cyborg oder dem Android
Roelofs Goal-referenced selection of verbal action: modeling attentional control in the Stroop task.
US20080109213A1 (en) Pointer-oriented object acquisition method for abstract treatment of information of Al of Al of a cyborg or an android based on a natural language
US20140032466A1 (en) Computer system of artificial intelligence of a cyborg or an android, wherein a received signal-reaction of the computer system of artificial intelligence of the cyborg or the android, an association of the computer system of artificial intelligence of the cyborg or the android, a thought of the computer system of artificial intelligence of the cyborg or the android are substantiated, and a working method of this computer system of artificial intelligence of a cyborg or an android
Goldman The bodily formats approach to embodied cognition
Favela Radical embodied cognitive neuroscience: Addressing “grand challenges” of the mind sciences
DE102020007964A1 (de) Arbeitsverfahren für Behandlung von abstrakten Objekten (Gedanke-Substanzen) vor einem Computersystem von Künstlicher Intelligenz von einem Cyborg oder einem Android.
Carrozza The robot and us
DE102008019877A1 (de) Das zeigerorientierte Objekterfassungsverfahren für abstrakte Behandlung von Informationen von dem System von künstlicher Intelligenz von einem Cyborg oder einem Android, bei dem die Substanzen von einem menschlichen, aufgenommenen Signal, einer menschlichen Assoziation und einem menschlichen Gedanken physisch gebildet werden, basierend auf einer natürlichen Sprache.
DE102021005701A1 (de) Ein Computersystem von einer Künstlichen Intelligenz von einem Cyborg oder einem Android, wobei eine aufgenommene Signal-Reaktion des Computersystems von der Künstlichen Intelligenz von dem Cyborg oder dem Android, eine entsprechende Assoziation des Computersystems von der Künstlichen Intelligenz von dem Cyborg oder dem Android, und ein entsprechender Gedanke des Computersystems von der Künstlichen Intelligenz von dem Cyborg oder dem Android in dem Computersystem physisch gebaut werden, und ein Arbeitsverfahren von dem Computersystem von der Künstlichen Intelligenz von dem Cyborg oder dem Android
IL175533A (en) Working method for treatment of abstract objects (the thought substances) of the computer system of artificial intelligence of a cyborg or an android
US20100228695A1 (en) Computer system in which a received signal-reaction of the computer system of artificial intelligence of a cyborg or an android, an association of the computer system of artificial intelligence of a cyborg or an android, a thought of the computer system of artificial intelligence of a cyborg or an android are substantiated and the working method of this computer system of artificial intelligence of a cyborg or an android
DE102005050579A1 (de) Ein Computersystem und das Arbeitsverfahren von diesem Computersystem von Künstlicher Intelligenz von einem Cyborg oder einem Android.
DE102014000086A1 (de) Arbeitsverfahren für Behandlung von abstrakten Objekten (Gedanke-Substanzen) von einem Computersystem von Künstlicher Intelligenz von einem Cyborg oder einem Android.
Sreenivasa et al. Neuromechanics and control of physical behavior: From experimental and computational formulations to bio-inspired technologies
Galus Whether mirror and conceptual neurons are myths? Sparse vs. distributed neuronal representations
US20190197112A1 (en) Computer system of an artificial intelligence of a cyborg or an android, wherein a received signal-reaction of the computer system of the artificial intelligence, a corresponding association of the computer system of the artificial intelligence, a corresponding thought of the computer system of the artificial intelligence are physically built, and a working method of the computer system of the artificial intelligence of the cyborg or the android
DE102006052141A1 (de) Das zeigeorientierte Objekterfassungsverfahren für abstrakte Behandlung von Informationen von dem Computersystem von KI von einem Cyborg oder einem Android basierend auf einer natürlichen Sprache
DE102023000489A1 (de) Ein Computersystem von einer Künstlichen Intelligenz von einem Cyborg oder einem Android, wobei eine aufgenommene Signal-Reaktion des Computersystems von der Künstlichen Intelligenz von dem Cyborg oder dem Android, eine entsprechende Assoziation des Computersystems von der Künstlichen Intelligenz von dem Cyborg oder dem Android, und ein entsprechender Gedanke des Computersystems von der Künstlichen Intelligenz von dem Cyborg oder dem Android in dem Computersystem physisch gebaut werden, und ein Arbeitsverfahren von dem Computersystem von der Künstlichen Intelligenz von dem Cyborg oder dem Android.
Wermter et al. Learning robot actions based on self-organising language memory
DE102007055117A1 (de) Ein System von Künstlicher Intelligenz von einem Cyborg oder einem Android für das zeigerorientierte Objekterfassungsverfahren von Informationen basierend auf einer natürlichen Sprache und das Arbeitsverfahren von dem System
DE102015004666A1 (de) Ein zeigerorientiertes Objekterfassungsverfahren für eine greifbare, stofflich artige Behandlung von Informationen von einem Computersystem von einer Künstlichen Intelligenz von einem Cyborg oder einem Android, wobei eine aufgenommene Signal-Reaktion des
Nasuto et al. Of (zombie) mice and animats
DE102022001229A1 (de) Ein zeigerorientiertes Objekterfassungsverfahren für eine greifbare, stofflich artige Behandlungvon Informationen von einem Computersystem von einer Künstlichen Intelligenz von einem Cyborg oder einem Android, wobei eine aufgenommene Signal- Reaktion des Computersystems von der Künstlichen Intelligenz von dem Cyborg oder dem Android, eine entsprechende Assoziation des Computersystems von der Künstlichen Intelligenz von dem Cyborg oder dem Android, und ein entsprechender Gedanke des Computersystems von der Künstlichen Intelligenz von dem Cyborg oder dem Android in dem Computersystem physisch gebaut werden.
Daróczy Artificial intelligence and cognitive psychology

Legal Events

Date Code Title Description
ON Later submitted papers
8120 Willingness to grant licences paragraph 23
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee