DE102014118401A1 - Dezentralisiertes Expertensystem für netzwerkbasiertes Crowdfunding - Google Patents

Dezentralisiertes Expertensystem für netzwerkbasiertes Crowdfunding Download PDF

Info

Publication number
DE102014118401A1
DE102014118401A1 DE102014118401.7A DE102014118401A DE102014118401A1 DE 102014118401 A1 DE102014118401 A1 DE 102014118401A1 DE 102014118401 A DE102014118401 A DE 102014118401A DE 102014118401 A1 DE102014118401 A1 DE 102014118401A1
Authority
DE
Germany
Prior art keywords
expert system
data
computer
client computer
processing units
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102014118401.7A
Other languages
English (en)
Inventor
Yorck Hernandez
Gunnar Eisenberg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Crowd IP GmbH
Original Assignee
Crowd IP GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Crowd IP GmbH filed Critical Crowd IP GmbH
Priority to DE102014118401.7A priority Critical patent/DE102014118401A1/de
Priority to US14/568,505 priority patent/US20150170043A1/en
Publication of DE102014118401A1 publication Critical patent/DE102014118401A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/043Distributed expert systems; Blackboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/06Asset management; Financial planning or analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Operations Research (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Technology Law (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Die Erfindung betrifft ein Expertensystem (10) mit wenigstens einer zentralen Verarbeitungseinheit (K*) und mit auf über ein Netzwerk (WWW) verbundene Client-Rechner (C) per Softwaredownload verteilbaren ersten und zweiten Verarbeitungseinheiten (K’’, R), wobei das Expertensystem (10) eingerichtet ist, basierend auf einer modellierten Übertragungsfunktion für Eingangsdaten (E) zugehörige Ausgangsdaten (A) zu erzeugen und an verbundene Client-Rechner (C) auszugeben, wobei das Expertensystem (10) eingerichtet ist, direkte und/oder indirekte Interaktionen eines Nutzers (N) eines Client-Rechners (C) als Eingangsdaten (E) zu erfassen, wobei das Expertensystem (10) wenigstens einen Server-Rechner (S) mit der zentralen Verarbeitungseinheit (K*) aufweist, wobei der Server-Rechner (S) eingerichtet ist, sich über das Netzwerk (WWW) mit einem Client-Rechner (C) nach einem Softwaredownload der verteilbaren ersten und zweiten Verarbeitungseinheiten (K’’, R) auf den Client-Rechner (C) mit diesem mittels einer Daten kommunizierenden Verbindung zu vernetzen, wobei die verteilbaren zweiten Verarbeitungseinheiten (R) konfiguriert sind, mit dem Server-Rechner (S) vernetzte Client-Rechner (C) als Peers über das Netzwerk (WWW) mit einer Daten kommunizierenden Verbindung zu vernetzen, und aus vom jeweiligen Nutzer des Client-Rechners (C) abgeleiteten ersten Eingangsdaten und von anderen Client-Rechnern (C) übermittelten zweiten Eingangsdaten eine durch die erste Verarbeitungseinheit (K’’) abgeleitete Änderung der Ausgangsdaten (A) an den Server-Rechner (S) zu übermitteln und durch die zweite Verarbeitungseinheit (R) abgeleitete zweite Eingangsdaten an alle anderen vernetzten Client-Rechner (C) zu übermitteln, wobei der Server-Rechner (S) eingerichtet ist, von allen vernetzten Client-Rechnern (C) die abgeleiteten Änderung der Ausgangsdaten (A) zu empfangen und als Eingangsdaten für die zentrale Verarbeitungseinheit (K*) zu verwenden, um aktuelle Werte der Ausgangsdaten (A) abzuleiten und wieder an alle vernetzten Client-Rechner (C) zu übermitteln.

Description

  • Die Erfindung betrifft im Allgemeinen die Implementierung eines netzwerkbasierten Crowd-Dienstes. Im Besonderen betrifft die Erfindung die Struktur eines Expertensystems, welches für eine dezentralisierte Implementierung einer Crowdfunding-Plattform als Crowd-Dienst im Internet als Netzwerk geeignet ist.
  • Hintergrund der Erfindung
  • Crowd-Dienste lassen sich grob unterteilen in Crowdsourcing und Crowdfunding. Crowdsourcing beschreibt Verfahren bei denen eine große Gruppe von Nutzern als Schwarm eine Aufgabe löst. Beispiele hierfür sind das gemeinsame Schreiben der Enzyklopädie wikipedia.org. Crowdfunding beschreibt das gemeinsame Finanzieren einer Investition durch eine Gruppe von Nutzern. Beispiele hierfür sind z.B. produktbasiertes Crowdfunding (reward-based) der Verkaufsplattformen kickstarter.com oder indiegogo.com, bei denen die Nutzergruppe in der Regel eine industrielle Fertigung eines Produkts vorfinanziert oder z.B. anteilsbasiertes Crowdfunding (equity-based) der Plattformen wefunder.com oder seedmatch.de. Anteilsbasiertes Crowdfunding wird zur besseren Abtrennung auch Crowdinvesting genannt.
  • Hinsichtlich der Thematik Crowdfunding sei hier allgemein verwiesen auf: US 2014/0316823 A1 , US 2014/0310200 A1 , US 2014/0279682 A1 , US 2014/0164291 A1 , US 2014/067644 A1 , US 2014/052668 A1 , US 2014/040157 A1 , US 2014/025473 A1 , WO 2014/115927 A1 .
  • Eine Kernidee hinter Crowd-Diensten ist, dass die Nutzer als Schwarm eine natürliche Schwarmintelligenz bilden, die aus der Biologie oder der Forschung zur künstlichen Intelligenz bekannt ist. Gemeint ist mit dem Begriff Schwarmintelligenz, dass die Entscheidung der Masse besser ist als die durchschnittliche Entscheidung jedes Individuums alleine und dass man sich als einzelner Nutzer mit geringem Risiko der Masse anschließen kann. Das technische Problem bei der Umsetzung ist jedoch, dass die Verhaltensweisen der einzelnen Nutzer nicht umfassend erfasst und ausgewertet werden können, weil dies den Transport und die zentrale Auswertung riesiger exponentiell wachsender Datenmengen bedeuten würde. So bleibt die eigentliche Kraft der Schwarmintelligenz bei bisherigen Crowd-Diensten bisher größtenteils ungenutzt, da die Nutzerdaten nur sehr rudimentär erfasst werden. D.h., eine netzwerkbasierte Crowdfunding-Plattform auf einem über das Internet erreichbaren Server, der die aktuellen Interaktionen jedes Nutzers möglichst in Echtzeit berücksichtigt, lässt sich derzeit nicht einfach technisch umsetzen. Die auftretenden und permanent möglichst in Echtzeit zu verarbeitenden und zu generierenden Datenmengen sind zu groß, um sie auf aktuell verfügbaren Rechnerfarmen effizient analysieren zu können, besonders da aktuell zu vertretbaren Kosten verfügbare Rechnerfarmen eine zu geringe Geschwindigkeit bzw. Rechenleistung aufweisen. Auch ist die benötigte Bandbreite im Internet für den ebenfalls permanent in Echtzeit notwendigen Datenaustausch zwischen der Plattform und den Nutzern nicht gegeben, d.h., die verfügbaren Bandbreiten sind zu gering, um alle Daten in Echtzeit erfassen zu können.
  • Offenbarung der Erfindung
  • Es ist eine Aufgabe der vorliegenden Erfindung, eine technische Implementierung für eine netzwerkbasierte Rechneranordnung für eine Crowdfunding-Plattform vorzuschlagen, mittels der oder bei der die vorstehend genannten technischen Probleme zumindest soweit vermindert sind, dass wenn die Crowdfunding-Plattform in einer Anfangsphase ordnungsgemäß arbeitet, kein Ausfall bei steigender Nutzerzahl und/oder steigender Anzahl von Investitionsgegenständen zu befürchten ist.
  • Die Aufgabe wird mit den Merkmalen der unabhängigen Ansprüche gelöst. Weitere Ausführungsbeispiele und vorteilhafte Weiterbildungen ergeben sich aus den Unteransprüchen, der Beschreibung und den Zeichnungen.
  • Ein Kerngedanke der Erfindung besteht in der besonderen Architektur des hier vorgeschlagenen Expertensystems, bei der die Datenverarbeitung des Expertensystems so zwischen den einzelnen Clients der Nutzer des Systems und wenigstens einem zentralen Server des Systems verteilt ist, dass quasi jeder Nutzer mit seinem Client-Rechner dem System die notwendigen Resources hinzufügt, sodass das System insgesamt genug Leistung hat, um die technischen Anforderungen zu erfüllen. Damit erreicht das hier vorgestellte System eine Skalierbarkeit der anfallenden Rechenlast und des anfallenden Datentransfers, indem jeder Client-Rechner die Rechenleistung selbst mitbringt, um die Daten des den Client-Rechner nutzenden Nutzers zu verarbeiten.
  • Bevorzugte Ausführungsbeispiele
  • Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung, in der unter Bezugnahme auf die Zeichnungen ein Ausführungsbeispiel der Erfindung im Einzelnen beschrieben ist. Dabei können die in den Ansprüchen und in der Beschreibung erwähnten Merkmale jeweils einzeln für sich oder in beliebiger Kombination erfindungswesentlich sein. Ebenso können die vorstehend genannten und die hier weiter ausgeführten Merkmale je für sich oder zu mehreren in beliebigen Kombinationen Verwendung finden. Funktionsähnliche oder identische Bauteile oder Komponenten sind teilweise mit gleichen Bezugszeichen versehen. Die in der Beschreibung des Ausführungsbeispiels verwendeten Begriffe „links“, „rechts“, „oben“ und „unten“ beziehen sich auf die Zeichnung in einer Ausrichtung mit normal lesbarer Figurenbezeichnung bzw. normal lesbaren Bezugszeichen. Die gezeigte und beschriebene Ausführungsform ist nicht als abschließend zu verstehen, sondern hat beispielhaften Charakter zur Erläuterung der Erfindung. Die detaillierte Beschreibung dient der Information des Fachmanns, daher sind bei der Beschreibung bekannte Schaltungen, Strukturen und Verfahren nicht im Detail gezeigt oder erläutert, um das Verständnis nicht zu erschweren.
  • 1 zeigt ein Blockdiagram eines Expertensystems mit Datenströmen zwischen mehreren Terminal-Rechnern und einem Server-Rechner.
  • 2 zeigt ein Blockdiagram eines Expertensystems mit auf symbolsicher und statistischer KI basierenden Verarbeitungseinheiten.
  • 3A zeigt ein Blockdiagram zur Veranschaulichung der Linearisierung des rückgekoppelten Expertensystems der 1.
  • 3B zeigt eine andere Darstellung des Blockdiagrams der 3A zur besseren Veranschaulichung der Linearisierung des rückgekoppelten Expertensystems der 1.
  • 4A zeigt ein Blockdiagram zur Veranschaulichung der verteilten Datenverarbeitung des Expertensystems, die auf Seiten eines Client-Rechners erfolgt.
  • 4B zeigt ein Blockdiagram zur Veranschaulichung der verteilten Datenverarbeitung des Expertensystems, die auf Seiten eines Server-Rechners erfolgt.
  • Mit dem hier im Folgenden vorgeschlagenen Expertensystem soll es beispielsweise möglich sein, einen netzwerkbasierten Dienst mit beliebig vielen Nutzern aufzubauen. Ein wesentlicher Aspekt ist dabei, dass die Komplexität des Expertensystems, besonders sein Ressourcenbedarf aus Sicht des Betreibers oder Anbieters, möglichst nicht von der Anzahl der Nutzer des Expertensystems und der Menge der zu verarbeitenden Daten abhängig sein soll.
  • Um die nachfolgende Beschreibung der besonderen technischen Merkmale und Anforderungen des Expertensystems und seiner Implementierung im Sinne von Konfiguration und Struktur besser zu veranschaulichen, wird hier zunächst eine praktische Anwendung des Expertensystems beschrieben, nämlich die konkrete Implementierung einer ebenso neuartigen netzwerkbasierten Crowdfunding-Plattform.
  • Das die Crowdfunding-Plattform bildende Expertensystem soll für eine Vielzahl n von Nutzern N für jeden von einer Anzahl k mittels einer zugehörigen Kampagne K angebotenen Investitionsgegenständen in Echtzeit eine Anzahl e von Eingangsdaten E(k, e) auswerten, um daraus eine Anzahl a von Ausgabedaten A(k, a) für jede Kampagne K(k) abzuleiten. Selbstverständlich können noch weitere Eingangsgrößen hinzutreten oder bei Bedarf bestimmte der hier genannten Eingangsgrößen entfallen, wobei gegebenenfalls dafür andere neu hinzu kommen können, z. B. verschiedene allgemeine Faktoren aus dem Internet (WWW), wie z.B. Ergebnisse von Bot-Suchen und Crawlern, Schlagwörter, Auflistungen in Suchmaschinen.
  • Einem Nutzer N des Expertensystems ist die zugrundeliegende Technik verborgen, er sieht und interessiert sich im Wesentlichen nur die jeweils aktuellen Ergebnisse A(k, a) für eine von ihm gerade betrachtete Kampagne K(k), d.h. den zugehörigen Investitionsgegenstand.
  • Das Expertensystem ist so eingerichtet, dass es einem Nutzer die beliebtesten Investitionsgegenstände in einer Kampagnen-Übersicht (beispielsweise auf einer Internetseite) zuerst anzeigt. Die Beliebtheit als Maß für ein aktuelles Interesse der Nutzer an einem bestimmten Investitionsgegenstand wird durch eine entsprechende Rangfolge (Ranking) beschrieben. D.h., umso höher das Ranking eines Investitionsgegenstands gerade ist, umso prominenter wird dieser Investitionsgegenstand einem Nutzer N, der die Übersicht ansieht, angezeigt.
  • Das Expertensystem ist so eingerichtet, dass in einer Investitionsphase der Preis eines Anteils (Kurs) an einem Investitionsgegenstand bei einem festgelegten Wert startet. Das Expertensystem ist weiter eingerichtet, dass je nach internem Ranking des Investitionsgegenstands der Kurs steigt, d.h. der Kurs ist dynamisch. Dazu wird der Kurs vom Expertensystem fortlaufend in Echtzeit ermittelt. Das Expertensystem ist weiter eingerichtet, dass der Kurs für beliebtere Investitionsgegenstände schneller und/oder stärker steigt als für andere Investitionsgegenstände. D.h., bei einem Investitionsgegenstand mit hohem Ranking, also hoher Beliebtheit, erhöht sich der Kurs entsprechend schneller und/oder in größeren Schritten als bei anderen Investitionsgegenständen mit niedrigerem Ranking. Beide Maßnahmen fühlen sich für einen Nutzer N sehr intuitiv an.
  • Das Expertensystem ist weiter eingerichtet, dass der Kurs eines Investitionsgegenstands niemals sinkt. Dies erhöht den Anreiz für die einzelnen Nutzer N möglichst früh in einer Investitionsphase zu investieren.
  • Das Expertensystem kann weiter eingerichtet sein, dass jedem Nutzer N für die Dauer eines Investitionsvorgangs den ihm zuletzt angezeigten Kurs garantiert wird.
  • Das Expertensystem ist weiter eingerichtet, dass ein Nutzer N des Expertensystems durch die verschiedenen aktuell angebotenen Investitionsgegenstände browsen kann. Dazu werden die einzelnen Investitionsgegenstände in ihrer zugehörigen Kampagnen K(k) beispielsweise mittels Text und/oder Bildern und/oder Videos präsentiert, wobei die Anordnung der Investitionsgegenstände dynamisch und abhängig vom jeweiligen Ranking erfolgt. Der einzelne Nutzer N kann sich die auf der Plattform angebotenen Investitionsgegenstände gefiltert oder sortiert nach bestimmten Kategorien darstellen lassen.
  • Insgesamt imitiert/modelliert das Expertensystem das Ordnungsverhalten eines Menschen hinsichtlich der Präsentation der Investitionsgegenstände sowie die Preisentwicklung auf einem Marktplatz mit vielen Bietern.
  • 1 veranschaulicht das Expertensystem 10 als Plattform für das vorstehend als Beispiel beschriebene Crowdfunding. Das Expertensystem 10 ist zunächst als Host-Terminal-System dargestellt. Jedem Nutzer N(n) des Systems ist ein Terminal-Rechner T(n) zugeordnet. Die entsprechenden Softwaremodule zur Datenverarbeitung des Expertensystems 10 befinden sich vollständig auf einem Server-Rechner S als Host auf Seiten des Anbieters der Crowdfunding-Plattform.
  • Die Terminal-Rechner T(n) dienen im Wesentlichen nur als Ein-/Ausgabe(E/A)-Schnittstellen zum Expertensystem 10 und beinhalten selbst keine „Intelligenz“ soweit es das Expertensystem 10 anbelangt. Ein Terminal-Rechner T(n) ist beispielsweise ein normaler PC, auf dem beispielsweise ein Internetbrowser läuft, mit dem die Internetseite des Anbieters des Expertensystems 10 aufgerufen werden kann. Das Browserfenster ist dann quasi die E/A-Schnittstelle zwischen einem Nutzer N und dem Expertensystem 10. Die einzelnen Terminal-Rechner T(n) sind über das Internet WWW mit dem Server-Rechner S als Host verbunden. Zusätzlich ist der Server-Rechner S mittels einer Einheit 35 mit weiteren Datenquellen im Internet WWW verbunden. Die Einheit 35 kann beispielsweise eingerichtet sein, zusätzliche Eingangsdaten in Form von Ergebnissen von Bot-Suchen und/oder Crawlern nach bestimmten Schlagwörter, Auflistungen in Suchmaschinen etc. zu erfassen.
  • Im Beispiel sind lediglich zur Vereinfachung nur drei (n = 3) Nutzer N(1), N(2), N(3) und drei zugehörige Terminal-Rechner T(1), T(2), T(3) gezeigt. In der Praxis wird die Anzahl n der Nutzer N(n) und Terminal-Rechner T(n) deutlich größer sein, z. B. n > 50.000. Die Nutzer N(n) sind in 1 als Kreise dargestellt.
  • Für jeden Investitionsgegenstand wird im Expertensystem 10 auf dem Server-Rechner S als Host eine Kampagne K(k) angelegt. Im dargestellten Beispiel sind drei Kampagnen K(k) gezeigt, d.h. im dargestellten Beispiel gibt es nur drei (k = 3) Investitionsgegenstände, in der Praxis können es beliebig viele sein, z.B. k > 100. Als Eingangsdaten muss das Expertensystem 10 möglichst in Echtzeit für jede Kampagne K(k) eine Anzahl e von Eingangsgrößen E(k, e) fortlaufend erfassen und auswerten und für jede Kampagne eine Anzahl a bestimmter Ausgangsgrößen A(k, a) ausgeben. Dabei ist jede Kampagne K(k) durch eine entsprechend programmierte Verarbeitungseinheit K(k) implementiert, die jeweils eingerichtet ist, aus den jeweiligen Eingangsgrößen E(k, e) die zugehörigen Ausgangsgrößen A(k, a) zu erzeugen; d.h., zur vereinfachten Darstellung wird hier die Verarbeitungseinheiten K(k) wie die zugehörige Kampagne K(k) bezeichnet.
  • Problematisch für die technische Umsetzung des Expertensystems 10 ist, dass mit steigender Anzahl n von Nutzern N(n) und Anzahl k Kampagnen/Verarbeitungseinheiten K(k) zu jedem Zeitpunkt sehr große Datenmengen als Eingangssignale E(k, e) anfallen. Die Eingangsdaten müssen durch die Verarbeitungseinheiten K(k) des Expertensystems 10 in Echtzeit analysiert und ausgewertet werden, um beispielsweise aus den jeweiligen Eingangsdaten E(k, e) einer Kampagne K(k) als Ausgangssignale die Werte für den aktuellen Kurs A(k, 1) und das aktuelle Ranking A(k, 2) des Investitionsgegenstand der Kampagne K(k) zu erzeugen; d.h., jede Verarbeitungseinheit K(k) hat zwei Ausgangsgrößen (a = 2). Wie sich bereits anhand des Rankings ergibt, beeinflussen sich die einzelnen Kampagnen K(k) gegenseitig. Dabei ist bei dem in der 1 dargestellten Expertensystems 10 besonders problematisch, dass es ein nichtlineares System mit Rückkopplung ist.
  • Das vorstehend in der 1 skizzierte Expertensystem 10 lässt sich aus mehreren Gründen nicht ohne weiteres direkt als Terminal-Server-System umsetzen:
    • – Die auftretenden und zusätzlich permanent zu verarbeitenden und zu generierenden Datenmengen E(k, e) und A(k, a) sind zu groß, um sie auf aktuell verfügbaren Server-Rechnern S effizient analysieren zu können. Aktuell verfügbare Rechnerfarmen haben bei vertretbaren Kosten eine zu geringe Geschwindigkeit bzw. Rechenleistung.
    • – Die benötigte Bandbreite ist in einem Netzwerk wie dem Internet (WWW) für einen permanent in Echtzeit notwendigen Datenaustausch zwischen dem Server-Rechner S und den Terminal-Rechnern T(n) der Nutzer N(n) nicht gegeben. D.h., die verfügbaren Bandbreiten sind zu gering, um alle Daten permanent in Echtzeit erfassen zu können.
    • – Klassische Analysemethoden zur Verarbeitung der Eingangsdaten E(k, e) in die benötigten Ausgangsdaten A(k, a), beispielsweise in Form fester Übertragungsfunktionen oder Matrizen, scheitern an der Datenmenge und Umsetzungsgeschwindigkeit, Lookup-Tables scheitern ebenso an der theoretisch benötigten Größe.
    • – Alle Daten können nicht in Echtzeit sortiert bzw. indiziert werden, da sie zu schnell von neuen Daten überholt werden.
    • – Selbst ohne die Rückkopplung(en) müssen aufgrund der hochgradigen internen Vernetzung der Elemente des Expertensystems gigantische Datenmengen verarbeitet werden, die durch die Rückkopplung potenziert werden.
  • Betrachtet man qualitativ die benötigten Rechenoperationen O und die erzeugte Datenmenge D in Abhängigkeit der angeschlossenen n Nutzer N und k Kampagnen K, ergeben sich für eine direkte Umsetzung des Expertensystems 10 theoretisch folgende Abhängigkeiten: O(E·n·k + A·k^2) und D(E·n·k + A·k^2).
  • Dies erklärt sich daraus, dass in jeder der k Kampagnen K die n Eingangs-Datenvektoren E der n Nutzer N und die k Ausgangs-Datenvektoren A der Rückkopplung erfasst (D) und verarbeitet (O) werden müssen. Bei insgesamt k Kampagnen K ergibt dies als Basisterm (E·n + A·k)·k. Hierbei gilt es zu beachten, dass jeder Eingangs-Datenvektor E und jeder Ausgangs-Datenvektor A selbst auch wieder aus einer evtl. großen Menge an einzelnen Werten besteht und dass alle Operationen und Daten im Server-Rechner S als eine Hardware-Einheit zusammenfließen müssen.
  • Die hier vorgestellte Struktur für das Expertensystem 10 soll die Datenmenge D und Rechenoperationen O am Server-Rechner S möglichst auf O(A·k^2) und D(A·k^2) reduzieren.
  • Um diese technischen Probleme bei der Implementierung soweit zu lösen, dass das Expertensystem 10 technisch implementierbar ist, werden hier die im Folgenden erläuterten spezifischen technischen Maßnahmen vorgeschlagen.
  • Ein erster Aspekt der hier vorgeschlagenen Lösung besteht darin, bei der Verarbeitung der Daten Verfahren der künstlichen Intelligenz (KI-Verfahren) anstatt klassischer Verfahren wie feste Übertragungsfunktionen/-Matrizen oder Lookup-Tables zu verwenden.
  • 2 zeigt hierzu ein stark vereinfachtes Blockdiagram des Expertensystems 10 aus 1, das auf dem zugrundeliegenden Server-Rechner S als eine Verarbeitungseinheit K programmiert ist. Das Expertensystem enthält eine KI-Verarbeitungseinheit 12 basierend auf statistischer Künstlicher Intelligenz (KI) und eine KI-Verarbeitungseinheit 14 basierend auf symbolischer KI. Die jeweiligen KI-Verarbeitungseinheiten 12, 14 sind eingerichtet, für jede Kampagne K aus einer Vielzahl von Eingangsdaten E in Echtzeit einige wenige Ausgangsdaten A zu generieren. Diese ständig aktualisierten Ausgangsdaten A unterstützen einen Nutzer N des Expertensystems 10 dabei, seine Investitionsentscheidungen zu treffen.
  • Die statistische KI der KI-Verarbeitungseinheiten 12 wird im Vorfeld mit simulierten Eingabedaten oder im laufenden Betrieb trainiert, wobei bestimmte Modelle, z.B. Gaussian Mixture Models (GMMs) oder Hidden Markov Models (HMMs), zum Einsatz kommen. Die Parameter der Modelle werden im Training gegen eine Ground-Truth trainiert, d.h. angepasst, sodass zu eingespeisten Eingabedaten vom Modell die gewünschten Ausgabedaten erzeugt werden. Hat das Modell eine gewünschte Genauigkeit erreicht, gilt das Training als erfolgreich beendet. Das Training kann sowohl mit simulierten Daten erfolgen und/oder im laufenden Betrieb des Expertensystems 10 mit real erfassten Daten nachjustiert werden.
  • Die nachgeschaltete symbolische KI der KI-Verarbeitungseinheit 14 trifft nach einem festgelegten, programmierten Satz von Regeln aus den Ausgangswerten der statistischen KI abschließende Entscheidungen und formt die Ausgangswerte A der jeweiligen Kampagne K. Der Satz der Regeln und Entscheidungsschwellen der statistischen KI wird im Vorfeld festgelegt und kann ebenfalls im laufenden Betrieb des Expertensystems 10 nachjustiert werden.
  • Die vom Expertensystem 10 permanent zu verarbeitenden e Eingangsdaten E(k, 1), ..., E(k, e) für jede der k Kampagnen K(k) können beim Beispiel der Crowdfunding-Plattform sein:
    • – eine aktuelle Investitionssumme E(k, 1) der Kampagne K(k),
    • – die Aufrufhäufigkeit E(k, 2) der Informationen über den Investitionsgegenstand der Kampagne K(k) durch Nutzer,
    • – Anzahl und Länge der Kommentare E(k, 3) der Nutzer über die Kampagne K(k) z.B. in Internetforen,
    • – Anzahl der Weiterleitungen E(k, 4),
    • – Anzahl der Zu-/Abgänge E(k, 5) von anderen relevanten (Internet Web-)Seiten,
    • – Länge der Verweildauer E(k, 6) der Nutzer bei den Daten zu dem Investitionsgegenstand der Kampagne K(k),
    • – Anzahl von Verlinkungen (Internet Links) auf die Kampagne K(k) auf Social-Media-Seiten E(k, 7).
  • D.h., die Anzahl e der Eingangsdaten ist 7 (e = 7). Diese Eingangsdaten werden durch das Expertensystem 10 in Echtzeit analysiert und ausgewertet, um für jede Kampagne K(n) folgende Ausgangssignale auszugeben:
    • – die Werte für den aktuellen Kurs A(k, 1) eines Anteils am Investitionsgegenstand, und
    • – das aktuelle Ranking A(k, 2) des Investitionsgegenstands der Kampagne K(k).
  • D.h., die Anzahl a der Ausgangsdaten ist 2 (a = 2).
  • Ein zweiter Aspekt der hier vorgeschlagenen Lösung betrifft die Auflösung der systeminternen Rückkopplung zwischen den einzelnen Kampagnen K. Dazu wird das Expertensystem 10 linearisiert, indem an jeder Kampagne K(i) die für die jeweils anderen Kampagnen K relevanten Daten getrennt ausgewertet und verteilt werden.
  • Wie in 3A dargestellt sind die Eingangsdaten E(k, e) jeder eine Kampagne implementierenden Verarbeitungseinheit K’(k) dieselben wie die, die in 1 und 2 in jede der die zugehörige Kampagnen implementierenden Verarbeitungseinheit K(k) gehen. Gegenüber der 1 erfolgt nun für jede Kampagne K’(k) eine Verarbeitung der Daten parallel in einer ersten Verarbeitungseinheit K’’(k) und einer zweiten Verarbeitungseinheit R(k). Diese ersten Verarbeitungseinheiten K’’(k) bzw. zweiten Verarbeitungseinheiten R(k) sind selbst wieder durch KI-Verarbeitungseinheiten nach dem Schema aus 2 aufgebaut und liefern als Ergebnis sog. Fakten als Kerndaten bzw. sog. flüchtigen Daten.
  • 3B entspricht inhaltlich der 3A und veranschaulicht die Linearisierung indem die nur zum besseren Verständnis eingeführten Verarbeitungseinheiten K‘(k) aufgetrennt werden und in jeweils zwei nicht rückgekoppelte Funktionsblöcke K’’(k) und R(k) zerlegt werden.
  • Die Ausgansdaten der jeweiligen zweiten Verarbeitungseinheiten R(k) werden hier als flüchtige Daten verstanden. Flüchtige Daten liefern Informationen die aus dem Verhalten eines Nutzers zu einer bestimmten Kampagne gewonnen werden, können aber mit Hinblick auf alle anderen Kampagnen außer der bestimmten Kampagne bewertet werden. Diese Daten werden deshalb als flüchtig bezeichnet, weil ihre Auswertung das Gesamtsystem besser und genauer macht, sie jedoch nicht zwangsläufig immer von allen Kampagnen ausgewertet werden müssen oder zur Verfügung gestellt werden müssen. Das Gesamtsystem zeigt eine hohe Fehlertoleranz gegenüber dem Ausfall oder auch dem verspäteten Eintreffen der Daten aus den zweiten Verarbeitungseinheiten R(k).
  • Den flüchtigen Daten gegenüber stehen die Fakten als Kerndaten, die in den ersten Verarbeitungseinheiten K’’(k) erzeugt werden. Diese sind für das Funktionieren des Expertensystems 10 absolut notwendig und werden vom Server-Rechner S für die abschließende Bewertung der verschiedenen Kampagnen mittels KI-Verarbeitungseinheiten auf dem Server-Rechner S unbedingt benötigt.
  • Man kann sich die ersten und zweiten Verarbeitungseinheiten K’’(k) und R(k) wie Zwillinge vorstellen, die dieselben Informationen bewerten, aber auf unterschiedliche Weise. Die erste Verarbeitungseinheit K’’(k) wertet die Eingangsdaten E(k, e) für die dazugehörige Kampagne K(k) aus und die zweite Verarbeitungseinheit R(k) wertet die Eingangsdaten für die restlichen Kampagnen außer der zugehörigen Kampagne aus. Bei den ersten Verarbeitungseinheiten K’’(k) fließt in die Bewertung zusätzlich noch das Ergebnis aller anderen zweiten Verarbeitungseinheiten R(k) ein. Die ersten und zweiten Verarbeitungseinheiten K’’(k) und R(k) sind dabei grundsätzlich qualitativ gegenläufig aber nicht fest verknüpft. Zur Veranschaulichung seien folgende konstruierte Extrembeispiele betrachtet:
  • Beispiel 1: Alle Nutzer N schenken nur Kampagne K(1) Aufmerksamkeit und schauen sich nur diese Kampagne K(1) an, klicken die dazu bereitgestellten Informationen an, verlinken die Kampagne K(1) auf Social-Media-Webseiten, diskutieren über die Kampagne K(1) in Internet-Foren etc. Dann meldet die erste Verarbeitungseinheit K’’(1) positive Werte und die zweite Verarbeitungseinheit R(1) meldet, dass es die anderen Kampagnen K(2), K(3) wenig Beachtung finden also negative Ausgangswerte.
  • Beispiel 2: Alle Nutzer N schenken allen Kampagnen K(1), K(2), K(3) gleich viel Aufmerksamkeit aber 10% der Nutzer N kaufen auch Anteile des Investitionsgegenstands der Kampagne K(1). Dann meldet die erste Verarbeitungseinheit K’’(1) wieder positive Werte, weil es eine gewisse Aufmerksamkeit und Käufe gibt. Die zweite Verarbeitungseinheit R(1) bewertet aber die Käufe bei Kampagne K(1) nicht zwangsläufig als negative Entwicklung für die anderen Kampagnen K(2), K(3) und meldet neutrale Werte.
  • Beispiel 3: Alle Nutzer N schenken nur Kampagne K(1) Aufmerksamkeit und klicken die dazu bereitgestellten Informationen an, verlinken die Kampagne K(1) auf Social-Media-Webseiten, diskutieren nur über diese Kampagne K(1) in Internet-Foren etc., kaufen aber ohne längere Verweildauer bei Kampagne K(2). Dann meldet die erste Verarbeitungseinheit K’’(1) positive Werte und die zweite Verarbeitungseinheit R(1) ebenfalls, weil ja mindestens eine andere Kampagnen, nämlich Kampagne K(2) durch die Käufe, auch stark bewertet werden muss.
  • Ein dritter Aspekt der hier vorgeschlagenen Lösung betrifft den Aufbau des Expertensystems 10 als ein dezentrales System. Dabei wird hier vorgeschlagen, das Expertensystem 10 mittels einer Mischung aus Peer-to-Peer(P2P)-Struktur und Server-Client-Struktur umzusetzen. Mit anderen Worten wird das Expertensystem 10 vom Server-Rechner S auf alle beteiligten Terminal-Rechner T(n) der 1, die dann echte Client-Rechner C(n) sind, ausgedehnt. D.h., die Client-Rechner C(n) sind nicht mehr – soweit es die Funktionen des Expertensystems 10 anbelangt – nur reine Terminals T(n), die quasi lediglich als E/A-Schnittstelle für den jeweiligen Nutzer N zum Expertensystem 10 fungierten. Vielmehr sind die Client-Rechner C(n) nun echte Daten verarbeitende Komponenten des Expertensystems 10. Dazu werden neben den KI-Verarbeitungseinheiten 12, 14 auf dem Server-Rechner S auch KI-Vorverarbeitungseinheiten 29 auf jedem Client-Rechner C(n) zur Vorverarbeitung der jeweils dort anfallenden Daten eingerichtet. Dies kann beispielsweise in Form entsprechender JAVA-Applets auf jedem Client-Rechner C(n) implementiert sein. Bei KI-Verarbeitungseinheiten 29 können die Eingangsvektoren E um ein Vielfaches (z.B. Faktor 10 bis 100) größer sein als die Ausgangsvektoren A. Dies bedeutet der größere Anteil der Datenmenge und Rechenoperationen fällt nicht mehr am Server-Rechner S an, sondern dezentral auf den Client-Rechnern C(n). Damit kann die Rechenlast skalierbar pro Client-Rechner C(n) gleichmäßig lokal verteilt werden.
  • In der 4A ist dies am Beispiel des Client-Rechners C(1), der den Terminal-Rechner T(1) der 2 ersetzt, dargestellt. Im Client-Rechner C(1) erfolgt bereits eine Vorverarbeitung eines Großteils der reinen Nutzerdaten des Nutzers N(1) in einem entsprechend programmierten Computerprogramm 29, z.B. JAVA-Applet. Der Client-Rechner C(1) ist über eine geeignete Netzwerkverbindung über das Internet WWW zum einen mit dem Server-Rechner S des Expertensystems 10 verbunden. Diese Client-Server-Beziehung zwischen dem Client-Rechner C(1) und dem Server-Rechner S ist der Client-Server-Strukturanteil des Expertensystems 10.
  • Des Weiteren ist der Client-Rechner C(1) aber ebenso mit den anderen an das Expertensystem 10 angeschlossenen Client-Rechner C(2) und C(3) als Peers verbunden. Diese P2P-Beziehung zwischen den Client-Rechnern C(1) bis C(3) ist der P2P-Strukturanteil des Expertensystems 10.
  • In dem Computerprogramm 29 sind entsprechend für jede Kampagne K(1), K(2), K(3) entsprechende erste Verarbeitungseinheiten K’’ programmiert, welche für die angesprochene Vorverarbeitung von Kerndaten der jeweiligen Kampagne eingerichtet sind (siehe auch die 3A und 3B sowie die zugehörige Beschreibung). Jede erste Verarbeitungseinheit K’’ enthält wiederum die im Zusammenhang mit 2 erläuterten KI-Verarbeitungseinheiten.
  • Über ein erstes Sendemodul 25 übermittelt der Client-Rechner C(1) die für die jeweilige Kampagne K(1), K(2), K(3) vorverarbeiteten Kerndaten an den Server-Rechner S.
  • Über ein zweites Sendemodul 27 übermittelt der Client-Rechner C(1) die für seine Peers in entsprechenden zweiten Verarbeitungseinheiten R vorverarbeiteten flüchtigen Daten an die anderen Client-Rechner C(2) und C(3) (siehe ebenfalls die 3A und 3B sowie die zugehörige Beschreibung).
  • Über ein erstes Empfangsmodul 23 empfängt der Client-Rechner C(1) für die einzelnen Kampagnen K(1), K(2), K(3) relevante flüchtige Daten seitens seiner Peers, d.h. seitens der anderen Client-Rechner C(2) und C(3) vorverarbeitete Kampagnendaten.
  • Über ein zweites Empfangsmodul 24 empfängt der Client-Rechner C(1) die aktuellen Ausgabe-Daten A vom Server-Rechner S zur aktuellen Information für den Nutzer N(1). D.h., diese aktuellen Werte für A(k, 1) und A(k, 2) werden nicht in den ersten und zweiten Verarbeitungseinheiten K’’, R benötigt. Jedoch müssen diese Daten dem Nutzer N(1) zur Kenntnis gebracht werden. Dazu dient ebenfalls eine MMI-Schnittstelle 21, beispielsweise entsprechend gestaltetes Browserfenster, zwischen dem Computerprogramm 29 und dem zugehörigen Nutzer N(1) des Client-Rechners C(1).
  • Wie im Zusammenhang mit den 3A und 3B erläutert lassen sich die Ausgansdaten der zweiten Verarbeitungseinheiten R(k) als flüchtige Daten verstehen. Im Kontext der 4A liefern die Ausgangsdaten der zweiten Verarbeitungseinheiten R(2) Informationen, die aus dem Verhalten des Nutzers N(1) bezüglich der Kampagne K(2) gewonnen werden können, aber mit Hinblick auf alle anderen Kampagnen, d.h. im Beispiel die Kampagnen K(1) und K(3) außer der Kampagne K(2), bewertet werden. Diese Daten werden deshalb als flüchtig bezeichnet, weil ihre Auswertung das gesamte Expertensystem 10 besser und genauer macht, diese Daten jedoch nicht zwangsläufig immer von allen Kampagnen ausgewertet werden müssen oder zur Verfügung gestellt werden müssen. Das gesamte Expertensystem 10 zeigt eine hohe Fehlertoleranz gegenüber dem Ausfall oder auch dem verspäteten Eintreffen der flüchtigen Daten aus den zweiten Verarbeitungseinheiten R(k), d.h. hier aus R(1) bis R(3).
  • Demgegenüber stehen die Kerndaten als Fakten, die in den jeweiligen ersten Verarbeitungseinheiten K’’(k) erzeugt werden. Diese sind für das Funktionieren des Expertensystems 10 absolut notwendig und werden vom Server-Rechner S für die abschließende Bewertung der verschiedenen Kampagnen K mittels der KI-Verarbeitungseinheiten 12, 14 (2) in entsprechenden zentralen Verarbeitungseinheiten K* auf dem Server-Rechner S benötigt.
  • Die Berechnung der zweiten Verarbeitungseinheiten R(k) erfolgt auf Seiten der Client-Rechner C(n) und betrifft auch nur die Kampagnen mit denen der Nutzer N(n) an seinem Client-Rechner C(n) interagiert. Dies trägt maßgeblich zur Skalierbarkeit des Expertensystems 10 bei. Die zweiten Verarbeitungseinheiten R(k) sind selbst auch wieder mit entsprechenden KI-Verarbeitungseinheiten konfiguriert, denn die zweiten Verarbeitungseinheiten R(k) treffen selbst (Vor-)Entscheidungen.
  • Die Client-Rechner C(n) als Peers untereinander übermitteln sich nur flüchtige Daten, d.h. die Ergebnisse der zweiten Verarbeitungseinheiten R(k). Es wurde in Simulationen festgestellt, dass wenn hierbei ein Datenvektor verloren gehen sollte, ist es für die Funktionsfähigkeit des Expertensystems 10 nicht wesentlich. Wenn theoretisch die gesamte P2P Kommunikation ausfallen sollte, würde das Expertensystem 10 auf ein klassisches serverseitiges KI-System zusammenschrumpfen, bei dem jeder Nutzer nur Eingangsdaten erzeugt, die auf Seiten der jeweiligen Client-Rechner vorverarbeitet werden, besonders komprimiert werden, und dann linear an den Server-Rechner S übermittelt werden. Vorteilhaft dabei ist, dass die Rechnerlastverteilung zwischen den Client-Rechnern C(n) und dem Server-Rechner S erhalten bleibt.
  • D.h., das Expertensystem 10 weist an drei Stellen (kleine) KI-Verarbeitungseinheiten nach dem Schema der 2 auf: auf jedem Client-Rechner C(n) in Form (i) der ersten Verarbeitungseinheiten K(k, n) und (ii) der zweiten Verarbeitungseinheiten R(k, n), sofern der jeweilige Nutzer N(n) mit diesen Kampagnen interagiert (klickt, browst, etc.), und (iii) auf dem Server-Rechner S als die letzte Entscheidungsinstanz, wobei hier noch einmal für jede Kampagne K(k) eine entsprechende zentrale Verarbeitungseinheit K* läuft.
  • Auf Seiten des Server-Rechners S wird für jede Kampagne K(k) eine finale Entscheidung hinsichtlich der aktuellen Ausgabewerte A(k, a) getroffen. Die jeweilige zentrale Verarbeitungseinheit K*(k) des Server-Rechners S bildet quasi nur noch einen Mittelwert aus allen A(k, 1) und A(k, 2), die seitens der Client-Rechner C(n) gemeldet werden. Diese Mittelwertbildung erfolgt aber auch wieder mit mittels KI-Verarbeitungseinheiten (2), vorzugsweise einfach mit einer Statistischen KI, d.h. die Daten laufen durch eine oder mehrere Glockenkurven. Dies erfolgt ebenfalls durch eine KI-Verarbeitungseinheit nach dem Schema der 2, bei der jedoch als Eingabedaten „nur“ die Ausgangsdaten A(k, a) der client-seitigen K’’ berücksichtigt wird. Somit wird an dieser Stelle auch die oben genannte große Datenreduktion erreicht.
  • Die aktuellen Kampagnen-Ausgangs-Daten A(k, a) werden vom Server-Rechner S wieder über das Internet WWW an die Client-Rechner C(n) geliefert (siehe 4A). Da dies nur wenige Daten sind, ist das kein Problem. Damit findet implizit eine Rückkopplung zum Client statt, aber nur mit den aktuellen Ausgabe-Daten A(k, a) als Information für den Nutzer N. Diese rückgekoppelten Daten werden nicht mehr verarbeitet, d.h. tragen nicht zur Rechnerlast des Expertensystems 10 bei.
  • Mittels der vorstehend erläuterten KI-gestützten Vorverarbeitung von Kampagnendaten auf Seiten der Client-Rechner C(n) wird Datenschutz sichergestellt, da sensible Daten bzw. nicht mehr das gesamte Verhaltensprotokoll des Nutzers N(n) den Client-Rechner C(n) verlassen müssen. Damit wird auch eine Datenreduktion erreicht, da nur noch das Ergebnis der Verarbeitung an den Server-Rechner S übertragen werden muss.
  • Die Linearisierung der ursprünglichen Rückkopplung wird mit der Auswertung der Nutzerdaten in Form der P2P-Kommunikation zwischen den Client-Rechnern C(n) erreicht. Damit wird die benötigte Bandbreite bei der Kommunikation zwischen den Client-Rechnern C(n) und dem Server-Rechner S deutlich verringert, weil die Client-Rechner C(n) als Peers untereinander schon die Vorverarbeitung vorgenommen haben.
  • Für die Kommunikation melden sich die einzelnen Client-Rechner C(n) beim Server-Rechner S an und bauen untereinander eine direkte Kommunikation auf. Dazu können die Client-Rechner C(n) beispielsweise Handshake-Protokolle ähnlich der von Mobilfunkgeräten und Funkmasten verwenden. Sollte ein einzelner Client-Rechner ausfallen, wird er nach einem Time-Out aus der Liste der anderen Client-Rechner entfernt.
  • Der Server-Rechner S erhält nur noch die Ergebnisse der Vorverarbeitung auf den Client-Rechnern C(n) und ermittelt zusammen mit den allg. Daten aus dem Netzwerk, beispielsweise dem Internet WWW, die Ausgangsgrößen A(k, a). Mit dem hier vorgestellten Konzept ist die Menge der auf dem Server-Rechner S zu verarbeitenden Daten überschaubar.
  • Das Expertensystem 10 kann damit das Verhalten der Nutzer N als Schwarm effizient analysieren und hierbei die implizit im Verhalten vorhandene Schwarmintelligenz auswerten. Diese Auswertung ist in der Theorie aus dem Forschungsfeld der Verteilten Künstlichen Intelligenz bekannt, der Kern der Erfindung basiert jedoch darauf die Datenmengen zum einen im Rahmen eines verteilten Netzwerks (WWW) zu erfassen und gleichzeitig das Datenaufkommen so erheblich zu reduzieren, dass die in der Theorie bekannte Auswertung auf verfügbarer Hardware praktisch realisierbar wird. Die durch die Erfindung eingeführte Datenreduktion und Reduktion des Rechenaufwands zusammen mit der möglichen Skalierbarkeit stellen weiterhin reduzierte Anforderungen an die Hardware und somit eine Kostenersparnis dar.
  • Nachfolgend sind beispielhaft Geschäftsmethoden beschrieben, für welche das beschriebene Expertensystem einsetzbar ist:
    • 1. Verfahren zum Crowdfunding von Investitionsgegenständen, wobei für jeden Gegenstand fortlaufend ein aktueller Kurs sowie ein internes Ranking in Bezug auf alle aktuell angebotenen Investitionsgegenstände berechnet werden und Nutzern angezeigt werden, wobei die Investitionsgegenstände in einer Übersicht entsprechend ihrem Ranking geordnet angezeigt werden.
    • 2. Verfahren nach 1., wobei der aktuelle Kurs für einen Investitionsgegenstand im Vergleich zu dem anderer Investitionsgegenstände entsprechend seinem aktuellen Ranking steigt.
    • 3. Verfahren nach 1. oder 2., wobei die ständig für jeden Investitionsgegenstand zu verarbeitenden Daten eines oder mehrere der folgenden Daten sind: die aktuelle Investitionssumme, die Aufrufhäufigkeit des Investitionsgegenstand, Kommentare der Nutzer, Weiterleitungen, Zu-/Abgänge von anderen relevanten Seiten, Verweildauer der Nutzer bei den Daten eines Gegenstandes, Social-Media-Verknüpfungsdichte.
    • 4. Verfahren nach 1., 2. oder 3, wobei Nutzer durch die Daten zu den aktuell angebotenen Investitionsgegenständen browsen können, wobei die einzelnen Investitionsgegenstände in übersichtlichen Kampagnen mit Bildern und Videos präsentiert werden, wobei die Anordnung der Investitionsgegenstände dynamisch und abhängig von ihrem aktuellen Ranking in Bezug auf die anderen Investitionsgegenstände erfolgt, wobei das Ranking fortlaufend in Echtzeit ermittelt wird und einem Nutzer immer die beliebtesten Investitionsgegenstände als erstes präsentiert werden.
    • 5. Verfahren nach 1., 2., 3. oder 4., wobei sich ein einzelner Nutzer die aktuell angebotenen Investitionsgegenstände auch gefiltert oder sortiert nach bestimmten Kategorien darstellen lassen kann.
    • 6. Verfahren nach 1., 2., 3., 4., oder 5., wobei während der Investitionsphase der Kurs eines Investitionsgegenstands bei einem festgelegten Wert startet, der gemäß dem internen Ranking des Investitionsgegenstands dynamisch steigt.
    • 7. Verfahren nach 1., 2., 3., 4., 5. oder 6., wobei einem Nutzer für ein bestimmtes Zeitfenster zur Abwicklung einer Investition der dem Nutzer zuletzt angezeigten Kurs garantiert wird.
    • 8. Verfahren nach 1., 2., 3., 4., 5., 6. oder 7., wobei der Kurs eines Investitionsgegenstands niemals sinkt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2014/0316823 A1 [0003]
    • US 2014/0310200 A1 [0003]
    • US 2014/0279682 A1 [0003]
    • US 2014/0164291 A1 [0003]
    • US 2014/067644 A1 [0003]
    • US 2014/052668 A1 [0003]
    • US 2014/040157 A1 [0003]
    • US 2014/025473 A1 [0003]
    • WO 2014/115927 A1 [0003]

Claims (6)

  1. Expertensystem (10) mit wenigstens einer zentralen Verarbeitungseinheit (K*) und mit auf über ein Netzwerk (WWW) verbundene Client-Rechner (C) per Softwaredownload verteilbaren ersten und zweiten Verarbeitungseinheiten (K’’, R), wobei das Expertensystem (10) eingerichtet ist, basierend auf einer modellierten Übertragungsfunktion für Eingangsdaten (E) zugehörige Ausgangsdaten (A) zu erzeugen und an verbundene Client-Rechner (C) auszugeben, wobei das Expertensystem (10) eingerichtet ist, direkte und/oder indirekte Interaktionen eines Nutzers (N) eines Client-Rechners (C) als Eingangsdaten (E) zu erfassen, wobei das Expertensystem (10) wenigstens einen Server-Rechner (S) mit der zentralen Verarbeitungseinheit (K*) aufweist, wobei der Server-Rechner (S) eingerichtet ist, sich über das Netzwerk (WWW) mit einem Client-Rechner (C) nach einem Softwaredownload der verteilbaren ersten und zweiten Verarbeitungseinheiten (K’’, R) auf den Client-Rechner (C) mit diesem mittels einer Daten kommunizierenden Verbindung zu vernetzen, wobei die verteilbaren zweiten Verarbeitungseinheiten (R) konfiguriert sind, mit dem Server-Rechner (S) vernetzte Client-Rechner (C) als Peers über das Netzwerk (WWW) mit einer Daten kommunizierenden Verbindung zu vernetzen, und aus vom jeweiligen Nutzer des Client-Rechners (C) abgeleiteten ersten Eingangsdaten und von anderen Client-Rechnern (C) übermittelten zweiten Eingangsdaten eine durch die erste Verarbeitungseinheit (K’’) abgeleitete Änderung der Ausgangsdaten (A) an den Server-Rechner (S) zu übermitteln und durch die zweite Verarbeitungseinheit (R) abgeleitete zweite Eingangsdaten an alle anderen vernetzten Client-Rechner (C) zu übermitteln, wobei der Server-Rechner (S) eingerichtet ist, von allen vernetzten Client-Rechnern (C) die abgeleiteten Änderung der Ausgangsdaten (A) zu empfangen und als Eingangsdaten für die zentrale Verarbeitungseinheit (K*) zu verwenden, um aktuelle Werte der Ausgangsdaten (A) abzuleiten und wieder an alle vernetzten Client-Rechner (C) zu übermitteln.
  2. Expertensystem (10) nach Anspruch 1, wobei wenigstens ein Teil des Netzwerks (WWW) durch das Internet gebildet ist.
  3. Expertensystem (10) nach Anspruch 1 oder 2, wobei die ersten Verarbeitungseinheiten (K’’), die zweiten Verarbeitungseinheiten (R) und die zentrale Verarbeitungseinheit (K*) durch auf Künstlicher Intelligenz basierenden KI-Verarbeitungseinheiten realisiert sind.
  4. Expertensystem (10) nach Anspruch 3, wobei die auf Künstlicher Intelligenz basierenden KI-Verarbeitungseinheiten durch seriell kombinierte KI-Verarbeitungseinheiten (12, 14) mit statistischer Künstlicher Intelligenz, symbolischer Künstlicher Intelligenz, Fuzzy-Logik, Fuzzy-Systems, oder einem Neuronalen Netze gebildet sind.
  5. Expertensystem (10) nach einem der Ansprüche 1 bis 4, wobei der Server-Rechner (S) ein Einzelrechner oder eine Rechnerfarm ist.
  6. Expertensystem (10) nach einem der Ansprüche 1 bis 5, wobei ein Client-Rechner (C) ist eines von: Einzelrechner, Smartphone, Personal Digital Assistant.
DE102014118401.7A 2013-12-15 2014-12-11 Dezentralisiertes Expertensystem für netzwerkbasiertes Crowdfunding Withdrawn DE102014118401A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102014118401.7A DE102014118401A1 (de) 2014-12-11 2014-12-11 Dezentralisiertes Expertensystem für netzwerkbasiertes Crowdfunding
US14/568,505 US20150170043A1 (en) 2013-12-15 2014-12-12 Decentralized Expert System for Network-Based Crowdfunding

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014118401.7A DE102014118401A1 (de) 2014-12-11 2014-12-11 Dezentralisiertes Expertensystem für netzwerkbasiertes Crowdfunding

Publications (1)

Publication Number Publication Date
DE102014118401A1 true DE102014118401A1 (de) 2016-06-16

Family

ID=53368913

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014118401.7A Withdrawn DE102014118401A1 (de) 2013-12-15 2014-12-11 Dezentralisiertes Expertensystem für netzwerkbasiertes Crowdfunding

Country Status (2)

Country Link
US (1) US20150170043A1 (de)
DE (1) DE102014118401A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019001688A1 (de) * 2017-06-27 2019-01-03 Trident Synergies Ltd. Verfahren und system zur analyse von investmentvorschlägen

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140025473A1 (en) 2012-07-19 2014-01-23 RocketHub Inc. Crowdfunding based on actions
US20140040157A1 (en) 2012-08-01 2014-02-06 RocketHub Inc. Offer Presentation for Crowdfunding
US20140052668A1 (en) 2012-08-17 2014-02-20 Jon Cameron System and Method for Crowdfunded Investment Clearance and Compliance
WO2014115927A1 (ko) 2013-01-28 2014-07-31 오픈트레이드 주식회사 오픈 플랫폼을 이용한 펀딩운영 및 사후관리 시스템과 그 방법
US20140279682A1 (en) 2013-03-14 2014-09-18 Aleksandr Feldman System and method for managing crowdfunding platform information
US20140310200A1 (en) 2013-08-22 2014-10-16 Martin Lewis Kelman Social Investing Network (SIN) that uses mobile communication devices or personal computers to conduct business investments and social connectivity for the Crowd Funding Industry from within a single Network configuration by means of CrowdBoarding
US20140316823A1 (en) 2013-01-31 2014-10-23 Luke Cooper Systems and Methods To Promote Computerized Insurance Premium Quotes for losses suffered by Crowd Funding Website Subscribers

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140066044A1 (en) * 2012-02-21 2014-03-06 Manoj Ramnani Crowd-sourced contact information and updating system using artificial intelligence

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140025473A1 (en) 2012-07-19 2014-01-23 RocketHub Inc. Crowdfunding based on actions
US20140040157A1 (en) 2012-08-01 2014-02-06 RocketHub Inc. Offer Presentation for Crowdfunding
US20140052668A1 (en) 2012-08-17 2014-02-20 Jon Cameron System and Method for Crowdfunded Investment Clearance and Compliance
US20140067644A1 (en) 2012-08-17 2014-03-06 Angelsoft LLC (d/b/a Gust) System and Method for Crowdfunded Investment Clearance and Compliance
US20140164291A1 (en) 2012-08-17 2014-06-12 Angelsoft LLC (d/b/a Gust) System and Method for Crowdfunded Investment Clearance and Compliance
WO2014115927A1 (ko) 2013-01-28 2014-07-31 오픈트레이드 주식회사 오픈 플랫폼을 이용한 펀딩운영 및 사후관리 시스템과 그 방법
US20140316823A1 (en) 2013-01-31 2014-10-23 Luke Cooper Systems and Methods To Promote Computerized Insurance Premium Quotes for losses suffered by Crowd Funding Website Subscribers
US20140279682A1 (en) 2013-03-14 2014-09-18 Aleksandr Feldman System and method for managing crowdfunding platform information
US20140310200A1 (en) 2013-08-22 2014-10-16 Martin Lewis Kelman Social Investing Network (SIN) that uses mobile communication devices or personal computers to conduct business investments and social connectivity for the Crowd Funding Industry from within a single Network configuration by means of CrowdBoarding

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019001688A1 (de) * 2017-06-27 2019-01-03 Trident Synergies Ltd. Verfahren und system zur analyse von investmentvorschlägen

Also Published As

Publication number Publication date
US20150170043A1 (en) 2015-06-18

Similar Documents

Publication Publication Date Title
DE202014011539U1 (de) System zum verteilten Verarbeiten in einer Nachrichtenübermittlungsplattform
DE202017007517U1 (de) Aggregatmerkmale für maschinelles Lernen
DE102016220592A1 (de) Kritische-Spitzen-Preisermittlungs-Bedarfsreaktions-Teilnehmerbewertung
DE60004507T2 (de) Schnelle gruppierung durch spärlich bestückte datensätze
DE102015004128A1 (de) Verfahren und System zum Testen cloud-basierter Anwendungen und Dienste in einer Produktionsumgebung unter Verwendung von getrennten Back-End-Systemen
DE112017003884T5 (de) Benutzerschnittstelle für Protokollabfragen
DE112016006514T5 (de) Verfahren und Datenverarbeitungssystem zum Verwalten von Datenstromverarbeitungstasks einervordefinierten Anwendungstopologie
DE112016001601T5 (de) Anzeige von inhaltselementen basierend auf dem benutzerinteresse zum erhalt von inhalt
Maier et al. Plattformbasierte Erwerbsarbeit: Stand der empirischen Forschung
DE112018006506T5 (de) Dynamisch modifizierende Systeme zum Erhöhen von Systemeffizienz
DE112021000619T5 (de) Adaptive zustandsverwaltung für statusunabhängige services
EP3672200B1 (de) Verfahren zur zusammenarbeit von mehreren geräten eines lokalen netzwerks
Moring et al. Nachhaltigkeit und Digitalisierung in der Immobilienwirtschaft
DE102014118401A1 (de) Dezentralisiertes Expertensystem für netzwerkbasiertes Crowdfunding
Berg-Schlosser Comparative area studies—the golden mean between area studies and universalistic approaches?
EP3507943B1 (de) Verfahren zur kommunikation in einem kommunikationsnetzwerk
Kaufmann et al. SQL-& NoSQL-Datenbanken
Blau et al. How to Coordinate Value Generation in Service Networks–A Mechanism Design Approach: Ein Mechanism-Design-Ansatz
Scheu et al. The Olympic Games and the neglected sport: A repertory grid analysis
EP3376736A1 (de) Verfahren und vorrichtung zur übermittlung von daten in einem computernetzwerk sowie computerprogramm mit einer implementation des verfahrens
Kari et al. Data-Driven Decision-Making from a Strategic and Operational Perspective in Retailing
Schwarz-Musch et al. Digitale Werbung in der Post-Cookie-Ära
WO2023139130A1 (de) Computer-implementierte datenstruktur, verfahren und system zum betrieb eines technischen geräts mit einem modell auf basis föderierten lernens
Marheine et al. Innovation Through the Use of Enterprise IoT Solutions: A Model to Determine Innovation Potential
Spottke What Companies can Learn from the Videogame Industry for the Design of the Digital Customer Experience: An Analysis of the Platform Steam

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: HERNANDEZ, YORCK, DIPL.-ING., DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee