DE112016004208T5 - Bereitstellen persönlicher Assistenz für die Pflege/Verwaltung von Multimedia und Erstellung von Geschichten auf Datenverarbeitungsvorrichtungen - Google Patents

Bereitstellen persönlicher Assistenz für die Pflege/Verwaltung von Multimedia und Erstellung von Geschichten auf Datenverarbeitungsvorrichtungen Download PDF

Info

Publication number
DE112016004208T5
DE112016004208T5 DE112016004208.6T DE112016004208T DE112016004208T5 DE 112016004208 T5 DE112016004208 T5 DE 112016004208T5 DE 112016004208 T DE112016004208 T DE 112016004208T DE 112016004208 T5 DE112016004208 T5 DE 112016004208T5
Authority
DE
Germany
Prior art keywords
characters
story
media
elements
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112016004208.6T
Other languages
English (en)
Inventor
Saurav Sahay
Lama Nachman
Rita H. Wouhaybi
Omar U. Florez
Giuseppe Raffa
Rahul C. Shah
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE112016004208T5 publication Critical patent/DE112016004208T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • G06F16/4387Presentation of query results by the use of playlists
    • G06F16/4393Multimedia presentations, e.g. slide shows, multimedia albums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/131Fragmentation of text files, e.g. creating reusable text-blocks; Linking to fragments, e.g. using XInclude; Namespaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/186Templates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Library & Information Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Computer Security & Cryptography (AREA)
  • Social Psychology (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Beschrieben ist ein Mechanismus zum Ermöglichen persönlicher Assistenz zur Pflege von Multimedia und Erstellung von Geschichten auf Datenverarbeitungsvorrichtungen gemäß einer Ausführungsform. Ein Verfahren von Ausführungsformen wie hierin beschrieben umfasst das Empfangen eines oder mehrerer Medienelemente in Zusammenhang mit einem Ereignis über eine oder mehrere Erfassungs-/Sensorkomponenten auf einer Datenverarbeitungsvorrichtung und das Erfassen eines Themas von dem einen oder den mehreren Medienelementen, wobei das Thema erfasst wird basierend auf Aktivitäten, Textinhalt und/oder Szenen in Zusammenhang mit dem Ereignis. Das Verfahren kann ferner das Bilden einer Mehrzahl von Geschichtenelementen zur Erstellung einer Geschichte in Zusammenhang mit dem Ereignis umfassen, wobei die Mehrzahl von Geschichtenelementen gebildet werden basierend auf einem oder mehreren Charakteren, dem Thema in Zusammenhang mit dem Ereignis und/oder einer oder mehreren Emotionen in Zusammenhang mit dem einen oder den mehreren Charakteren, wobei die Geschichte über eine oder mehrere Anzeigevorrichtungen einem oder mehreren Nutzern, die Zugriff auf die eine oder die mehreren Anzeigevorrichtungen haben, präsentiert wird.

Description

  • GEBIET
  • Die hierin beschriebenen Ausführungsformen betreffen Computer im Allgemeinen. Insbesondere betreffen die Ausführungsformen das Bereitstellen persönlicher Assistenz für die Pflege von Multimedia und das Erstellen von Geschichten auf Datenverarbeitungsvorrichtungen.
  • HINTERGRUND
  • Mit dem Ansteigen der Verwendung und Verfügbarkeit mobiler Computer und sozialer Netzwerkanwendungen hat es einen entsprechenden Anstieg des Nutzerinteresses am Erlangen, Organisieren und Teilen von Medien, wie zum Beispiel Fotos, Videos, etc., gegeben. Obwohl es Softwareanwendungen gibt, die für sich beanspruchen, Lösungen zum Organisieren von Medien anzubieten, sind diese herkömmlichen Techniken insofern stark eingeschränkt, als dass sie von ihren Nutzern verlangen, eine manuelle Organisation ihrer Medien, wie zum Beispiel Sammeln und Organisieren von Bildern nach Themen, Ereignissen, etc., vorzunehmen. Somit erfordern solche herkömmlichen Techniken erhebliche Anstrengungen seitens der Nutzer und sind zeitraubend, ineffizient und fehleranfällig.
  • Figurenliste
  • Ausführungsformen sind in den Figuren der begleitenden Zeichnungen, in welchen dieselben Bezugsziffern dieselben Elemente bezeichnen, beispielhalber, und keinesfalls als Einschränkung, dargestellt.
    • 1 stellt eine Datenverarbeitungsvorrichtung dar, welche einen Medienpflege- und Geschichtenerstellungs-Assistenzmechanismus gemäß einer Ausführungsform verwendet.
    • 2A stellt einen Medienpflege- und Geschichtenerstellungs-Assistenzmechanismus gemäß einer Ausführungsform dar.
    • 2B stellt eine Stimmungsanalyselogik dar, welche einen semantischen Analysator gemäß einer Ausführungsform aufweist.
    • 2C stellt eine architektonische Positionierung gemäß einer Ausführungsform dar.
    • 3 stellt ein Zuordnungsszenario dar, welches Personen durch Links gemäß einer Ausführungsform verbindet.
    • 4 stellt ein Verfahren zum Bereitstellen automatischer und dynamischer Medienpflege zur Geschichtenerstellung gemäß einer Ausführungsform dar.
    • 5 stellt eine Computerumgebung dar, die zur Durchführung von Ausführungsformen der vorliegenden Offenbarung gemäß einer Ausführungsform geeignet ist.
    • 6 stellt ein Verfahren zum Bereitstellen eines dynamischen Ansprechens von Nutzern und zum Übermitteln von Nachrichten gemäß einer Ausführungsform dar.
  • AUSFÜHRLICHE BESCHREIBUNG
  • In der folgenden Beschreibung sind zahlreiche spezifische Einzelheiten dargelegt. Hierin beschriebene Ausführungsformen können jedoch ohne diese spezifischen Einzelheiten ausgeführt werden. In anderen Fällen sind wohlbekannte Schaltkreise, Strukturen und Techniken nicht detailliert gezeigt, um das Verständnis dieser Beschreibung nicht zu erschweren.
  • Ausführungsformen stellen ein Verfahren bereit, das als intelligenter und wirksamer persönlicher Assistent dient, um Nutzern mit automatischer und dynamischer Pflege von Multimediaelementen (auch bezeichnet als „Medienelemente“, „Medienbestände“ oder einfach „Medien“) (z. B. Fotos, mitlaufende oder aufgezeichnete Videos, mitlaufende oder aufgezeichnete Audios, Live-Chats zwischen Nutzern, Sprachnachrichten, Textnachrichten, von Nutzern auf Webseiten veröffentliche Kommentare, von Nutzern erhaltene Rückmeldungen, Fernsehprogramme, Spielfilme, Webseiten, Online-Beiträge, Blogs, Vorstellungen, Spiele, Konzerte, Vorträge, etc.) zu helfen, um Geschichten zu erstellen, die erfahren, geteilt und angeboten werden können. Eine Geschichte basierend auf Bildern kann zum Beispiel derart gestaltet sein, dass die Bilder zu Darstellern der Geschichte werden, um zielorientierte Themen und Emotionen zu präsentieren.
  • Es ist zu beachten, dass „Pflege“ sich (ohne Einschränkung) auf Auswahl, Beobachtung, Sammlung, Erhaltung, Wartung, Organisation, Sortierung, Filterung, Archivierung, etc. einer beliebigen Anzahl und Art von Medienelementen bezieht oder diese umfasst. Ferner ist vorgesehen, dass die Medien aus einer beliebigen Anzahl und Art von Medienquellen oder -werkzeugen erlangt werden können, wie zum Beispiel (ohne Einschränkung) Kameras, Webseiten (z. B. soziale Medien, soziale Netzwerkwebseiten, geschäftliche Netzwerkwebseiten, Nachrichtenwebseiten, Blogs, etc.), Eingabe-/AusgabeEinrichtungen (z. B. Kameras, Mikrofone, Sensoren (z. B. Sprachsensoren, Kontextsensoren, Umgebungssensoren, Temperatur-/Wettersensoren, etc.), Detektoren (z. B. Satellitennavigationssystem-(GPS)-Komponenten), Lautsprecher, Projektoren, etc.), Datenverarbeitungsvorrichtungen, Liveübertragungen, aufgezeichneten Übertragungen, Blu-Ray Disk-(BD)-Spielern, digitalen Videodisk-(DVD)-Spielern, Compact Disk-(CD)-Spielern, Datenbanken, Datenquellen, Depots und/oder ähnlichem.
  • In einer Ausführungsform kann eine Reihe von vorab berechneten (auch bezeichnet als „vordefinierten“ oder „vorher festgelegten“) Filtern verwendet werden, um ein gewünschtes Ziel für einen Nutzer auszuwählen und dann automatisch eine dynamische Echtzeitbündelung von Bildern, Titeln, Geschichten-Hashtags, etc. für eine fesselnde Erfahrung, die vom Nutzer konsumiert oder vom Nutzer mit anderen, die am Lesen über die Erfahrung interessiert sein könnten, geteilt werden kann. Ferner kann in einer Ausführungsform eine beliebige Anzahl und Art von kognitiven Verfahren verwendet werden, um die Metadaten der Medien (wie zum Beispiel eine Person, die auf einem Bild „lächelt“) bei der Erstellung relevanter Geschichten einzusetzen.
  • Herkömmliche Verfahren sind manuell und stellen somit keine Automatisierung oder zumindest Halb-Automatisierung von Medienpflege bereit, sondern sind höchstens auf eine bestimmte heuristische Auswahl und zeitliche oder räumlich-zeitliche Ordnung von Bildern, etc. angewiesen. Zum Beispiel ermöglichen die meisten herkömmlichen Verfahren dem Nutzer nicht, mit einem System zu interagieren, um eine Geschichte unter Verwendung der Medien des Nutzers, wie zum Beispiel Bilder, Videos, etc., zu erstellen, da derartige Verfahren manuell sind, wobei der Nutzer die ganze harte Arbeit selbst erledigen muss oder vollständig ignoriert wird.
  • Ausführungsformen stellen einen umfassenden Ansatz für automatisierte und dynamische Medienpflege bereit, die eine beliebige Anzahl und Art von nutzerbezogenen Faktoren, wie zum Beispiel Ziele, Themen, Emotionen, Präferenzen, Überzeugungen, etc., von einer beliebigen Anzahl und Art von Medienquellen, wie zum Beispiel sozialen Netzwerkwebseiten, etc., sowie kontextabhängigen Kanälen, berücksichtigt und entsprechend extrahiert, um Medienströme durch Verwenden von kontextabhängigem und semantischem Verständnis von Metadaten (z. B. Kommentaren, Vorlieben (Likes), Titeln, Beschreibungen, Orten, Wetter, Ereignissen und/oder Ähnlichem) von verschiedenen Medien, wie zum Beispiel Fotos, Videos etc., zu verfassen oder mit zu verfassen. Ausführungsformen stellen ferner eine Verschmelzung von Medien, zum Beispiel von Bildern, aus verschiedenen Kanälen bereit, um personalisiertere und umfassendere Geschichten zu erstellen, solche Geschichten interaktiv zu bearbeiten, die Geschichten mit anderen Nutzern zu teilen, diese Geschichten kostenlos oder auf einem Marktplatz für finanziellen Gewinn als Vorlagen zur Verwendung und Wiederverwendung und/oder Ähnliches, durch andere zu veröffentlichen. Wie in diesem gesamten Dokument bezeichnet kann eine Vorlage zum Beispiel keine tatsächliche Geschichte sein (zum Beispiel nur aus Bildern bestehen, etc.), aber Metadaten und Metabeschreibungen werden durch den Mediengeschichtenmechanismus 110 von 1 interpretiert, um ähnliche Geschichten für andere zu erstellen. Ferner könnten Nutzer zum Beispiel keine Bilder ihrer Kinder in einem Marktplatz teilen wollen, aber andere Informationen, wie zum Beispiel Themen, Pfade, etc., könnten geteilt und zur Erstellung von Geschichten, etc. verwendet werden.
  • 1 stellt eine Datenverarbeitungsvorrichtung 100 dar, welche einen Medienpflege- und Geschichtenerstellungs-Assistenzmechanismus 110 gemäß einer Ausführungsform verwendet. Datenverarbeitungsvorrichtung 100 dient als ein Host-Rechner, auf welchem der Medienpflege- und Geschichtenerstellungs-Assistenzmechanismus („Mediengeschichtenmechanismus“) 110 untergebracht ist, der eine beliebige Anzahl und Art von Komponenten aufweist, wie in 2 dargestellt, um eine oder mehrere Komponenten effizient einzusetzen, um persönliche Assistenz für automatische und dynamische Pflege von Medien bereitzustellen, wie in diesem Dokument ausführlicher beschrieben wird.
  • Datenverarbeitungsvorrichtung 100 kann eine beliebige Anzahl und Art von Datenverarbeitungsvorrichtungen aufweisen, wie zum Beispiel große Datenverarbeitungssysteme, wie zum Beispiel Serverrechner, Desktopcomputer, etc., und kann ferner Set-Top-Boxen (z. B. internetbasierte Kabelfernseh-Set-Top-Boxen, etc.), Satellitennavigationssystem-(GPS)-basierte Vorrichtungen, etc., aufweisen. Datenverarbeitungsvorrichtung 100 kann mobile Datenverarbeitungsvorrichtungen als Kommunikationsvorrichtungen, wie zum Beispiel Mobiltelefone einschließlich Smartphones, persönliche Digitalassistenten (PDA), Tabletcomputer, Laptopcomputer (z. B. das Ultrabook™-System, etc.), Lesegeräte, Medien-Internetvorrichtungen (MID), Mediaplayer, intelligente Fernsehapparate, Fernsehplattformen, intelligente Vorrichtungen, Computing Dust, Medien-Abspielgeräte, kopfgetragene Anzeigen (HMD) (z. B. tragbare Brillen, wie zum Beispiel Google®-Brille™, kopfgetragene Ferngläser, Spielmonitore, militärische Headsets, etc.), und andere tragbare Vorrichtungen (z. B. intelligente Uhren, Armbänder, Smartcards, Schmuck, Bekleidungsteile, etc.) und/oder Ähnliches, aufweisen.
  • Datenverarbeitungsvorrichtung 100 kann ein Betriebssystem (OS) 106 aufweisen, das als eine Schnittstelle zwischen Hardware und/oder physischen Ressourcen der Computervorrichtung 100 und einem Nutzer dient. Datenverarbeitungsvorrichtung 100 kann ferner einen oder mehrere Prozessoren 102, Speichervorrichtungen 104, Netzwerkvorrichtungen, Treiber oder Ähnliches aufweisen, sowie Eingabe-/Ausgabe-(I/O)-Quellen 108, wie zum Beispiel Berührungsbildschirme, Bedienfelder, Tastfelder, virtuelle oder gewöhnliche Tastaturen, virtuelle oder gewöhnliche Mäuse, etc.
  • Es ist zu beachten, dass Begriffe wie „Knoten“, „Datenverarbeitungsknoten “, „Server“, „Servervorrichtung“, „Cloudcomputer“, „Cloudserver“, „Cloudservercomputer“, „Maschine“, „Hostrechner“, „Vorrichtung“, „Datenverarbeitungsvorrichtung“, „Computer“, „Datenverarbeitungssystem“ und dergleichen in diesem gesamten Dokument austauschbar verwendet sein können. Es ist ferner zu beachten, dass Begriffe wie „Anwendung“, „Softwareanwendung“, „Programm“, „Softwareprogramm“, „Paket“, „Softwarepaket“, „Code“, „Softwarecode“ und dergleichen in diesem gesamten Dokument austauschbar verwendet sein können. Auch Begriffe wie „Aufgabe“, „Eingabe“, „Anfrage“, „Nachricht“ und dergleichen können in diesem gesamten Dokument austauschbar verwendet sein. Es ist vorgesehen, dass der Begriff „Nutzer“ eine Person oder eine Gruppe von Personen bezeichnen kann, welche die Datenverarbeitungsvorrichtung 100 verwendet oder Zugriff auf diese hat.
  • 2A stellt einen Medienpflege- und Geschichtenerstellungs-Assistenzmechanismus 110 gemäß einer Ausführungsform dar. In einer Ausführungsform kann der Mediengeschichtenmechanismus 110 eine beliebige Anzahl und Art von Komponenten aufweisen, wie zum Beispiel (ohne Einschränkung): Erkennungs-/Empfangslogik 201; Überwachungslogik 203; Personenauflösungsmaschine 205; Ereignisextraktionsmaschine 207; Emotionsverständnismaschine 209; und Geschichtenaufteilungsmaschine 211; Rückmeldungs- und Generierungs-/Präsentationslogik 213; und Kommunikations-/Kompatibilitätslogik 215. In einer Ausführungsform weist die Datenverarbeitungsvorrichtung 100 ferner Eingabe-/Ausgabequellen 108 aufweisend Erfassungs-/Sensorkomponenten 261 und Ausgabekomponenten 263 auf.
  • Ferner kann die Personenauflösungsmaschine 205 in einer Ausführungsform eine Auflösungslogik für benannte Personen 221, eine Co-Referenzauflösungslogik 223, eine kontextabhängige Entdeckungslogik 225 und eine Rollenzuordnungslogik 227 aufweisen; die Ereignisextraktionsmaschine 207 kann eine Standortauflösungslogik 231, eine Zeitauflösungslogik 233, eine Themenmodellierung 235 und ein Szenenverständnis 237 aufweisen; die Emotionsverständnismaschine 209 kann eine Stimmungsanalyselogik 241 und eine Gesichtsausdrucksanalyselogik 243 aufweisen; und die Geschichtenaufteilungsmaschine 211 kann eine Zielfindungslogik 251, einen interaktiven Editor 253 und einen Hashtaggenerator 255 aufweisen.
  • Die Datenverarbeitungsvorrichtung 100 kann in Verbindung stehen mit einer Medienquelle/Medienquellen 270 (z. B. Webseiten (wie zum Beispiel soziale Netzwerkwebseiten, Unternehmensnetzwerkwebseiten, persönliche Webeseiten, Unternehmenswebseiten, etc.), Medien-Abspielgeräten, Kameras, Datenbanken, Datenquellen, Datenarchiven, Datenverarbeitungsvorrichtungen (wie zum Beispiel Datenverarbeitungsvorrichtungen von Drittparteien, etc.) und/oder Ähnliches) über ein Kommunikationsmedium 275 (zum Beispiel Kommunikationswege oder Netzwerke, wie zum Beispiel ein Cloudnetzwerk, das Internet, ein Proximity-Netzwerk, Bluetooth, etc.) und kann ferner in Verbindung stehen mit einer oder mehreren Datenverarbeitungsvorrichtungen (auch bezeichnet als „Clientcomputer“, „Client-Geräte“, oder einfach „persönliche Vorrichtungen“), wie zum Beispiel eine persönliche Vorrichtung 280 (z. B. Desktopcomputer, mobiler Computer, tragbare Datenverarbeitungsvorrichtung, etc.), über das Kommunikationsmedium 275. In einer Ausführungsform kann/können Medienquelle/Medienquellen 270, wie zum Beispiel ein Medien-Abspielgerät, eine andere Datenverarbeitungsvorrichtung, etc., getrennt angeordnet sein und aus der Ferne über das Kommunikationsmedium 275 mit der persönlichen Vorrichtung 280 in Verbindung stehen.
  • In einer anderen Ausführungsform kann/können Medienquelle/Medienquellen 270, wie zum Beispiel eine Kamera, eine Webseite, etc., ein Bestandteil der persönlichen Vorrichtung 280 sein oder über diese zugreifen. In noch einer anderen Ausführungsform kann/können Medienquelle/Medienquellen 270 Media Feeds (zum Beispiel soziale oder Unternehmensnetzwerkwebseiten, wie zum Beispiel Facebook®, Twitter®, Pinterest®, LinkedIn®, etc.) sein, welche direkt über die Bedienerschnittstelle 283 erreichbar sind, wie es eine Media Feed-Empfangs-/Zugriffslogik 285 einer Medieninteraktions-/Assistenzanwendung („Medienanwendung“) 281 an der persönlichen Vorrichtung 280 oder durch eine oder mehrere andere persönliche Vorrichtungen ermöglichen. Es ist ferner vorgesehen und zu beachten, dass persönliche Vorrichtung 280 sich auf eine Datenverarbeitungsvorrichtung beziehen oder eine solche aufweisen kann, die all ihre Komponenten, wie zum Beispiel Prozessor(en) 102, Speicher 104, Betriebssystem 106, etc. aufweist, wie unter Bezugnahme auf die Datenverarbeitungsvorrichtung 100 in 1 dargestellt.
  • Wie abgebildet, kann in einer Ausführungsform die persönliche Vorrichtung 280 Medienanwendung 281 beherbergen (hosten), welche Bedienerschnittstelle 283, Media Feed-Empfangs-/Zugriffslogik („Empfangs-/Zugriffslogik“) 285, Extraktionslogik 287 und Kommunikationslogik 289 umfasst. Eine persönliche Vorrichtung 280, wie die Datenverarbeitungsvorrichtung 100, kann auch eine beliebige Anzahl und Art von Eingabeelementen 291 (z. B. 2D-Kameras, 3D-Kameras, Mikrofone, Sensoren, Detektoren, etc.) und Ausgabeelementen 293 (z. B. Bildschirme, Projektoren, Lautsprecher, etc.) zum Empfangen/Erfassen von Medieneingaben beziehungsweise zum Bereitstellen/Abspielen von Medienausgaben aufweisen, um die Medienanwendung 281 zu unterstützen, welche wiederum zur automatischen und dynamischen Pflege von Medienelementen und Erstellung von Geschichten mit dem Mediengeschichtenmechanismus 110 kommuniziert und arbeitet.
  • Es ist vorgesehen und zu beachten, dass in einer Ausführungsform der Mediengeschichtenmechanismus 110 zur Gänze auf der Datenverarbeitungsvorrichtung 100 (z. B. Servercomputer, Desktopcomputer, Laptopcomputer, mobiler Computer, etc.) gehostet sein kann und mit einer oder mehreren persönlichen Vorrichtungen, wie zum Beispiel der persönlichen Vorrichtung 280, über das Kommunikationsmedium 275, wie zum Beispiel das Cloudnetzwerk, das Proximity-Netzwerk, das Internet, etc., in Verbindung steht. In einer anderen Ausführungsform kann der Mediengeschichtenmechanismus 110 zur Gänze auf der persönlichen Vorrichtung 280 (z. B. Laptopcomputer, mobile oder tragbare Computer, wie zum Beispiel Tabletcomputer, Smartphones, Smartcards, tragbare Brillen, intelligenter Schmuck, intelligente Kleidungsstücke, etc.) gehostet sein, zum Beispiel zur Gänze oder teilweise als Bestandteil der Medienanwendung 281.
  • In noch einer anderen Ausführungsform kann der Mediengeschichtenmechanismus 110 teilweise sowohl an der Datenverarbeitungsvorrichtung 100 als auch der persönlichen Vorrichtung 280 verwendet werden, zum Beispiel können eine oder mehrere Komponenten des Mediengeschichtenmechanismus 110 durch die Datenverarbeitungsvorrichtung 100 gehostet sein, und eine oder mehrere Komponenten des Mediengeschichtenmechanismus 110 können durch die persönliche Vorrichtung 280 gehostet sein. Zum Beispiel kann eine große persönliche Vorrichtung 280 (z. B. ein Desktopcomputer, etc.), der sehr viele Ressourcen, große Kapazität, Leistung etc. aufweist, den Mediengeschichtenmechanismus 110 verwenden, während eine kleine persönliche Vorrichtung 280 (z. B. ein mobiler Computer, wie zum Beispiel ein Smartphone, ein Tabletcomputer, etc.) mit begrenzten Ressourcen den Mediengeschichtenmechanismus 110 nicht verwendet, und statt dessen darauf beschränkt ist, die Medienanwendung 281 zu verwenden, die über das Kommunikationsmedium 275 mit dem Mediengeschichtenmechanismus 110 kommuniziert.
  • In einer Ausführungsform kann die Datenverarbeitungsvorrichtung 100 ferner in Verbindung stehen mit einer oder mehreren Datenbanken 265, welche ein oder mehrere Datenarchive oder Datenquellen aufweist/aufweisen, um eine beliebige Anzahl und Art von Daten (z. B. Medienelemente, Metadaten, Echtzeitdaten, historische Inhalte, Nutzer- und/oder Vorrichtungsidentifikation und sonstige Informationen, Ressourcen, Richtlinien, Kriterien, Regeln und Regelungen, Erweiterungen, etc.) zu erlangen, zu kommunizieren, zu speichern und zu pflegen. In einer Ausführungsform kann/können die Medienquelle/Medienquellen 280 auch eine oder mehrere Datenverarbeitungsvorrichtungen aufweisen, wie zum Beispiel eine Datenverarbeitungsvorrichtung einer Drittpartei, um eine beliebige Anzahl und Art von Daten, wie zum Beispiel Medienelemente, Metadaten, Echtzeitdaten, historische Inhalte, Nutzer- und/oder Vorrichtungsidentifikation und sonstige Informationen, etc., zu liefern, zu erlangen, zu kommunizieren, zu speichern und zu pflegen. In einer Ausführungsform kann das Kommunikationsmedium 275 eine beliebige Anzahl und Art von Kommunikationskanälen oder - netzwerken, wie zum Beispiel ein Cloudnetzwerk, das Internet, ein Intranet, das Internet der Dinge („IoT“), ein Proximity-Netzwerk, Bluetooth, etc.) aufweisen. Es ist vorgesehen, dass Ausführungsformen nicht auf eine beliebige bestimmte Anzahl oder Art von Datenverarbeitungsvorrichtungen, Medienquellen, Datenbanken, persönlichen Vorrichtungen, Netzwerken, etc., beschränkt sind.
  • Die Datenverarbeitungsvorrichtung 100 kann ferner I/O-Quellen 108 aufweisen, welche eine beliebige Anzahl und Art von Erfassungs-/Sensorkomponenten 261 (z. B. eine Sensoranordnung (wie zum Beispiel Kontext-/kontextbezogene Sensoren und Umgebungssensoren, wie zum Beispiel Kamerasensoren, Umgebungslichtsensoren, Rot-Grün-Blau- (RGB)-Sensoren, etc.), Tiefenmesskameras, zweidimensionale (2D)-Kameras, dreidimensionale (3D)-Kameras, Bildquellen, Audio-/Video-/Signal-Detektoren, Mikrofone, Augen-/Blickverfolgungssysteme, Kopfverfolgungssysteme, etc.) und Ausgabekomponenten 263 (z. B. Audio-/Video-/Signalquellen, Anzeigeebenen, Anzeigefelder, Bildschirme/Anzeigevorrichtungen, Projektoren, Anzeige-/Projektionsflächen, Lautsprecher, etc.) aufweisen.
  • Erfassungs-/Sensorkomponenten 261 können ferner eine oder mehrere Vibrationskomponenten, haptische Komponenten, Leitfähigkeitselemente, biometrische Sensoren, chemische Detektoren, Signaldetektoren, Elektroenzephalographie, funktionelle Nah-Infrarot-Spektroskopie, Wellendetektoren, Kraftsensoren (z. B. Beschleunigungsmesser), Beleuchtungsvorrichtungen, Augenverfolgungs- oder Blickverfolgungssysteme, Kopfverfolgungssysteme, etc., aufweisen, die verwendet werden können, um eine beliebige Anzahl und Art von visuellen Daten, wie zum Beispiel Bilder (z. B. Fotos, Videos, Filme, Audio-/Videoströme, etc.) und nicht visuellen Daten, wie zum Beispiel Audioströme oder Signale (z. B. Klang, Lärm, Vibration, Ultraschall, etc.), Radiowellen (z. B. Funksignale, wie zum Beispiel Funksignale, welche Daten, Metadaten, Hinweise, etc. aufweisen), chemische Veränderungen oder Eigenschaften (z. B. Feuchtigkeit, Körpertemperatur, etc.), biometrische Angaben (z. B. Fingerabdrücke, etc.), Gehirnwellen, Gehirndurchblutung, Umwelt-/Wetterbedingungen, Karten, etc., erfassen. Es ist vorgesehen, dass „Sensor“ und „Detektor“ in diesem gesamten Dokument austauschbar verwendet sein können. Es ist ferner vorgesehen, dass eine oder mehrere Erfassungs-/Sensorkomponenten 261 ferner eine oder mehrere Hilfs- oder Zusatzvorrichtungen zum Erfassen und/oder Erkennen von Daten, wie zum Beispiel Beleuchtungsvorrichtungen (z. B. Infrarot- (IR)-Strahler), Beleuchtungskörper, Generatoren, Soundblocker, etc. aufweisen können.
  • Es ist ferner vorgesehen, dass in einer Ausführungsform Erfassungs-/Sensorkomponenten 261 ferner eine beliebige Anzahl und Art von Kontextsensoren (z. B. einen linearen Beschleunigungsmesser) zum Erkennen oder Erfassen einer beliebigen Anzahl und Art von Kontexten (z. B. Schätzhorizont, lineare Beschleunigung, etc., in Bezug auf eine mobile Datenverarbeitungsvorrichtung, etc.) aufweisen können. Zum Beispiel können Erfassungs-/Sensorkomponenten 261 eine beliebige Anzahl und Art von Sensoren, wie zum Beispiel (ohne Einschränkungen): Beschleunigungsmesser (z. B. lineare Beschleunigungsmesser zur Messung der linearen Beschleunigung, etc.); Trägheitsvorrichtungen (z. B. Trägheitsbeschleunigungsmesser, Trägheitsgyroskope, Gyroskope mit mikroelektromechanischen Systemen (MEMS), Trägheitsnavigatoren, etc.); Gravitationsgradiometer zur Untersuchung und Messung von Variationen in der Gravitationsbeschleunigung aufgrund von Gravitation, etc., aufweisen.
  • Ferner können die Erfassungs-/Sensorkomponenten 261 zum Beispiel aufweisen (ohne Einschränkungen): audiovisuelle Vorrichtungen (z. B. Kameras, Mikrofone, Lautsprecher, etc.); kontextbezogene Sensoren (z. B. Temperatursensoren, Gesichtsausdruck- und Merkmalmessungssensoren, die mit einer oder mehreren Kameras audiovisueller Vorrichtungen arbeiten, Umgebungssensoren (wie zum Beispiel solche zur Erfassung von Hintergrundfarben, Lichtern, etc.), biometrische Sensoren (wie zum Beispiel zur Erkennung von Fingerabdrücken, etc.), Kalenderpflege- und Lesevorrichtung), etc.; Satellitennavigationssystem-(GPS)-Sensoren; Ressourcenanforderer; und vertrauenswürdige Laufzeitumgebungs-(TEE)-Logik. TEE-Logik kann gesondert verwendet werden oder einen Bestandteil des Ressourcenanforderers und/oder eines I/O-Subsystems, etc. bilden. Erfassungs-/Sensorkomponenten 261 können ferner Stimmerkennungsvorrichtungen, Fotoerkennungsvorrichtungen, Gesichts- und andere Körpererkennungskomponenten, Sprache-in-Text-Umwandlungskomponenten, etc. aufweisen.
  • Datenverarbeitungsvorrichtung 100 kann ferner eine oder mehrere Ausgabekomponenten 263 in Verbindung mit einer oder mehreren Erfassungs-/Sensorkomponenten 261 und einer oder mehreren Komponenten des Medienmechanismus 110 aufweisen, um das Abspielen und/oder Visualisieren unterschiedlicher Inhalte, wie zum Beispiel Bilder, Videos, Texte, Audios, Animationen, interaktive Repräsentationen, Visualisierung von Fingerabdrücken, Visualisierung von Berührungs-, Geruchs- und/oder anderen empfindungsbezogenen Erfahrungen, etc., zu ermöglichen. Zum Beispiel können die Ausgabekomponenten 263 ferner einen oder mehrere Telepräsenzprojektoren aufweisen, um eine virtuelle Repräsentation eines echten Bildes zu projizieren, die imstande ist, mitten in der Luft zu schweben, während sie interaktiv ist und die Tiefe eines realen Objekts aufweist.
  • Ferner können die Ausgabekomponenten 263 haptische Effektoren als ein Beispiel des Präsentierens der Visualisierung einer Berührung aufweisen, wobei eine solche Ausführungsform Ultraschallgeneratoren sein können, welche Signale in den Raum schicken können, die, wenn sie zum Beispiel menschliche Finger erreichen, eine taktile Empfindung oder ein ähnliches Gefühl an den Fingern verursachen können. Ferner können die Ausgabekomponenten 263 zum Beispiel und in einer Ausführungsform (ohne Einschränkung) eine oder mehrere Lichtquellen, Bildschirme und/oder Monitore, Lautsprecher, haptische Komponenten, Leitfähigkeitselemente, Knochenleitungslautsprecher, visuelle und/oder nicht visuelle olfaktorische oder Geruchs-Präsentationsvorrichtungen, visuelle und/oder nicht visuelle haptische oder Berührungs-Präsentationsvorrichtungen, Animationsanzeigevorrichtungen, biometrische Anzeigevorrichtungen, Röntgenanzeigevorrichtungen, hochauflösende Anzeigen, Anzeigen mit hohem Dynamikumfang, Mehrfachansichten und am Kopf montierte Anzeigen (HMDs) für virtuelle Realität (VR) und/oder erweiterte Realität (AR), etc., aufweisen.
  • Wie in diesem gesamten Dokument näher beschrieben ist, können in einer Ausführungsform Medien von einem oder mehreren sozialen Media Feeds (z. B. sozialen Netzwerkwebseiten, wie zum Beispiel Facebook®, Pinterest®, Twitter®, etc.) durch eine oder mehrere Medienquellen 270, auf die an der persönlichen Vorrichtung 280 zugegriffen werden kann, zum Beispiel durch Verwendung der Empfangs-/Zugriffslogik 285 und/oder einer oder mehrerer persönlicher Vorrichtungen, etc., erlangt werden. Ferner können Live-Audiomedien (z. B. Kommentare, Gespräche, Personen, die sprechen, während ein Bild aufgenommen wird, etc.) durch ein oder mehrere Eingabeelemente 291, wie zum Beispiel Mikrofone, etc., erfasst werden. Desgleichen können andere Medienformen, wie zum Beispiel Text, Bilder, etc., durch ein oder mehrere Eingabeelemente 291, wie zum Beispiel Lesegeräte, Scanner, Kameras, etc., erfasst werden.
  • In einer Ausführungsform kann, sobald eine beliebige Anzahl von Medienelementen (z. B. Fotos, Textnachrichten, Sprach-Chat, etc.) von einer oder mehreren Medienquellen 270 durch Verwendung einer oder mehrerer Bedienerschnittstellen 281, Eingabeelemente 291, Ausgabeelemente 293, etc., empfangen oder erfasst worden ist, wie es die Medienlogik 285 möglich macht, eine beliebige Anzahl und Art von Kontexten (z. B. Emotionen, Empfindungen, Stimmungen, Modi (wie zum Beispiel Spielmodus, Arbeitsmodus und Familienmodus, etc.), Umweltveränderungen, Umgebungsatmosphäre, Ereignisse, Standorte und/oder Ähnliches) durch Verwendung der Extraktionslogik 287 aus den Medien extrahiert werden.
  • In einer Ausführungsform kann Kontext über die Extraktionslogik 287 in Echtzeit extrahiert werden, indem die Medien und sämtliche Informationen, wie zum Beispiel Daten, Metadaten, etc., in Zusammenhang mit den Medien beobachtet werden; zum Beispiel kann eine Person, die in mehreren Fotos während eines Urlaubs lächelt, die allgemeine Stimmung der Person während des Urlaubs anzeigen, während eine Person, die in einem von zehn Fotos lacht und in den übrigen neun Fotos traurig erscheint, ein besonders angenehmes/fröhliches Ereignis anzeigen kann, das die Person zum Lachen gebracht (und dadurch die Stimmung geändert) hat. Desgleichen kann die Extraktionslogik 287 verwendet werden, solche Kontexte aus einer beliebigen Anzahl und Art von Daten/Metadaten, wie zum Beispiel Audio-Gespräche (z. B. Personen, die lachen, scherzen, ernst sind, weinen, etc.), Emoticons im Text (z. B. lachender Smiley, trauriges Gesicht, wütendes Gesicht, etc.), Satzzeichen (z. B. Ausrufezeichen, Gedankenstriche, Kommas, etc.), visuelle Hinweise in Fotos oder Videos (z. B. eine Person, die lächelt, hüpft, sich ausruht, trinkt, die Augen aufreißt, die Zähne zeigt, nasse Kleider trägt, Sand auf den Schuhen hat, etc.) und/oder Ähnliches, zu extrahieren.
  • In einer Ausführungsform können diese extrahierten Kontexte dann zur weiteren Verarbeitung, wie zum Beispiel durch die Emotionsverständnismaschine 209, zum Mediengeschichtenmechanismus 110 übermittelt werden, wo diese extrahierten Kontexte in Echtzeit übermittelt werden durch Verwendung der Kommunikationslogik 289 und/oder der Kommunikations-/Kompatibilitätslogik 213. In einer Ausführungsform können Kontexte extrahiert und in Echtzeit oder auf Abruf oder basierend auf einem vorher festgelegten Zeitplan, der in Nutzer- und/oder Systemeinstellungen eingestellt ist, übermittelt werden.
  • Wie oben erwähnt, sind herkömmliche Techniken nicht imstande, visuell die Intensität, Emotionen und verborgene Vergnügen von Momenten, die über Medienerkundungs-/Erfassungstechnologien erfasst werden, zu erschaffen oder auszudrücken. Aktuelle Techniken sind nicht imstande, reiche Emotionen über Medienerfahrungen auszudrücken, um Ziele der Erfüllung, Erzählung, Aufregung und andere Selbstausdrücke zu erreichen.
  • Ausführungsformen stellen ein zielorientiertes visuelles persönliches Geschichtenerstellungs-Assistenzsystem bereit, welches Personen, Orte, Ereignisse und geteilte Erfahrungen und Ausdrücke über soziale Medienmodalitäten berücksichtigt, um einem Nutzer visuell erstellte Geschichten basierend auf den persönlichen Medien zu ermöglichen. Zum Beispiel kann in einer Ausführungsform die Personenauflösungsmaschine 205 dazu verwendet werden, Charaktere zu extrahieren und Rollen in Erzählungen zuzuweisen, die Ereignisextraktionsmaschine 207 dazu verwendet werden, die Ansammlungen von episodischen und aktuellen Themen und Aktivitäten zu erfassen, die Emotionsverständnismaschine 209 dazu verwendet werden, Emotionen und Empfindungen von Charakteren bei unterschiedlichen Ereignissen zu erfassen, und die Geschichtenaufteilungsmaschine 211 dazu verwendet werden, die Medienelemente zur Erstellung der Geschichte miteinander zu verbinden.
  • Obwohl vorgesehen ist, dass Ausführungsformen nicht auf irgendeine bestimmte Vorrichtung, Nutzer, Ereignisse, Kontexte, etc. eingeschränkt sind, kann aus Gründen der Kürze, Klarheit und Verständlichkeit in diesem Dokument auf ein Familienurlaubsereignis, zum Beispiel einer Familie aus zwei Erwachsenen und 2 Kindern, die eine Urlaubsreise auf eine der Inseln von Hawaii unternahmen, Bezug genommen werden. Sie besuchten eine Reihe von Touristenzielen, schossen Hunderte von Bildern und veröffentlichten diese auf einer sozialen Medienwebseite, wo sie eine Reihe von Kommentaren in Zusammenhang mit den veröffentlichen Bildern empfangen haben. Sie aßen eine Menge guter Speisen, unternahmen Aktivitäten, wie zum Beispiel Schnorcheln, Walbeobachtung, Hubschrauberflug, Besuchen lokaler Musikdarbietungen, Morgenyoga, etc. Der Kürze halber können Begriffe wie „Nutzer“, „Person/Charakter“ und „Akteur“ in diesem Dokument austauschbar verwendet sein.
  • Bezugnehmend auf den Mediengeschichtenmechanismus 110 kann die Erkennungs-/Empfangslogik 201 in einer Ausführungsform jedes Mal ausgelöst und verwendet werden, wenn Nutzeranfragen, Kontexte, Echtzeitdaten, historische Daten, etc. an der Erkennungs-/Empfangslogik 201 empfangen werden. Ferner kann die Erkennungs-/Empfangslogik 201 dazu verwendet werden, eine beliebige Anzahl und Art von Erfassungs- und/oder Empfangsaufgaben in Zusammenhang mit einer oder mehreren der Erfassungs-/Sensorkomponenten 261, Ausgabekomponenten 263, etc. auszuführen, um über das Kommunikationsmedium 240 verschiedene Inhalte von der persönlichen Vorrichtung 280, Medienquelle(n) 270, Datenbank(en) 265, etc. zu erfassen.
  • Bei Empfang relevanter Nutzeranfragen, Kontexte und anderer Daten/Metadaten, etc., kann in einer Ausführungsform die Überwachungslogik 203 ausgelöst werden, um die Überwachung eines oder mehrerer Prozesse von oder Aufgaben in Zusammenhang mit automatischer und dynamischer Medienpflege zu starten, die durch eine oder mehrere Komponenten des Mediengeschichtenmechanismus 110 ausgeführt werden.
  • Wie oben erwähnt kann die Personenauflösungsmaschine 205 in einer Ausführungsform verwendet werden, um die Hauptpersonen (z. B. Familienmitglieder) in der Geschichte (z. B. Urlaubsgeschichte) und die Beziehung zwischen den Personen/Charakteren zu identifizieren. Charaktere können zum Beispiel als Knoten in einer Grafik dargestellt sein, während ihre Beziehungen als Verbindungen zwischen den Knoten dargestellt sein können; so könnte zum Beispiel ein Knoten, der den Ehemann darstellt, eine Verbindung mit einem Knoten, der seine Ehefrau darstellt, und den zwei Knoten, welche die beiden Kinder darstellen, tragen, etc. Desgleichen können Charaktere andere Personen umfassen, die mit der im Urlaub befindlichen Familie in Kontakt kommen, etc.
  • Zum Beispiel und in einer Ausführungsform kann die Erkennungslogik für benannte Personen („benannte Logik“) 221 verwendet werden, um Einzelpersonen aus Kommentaren, Beschreibungen, etc. zu extrahieren, während irgendwelche Pronomen und Bezugnahmen („coreferences“) mit einer Co-Referenzauflösungverarbeitung natürlicher Sprache gelöst werden können, wie sie die Co-Referenzauflösungslogik („Co-Referenzlogik“) 223 ermöglicht. Ferner kann die benannte Logik 221 auch dazu verwendet werden, Charaktere aus Markierungen in Zusammenhang mit Personen oder durch Verwendung von Gesichtserkennungstechniken, die Bilder und frühere Markierungen derselben Person verwenden, in Zusammenhang mit den Metadaten in den Medien, oder sogar räumliche Nähe (wie zum Beispiel die Umlegung von Bluetooth-Metadaten, etc.), wie es die kontextabhängige Entdeckungslogik 225 basierend auf verschiedenen Proximity-Netzwerken, wie zum Beispiel Bluetooth, Wi-Fi, etc., des Kommunikationsmediums 275 ermöglicht, aufzubauen.
  • Ferner kann in einer Ausführungsform die Rollenzuordnungslogik 227 zur Analyse und Rollenzuordnung verwendet werden, wie zum Beispiel der Analyse „wer sagte was zu wem“, um den Verbindungen, die sich in der Netzwerkgraphik auf die Charaktere beziehen, basierend auf verschiedenen Kommentaren und Beschreibungen, etc. Rollen zuzuordnen. Es ist vorgesehen, dass abhängig von der Technologie und mit dem Fortschritt der visuellen Erkennungs- und Charakterisierungstechniken zusätzliche Metadaten aus den Bildern extrahiert und bewertet werden können. Wenn eine Person zum Beispiel häufig lächelt oder Scherze macht, so werden diese Daten über die Person ihrem Profil hinzugefügt und, in dem Beispiel mit der auf Urlaub befindlichen Familie, werden vier Hauptcharaktere und ihre Beziehungen zueinander in der Geschichte (z. B. der gesamten Geschichte des Urlaubs) identifiziert. Basierend auf den Titeln und Kommentaren, die in Zusammenhang mit den Bildern veröffentlicht wurden, werden sämtliche Interaktionen zwischen den Charakteren in der Geschichte identifiziert und bei einem Bild des Vaters und eines Wals im Meer zusammen mit einem Kommentar des Sohnes „Ich schoss dieses wunderschöne Foto“ kann zum Beispiel eine Verbindung zwischen dem Vater und dem Sohn, wie zum Beispiel Sohn(X) klickt auf das Bild des Vaters(Y), erzeugt werden. Diese Beziehungsverbindungen können zur Schaffung der vorherigen Grundlagen zur Erzeugung einer Netzwerkgraphik, wie zum Beispiel der in 3 gezeigten, führen.
  • In einer Ausführungsform können die Ereignisextraktionsmaschine 207 und ihre Komponenten 231-237 Personen, Zeit und Standortinformationen verwenden, um Beziehungen zwischen verschiedenen Elementen zu extrahieren, um Ereignisse und Aktivitäten aus den Medien zu erlangen. Zum Beispiel können verschiedene lexikalisch-syntaktische Muster und Modelle, wie zum Beispiel Subjekt-Verb-Objekt-Muster mit bestimmten Instanziierungen relevanter Verbgruppen, etc., dazu verwendet werden, lokale räumlich-zeitliche Beziehungen zu extrahieren, um mögliche Ereignisse im Medienstrom zu extrahieren. Zum Beispiel können die Standorte von Charakteren durch die Ortsauflösungslogik 231 ermittelt werden, die eine oder mehrere Standortbestimmungstechniken verwendet, wie zum Beispiel Satellitennavigationssystem-(GPS)-Koordinaten, Echtzeit-Standortinformationen, die von einem oder mehreren Charakteren veröffentlicht/bereitgestellt wurden, etc., wobei solche Standorte physische Orte, semantische Orte, etc. umfassen können. Desgleichen kann in einer Ausführungsform die Zeitauflösungslogik 233 dazu verwendet werden, die Zeitauflösung zu ermitteln, um die Reihenfolge zu bestimmen, wie zum Beispiel 5 Bilder in Zusammenhang mit Essen von insgesamt 30 Bildern, um einen größeren Schwerpunkt auf Essen zu legen, während 3 Bilder in Zusammenhang mit Essen von insgesamt 1000 Bildern einen geringeren Schwerpunkt auf Essen zeigen, etc. Die Zeitauflösungslogik 233 hilft auch dabei, Zeitintervalle von Ereignissen aus Text sowie Medienströmen unter Verwendung statistischer Zusammenhänge innerhalb von Medienfolgen zu erkennen und zu berechnen.
  • In einer Ausführungsform, kann die Themenmodellierungslogik 235 dazu verwendet werden, Themen zu erkennen, um eine Geschichte des Medienstroms zu erschließen, wie zum Beispiel Themen in Zusammenhang mit einer Geschäftsreise, einem Urlaub, einer Geburtstagsparty, etc., die aus einer oder mehreren Nahaufnahmen der Charaktere ermittelt werden. Desgleichen kann die Szenenverständnislogik 237 in einer Ausführungsform dazu verwendet werden, näher auf die Themen einzugehen, indem eine hierarchische Zuordnung und bildgebende Verfahren verwendet werden, um verschiedene Aspekte und Szenen des Themas zu offenbaren, wie zum Beispiel eine herrliche Aussicht auf einen See, einen Sonnenuntergang oder ein Bild in einem Museum, etc. In einer Ausführungsform können Themenmodellierungsalgorithmen durch die Themenmodellierungslogik 235 ausgelöst werden, um die Worte der Medienströme zu analysieren, um die verschiedenen Themen zu erkennen, die in diesen auftauchen, und wie solche Themen miteinander verbunden sind oder sich im Laufe der Zeit verändern. Desgleichen können Bilderkennungsalgorithmen durch die Szenenverständnislogik 237 unterstützt werden, um einen Sinn möglicher Szenarien zu erlangen, die in die Modelle für verschiedene Szenen in Zusammenhang mit einem oder mehreren Themen einfließen.
  • Darüber hinaus können durch Kenntnis des Standorts und der zu einem Thema gehörenden Zeit, zusätzliche lokale Ereignisinformationen (wie zum Beispiel irgendwelche Informationen, die durch die Charaktere auf einer Webseite veröffentlicht werden) dazu verwendet werden, Zusammenhänge zwischen den Ereignissen aus dem Medienstrom und lokalen Ereignissen (zum Beispiel, ob sie übereinstimmen) zu berechnen. Ferner kann ein Übertragungslernansatz dazu verwendet werden, in Fällen, in denen spärliche Metadaten (z. B. Bilder, die nicht von einer sozialen Netzwerkwebseite erfasst wurden, etc.) ermittelt werden, weitere Schlussfolgerungen über die Medien zu ziehen, sodass die Schlussfolgerungen auf ähnliche Kontexte von Bildern, welche dasselbe Datum, denselben Standort, Ähnlichkeiten in den Bildern, etc. aufweisen, angewendet werden.
  • In einer Ausführungsform weist die Emotionsverständnismaschine 209 die Stimmungsanalyselogik 241 und die Gesichtsausdrucksanalyselogik 243 auf, wobei die Stimmungsanalyselogik 241 Meinungen der Autoren der Kommentare in der Geschichte findet. Zum Beispiel weist die Stimmungsanalyselogik 241, wie sie ferner in 2B offenbart ist, eine beliebige Anzahl und Art von Komponenten auf, um Polarität und Auswirkung aus dem zugehörigen Text und Bild zu extrahieren, um unterschiedliche Grade nutzerspezifischer Emotionen im Text zu bestimmen. Ferner kann die Stimmungsanalyselogik 241 verschiedene Leitungskomponenten zum Verarbeiten von Medienstrom-Metadaten und den Statusmeldungen der Nutzer aufweisen.
  • Unter Bezugnahme auf 2B ist die Stimmungsanalyselogik 241 gezeigt, die den semantischen Analysator 295 aufweist, welcher eine Leitung für eine beliebige Anzahl und Art von Modulen aufweist, wie zum Beispiel einen Satzdetektor, einen Tokenisierer, einen Wortartenzuordner („part-of-speech (POS) tagger“), einen morphologischen Analysator, einen Sprachblockdetektor, einen Sprechaktanalysator, einen Polaritätsdetektor und einen Zusammenfassungserzeuger, etc., um Status, Kommentare, etc. zu empfangen und zu verarbeiten, und um Medien und Nutzerstimmungen zu erzeugen und auszusenden, wobei der semantische Analysator 295 ferner den psycho-linguistischen Analysator 297 umfasst. Zum Beispiel und in einer Ausführungsform kann der psycho-linguistische Analysator 297 dazu verwendet werden, einen oder mehrere Gesichtsausdrücke eines Charakters zu analysieren, wie zum Beispiel eines der Charaktere vom Familienurlaub, sowie auch ihre Audiogespräche, Gesichtsausdrücke anderer Charaktere im Bild, andere Ausdrücke (z. B. Körpersprache, Kleidung, etc.) im selben oder anderen Bildern, die in der Nähe des Bilds (z. B. innerhalb von 3 Bildern, innerhalb von 30 Minuten, etc.) aufgenommen wurden, Text/Kommentare von verschiedenen Veröffentlichungen auf sozialen Netzwerkwebseiten, etc., um den Charakter, zum Beispiel den Vater/Ehemann, automatisch zu psychoanalysieren, um zu ermitteln, was er fühlen, denken, erwarten, etc. könnte, zum Beispiel das Empfinden von Angst, das Denken an Arbeitsprobleme, das Erwarten von Schwierigkeiten auf der Reise, etc.
  • Unter nochmaliger Bezugnahme auf 2A kann die Emotionsverständnismaschine 209 ferner die Gesichtsemotionsanalyselogik 243 aufweisen, um mit einem oder mehreren Modulen der Stimmungsanalyselogik 241, wie zum Beispiel dem psycholinguistischen Analysator 297, zusammenzuarbeiten, um die Gesichtsausdrücke und Emotionen der Charaktere, wie zum Beispiel wütend, ängstlich, traurig, fröhlich, besorgt, gleichgültig, etc., zu bestimmen. Ferner können zum Beispiel Daten zukünftiger Bilder (in Bezug auf ein aktuelles Bild) berücksichtigt werden, um die Stimmung eines Akteurs im aktuellen Bild zu ermitteln, sogar wenn die Stimmung des Akteurs bei Betrachtung nur des aktuellen Bilds nicht extrahiert werden kann, da in vielen Fällen die zukünftigen Bilder eine zusätzliche Geschichte erzählen, die aus dem aktuellen Bild nicht so offensichtlich erkennbar ist. Desgleichen kann die Gesichtsemotionsanalyselogik 243 dazu verwendet werden, Algorithmen zur Erkennung von Emotionen und Erregungsniveaus aus den Gesichtern der Akteure auszulösen, um einen Eindruck der Stimmung der Akteure und anderer Personen in den relevanten Bildern zu erkennen.
  • Jegliche Datenausgabe (z. B. extrahierte, abgeleitete, bestimmte, etc.) einer oder mehrerer der Personenauflösungsmaschine 204, der Ereignisextraktionsmaschine 207 und der Emotionsverständnismaschine 209 kann zur weiteren Verarbeitung zur Geschichtenaufteilungsmaschine 211 weitergeleitet werden. In einer Ausführungsform kann die Geschichtenaufteilungsmaschine 211 die Zielfindungslogik 251, den interaktiven Editor 253 und den Hashtaggenerator 255 aufweisen, um eine oder mehrere Aufgaben der Berücksichtigung der Datenausgabe und der Zusammenstellung einer Reihenfolge zusammengefasster Medienelemente für die Geschichte zusammen mit relevanten Hashtags, die vom Hashtaggenerator 255 erzeugt wurden, und einer Beschreibung der Geschichte, die durch den interaktiven Editor 253 bearbeitet wurde, auszuführen. Zum Beispiel kann der interaktive Editor 253 dazu verwendet werden, bei der Auswahl aus einer Liste vorgefilterter Ziele, die durch eine Zielfindungslogik 251 erkannt wurden, zu assistieren, um eine vollständige und relevante Geschichte zu erstellen. Ziele können zum Beispiel „zeige mir den glücklichsten Moment der Reise“, „verrückteste Momente der Reise“, „Indiana Jones®-Abenteuer“, „der Hubschrauberflug“, und/oder Ähnliches aufweisen. Sobald das Ziel bestimmt worden ist, kann die Geschichtenaufteilungsmaschine 211 die Medienelemente auswählen, welche den durch die Ziele, Charaktere, Themen, Ereignisse und Stimmungen bestimmten Einschränkungen entsprechen. Ferner kann die Zielfindungslogik 251 der Geschichtenaufteilungsmaschine 211 dazu verwendet werden, mögliche Verläufe von Geschichten zu ermitteln und zu berechnen, wie unter Bezugnahme auf 3 dargestellt ist.
  • In einer Ausführungsform kann die Rückmeldungs- und Generierungs-/Präsentationslogik 213, sobald die Geschichtenaufteilungsmaschine 211 die verschiedenen Teile der Geschichte ausgewählt und/oder vorbereitet hat, ausgelöst werden, um die endgültige Geschichte oder eine beliebige Anzahl von Geschichten zu erstellen, die einem oder mehreren Akteuren und jeglichen anderen Nutzern über eine oder mehrere persönliche Vorrichtungen, wie zum Beispiel die persönliche Vorrichtung 280, präsentiert werden soll/en. Zum Beispiel kann sich ein Akteur/Nutzer, die Ehefrau/Mutter, im Beispiel des Familienurlaubs dafür entscheiden, eine Geschichte anzusehen, indem sie die Bedienerschnittstelle 283 verwendet, sie kann sich aber auch dazu entscheiden, die Geschichte mit Freunden und Familie zu teilen, indem sie die Geschichte per E-Mail sendet oder sie einfach auf einer sozialen Netzwerkwebseite, wie zum Beispiel Facebook®, veröffentlicht.
  • In einer Ausführungsform kann die Rückmeldungs- und Generierungs-/Präsentationslogik 213 dazu verwendet werden, andere Präsentationsformen der Geschichte für den Nutzer zum Teilen mit anderen Nutzern zu schaffen, wie zum Beispiel eine kürzere Form, die auf Twitter® veröffentlicht werden soll, ein Blog, der auf einer Webseite zur öffentlichen Nutzung veröffentlicht werden soll, und eine oder mehrere Vorlagen der Geschichte, die für eine beliebige Anzahl und Art von Nutzern zum Herunterladen und Verwenden für deren eigene Geschichten auf einer Geschichtenmarktplatz-Webseite veröffentlicht werden soll. Es ist vorgesehen, dass diese Vorlagen kostenlos allen oder ausgewählten Nutzern bereitgestellt werden können, oder Nutzer können eine oder mehrere Vorlagen von der Marktplatz-Webseite zu einem Preis/für eine Gebühr erwerben.
  • Ferner kann in einer Ausführungsform der interaktive Editor 253 der Geschichtenaufteilungsmaschine 211 dazu verwendet werden, die Geschichte interaktiv zu bearbeiten, indem er einem Nutzer erlaubt, seine/ihre eigene Version der Geschichte zur Konsumation durch andere Nutzer oder für die allgemeinen Medien zu erstellen. Ferner kann der interaktive Editor 253 dazu verwendet werden, eine beliebige Anzahl und Art von Bildern von Medien 271, die von verschiedenen Medienquellen 270 (z. B. Kameras, Netzwerke, etc.) erlangt worden sind, als Eingabe zur Erstellung der Geschichte, wie sie durch die Rückmeldungs- und Generierungs-/Präsentationslogik 213 ermöglicht wird, benutzen.
  • In einer Ausführungsform können verschiedene Zuseher/Publikumsgruppen, einschließlich Freunde, Familie, nicht verbundene Leser, Kunden, etc., der Geschichte Rückmeldungen bereitstellen, die an der Erkennungs-/Empfangslogik 201 empfangen und durch die Rückmeldungs- und Generierungs-/Präsentationslogik 213 verarbeitet werden können, um die Präferenzen des verfassenden Nutzers aus Sicht des Publikums zu erlernen und zu extrahieren. Diese Präferenzen können dann in das Geschichtenerstellungsmodell, das durch die Geschichtenaufteilungsmaschine 211 vorbereitet worden ist, rückgeführt werden, um weitere Einschränkungen für eine zukünftige Erstellung gefälligerer oder akzeptablerer Geschichten hinzuzufügen.
  • Ferner können in einer Ausführungsform Ziele identifiziert oder definiert und durch die Zielfindungslogik 251 geschaffen werden, indem eine vorher definierte Vorlage, ausgewählt aus einer Vorlagenbibliothek, verwendet wird, wie sie zum Beispiel auf einer Geschichtenmarktplatz-Webseite bereitgestellt werden, die durch Verwendung von Medien und Erfahrungen einiger anderer Nutzer erstellt worden sein kann. Wie zuvor erwähnt, kann sich der Nutzer beim Erstellen einer Geschichte dazu entscheiden, eine oder mehrere Vorlagen der Geschichte auf der Geschichtenmarktplatz-Webseite zu veröffentlichen, wo die eine oder mehreren Vorlagen durch andere Nutzer als vorher definierte Vorlagen verwendet werden können, um deren eigene Geschichten zu erstellen, und ferner können diese Vorlagen kostenlos veröffentlicht oder geteilt (z. B. heruntergeladen) werden, oder als Alternative dazu können solche Vorlagen für eine Gebühr/einen Preis veröffentlicht und geteilt (z. B. heruntergeladen) werden.
  • In einer Ausführungsform kann ein anderer Nutzer (z. B. ein Freund, ein Familienmitglied, ein nicht verbundener Nutzer, etc.) eine vorher definierte Geschichtenvorlage des Nutzers von der Marktplatz-Webseite über ein Netzwerk, wie zum Beispiel ein Cloudnetzwerk, herunterladen, und die heruntergeladene Geschichtenvorlage dazu verwenden, automatisch eine eigene Geschichte zu erstellen, die sich innerhalb der Grenzen oder Parameter der heruntergeladenen Geschichtenvorlage befindet. Zum Beispiel kann eine vorher definierte Geschichtenvorlage mit einem Thema (z. B. Mary Poppins), Charakteren, Objekten, etc. bestückt sein, die dann durch den herunterladenden Nutzer durch einfaches Einsetzen seiner/ihrer eigenen Medien (z. B. Bilder, Videos, Kommentare, etc.) verwendet werden kann, um ihre/seine eigene Geschichte mit demselben Thema (z. B. Mary Poppins) und einem oder mehreren derselben Charaktere, Objekte etc. zu erstellen. In einer Ausführungsform kann die vorher definierte Geschichtenvorlage auch ein vorher definiertes Zuordnungskriterium aufweisen, um einen Plan/eine Graphik von Charakteren, Objekten, Verbindungen, etc. zu erzeugen, wie in 3 dargestellt, die der Nutzer wählen könnte, um automatisch einen ähnlichen Plan zu erzeugen, oder um als eine Alternative die vorher definierten Zuordnungskriterien aufzuheben, indem er/sie manuell seine(n)/ihre(n) eigene(n) Plan/Grafik von Charakteren, Objekten, etc. erzeugt.
  • Die Kommunikations-/Kompatibilitätslogik 215 kann dazu verwendet werden, die dynamische Kommunikation und Kompatibilität zu ermöglichen zwischen der Datenverarbeitungsvorrichtung 100 und der persönlichen Vorrichtung 280, Medienquelle/n 270, Datenbank/en 265, etc., und einer beliebigen Anzahl und Art von anderen Datenverarbeitungsvorrichtungen (wie zum Beispiel tragbaren Datenverarbeitungsvorrichtungen, mobilen Datenverarbeitungsvorrichtungen, Desktopcomputern, Serverdatenverarbeitungsvorrichtungen, etc.), Verarbeitungsvorrichtungen (z. B. Zentraleinheit (CPU), Grafikbearbeitungseinheit (GPU), etc.), Erfassungs-/Sensorkomponenten (z. B. nicht visuellen Datensensoren/Detektoren, wie zum Beispiel Schallsensoren, Geruchsensoren, haptischen Sensoren, Signalsensoren, Vibrationssensoren, chemischen Detektoren, Funkwellendetektoren, Kraftsensoren, Wetter-/Temperatursensoren, Körper-/biometrischen Sensoren, Scannern, etc., und visuellen Datensensoren/Detektoren, wie zum Beispiel Kameras, etc.), Nutzer-/Kontextbewusstseins-Komponenten und/oder Identifikations-/Verifikationssensoren/-Vorrichtungen (wie zum Beispiel biometrischen Sensoren/Detektoren, Scanner, etc.), Speichern oder Speichervorrichtungen, Datenquellen und/oder Datenbanken (wie zum Beispiel Dataspeichervorrichtungen, Festplattenlaufwerken, Solid-State-Laufwerken, Festplatten, Speicherkarten oder -Vorrichtungen, Speicherschaltkreisen, etc.), Netzwerk/en (z. B. Cloudnetzwerk, Internet, Intranet, Mobilfunknetz, Proximity-Netzwerken, wie zum Beispiel Bluetooth, Bluetooth niedriger Energie (BLE), Bluetooth Smart, Wi-Fi-Netzwerk, Radiofrequenz-Identifikation (RFID), Nahfeldkommunikation (NFC), körpernahem Netzwerk (BAN), etc.), drahtlosen oder verdrahteten Verbindungen und relevanten Protokollen (z. B. Wi-Fi®, WiMAX, Ethernet, etc.), Konnektivitäts- und Standortmanagementverfahren, Softwareanwendungen/Webseiten (z. B. sozialen und/oder Unternehmensnetzwerkwebseiten, Unternehmensanwendungen, Spielen und anderen Unterhaltungsanwendungen, etc.), Programmiersprachen, etc., während sie die Kompatibilität mit sich verändernden Technologien, Parametern, Protokollen, Standards, etc. sicherstellt.
  • In diesem gesamten Dokument können Begriffe wie „Logik“, „Komponente“, „Modul“, „System“, „Maschine“, „Werkzeug“ und dergleichen austauschbar verwendet werden und umfassen zum Beispiel Software, Hardware und/oder jegliche Kombination von Software und Hardware, wie zum Beispiel Firmware. Ferner sollte keine Verwendung bestimmter Marken, Worte, Begriffe, Phrasen, Namen und/oder Akronymen, wie zum Beispiel „Medien“, „Metadaten“, „Medienpflege“ oder „Pflege“, „persönlicher Assistent“, „Medienquellen“, „Media Feeds“, „persönliche Vorrichtung“, „Geschichte“, „Charaktere/Personen“ oder „Akteure“, „Kontext“, „Emotionen“, „Vorlagen“, „soziale Netzwerkwebseiten“, „persönliche Vorrichtung“, „intelligente Vorrichtung“, „mobiler Computer“, „tragbare Vorrichtung“, etc., als Einschränkung von Ausführungsformen auf Software oder Vorrichtungen gelesen werden, welche dieses Etikett/diesen (Marken-)Namen in Produkten oder in Literatur außerhalb dieses Dokuments tragen.
  • Es ist vorgesehen, dass eine beliebige Anzahl und Art von Komponenten dem Mediengeschichtenmechanismus 110 hinzugefügt und/oder von diesem entfernt werden kann, um unterschiedliche Ausführungsformen zu ermöglichen, einschließlich der Hinzufügung, Entfernung und/oder Verbesserung bestimmter Merkmale. Aus Gründen der Kürze, der Klarheit und der leichteren Verständlichkeit des Mediengeschichtenmechanismus 110 sind viele der Standard- und/oder bekannten Komponenten, wie zum Beispiel jene einer Datenverarbeitungsvorrichtung, hier nicht gezeigt oder besprochen. Es ist vorgesehen, dass hierin beschriebene Ausführungsformen nicht auf irgendeine bestimmte Technologie, Topologie, ein bestimmtes System, eine bestimmte Architektur und/oder einen bestimmten Standard beschränkt sind, und dass sie dynamisch genug sind, um irgendwelche zukünftigen Veränderungen zu übernehmen und sich an diese anzupassen.
  • 2C stellt eine architektonische Positionierung 299 gemäß einer Ausführungsform dar. Zunächst könnten aus Gründen der Kürze, Klarheit und leichterer Verständlichkeit viele der oben unter Bezugnahme auf 1-2B diskutierten Komponenten und Prozesse im Folgenden nicht wiederholt oder besprochen sein. Es ist vorgesehen und zu beachten, dass Ausführungsformen nicht auf die dargestellte architektonische Positionierung 299 beschränkt sind.
  • Wie in einer Ausführungsform dargestellt wird eine beliebige Anzahl und Art von Medien 271 (z. B. soziale Medienwebseiteninhalte, Bilder/Videos, andere kontextabhängige Zuführungen sozialer Medien, etc.) aus einer oder mehreren Medienquellen 270 erlangt und an der Personenauflösungsmaschine 205, der Ereignisextraktionsmaschine 207 und der Emotionsverständnismaschine 209 und ihren jeweiligen Komponenten zur Verarbeitung wie unter Bezugnahme auf 2A empfangen und verwendet. Zum Beispiel und in einer Ausführungsform kann die Personenauflösungsmaschine 205 die Erkennungslogik für benannte Personen 221, die Co-Referenzauflösungslogik 223, die kontextabhängige Entdeckungslogik 225 und die Rollenzuordnungslogik 227 aufweisen. Desgleichen ist gezeigt, dass die Ereignisextraktionsmaschine 207 die Ortsauflösungslogik 231, die Zeitauflösungslogik 233, die Themenmodellierungslogik 235 und die Szenenverständnislogik 237 aufweist. Wie dargestellt weist die Emotionsverständnismaschine 209 die Stimmungsanalyselogik 241 und die Gesichtsausdrucksanalyselogik 243 auf.
  • Wie unter Bezugnahme auf 2A beschrieben ist, wird jegliche Datenausgabe von der Personenauflösungsmaschine 205, der Ereignisextraktionsmaschine 207 und der Emotionsverständnismaschine 209 zur Geschichtenaufteilungsmaschine 211 weitergeleitet und von dieser empfangen, wobei Letztere die Zielfindungslogik 251, den interaktiven Editor 253 und den Hashtaggenerator 255 aufweist, um eine Geschichte basierend auf den analysierten Daten und Metadaten in Zusammenhang mit den Medien 271 und dem Nutzer zu erstellen.
  • 3 stellt ein Zuordnungsszenario 300 dar, das die Charaktere 301A-G durch die Verbindungen 303A-L gemäß einer Ausführungsform verbindet. Zunächst könnten aus Gründen der Kürze, Klarheit und leichteren Verständlichkeit viele der oben unter Bezugnahme auf 1-2C diskutierten Komponenten und Prozesse im Folgenden nicht wiederholt oder besprochen sein. Es ist vorgesehen und zu beachten, dass Ausführungsformen nicht auf das dargestellte Zuordnungsszenario 300 beschränkt sind.
  • In einer Ausführungsform kann eine Geschichte in Zusammenhang mit einem Ereignis, wie zum Beispiel einer Geschäftsreise, einem Urlaub, einer Party, einer Hochzeit, etc., gebildet werden unter Verwendung der verfügbaren Medien, zum Beispiel während des Ereignisses aufgenommenen Bildern. Es ist vorgesehen, dass das Bild Inhalt aufweisen oder darstellen kann, der von Interesse für die oder sogar im Mittelpunkt der zu dem Ereignis gehörenden Geschichte sein kann, wobei ein solcher Inhalt Charaktere, einschließlich Akteure oder agierende Charaktere (z. B. Menschen, Haustiere, etc.), wie zum Beispiel Familienmitglieder auf einer Urlaubsreise, Braut und Bräutigam während einer Hochzeit, ein Hundewelpe während der Geburt, etc., umfassen kann. Desgleichen kann sich der Inhalt der relevanten Medien, wie zum Beispiel Bilder, auch auf Objekte konzentrieren, welche keine Akteure oder keine agierenden Charaktere sind (z. B. Pflanzen, Speisen, interessante historische Punkte, Naturlandschaften, andere Dinge, etc.), wie zum Beispiel Wein während einer Weinverkostungsreise, Speisen während einer Dinnerparty oder einer Urlaubsreise, Blumen in einem Garten, ein Unternehmen oder ein Kunde während einer Geschäftsreise, die Pyramiden während einer Reise nach Ägypten, etc.
  • In einer Ausführungsform kann eine Geschichte oder ein Abschnitt einer Geschichte rund um ein nicht agierendes Objekt, wie zum Beispiel Speisen, wie diese mit einem oder mehreren Akteuren, wie zum Beispiel Familienmitgliedern während einer Urlaubsreise, etc., in Verbindung stehen, kuratiert/gepflegt werden oder sich auf dieses konzentrieren, basierend auf einem oder mehreren Faktoren, die aus relevanten Metadaten, extrahiert werden, wobei solche Faktoren (ohne Einschränkung) Popularität, Wichtigkeit, Geschlecht, Stimmung, Beziehung, etc. umfassen können.
  • Zum Beispiel und wie in einer Ausführungsform dargestellt wird eine Geschichte gepflegt und definiert als ein Pfad in einer Grafik/einem Plan, wie zum Beispiel das Zuordnungsszenario 300, das als Verbindung verschiedener Bilder 301A-G von Speisen und mit Speisen verbundenen Gegenständen von einem Ereignis mit ähnlichen oder zugehörigen Metadaten gezeigt ist. Zum Beispiel stellt das Zuordnungsszenario 300 verschiedene mit Speisen in Zusammenhang stehende Momente in Bildern 301A-G zusammen mit anderem geteiltem Kontext, wie zum Beispiel (ohne Einschränkung) die oben erwähnte Popularität, Wichtigkeit, Geschlecht, Stimmung, Beziehung, etc., dar.
  • In einer Ausführungsform können eine oder mehrere Komponenten des Mediengeschichtenmechanismus 110 von 2A verwendet werden, um einen Empfehlungsalgorithmus umzusetzen, der die Wichtigkeit sämtlicher Metadaten zum Entwickeln der Popularität der Bilder eines Nutzers innerhalb ihres eigenen Kreises auf einer sozialen Netzwerk-Webseite erlernt. Der Nutzer kann den Mediengeschichtenmechanismus 110 verwenden, um bestimmte Metadaten, wie zum Beispiel Charaktere, Themen, Ereignisse, Selbstzusammenstellung („mix-and-match“), vorzuschlagen, um bestimmte Empfehlungen zu bilden, sodass die gepflegte Geschichte 1) eine personalisierte Version aller möglichen Pfade, die durch die Verbindungen 303A-L, welche die Bilder 301A-G in Zuordnungsszenario 300 verbinden, dargestellt werden, präsentiert; und 2) durch die vorhergesagte Popularität derart eingestuft ist, dass dem Nutzer auch vorgeschlagen wird, welche Geschichte oder welcher Teil einer Geschichte geteilt werden sollte, und mit wem.
  • In einer Ausführungsform kann die Geschichtenaufteilungsmaschine 211 von 2A dazu verwendet werden, eine oder mehrere der Verbindungen 303A-L durch Ausfiltern einer oder mehrerer Eigenschaften mit niedriger statistischer Abhängigkeit, bequem zu entfernen. Zum Beispiel kann ein niedriger Wert für „Speisenaktivität“ und „Rom“ darauf hinweisen, dass zum Beispiel „Speisenaktivität in Rom“ kein anzunehmender Teil irgendeiner Geschichte in der Bildersammlung des Nutzers, wie zum Beispiel den Bildern 301A-G, ist. Ferner können verschiedene wichtige Eigenschaften, die aus dem Zuordnungsszenario 300 gelernt und darin bereitgestellt wurden, zum Beispiel eine Verteilung von Interaktionen von Freunden mit der Bildersammlung 301A-G basierend zum Beispiel auf der Relevanz von Kontextelementen (z. B. Orten, Objekten, etc.) in Zusammenhang mit jedem einzelnen der Bilder 301A-G, etc., repräsentieren. Auf diese Weise können die Vorlieben eines Freundes studiert werden, und zusätzliche Geschichten können für ein bestimmtes Publikum gepflegt werden.
  • Wie unter Bezugnahme auf 2A-C dargestellt und besprochen, kann jegliches Ereignis, wie zum Beispiel eine Geschäftsreise, ein Urlaub, eine Party, eine Hochzeit, etc., eine beliebige Anzahl von Bildern von Charakteren, wie zum Beispiel Personen, die als Akteure bei einem Ereignis repräsentiert sein können, sowie andere Charaktere, die einen Mittelpunkt des Ereignisses bilden können, aufweisen, wie zum Beispiel Speisen während einer Reise oder einer Party, eine Torte auf einer Geburtstagsparty, ein Unternehmen oder ein Kunde auf einer Geschäftsreise, die Pyramiden in Ägypten, Braut und Bräutigam auf einer Hochzeit, etc. Zum Beispiel kann ein Bild einen im Mittelpunkt stehenden Gegenstand, wie zum Beispiel Speisen, in Zusammenhang mit einem oder mehreren Charakteren des Ereignisses darstellen.
  • In einer Ausführungsform können Ereignisbilder, die Charaktere darstellen, wie zum Beispiel die Bilder von Charakteren 301A-G, als Akteure betrachtet werden, die als Knoten in einer Grafik/einem Plan, wie zum Beispiel dem Zuordnungsszenario 300, dienen. Stehen in der dargestellten Ausführungsform Speisen im Mittelpunkt, repräsentieren die Charaktere 301A-G Speisen oder beziehen sich auf solche. Wie dargestellt sind die Charaktere 301A-G in einer Ausführungsform ferner unter Verwendung verschiedener Verbindungen, wie zum Beispiel der Verbindungen 303A-L, miteinander verbunden oder verknüpft, wobei die Verbindungen 303A-L kurze Verbindungen, lange Verbindungen, primäre Verbindungen, sekundäre Verbindungen, tertiäre Verbindungen etc. umfassen können.
  • 4 stellt ein Verfahren 400 zum Bereitstellen automatischer und dynamischer Medienpflege zur Geschichtenerstellung gemäß einer Ausführungsform dar. Verfahren 400 können ausgeführt werden durch Verarbeitungslogik, die Hardware (z. B. Schaltkreise, dedizierte Logik, programmierbare Logik, etc.), Software (wie zum Beispiel Anweisungen, die auf einer Verarbeitungsvorrichtung laufen) oder eine Kombination aus diesen aufweisen kann. In einer Ausführungsform kann das Verfahren 400 durch den Mediengeschichtenmechanismus 110 von 2A ausgeführt werden. Die Prozesse von Verfahren 400 sind zur Kürze und Klarheit der Darstellung in linearen Abfolgen dargestellt; es ist jedoch vorgesehen, dass eine beliebige Anzahl dieser Prozesse parallel, asynchron oder in unterschiedlichen Reihenfolgen ausgeführt werden können. Der Kürze halber können im Folgenden viele der unter Bezugnahme auf die vorherigen Figuren besprochenen Einzelheiten nicht besprochen oder wiederholt sein.
  • Verfahren 400 beginnt bei Block 401 mit dem Erfassen von Medien (z. B. Fotos, Videos, Kommentaren, Audiogesprächen, Textnachrichten, Veröffentlichungen/Posts, etc.) aus einer oder mehreren Medienquellen (z. B. Webseiten, Kameras, Mikrofonen, Medien-Abspielprogrammen, etc.), wobei die erfassten Medien ein Ereignis, wie zum Beispiel eine Urlaubsreise, eine Geschäftsreise, eine Geburtstagsparty, eine Hochzeit, etc., repräsentieren. Bei Block 403 werden die Medien überwacht, um einer oder mehreren Komponenten des Mediengeschichtenmechanismus 110 von 2A zu ermöglichen, irgendwelche zu den erfassten Medien gehörenden Metadaten zu überwachen, um eine beliebige Anzahl und Art von Kontexten, zum Beispiel Gesichtsausdrücke, Gemütszustände, das Umfeld, das Klima, etc., zu extrahieren.
  • Bei Block 405 wird in einer Ausführungsform die Personenauflösungsmaschine 205 des Mediengeschichtenmechanismus 110 von 2A ausgelöst, um verschiedene Charaktere (z. B. Familie in einem Urlaub, Freunde auf einer Party, Braut und Bräutigam auf einer Hochzeit, etc.) des durch die Medien repräsentierten Ereignisses zu extrahieren. Zusätzlich kann eine kontextabhängige Feststellung der Charaktere ausgeführt werden, um einen oder mehrere Standorte zu extrahieren, wobei zum Beispiel physische und sonstige Standorte der Charaktere zusammen mit den ihnen zugeordneten Rollen in Zusammenhang mit dem Ereignis ermittelt werden können. In einer Ausführungsform können die Rollen beim Entdecken der Charaktere zugeordnet werden.
  • Bei Block 407 in einer Ausführungsform kann die Ereignisextraktionsmaschine 207 des Mediengeschichtenmechanismus 110 von 2A verwendet werden, um verschiedene Ansammlungen von episodischen und aktuellen Themen und Aktivitäten in Zusammenhang mit dem Ereignis zu erfassen, zum Beispiel können Standort- und Zeitauflösungen, Themenmodellierung and Szenenverständnis, etc. ausgeführt werden. Bei Block 409 in einer Ausführungsform kann die Emotionsverständnismaschine 209 des Mediengeschichtenmechanismus 110 von 2A dazu verwendet werden, Emotionen und Stimmungen jedes der in den Medien, wie zum Beispiel einer Serie von Bilden in Zusammenhang mit dem Ereignis und anderen relevanten Ereignissen, auftauchenden Charaktere zu erfassen.
  • In einer Ausführungsform kann dann bei Block 411 die Geschichtenaufteilungsmaschine 211 ausgelöst werden, um die verschiedenen Medienelemente gemäß der Bestimmung durch andere Komponenten des Mediengeschichtenmechanismus 110 von 2A miteinander zu verbinden, um ein Geschichtenmodell zu erzeugen. In einer Ausführungsform kann bei Block 413 das Geschichtenmodell durch die Rückmeldungs- und Generierungs-/Präsentationslogik 213 dazu verwendet werden, eine Geschichte in Zusammenhang mit dem Ereignis zu erstellen, die dessen Charaktere einbindet und auf verschiedenen über das Ereignis und die Charaktere extrahierten Informationen basiert, wobei solche Informationen eine oder mehrere Rollen, Standorte, Emotionen, Stimmungen, Ausdrücke, Umfeld, Klima, Anlass, etc. umfassen.
  • In einer Ausführungsform kann sich der Nutzer dann beim Erstellen der Geschichte entscheiden, die Geschichte unter Zuhilfenahme der Rückmeldungs- und Generierungs-/Präsentationslogik 213 auf eine der folgenden Arten (ohne Einschränkung) zu präsentieren: 1) Teilen der Geschichte mit ausgewählten Freunden und Familienmitgliedern durch Veröffentlichen der Geschichte auf einer oder mehreren sozialen Netzwerkwebseiten; 2) Bereitstellen der Geschichte für die allgemeine Öffentlichkeit durch Veröffentlichen der Geschichte auf einer oder mehreren Webseiten eher öffentlicher Art; 3) Teilen der Geschichte als ein Blog auf einer auf Nachrichten bezogenen Webseite; und 4) Anbieten einer Vorlage der Geschichte auf einer Marktplatz-Webseite, die von uneigennütziger oder kommerzieller Art sein kann; und/oder Ähnliches. Desgleichen kann diese Geschichte, wie zuvor besprochen, in manchen Ausführungsformen unter Verwendung einer oder mehrerer vorher definierter Vorlagen erstellt worden sein, die der Nutzer, zum Beispiel durch Herunterladen von einer oder mehreren Webseiten über ein Netzwerk, wie zum Beispiel einer Marktplatz-Webseite, erlangt hat.
  • In manchen Ausführungsformen kann die Geschichte als Antwort auf ihre Veröffentlichung auf einer oder mehreren Webseiten, etc. Rückmeldungen erhalten, und als Reaktion darauf kann der Nutzer sich dazu entscheiden, die Geschichte zu verändern, zum Beispiel durch Entfernen beleidigender Ausdrücke oder Bilder, Bearbeiten eines oder mehrerer Merkmale der Geschichte, Teilen der Geschichte mit einer größeren Öffentlichkeit, Veröffentlichen einer oder mehrerer Vorlagen der Geschichte und/oder dergleichen. Desgleichen kann die Geschichte auf Grundlage der Rückmeldungen erstellt worden sein, die bereits von früheren Erfahrungen vorhanden war, zum Beispiel zu früheren Geschichten empfangenen Rückmeldungen, etc.
  • 5 stellt eine Ausführungsform eines Datenverarbeitungssystems 500 dar, das imstande ist, die oben beschriebenen Vorgänge durchzuführen. Das Datenverarbeitungssystem 500 repräsentiert eine Auswahl von datenverarbeitenden und elektronischen Vorrichtungen (verdrahtet oder drahtlos) zum Beispiel umfassend Desktopdatenverarbeitungssysteme, Laptopdatenverarbeitungssysteme, Mobiltelefone, persönliche Digitalassistenten (PDAs) umfassend mobiltelefonfähige PDAs, Set-Top-Boxen, Smartphones, Tabletcomputer, tragbare Vorrichtungen, etc. Andere Datenverarbeitungssysteme können mehr, weniger und/oder andere Komponenten umfassen. Datenverarbeitungsvorrichtung 500 kann dieselbe oder ähnlich der Datenverarbeitungsvorrichtung 100, die unter Bezugnahme auf 1 beschrieben ist, sein, oder diese umfassen.
  • Datenverarbeitungssystem 500 weist den Bus 505 (oder zum Beispiel eine Verbindung, eine Zusammenschaltung oder eine andere Art von Kommunikationsvorrichtung oder Schnittstelle zur Übermittlung von Informationen) und den Prozessor 510, der mit dem Bus 505 gekoppelt ist und Informationen verarbeiten kann, auf. Obwohl das Datenverarbeitungssystem 500 mit einem Einzelprozessor dargestellt ist, kann es mehrere Prozessoren und/oder Co-Prozessoren aufweisen, wie zum Beispiel einen oder mehrere Hauptprozessoren, Bildsignalprozessoren, Grafikprozessoren und Visionsprozessoren, etc. Datenverarbeitungssystem 500 kann ferner Direktzugriffsspeicher (RAM) oder eine andere dynamische Speichervorrichtung 520 (genannt Hauptspeicher) aufweisen, der/die mit dem Bus 505 gekoppelt ist und Informationen und Anweisungen speichern kann, die durch den Prozessor 510 ausgeführt werden können. Der Hauptspeicher 520 kann auch dazu verwendet werden, temporäre Variablen oder andere Zwischeninformationen während der Ausführung von Anweisungen durch den Prozessor 510 zu speichern.
  • Datenverarbeitungssystem 500 kann auch Nur-Lese-Speicher (ROM) und/oder eine andere Speichervorrichtung 530 aufweisen, die mit dem Bus 505 gekoppelt ist und statische Informationen und Anweisungen für den Prozessor 510 speichern kann. Die Datenspeichervorrichtung 540 kann mit dem Bus 505 gekoppelt sein, um Informationen und Anweisungen zu speichern. Die Datenspeichervorrichtung 540, wie zum Beispiel eine Magnetdiskette oder eine optische Disk und das entsprechende Laufwerk, kann mit dem Datenverarbeitungssystem 500 gekoppelt sein.
  • Datenverarbeitungssystem 500 kann auch über den Bus 505 mit der Anzeigevorrichtung 550, zum Beispiel einer Kathodenstrahlröhre (CRT), einer Flüssigkristallanzeige (LCD) oder einer organischen Leuchtdioden-(OLED)-Anordnung, gekoppelt sein, um einem Nutzer Informationen anzuzeigen. Eine Nutzereingabevorrichtung 560, aufweisend alphanumerische und andere Tasten, kann mit dem Bus 505 gekoppelt sein, um Informationen und Befehlsauswahlen an den Prozessor 510 zu übermitteln. Eine andere Art von Nutzereingabevorrichtung 560 ist die Cursorsteuerung 570, wie zum Beispiel eine Maus, eine Steuerkugel, ein Berührungsbildschirm, ein Touchpad oder Cursor-Pfeiltasten, zur Übermittlung von Richtungsinformationen und Befehlsauswahlen an den Prozessor 510 und zur Steuerung der Cursorbewegung auf der Anzeige 550. Kamera- und Mikrofonanordnungen 590 des Computersystems 500 können mit dem Bus 505 gekoppelt sein, um Gesten zu beobachten, Audio und Video aufzuzeichnen und visuelle und Sprachbefehle zu empfangen und zu übermitteln.
  • Datenverarbeitungssystem 500 kann ferner Netzwerkschnittstelle/n 580 aufweisen, um Zugriff auf ein Netzwerk, wie zum Beispiel ein lokales Netzwerk (LAN), ein Weitverkehrsnetz (WAN), ein Stadtnetz (MAN), ein persönliches Netzwerk (PAN), Bluetooth, ein Cloudnetzwerk, ein mobiles Netzwerk (z. B. 3. Generation (3G), etc.), ein Intranet, das Internet, etc., bereitzustellen. Die Netzwerkschnittstelle/n 580 kann/können zum Beispiel eine drahtlose Netzwerkschnittstelle aufweisen, welche eine Antenne 585, die eine oder mehrere Antennen repräsentieren kann, aufweist. Die Netzwerkschnittstelle/n 580 kann/können zum Beispiel auch eine verdrahtete Netzwerkschnittstelle zur Kommunikation mit entfernten Vorrichtungen über ein Netzwerkkabel 587, welches zum Beispiel ein Ethernet-Kabel, ein Koaxialkabel, ein Glasfaserkabel, ein serielles Kabel oder ein paralleles Kabel sein kann, aufweisen.
  • Die Netzwerkschnittstelle/n 580 kann/können zum Beispiel Zugriff auf ein LAN bereitstellen, indem sie den IEEE 802.11b- und/oder IEEE 802.11g-Standards entspricht/entsprechen, und/oder die drahtlose Netzwerkschnittstelle kann Zugriff auf ein persönliches Netzwerk, zum Beispiel indem sie den Bluetooth-Standards entspricht, bereitstellen. Andere drahtlose Netzwerkschnittstellen und/oder -Protokolle, umfassend frühere und nachfolgende Versionen der Standards, können ebenfalls unterstützt werden.
  • Zusätzlich zu oder anstatt der Kommunikation über die Drahtlos-LAN-Standards, kann/können die Netzwerkschnittstelle/n 580 drahtlose Kommunikation zum Beispiel durch Verwendung von Zeitvielfachzugriff-(TDMA)-Protokollen, Globales System für mobile Kommunikation-(GSM)-Protokollen, Codemultiplex-(CDMA)-Protokollen und/oder jeglicher anderen Art von drahtlosen Kommunikationsprotokollen, bereitstellen.
  • Netzwerkschnittstelle/n 580 kann/können eine oder mehrere Kommunikationsschnittstellen aufweisen, wie zum Beispiel ein Modem, eine Netzwerkschnittstellenkarte oder andere wohlbekannte Schnittstellenvorrichtungen, wie zum Beispiele jene, die zur Kopplung an das Ethernet verwendet werden, Token Ring oder andere Arten von fest verdrahteten oder drahtlosen Vorrichtungen zu Zwecken der Bereitstellung einer Kommunikationsverknüpfung, zum Beispiel um ein LAN oder ein WAN zu unterstützen. Auf diese Weise kann das Computersystem über eine herkömmliche Netzwerkinfrastruktur, zum Beispiel umfassend ein Intranet oder das Internet, auch mit einer Anzahl von Peripherievorrichtungen, Clients, Bedienflächen, Konsolen oder Servern gekoppelt sein.
  • Es versteht sich, dass für bestimmte Umsetzungen ein weniger oder besser ausgerüstetes System, als das oben beschriebene Beispeil, bevorzugt sein kann. Daher kann die Konfiguration des Datenverarbeitungssystems 500 abhängig von zahlreichen Faktoren, wie zum Beispiel Preisbeschränkungen, Leistungsanforderungen, technischen Verbesserungen oder anderen Umständen, von Umsetzung zu Umsetzung variieren. Beispiele der elektronischen Vorrichtung oder des Datenverarbeitungssystems 500 können (ohne Einschränkung) eine mobile Vorrichtung, einen persönlichen Digitalassistenten, eine mobile Datenverarbeitungsvorrichtung, ein Smartphone, ein Mobiltelefon, ein Mobilteil, einen Einweg-Funkrufempfänger, einen Zweiwege-Funkrufempfänger/Pager, eine Benachrichtigungsvorrichtung, einen Computer, einen Personalcomputer (PC), einen Desktopcomputer, einen Laptopcomputer, einen Notebookcomputer, einen tragbaren Computer, einen Tabletcomputer, einen Server, eine Server-Anordnung oder eine Serverfarm, einen Webserver, einen Netzwerkserver, einen Internetserver, eine Arbeitsstation, einen Minicomputer, einen Großrechner, einen Supercomputer, eine Netzwerkanwendung, eine Webanwendung, ein verteiltes Datenbearbeitungssystem, Mehrprozessorsysteme, prozessorbasierte Systeme, Unterhaltungselektronik, programmierbare Unterhaltungselektronik, Fernseher, digitale Fernseher, eine Set-Top-Box, einen Drahtloszugriffspunkt, eine Basisstation, eine Teilnehmerstation, ein mobiles Teilnehmerzentrum, einen Funknetzwerk-Controller, einen Router, einen Netzknoten, ein Gateway (Kommunikationsschnittstelle), eine Brücke, einen Schalter, eine Maschine oder Kombinationen davon, umfassen.
  • Ausführungsformen können umgesetzt werden als eines der folgenden Elemente oder eine Kombination davon: einen oder mehrere Mikrochips oder integrierte Schaltkreise, die unter Verwendung einer Hauptplatine miteinander verbunden sind, festverdrahtete Logik, Software, die durch eine Speichervorrichtung gespeichert und durch einen Mikroprozessor ausgeführt wird, Firmware, einen anwendungsspezifischen integrierten Schaltkreis (ASIC) und/oder eine feldprogrammierbare Gattermatrix (FPGA). Der Begriff „Logik“ kann als Beispiel Software oder Hardware und/oder Kombinationen von Software und Hardware umfassen.
  • Ausführungsformen können zum Beispiel bereitgestellt sein als ein Computerprogrammprodukt, das ein oder mehrere maschinenlesbare Medien, die darauf gespeicherte maschinenausführbare Anweisungen aufweisen, umfassen kann, wobei die Anweisungen bei ihrer Ausführung durch eine oder mehrere Maschinen, wie zum Beispiel einen Computer, ein Netzwerk von Computern oder andere elektronische Vorrichtungen, bewirken können, dass die einen oder die mehreren Maschinen Vorgänge im Einklang mit hierin beschriebenen Ausführungsformen ausführen. Ein maschinenlesbares Medium kann Disketten, optische Disks, CD-ROMs (Compact Disk-Festwertspeicher) und magnetooptische Disks, ROMs, RAMs, EPROMs (löschbare programmierbare Festwertspeicher), EEPROMs (elektrisch löschbare programmierbare Festwertspeicher), magnetische oder optische Karten, Flashspeicher oder andere Arten von Medien/maschinenlesbarem Medium, das zur Speicherung maschinenausführbarer Anweisungen geeignet ist, umfassen, ist aber nicht beschränkt auf diese.
  • Des Weiteren können Ausführungsformen als ein Computerprogrammprodukt heruntergeladen werden, wobei das Programm von einem entfernten Computer (z. B. einem Server) zu einem anfragenden Computer (z. B. einem Client) über ein oder mehrere Datensignale, die in einer Trägerwelle aufgenommen sind und/oder durch diese moduliert werden, oder durch ein anderes Ausbreitungsmedium über eine Kommunikationsverbindung (z. B. ein Modem und/oder eine Netzwerkverbindung) übertragen werden kann.
  • Bezugnahmen auf „eine Ausführungsform“, „Ausführungsform“, „Beispiel-Ausführungsform“, „verschiedene Ausführungsformen“, etc. weisen darauf hin, dass die derart beschriebene/n Ausführungsform(en) bestimmte Merkmale, Strukturen oder Eigenschaften aufweisen können, aber nicht jede Ausführungsform notwendigerweise diese bestimmten Merkmale, Strukturen oder Eigenschaften aufweist. Ferner können manche Ausführungsformen einige, alle oder keines der Merkmale, die für andere Ausführungsformen beschrieben sind, aufweisen.
  • In der folgenden Beschreibung und den Ansprüchen, kann der Begriff „gekoppelt“ zusammen mit seinen Ableitungen verwendet sein. „Gekoppelt“ wird verwendet, um darauf hinzuweisen, dass zwei oder mehr Elemente zusammenarbeiten oder interagieren, wobei sie jedoch dazwischenliegende physikalische oder elektrische Komponenten aufweisen können, oder nicht.
  • Falls nicht anders spezifiziert, weist in den Ansprüchen die Verwendung der Ordnungszahlen „erste/r/s“, „zweite/r/s“, „dritte/r/s“, etc. zur Beschreibung eines üblichen Elements nur darauf hin, dass auf verschiedene Exemplare ähnlicher Elemente Bezug genommen wird, während sie jedoch nicht andeuten sollen, dass das derart beschriebene Element zeitlich, räumlich, einstufend oder auf irgendeine andere Weise in einer bestimmten Abfolge angeordnet sein muss.
  • 6 stellt eine Ausführungsform einer Datenverarbeitungsumgebung 600 dar, die imstande ist, die oben beschriebenen Vorgänge zu unterstützen. Die Module und Systeme können in einer Vielzahl verschiedener Hardwarearchitekturen und Formfaktoren umgesetzt sein, einschließlich den in 4 gezeigten.
  • Das Befehlsausführungsmodul 601 weist eine Zentraleinheit auf, um Befehle zwischenzuspeichern und auszuführen und Aufgaben an die übrigen gezeigten Module und Systeme zu verteilen. Es kann einen Anweisungsstapel, einen Pufferspeicher zum Speichern von Zwischen- und Endergebnissen, und einen Massenspeicher zum Speichern von Anwendungen und Betriebssystemen aufweisen. Das Befehlsausführungsmodul kann auch als eine zentrale Koordinations- und Aufgabenzuweisungseinheit für das System dienen.
  • Das Bildschirmerstellungsmodul 621 zeichnet Objekte auf dem einen oder mehreren Bildschirmen zur Betrachtung durch den Nutzer. Es kann derart angepasst werden, dass es die Daten vom virtuellen Objektverhaltensmodul 604, das im Folgenden beschrieben ist, empfängt, und das virtuelle Objekt und andere Objekte und Kräfte auf dem/n entsprechenden Bildschirm/en wiedergibt. Somit würden die Daten vom virtuellen Objektverhaltensmodul zum Beispiel die Position und Dynamik des virtuellen Objekts und zugehöriger Gesten, Kräfte und Objekte bestimmen, und das Bildschirmerstellungsmodul würde das virtuelle Objekt und zugehörige Objekte sowie das Umfeld auf einem Bildschirm dementsprechend darstellen. Das Bildschirmerstellungsmodul könnte ferner derart angepasst sein, dass es Daten vom nebenstehenden Bildschirmperspektivenmodul 607, das im Folgenden beschrieben ist, empfängt, um entweder einen Ziellandebereich für das virtuelle Objekt zu zeigen, falls das virtuelle Objekt zur Anzeige der Vorrichtung, welcher das nebenstehende Bildschirmperspektivenmodul zugeordnet ist, bewegt werden kann. Wenn somit das virtuelle Objekt zum Beispiel von einem Hauptschirm zu einem Hilfsschirm bewegt wird, könnte das nebenstehende Bildschirmperspektivenmodul 2 Daten an das Bildschirmerstellungsmodul senden, um zum Beispiel in Schattenform eine oder mehrere Ziellandebereiche für das virtuelle Objekt auf dieser Spur zu den Handbewegungen oder Augenbewegungen eines Nutzers vorzuschlagen.
  • Das Objekt- und Gestenerkennungssystem 622 kann derart angepasst sein, dass es Hand- und Armgesten eines Nutzers erkennt und verfolgt. Ein solches Modul kann dazu verwendet werden, Hände, Finger, Fingergesten, Handbewegungen und eine Position von Händen in Bezug auf Anzeigen zu erkennen. Zum Beispiel könnte das Objekt- und Gestenerkennungsmodul feststellen, dass ein Nutzer einer Körperteilgeste gemacht hat, um ein virtuelles Objekt auf den einen oder den anderen der Mehrfachbildschirme fallenzulassen oder zu werfen, oder dass der Nutzer eine Körperteilgeste gemacht hat, um das virtuelle Objekt zu einer Einfassung des einen oder des anderen der Mehrfachbildschirme zu bewegen. Das Objekt- und Gestenerkennungssystem kann mit einer Kamera oder einer Kameraanordnung, einem Mikrofon oder einer Mikrofonanordnung, einem Berührungsbildschirm oder einer Tastfläche, oder einer Zeigevorrichtung, oder irgendeiner Kombination dieser Elemente gekoppelt sein, um Gesten und Befehle des Nutzers zu erkennen.
  • Der Berührungsbildschirm oder die Tastfläche des Objekt- und Gestenerkennungssystems kann einen Berührungsbildschirmsensor aufweisen. Daten vom Sensor können Hardware, Software, Firmware oder einer Kombination derselben eingespeist werden, um die Berührungsgeste der Hand eines Nutzers auf dem Bildschirm oder der Fläche in ein entsprechendes dynamisches Verhalten eines virtuellen Objekts umzusetzen. Die Sensordaten können für Impuls- und Trägkeitsfaktoren verwendet werden, um eine Vielfalt von Impulsverhalten für ein virtuelles Objekt basierend auf der Eingabe von der Hand eines Nutzers, wie zum Beispiel einer Wischgeschwindigkeit eines Fingers eines Nutzers in Bezug auf den Bildschirm, zu ermöglichen. Kneifgesten können als ein Befehl interpretiert werden, ein virtuelles Objekt vom Anzeigeschirm abzuheben, oder um mit der Erzeugung einer virtuellen Bindung in Zusammenhang mit dem virtuellen Objekt zu beginnen, oder um auf einer Anzeige hinein oder heraus zu zoomen. Ähnliche Befehle können durch das Objekt- und Gestenerkennungssystem erzeugt werden, indem es eine oder mehrere Kameras ohne Inanspruchnahmen einer Tastfläche verwendet.
  • Das Aufmerksamkeitsausrichtungsmodul 623 kann mit Kameras oder anderen Sensoren ausgestattet sein, um die Position oder Ausrichtung des Gesichts oder der Hände eines Nutzers zu verfolgen. Wird eine Geste oder ein Sprachbefehl ausgegeben, kann das System den entsprechenden Bildschirm für die Geste bestimmen. In einem Beispiel ist eine Kamera in der Nähe jeder Anzeige angebracht, um zu erkennen, ob der Nutzer diese Anzeige ansieht. Ist dies der Fall, so wird das Aufmerksamkeitsausrichtungsmodul dem Objekt- und Gestenerkennungsmodul 622 zur Verfügung gestellt, um sicherzustellen, dass die Gesten oder Befehle mit der entsprechenden Bibliothek für die aktive Anzeige in Verbindung gebracht werden. Desgleichen können die Befehle ignoriert werden, falls der Nutzer keinen der Bildschirme ansieht.
  • Das Vorrichtungsnäherungserkennungsmodul 625 kann Näherungssensoren, Kompasse, Satellitennavigationssystem-(GPS)-Empfänger, persönliche Netzwerkkommunikationen und andere Arten von Sensoren zusammen mit Triangulation und anderen Verfahren zur Ermittlung der Nähe anderer Vorrichtungen verwenden. Sobald eine nahegelegene Vorrichtung erkannt worden ist, kann diese im System registriert werden und ihre Art als eine Eingabevorrichtung oder eine Anzeigevorrichtung oder beides festgelegt werden. Für eine Eingabevorrichtung können empfangene Daten dann auf das Objektgesten- und Erkennungssystem 622 angewandt werden. Für eine Anzeigevorrichtung kann diese durch das nebenstehende Bildschirmperspektivenmodul 607 berücksichtigt werden.
  • Das virtuelle Objektverhaltensmodul 604 ist derart angepasst, dass es Eingaben vom Objekt- und Geschwindigkeits- und Richtungsmodul empfängt und solche Eingaben auf ein virtuelles Objekt, das auf der Anzeige gezeigt ist, anwendet. Somit würde zum Beispiel das Objekt- und Gestenerkennungssystem eine Nutzergeste interpretieren und die erfassten Bewegungen der Hand eines Nutzers auf erkannte Bewegungen umlegen, das virtuelle Objektverfolgungsmodul würde die Position und Bewegungen des virtuellen Objekts mit den durch das Objekt- und Gestenerkennungssystem erkannten Bewegungen verbinden, das Objekt- und Geschwindigkeits- und Richtungsmodul würde die Dynamik der virtuellen Objektbewegungen erfassen und das virtuelle Objektverhaltensmodul würde die Eingabe vom Objekt- und Geschwindigkeits- und Richtungsmodul empfangen, um Daten zu erzeugen, welche die Bewegungen des virtuellen Objekts lenken würden, sodass sie der Eingabe vom Objekt- und -Geschwindigkeits- und Richtungsmodul entsprechen.
  • Das virtuelle Objektverfolgungsmodul 606 kann andererseits derart angepasst sein, dass es basierend auf Eingaben vom Objekt- und Gestenerkennungsmodul verfolgt, wo ein virtuelles Objekt im dreidimensionalen Raum in der Umgebung einer Anzeige angeordnet sein sollte, und welcher Körperteil des Nutzers das virtuelle Objekt hält. Das virtuelle Objektverfolgungsmodul 606 kann zum Beispiel ein virtuelles Objekt verfolgen, während es sich über und zwischen Bildschirmen bewegt, und verfolgen, welcher Körperteil des Nutzers das virtuelle Objekt hält. Das Verfolgen des Körperteils, der das virtuelle Objekt hält, ermöglicht eine kontinuierliche Kenntnis der Luftbewegungen eines Körperteils, und somit letztendlich eine Kenntnis, ob das virtuelle Objekt auf einen oder mehrere Bildschirme freigegeben worden ist.
  • Das Gesten zu Ansicht- und Bildschirmsynchronisationsmodul 608, empfängt die Auswahl der Ansicht oder des Bildschirms oder beides vom Aufmerksamkeitsausrichtungsmodul 623 und in manchen Fällen Sprachbefehle, um zu bestimmen, welche Ansicht die aktive Ansicht ist, und welcher Bildschirm der aktive Bildschirm ist. Es bewirkt dann, dass die entsprechende Gestenbibliothek für das Objekt- und Gestenerkennungssystem 622 geladen wird. Verschiedene Ansichten einer Anwendung auf einem oder mehreren Bildschirmen können mit alternativen Gestenbibliotheken oder einem Satz von Gestenvorlagen für eine gegebene Ansicht verbunden werden. Als ein Beispiel startet in 1A eine Kneif-Freigabe-Geste einen Torpedo, während in 1B dieselbe Geste eine Wasserbombe startet.
  • Das nebenstehende Bildschirmperspektivenmodul 607, welches das Vorrichtungsnäherungserkennungsmodul 625 umfassen oder mit diesem gekoppelt sein kann, kann derart angepasst sein, dass es einen Winkel und eine Position einer Anzeige in Bezug auf eine andere Anzeige bestimmt. Eine projizierte Anzeige weist zum Beispiel ein Bild auf, das auf eine Wand oder eine Leinwand projiziert wird. Die Fähigkeit, eine Nähe eines nahegelegenen Bildschirms und einen entsprechenden Winkel oder eine Ausrichtung einer von diesem projizierten Anzeige zu erkennen, kann zum Beispiel entweder mit einem Infrarotstrahler und - empfänger oder elektromagnetischer oder Photodetektions-Erfassungsfähigkeit, erzielt werden. Für Technologien, welche projizierte Anzeigen mit Berührungseingabe ermöglichen, kann das eingehende Video analysiert werden, um die Position einer projizierten Anzeige zu ermitteln und die durch das Anzeigen in einem Winkel verursachte Verzerrung zu korrigieren. Ein Beschleunigungsmesser, ein Magnetometer, Kompass oder eine Kamera kann verwendet werden, um den Winkel zu ermitteln, in welchem eine Vorrichtung gehalten wird, während Infrarotstrahler und Kameras ermöglichen könnten, die Ausrichtung der Bildschirmvorrichtung in Bezug auf die Sensoren an einer benachbarten Vorrichtung zu ermitteln. Das nebenstehende Bildschirmperspektivenmodul 607 kann auf diese Weise Koordinaten eines benachbarten Bildschirms in Bezug auf seine eigenen Bildschirmkoordinaten ermitteln. Somit kann das nebenstehende Bildschirmperspektivenmodul ermitteln, welche Vorrichtungen nahe beieinander angeordnet sind, sowie weitere mögliche Ziele zum Bewegen eines oder mehrerer virtueller Objekte über Bildschirme hinweg. Das nebenstehende Bildschirmperspektivenmodul kann ferner ermöglichen, dass die Position der Bildschirme auf ein Modell eines dreidimensionalen Raums abgestimmt wird, welches alle bestehenden Objekte und virtuellen Objekte repräsentiert.
  • Das Objekt- und Geschwindigkeits- und Richtungsmodul 603 kann derart angepasst sein, dass es die Dynamik eines virtuellen Objekts, das bewegt wird, wie zum Beispiel seine Bahn, Geschwindigkeit (entweder lineare oder Winkelgeschwindigkeit), seinen Impuls (entweder linearer oder Winkelimpuls), etc., abschätzt, indem es Eingaben vom virtuellen Objektverfolgungsmodul empfängt. Das Objekt- und Geschwindigkeits- und Richtungsmodul kann ferner derart angepasst sein, dass es die Dynamik irgendwelcher physischen Kräfte, zum Beispiel durch Abschätzen von Beschleunigung, Ablenkung, Dehnungsgrad einer virtuellen Bindung, etc., und das dynamische Verhalten eines virtuellen Objekts, sobald es von einem Körperteil eines Nutzers freigegeben worden ist, abschätzt. Das Objekt- und Geschwindigkeits- und Richtungsmodul kann auch Bildbewegung, -größe und Winkeländerungen verwenden, um die Geschwindigkeit von Objekten, wie zum Beispiel die Geschwindigkeit von Händen und Fingern, abzuschätzen.
  • Das Impuls- und Trägheitsmodul 602 kann Bildbewegung, Bildgröße und Winkeländerungen von Objekten in der Bildebene oder in einem dreidimensionalen Raum verwenden, um die Geschwindigkeit und Richtung von Objekten im Raum oder auf der Anzeige abzuschätzen. Das Impuls- und Trägheitsmodul ist mit dem Objekt- und Gestenerkennungssystem 622 gekoppelt, um die Geschwindigkeit von Gesten von Händen, Fingern und anderen Körperteilen abzuschätzen, und dann diese Schätzungen anzuwenden, um Impuls und Geschwindigkeiten von virtuellen Objekten zu bestimmen, für welche die Geste gedacht ist.
  • Das 3D-Bildinteraktions- und Wirkungsmodul 605 verfolgt Nutzerinteraktionen mit 3D-Bildern, die erscheinen, als würden sie aus einem oder mehreren Bildschirmen hervorragen. Der Einfluss von Objekten in der Z-Achse (hin zur und weg von der Ebene des Bildschirms) kann zusammen mit dem relativen Einfluss dieser Objekte untereinander berechnet werden. Zum Beispiel kann ein Objekt, das durch eine Nutzergeste geworfen wird, durch 3D-Objekte im Vordergrund beeinflusst werden, bevor das virtuelle Objekt die Ebene des Bildschirms erreicht. Diese Objekte können die Richtung oder Geschwindigkeit des Projektils ändern oder dieses komplett zerstören. Das Objekt kann durch das 3D-Bildinteraktions- und Wirkungsmodul im Vordergrund einer oder mehrerer der Anzeigen wiedergegeben werden.
  • Die folgenden Bestimmungen und/oder Beispiele beziehen sich auf weitere Ausführungsformen oder Beispiele. Besonderheiten in diesen Beispielen können überall in einer oder mehreren Ausführungsformen verwendet werden. Die verschiedenen Merkmale der verschiedenen Ausführungsformen oder Beispiele können unterschiedlich kombiniert werden, wobei sie manche der Merkmale aufweisen und andere nicht, um zu einer Vielzahl unterschiedlicher Anwendungen zu passen. Beispiele können Gegenstände umfassen wie zum Beispiel ein Verfahren, Mittel zum Ausführen von Aktivitäten des Verfahrens, mindestens ein maschinenlesbares Medium, welches Anweisungen umfasst, die, wenn sie durch eine Maschine ausgeführt werden, die Maschine veranlassen, die Aktivitäten des Verfahrens oder einer Vorrichtung oder eines Systems zur Ermöglichung von Hybridkommunikation im Einklang mit hierin beschriebenen Ausführungsformen und Beispielen auszuführen.
  • Manche Ausführungsformen betreffen Beispiel 1, das eine Vorrichtung aufweist, um persönliche Assistenz zur Pflege von Multimedia und zur Erstellung von Geschichten auf Datenverarbeitungsvorrichtungen zu ermöglichen, aufweisend: Erkennungs-/Empfangslogik zum Empfangen eines oder mehrerer Medienelemente in Zusammenhang mit einem Ereignis; eine Ereignisextraktionsmaschine zum Erfassen eines Themas von dem einen oder den mehreren Medienelementen, wobei das Thema basierend auf Aktivitäten, textlichem Inhalt und/oder Szenen in Zusammenhang mit dem Ereignis erfasst wird; und eine Geschichten- und Szenenaufteilungsmaschine zur Schaffung einer Mehrzahl von Geschichtenelementen zur Erstellung einer Geschichte in Zusammenhang mit dem Ereignis, wobei die Mehrzahl von Geschichtenelementen basierend auf mindestens einem von einem oder mehreren Charakteren, dem Thema in Zusammenhang mit dem Ereignis und/oder einer oder mehreren Emotionen in Zusammenhang mit dem einen oder mehreren Charakteren, erstellt werden, wobei die Geschichte über eine oder mehrere Anzeigevorrichtungen einem oder mehreren Nutzern, welche Zugriff auf die eine oder die mehreren Anzeigevorrichtungen haben, präsentiert wird.
  • Beispiel 2 umfasst den Gegenstand von Beispiel 1, ferner aufweisend: eine Personenauflösungsmaschine zum Extrahieren des einen oder der mehreren Charaktere von dem einen oder den mehreren Medienelementen, wobei der eine oder die mehreren Charaktere eine oder mehrere ihnen zugeordnete Rollen aufweisen, die eine oder mehrere Personen in Zusammenhang mit dem Ereignis repräsentieren; eine Emotionsverständnismaschine zur Bestimmung der einen oder der mehreren Emotionen von dem einen oder den mehreren Medienelementen, wobei die eine oder die mehreren Emotionen bestimmt werden basierend auf Ausdrücken in Zusammenhang mit dem einen oder den mehreren Charakteren; und eine Rückmeldungs- und Generierungs-/Präsentationslogik zum Erstellen der Geschichte basierend auf der Mehrzahl von Geschichtenelementen, wobei die Rückmeldungs- und Generierungs-/Präsentationslogik ferner dazu dient, das Veröffentlichen der Geschichte auf einer oder mehreren Web seiten zu ermöglichen.
  • Beispiel 3 umfasst den Gegenstand von Beispiel 1 oder 2, wobei die Geschichte veröffentlicht wird als eine soziale Veröffentlichung auf einer sozialen Netzwerkwebseite und/oder als ein Blog-Eintrag auf einer Nachrichten- oder Blogging-Webseite und/oder als eine Vorlagenveröffentlichung, die eine oder mehrere Geschichtenvorlagen aufweist, welche auf einer philanthropischen Webseite oder einer kommerziellen Webseite veröffentlicht werden.
  • Beispiel 4 umfasst den Gegenstand von Beispiel 3, wobei die eine oder mehreren Geschichtenvorlagen durch einen oder mehrere Nutzer heruntergeladen werden können, um Geschichten automatisch zu erstellen, indem die eine oder mehreren Geschichtenvorlagen, die eine Mehrzahl von mit der Geschichte verbundenen Elementen aufweisen, verwendet werden.
  • Beispiel 5 umfasst den Gegenstand von Beispiel 1, ferner aufweisend eine Überwachungslogik zum Überwachen des einen oder der mehreren Medienelemente, die von einer oder mehreren Medienquellen über ein Kommunikationsmedium empfangen werden, wobei die eine oder die mehreren Medienquellen eine Webseite, ein Media Feed, ein Medien-Abspielgerät, eine Datenverarbeitungsvorrichtung, eine Sensoranordnung, eine Kamera und/oder ein Mikrofon umfassen, wobei das eine oder die mehreren Medienelemente Bilder, Videos, Audios, Live-Chats, Textmitteilungen, Veröffentlichungen, Kommentare, Rückmeldungen und/oder Blogs umfassen.
  • Beispiel 6 umfasst den Gegenstand von Beispiel 1, wobei die Personenauflösungsmaschine ferner umfasst: eine Erkennungslogik für benannte Personen zum Extrahieren einer oder mehrerer Identitäten oder der einen oder der mehreren mit dem einen oder den mehreren Charakteren verbundenen Rollen von dem einen oder den mehreren Medienelementen, wobei die eine oder die mehreren Identitäten extrahiert werden basierend auf Kommentaren und/oder Beschreibungen in Zusammenhang mit dem einen oder den mehreren Charakteren, sodass eine mit einem Charakter verbundene Identität basierend auf einer Rolle, einem Kommentar und einer Beschreibung in Zusammenhang mit dem Charakter erfasst wird, wobei sich die Identität auf eine oder mehrere aus der Gruppe bestehend aus Elternteil, Kind, Verwandter, Freund, Nachbar, Mannschaftskollege, Trainer, Chef, Angestellter und Fremder bezieht; eine Co-Referenzauflösungslogik zum Auflösen einer oder mehrerer Bezugnahmen verbunden mit dem einen oder den mehreren Charakteren, wobei die eine oder die mehreren Bezugnahmen ein oder mehrere Pronomen verbunden mit dem einen oder den mehreren Charakteren aufweisen; eine kontextabhängige Entdeckungslogik zum Entdecken des einen oder der mehreren Standorte des Ereignisses, wobei der eine oder die mehreren Standorte entdeckt werden basierend auf Satellitennavigationssystem-(GPS)-Koordinaten in Bezug auf eine oder mehrere Datenverarbeitungsvorrichtungen, auf welche der eine oder die mehreren Charaktere Zugriff haben; und eine Rollenzuordnungslogik zum Ermitteln der einen oder mehreren Rollen verbunden mit dem einen oder den mehreren Charakteren, wobei die Rollenzuordnungslogik ferner dazu dient, einem Charakter des einen oder der mehreren Charaktere eine Rolle zuzuordnen basierend auf einem Kommentar in Bezug auf den Charakter, wobei die eine oder die mehreren Rollen sich ferner auf eine oder mehrere Beziehungen zwischen zwei oder mehr Charakteren beziehen, wobei die eine oder die mehreren Beziehungen eine oder mehrere der Beziehungen zwischen Eltern-Kind, Bruder-Schwester, Tante-Neffe, Großvater-Enkel, Mannschaftskollege-Mannschaftskollege, Trainer-Spieler, Nachbar-Nachbar, Chef-Untergebener, Besitzer-Angestellter, Partner-Partner und Fremder-Fremder umfassen.
  • Beispiel 7 umfasst den Gegenstand von Beispiel 1 oder 6, wobei die Ereignisextraktionsmaschine ferner umfasst: eine Ortsauflösungslogik zum Extrahieren von Standortinformationen in Bezug auf den einen oder die mehreren Standorte, der/die basierend auf den GPS-Koordinaten entdeckt wurden, wobei die Standortinformationen eine lokale Szene, eine lokale Kultur, ein lokales Klima, eine lokale Sprache, eine lokale Zeit und/oder eine lokale Geschichte umfassen, wobei die Standortinformationen heimische Ereignisse oder globale Ereignisse, die lokal durchgeführt werden, umfassen, sodass die lokale Szene einen Bauernmarkt, einen Flohmarkt, ein Bierfest, eine Neujahrsfeier, eine Fußballweltmeisterschaft und eine Königskrönung umfasst, wobei das Thema basierend auf den Standortinformationen gebildet wird; eine Zeitauflösungslogik zum Extrahieren von zeitlichen Informationen in Bezug auf den einen oder die mehreren Standorte; eine Themenmodellierungslogik zur statistischen Analyse von Wörtern, die von dem einen oder den mehreren Medienelementen erlangt wurden, wobei das Thema basierend auf den statistisch analysierten Wörtern bestätigt wird; und eine Szenenverständnislogik zum Analysieren sichtbarer Elemente in dem einen oder den mehreren Medienelementen, wobei die sichtbaren Elemente Objekte, Kleidung, andere Personen, Tiere, Vegetation, Wetter, Vordergründe und/oder Hintergründe in jedem der Medienelemente umfassen, wobei die Hintergründe einen oder mehrere der Gruppe bestehend aus Farbschemen, Wettermuster, Wandschatten und Stimmungen in Bildern basierend auf der allgemeinen Szenerie oder photographischen Techniken umfassen, wobei die sichtbaren Elemente analysiert werden, um eine Szene von dem Thema zu ermitteln, wobei die Szenenverständnislogik ferner dazu dient, Metadaten in Zusammenhang mit den sichtbaren Elementen oder dem einen oder den mehreren Charakteren in dem einen oder den mehreren Medienelementen zu analysieren, wobei die Erfassung der Metadaten in Echtzeit auf relevante Informationen über jedes der sichtbaren Elemente, den einen oder die mehreren Charaktere und die eine oder die mehreren Rollen oder die eine oder die mehreren Identitäten in Zusammenhang mit dem einen oder den mehreren Charakteren hinweist.
  • Beispiel 8 umfasst den Gegenstand von Beispiel 1 oder 6, wobei die Emotionsverständnismaschine ferner umfasst: eine Stimmungsanalyselogik zum Ermitteln der Stimmungen in Zusammenhang mit dem einen oder den mehreren Charakteren in jedem des einen oder der mehreren Medienelemente, wobei die Stimmungen ermittelt werden basierend auf einer semantischen Analyse der Metadaten in Zusammenhang mit dem einen oder den mehreren Charakteren, wobei die semantische Analyse eine psycho-linguistische Analyse des einen oder der mehreren Charaktere umfasst; und eine Gesichtsausdrucksanalyselogik zur Ermittlung von Gesichtsausdrücken in Zusammenhang mit jedem des einen oder der mehreren Charaktere in einer oder mehreren Einstellungen in jedem des einen oder der mehreren Medienelemente.
  • Beispiel 9 umfasst den Gegenstand von Beispiel 1 oder 6, wobei die Geschichtenaufteilungsmaschine ferner umfasst: eine Zielfindungslogik zum Extrahieren von Zielen und der Reihenfolge der Elemente der Geschichte; einen interaktiven Editor, um die Bearbeitung von Inhalten der Geschichte zu ermöglichen; und einen Hashtaggenerator, um einen oder mehrere Hashtags mit der Geschichte zu verbinden.
  • Manche Ausführungsformen gehören zu Beispiel 10, welches ein Verfahren zum Ermöglichen persönlicher Assistenz für die Pflege von Multimedia und die Erstellung von Geschichten auf Datenverarbeitungsvorrichtungen umfasst, aufweisend: das Empfangen, durch ein oder mehrere Erfassungs-/Sensorkomponenten auf einer Datenverarbeitungsvorrichtung, eines oder mehrerer Medienelemente in Bezug auf ein Ereignis; das Erfassen eines Themas von dem einen oder den mehreren Medienelementen, wobei das Thema basierend auf Aktivitäten, Textinhalt und/oder Szenen in Zusammenhang mit dem Ereignis erfasst wird; und das Bilden einer Mehrzahl von Geschichtenelementen zur Erstellung einer Geschichte in Bezug auf das Ereignis, wobei die Mehrzahl von Geschichtenelementen basierend auf mindestens einem oder mehreren Charakteren und/oder dem mit dem Ereignis verbundenen Thema und/oder einer oder mehreren Emotionen in Bezug auf den einen oder die mehreren Charaktere gebildet wird, wobei die Geschichte über eine oder mehrere Anzeigevorrichtungen einem oder mehreren Nutzern, welche Zugriff auf die eine oder die mehreren Anzeigevorrichtungen haben, präsentiert wird.
  • Beispiel 11 umfasst den Gegenstand von Beispiel 10, ferner aufweisend: das Extrahieren des einen oder der mehreren Charaktere von dem einen oder den mehreren Medienelementen, wobei der eine oder die mehreren Charaktere eine oder mehrere ihnen zugeordnete Rollen aufweisen, die eine oder mehrere Personen in Zusammenhang mit dem Ereignis repräsentieren; das Bestimmen der einen oder der mehreren Emotionen von dem einen oder den mehreren Medienelementen, wobei die eine oder die mehreren Emotionen bestimmt werden basierend auf einem oder mehreren Ausdrücken in Zusammenhang mit dem einen oder den mehreren Charakteren; und das Erstellen der Geschichte basierend auf der Mehrzahl von Geschichtenelementen, wobei die Geschichte auf einer oder mehreren Webseiten veröffentlicht wird.
  • Beispiel 12 umfasst den Gegenstand von Beispiel 10 oder 11, wobei die Geschichte veröffentlicht wird als eine soziale Veröffentlichung auf einer sozialen Netzwerkwebseite und/oder als ein Blog-Eintrag auf einer Nachrichten- oder Blogging-Webseite und/oder als eine Vorlagenveröffentlichung, die eine oder mehrere Geschichtenvorlagen aufweist, welche auf einer philanthropischen Webseite oder einer kommerziellen Webseite veröffentlicht werden.
  • Beispiel 13 umfasst den Gegenstand von Beispiel 12, wobei die eine oder mehreren Geschichtenvorlagen durch einen oder mehrere Nutzer heruntergeladen werden können, um Geschichten automatisch zu erstellen, indem die eine oder mehreren Geschichtenvorlagen, die eine Mehrzahl von mit der Geschichte verbundenen Elementen aufweisen, verwendet werden.
  • Beispiel 14 umfasst den Gegenstand von Beispiel 10, ferner aufweisend eine Überwachung des einen oder der mehreren Medienelemente, die von einer oder mehreren Medienquellen über ein Kommunikationsmedium empfangen werden, wobei die eine oder die mehreren Medienquellen eine Webseite, ein Media Feed, ein Medien-Abspielgerät, eine Datenverarbeitungsvorrichtung, eine Sensoranordnung, eine Kamera und/oder ein Mikrofon umfassen, wobei das eine oder die mehreren Medienelemente Bilder, Videos, Audios, Live-Chats, Textmitteilungen, Veröffentlichungen, Kommentare, Rückmeldungen und/oder Blogs umfassen.
  • Beispiel 15 umfasst den Gegenstand von Beispiel 10, ferner aufweisend: das Extrahieren von dem einen oder den mehreren Medienelementen einer oder mehrerer Identitäten oder der eine oder der mehreren mit dem einen oder den mehreren Charakteren verbundenen Rollen, wobei die eine oder mehreren Identitäten extrahiert werden basierend auf Kommentaren und/oder Beschreibungen in Zusammenhang mit dem einen oder den mehreren Charakteren, sodass eine mit einem Charakter verbundene Identität erkannt wird basierend auf einer Rolle, einem Kommentar und/oder einer Beschreibung in Zusammenhang mit dem Charakter, wobei sich die Identität auf eine oder mehrere der folgenden bezieht: Elternteil, Kind, Verwandter, Freund, Nachbar, Mannschaftskollege, Trainer, Chef, Angestellter und/oder Fremder; das Auflösen einer oder mehreren Bezugnahmen in Zusammenhang mit dem einen oder den mehreren Charakteren, wobei die eine oder die mehreren Bezugnahmen ein oder mehrere mit dem einen oder den mehreren Charakteren verbundene Pronomen aufweisen; das Entdecken eines oder mehrerer Standorte des Ereignisses, wobei der eine oder die mehreren Standorte entdeckt werden basierend auf Satellitennavigationssystem-(GPS)-Koordinaten in Zusammenhang mit einer oder mehreren Datenverarbeitungsvorrichtungen, auf welche der eine oder die mehreren Charaktere Zugriff haben; und das Bestimmen der einen oder mehreren Rollen in Zusammenhang mit dem einen oder den mehreren Charakteren, wobei eine Rolle einem des einen oder der mehreren Charaktere zugeordnet wird basierend auf einem Kommentar in Bezug auf den Charakter, wobei sich die eine oder die mehreren Rollen ferner auf eine oder mehrere Beziehungen zwischen zwei oder mehr Charakteren beziehen, wobei die eine oder die mehreren Beziehungen eine oder mehrere der folgenden umfassen: Elternteil-Kind, Bruder-Schwester, Tante-Neffe, Großvater-Enkel, Mannschaftskollege-Mannschaftskollege, Trainer-Spieler, Nachbar-Nachbar, Chef-Untergebener, Besitzer-Angestellter, Partner-Partner oder Fremder-Fremder.
  • Beispiel 16 umfasst den Gegenstand von Beispiel 10 oder 15 ferner aufweisend: das Extrahieren von Standortinformationen in Bezug auf den einen oder die mehreren Standorte, der/die basierend auf den GPS-Koordinaten entdeckt wurden, wobei die Standortinformationen eine lokale Szene, eine lokale Kultur, ein lokales Klima, eine lokale Sprache, eine lokale Zeit und/oder eine lokale Geschichte umfassen, wobei die Standortinformationen heimische Ereignisse oder globale Ereignisse, die lokal durchgeführt werden, umfassen, sodass die lokale Szene einen Bauernmarkt, einen Flohmarkt, ein Bierfest, eine Neujahrsfeier, eine Fußballweltmeisterschaft und eine Königskrönung umfasst, wobei das Thema basierend auf den Standortinformationen gebildet wird; das Extrahieren zeitlicher Informationen in Bezug auf den einen oder die mehreren Standorte; das statistische Analysieren von Wörtern, die von dem einen oder den mehreren Medienelementen erlangt wurden, wobei das Thema basierend auf den statistisch analysierten Wörtern bestätigt wird; und das Analysieren sichtbarer Elemente in dem einen oder den mehreren Medienelementen, wobei die sichtbaren Elemente Objekte, Kleidung, andere Personen, Tiere, Vegetation, Wetter, Vordergründe und/oder Hintergründe in jedem der Medienelemente umfassen, wobei die Hintergründe einen oder mehrere der Gruppe bestehend aus Farbschemen, Wettermuster, Wandschatten und Stimmungen in Bildern basierend auf der allgemeinen Szenerie oder photographischen Techniken umfassen, wobei die sichtbaren Elemente analysiert werden, um eine Szene des Themas zu ermitteln, wobei das Analysieren ferner das Analysieren von Metadaten in Zusammenhang mit den sichtbaren Elementen oder dem einen oder den mehreren Charakteren in dem einen oder den mehreren Medienelementen umfasst, wobei die Erfassung der Metadaten in Echtzeit auf relevante Informationen über jedes der sichtbaren Elemente, den einen oder die mehreren Charaktere und die eine oder die mehreren Rollen oder die eine oder die mehreren Identitäten in Zusammenhang mit dem einen oder den mehreren Charakteren hinweist.
  • Beispiel 17 umfasst den Gegenstand von Beispiel 10 oder 15 ferner aufweisend: das Ermitteln der Stimmungen in Zusammenhang mit dem einen oder den mehreren Charakteren und in jedem des einen oder der mehreren Medienelemente, wobei die Stimmungen ermittelt werden basierend auf einer semantischen Analyse der Metadaten in Zusammenhang mit dem einen oder den mehreren Charakteren, wobei die semantische Analyse eine psycho-linguistische Analyse des einen oder der mehreren Charaktere umfasst; und das Ermitteln von Gesichtsausdrücken in Zusammenhang mit jedem des einen oder der mehreren Charaktere in einer oder mehreren Einstellungen in jedem des einen oder der mehreren Medienelemente.
  • Beispiel 18 umfasst den Gegenstand von Beispiel 10 oder 15 ferner aufweisend: das Extrahieren der Ziele und Abfolgen von Elementen der Geschichte; das Ermöglichen der Bearbeitung von Inhalten der Geschichte; und das Hinzufügen eines oder mehrerer Hashtags zur Geschichte.
  • Manche Ausführungsformen gehören zu Beispiel 19 und weisen ein System auf, das eine Speichervorrichtung, welche Anweisungen aufweist, und einen Prozessor zum Ausführen der Anweisungen umfasst, um einem Mechanismus zu ermöglichen: über eine oder mehrere Erfassungs-/Sensorkomponenten auf einer Datenverarbeitungsvorrichtung ein oder mehrere Medienelemente in Zusammenhang mit einem Ereignis zu empfangen; ein Thema von einem oder mehreren Medienelementen zu erfassen, wobei das Thema erfasst wird basierend auf Aktivitäten und/oder Textinhalt und/oder Szenen in Zusammenhang mit dem Ereignis; und eine Mehrzahl von Geschichtenelementen zu bilden, um eine Geschichte in Bezug auf das Ereignis zu erstellen, wobei die Mehrzahl von Geschichtenelementen gebildet werden basierend auf einem oder mehreren Charakteren, dem Thema in Zusammenhang mit dem Ereignis und/oder einer oder mehreren Emotionen in Zusammenhang mit dem einen oder mehreren Charakteren, wobei die Geschichte über eine oder mehrere Anzeigevorrichtungen einem oder mehreren Nutzern, die Zugriff auf die eine oder die mehreren Anzeigevorrichtungen haben, präsentiert wird.
  • Beispiel 20 umfasst den Gegenstand von Beispiel 19, wobei der Mechanismus ferner dazu dient: den einen oder die mehreren Charaktere von dem einen oder den mehreren Medienelementen zu extrahieren, wobei der eine oder die mehreren Charaktere eine oder mehrere ihnen zugeordnete Rollen aufweisen, die eine oder mehrere Personen in Zusammenhang mit dem Ereignis repräsentieren; die eine oder die mehreren Emotionen von dem einen oder den mehreren Medienelementen zu ermitteln, wobei die eine oder die mehreren Emotionen bestimmt werden basierend auf einem oder mehreren Ausdrücken in Zusammenhang mit dem einen oder den mehreren Charakteren; und die Geschichte basierend auf der Mehrzahl von Geschichtenelementen zu erstellen, wobei die Geschichte auf einer oder mehreren Webseiten veröffentlicht wird.
  • Beispiel 21 umfasst den Gegenstand von Beispiel 19 oder 20, wobei die Geschichte veröffentlicht wird als eine soziale Veröffentlichung auf einer sozialen Netzwerkwebseite und/oder als ein Blog-Eintrag auf einer Nachrichten- oder Blogging-Webseite und/oder als eine Vorlagenveröffentlichung, die eine oder mehrere Geschichtenvorlagen aufweist, welche auf einer philanthropischen Webseite oder einer kommerziellen Webseite veröffentlicht werden.
  • Beispiel 22 umfasst den Gegenstand von Beispiel 21, wobei die eine oder die mehreren Geschichtenvorlagen durch den einen oder die mehreren Nutzer heruntergeladen werden können, um unter Verwendung der einen oder der mehreren Geschichtenvorlagen, die eine Mehrzahl von mit der Geschichte verbundenen Elementen aufweisen, automatisch Geschichten zu erstellen.
  • Beispiel 23 umfasst den Gegenstand von Beispiel 19, wobei der Mechanismus ferner dazu dient, das eine oder die mehreren Medienelemente, die von einer oder mehreren Medienquellen über ein Kommunikationsmedium empfangen werden, zu überwachen, wobei die eine oder die mehreren Medienquellen eine Webseite, ein Media Feed, ein Medien-Abspielgerät, eine Datenverarbeitungsvorrichtung, eine Sensoranordnung, eine Kamera und/oder ein Mikrofon umfassen, wobei das eine oder die mehreren Medienelemente Bilder, Videos, Audios, Live-Chats, Textmitteilungen, Veröffentlichungen, Kommentare, Rückmeldungen und/oder Blogs umfassen.
  • Beispiel 24 umfasst den Gegenstand von Beispiel 19, wobei der Mechanismus ferner dazu dient: von dem einen oder den mehreren Medienelementen eine oder mehrere Identitäten oder die eine oder die mehreren mit dem einen oder den mehreren Charakteren verbundenen Rollen zu extrahieren, wobei die einen oder mehreren Identitäten extrahiert werden basierend auf Kommentaren und/oder Beschreibungen in Zusammenhang mit dem einen oder den mehreren Charakteren, sodass eine mit einem Charakter verbundene Identität erkannt wird basierend auf einer Rolle, einem Kommentar und/oder einer Beschreibung in Zusammenhang mit dem Charakter, wobei sich die Identität auf eine oder mehrere der folgenden bezieht: Elternteil, Kind, Verwandter, Freund, Nachbar, Mannschaftskollege, Trainer, Chef, Angestellter und/oder Fremder; eine oder mehrere Bezugnahmen in Zusammenhang mit dem einen oder den mehreren Charakteren aufzulösen, wobei die eine oder die mehreren Bezugnahmen ein oder mehrere Pronomen verbunden mit dem einen oder den mehreren Charakteren aufweist; einen oder mehrere Standorte des Ereignisses zu entdecken, wobei der eine oder die mehreren Standorte entdeckt werden basierend auf Satellitennavigationssystem-(GPS)-Koordinaten in Bezug auf eine oder mehrere Datenverarbeitungsvorrichtungen, auf welche der eine oder die mehreren Charaktere Zugriff haben; und die eine oder die mehreren mit dem einen oder den mehreren Charakteren verbundenen Rollen zu ermitteln, wobei eine Rolle einem Charakter des einen oder der mehreren Charaktere zugeordnet wird basierend auf einem Kommentar in Bezug auf den Charakter, wobei die eine oder die mehreren Rollen sich ferner auf eine oder mehrere Beziehungen zwischen zwei oder mehreren Charakteren beziehen, wobei die eine oder die mehreren Beziehungen eine oder mehrere der folgenden umfassen: Elternteil-Kind, Bruder-Schwester, Tante-Neffe, Großvater-Enkel, Mannschaftskollege-Mannschaftskollege, Trainer-Spieler, Nachbar-Nachbar, Chef-Untergebener, Eigentümer-Angestellter, Partner-Partner und/oder Fremder-Fremder.
  • Beispiel 25 umfasst den Gegenstand von Beispiel 19 oder 24, wobei der Mechanismus ferner dazu dient: Standortinformationen in Bezug auf den einen oder die mehreren Standorte, der/die basierend auf den GPS-Koordinaten entdeckt wurden, zu extrahieren, wobei die Standortinformationen eine lokale Szene, eine lokale Kultur, ein lokales Klima, eine lokale Sprache, eine lokale Zeit und/oder eine lokale Geschichte umfassen, wobei die Standortinformationen heimische Ereignisse oder globale Ereignisse, die lokal durchgeführt werden, umfassen, sodass die lokale Szene einen Bauernmarkt, einen Flohmarkt, ein Bierfest, eine Neujahrsfeier, eine Fußballweltmeisterschaft und eine Königskrönung umfasst, wobei das Thema basierend auf den Standortinformationen gebildet wird; zeitliche Informationen in Bezug auf den einen oder die mehreren Standorte zu extrahieren; Wörter statistisch zu analysieren, die von dem einen oder den mehreren Medienelementen erlangt wurden, wobei das Thema basierend auf den statistisch analysierten Wörtern bestätigt wird; und sichtbare Elemente in dem einen oder den mehreren Medienelementen zu analysieren, wobei die sichtbaren Elemente Objekte, Kleidung, andere Personen, Tiere, Vegetation, Wetter, Vordergründe und/oder Hintergründe in jedem der Medienelemente umfassen, wobei die Hintergründe einen oder mehrere der Gruppe bestehend aus Farbschemen, Wettermuster, Wandschatten und Stimmungen in Bildern basierend auf der allgemeinen Szenerie oder photographischen Techniken umfassen, wobei die sichtbaren Elemente analysiert werden, um eine Szene von dem Themas zu ermitteln, wobei das Analysieren ferner umfasst das Analysieren von Metadaten in Zusammenhang mit den sichtbaren Elementen oder dem einen oder den mehreren Charakteren in dem einen oder den mehreren Medienelementen, wobei die Erfassung der Metadaten in Echtzeit auf relevante Informationen über jedes der sichtbaren Elemente, den einen oder die mehreren Charaktere und die eine oder die mehreren Rollen oder die eine oder die mehreren Identitäten in Zusammenhang mit dem einen oder den mehreren Charakteren hinweist.
  • Beispiel 26 umfasst den Gegenstand von Beispiel 19 oder 24, wobei der Mechanismus ferner dazu dient: Stimmungen in Zusammenhang mit dem einen oder den mehreren Charakteren und in jedem des einen oder der mehreren Medienelemente zu ermitteln, wobei die Stimmungen ermittelt werden basierend auf einer semantischen Analyse der Metadaten in Zusammenhang mit dem einen oder den mehreren Charakteren, wobei die semantische Analyse eine psycho-linguistische Analyse des einen oder der mehreren Charaktere umfasst; und Gesichtsausdrücke in Zusammenhang mit jedem des einen oder der mehreren Charaktere in einer oder mehreren Einstellungen in jedem des einen oder der mehreren Medienelemente zu ermitteln.
  • Beispiel 27 umfasst den Gegenstand von Beispiel 19 oder 24, wobei der Mechanismus ferner dazu dient: Ziele und Abfolgen von Elementen der Geschichte zu extrahieren; die Bearbeitung von Inhalten der Geschichte zu ermöglichen; und ein oder mehrere Hashtags zur Geschichte hinzufügen.
  • Manche Ausführungsformen gehören zu Beispiel 28 und umfassen eine Vorrichtung aufweisend: Mittel zum Empfangen, durch ein oder mehrere Erfassungs-/Sensorkomponenten auf einer Datenverarbeitungsvorrichtung, eines oder mehrerer Medienelemente in Bezug auf ein Ereignis; Mittel zum Erfassen eines Themas von dem einen oder den mehreren Medienelementen, wobei das Thema basierend auf Aktivitäten, Textinhalt und/oder Szenen in Zusammenhang mit dem Ereignis erfasst wird; und Mittel zum Bilden einer Mehrzahl von Geschichtenelementen zur Erstellung einer Geschichte in Bezug auf das Ereignis, wobei die Mehrzahl von Geschichtenelementen basierend auf mindestens einem des einen oder der mehreren Charaktere und/oder dem mit dem Ereignis verbundenen Thema und/oder einer oder mehreren Emotionen in Bezug auf den einen oder die mehreren Charaktere gebildet wird, wobei die Geschichte über ein oder mehrere Anzeigevorrichtungen einem oder mehreren Nutzern, welche Zugriff auf die eine oder die mehreren Anzeigevorrichtungen haben, präsentiert wird.
  • Beispiel 29 umfasst den Gegenstand von Beispiel 28, ferner aufweisend: Mittel zum Extrahieren des einen oder der mehreren Charaktere von dem einen oder den mehreren Medienelementen, wobei der eine oder die mehreren Charaktere eine oder mehrere ihnen zugeordnete Rollen aufweisen, die eine oder mehrere Personen in Zusammenhang mit dem Ereignis repräsentieren; Mittel zum Bestimmen der einen oder der mehreren Emotionen von dem einen oder den mehreren Medienelementen, wobei die eine oder die mehreren Emotionen bestimmt werden basierend auf einem oder mehreren Ausdrücken in Zusammenhang mit dem einen oder den mehreren Charakteren; und Mittel zum Erstellen der Geschichte basierend auf der Mehrzahl von Geschichtenelementen, wobei die Geschichte auf einer oder mehreren Webseiten veröffentlicht wird.
  • Beispiel 30 umfasst den Gegenstand von Beispiel 28 oder 29, wobei die Geschichte veröffentlicht wird als eine soziale Veröffentlichung auf einer sozialen Netzwerkwebseite und/oder als ein Blog-Eintrag auf einer Nachrichten- oder Blogging-Webseite und/oder als eine Vorlagenveröffentlichung, die eine oder mehrere Geschichtenvorlagen aufweist, welche auf einer philanthropischen Webseite oder einer kommerziellen Webseite veröffentlicht werden.
  • Beispiel 31 umfasst den Gegenstand von Beispiel 28, wobei die eine oder die mehreren Geschichtenvorlagen durch den einen oder die mehreren Nutzer heruntergeladen werden können, um unter Verwendung der einen oder der mehreren Geschichtenvorlagen, die eine Mehrzahl von mit der Geschichte verbundenen Elementen aufweisen, automatisch Geschichten zu erstellen.
  • Beispiel 32 umfasst den Gegenstand von Beispiel 28, ferner aufweisend Mittel zum Überwachen des einen oder der mehreren Medienelemente, die von einer oder mehreren Medienquellen über ein Kommunikationsmedium empfangen werden, wobei die eine oder die mehreren Medienquellen eine Webseite, ein Media Feed, ein Medien-Abspielgerät, eine Datenverarbeitungsvorrichtung, eine Sensoranordnung, eine Kamera und/oder ein Mikrofon umfassen, wobei das eine oder die mehreren Medienelemente Bilder, Videos, Audios, Live-Chats, Textmitteilungen, Veröffentlichungen, Kommentare, Rückmeldungen und/oder Blogs umfassen.
  • Beispiel 33 umfasst den Gegenstand von Beispiel 28, ferner aufweisend: Mittel zum Extrahieren von dem einen oder den mehreren Medienelementen einer oder mehrerer Identitäten oder der einen oder der mehreren mit dem einen oder den mehreren Charakteren verbundenen Rollen, wobei die eine oder mehreren Identitäten extrahiert werden basierend auf Kommentaren und/oder Beschreibungen in Zusammenhang mit dem einen oder den mehreren Charakteren, sodass eine mit einem Charakter verbundene Identität erkannt wird basierend auf einer Rolle, einem Kommentar und/oder einer Beschreibung in Zusammenhang mit dem Charakter, wobei sich die Identität auf eine oder mehrere der folgenden bezieht: Elternteil, Kind, Verwandter, Freund, Nachbar, Mannschaftskollege, Trainer, Chef, Angestellter und/oder Fremder; Auflösen einer oder mehreren Bezugnahmen in Bezug auf den einen oder die mehrere Charaktere, wobei die eine oder die mehreren Bezugnahmen ein oder mehrere Pronomen verbunden mit dem einen oder den mehreren Charakteren aufweisen; Mittel zum Entdecken einer oder mehrerer Standorte des Ereignisses, wobei der eine oder die mehreren Standorte entdeckt werden basierend auf Satellitennavigationssystem-(GPS)-Koordinaten in Bezug auf eine oder mehrere Datenverarbeitungsvorrichtungen, auf welche der eine oder die mehreren Charaktere Zugriff haben; und Mittel zum Ermitteln der einen oder der mehreren mit dem einen oder den mehreren Charakteren verbundenen Rollen, wobei eine Rolle einem Charakter des einen oder der mehreren Charaktere zugeordnet wird basierend auf einem Kommentar in Bezug auf den Charakter, wobei die eine oder die mehreren Rollen sich ferner auf eine oder mehrere Beziehungen zwischen zwei oder mehreren Charakteren beziehen, wobei die eine oder die mehreren Beziehungen eine oder mehrere der folgenden umfassen: Elternteil-Kind, Bruder-Schwester, Tante-Neffe, Großvater-Enkel, Mannschaftskollege-Mannschaftskollege, Trainer-Spieler, Nachbar-Nachbar, Chef-Untergebener, Eigentümer-Angestellter, Partner-Partner und/oder Fremder-Fremder.
  • Beispiel 34 umfasst den Gegenstand von Beispiel 28 oder 33 ferner aufweisend: Mittel zum Extrahieren von Standortinformationen in Bezug auf den einen oder die mehreren Standorte, der/die basierend auf den GPS-Koordinaten entdeckt wurden, wobei die Standortinformationen eine lokale Szene, eine lokale Kultur, ein lokales Klima, eine lokale Sprache, eine lokale Zeit und/oder eine lokale Geschichte umfassen, wobei die Standortinformationen heimische Ereignisse oder globale Ereignisse, die lokal durchgeführt werden, umfassen, sodass die lokale Szene einen Bauernmarkt, einen Flohmarkt, ein Bierfest, eine Neujahrsfeier, eine Fußballweltmeisterschaft und eine Königskrönung umfasst, wobei das Thema basierend auf den Standortinformationen gebildet wird; Mittel zum Extrahieren zeitlicher Informationen in Bezug auf den einen oder die mehreren Standorte; Mittel zum statistischen Analysieren von Wörtern, die von dem einen oder den mehreren Medienelementen erlangt wurden, wobei das Thema basierend auf den statistisch analysierten Wörtern bestätigt wird; und Mittel zum Analysieren sichtbarer Elemente in dem einen oder den mehreren Medienelementen, wobei die sichtbaren Elemente Objekte, Kleidung, andere Personen, Tiere, Vegetation, Wetter, Vordergründe und/oder Hintergründe in jedem der Medienelemente umfassen, wobei die Hintergründe einen oder mehrere der Gruppe bestehend aus Farbschemen, Wettermuster, Wandschatten und Stimmungen in Bildern basierend auf der allgemeinen Szenerie oder photographischen Techniken umfassen, wobei die sichtbaren Elemente analysiert werden, um eine Szene des Themas zu ermitteln, wobei das Analysieren ferner umfasst das Analysieren von Metadaten in Zusammenhang mit den sichtbaren Elementen oder dem einen oder den mehreren Charakteren in dem einen oder den mehreren Medienelementen, wobei die Erfassung der Metadaten in Echtzeit auf relevante Informationen über jedes der sichtbaren Elemente, den einen oder die mehreren Charaktere und die eine oder die mehreren Rollen oder die eine oder die mehreren Identitäten in Zusammenhang mit dem einen oder den mehreren Charakteren hinweist.
  • Beispiel 35 umfasst den Gegenstand von Beispiel 28 oder 33 ferner aufweisend: Mittel zum Ermitteln von Stimmungen in Zusammenhang mit dem einen oder den mehreren Charakteren in jedem des einen oder der mehreren Medienelemente, wobei die Stimmungen ermittelt werden basierend auf einer semantischen Analyse der Metadaten in Zusammenhang mit dem einen oder den mehreren Charakteren, wobei die semantische Analyse eine psycho-linguistische Analyse des einen oder der mehreren Charaktere umfasst; und Mittel zum Ermitteln von Gesichtsausdrücken in Zusammenhang mit jedem des einen oder der mehreren Charaktere in einer oder mehreren Einstellungen in jedem des einen oder der mehreren Medienelemente.
  • Beispiel 36 umfasst den Gegenstand von Beispiel 28 oder 33 ferner aufweisend: Mittel zum Extrahieren der Ziele und Abfolgen von Elementen der Geschichte; Mittel zum Ermöglichen der Bearbeitung von Inhalten der Geschichte; und Mittel zum Hinzufügen eines oder mehrerer Hashtags zur Geschichte.
  • Beispiel 37 umfasst mindestens ein nichtflüchtiges maschinenlesbares Medium aufweisend eine Mehrzahl von Anweisungen, die, wenn sie auf einer Datenverarbeitungsvorrichtung ausgeführt werden, dazu dienen, ein Verfahren gemäß einem der Ansprüche oder Beispiele 10 - 18 umzusetzen oder durchzuführen.
  • Beispiel 38 umfasst mindestens ein maschinenlesbares Medium aufweisend eine Mehrzahl von Anweisungen, die, wenn sie auf einer Datenverarbeitungsvorrichtung ausgeführt werden, dazu dienen, ein Verfahren gemäß einem der Ansprüche oder Beispiele 10-18 umzusetzen oder durchzuführen.
  • Beispiel 39 umfasst ein System aufweisend einen Mechanismus zum Umsetzen oder Ausführen eines Verfahrens gemäß einem der Ansprüche oder Beispiele 10-18.
  • Beispiel 40 umfasst eine Vorrichtung aufweisend Mittel zum Ausführen eines Verfahrens gemäß einem der Ansprüche oder Beispiele 10-18.
  • Beispiel 41 umfasst eine Datenverarbeitungsvorrichtung, die derart gestaltet ist, dass sie ein Verfahren gemäß einem der Ansprüche oder Beispiele 10-18 umsetzt oder ausführt.
  • Beispiel 42 umfasst eine Kommunikationsvorrichtung, die derart gestaltet ist, dass sie ein Verfahren gemäß einem der Ansprüche oder Beispiele 10-18 umsetzt oder ausführt.
  • Beispiel 43 umfasst mindestens ein maschinenlesbares Medium aufweisend eine Mehrzahl von Anweisungen, die, wenn sie auf einer Datenverarbeitungsvorrichtung ausgeführt werden, dazu dienen, ein Verfahren gemäß einem der vorstehenden Ansprüche oder Beispiele durchzuführen, oder eine Vorrichtung gemäß einem der vorstehenden Ansprüche oder Beispiele zu schaffen.
  • Beispiel 44 umfasst mindestens ein nichtflüchtiges maschinenlesbares Medium aufweisend eine Mehrzahl von Anweisungen, die, wenn sie auf einer Datenverarbeitungsvorrichtung ausgeführt werden, dazu dienen, ein Verfahren gemäß einem der vorstehenden Ansprüche oder Beispiele umzusetzen oder durchzuführen, oder eine Vorrichtung gemäß einem der vorstehenden Ansprüche oder Beispiele zu schaffen.
  • Beispiel 45 umfasst ein System aufweisend einen Mechanismus zum Umsetzen oder Ausführen eines Verfahrens gemäß einem der vorstehenden Ansprüche oder Beispiele, oder zum Schaffen einer Vorrichtung gemäß einem der vorstehenden Ansprüche oder Beispiele.
  • Beispiel 46 umfasst eine Vorrichtung aufweisend Mittel zum Ausführen eines Verfahrens gemäß einem der vorstehenden Ansprüche oder Beispiele.
  • Beispiel 47 umfasst eine Datenverarbeitungsvorrichtung, die derart gestaltet ist, dass sie ein Verfahren gemäß einem der vorstehenden Ansprüche oder Beispiele umsetzt oder ausführt, oder eine Vorrichtung gemäß einem der vorstehenden Ansprüche oder Beispiele schafft.
  • Beispiel 48 umfasst eine Datenverarbeitungsvorrichtung, die derart gestaltet ist, dass sie ein Verfahren gemäß einem der vorstehenden Ansprüche oder Beispiele umsetzt oder ausführt, oder eine Vorrichtung gemäß einem der vorstehenden Ansprüche oder Beispiele schafft.
  • Die Zeichnungen und die vorangehende Beschreibung geben Beispiele von Ausführungsformen. Sachkundige des Fachgebiets werden erkennen, dass eines oder mehrere der beschriebenen Elemente problemlos zu einem einzigen Funktionselement kombiniert werden können. Alternativ dazu können bestimmte Elemente auf mehrere Funktionselemente aufgeteilt werden. Elemente von einer Ausführungsform können einer anderen Ausführungsform hinzufügt werden. Zum Beispiel können Abfolgen von hierin beschriebenen Vorgängen verändert werden und sind nicht auf die hierin beschriebene Art und Weise beschränkt. Des Weiteren müssen die Vorgänge in irgendeinem Flussdiagramm weder in der gezeigten Reihenfolge umgesetzt werden, noch müssen unbedingt sämtliche der Handlungen ausgeführt werden. Auch können jene Handlungen, die nicht von anderen Handlungen abhängen, parallel zu den anderen Handlungen ausgeführt werden. Der Umfang der Ausführungsformen ist keineswegs auf diese spezifischen Beispiele beschränkt. Es sind zahlreiche Variationen möglich, unabhängig davon, ob sie in der Spezifikation ausdrücklich genannt sind, oder nicht, wie zum Beispiel Unterschiede im Aufbau, der Dimension und der verwendeten Materialien. Der Umfang der Ausführungsformen ist mindestens so umfassend wie durch die folgenden Ansprüche dargelegt.

Claims (25)

  1. Vorrichtung, umfassend: Erkennungs-/Empfangslogik zum Empfangen eines oder mehrerer Medienelemente in Zusammenhang mit einem Ereignis; eine Ereignisextraktionsmaschine zum Erfassen eines Themas von dem einen oder den mehreren Medienelementen, wobei das Thema erfasst wird basierend auf Aktivitäten, Textinhalt und/oder Szenen in Zusammenhang mit dem Ereignis; und eine Geschichten- und Szenenaufteilungsmaschine zum Bilden einer Mehrzahl von Geschichtenelementen zum Erstellen einer Geschichte in Zusammenhang mit dem Ereignis, wobei die Mehrzahl von Geschichtenelementen gebildet werden basierend auf einem oder mehreren Charakteren, dem Thema verbunden mit dem Ereignis und/oder einer oder mehreren Emotionen in Zusammenhang mit dem einen oder den mehreren Charakteren, wobei die Geschichte über eine oder mehrere Anzeigevorrichtungen einem oder mehreren Nutzern, die Zugriff auf die eine oder die mehreren Anzeigevorrichtungen haben, präsentiert wird.
  2. Vorrichtung nach Anspruch 1, ferner aufweisend: eine Charakterauflösungsmaschine zum Extrahieren des einen oder der mehreren Charaktere von dem einen oder den mehreren Medienelementen, wobei dem einen oder den mehreren Charakteren eine oder mehrere Rollen zugeordnet sind, welche eine oder mehrere mit dem Ereignis verbundene Personen repräsentieren; eine Emotionsverständnismaschine zum Ermitteln der einen oder der mehreren Emotionen von dem einen oder den mehreren Medienelementen, wobei die eine oder die mehreren Emotionen ermittelt werden basierend auf einem oder mehreren Ausdrücken in Zusammenhang mit dem einen oder den mehreren Charakteren; und Rückmeldungs- und Generierungs-/Präsentationslogik zum Erstellen der Geschichte basierend auf der Mehrzahl von Geschichtenelementen, wobei die Rückmeldungs- und Generierungs-/Präsentationslogik ferner dazu dient, das Veröffentlichen der Geschichte auf einer oder mehreren Webseiten zu ermöglichen.
  3. Vorrichtung nach Anspruch 2, wobei die Geschichte als eine soziale Veröffentlichung auf einer sozialen Netzwerkwebseite und/oder als ein Blog-Eintrag auf einer Nachrichten- oder Blogging-Webseite und/oder als eine Vorlagenveröffentlichung, die eine oder mehrere Geschichtenvorlagen aufweist, welche auf einer philanthropischen Webseite oder einer kommerziellen Webseite veröffentlicht werden, veröffentlicht wird.
  4. Vorrichtung nach Anspruch 3, wobei die eine oder die mehreren Geschichtenvorlagen durch den einen oder die mehreren Nutzer heruntergeladen werden können, um unter Verwendung der einen oder der mehreren Geschichtenvorlagen, die eine Mehrzahl von mit der Geschichte verbundenen Elementen aufweisen, automatisch Geschichten zu erstellen.
  5. Vorrichtung nach Anspruch 1, ferner aufweisend Überwachungslogik zum Überwachen des einen oder der mehreren Medienelemente, die von einer oder mehreren Medienquellen über ein Kommunikationsmedium empfangen werden, wobei die eine oder die mehreren Medienquellen eine Webseite, einen Media Feed, ein Medien-Abspielprogramm, eine Datenverarbeitungsvorrichtung, eine Sensoranordnung, eine Kamera und/oder ein Mikrofon umfassen, wobei das eine oder die mehreren Medienelemente Bilder, Videos, Audios, Live-Chats, Textmitteilungen, Veröffentlichungen, Kommentare, Rückmeldungen und/oder Blog-Einträge umfassen.
  6. Vorrichtung nach Anspruch 1, wobei die Charakterauflösungsmaschine ferner umfasst: Auflösungslogik für benannte Personen zum Extrahieren einer oder mehrerer Identitäten oder der einen oder der mehreren mit dem einen oder den mehreren Charakteren verbundenen Rollen von dem einen oder den mehreren Medienelementen, wobei die eine oder die mehreren Identitäten extrahiert werden basierend auf Kommentaren und/oder Beschreibungen in Zusammenhang mit dem einen oder den mehreren Charakteren, sodass eine mit einem Charakter verbundene Identität erkannt wird basierend auf einer Rolle, einem Kommentar und/oder einer Beschreibung in Zusammenhang mit dem Charakter, wobei sich die Identität auf eine oder mehrere der folgenden bezieht: Elternteil, Kind, Verwandter, Freund, Nachbar, Mannschaftskollege, Trainer, Chef, Angestellter und Fremder; Co-Referenzauflösungslogik zum Auflösen einer oder mehrerer Bezugnahmen in Zusammenhang mit dem einen oder den mehreren Charakteren, wobei die eine oder die mehreren Bezugnahmen ein oder mehrere mit dem einen oder den mehreren Charakteren verbundene Pronomen aufweisen; kontextabhängige Entdeckungslogik zum Entdecken eines oder mehrerer Standorte des Ereignisses, wobei der eine oder die mehreren Standorte entdeckt werden basierend auf Satellitennavigationssystem-(GPS)-Koordinaten in Bezug auf eine oder mehrere Datenverarbeitungsvorrichtungen, auf welche der eine oder die mehreren Charaktere Zugriff haben; und Rollenzuordnungslogik zum Ermitteln der einen oder der mehreren mit dem einen oder den mehreren Charakteren verbundenen Rollen, wobei die Rollenzuordnungslogik ferner dazu dient, einem Charakter des einen oder der mehreren Charaktere eine Rolle zuzuordnen basierend auf einem Kommentar in Bezug auf den Charakter, wobei die eine oder die mehreren Rollen sich ferner auf eine oder mehrere Beziehungen zwischen zwei oder mehr Charakteren beziehen, wobei die eine oder die mehreren Beziehungen eine oder mehrere der folgenden umfassen: Elternteil-Kind, Bruder-Schwester, Tante-Neffe, Großvater-Enkel, Mannschaftskollege-Mannschaftskollege, Trainer-Spieler, Nachbar-Nachbar, Chef-Untergebener, Eigentümer-Angestellter, Partner-Partner und Fremder-Fremder.
  7. Vorrichtung nach Anspruch 1, wobei die Ereignisextraktionsmaschine ferner umfasst: Ortsauflösungslogik zum Extrahieren von Standortinformationen in Bezug auf den einen oder die mehreren Standorte, die basierend auf den GPS-Koordinaten entdeckt wurden, wobei die Standortinformationen eine lokale Szene, eine lokale Kultur, ein lokales Klima, eine lokale Sprache, eine lokale Zeit und/oder eine lokale Geschichte umfassen, wobei die Standortinformationen heimische Ereignisse oder globale Ereignisse, die lokal durchgeführt werden, umfassen, sodass die lokale Szene einen Bauernmarkt, einen Flohmarkt, ein Bierfest, eine Neujahrsfeier, eine Fußballweltmeisterschaft und eine Königskrönung umfasst, wobei das Thema basierend auf den Standortinformationen gebildet wird; Zeitauflösungslogik zum Extrahieren zeitlicher Informationen in Bezug auf den einen oder die mehreren Standorte; Themenmodellierungslogik zum statistischen Analysieren von Wörtern, die von jedem des einen oder der mehreren Medienelemente erlangt wurden, wobei das Thema basierend auf den statistisch analysierten Wörtern bestätigt wird; und Szenenverständnislogik zum Analysieren sichtbarer Elemente in dem einen oder den mehreren Medienelementen, wobei die sichtbaren Elemente Objekte, Kleidung, andere Personen, Tiere, Vegetation, Wetter, Vordergründe und/oder Hintergründe in jedem der Medienelemente umfassen, wobei die Hintergründe Farbschemen, Wettermuster, Wandschatten und/oder Stimmungen in Bildern basierend auf der allgemeinen Szenerie oder photographischen Techniken umfassen, wobei die sichtbaren Elemente analysiert werden, um eine Szene des Themas zu bestimmen, wobei die Szenenverständnislogik ferner dazu dient, Metadaten in Zusammenhang mit den sichtbaren Elementen oder dem einen oder den mehreren Charakteren in dem einen oder den mehreren Medienelementen zu analysieren, wobei die Erfassung der Metadaten in Echtzeit auf relevante Informationen über jedes der sichtbaren Elemente, den einen oder die mehreren Charaktere und die eine oder die mehreren Rollen oder die eine oder die mehreren Identitäten in Zusammenhang mit dem einen oder den mehreren Charakteren hinweist.
  8. Vorrichtung nach Anspruch 1, wobei die Emotionsverständnismaschine ferner umfasst: Stimmungsanalyselogik zum Ermitteln der Stimmungen in Zusammenhang mit jedem des einen oder der mehreren Charaktere und in jedem des einen oder der mehreren Medienelemente, wobei die Stimmungen ermittelt werden basierend auf einer semantischen Analyse der Metadaten in Zusammenhang mit einem oder mehreren Charakteren, wobei die semantische Analyse eine psycho-linguistische Analyse des einen oder der mehreren Charaktere umfasst; und Gesichtsausdrucksanalyselogik zur Ermittlung von Gesichtsausdrücken in Zusammenhang mit jedem des einen oder der mehreren Charaktere in einer oder mehreren Einstellungen in jedem des einen oder der mehreren Medienelemente.
  9. Vorrichtung nach Anspruch 1, wobei die Geschichtenaufteilungsmaschine ferner umfasst: Zielfindungslogik zum Extrahieren von Zielen und Abfolge von Elementen der Geschichte; einen interaktiven Editor zum Ermöglichen der Bearbeitung von Inhalten der Geschichte; und einen Hashtaggenerator zum Hinzufügen eines oder mehrerer Hashtags zur Geschichte.
  10. Verfahren umfassend: das Empfangen eines oder mehrerer Medienelemente in Zusammenhang mit einem Ereignis durch eine oder mehrere Erfassungs-/Sensorkomponenten an einer Datenverarbeitungsvorrichtung; das Erfassen eines Themas von dem einen oder den mehreren Medienelementen, wobei das Thema erfasst wird basierend auf Aktivitäten, Textinhalt und/oder Szenen in Zusammenhang mit dem Ereignis; und das Bilden einer Mehrzahl von Geschichtenelementen zum Erstellen einer Geschichte in Zusammenhang mit dem Ereignis, wobei die Mehrzahl von Geschichtenelementen gebildet werden basierend auf einem oder mehreren Charakteren, dem Thema in Zusammenhang mit dem Ereignis und/oder einer oder mehreren Emotionen in Zusammenhang mit dem einen oder den mehreren Charakteren, wobei die Geschichte über eine oder mehrere Anzeigevorrichtungen einem oder mehreren Nutzern, die Zugriff auf die eine oder die mehreren Anzeigevorrichtungen haben, präsentiert wird.
  11. Verfahren nach Anspruch 10, ferner umfassend: das Extrahieren des einen oder der mehreren Charaktere von dem einen oder den mehreren Medienelementen, wobei dem einen oder den mehreren Charakteren eine oder mehrere Rollen zugeordnet sind, welche eine oder mehrere mit dem Ereignis verbundene Personen repräsentieren; das Ermitteln der einen oder der mehreren Emotionen von dem einen oder den mehreren Medienelementen, wobei die eine oder die mehreren Emotionen ermittelt werden basierend auf einem oder mehreren Ausdrücken in Zusammenhang mit dem einen oder den mehreren Charakteren; und das Erstellen der Geschichte basierend auf der Mehrzahl von Geschichtenelementen, wobei die Geschichte auf einer oder mehreren Webseiten veröffentlicht wird.
  12. Verfahren nach Anspruch 11, wobei die Geschichte als eine soziale Veröffentlichung auf einer sozialen Netzwerkwebseite, als ein Blog-Eintrag auf einer Nachrichten- oder Blogging-Webseite und/oder als eine Vorlagenveröffentlichung, die eine oder mehrere Geschichtenvorlagen aufweist, welche auf einer philanthropischen Webseite oder einer kommerziellen Webseite veröffentlicht werden, veröffentlicht wird.
  13. Verfahren nach Anspruch 12, wobei die eine oder die mehreren Geschichtenvorlagen durch den einen oder die mehreren Nutzer heruntergeladen werden können, um unter Verwendung der einen oder der mehreren Geschichtenvorlagen, die eine Mehrzahl von mit der Geschichte verbundenen Elementen aufweisen, automatisch Geschichten zu erstellen.
  14. Verfahren nach Anspruch 10, ferner aufweisend das Überwachen des einen oder der mehreren Medienelemente, die von einer oder mehreren Medienquellen über ein Kommunikationsmedium empfangen werden, wobei die eine oder die mehreren Medienquellen eine Webseite, einen Media Feed, ein Medien-Abspielprogramm, eine Datenverarbeitungsvorrichtung, eine Sensoranordnung, eine Kamera und/oder ein Mikrofon umfassen, wobei das eine oder die mehreren Medienelemente Bilder, Videos, Audios, Live-Chats, Textmitteilungen, Veröffentlichungen, Kommentare, Rückmeldungen und/oder Blog-Einträge umfassen.
  15. Verfahren nach Anspruch 10, ferner umfassend: das Extrahieren von dem einen oder den mehreren Medienelementen einer oder mehrerer Identitäten oder der einen oder den mehreren mit dem einen oder den mehreren Charakteren verbundenen Rollen, wobei die eine oder die mehreren Identitäten extrahiert werden basierend auf Kommentaren und/oder Beschreibungen in Zusammenhang mit dem einen oder den mehreren Charakteren, sodass eine mit einem Charakter verbundene Identität erkannt wird basierend auf einer Rolle, einem Kommentar und/oder einer Beschreibung in Zusammenhang mit dem Charakter, wobei sich die Identität auf eine oder mehrere der folgenden bezieht: Elternteil, Kind, Verwandter, Freund, Nachbar, Mannschaftskollege, Trainer, Chef, Angestellter und Fremder; das Auflösen einer oder mehrerer Bezugnahmen in Zusammenhang mit dem einen oder den mehreren Charakteren, wobei die eine oder die mehreren Bezugnahmen ein oder mehrere mit dem einen oder den mehreren Charakteren verbundene Pronomen aufweisen; das Entdecken eines oder mehrerer Standorte des Ereignisses, wobei der eine oder die mehreren Standorte entdeckt werden basierend auf Satellitennavigationssystem-(GPS)-Koordinaten in Bezug auf eine oder mehrere Datenverarbeitungsvorrichtungen, auf welche der eine oder die mehreren Charaktere Zugriff haben; und das Ermitteln der einen oder der mehreren mit dem einen oder den mehreren Charakteren verbundenen Rollen, wobei eine Rolle einem Charakter des einen oder der mehreren Charaktere zugeordnet wird basierend auf einem Kommentar in Bezug auf den Charakter, wobei die eine oder die mehreren Rollen sich ferner auf eine oder mehrere Beziehungen zwischen zwei oder mehr Charakteren beziehen, wobei die eine oder die mehreren Beziehungen eine oder mehrere der folgenden umfassen: Elternteil-Kind, Bruder-Schwester, Tante-Neffe, Großvater-Enkel, Mannschaftskollege-Mannschaftskollege, Trainer-Spieler, Nachbar-Nachbar, Chef-Untergebener, Eigentümer-Angestellter, Partner-Partner und Fremder-Fremder.
  16. Verfahren nach Anspruch 10, ferner umfassend: das Extrahieren von Standortinformationen in Bezug auf den einen oder die mehreren Standorte, die basierend auf den GPS-Koordinaten entdeckt wurden, wobei die Standortinformationen eine lokale Szene, eine lokale Kultur, ein lokales Klima, eine lokale Sprache, eine lokale Zeit und/oder eine lokale Geschichte umfassen, wobei die Standortinformationen heimische Ereignisse oder globale Ereignisse, die lokal durchgeführt werden, umfassen, sodass die lokale Szene einen Bauernmarkt, einen Flohmarkt, ein Bierfest, eine Neujahrsfeier, eine Fußballweltmeisterschaft und eine Königskrönung umfasst, wobei das Thema basierend auf den Standortinformationen gebildet wird; das Extrahieren zeitlicher Informationen in Bezug auf den einen oder die mehreren Standorte; das statistische Analysieren von Wörtern, die von jedem des einen oder der mehreren Medienelemente erlangt wurden, wobei das Thema basierend auf den statistisch analysierten Wörtern bestätigt wird; und das Analysieren sichtbarer Elemente in dem einen oder den mehreren Medienelementen, wobei die sichtbaren Elemente Objekte, Kleidung, andere Personen, Tiere, Vegetation, Wetter, Vordergründe und/oder Hintergründe in jedem der Medienelemente umfassen, wobei die Hintergründe Farbschemen, Wettermuster, Wandschatten und/oder Stimmungen in Bildern basierend auf der allgemeinen Szenerie oder photographischen Techniken umfassen, wobei die sichtbaren Elemente analysiert werden, um eine Szene des Themas zu bestimmen, wobei das Analysieren ferner das Analysieren der Metadaten in Zusammenhang mit den sichtbaren Elementen oder dem einen oder den mehreren Charakteren in dem einen oder den mehreren Medienelementen umfasst, wobei die Erfassung der Metadaten in Echtzeit auf relevante Informationen über jedes der sichtbaren Elemente, den einen oder die mehreren Charaktere und die eine oder die mehreren Rollen oder die eine oder die mehreren Identitäten in Zusammenhang mit dem einen oder den mehreren Charakteren hinweist.
  17. Verfahren nach Anspruch 10, ferner umfassend: das Ermitteln der Stimmungen in Zusammenhang mit jedem des einen oder der mehreren Charaktere und in jedem des einen oder der mehreren Medienelemente, wobei die Stimmungen ermittelt werden basierend auf einer semantischen Analyse der Metadaten in Zusammenhang mit einem oder mehreren Charakteren, wobei die semantische Analyse eine psycho-linguistische Analyse des einen oder der mehreren Charaktere umfasst; und das Bestimmen von Gesichtsausdrücken in Zusammenhang mit jedem des einen oder der mehreren Charaktere in einer oder mehreren Einstellungen in jedem des einen oder der mehreren Medienelemente.
  18. Verfahren nach Anspruch 10, ferner umfassend: das Extrahieren von Zielen und Abfolge von Elementen der Geschichte; das Ermöglichen der Bearbeitung von Inhalten der Geschichte; und das Hinzufügen eines oder mehrerer Hashtags zur Geschichte.
  19. Maschinenlesbares Medium oder maschinenlesbare Medien aufweisend eine Mehrzahl von Anweisungen, die auf einer Datenverarbeitungsvorrichtung ausgeführt werden, um der Datenverarbeitungsvorrichtung zu ermöglichen: über eine oder mehrere Erfassungs-/Sensorkomponenten an einer Datenverarbeitungsvorrichtung ein oder mehrere Medienelemente in Zusammenhang mit einem Ereignis zu empfangen; ein Thema von dem einen oder den mehreren Medienelementen zu erfassen, wobei das Thema erfasst wird basierend auf Aktivitäten, Textinhalt und/oder Szenen in Zusammenhang mit dem Ereignis; und eine Mehrzahl von Geschichtenelementen zu bilden, um eine Geschichte in Bezug auf das Ereignis zu erstellen, wobei die Mehrzahl von Geschichtenelementen gebildet werden basierend auf einem oder mehreren Charakteren, dem Thema in Zusammenhang mit dem Ereignis und/oder einer oder den mehreren Emotionen in Zusammenhang mit dem einen oder den mehreren Charakteren, wobei die Geschichte über eine oder mehrere Anzeigevorrichtungen einem oder mehreren Nutzern, die Zugriff auf die eine oder die mehreren Anzeigevorrichtungen haben, präsentiert wird.
  20. Maschinenlesbares Medium nach Anspruch 19, wobei die Datenverarbeitungsvorrichtung ferner: den einen oder die mehreren Charaktere von dem einen oder den mehreren Medienelementen extrahiert, wobei dem einen oder den mehreren Charakteren eine oder mehrere Rollen zugeordnet sind, welche eine oder mehrere mit dem Ereignis verbundene Personen repräsentieren; die eine oder die mehreren Emotionen von dem einen oder den mehreren Medienelementen ermittelt, wobei die eine oder die mehreren Emotionen ermittelt werden basierend auf einem oder mehreren Ausdrücken in Zusammenhang mit dem einen oder den mehreren Charakteren; und die Geschichte basierend auf der Mehrzahl von Geschichtenelementen erstellt, wobei die Geschichte auf einer oder mehreren Webseiten veröffentlicht wird, wobei die Geschichte als eine soziale Veröffentlichung auf einer sozialen Netzwerkwebseite, als ein Blog-Eintrag auf einer Nachrichten- oder Blogging-Webseite und/oder als eine Vorlagenveröffentlichung, die eine oder mehrere Geschichtenvorlagen aufweist, welche auf einer philanthropischen Webseite oder einer kommerziellen Webseite veröffentlicht werden, veröffentlicht wird, wobei die eine oder die mehreren Geschichtenvorlagen durch den einen oder die mehreren Nutzer heruntergeladen werden können, um unter Verwendung der einen oder der mehreren Geschichtenvorlagen, die eine Mehrzahl von mit der Geschichte verbundenen Elementen aufweisen, automatisch Geschichten zu erstellen.
  21. Maschinenlesbares Medium nach Anspruch 19, wobei die Datenverarbeitungsvorrichtung ferner das eine oder die mehreren Medienelemente, die von einer oder mehreren Medienquellen über ein Kommunikationsmedium empfangen werden, überwacht, wobei die eine oder die mehreren Medienquellen eine Webseite, einen Media Feed, ein Medien-Abspielprogramm, eine Datenverarbeitungsvorrichtung, eine Sensoranordnung, eine Kamera und/oder ein Mikrofon umfassen, wobei das eine oder die mehreren Medienelemente Bilder, Videos, Audios, Live-Chats, Textmitteilungen, Veröffentlichungen, Kommentare, Rückmeldungen und/oder Blog-Einträge umfassen.
  22. Maschinenlesbares Medium nach Anspruch 19, wobei die Datenverarbeitungsvorrichtung ferner: von dem einen oder den mehreren Medienelementen eine oder mehrere Identitäten oder die eine oder die mehreren mit dem einen oder den mehreren Charakteren verbundenen Rollen extrahiert, wobei die eine oder die mehreren Identitäten extrahiert werden basierend auf Kommentaren und/oder Beschreibungen in Zusammenhang mit dem einen oder den mehreren Charakteren, sodass eine mit einem Charakter verbundene Identität erkannt wird basierend auf einer Rolle, einem Kommentar und/oder einer Beschreibung in Zusammenhang mit dem Charakter, wobei sich die Identität auf eine oder mehrere der folgenden bezieht: Elternteil, Kind, Verwandter, Freund, Nachbar, Mannschaftskollege, Trainer, Chef, Angestellter und Fremder; eine oder mehrere Bezugnahmen in Zusammenhang mit dem einen oder den mehreren Charakteren auflöst, wobei die eine oder die mehreren Bezugnahmen ein oder mehrere mit dem einen oder den mehreren Charakteren verbundene Pronomen aufweisen; einen oder mehrere Standorte des Ereignisses entdeckt, wobei der eine oder die mehreren Standorte entdeckt werden basierend auf Satellitennavigationssystem-(GPS)-Koordinaten in Bezug auf eine oder mehrere Datenverarbeitungsvorrichtungen, auf welche der eine oder die mehreren Charaktere Zugriff haben; und die eine oder die mehreren mit dem einen oder den mehreren Charakteren verbundenen Rollen ermittelt, wobei eine Rolle einem Charakter des einen oder der mehreren Charaktere zugeordnet wird basierend auf einem Kommentar in Bezug auf den Charakter, wobei die eine oder die mehreren Rollen sich ferner auf eine oder mehrere Beziehungen zwischen zwei oder mehr Charakteren beziehen, wobei die eine oder die mehreren Beziehungen eine oder mehrere der folgenden umfassen: Elternteil-Kind, Bruder-Schwester, Tante-Neffe, Großvater-Enkel, Mannschaftskollege-Mannschaftskollege, Trainer-Spieler, Nachbar-Nachbar, Chef-Untergebener, Eigentümer-Angestellter, Partner-Partner und Fremder-Fremder.
  23. Maschinenlesbares Medium nach Anspruch 19, wobei die Datenverarbeitungsvorrichtung ferner: Standortinformationen in Bezug auf den einen oder die mehreren Standorte, die basierend auf den GPS-Koordinaten entdeckt wurden, extrahiert, wobei die Standortinformationen eine lokale Szene, eine lokale Kultur, ein lokales Klima, eine lokale Sprache, eine lokale Zeit und/oder eine lokale Geschichte umfassen, wobei die Standortinformationen heimische Ereignisse oder globale Ereignisse, die lokal durchgeführt werden, umfassen, sodass die lokale Szene einen Bauernmarkt, einen Flohmarkt, ein Bierfest, eine Neujahrsfeier, eine Fußballweltmeisterschaft und eine Königskrönung umfasst, wobei das Thema basierend auf den Standortinformationen gebildet wird; zeitliche Informationen in Bezug auf den einen oder die mehreren Standorte extrahiert; Wörter, die von jedem des einen oder der mehreren Medienelemente erlangt wurden, statistisch analysiert, wobei das Thema basierend auf den statistisch analysierten Wörtern bestätigt wird; und sichtbare Elemente in dem einen oder den mehreren Medienelementen analysiert, wobei die sichtbaren Elemente Objekte, Kleidung, andere Personen, Tiere, Vegetation, Wetter, Vordergründe und/oder Hintergründe in jedem der Medienelemente umfassen, wobei die Hintergründe Farbschemen, Wettermuster, Wandschatten und/oder Stimmungen in Bildern basierend auf der allgemeinen Szenerie oder photographischen Techniken umfassen, wobei die sichtbaren Elemente analysiert werden, um eine Szene des Themas zu bestimmen, wobei das Analysieren ferner das Analysieren der Metadaten in Zusammenhang mit den sichtbaren Elementen oder dem einen oder den mehreren Charakteren in dem einen oder den mehreren Medienelementen umfasst, wobei die Erfassung der Metadaten in Echtzeit auf relevante Informationen über jedes der sichtbaren Elemente, den einen oder die mehreren Charaktere und die eine oder die mehreren Rollen oder die eine oder die mehreren Identitäten in Zusammenhang mit dem einen oder den mehreren Charakteren hinweist.
  24. Maschinenlesbares Medium nach Anspruch 19, wobei die Datenverarbeitungsvorrichtung ferner: Stimmungen in Zusammenhang mit jedem des einen oder der mehreren Charaktere und in jedem des einen oder der mehreren Medienelemente ermittelt, wobei die Stimmungen ermittelt werden basierend auf einer semantischen Analyse der Metadaten in Zusammenhang mit einem oder mehreren Charakteren, wobei die semantische Analyse eine psycho-linguistische Analyse des einen oder der mehreren Charaktere umfasst; und Gesichtsausdrücke in Zusammenhang mit jedem des einen oder der mehreren Charaktere in einer oder mehreren Einstellungen in jedem des einen oder der mehreren Medienelemente ermittelt.
  25. Maschinenlesbares Medium nach Anspruch 19, wobei die Datenverarbeitungsvorrichtung ferner: Ziele und Abfolge von Elementen der Geschichte extrahiert; die Bearbeitung von Inhalten der Geschichte ermöglicht; und ein oder mehrere Hashtags zur Geschichte hinzufügt.
DE112016004208.6T 2015-09-16 2016-07-22 Bereitstellen persönlicher Assistenz für die Pflege/Verwaltung von Multimedia und Erstellung von Geschichten auf Datenverarbeitungsvorrichtungen Pending DE112016004208T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/855,910 US9781392B2 (en) 2015-09-16 2015-09-16 Facilitating personal assistance for curation of multimedia and generation of stories at computing devices
US14/855,910 2015-09-16
PCT/US2016/043588 WO2017048359A1 (en) 2015-09-16 2016-07-22 Facilitating personal assistance for curation of multimedia and generation of stories at computing devices

Publications (1)

Publication Number Publication Date
DE112016004208T5 true DE112016004208T5 (de) 2018-09-06

Family

ID=58237542

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016004208.6T Pending DE112016004208T5 (de) 2015-09-16 2016-07-22 Bereitstellen persönlicher Assistenz für die Pflege/Verwaltung von Multimedia und Erstellung von Geschichten auf Datenverarbeitungsvorrichtungen

Country Status (4)

Country Link
US (1) US9781392B2 (de)
CN (1) CN107924414B (de)
DE (1) DE112016004208T5 (de)
WO (1) WO2017048359A1 (de)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
EP3188082B1 (de) * 2012-02-22 2019-12-04 Master Lock Company LLC Sicherheitssperrsysteme und verfahren
US9710447B2 (en) * 2014-03-17 2017-07-18 Yahoo! Inc. Visual recognition using social links
EP3211585A4 (de) * 2014-10-24 2017-08-30 Agoop Corp. Populationsschätzvorrichtung, programm und populationsschätzverfahren
US10380256B2 (en) * 2015-09-26 2019-08-13 Intel Corporation Technologies for automated context-aware media curation
US20170127128A1 (en) * 2015-11-02 2017-05-04 Stephen Vollentine Seger Social Post Roll Up and Management System and Method of Use
US10969748B1 (en) * 2015-12-28 2021-04-06 Disney Enterprises, Inc. Systems and methods for using a vehicle as a motion base for a simulated experience
US10853784B2 (en) 2016-01-04 2020-12-01 Bank Of America Corporation Real-time determination of resource availability for usage
US10506641B2 (en) 2016-01-04 2019-12-10 Bank Of America Corporation Resource optimization allocation system
US10068211B2 (en) 2016-01-04 2018-09-04 Bank Of America Corporation Reallocation of resources system
US10021672B2 (en) * 2016-01-04 2018-07-10 Bank Of America Corporation Resource allocation based on available resources via interactive interface
US11524242B2 (en) 2016-01-20 2022-12-13 Disney Enterprises, Inc. Systems and methods for providing customized instances of a game within a virtual space
US10430835B2 (en) * 2016-04-14 2019-10-01 Google Llc Methods, systems, and media for language identification of a media content item based on comments
AU2017100670C4 (en) 2016-06-12 2019-11-21 Apple Inc. User interfaces for retrieving contextually relevant media content
DK201670608A1 (en) 2016-06-12 2018-01-02 Apple Inc User interfaces for retrieving contextually relevant media content
US20180052838A1 (en) * 2016-08-22 2018-02-22 International Business Machines Corporation System, method and computer program for a cognitive media story extractor and video composer
CN109688990A (zh) 2016-09-06 2019-04-26 新感知公司 用于向用户提供附属感觉信息的方法和系统
US10831805B1 (en) * 2016-11-03 2020-11-10 United Services Automobile Association (Usaa) Virtual secure rooms
CN110521213B (zh) * 2017-03-23 2022-02-18 韩国斯诺有限公司 故事影像制作方法及系统
US10489510B2 (en) * 2017-04-20 2019-11-26 Ford Motor Company Sentiment analysis of product reviews from social media
CN107220352B (zh) * 2017-05-31 2020-12-08 北京百度网讯科技有限公司 基于人工智能构建评论图谱的方法和装置
CN107577672B (zh) * 2017-09-19 2021-07-06 网智天元科技集团股份有限公司 基于舆情设定剧本的方法和装置
US10585956B2 (en) * 2017-09-20 2020-03-10 International Business Machines Corporation Media selection and display based on conversation topics
US10719545B2 (en) * 2017-09-22 2020-07-21 Swarna Ananthan Methods and systems for facilitating storytelling using visual media
US10909321B2 (en) * 2017-11-14 2021-02-02 Microsoft Technology Licensing, Llc Automated travel diary generation
KR102570279B1 (ko) 2018-01-05 2023-08-24 삼성전자주식회사 감정 인식을 위한 학습 방법, 감정을 인식하는 방법 및 장치
US10896294B2 (en) 2018-01-11 2021-01-19 End Cue, Llc Script writing and content generation tools and improved operation of same
WO2019140120A1 (en) * 2018-01-11 2019-07-18 End Cue, Llc Script writing and content generation tools and improved operation of same
US10970560B2 (en) 2018-01-12 2021-04-06 Disney Enterprises, Inc. Systems and methods to trigger presentation of in-vehicle content
US11539712B2 (en) * 2018-03-29 2022-12-27 Snapwise Inc. Event verification engine
CN108563620A (zh) * 2018-04-13 2018-09-21 上海财梵泰传媒科技有限公司 文本自动写作方法和系统
US10318811B1 (en) * 2018-04-22 2019-06-11 Bubbler International Llc Methods and systems for detecting objects by non-visible radio frequencies and displaying associated augmented reality effects
CN108595436B (zh) * 2018-04-28 2021-09-28 合肥工业大学 情感对话内容的生成方法和系统、存储介质
US11086935B2 (en) 2018-05-07 2021-08-10 Apple Inc. Smart updates from historical database changes
DK180171B1 (en) 2018-05-07 2020-07-14 Apple Inc USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT
CN110750996B (zh) * 2018-07-18 2024-04-12 阿里巴巴(中国)有限公司 多媒体信息的生成方法、装置及可读存储介质
CN108900923B (zh) * 2018-07-20 2021-03-09 广州方硅信息技术有限公司 推荐直播模板的方法和装置
US11983183B2 (en) * 2018-08-07 2024-05-14 Disney Enterprises, Inc. Techniques for training machine learning models using actor data
CN109145128B (zh) * 2018-08-15 2021-06-29 东北大学 一种大规模数据在线可视化方法
US10346541B1 (en) * 2018-10-05 2019-07-09 Capital One Services, Llc Typifying emotional indicators for digital messaging
US10748038B1 (en) 2019-03-31 2020-08-18 Cortica Ltd. Efficient calculation of a robust signature of a media unit
US11086907B2 (en) * 2018-10-31 2021-08-10 International Business Machines Corporation Generating stories from segments classified with real-time feedback data
CN109284298A (zh) * 2018-11-09 2019-01-29 上海晏鼠计算机技术股份有限公司 一种基于机器学习和大数据处理的内容生产系统
EP3920046A4 (de) * 2019-01-30 2022-03-09 Sony Group Corporation Informationsverarbeitungssystem, informationsverarbeitungsverfahren und informationsverarbeitungsvorrichtung
CN110018738B (zh) * 2019-03-04 2021-09-21 华南理工大学 一种基于真实场景情感表达的情感转换系统
US11170035B2 (en) * 2019-03-29 2021-11-09 Snap Inc. Context based media curation
DK201970535A1 (en) 2019-05-06 2020-12-21 Apple Inc Media browsing user interface with intelligently selected representative media items
KR20210030106A (ko) * 2019-09-09 2021-03-17 엘지전자 주식회사 서버
CN111428549A (zh) * 2019-10-31 2020-07-17 深圳市睿洋图志科技有限公司 一种基于社交活动图像大数据的人物信息分析方法及系统
US11200366B2 (en) * 2019-12-16 2021-12-14 International Business Machines Corporation Using classifications from text to determine instances of graphical element types to include in a template layout for digital media output
WO2021142162A1 (en) 2020-01-07 2021-07-15 Neosensory, Inc. Method and system for haptic stimulation
KR20210095291A (ko) * 2020-01-22 2021-08-02 삼성전자주식회사 스토리를 생성하는 전자 장치 및 그의 동작 방법
CN111353314A (zh) * 2020-02-28 2020-06-30 长沙千博信息技术有限公司 一种用于动漫生成的故事文本语义分析方法
US11194971B1 (en) 2020-03-05 2021-12-07 Alexander Dobranic Vision-based text sentiment analysis and recommendation system
US11076276B1 (en) 2020-03-13 2021-07-27 Disney Enterprises, Inc. Systems and methods to provide wireless communication between computing platforms and articles
WO2021209978A1 (en) * 2020-04-16 2021-10-21 Cimpress Schweiz Gmbh Technologies for modifying design templates across online services
US11543939B2 (en) * 2020-06-08 2023-01-03 Snap Inc. Encoded image based messaging system
CN111737961B (zh) * 2020-06-28 2021-08-10 网易(杭州)网络有限公司 一种故事生成的方法、装置、计算机设备和介质
CN112307269B (zh) * 2020-08-24 2022-09-30 山东理工职业学院 一种小说中人物关系的智能分析系统和方法
US12049116B2 (en) 2020-09-30 2024-07-30 Autobrains Technologies Ltd Configuring an active suspension
CN112183025B (zh) * 2020-10-09 2022-06-21 上海电力大学 一种基于深度学习的可控多人物心理导向故事生成方法
US11497675B2 (en) 2020-10-23 2022-11-15 Neosensory, Inc. Method and system for multimodal stimulation
US12110075B2 (en) 2021-08-05 2024-10-08 AutoBrains Technologies Ltd. Providing a prediction of a radius of a motorcycle turn
US11862147B2 (en) 2021-08-13 2024-01-02 Neosensory, Inc. Method and system for enhancing the intelligibility of information for a user
US11962455B2 (en) 2021-11-29 2024-04-16 T-Mobile Usa, Inc. Prioritizing multiple issues associated with a wireless telecommunication network
US12039471B2 (en) 2021-11-29 2024-07-16 T-Mobile Usa, Inc. Tracking issues and resolution of same in a wireless communication network
US20230290381A1 (en) * 2022-03-09 2023-09-14 James Albert Ionson Autonomous Cognitive Audiovisual Editing System and Method

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6629104B1 (en) * 2000-11-22 2003-09-30 Eastman Kodak Company Method for adding personalized metadata to a collection of digital images
US6931147B2 (en) * 2001-12-11 2005-08-16 Koninklijke Philips Electronics N.V. Mood based virtual photo album
US20030117651A1 (en) * 2001-12-26 2003-06-26 Eastman Kodak Company Method for using affective information recorded with digital images for producing an album page
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
KR100828371B1 (ko) * 2006-10-27 2008-05-08 삼성전자주식회사 컨텐츠의 메타 데이터 생성 방법 및 장치
CN101584001B (zh) * 2006-12-20 2012-06-13 伊斯曼柯达公司 多输出产品的自动产生
WO2008094946A2 (en) * 2007-01-29 2008-08-07 Sony Online Entertainment Llc System and method of automatic entry creation for blogs, web pages, or file-sharing sites based on game events
US8666819B2 (en) 2007-07-20 2014-03-04 Yahoo! Overture System and method to facilitate classification and storage of events in a network
KR100960504B1 (ko) * 2008-01-25 2010-06-01 중앙대학교 산학협력단 감성표현이 적용된 디지털 스토리보드 생성 방법 및 시스템
US8237742B2 (en) * 2008-06-12 2012-08-07 International Business Machines Corporation Simulation method and system
US8515737B2 (en) 2010-04-06 2013-08-20 Automated Insights, Inc. Systems for dynamically generating and presenting narrative content
US20120082401A1 (en) * 2010-05-13 2012-04-05 Kelly Berger System and method for automatic discovering and creating photo stories
US8345934B2 (en) * 2010-07-19 2013-01-01 Telefonica, S.A. Method for automatic storytelling for photo albums using social network context
US9106812B1 (en) 2011-12-29 2015-08-11 Amazon Technologies, Inc. Automated creation of storyboards from screenplays
US8821271B2 (en) 2012-07-30 2014-09-02 Cbs Interactive, Inc. Techniques for providing narrative content for competitive gaming events
US20140136963A1 (en) 2012-11-13 2014-05-15 Steve Xi Chen Intelligent information summarization and display
CN103092465B (zh) * 2013-01-22 2016-04-13 华为技术有限公司 一种情感化记事背景的生成方法
US9298744B2 (en) * 2014-03-31 2016-03-29 Adobe Systems Incorporated Method and apparatus for ordering images in an image set based on social interactions and viewer preferences
US8923551B1 (en) * 2014-07-16 2014-12-30 Interactive Memories, Inc. Systems and methods for automatically creating a photo-based project based on photo analysis and image metadata

Also Published As

Publication number Publication date
CN107924414A (zh) 2018-04-17
US9781392B2 (en) 2017-10-03
WO2017048359A1 (en) 2017-03-23
US20170078621A1 (en) 2017-03-16
CN107924414B (zh) 2022-10-28

Similar Documents

Publication Publication Date Title
DE112016004208T5 (de) Bereitstellen persönlicher Assistenz für die Pflege/Verwaltung von Multimedia und Erstellung von Geschichten auf Datenverarbeitungsvorrichtungen
Anderson et al. The metaverse in 2040
Pavlik Journalism in the age of virtual reality: How experiential media are transforming news
US10447645B2 (en) Computerized system and method for automatically creating and communicating media streams of digital content
JP6662876B2 (ja) アバター選択機構
Goggin New technologies and the media
King et al. Augmented: Life in the smart lane
CN103781522B (zh) 用于生成并加入经验共享的方法和系统
WO2019171128A1 (en) In-media and with controls advertisement, ephemeral, actionable and multi page photo filters on photo, automated integration of external contents, automated feed scrolling, template based advertisement post and actions and reaction controls on recognized objects in photo or video
US11727611B2 (en) System and method for providing a relational terrain for social worlds
US20160035016A1 (en) Method for experiencing multi-dimensional content in a virtual reality environment
Soliman et al. Artificial intelligence powered Metaverse: analysis, challenges and future perspectives
Hallur et al. Entertainment in era of AI, big data & IoT
US12073054B2 (en) Managing virtual collisions between moving virtual objects
US9959497B1 (en) System and method for using a digital virtual clone as an input in a simulated environment
US20180012261A1 (en) Computerized method and system for personalized storytelling
EP3502866B1 (de) Systeme und verfahren für audiobasierte erweiterte realität
CN111226262A (zh) 合成动画
Vallez et al. Automatic museum audio guide
Lopez Micro Media Industries: Hmong American Media Innovation in the Diaspora
WO2019125509A1 (en) Systems and methods for audio-based augmented reality
Watkinson et al. EdgeAvatar: an edge computing system for building virtual beings
Sen Doing Digital: The Guide to Digital for Non-Technical Leaders
US12124675B2 (en) Location-based virtual resource locator
Junaedi et al. Profiling Director’s Style Based on Camera Positioning Using Fuzzy Logic

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0017300000

Ipc: G06F0016000000

R012 Request for examination validly filed