Claims (10)
Patentansprücheclaims
1. Ein Umwandlungssystem und -Vorgang, der, in Animation oder Modellierung, oder abgeleitet von Realfilm oder Motion Capture, ein Objekt oder Charakter, sei letzterer menschlich oder nicht, seien dieses Objekt oder dieser Karakter typischerweise oder auch gelegentlch als Teil von einem anderen Objekt oder Charakter betrachtet oder nicht, durch einen Anderen ersetzt, dadurch, dass vorerst die formelle, strukturelle, materielle, dynamische, biomechanische, tonale, farbliche und/oder verhaltensbezogene Eigenschaften, Dynamik inklusive aber nicht limitiert auf deren relative und absolute Position, was unter anderem Haltung und Symmetriegrad betrifft, Bewegungsgeschwindigkeit, -Amplitude, Beschleunigung und Ruck der Subkomponenten, dies zeitlich relativ zu anderen Aktionen wie das Sprechen, der Objekten oder Charaktern, Eigenschaften welche, unabhängig von deren anderweitig attribuierten Identifikationnummer oder -Code, zur Objekt- oder Charakter-Identifikation beitragen, der Objekten oder Charaktern gemessen werden, auf deren strukturellen Proportionen und Umgebung normalisiert werden, zum gewünschten Grad näher zu den Werten von einem der beiden Objekten oder Charaktern numerisch oder qualitativ verschoben und anschliessend auf dessen strukturellen Proportionen wieder umgerechnet werden, wobei diese Berechnung in sich ein Objekt oder Charakter wird, und durch mehreren dieser Umwandlungen mit mehreren Objekten oder Charaktern zu einem Objekt oder Charakter wird, der diese Gruppe in einem erzielten Sinn darstellt, wobei das erwähnte Verhalten sich sowohl auf rein physischen Regeln, wie auf überlegten oder unbewussten Verhaltensmustern die in Beziehung zu den momentanen, punktuellen oder sich in der Zeit entfaltenden Umständen oder Objekten, sei dies angesichts bisheriger Erfahrungen oder nicht, seien diese in einer sukzessiv gebauten Geschichte entstanden, von diesem Objekt oder Charakter im betrachteten Umfeld oder nicht, bezieht, das Resultat wovon in Medien oder physikalischer Produktion eingesetzt wird, wobei zur Vorführung für Gruppen, optioneil wenn mehrere Anwender eigene Objekte oder Charaktern im Medium platzieren oder ein bestehendes Objekt oder Character umwandeln wollen und dies eine Wartezeit verursacht, die übrigbleibende Wartezeit bis zur Erscheinung dieses Objektes oder dieses Charakters im Medium für jeden Anwendereingabe berechnet wird und optioneil einer Untermenge der Gruppe im persönlichen Medium als Information, zusammen mit der Morphingsgrad, angegeben wird, wobei die Gruppe optioneil die Berechnungsreihenfolge durch Auswahl im persönlichen Medium ändert.1. A transformation system and process that, in animation or modeling, or derived from real-movie or motion capture, an object or character, whether human or not, is typically or occasionally part of another object or character, considered or not, replaced by another, by the fact that for the time being the formal, structural, material, dynamic, biomechanical, tonal, color and / or behavioral characteristics, dynamics included but not limited to their relative and absolute position, which inter alia Attitude and degree of symmetry relates to movement speed, amplitude, acceleration and jerk of the subcomponents, this time relative to other actions such as speaking, the objects or characters, properties which, regardless of their otherwise attributed identification number or code, to the object or character Contribute to identification, objects or Characters are measured on the structural proportions and environment are normalized, moved to the desired degree closer to the values of one of the two objects or characters numerically or qualitatively and then converted back to its structural proportions, this calculation in itself an object or character becomes, and through several of these transformations with multiple objects or characters, an object or character representing this group in an achieved sense, said behavior relating to both purely physical rules, as well as deliberate or unconscious behavior patterns related to momentary, punctual or unfolding circumstances or objects, be it in the light of past experiences or not, whether these were created in a successively built history, of this object or character in the considered environment or not, the result of what in media or physical presentation is used for the demonstration for groups, optionally if several users place their own objects or characters in the medium or want to convert an existing object or character and this causes a waiting time, the remaining waiting time to the appearance of this object or this character in the medium for each user input is calculated and optionally specified as a subset of the group in the personal medium as information along with the morphing degree, the group optionally changing the order of calculation by selection in the personal medium.
2. Ein Produktionsskripterteilungsvorgang und -System, der, ab einem Modell die strukturellen und dynamischen Eigenschaften der typischerweise anrührenden Objekten oder Charaktern und ab den typischen Anwendungsumständen, die Form, Meterialien und Bindungsmethoden der physich zu produzierendem Objekt bestimmt, dadurch, dass es die erforderliche Eigenschaften in jeder Region dessen Modell festlegt, inklusive aber nicht limitiert auf Dämpfung, Reibung, Elastizität, Wärmeeigenschaften, Feuchtichkeitseigenschaften, Reisswiderstand, Ausdauer, Federungseigenschaften, visuelle Eigenschaften, darauf basierend und durch Daten über Anwendervorschriften, Materialien, Befestigungsmethoden und Fertigungsanlagen Alternative für Materialien, Beschaffung- und Produktionsschritten sowie anwendbaren Einstellungen und Angaben an Produktionsgeräten festlegt und bei Automatisierungsschnittstellen soweit freigegeben eigenständig eingibt.2. A production-script-partitioning process and system which, starting from a model, determines the structural and dynamic characteristics of the typically touching objects or characters and the typical application conditions, the shape, metering and bonding methods of the object to be physically produced, by having the required properties in each region whose model specifies, but not limited to, damping, friction, elasticity, thermal properties, wetness properties, tear resistance, endurance, suspension properties, visual properties based thereon and by data on user instructions, materials, fastening methods and manufacturing equipment alternative for materials, procurement, and determines production steps as well as applicable settings and information on production equipment and, if released so far, enters independently for automation interfaces.
3. Ein Vorgang und System zur Synchronisation oder das Inhalt-übereinstimmende Zusammenführen von audiovisuellen oder sensorischen Dateien und von Modellen, die echte oder imaginäre, lebendige oder unlebendige, eigenständige oder in anderen Objekten integrierte, Teile von Inhalten, durch entweder die Detektion rechnerisch erzeugter vorbestimmter oder berechneter Dateienreihen in jeder Datei, die mit anderen zusammenzuführen ist, oder auch modulierten Komponenten, die während der Aufnahme oder Erstellung dieser Dateien durch eine, in Frequenz- und sowie oder Amplitudenbereich, modulierte Licht- oder Ton-Quelle, oder auch durch ein Drittsystem, identifiziert und delimitiert werden, visuell, auditiv, sensoriell, strukturell, materiell, biochemisch, biomechanisch oder verhaltensbezogen darstellen oder ausblenden.3. A process and system for synchronizing or content-matching merging of audiovisual or sensory files and models that are real or imaginary, live or non-living, stand-alone or other object-integrated pieces of content, through either the detection of computationally generated ones or computed rows of files in any file to be merged with others, or even modulated components created by a light or sound source modulated in frequency and amplitude or amplitude, or by a third-party system, during the recording or creation of these files , identified and delimited, visualized or auditory, sensorial, structural, material, biochemical, biomechanical or behavioral.
4. Ein Übertragungssender- und -Empfängergerät und Vorgang, der/das multiple Einzelsender beziehungsweise -Emp-fängermodule beinhaltet, die, mit Einsatz von einem Buffer und einer vorbestimmten rechnerischen Inhaltsteilenstrukturierung und -Wiedererkennung, übertragene oder lokal zur Verfügung gestellte Dateien, die zu synchronisieren oder in einander zusammenzuführen sind, zeitlich überlappend bearbeiten.4. A transmitter-and-receiver apparatus and process that includes multiple single-transmitter modules to synchronize the files transmitted or locally provided with a buffer and predetermined computational content-sharing structuring and re-recognition or merge into each other, overlapping in time.
5. Eine Methode zur automatisierten Selektion einer virtuellen Kamerabewegung, Filmschnittentscheidung und/oder Medienbearbeitung, um jegliche Prinzipien oder Zielen in der Medienkomposition, Aktivitäts-, Objekt-, oder Bildfeldauswahl, oder jegliche anderwärtig entstandene, Prinzipien oder Ziele zu gehorschen, optioneil dadurch, dass das von einem Erzeuger zur Erstellung von jeder audiovisuellen Arbeit angewendetes audiovisuelles Rohmaterial für eine Gruppe von Arbeiten nach den Attributen, dies optioneil und nicht eingeschränkt auf diesen Attributen, von: Sektion auswahlsweise nach Statizität respektiv Mobilität, Dynamizität, Anzahl und Ordnung der im Bild ersichtlichen Elementen, oder Homogeneitätkriterien, Bildfeld, Modifikationen auswahlsweise nach Effekteinsätze oder Farbanpassungen, Schnitt auswahlsweise nach Länge, Längevariationen oder relativen Attributen nebeneinandergestellen Sequenzen; Transitionen wie Einblenden oder Schnittschärfe, hinzugefügte Elemente wie Untertiteln, geometrische Formen, oder Elemente aus einer Sammlung oder aus anderen Ressourcen geholte Elemente, herkömmliche live Prozessierung durch Programme, Kategorien und Bewegungen von Objekten innerhalb vom Bild und relativ zu einander, Evolution dieser Attributen im Laufe vom Endmaterial, sowie Zeitpunkte, wo Wiederholung oder Änderungen im Audio stattfinden, im Vergleich einerseits mit den Umständen deren Acquisition durch die Angabe vom physiologischen und subjektiven Zustand vom Inhalthersteller sowie der Summe aller Alternativen und Optionen zur Inhaltsacquisition, die zur Zeitpunkt der Acquisition dem Inhalthersteller zur Verfügung stand, andererseits mit dem Endresultat der Arbeiten analysiert wird, dies relativ zu den allgemeinen Attributen von Endmaterial, zu den Attributen und Tempo jedes Phasenaspekt- und Phasen-Komponentes im Endmaterial, geplante und angewendete Wörter und Spache, und/oder dem Anwender von navigierbaren Medieninhalten die Wahlfreiheit so einschränkt, dass diese Selektionen, oder andere Kriterien, erfüllt werden, was optioneil, und nicht eingeschränkt darauf, folgende Eigenschaften der Navigation Zeitmässig variablerweise betreffen: Blickwinkel, Interaktion und Exploration seitens Anwender, abgeleitet aus der Dynamik der Inhalten, aus der Intervalle bis zur nächsten Bearbeitungsintervention oder regiebezogenen Einschränkung der Kamerabewegung oder Zeitskala, die für ausgewählte Inhaltsteile gelten, der Beziehung zwischen ein Objekt und das Geschichtenerzählen oder Design der Media, das System hierbei die Leichtigkeit, Amplitude, oder Geschwindigkeit womit das Pausieren oder ändern der Geschwindigkeit einer Aktion, die die Länge einer Sequenz definiert, oder auch die Interkation mit Objekten, deren Position, Form, Oberflächenattributen, oder anderweitigen Attributen beeinflussend, ermöglicht wird, wodei eine Interaktion, die eine geschichtliche Handlung forciert ändert, zum erwünschten Grad durch die Nachbau der nötigen Objekten, Szenen und deren Eigenschaften implementiert wird.5. A method for the automated selection of a virtual camera movement, film editing decision and / or media editing to obey any principles or goals in media composition, activity, object, or frame selection, or any otherwise arising principles or goals, optionally by: the audiovisual material used by a producer for the production of any audiovisual work for a group of works according to the attributes, optional and not limited to these attributes, of: section by staticity, mobility, dynamicity, number and order of the elements shown in the picture , or homogeneity criteria, image field, modifications, by choice of effect inserts or color adjustments, slice by length, length variations, or relative attributes, juxtaposed sequences; Transitions such as fade or sharpen, added elements such as subtitles, geometric shapes, or elements from a collection or elements retrieved from other resources, conventional live processing by programs, categories and movements of objects within the image and relative to each other, evolution of these attributes in the course from the final material, as well as when repetition or changes take place in the audio, compared to the circumstances of their acquisition by the indication of the physiological and subjective state of the content manufacturer and the sum of all alternatives and options for content acquisition at the time of the acquisition On the other hand, it is analyzed with the final result of the work, relative to the general attributes of final material, the attributes and tempo of each phase aspect and phase component in the final material, planned and applied words and phrases, and / or restricts the user of navigable media content to freedom of choice to meet those selections, or other criteria, which may include, but not limited to, the following navigation properties: user perspective, user interaction, and exploration derived from the Dynamics of the content, from the intervals to the next editing intervention, or motion restriction of the camera movement or time scale that apply to selected content, the relationship between an object and the storytelling or design of the media, the system thereby the ease, amplitude, or speed with which Pausing or changing the speed of an action that defines the length of a sequence, or even interacting with objects whose position, shape, surface attributes, or affecting other attributes, wodei an interaction that is a geschic forced action changes, to the desired degree by replicating the necessary objects, scenes and their properties is implemented.
6. Eine Medienübertragungsstruktur, wo die übertragene Daten nicht nur und nicht unbedingt Information über die Tendierte audiovisuelle Dateien enthalten, sondern optioneil auch Information über einzelne Objekte, deren Teile und relative Positionnierung, Bewegung, Beleuchtung, Toneigenschaften und deren eigenständigen oder untereinander oder mit dem Anwender interaktiven Attributen und Dynamik der anzuwendenden Inhalten.6. A media broadcasting structure where the transmitted data contains not only and not necessarily information about the audiovisual files transmitted, but optionally also information about individual objects, their parts and relative positioning, movement, lighting, sound properties and their independent or inter-personal or with the user interactive attributes and dynamics of the content to be applied.
7. Eine Soundsystem im einem Raum, der ambiente Sound und persönlich gestaltete Sound kombiniert, indem er entweder optioneil externe Sound vom Standpunkt vom Anwender auf der externen Seite von tonundurchlässigen Kopfhörer aufnimmt, diese optionell mit beliebigen Sounds beliebig mischt, und mit indivuduell gestaltetem Ton zum Benutzer wiedergibt, oder, indem er für jeden Benutzer, der die ambiente Sound gemeinsam mit anderen benutzt, die gewünschte ambiente Sound, zur Emulation der räumlichen Platzierung, Orientation, Bewegung und Toneinstellungen vom Benutzer angepasst oder nicht, wobei die Volumenmischung von Sounds aus dem Kopfhörer ist, die durch die Geschwindigkeit der Navigation vom Anwender im digitalen Medium und allfällige von der Materie, die im Medium dort dargestellt oder als anwesend angenommen wird, abhängende Intensitätsverlustsunterschiede verursachte Frequenzverschiebungen - im Sinne von zwischen oder untereineander - unter Frequenzen während der Ausbreitung in Betracht gezogen, als die Mischung der Resultaten der Distanzen zu den jeweiligen Objekten multipliziert durch die Intensitätsdistribution - im Sinne von zwischen oder untereineander - unter den Lautsprechern, die durch die Positionierungswinkeln der Objekten zustande kommt, gemischt mit der jeweiligen persönlichen Sound, direkt in einem individuellen Hörersystem dem Anwender zur Verfügung stellt, oder die ambiente Sound mit individuellen oder gruppen- Lautsprechern mit direktioneil lautenden Lautsprechern zur Individuellen- oder Gruppen-Anpassung weitergibt, wobei die ambiente sowie die individuelle Sound optioneil zur Hörfähigkeit der jeweiligen Hörer angepasst werden, wobei optioneil die Information zur Lautsprechern positionnierung zu Optimierungermöglichungszwecken der räumlichen Tongestaltung zu den Kopfhörern übertragen wird.7. A sound system in a room that combines ambient sound and personalized sound by either recording optional external sound from the user's point of view on the external side of soundproof headphones, optionally mixing them with any sounds, and with individually designed sound User plays, or by using, for each user who uses the ambient sound together with others, the desired ambiente sound, emulation of spatial placement, orientation, movement and sound settings adapted by the user or not, taking the volume mix of sounds from the headphones which is due to the speed of navigation by the user in the digital medium and any intensity loss differences depending on the matter represented or assumed to be present in the medium caused frequency shifts - in the sense of between or below one another - below frequencies during propagation g, as the mixture of the results of the distances to the respective objects multiplied by the intensity distribution - in the sense of between or below one another - among the loudspeakers, which is due to the positioning angles of the objects mixed with the respective personal sound, directly in provides the user with an individual handset system, or transmits the ambient sound with individual or group loudspeakers with directional loudspeakers for individual or group adaptation, the ambiente as well as the individual sound option being adapted to the hearing of the respective listener, whereby optioneil the information for loudspeaker positioning is transmitted to the headphones for optimization purposes of the spatial sound design.
8. System, das, in Echtzeit oder nicht, Töne, die von digital dargestellten Objekten oder Räumen oder mit digitalen Inhalten kombinierten oder in einer digitalen Umgebung dargestellten Objekten realistisch, mit Modellierung der Resonna-toreigenschaften vom Objekt und Tonentstehenugsprozessen stammen, oder auch arbiträr modelliert, oder reflektiert werden, mit der Objektgrösse, Form, informativen oder emotionellen Ausdruckseinstellungen und materielle Zusammensetzung, relativ zum Anwenderaussichtspunkt oder anderswie definiertem Punkt im Medium in Zeit, Raum oder anderen Einstellungen, für die Wiedergabe, optioneil inklusive Sprachverständlichkeit und Lärmoptimierung, anpasst und mischt, wobei dieses Objekt auch der Benutzer selbst sein kann, mit optionaler Angabe der Mikrofonposition-nierung gegenüber andere Mikrofone und gegenüber Objekte, wo manuell verteilte Attribution von Audiosignalen an Objekten als Quellen gelten.8. System that realistically or not, tones that are realistically derived from objects or rooms combined with digital content or represented in a digital environment, with modeling the resonator properties of the object and Tonentstehugsprozessen, or even arbitrarily modeled , or reflected, with the object size, shape, informative or emotional expression settings and material composition, relative to the user viewpoint or otherwise defined point in the medium in time, space or other settings, for playback, optionally including speech intelligibility and noise optimization, adapts and mixes, which object may also be the user himself, with optional indication of microphone positioning relative to other microphones and to objects where manually distributed attribution of audio signals to objects are considered as sources.
9. Ein live Dateibearbeitungsystem mit einer Mensch-Maschine-Schnittsteile, die Kommandos zur Auswahl vom Medi-en-Navigationsmodus, aus den verfügbaren oder vom Benutzer vordefinierten Voreinstellungen, und Navigationsdi-mentionalität, das heisst Format der angewendeten Bildschirmen oder sonstigen Abspielgeräten von Medien, sowie optioneil Einstellung zur Interaktion mit dem Inhalt anbietet, wobei optioneil die zwei Direktionen, worin die IPTV (Internet Protocol Télévision) Bedienungsmenus gebrowsed werden können, als zwei Richtungen einer Oberfläche zur Navigation angewendet werden, und optioneil die Inhalte oder Darstellungsparametern von audiovisuellen Materialien auf den Tönen, Sprache, Körperhaltung oder Bewegungen der Zuschauern basiert ändert, wo das Dateibearbeitungsystem für lokale oder Übertragungsanwendungen rechnerisch festlegt, ob es noch Kapazität für neue Eingaben von Anwendern zur Änderung der vorgeführten Medieninhalten gibt, in welcher Phase vom Medium dies nach Inhaltabhängigen Kriterien am besten passt, wie das die Eingabe umwandeln wird, und wann diesen Teil tatsächlich anfängt, und dabei zusammengestellte Dateien an Geräten, die jedem Anwender persönlich zugänglich ist, zuschickt.9. A live file editing system with a human-machine interface, the commands for selecting the media navigation mode, the available or user-predefined preferences, and navigation mentality, that is, format of the applied screens or other media players; and optional setting for interacting with the content, optionally with the two directions in which the IPTV (Internet Protocol Télévision) operator menus can be browsed being applied as two directions of a navigation interface, and optionally the contents or presentation parameters of audiovisual materials on the Sounds, speech, posture, or viewer movements, where the file processing system for computational or broadcast applications computationally determines whether there is still capacity for new user input to change the presented media content, at which stage of the medium this best fits content-based criteria, how it will convert the input, and when it actually starts, and sends compiled files to devices that are personally accessible to each user.
10. Ein Medieninhaltsrekonstruktionsverfahren, der mit Erhalt von audiovisuellen-und Meta-Daten, idealerweise aus 2D Bilder mit Ton, die aus genau synchronisierten Kameras stammen, die in der erwünschten Bildfrequenz aufgenommen worden sind, in welchem Fall die 3D Medien werden für jede Bildreihe eines Zeitpunktes getrennt nach beliebigem Verfahren rekonstruiert, andernfalls die eingegebene Dateien nach Ähnlichkeitskriterien und Kriterien betreffend Metadaten aussortiert, und jedes Bild in ausgewählter Reihenfolge bearbeitet, dadurch, dass die Szene, das heisst der Rahmen mit eventuellen Aktoren und Aktion, im Vegleich mit Nachschlagedaten erkannt oder, wenn noch nicht bekannt, bestimmt, diese mit Szenen, die, basiert auf sonstigen ähnlichen Daten, die als mit diesen Daten zusammengehörend markiert sind, vergleicht, die Erkenntisse daraus anwendet, um die Dateien nach Zugehörigkeit neuzusortieren und die dabei implementierten Annahmen Mensch- und Maschinen-verständlich formuliert und speichert, die als anschliessend zusammengehörend, das heisst die gleiche Szene zeigend, markierte Dateien als einheitlichem Medium rekonstruiert, wobei durch Anwendung von Umwandlungsvorgängen optioneil auch ähnliche obwohl nicht genau gleiche Szenen in einer jeweils umgewandelten Form rekonstruiert werden, aus der entstandenen Rekonstruktion einzelne Objekte identifiziert und die Anwesenheit dieser Objekten oder ähnlicher Objekten in der vorhandenen rekonstruierten Szenen überprüft, die Reihenfolge und zeitliche Distanzen der Szenen und SD-Bilder zusammen mit den damit verbundenen Ton auf Basis der Vorhandenen Daten samt jede Toninformation, Metadaten und rekonstruierte Dynamik, festlegt, diese Bilder eins nach dem Anderen, und pro Szene, nach jeweils dem nächsterkennbaren Objekt, aus einem ausgewähltenTeil eines Datenbankes durchsucht, im Vergleich, von allen Kamerawinkeln gesehen, mit den schon adaptierten Objekten in der gleichen Szene und, für die Lage zwischen relativen Positionen, in anderen Szenen, wonach, wenn das Objekt in der Szene gefunden wird, der Kamerawinkel relativ zum Objekt selbst extrahiert wird, und wenn das Objekt nicht in der Szene gefunden wird, dann wird das Objekt gespeichert und erhält einen neuen Identifikator, und wenn multiple entsprechende Objekte gefunden werden, dann werden relative Positionen festgelegt und mit anderen Sequenzen verglichen, wonach die Reihe von anzuwendenden Objekten und eine Reihe adaptiver Modifikatoren ab vorhandener Exemplar auf diese spezifiche Exemplar selektiert werden, das adaptierte Objektmodell und dessen Orientation im 3D Raum relativ zum Kameraaussichtspunkt und zu anderen schon identifizierten Objekten erzielt werden, und die digital interpolierte und extrapolierte Regionen markiert werden, Aktionen dieser Objekte durch die Datenbank schon gespeicherter Aktionen erkannt, und wenn in der Datenbank nicht gefunden, dann mit einem neuen Identifikator gespeichert, werden, die Bewegungsbahn der Objekten in dieser Aktion samt An-wedung der Physik, Ströhmungslehre, Chemie, Biomechanik und Psychologie, interpoliert oder extrapoliert werden, diese Interpolationen und Extrapolationen mit den schon behandelten Bildern, die in der zeitlichen Nachbarschaft und in der gleichen Szene sind, verglichen werden, die Bewegungsbahn mit dieser neuen Information korrigiert wird, das Modell damit korrigiert wird, diese Prozedur ab Objekterkennungsschritt für jedes Objekt inder Szene wiederholt wird, die bisherige Prozedur ab dem ersten Schritt wiederholt wird, bis alle eingegebene Dateien bearbeitet wurden, und die Dateien, die dabei zum Endresultat nicht beigetragen haben, markiert werden, sowie die Treuegrad womit jede Eingegebene Datei rekonstruiert wurde, notiert werden.10. A media content reconstruction process involving the acquisition of audiovisual and meta data, ideally from 2D images with sound, coming from precisely synchronized cameras recorded at the desired frame rate, in which case the 3D media will be used for each image series Otherwise, reconstruct the input files according to similarity criteria and metadata criteria, and process each image in a selected order, by recognizing the scene, ie the frame with possible actors and action, in comparison with lookup data, or if not yet known, compare them to scenes based on other similar data marked as belonging to this data, which uses intelligence to re-sort the files by affiliation and the human and machine assumptions implemented therein understandable rt and stores, which are subsequently belonging together, ie showing the same scene, reconstructs marked files as a uniform medium, whereby by using transformation processes also similar but not exactly identical scenes are reconstructed in a converted form, individual objects from the resulting reconstruction identifies and verifies the presence of these objects or similar objects in the existing reconstructed scene, determines the order and time distances of the scenes and SD images together with the associated sound based on the existing data including all sound information, metadata and reconstructed dynamics Images one by one, and by scene, after the next recognizable object, searched from a selected part of a database, in comparison, seen from all camera angles, with the already adapted objects in the same scene and, for the position between re in other scenes, after the object is found in the scene, the camera angle is extracted relative to the object itself, and if the object is not found in the scene, then the object is saved and receives a new identifier, and if multiple corresponding objects are found then relative positions are determined and compared to other sequences, after which the series of objects to be applied and a series of adaptive modifiers from existing instance to that specific instance are selected, the adapted object model and its orientation in 3D space relative to Camera point of view and other already identified objects are achieved, and the digitally interpolated and extrapolated regions are marked, actions of these objects detected by the database already stored actions, and if not found in the database, then stored with a new identifier, the trajectoryof the objects in this action, including physics, chemistry, biomechanics and psychology, are interpolated or extrapolated, these interpolations and extrapolations are compared with the already treated images, which are in the temporal neighborhood and in the same scene, the trajectory is corrected with this new information, the model is corrected, this procedure is repeated from the object recognition step for each object in the scene, the previous procedure is repeated from the first step, until all input files have been processed, and the files that are there to the end result did not contribute, are marked, as well as the degree of loyalty, with which each eingierte file was reconstructed, noted down.