CH712151A2 - Design, Transfer, Interaction, Group Application, Transformation, Digital Media Production. - Google Patents

Design, Transfer, Interaction, Group Application, Transformation, Digital Media Production. Download PDF

Info

Publication number
CH712151A2
CH712151A2 CH00256/16A CH2562016A CH712151A2 CH 712151 A2 CH712151 A2 CH 712151A2 CH 00256/16 A CH00256/16 A CH 00256/16A CH 2562016 A CH2562016 A CH 2562016A CH 712151 A2 CH712151 A2 CH 712151A2
Authority
CH
Switzerland
Prior art keywords
objects
sound
user
content
media
Prior art date
Application number
CH00256/16A
Other languages
German (de)
Inventor
A Armangil Emine
Original Assignee
A Armangil Emine
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by A Armangil Emine filed Critical A Armangil Emine
Priority to CH00256/16A priority Critical patent/CH712151A2/en
Publication of CH712151A2 publication Critical patent/CH712151A2/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]

Abstract

Diese Erfindung behandelt digitale Medien, inklusive immersive Medien, in einer System- und Vorgangs-Implementation samt Inhaltskonzeption, Inhaltsproduktion, Übertragung, interaktive Anwendung und Fertigung von Objekten, die ganz- oder teilweise als Teil dieser Medien gebaut oder dargestellt werden.This invention addresses digital media, including immersive media, in a system and process implementation, including content design, content production, transmission, interactive application and fabrication of objects that are wholly or partially constructed or displayed as part of these media.

Description

Beschreibungdescription

Gegenstand und/oder technisches Gebiet [0001] Die Erfindung betrifft jeden Schritt im Bereich der digitalen Medien, seien die Medien online oder offline, inklusive Inhalte jeglicher Dimensionalität, virtuelle Realität, erweiterte Realität, IPTV Sets, Set Top Boxes, Spielkonsolen, echtzeit Rechensysteme, Filme, Spiele, live sowie im Voraus produzierte Unterhaltung und Events, Kommunikation und Überwa-chungs-, Lern-, Simulations-, und Fertigungssysteme und -Vorgänge.OBJECT AND / OR TECHNICAL FIELD [0001] The invention relates to any step in the field of digital media, whether online or offline, including content of any dimensionality, virtual reality, augmented reality, IPTV sets, set-top boxes, game consoles, real-time computing systems, Movies, games, live and pre-produced entertainment and events, communications and monitoring, learning, simulation, and manufacturing systems and operations.

Darlegung der ErfindungPresentation of the invention

Stand der Technik [0002] Interaktivität von Shows mit dem Publikum sind sehr eingeschränkt, und insbesondere bei immersiven Medien ist der Anwender von anderen Zuschauern isoliert, auch wenn diese im gleichen Saal sitzen. Die Quantität nötiger Medieninhaltproduktion, um sich als Brand oder Person auf dem Markt durchzusetzen hat sich in den letzten Jahrzehnten vervielfacht, und insbesondere für eine selbstständige Person wird die Inhaltproduktion- und Komminikationsaufgabe kaum bewältigbar. Dabei sind künstliche Intelligenz und Bildbearbeitungstechniken heutzutage sehr fortgeschritten, und die kreative Arbeit könnte erleichtert werden, obwohl nicht ersetzt. Die sogenannte Ichform wird momentan vermehrt ausprobiert und diese Richtung kann vielfältiger als bisher implementiert werden. 3D Drucker sind Hype. Virtuelle Realität und erweiterte Realität, mit 3D Inhalten sind schon gut entwickelt. Diese Erfindung interagiert konstruktiv mit vorhergehenden Paten-tenanmeldungen vom gleichen Erfinder im Bereich der Medienimmersion und Produktion von Designs.Background Art Interactivity of shows with the audience is very limited, and particularly with immersive media, the user is isolated from other viewers, even if they are sitting in the same hall. The quantity of necessary media content production to assert itself as a brand or person in the market has multiplied in recent decades, and especially for a self-employed person, the content production and commmination task is hardly manageable. Artificial intelligence and image processing techniques are now very advanced and the creative work could be facilitated, though not replaced. The so-called ego is currently being tried out more and this direction can be implemented more diverse than before. 3D printers are hype. Virtual reality and augmented reality, with 3D content already well developed. This invention interacts constructively with previous patent applications by the same inventor in the field of media immersion and production of designs.

Nachteile [0003] Für Anwendungen, die eine schnelle Umschaltung zwischen Kanälen erfordern, ist die IPTV Technologie nicht direkt einsetzbar. Und für Anwendungen, die mehr Debit im Rückflusskanal benötigen, macht das diese Technologie ebenfalls unbenutzbar. Die Ichform ich ungenügend vielfältig implementiert, und interessante neue Medienanwendungen sollten noch entstehen. 3D Drucker haben grosse Einschränkungen, und die Fertigungswirtschaft könnte von den heutzutage entfalteten rechnerischen und kreativen Kapazitäten besser profitieren. Nicht alle potentielle Anwender haben die Ausrüstung, um virtuelle Realität und erweiterte Realität anzuwenden. Es könnten Systeme enwickelt werden, die auch die Anwendung dieser Inhalten auf zweidimentionalen Bildschirmen ermöglicht. Solche Inhalte verursachen grosse Dateien, und deren Übertragung ist demzufolge problematisch. Bei IPTV verursacht die Umschaltung der Kanälen eine Zeitverzögerung, was die gemeinsame Anwendung der Kanälen in einem Inhalt schwierig macht.Disadvantages [0003] For applications requiring fast switching between channels, IPTV technology is not directly usable. And for applications that require more debit in the return channel, this technology also makes this unusable. The ego I implemented was insufficiently diverse, and interesting new media applications were yet to emerge. 3D printers have great limitations, and the manufacturing industry could benefit better from the computational and creative capabilities that are being developed today. Not all potential users have the equipment to apply virtual reality and augmented reality. Systems could be developed that also allow the application of this content on two-dimensional screens. Such content causes large files, and their transmission is therefore problematic. In IPTV, the switching of the channels causes a time delay, which makes the sharing of the channels in a content difficult.

[0004] In Gruppenanwendungen von solchen Anwendungen werden Ton und das mangelnde gefühl, eine Gruppentätigkeit zu absolvieren, potentielle Hindernisse. Solche Inhalte haben auch das Problem, dass der Anwender die Tendenz hat, herumzuschauen, und verpasst was ausserhalb der Augensichtfeld passiert. Um die Regiefähigkeit der Inhalterstellern zu verstärken kann mehr gemacht werden. In traditionellem Film ist der Blick auch oft durch verschiedenen Massnahmen auf gewisse Punkte auf dem Bild gezogen, aber alle Punkte sind dann jederzeit im Blickfeld, und Bildkomposition ist eine wichtige Eigenschaft, die die Produktion beeinflusst. Das fliegt in virtuelle oder erweiterte Realität sozusagen aus dem Fenster, und könnte zu einem gewissen grad durch Navigationsbeeinflussung wieder eingeführt werden, und dabei auch Möglichkeiten der Vorproduktion und Post-Produktion von traditionellem Film durch die Anwendung von virtuellen Realität-Produktionsanlagen entfalten.In group applications of such applications, tone and the lack of feeling for group activity are potential obstacles. Such content also has the problem that the user tends to look around and misses what is happening outside the field of view. In order to strengthen the Regähähigkeit the Inhalterstellern can be done more. In traditional film, the focus is often drawn by different measures on certain points in the picture, but all points are then always in the field of view, and image composition is an important property that affects the production. This flies out of the window in virtual or augmented reality, and could be reintroduced to some degree through navigational control, as well as unfolding pre-production and post-production possibilities of traditional film through the use of virtual reality production facilities.

Aufgabe [0005] Aufgabe der vorliegenden Erfindung ist es, ein System zu entwickeln, das den obigen Nachteil umgeht die beschriebene Anwendungen ermöglicht. Lösung [0006] Die Aufgabe wird durch die Merkmale des Patentanspruchs 1 bis 10 gelöst. Dabei bezeichnet zur Lesbarkeit die Begriffe Objekt und Aktor Objekte, Charaktern, sowie Milieus, worin sich diese jeweils befinden, und die Wörter Milieu und Rahmen sind umtauschbar angewendet, und der Begriff Datenbank sich auf alle Formen der Datenspeicherung bezieht.OBJECT [0005] The object of the present invention is to develop a system which overcomes the above disadvantage which enables described applications. Solution The problem is solved by the features of patent claims 1 to 10. The terms object and actor designate objects, characters, and environments in which they are located, and the words environment and frame are used interchangeably, and the term database refers to all forms of data storage.

Vorteile [0007] Vorteilhafte Weiterbildungen ergeben sich aus den Patentansprüchen 1 bis 10. Die Vorteile der Erfindung bestehen darin, dass Dateienaufwendige Übertragungen eine neue Möglichkeit erhalten; dass die Produktionsmöglichkeiten von- und Interaktionmöglichkeiten mit Medieninhalten stark erweitert werden; und dass die Fertigungsindustrie neue Arten von Ressourcen erhält.Advantages Advantageous further developments emerge from the patent claims 1 to 10. The advantages of the invention are that file-intensive transmissions receive a new possibility; that the possibilities of producing and interacting with media content are greatly expanded; and that the manufacturing industry receives new types of resources.

[0008] Ausführung der ErfindungEmbodiment of the invention

Claims (10)

Patentansprücheclaims 1. Ein Umwandlungssystem und -Vorgang, der, in Animation oder Modellierung, oder abgeleitet von Realfilm oder Motion Capture, ein Objekt oder Charakter, sei letzterer menschlich oder nicht, seien dieses Objekt oder dieser Karakter typischerweise oder auch gelegentlch als Teil von einem anderen Objekt oder Charakter betrachtet oder nicht, durch einen Anderen ersetzt, dadurch, dass vorerst die formelle, strukturelle, materielle, dynamische, biomechanische, tonale, farbliche und/oder verhaltensbezogene Eigenschaften, Dynamik inklusive aber nicht limitiert auf deren relative und absolute Position, was unter anderem Haltung und Symmetriegrad betrifft, Bewegungsgeschwindigkeit, -Amplitude, Beschleunigung und Ruck der Subkomponenten, dies zeitlich relativ zu anderen Aktionen wie das Sprechen, der Objekten oder Charaktern, Eigenschaften welche, unabhängig von deren anderweitig attribuierten Identifikationnummer oder -Code, zur Objekt- oder Charakter-Identifikation beitragen, der Objekten oder Charaktern gemessen werden, auf deren strukturellen Proportionen und Umgebung normalisiert werden, zum gewünschten Grad näher zu den Werten von einem der beiden Objekten oder Charaktern numerisch oder qualitativ verschoben und anschliessend auf dessen strukturellen Proportionen wieder umgerechnet werden, wobei diese Berechnung in sich ein Objekt oder Charakter wird, und durch mehreren dieser Umwandlungen mit mehreren Objekten oder Charaktern zu einem Objekt oder Charakter wird, der diese Gruppe in einem erzielten Sinn darstellt, wobei das erwähnte Verhalten sich sowohl auf rein physischen Regeln, wie auf überlegten oder unbewussten Verhaltensmustern die in Beziehung zu den momentanen, punktuellen oder sich in der Zeit entfaltenden Umständen oder Objekten, sei dies angesichts bisheriger Erfahrungen oder nicht, seien diese in einer sukzessiv gebauten Geschichte entstanden, von diesem Objekt oder Charakter im betrachteten Umfeld oder nicht, bezieht, das Resultat wovon in Medien oder physikalischer Produktion eingesetzt wird, wobei zur Vorführung für Gruppen, optioneil wenn mehrere Anwender eigene Objekte oder Charaktern im Medium platzieren oder ein bestehendes Objekt oder Character umwandeln wollen und dies eine Wartezeit verursacht, die übrigbleibende Wartezeit bis zur Erscheinung dieses Objektes oder dieses Charakters im Medium für jeden Anwendereingabe berechnet wird und optioneil einer Untermenge der Gruppe im persönlichen Medium als Information, zusammen mit der Morphingsgrad, angegeben wird, wobei die Gruppe optioneil die Berechnungsreihenfolge durch Auswahl im persönlichen Medium ändert.1. A transformation system and process that, in animation or modeling, or derived from real-movie or motion capture, an object or character, whether human or not, is typically or occasionally part of another object or character, considered or not, replaced by another, by the fact that for the time being the formal, structural, material, dynamic, biomechanical, tonal, color and / or behavioral characteristics, dynamics included but not limited to their relative and absolute position, which inter alia Attitude and degree of symmetry relates to movement speed, amplitude, acceleration and jerk of the subcomponents, this time relative to other actions such as speaking, the objects or characters, properties which, regardless of their otherwise attributed identification number or code, to the object or character Contribute to identification, objects or Characters are measured on the structural proportions and environment are normalized, moved to the desired degree closer to the values of one of the two objects or characters numerically or qualitatively and then converted back to its structural proportions, this calculation in itself an object or character becomes, and through several of these transformations with multiple objects or characters, an object or character representing this group in an achieved sense, said behavior relating to both purely physical rules, as well as deliberate or unconscious behavior patterns related to momentary, punctual or unfolding circumstances or objects, be it in the light of past experiences or not, whether these were created in a successively built history, of this object or character in the considered environment or not, the result of what in media or physical presentation is used for the demonstration for groups, optionally if several users place their own objects or characters in the medium or want to convert an existing object or character and this causes a waiting time, the remaining waiting time to the appearance of this object or this character in the medium for each user input is calculated and optionally specified as a subset of the group in the personal medium as information along with the morphing degree, the group optionally changing the order of calculation by selection in the personal medium. 2. Ein Produktionsskripterteilungsvorgang und -System, der, ab einem Modell die strukturellen und dynamischen Eigenschaften der typischerweise anrührenden Objekten oder Charaktern und ab den typischen Anwendungsumständen, die Form, Meterialien und Bindungsmethoden der physich zu produzierendem Objekt bestimmt, dadurch, dass es die erforderliche Eigenschaften in jeder Region dessen Modell festlegt, inklusive aber nicht limitiert auf Dämpfung, Reibung, Elastizität, Wärmeeigenschaften, Feuchtichkeitseigenschaften, Reisswiderstand, Ausdauer, Federungseigenschaften, visuelle Eigenschaften, darauf basierend und durch Daten über Anwendervorschriften, Materialien, Befestigungsmethoden und Fertigungsanlagen Alternative für Materialien, Beschaffung- und Produktionsschritten sowie anwendbaren Einstellungen und Angaben an Produktionsgeräten festlegt und bei Automatisierungsschnittstellen soweit freigegeben eigenständig eingibt.2. A production-script-partitioning process and system which, starting from a model, determines the structural and dynamic characteristics of the typically touching objects or characters and the typical application conditions, the shape, metering and bonding methods of the object to be physically produced, by having the required properties in each region whose model specifies, but not limited to, damping, friction, elasticity, thermal properties, wetness properties, tear resistance, endurance, suspension properties, visual properties based thereon and by data on user instructions, materials, fastening methods and manufacturing equipment alternative for materials, procurement, and determines production steps as well as applicable settings and information on production equipment and, if released so far, enters independently for automation interfaces. 3. Ein Vorgang und System zur Synchronisation oder das Inhalt-übereinstimmende Zusammenführen von audiovisuellen oder sensorischen Dateien und von Modellen, die echte oder imaginäre, lebendige oder unlebendige, eigenständige oder in anderen Objekten integrierte, Teile von Inhalten, durch entweder die Detektion rechnerisch erzeugter vorbestimmter oder berechneter Dateienreihen in jeder Datei, die mit anderen zusammenzuführen ist, oder auch modulierten Komponenten, die während der Aufnahme oder Erstellung dieser Dateien durch eine, in Frequenz- und sowie oder Amplitudenbereich, modulierte Licht- oder Ton-Quelle, oder auch durch ein Drittsystem, identifiziert und delimitiert werden, visuell, auditiv, sensoriell, strukturell, materiell, biochemisch, biomechanisch oder verhaltensbezogen darstellen oder ausblenden.3. A process and system for synchronizing or content-matching merging of audiovisual or sensory files and models that are real or imaginary, live or non-living, stand-alone or other object-integrated pieces of content, through either the detection of computationally generated ones or computed rows of files in any file to be merged with others, or even modulated components created by a light or sound source modulated in frequency and amplitude or amplitude, or by a third-party system, during the recording or creation of these files , identified and delimited, visualized or auditory, sensorial, structural, material, biochemical, biomechanical or behavioral. 4. Ein Übertragungssender- und -Empfängergerät und Vorgang, der/das multiple Einzelsender beziehungsweise -Emp-fängermodule beinhaltet, die, mit Einsatz von einem Buffer und einer vorbestimmten rechnerischen Inhaltsteilenstrukturierung und -Wiedererkennung, übertragene oder lokal zur Verfügung gestellte Dateien, die zu synchronisieren oder in einander zusammenzuführen sind, zeitlich überlappend bearbeiten.4. A transmitter-and-receiver apparatus and process that includes multiple single-transmitter modules to synchronize the files transmitted or locally provided with a buffer and predetermined computational content-sharing structuring and re-recognition or merge into each other, overlapping in time. 5. Eine Methode zur automatisierten Selektion einer virtuellen Kamerabewegung, Filmschnittentscheidung und/oder Medienbearbeitung, um jegliche Prinzipien oder Zielen in der Medienkomposition, Aktivitäts-, Objekt-, oder Bildfeldauswahl, oder jegliche anderwärtig entstandene, Prinzipien oder Ziele zu gehorschen, optioneil dadurch, dass das von einem Erzeuger zur Erstellung von jeder audiovisuellen Arbeit angewendetes audiovisuelles Rohmaterial für eine Gruppe von Arbeiten nach den Attributen, dies optioneil und nicht eingeschränkt auf diesen Attributen, von: Sektion auswahlsweise nach Statizität respektiv Mobilität, Dynamizität, Anzahl und Ordnung der im Bild ersichtlichen Elementen, oder Homogeneitätkriterien, Bildfeld, Modifikationen auswahlsweise nach Effekteinsätze oder Farbanpassungen, Schnitt auswahlsweise nach Länge, Längevariationen oder relativen Attributen nebeneinandergestellen Sequenzen; Transitionen wie Einblenden oder Schnittschärfe, hinzugefügte Elemente wie Untertiteln, geometrische Formen, oder Elemente aus einer Sammlung oder aus anderen Ressourcen geholte Elemente, herkömmliche live Prozessierung durch Programme, Kategorien und Bewegungen von Objekten innerhalb vom Bild und relativ zu einander, Evolution dieser Attributen im Laufe vom Endmaterial, sowie Zeitpunkte, wo Wiederholung oder Änderungen im Audio stattfinden, im Vergleich einerseits mit den Umständen deren Acquisition durch die Angabe vom physiologischen und subjektiven Zustand vom Inhalthersteller sowie der Summe aller Alternativen und Optionen zur Inhaltsacquisition, die zur Zeitpunkt der Acquisition dem Inhalthersteller zur Verfügung stand, andererseits mit dem Endresultat der Arbeiten analysiert wird, dies relativ zu den allgemeinen Attributen von Endmaterial, zu den Attributen und Tempo jedes Phasenaspekt- und Phasen-Komponentes im Endmaterial, geplante und angewendete Wörter und Spache, und/oder dem Anwender von navigierbaren Medieninhalten die Wahlfreiheit so einschränkt, dass diese Selektionen, oder andere Kriterien, erfüllt werden, was optioneil, und nicht eingeschränkt darauf, folgende Eigenschaften der Navigation Zeitmässig variablerweise betreffen: Blickwinkel, Interaktion und Exploration seitens Anwender, abgeleitet aus der Dynamik der Inhalten, aus der Intervalle bis zur nächsten Bearbeitungsintervention oder regiebezogenen Einschränkung der Kamerabewegung oder Zeitskala, die für ausgewählte Inhaltsteile gelten, der Beziehung zwischen ein Objekt und das Geschichtenerzählen oder Design der Media, das System hierbei die Leichtigkeit, Amplitude, oder Geschwindigkeit womit das Pausieren oder ändern der Geschwindigkeit einer Aktion, die die Länge einer Sequenz definiert, oder auch die Interkation mit Objekten, deren Position, Form, Oberflächenattributen, oder anderweitigen Attributen beeinflussend, ermöglicht wird, wodei eine Interaktion, die eine geschichtliche Handlung forciert ändert, zum erwünschten Grad durch die Nachbau der nötigen Objekten, Szenen und deren Eigenschaften implementiert wird.5. A method for the automated selection of a virtual camera movement, film editing decision and / or media editing to obey any principles or goals in media composition, activity, object, or frame selection, or any otherwise arising principles or goals, optionally by: the audiovisual material used by a producer for the production of any audiovisual work for a group of works according to the attributes, optional and not limited to these attributes, of: section by staticity, mobility, dynamicity, number and order of the elements shown in the picture , or homogeneity criteria, image field, modifications, by choice of effect inserts or color adjustments, slice by length, length variations, or relative attributes, juxtaposed sequences; Transitions such as fade or sharpen, added elements such as subtitles, geometric shapes, or elements from a collection or elements retrieved from other resources, conventional live processing by programs, categories and movements of objects within the image and relative to each other, evolution of these attributes in the course from the final material, as well as when repetition or changes take place in the audio, compared to the circumstances of their acquisition by the indication of the physiological and subjective state of the content manufacturer and the sum of all alternatives and options for content acquisition at the time of the acquisition On the other hand, it is analyzed with the final result of the work, relative to the general attributes of final material, the attributes and tempo of each phase aspect and phase component in the final material, planned and applied words and phrases, and / or restricts the user of navigable media content to freedom of choice to meet those selections, or other criteria, which may include, but not limited to, the following navigation properties: user perspective, user interaction, and exploration derived from the Dynamics of the content, from the intervals to the next editing intervention, or motion restriction of the camera movement or time scale that apply to selected content, the relationship between an object and the storytelling or design of the media, the system thereby the ease, amplitude, or speed with which Pausing or changing the speed of an action that defines the length of a sequence, or even interacting with objects whose position, shape, surface attributes, or affecting other attributes, wodei an interaction that is a geschic forced action changes, to the desired degree by replicating the necessary objects, scenes and their properties is implemented. 6. Eine Medienübertragungsstruktur, wo die übertragene Daten nicht nur und nicht unbedingt Information über die Tendierte audiovisuelle Dateien enthalten, sondern optioneil auch Information über einzelne Objekte, deren Teile und relative Positionnierung, Bewegung, Beleuchtung, Toneigenschaften und deren eigenständigen oder untereinander oder mit dem Anwender interaktiven Attributen und Dynamik der anzuwendenden Inhalten.6. A media broadcasting structure where the transmitted data contains not only and not necessarily information about the audiovisual files transmitted, but optionally also information about individual objects, their parts and relative positioning, movement, lighting, sound properties and their independent or inter-personal or with the user interactive attributes and dynamics of the content to be applied. 7. Eine Soundsystem im einem Raum, der ambiente Sound und persönlich gestaltete Sound kombiniert, indem er entweder optioneil externe Sound vom Standpunkt vom Anwender auf der externen Seite von tonundurchlässigen Kopfhörer aufnimmt, diese optionell mit beliebigen Sounds beliebig mischt, und mit indivuduell gestaltetem Ton zum Benutzer wiedergibt, oder, indem er für jeden Benutzer, der die ambiente Sound gemeinsam mit anderen benutzt, die gewünschte ambiente Sound, zur Emulation der räumlichen Platzierung, Orientation, Bewegung und Toneinstellungen vom Benutzer angepasst oder nicht, wobei die Volumenmischung von Sounds aus dem Kopfhörer ist, die durch die Geschwindigkeit der Navigation vom Anwender im digitalen Medium und allfällige von der Materie, die im Medium dort dargestellt oder als anwesend angenommen wird, abhängende Intensitätsverlustsunterschiede verursachte Frequenzverschiebungen - im Sinne von zwischen oder untereineander - unter Frequenzen während der Ausbreitung in Betracht gezogen, als die Mischung der Resultaten der Distanzen zu den jeweiligen Objekten multipliziert durch die Intensitätsdistribution - im Sinne von zwischen oder untereineander - unter den Lautsprechern, die durch die Positionierungswinkeln der Objekten zustande kommt, gemischt mit der jeweiligen persönlichen Sound, direkt in einem individuellen Hörersystem dem Anwender zur Verfügung stellt, oder die ambiente Sound mit individuellen oder gruppen- Lautsprechern mit direktioneil lautenden Lautsprechern zur Individuellen- oder Gruppen-Anpassung weitergibt, wobei die ambiente sowie die individuelle Sound optioneil zur Hörfähigkeit der jeweiligen Hörer angepasst werden, wobei optioneil die Information zur Lautsprechern positionnierung zu Optimierungermöglichungszwecken der räumlichen Tongestaltung zu den Kopfhörern übertragen wird.7. A sound system in a room that combines ambient sound and personalized sound by either recording optional external sound from the user's point of view on the external side of soundproof headphones, optionally mixing them with any sounds, and with individually designed sound User plays, or by using, for each user who uses the ambient sound together with others, the desired ambiente sound, emulation of spatial placement, orientation, movement and sound settings adapted by the user or not, taking the volume mix of sounds from the headphones which is due to the speed of navigation by the user in the digital medium and any intensity loss differences depending on the matter represented or assumed to be present in the medium caused frequency shifts - in the sense of between or below one another - below frequencies during propagation g, as the mixture of the results of the distances to the respective objects multiplied by the intensity distribution - in the sense of between or below one another - among the loudspeakers, which is due to the positioning angles of the objects mixed with the respective personal sound, directly in provides the user with an individual handset system, or transmits the ambient sound with individual or group loudspeakers with directional loudspeakers for individual or group adaptation, the ambiente as well as the individual sound option being adapted to the hearing of the respective listener, whereby optioneil the information for loudspeaker positioning is transmitted to the headphones for optimization purposes of the spatial sound design. 8. System, das, in Echtzeit oder nicht, Töne, die von digital dargestellten Objekten oder Räumen oder mit digitalen Inhalten kombinierten oder in einer digitalen Umgebung dargestellten Objekten realistisch, mit Modellierung der Resonna-toreigenschaften vom Objekt und Tonentstehenugsprozessen stammen, oder auch arbiträr modelliert, oder reflektiert werden, mit der Objektgrösse, Form, informativen oder emotionellen Ausdruckseinstellungen und materielle Zusammensetzung, relativ zum Anwenderaussichtspunkt oder anderswie definiertem Punkt im Medium in Zeit, Raum oder anderen Einstellungen, für die Wiedergabe, optioneil inklusive Sprachverständlichkeit und Lärmoptimierung, anpasst und mischt, wobei dieses Objekt auch der Benutzer selbst sein kann, mit optionaler Angabe der Mikrofonposition-nierung gegenüber andere Mikrofone und gegenüber Objekte, wo manuell verteilte Attribution von Audiosignalen an Objekten als Quellen gelten.8. System that realistically or not, tones that are realistically derived from objects or rooms combined with digital content or represented in a digital environment, with modeling the resonator properties of the object and Tonentstehugsprozessen, or even arbitrarily modeled , or reflected, with the object size, shape, informative or emotional expression settings and material composition, relative to the user viewpoint or otherwise defined point in the medium in time, space or other settings, for playback, optionally including speech intelligibility and noise optimization, adapts and mixes, which object may also be the user himself, with optional indication of microphone positioning relative to other microphones and to objects where manually distributed attribution of audio signals to objects are considered as sources. 9. Ein live Dateibearbeitungsystem mit einer Mensch-Maschine-Schnittsteile, die Kommandos zur Auswahl vom Medi-en-Navigationsmodus, aus den verfügbaren oder vom Benutzer vordefinierten Voreinstellungen, und Navigationsdi-mentionalität, das heisst Format der angewendeten Bildschirmen oder sonstigen Abspielgeräten von Medien, sowie optioneil Einstellung zur Interaktion mit dem Inhalt anbietet, wobei optioneil die zwei Direktionen, worin die IPTV (Internet Protocol Télévision) Bedienungsmenus gebrowsed werden können, als zwei Richtungen einer Oberfläche zur Navigation angewendet werden, und optioneil die Inhalte oder Darstellungsparametern von audiovisuellen Materialien auf den Tönen, Sprache, Körperhaltung oder Bewegungen der Zuschauern basiert ändert, wo das Dateibearbeitungsystem für lokale oder Übertragungsanwendungen rechnerisch festlegt, ob es noch Kapazität für neue Eingaben von Anwendern zur Änderung der vorgeführten Medieninhalten gibt, in welcher Phase vom Medium dies nach Inhaltabhängigen Kriterien am besten passt, wie das die Eingabe umwandeln wird, und wann diesen Teil tatsächlich anfängt, und dabei zusammengestellte Dateien an Geräten, die jedem Anwender persönlich zugänglich ist, zuschickt.9. A live file editing system with a human-machine interface, the commands for selecting the media navigation mode, the available or user-predefined preferences, and navigation mentality, that is, format of the applied screens or other media players; and optional setting for interacting with the content, optionally with the two directions in which the IPTV (Internet Protocol Télévision) operator menus can be browsed being applied as two directions of a navigation interface, and optionally the contents or presentation parameters of audiovisual materials on the Sounds, speech, posture, or viewer movements, where the file processing system for computational or broadcast applications computationally determines whether there is still capacity for new user input to change the presented media content, at which stage of the medium this best fits content-based criteria, how it will convert the input, and when it actually starts, and sends compiled files to devices that are personally accessible to each user. 10. Ein Medieninhaltsrekonstruktionsverfahren, der mit Erhalt von audiovisuellen-und Meta-Daten, idealerweise aus 2D Bilder mit Ton, die aus genau synchronisierten Kameras stammen, die in der erwünschten Bildfrequenz aufgenommen worden sind, in welchem Fall die 3D Medien werden für jede Bildreihe eines Zeitpunktes getrennt nach beliebigem Verfahren rekonstruiert, andernfalls die eingegebene Dateien nach Ähnlichkeitskriterien und Kriterien betreffend Metadaten aussortiert, und jedes Bild in ausgewählter Reihenfolge bearbeitet, dadurch, dass die Szene, das heisst der Rahmen mit eventuellen Aktoren und Aktion, im Vegleich mit Nachschlagedaten erkannt oder, wenn noch nicht bekannt, bestimmt, diese mit Szenen, die, basiert auf sonstigen ähnlichen Daten, die als mit diesen Daten zusammengehörend markiert sind, vergleicht, die Erkenntisse daraus anwendet, um die Dateien nach Zugehörigkeit neuzusortieren und die dabei implementierten Annahmen Mensch- und Maschinen-verständlich formuliert und speichert, die als anschliessend zusammengehörend, das heisst die gleiche Szene zeigend, markierte Dateien als einheitlichem Medium rekonstruiert, wobei durch Anwendung von Umwandlungsvorgängen optioneil auch ähnliche obwohl nicht genau gleiche Szenen in einer jeweils umgewandelten Form rekonstruiert werden, aus der entstandenen Rekonstruktion einzelne Objekte identifiziert und die Anwesenheit dieser Objekten oder ähnlicher Objekten in der vorhandenen rekonstruierten Szenen überprüft, die Reihenfolge und zeitliche Distanzen der Szenen und SD-Bilder zusammen mit den damit verbundenen Ton auf Basis der Vorhandenen Daten samt jede Toninformation, Metadaten und rekonstruierte Dynamik, festlegt, diese Bilder eins nach dem Anderen, und pro Szene, nach jeweils dem nächsterkennbaren Objekt, aus einem ausgewähltenTeil eines Datenbankes durchsucht, im Vergleich, von allen Kamerawinkeln gesehen, mit den schon adaptierten Objekten in der gleichen Szene und, für die Lage zwischen relativen Positionen, in anderen Szenen, wonach, wenn das Objekt in der Szene gefunden wird, der Kamerawinkel relativ zum Objekt selbst extrahiert wird, und wenn das Objekt nicht in der Szene gefunden wird, dann wird das Objekt gespeichert und erhält einen neuen Identifikator, und wenn multiple entsprechende Objekte gefunden werden, dann werden relative Positionen festgelegt und mit anderen Sequenzen verglichen, wonach die Reihe von anzuwendenden Objekten und eine Reihe adaptiver Modifikatoren ab vorhandener Exemplar auf diese spezifiche Exemplar selektiert werden, das adaptierte Objektmodell und dessen Orientation im 3D Raum relativ zum Kameraaussichtspunkt und zu anderen schon identifizierten Objekten erzielt werden, und die digital interpolierte und extrapolierte Regionen markiert werden, Aktionen dieser Objekte durch die Datenbank schon gespeicherter Aktionen erkannt, und wenn in der Datenbank nicht gefunden, dann mit einem neuen Identifikator gespeichert, werden, die Bewegungsbahn der Objekten in dieser Aktion samt An-wedung der Physik, Ströhmungslehre, Chemie, Biomechanik und Psychologie, interpoliert oder extrapoliert werden, diese Interpolationen und Extrapolationen mit den schon behandelten Bildern, die in der zeitlichen Nachbarschaft und in der gleichen Szene sind, verglichen werden, die Bewegungsbahn mit dieser neuen Information korrigiert wird, das Modell damit korrigiert wird, diese Prozedur ab Objekterkennungsschritt für jedes Objekt inder Szene wiederholt wird, die bisherige Prozedur ab dem ersten Schritt wiederholt wird, bis alle eingegebene Dateien bearbeitet wurden, und die Dateien, die dabei zum Endresultat nicht beigetragen haben, markiert werden, sowie die Treuegrad womit jede Eingegebene Datei rekonstruiert wurde, notiert werden.10. A media content reconstruction process involving the acquisition of audiovisual and meta data, ideally from 2D images with sound, coming from precisely synchronized cameras recorded at the desired frame rate, in which case the 3D media will be used for each image series Otherwise, reconstruct the input files according to similarity criteria and metadata criteria, and process each image in a selected order, by recognizing the scene, ie the frame with possible actors and action, in comparison with lookup data, or if not yet known, compare them to scenes based on other similar data marked as belonging to this data, which uses intelligence to re-sort the files by affiliation and the human and machine assumptions implemented therein understandable rt and stores, which are subsequently belonging together, ie showing the same scene, reconstructs marked files as a uniform medium, whereby by using transformation processes also similar but not exactly identical scenes are reconstructed in a converted form, individual objects from the resulting reconstruction identifies and verifies the presence of these objects or similar objects in the existing reconstructed scene, determines the order and time distances of the scenes and SD images together with the associated sound based on the existing data including all sound information, metadata and reconstructed dynamics Images one by one, and by scene, after the next recognizable object, searched from a selected part of a database, in comparison, seen from all camera angles, with the already adapted objects in the same scene and, for the position between re in other scenes, after the object is found in the scene, the camera angle is extracted relative to the object itself, and if the object is not found in the scene, then the object is saved and receives a new identifier, and if multiple corresponding objects are found then relative positions are determined and compared to other sequences, after which the series of objects to be applied and a series of adaptive modifiers from existing instance to that specific instance are selected, the adapted object model and its orientation in 3D space relative to Camera point of view and other already identified objects are achieved, and the digitally interpolated and extrapolated regions are marked, actions of these objects detected by the database already stored actions, and if not found in the database, then stored with a new identifier, the trajectoryof the objects in this action, including physics, chemistry, biomechanics and psychology, are interpolated or extrapolated, these interpolations and extrapolations are compared with the already treated images, which are in the temporal neighborhood and in the same scene, the trajectory is corrected with this new information, the model is corrected, this procedure is repeated from the object recognition step for each object in the scene, the previous procedure is repeated from the first step, until all input files have been processed, and the files that are there to the end result did not contribute, are marked, as well as the degree of loyalty, with which each eingierte file was reconstructed, noted down.
CH00256/16A 2016-02-26 2016-02-26 Design, Transfer, Interaction, Group Application, Transformation, Digital Media Production. CH712151A2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CH00256/16A CH712151A2 (en) 2016-02-26 2016-02-26 Design, Transfer, Interaction, Group Application, Transformation, Digital Media Production.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CH00256/16A CH712151A2 (en) 2016-02-26 2016-02-26 Design, Transfer, Interaction, Group Application, Transformation, Digital Media Production.

Publications (1)

Publication Number Publication Date
CH712151A2 true CH712151A2 (en) 2017-08-31

Family

ID=59699411

Family Applications (1)

Application Number Title Priority Date Filing Date
CH00256/16A CH712151A2 (en) 2016-02-26 2016-02-26 Design, Transfer, Interaction, Group Application, Transformation, Digital Media Production.

Country Status (1)

Country Link
CH (1) CH712151A2 (en)

Similar Documents

Publication Publication Date Title
US9782678B2 (en) Methods and systems for computer video game streaming, highlight, and replay
DE112016004634T5 (en) Production and packaging of entertainment data for virtual reality
DE112012005214B4 (en) Processing media streams during a multi-user video conference
CN109327741A (en) Game live broadcasting method, device and system
DE102018004721A1 (en) Cooperation-based anti-nuisance techniques for streaming virtual reality video
DE112020002858T5 (en) SYNCHRONIZED SOUND GENERATION FROM VIDEOS
US10363488B1 (en) Determining highlights in a game spectating system
DE212018000371U1 (en) Avatar animation
DE112021006096T5 (en) CHANGING THE USER INTERFACE OF AN APPLICATION DURING A RECORDING SESSION
CN106302471A (en) A kind of method and apparatus recommending virtual present
Kim et al. Construction of a haptic-enabled broadcasting system based on the MPEG-V standard
EP2701115A1 (en) Method and system for live video consultation
WO2018106461A1 (en) Methods and systems for computer video game streaming, highlight, and replay
DE112017002665T5 (en) A reproducing apparatus, a reproducing method, an information producing apparatus and an information producing method
Matthews et al. MISER: Mise-en-scène region support for staging narrative actions in interactive storytelling
US11200919B2 (en) Providing a user interface for video annotation tools
DE112021000578T5 (en) INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING TERMINAL
DE102020112475A1 (en) Method, system, user device and computer program for generating a media output on a user device
Villamarín et al. Haptic glove TV device for people with visual impairment
CH712151A2 (en) Design, Transfer, Interaction, Group Application, Transformation, Digital Media Production.
Wang et al. Personal multi-view viewpoint recommendation based on trajectory distribution of the viewing target
CN104185008B (en) A kind of method and apparatus of generation 3D media datas
DE112021000549T5 (en) INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING TERMINAL AND PROGRAM
US20210287433A1 (en) Providing a 2-dimensional dataset from 2-dimensional and 3-dimensional computer vision techniques
DE112021000541T5 (en) INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING TERMINAL

Legal Events

Date Code Title Description
PCOW Change of address of patent owner(s)

Free format text: NEW ADDRESS: C/O LEXARTE AG STOCKERSTRASSE 12, 8002 ZUERICH (CH)

AZW Rejection (application)