DE112015007134T5 - Verfahren und Gerät zur synchronen Bildanzeige - Google Patents

Verfahren und Gerät zur synchronen Bildanzeige Download PDF

Info

Publication number
DE112015007134T5
DE112015007134T5 DE112015007134.2T DE112015007134T DE112015007134T5 DE 112015007134 T5 DE112015007134 T5 DE 112015007134T5 DE 112015007134 T DE112015007134 T DE 112015007134T DE 112015007134 T5 DE112015007134 T5 DE 112015007134T5
Authority
DE
Germany
Prior art keywords
data
image
terminal
synchronous
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112015007134.2T
Other languages
English (en)
Inventor
Qiwei Lu
Shengqiang Liu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Eaglesoul Technology Co Ltd
Original Assignee
Shenzhen Eaglesoul Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Eaglesoul Technology Co Ltd filed Critical Shenzhen Eaglesoul Technology Co Ltd
Publication of DE112015007134T5 publication Critical patent/DE112015007134T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/08Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
    • G09B5/10Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations all student stations being capable of presenting the same information simultaneously
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/214Specialised server platform, e.g. server located in an airplane, hotel, hospital
    • H04N21/2143Specialised server platform, e.g. server located in an airplane, hotel, hospital located in a single building, e.g. hotel, hospital or museum
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/64Addressing
    • H04N21/6405Multicasting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/6437Real-time Transport Protocol [RTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/647Control signaling between network components and server or clients; Network processes for video distribution between server and clients, e.g. controlling the quality of the video stream, by dropping packets, protecting content from unauthorised alteration within the network, monitoring of network load, bridging between two different networks, e.g. between IP and wireless
    • H04N21/64784Data processing by the network
    • H04N21/64792Controlling the complexity of the content stream, e.g. by dropping packets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education

Abstract

Ein synchrones Anzeigeverfahren und Gerät werden bereitgestellt. Es besteht eine Fähigkeit zum jederzeitigen Übertragen durch Erfassen von Bildschirmbildinhalt in regelmäßigen Zeitpunkten und Ausführen von Kompression, wodurch die Übertragungseffekte verbessert werden und die Übertragungszeit verkürzt wird. Ein schneller Vergleich des erfassten Bildschirminhalts und intelligentes Bestimmen auf dem synchronen Bild erfolgen durch Verwenden von Eigenwerten, die während der Bildkompression geparst und erhalten werden, so dass synchrone Übertragung automatisch ohne manuelle Vorgänge ausgeführt wird. Außerdem wird das Übertragen wiederholten Bildschirminhalts weitestgehend vermieden, was Speicherauflagen auf Schülerendgeräten verringert und Verständlichkeit des Inhalts sicherstellt. Außerdem helfen das Markieren und Beurteilen auf dem Bildschirminhalt, die Effizienz der Durchsicht durch den Schüler zu verbessern. Schüler können zum Beispiel direkt die letzten paar Seiten auf jeder Blackboard-Beschriftung während Durchsichten sehen.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft ein Verfahren zur synchronen Bildanzeige, insbesondere ein Verfahren zur synchronen Bildanzeige für die Same-Screen-Anzeige, und speziell das Verfahren zur Same-Screen-Anzeige, das von einem Computer ausgeführt und in einem Netzwerkunterrichtsbereich verwendet wird, und ein Netzwerkunterrichtssystem, das das Verfahren verwendet.
  • STAND DER TECHNIK
  • Unterrichtsmodi der herkömmlichen Unterrichtsarten werden in zunehmendem Maß für den Bedarf der Bildungsentwicklung ungeeignet. Aufgrund von Standortauflagen und der Nichtwiederholbarkeit der Unterrichtsstunden, existieren im Allgemeinen die folgenden Mängel: ein Ordnungsproblem der Plätze der Schüler führt dazu, dass Schüler, die hinten sitzen, den Inhalt auf der Tafel oder Projektionen nicht sehen können, und Schüler können ihre Notizen erst nach der Unterrichtsstunde durchsehen und die Unterrichtsstunde nicht wiedergeben.
  • Angesichts der herkömmlichen Unterrichtsarten, ist die grundlegende Art des Netzwerkunterrichtsverfahrens, die gemäß dem Stand der Technik existiert, die folgende: Speichern voraufgezeichneter Audio- und/oder Video-Informationen von Lehrern in einem Benutzerendgerät und entsprechendes Hochladen der Informationen zu dem Server eines Netzwerkunterrichtsplattformsystems für Schüler zum entsprechenden Lesen der Informationen für Studien. Anhand eines solchen Verfahrens erfährt jeder Schüler das gleiche Gefühl einer Unterrichtsstunde sowie einen Kanal zur jederzeitigen Wiedergabe der Unterrichtsstunden nach der Unterrichtsstunde.
  • Bei einem solchen Netzwerkunterrichtsverfahrens müssen Inhalt, der auf dem Lehrerbenutzerendgerät angezeigt wird, und Inhalt oder Vorgänge, die von dem Lehrer gezeigt werden, synchron zu dem Schülerendgerät durch das Netzwerk übertragen werden, um ein gemeinsames Verwenden einer Bildschirmanzeigeinformation zu erzielen.
  • Der Stand der Technik 1 („Journal of Image and Graphics", Band 8, Ausgabe 9, September 2003, Zhang Liping et al., „Screen Sharing Scheme Based on Copying Screen and Data Compression") offenbart, dass das gemeinsame Verwenden einer Bildschirmanzeige zwei Arten aufweist: eine, die durch Verwenden von Graphical User Interface (GUI) (grafische Benutzeroberfläche)-Vektoranweisungen an der Basis eines Betriebssystems erzielt wird, und das gemeinsames Verwenden der Bildschirmanzeige wird durch Einsetzen des Kopierens der Bildschirmanzeige und einer Kompressionstechnologie erzielt, wobei Bildschirmanzeigeinhalt nicht erzielt wird, indem er in spezifische Zeichnungsbefehle zerlegt wird, sondern das Wiedererscheinen von kopiertem Bildschirminhalt durch Kopieren des Bildschirmbilds zuerst und dann Ausführen von Datenkompressionsverarbeitung und Übertragung zu einem Client sowie Decodieren durch den Client zu seiner Anzeige übertragen wird.
  • Man erkennt, dass das existierende Netzwerkunterrichtssystem im Allgemeinen Folgendes aufweist: ein Unterrichtsinformationslieferendgerät (ein Lehrerendgerät), ein Unterrichtsinformationsempfangsendgerät (ein Schülerendgerät), einen Server (einen lokalen Server oder einen entfernten Hintergrundserver), eine Unterrichtsausstattung (wie zum Beispiel ein elektronisches Whiteboard und ein Projektionsgerät), und ein verdrahtetes oder drahtloses Zusammenschaltungsnetzwerk. Diese Endgeräte sind in der Hauptsache elektronische Desktop Computer, und angenommene Netzwerke sind im Allgemeinen verdrahtete Netzwerke basierend auf Netzwerkkabeln, was darin resultiert, dass die Unterrichtsausstattungen im Voraus installiert werden müssen, es aber nicht einfach ist, sie nach der Installation zu entfernen. Da Personal, das an dem Unterricht und Lernen beteiligt ist, die Endgeräte, die es verwendet, nicht mitnehmen kann, ist es nicht praktisch, die Endgeräte nach dem Abschließen des Unterrichtsprozesses wieder zu verwenden, zum Beispiel ist das Durchsehen für Schüler nicht praktisch.
  • Es bestehen immer noch die folgenden Probleme in dem existierenden Netzwerkunterrichtssystem beim Verarbeiten synchroner Bildanzeige: das Schülerendgerät empfängt die Same-Screen-Bildschirmdaten mit einer langsamen Geschwindigkeit, und der Unterrichtsprozess ist nicht flüssig mit Zwischenspeicherproblemen. Das ist darauf zurückzuführen, dass bei dem Prozess, während dem das existierende Netzwerkunterrichtssystem Same-Screen-Daten überträgt, Wege des Video-Streamings und manuelles Erfassen von Bildschirmen durch die Lehrer gemäß ihrem Gutdünken, in der Hauptsache verwendet werden, dass bei Bestehen einer übermäßigen Anzahl von Schülerendgeräten eine große Datenmenge übertragen werden muss, und eine langsame Geschwindigkeit, ungleichmäßige Anzeige und eine Zwischenspeichererscheinung, die oft in mehrfachen gleichzeitigen Netzwerkübertragungen auftritt, das Unterrichtserleben der Schüler beeinträchtigen. Außerdem müssen die Lehrer das Ausführen rechtzeitiger Bilderfassungsvorgänge während des Unterrichts berücksichtigen. Gelegentlich können Lehrer vergessen, Bildschirme anzeigen, die zu Schülern zu senden sind, abzufangen, während Schüler nicht bestimmen können, ob sie rechtzeitige Screenshotbilder erfassen, was die Unterrichtsresultate beeinträchtigt.
  • In den vergangenen Jahren sind zum Erleichtern der Netzwerkübertragung von Bilddaten und Verbesserung der Übertragungseffizienz und -flüssigkeit viele Bildkompressionsalgorithmen in Erscheinung getreten, die Bilddateispeicherung nicht nur viel Speicherplatz sparen lassen, sondern auch die Netzwerkübertragung schneller und effizienter machen. Es gibt im Allgemeinen zwei Arten von Bildformatkompressionstypen, nämlich verlustbehaftete Kompression und verlustfreie Kompression. Viele Kompressionsnormen für Bilder und Videos verwenden Discrete Cosine Transform (DCT)-Transformation, wie zum Beispiel Joint Photographic Experts Group (JPEG) und Moving Picture Experts Group (MPEG).
  • Der Stand der Technik 2 („Modern Computer“, 2006, Nr. 5, Huang Fan, „JPEG Image Retrieval Technique Based on Compressed Fields“) offenbart ein Bildkompressionsverfahren. Wie in 1 gezeigt, weist ein verlustbehafteter JPEG-Kompressionscodierschritt basierend auf der DCT-Transformation im Allgemeinen auf: zuerst Teilen eines Bildes in mehrere Blöcke aus 8x8-Matrizen, wobei jeder Block aus einem Gleichstrom-Eigenwert (DC-Eigenwert) und 63 Wechselstrom-Eigenwerten (AC-Eigenwerten) besteht; dann das Ausführen von Forward DCT-Transformation zum Umwandeln eines räumlichen Bereichs in einen Frequenzbereich zum Ausdrücken, um die Fähigkeiten einer Handvoll von Eigenwerten zu konzentrieren; drittens das Ausführen von verlustbehafteter Quantisierung auf DCT-Frequenzeigenwerten gemäß einer Quantisierungstabelle, um visuelle Redundanz zu eliminieren; viertens das Sortieren der quantisierten Eigenwerte in einer „Z“-Form, um eine eindimensionale Eigenwertsequenz zu bilden; fünftens das Codieren des DC-Eigenwerts durch Verwenden eines Differential Pulse Code Modulation (DPCM)-Algorithmus, während verlustfreie Kompression auf dem AC-Eigenwert unter Verwenden von Run Length Encoding (RLE) ausgeführt wird, und schließlich Ausführen von Huffman-Codierung auf den DC- und AC-Eigenwerten nach der Verarbeitung. Indem sie Texturmerkmale und Pixelwerte jedes Blocks in dem Bild darstellen, sind der DC-Eigenwert und der AC-Eigenwert die Hauptelemente, die das Bild bilden. Gemäß dem Stand der Technik, wird Bilderfassung, wie zum Beispiel Bildschirmanzeigekopieren (oder Bildschirmerfassen) entweder manuell oder durch Einstellen automatischer Screenshots nach Zeit zur Übertragung ausgeführt. Es bestehen aber die Probleme, ob die übertragene Screenshotnachricht dupliziert ist oder effektiv alle existieren. Übertragungen unnötiger oder wiederholter Bilder können die Übertragungslast des Netzwerks erhöhen und auch die Erfahrung des Benutzers beeinträchtigen. Bei dem Netzwerkunterrichtsprozess ist es zum Simulieren desselben Effekts sowie der tatsächlichen Unterrichtsarten und Verbessern der Qualität des Online-Unterrichts erforderlich, sofort die Same-Screen-Anzeige elektronischer Whiteboard-Beschriftung und anderen Unterrichtsinhalts, der auf dem Lehrerendgerät angezeigt wird, auf dem Schülerendgerät anzuzeigen, was effizientere und intelligentere Erfassung, Kompression und Übertragung von Bildern und Betriebsanweisungen sowie ein entsprechendes Netzwerkunterrichtsverfahren und -system erfordert.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Die vorliegende Erfindung zielt darauf ab, ein Verfahren zur synchronen Bildanzeige angesichts der Probleme des Stands der Technik bereitzustellen. Anhand eines computerausführbaren Verfahrens der vorliegenden Erfindung, könnte der intelligente synchrone Echtzeit-Bildanzeigeeffekt des Schülerendgeräts und des Lehrerendgeräts ausgeführt werden.
  • Zu bemerken ist, dass der Netzwerkunterricht gemäß der vorliegenden Erfindung nicht auf eine Unterrichtsform von Schülern und Lehrern beschränkt ist. Er kann Netzwerk-Onlineunterricht, Netzwerk-Fernunterricht, lokalen Netzwerkunterricht aufweisen, bei dem die Lehrer-Benutzer, Schüler-Benutzer oder Training-Benutzer die Hauptteilnehmer sind, und Online-Webkonferenz, Fern-Webkonferenz und lokale Webkonferenz sowie andere Kommunikations-/Wechselwirkungsformen, die das Netzwerk für Online-Kommunikationen und/oder Anzeige von Dokumenteninhalt nutzen, wie Fernzusammenarbeit, bei welcher die Arbeitnehmer von Unternehmen und Institutionen die Hauptteilnehmer sind.
  • Gemäß einer der Aufgaben der vorliegenden Erfindung, wird ein Verfahren zur synchronen Bildanzeige für ein Netzwerkunterrichtssystem bereitgestellt, das ein Lehrerendgerät, ein Schülerendgerät, einen Server und ein Netzwerk umfasst, das die folgenden Schritte umfasst:
    • einen Schritt des Einschaltens des Lehrerendgeräts, das vorbereitet wird, um Daten zur synchronen Anzeige zu erfassen;
    • einen Schritt des Erfassens von Same-Screen-Anzeigedaten, des Erfassens der Same-Screen-Anzeigedaten zur synchronen Anzeige;
    • einen Schritt des Erfassens der Same-Screen-Anwendungsdaten, des Erfassens der Same-Screen-Anwendungsbetriebsdaten zur synchronen Anzeige;
    • einen Bildkompressionsschritt, der die erfassten Same-Screen-Anzeigebilddaten unter Verwenden eines Joint Photographic Experts Group (JPEG)-Formats komprimiert; einen Schritt des Beurteilens der Bildübertragung, der beurteilt, ob die zwei benachbarten Same-Screen-Anzeigebilder, die durch den Kompressionsschritt komprimiert wurden, dieselben sind, und Bestimmen, ob das Bild gemäß dem Beurteilungsresultat zu übertragen ist;
    • einen Schritt des Segmentierens der Bilddaten, die zum Übertragen bestimmt werden, der die komprimierten Bilddaten, die zum Übertragen bestimmt wurden, segmentiert sowie die Anwendungsdaten, um ein Übertragungsdatenpaket zu bilden;
    • einen Schritt des Übertragens eines Datenpakets, der das Datenpaket zu einer Vielzahl von Benutzerendgeräten in einem Multicast-Modus basierend auf einem User Datagram Protocol (UDP)-Protokoll überträgt;
    • einen Schritt des Threadüberwachens, der konfiguriert ist, um Echtzeitüberwachung auf dem Thread beim Übertragen basierend auf dem UDP-Protokoll auszuführen und verlorene Paketdaten neu zu übertragen;
    • einen Schritt des Verarbeitens abgelaufener Daten, der konfiguriert ist, um die abgelaufenen Daten in dem Netzwerkunterrichtssystem zu verwerfen, um flüssige Netzwerkübertragung sicherzustellen,
    • und einen Synchronanzeigeschritt, der konfiguriert ist, um synchrone Anzeige auf dem Schülerendgerät zum Empfangen von Daten auszuführen.
  • Die Same-Screen-Anzeigedaten sind der Inhalt, der auf dem Bildschirm des Lehrerendgeräts angezeigt wird, nämlich die Bilddaten, die durch ein elektronisches Whiteboard gesammelt werden, ein Projektionseingabegerät, ein Handschrifteingabegerät, ein Blackboard oder ein Whiteboard, und ein Bildsammelgerät, das die Kamera und die Videokamera umfasst, sowie die gesammelten Bilddaten in einem Bit Map Picture (BMP)-Format.
  • Die erforderlichen Same-Screen-Anwendungsdaten werden durch Aufzeichnen und Übertragen einer Anweisung und von Koordinatenpunktdaten, die Weg-Wegkoordinatendaten umfassen, durch Verwenden eines Client oder einer APP auf dem Lehrerendgerät erhalten.
  • Der Aufzeichnungsprozess der Weg-Wegkoordinatendaten ist der folgende:
    • A1: Parsen der aufgezeichneten Weg-Wegkoordinatendaten und ihr Speichern in einen zeitweiligen Anweisungskoordinatenstapel und dann Ausführen einer anfänglichen Anordnung auf dem Bildschirm und Einstellen eines Hintergrundmusters auf einer Leinwand des Bildschirms;
    • A2: Anlegen einer neuen Bitmap und Verwenden dieser Bitmap zum Erzeugen eines zeitweiligen Leinwand-temptCanvas;
    • A3: Einstellen des Hintergrunds der tempBitmap auf durchsichtig zum Zweck des Lokalisierens des Ziels der zeitweiligen Leinwand temptCanvas in der angelegten tempBitmap;
    • A4: Nach einer solchen Struktur, Extrahieren der Koordinatenanweisungen aus dem Anweisungsstapel und ihr einzelnes Wiederherstellen, wobei ein entsprechendes Bild auf der zeitweiligen tempBitmap durch alle Zeichenfunktionen der temptCanvas durch Überschreiben, das mittels der temptCanvas ausgeführt wird, gezeichnet wird, so dass in dem Aktionsbacktrackingprozess Zeichenpunkte, Zeichenlinien die temptCanvas an Stelle der Leinwand, die ursprünglich auf dem Bildschirm war, abrufen, umfassend temptCanvas, drawPoint und temptCanvasRect, und
    • A5: Nach der Ausführung aller Anweisungskoordinatenstapel, Ausführen von Canvas.drawBitmap (tempBitmap,0,0,null), wobei die temptCanvas dafür zuständig ist, diverse Pinselstriche auf der tempBitmap zu zeichnen, während die Leinwand für das Zeichnen der tempBitmap auf dem Bildschirm zuständig ist.
  • Vor dem Ausführen des Bildkompressionsschritts, werden nicht komprimierte Bilddaten gesichert, um eine Original-Bildbackupdatenbank zu bilden, und, wenn ein Benutzer das komprimierte Bild empfängt und ein feineres Bild anzeigen muss, ein Originalbild aus der Original-Bildbackupdatenbank durch einen Klickvorgang herunterladen zu können.
  • Nach dem Ausführen des Beurteilungsschritts der Bildübertragung, werden die Originalbackupdaten des komprimierten Bilds, von welchen bestimmt wird, dass sie nicht synchron auf den Schülerendgeräten angezeigt werden, aus der Datenbank gelöscht.
  • Der Bildkompressionsschritt umfasst ferner Bildprimärkompression und Bildsekundärkompression.
  • Bei dem JPEG-Bildprimärkompressionsprozess werden ein DC-Eigenwert und ein AC-Eigenwert jedes Bilds kopiert und als eine unabhängige Datendatei gespeichert, wenn das Bild komprimiert wird;
    gemäß der kopierten und gespeicherten Datendatei wird jeweils der Unterschiedswert zwischen dem DC- und dem AC-Eigenwert zweier benachbarter Bilder berechnet, nämlich die Summe von Unterschieden zwischen Komponenten des DC- und AC-Eigenvektors; ein größerer Unterschiedswert gibt einen größeren Unterschied zwischen den zwei benachbarten Bildern an, und ein kleinerer Unterschiedswert oder keine Unterschiede geben einen kleineren oder keine Unterschiede zwischen den zwei benachbarten Bildern an, und es wird bestimmt, dass das letztere Bild nicht zu dem Schülerendgerät zur synchronen Anzeige übertragen werden muss.
  • Das Berechnungsverfahren des Unterschiedwerts zwischen den Eigenwerten besteht aus:
    • Vergleichen des DC- und des AC-Eigenwerts zwischen den zwei benachbarten Bildern;
    • was den DC-Eigenwert betrifft, Vergleichen der Komponenten, wobei als 1 markiert wird, falls die Vorzeichen der Komponenten gleich sind, anderenfalls Markieren als 0;
    • was den AC-Eigenwert betrifft und gemäß einem eingestellten Kontrastschwellenwert, Markieren als 0, falls der Unterschied zwischen den Komponenten den Kontrastschwellenwert überschreitet, anderenfalls Markieren als 1, und
    • Berechnen der Anzahl von 0 oder 1 dadurch und Summieren, um den Unterschiedswert zwischen den zwei benachbarten Bildern zu erhalten, wobei
    • je größer die Anzahl von 0, desto größer der Unterschied zwischen den Eigenvektoren und desto größer der Unterschied zwischen den Bildern.
  • Eine Vielzahl von Speicherdateien zum Speichern der kopierten und gespeicherten DC- und AC-Eigenwerte wird eingestellt, eine andere Speicherdatei wird verwendet, wenn ein Verzeichnis voll ist, und dann löscht das System das volle Verzeichnis für Backup.
  • Die Zeit zum Erfassen von Bildschirmbildinhalt wird allmählich und automatisch verlängert, wenn während einer langen Zeit kein Unterschied zwischen Bildschirminhalten, die nacheinander erfasst werden, erfasst wird.
  • Der aktuelle Bildschirminhalt wird als Erstausgabe-Blackboard-Schreibinhalt markiert, wenn erfasst wird, dass der Unterschiedswert innerhalb eines bestimmten Bereichs grundlegend beständig bleibt; und ein Starten einer neuen Layout-Blackboard-Beschriftung oder neuen Anzeigeinhalts wird beurteilt, wenn eine relativ große Änderung des Unterschiedswerts erfasst wird.
  • Der Bildsekundärkompressionsschritt stellt ein weiteres Kompressionsverhältnis gemäß der Bildgröße und {Mindestwert, Höchstwert} ein: {minGröße, maxGröße} der Anzahl von Dateibytes, die von dem System spezifiziert wird:
 If (image.getBytes ()>maxGröße)
 {Kompressionsverhältnis = image.getBytes () / maxGröße *
 System-definiertes Offset}
 Else,
 {Kompressionsverhältnis = 1, und
das Bildkompressionsverhältnis wird gemäß der Größe des Bilds erhalten, das aus dem komprimierten Bild und {minGröße, maxGröße} der spezifizierten Anzahl von Dateibytes besteht:
  • falls die Bildgröße größer ist als der Höchstwert,
  • Kompressionsverhältnis = Bildgröße/Höchstwert* Systemdefiniertes Offset, anderenfalls Kompressionsverhältnis = 1, und
  • das Offset wird als 0,4 bis 0,6 eingestellt.
  • Wenn das komprimierte JPEG-Bild und das Same-Screen-Anwendungsdatenpaket größer sind als eine begrenzte Länge der Nachricht, werden das JPEG-Bild und das Same-Screen-Anwendungsdatenpaket in mehrere Subdatenpakete gemäß dem gleichen Verhältnis der Nachricht segmentiert, das heißt, das JPEG-Bild und das Same-Screen-Anwendungsdatenpaket werden in mehrere zeitweilige TMP-Dateien segmentiert; die segmentierten zeitweiligen TMP-Dateien werden durch das Netzwerk in einem Multicast-Modus übertragen, und, nachdem das Schülerendgerät alle segmentierten TMP-Dateien empfangen hat, werden die segmentierten TMP-Dateien zusammengeführt, um ein vollständiges JPEG-Bild zu bilden, um lokal auf dem Schülerendgerät angezeigt zu werden.
  • Die Daten werden gemäß der Datenlänge dynamisch berechnet und segmentiert, und die maximale Anzahl von Segmenten beträgt nicht mehr als fünf solcher zwei Sätze von Bedingungen zur umfassenden Berechnung, um eine relativ bessere Nachrichtenanordnung zur Übertragung zu erhalten. Wenn der Client des Schülerendgeräts das Multicast-Datenpaket von dem Lehrerendgerät empfängt, prüft er zuerst, ob die empfangenen Daten vollständig empfangen wurden, und führt dann die Datennachricht zusammen und stellt sie wieder her, falls die empfangenen Daten vollständig empfangen wurden;
  • Feedbackinformationen werden sofort zu dem Lehrerendgerät gesendet, wenn jede Datennachricht empfangen wird, und das Schülerendgerät sendet Feedbackinformationen zu dem Lehrerendgerät, nachdem es die Anweisungsinformationen empfangen hat.
  • Der Schritt der Thread-Überwachung umfasst spezifisch:
    • B1: einen Schritt der Verarbeitung der Datennachricht zur Übertragung: Signatur und Nummerieren durch das Lehrerendgerät der Datennachrichten, die zu übertragen sind, um sicherzustellen, dass die IDs von Nachrichtengruppen, die jedes Mal übertragen werden, vereinheitlicht und eindeutig sind; Senden der Datennachrichten zu einer Multicast-Adresse eines drahtlosen AP (Access Point - Zugangspunkt), der eine fixe Multicast-Adresse ist, die in dem 234.5. *. * Multicast-Netzwerksegment liegt, und automatisches Berechnen der Multicast-Adresse, wenn das Lehrerendgerät ein Programm beginnt, um sicherzustellen, dass jedes Klassenzimmer unabhängig eine Multicast-Adresse in einer Netzwerkumgebung belegt, insbesondere in einer Local Area Network-Umgebung.
    • B2: einen Schritt des Startens eines Self-Daemon-Threads: Starten durch das Lehrerendgerät eines Self-Daemon-Threads und eines Taktgebers nach dem Übertragen der Datennachricht, und Einrichtung eines Neuübertragungsstapels; Speichern der Daten und des Ziels, die dieses Mal in dem Neuübertragungsstapel übertragen werden, und Starten durch den Self-Daemon-Thread der Datennachricht-Neuübertragungsverarbeitung, wenn kein Datennachrichtfeedback von dem Schülerendgerät empfangen wird, nachdem die Zeit des Startens des Self-Daemon-Threads erreicht ist, und Senden des Datenpakets zu dem Schülerendgerät ohne Feedback;
    • B3: einen Schritt des Startens eines Feedback-Daemon-Threads: automatisches Starten durch das Lehrerendgerät des Feedback-Daemon-Threads nach dem Übertragen eines Multicast-User-Datagram-Protocol (UDP)-Datenpakets und Empfangen einer Feedbacknachricht von dem Schülerendgerät zum ersten Mal, wobei der Thread eine Garantie-Neuübertragungsverarbeitung auf dem Feedback des Schülerendgeräts gemäß dem segmentierten Datenpaket ausführt und den Self-Daemon-Thread gleichzeitig stoppt, und
    • B4: einen Nachrichtenfeedbackschritt zuerst Prüfen durch den Client des Schülerendgeräts, ob die empfangenen Daten vollständig empfangen wurden, wenn das Multicast-Datenpaket von dem Lehrerendgerät empfangen wird, und Zusammenführen und Wiederherstellen der Datennachricht, falls die empfangenen Daten vollständig empfangen wurden, und sofortiges Senden der Feedbackinformationen zu dem Lehrerendgerät, während jede Datennachricht empfangen wird.
  • Der spezifische Prozess des Schritts des Verarbeitens abgelaufener Daten besteht aus Folgendem:
    • C1: Hochladen durch das Lehrerendgerät der Multicast-Nachricht zu dem Server und Übertragen der Multicast-Nachricht durch den Server zu dem Schülerendgerät durch die Netzwerkübertragung;
    • C2: Pushen der Nachrichteninformationen durch das Schülerendgerät in den Stapel, falls die Nachrichtensignatur die Paketgruppe ist, die gerade verarbeitet wird, wenn das Multicast-Paket empfangen wird, und Übertragen der Feedbackinformationen zu dem Lehrerendgerät.
    • C3: Entleeren der Daten in dem Stapel, Pushen neuer Daten in den Stapel und Ausführen der Follow-up-Verarbeitung, nachdem die Nachrichtendaten vollständig empfangen wurden, falls die Multicast-Paketsignatur, die von dem Schülerendgerät empfangen wird, neuer ist als die Daten, die in dem aktuellen Stapel verarbeitet werden, was angibt, dass die Daten in dem Stapel abgelaufen sind;
    • C4: Verwerfen durch das System aktuell empfangener Datennachrichten, falls die Multicast-Paketsignatur, die von dem Schülerendgerät empfangen wird, älter ist als Daten, die in dem aktuellen Stapel verarbeitet werden, was angibt, dass die empfangene Datennachricht abgelaufen ist, und
    • C5: Empfangen durch das Lehrerendgerät der Datennachricht-Feedbackinformationen von dem Schülerendgerät, Verwerfen der Datennachricht und Ausführen keiner anderen Verarbeitung, falls der Zeitstempel der Nachricht abgelaufen ist, was angibt, dass eine Verzögerung für das Schülerendgerät zum Empfangen der Nachricht besteht und die Daten abgelaufen sind, und Empfangen der Feedbackinformationen, falls der Zeitstempel der empfangenen Datennachricht das aktuell übertragene Datenpaket ist.
  • Was den Synchronanzeigeschritt betrifft, ist in dem Client oder APP auf dem Schülerendgerät ein Bildsubdatenpaket-Zusammenführungs- und Anzeigemodul eingebaut, das konfiguriert ist, um die empfangenen mehreren Subdatenpakete, wie zum Beispiel mehrere zeitweilige TMP-Dateien zusammenzuführen, um ein vollständiges JPEG-Bild zu bilden, und Anzeigen des Bilds auf dem Schülerendgerät, um den Zweck der Same-Screen-Anzeige zu erfüllen, und ist ein Dateibetriebslogikmodul eingebaut, das das gleiche ist wie das auf dem Lehrerendgerät; das Schülerendgerät lädt vorab die elektronischen Dateiressourcen dieser Unterrichtsstunde während des Same-Screen-Anwendungsprozesses, und während der Live-Kurse des Lehrers erfasst das Schülerendgerät mittels des Servers Lehrerbetriebsanweisungsdaten eines elektronischen Dokuments/einer elektronischen Datei, wie eine Anweisung oder Koordinatenpunktdaten, und simuliert automatisch den Vorgang eines Lehrers unter Verwenden des eingebauten Logikmoduls kombiniert mit den heruntergeladenen elektronischen Unterrichtsstundendokumentressourcen, um den Zweck der Same-Screen-Anwendungsanzeige zu erfüllen.
  • Das in Echtzeit empfangene Bild wird lokal von dem Schülerendgerät angezeigt, und eine Reihe der empfangenen synchronen Bilddaten wird als ein wiedergebbarer Videostrom gespeichert, und
    die Wiedergabe des Videostroms passt zu der relativen Audioaufzeichnung des Lehrers gemäß dem Zeitcharakteristiken, um einen Videostrom mit einer Sprache zu bilden.
  • Gemäß einer anderen Aufgabe der vorliegenden Erfindung wird ein Bildsynchronisationsanzeigegerät für ein Netzwerkunterrichtssystem bereitgestellt, das ein Lehrerendgerät, ein Schülerendgerät, einen Server und ein Netzwerk aufweist, einen Prozessor umfasst und:
    • ein lesbares Speichermedium, das computerlesbare Programmcodes zum Ausführen eines Vorgangs hat, der von dem Prozessor ausgeführt wird, wobei der Vorgang Folgendes umfasst: einen Schritt des Einschaltens des Lehrerendgeräts, das vorbereitet wird, um Daten zur synchronen Anzeige zu erfassen;
    • einen Schritt des Erfassens von Same-Screen-Anzeigedaten, des Erfassens der Same-Screen-Anzeigedaten zur synchronen Anzeige;
    • einen Schritt des Erfassens der Same-Screen-Anwendungsdaten, des Erfassens der Same-Screen-Anwendungsbetriebsdaten zur synchronen Anzeige;
    • einen Bildkompressionsschritt, der die erfassten Same-Screen-Anzeigebilddaten unter Verwenden eines Joint Photographic Experts Group (JPEG)-Formats komprimiert; einen Schritt des Beurteilens der Bildübertragung, der beurteilt, ob die zwei benachbarten Same-Screen-Anzeigebilder, die durch den Kompressionsschritt komprimiert wurden, dieselben sind, und Bestimmen, ob das Bild gemäß dem Beurteilungsresultat zu übertragen ist; einen Schritt des Segmentierens der komprimierten Bilddaten, die zum Übertragen bestimmt werden, sowie der Anwendungsdaten, um ein Übertragungsdatenpaket zu bilden; einen Schritt des Übertragens eines Datenpakets, der das Datenpaket zu einer Vielzahl von Benutzerendgeräten in einem Multicast-Modus basierend auf einem User Datagram Protocol (UDP)-Protokoll überträgt;
    • einen Schritt des Threadüberwachens, der konfiguriert ist, um Echtzeitüberwachung auf dem Thread beim Übertragen basierend auf dem UDP-Protokoll auszuführen und verlorene Paketdaten neu zu übertragen;
    • einen Schritt des Verarbeitens abgelaufener Daten, der konfiguriert ist, um die abgelaufenen Daten in dem Netzwerkunterrichtssystem zu verwerfen, um die flüssige Netzwerkübertragung sicherzustellen, und
    • einen Synchronanzeigeschritt, der konfiguriert ist, um synchrone Anzeige auf dem Schülerendgerät zum Empfangen von Daten auszuführen.
  • Die Same-Screen-Anzeigedaten sind der Inhalt, der auf dem Bildschirm des Lehrerendgeräts angezeigt wird, nämlich die Bilddaten, die durch ein elektronisches Whiteboard gesammelt werden, ein Projektionseingabegerät, ein Handschrifteingabegerät, ein Blackboard oder ein Whiteboard, und ein Bildsammelgerät, das die Kamera und die Videokamera umfasst, sowie die gesammelten Bilddaten in einem Bit Map Picture (BMP)-Format.
  • Die erforderlichen Same-Screen-Anwendungsdaten werden durch Aufzeichnen und Übertragen einer Anweisung und von Koordinatenpunktdaten, die Weg-Wegkoordinatendaten umfassen, durch Verwenden eines Client oder einer APP auf dem Lehrerendgerät erhalten.
  • Der Aufzeichnungsprozess der Weg-Wegkoordinatendaten ist der folgende:
    • A1: Parsen der aufgezeichneten Weg-Wegkoordinatendaten und ihr Speichern in einen zeitweiligen Anweisungskoordinatenstapel und dann Ausführen einer anfänglichen Anordnung auf dem Bildschirm und Einstellen eines Hintergrundmusters auf einer Leinwand des Bildschirms;
    • A2: Anlegen einer neuen Bitmap und Verwenden dieser Bitmap zum Erzeugen eines zeitweiligen Leinwand-temptCanvas;
    • A3: Einstellen des Hintergrunds der tempBitmap auf durchsichtig zum Zweck des Lokalisierens des Ziels der zeitweiligen Leinwand temptCanvas in der angelegten tempBitmap;
    • A4: Nach einer solchen Struktur, Extrahieren der Koordinatenanweisungen aus dem Anweisungsstapel und ihr einzelnes Wiederherstellen, wobei ein entsprechendes Bild auf der zeitweiligen tempBitmap durch alle Zeichenfunktionen der temptCanvas durch Überschreiben, das mittels der temptCanvas ausgeführt wird, gezeichnet wird, so dass in dem Aktionsbacktrackingprozess Zeichenpunkte, Zeichenlinien die temptCanvas an Stelle der Leinwand, die ursprünglich auf dem Bildschirm war, abrufen, umfassend temptCanvas, drawPoint und temptCanvasRect, und
    • A5: Nach der Ausführung aller Anweisungskoordinatenstapel, Ausführen von Canvas.drawBitmap (tempBitmap,0,0,null), wobei die temptCanvas dafür zuständig ist, diverse Pinselstriche auf der tempBitmap zu zeichnen, während die Leinwand für das Zeichnen der tempBitmap auf dem Bildschirm zuständig ist.
  • Vor dem Ausführen des Bildkompressionsschritts, werden nicht komprimierte Bilddaten gesichert, um eine Original-Bildbackupdatenbank zu bilden, und, wenn ein Benutzer das komprimierte Bild empfängt und ein feineres Bild anzeigen muss, ein Originalbild aus der Original-Bildbackupdatenbank durch einen Klickvorgang herunterladen zu können.
  • Nach dem Ausführen des Beurteilungsschritts der Bildübertragung, werden die Originalbackupdaten des komprimierten Bilds, von welchen bestimmt wird, dass sie nicht synchron auf den Schülerendgeräten angezeigt werden, aus der Datenbank gelöscht.
  • Der Bildkompressionsschritt umfasst ferner JPEG-Bildprimärkompression und Bildsekundärkompression.
  • Bei dem JPEG-Bildprimärkompressionsprozess werden ein DC-Eigenwert und ein AC-Eigenwert jedes Bilds kopiert und als eine unabhängige Datendatei gespeichert, wenn das Bild komprimiert wird; gemäß der kopierten und gespeicherten Datendatei wird jeweils der Unterschiedswert zwischen dem DC- und dem AC-Eigenwert zweier benachbarter Bilder berechnet, nämlich die Summe von Unterschieden zwischen Komponenten des DC- und AC-Eigenvektors; ein größerer Unterschiedswert gibt einen größeren Unterschied zwischen den zwei benachbarten Bildern an, und ein kleinerer Unterschiedswert oder keine Unterschiede geben einen kleineren oder keine Unterschiede zwischen den zwei benachbarten Bildern an, und es wird bestimmt, dass das letztere Bild nicht zu dem Schülerendgerät zur synchronen Anzeige zu übertragen werden braucht.
  • Das Berechnungsverfahren des Unterschiedwerts zwischen den Eigenwerten besteht aus: Vergleichen der DC- und AC-Eigenwerte zwischen den zwei benachbarten Bildern;
    was den DC-Eigenwert betrifft, Vergleichen der Vorzeichen der Komponenten, Markieren als 1, falls die Vorzeichen der Komponenten dieselben sind, anderenfalls Markieren als 0; was den AC-Eigenwert betrifft und gemäß einem eingestellten Kontrastschwellenwert, Markieren als 0, falls der Unterschied zwischen den Komponenten den Kontrastschwellenwert überschreitet, anderenfalls Markieren als 1, und
    Berechnen der Anzahl von 0 oder 1 dadurch und Summieren, um den Unterschiedswert zwischen den zwei benachbarten Bildern zu erhalten, wobei
    je größer die Anzahl von 0, desto größer der Unterschied zwischen den Eigenvektoren und desto größer der Unterschied zwischen den Bildern.
  • Eine Vielzahl von Speicherdateien zum Speichern der kopierten und gespeicherten DC- und AC-Eigenwerte wird eingestellt, eine andere Speicherdatei wird verwendet, wenn ein Verzeichnis voll ist, und dann löscht das System das volle Verzeichnis für Backup.
  • Die Zeit zum Erfassen von Bildschirmbildinhalt wird allmählich und automatisch verlängert, wenn während einer langen Zeit kein Unterschied zwischen Bildschirminhalten, die nacheinander erfasst werden, erfasst wird.
  • Der aktuelle Bildschirminhalt wird als Erstausgabe-Blackboard-Schreibinhalt markiert, wenn erfasst wird, dass der Unterschiedswert innerhalb eines bestimmten Bereichs grundlegend beständig bleibt; und ein Starten einer neuen Layout-Blackboard-Beschriftung oder neuen Anzeigeinhalts wird beurteilt, wenn eine relativ große Änderung des Unterschiedswerts erfasst wird.
  • Der Bildsekundärkompressionsschritt stellt ein weiteres Kompressionsverhältnis gemäß der Bildgröße und {Mindestwert, Höchstwert} ein: {minGröße, maxGröße} der Anzahl von Dateibytes, die von dem System spezifiziert wird: {minGröße, maxGröße} der Anzahl von Dateibytes, die von dem System spezifiziert wird:
  • 
     If (image.getBytes ()>maxGröße)
     {Kompressionsverhältnis = image.getBytes () / maxGröße *
     System-definiertes Offset}
     Else,
     {Kompressionsverhältnis = 1, und
    das Bildkompressionsverhältnis wird gemäß der Größe des Bilds erhalten, das aus dem komprimierten Bild und {minGröße, maxGröße} der spezifizierten Anzahl von Dateibytes besteht:
    • falls die Bildgröße größer ist als der Höchstwert,
    • Kompressionsverhältnis = Bildgröße/Höchstwert* Systemdefiniertes Offset, anderenfalls Kompressionsverhältnis = 1, und
    • das Offset wird als 0,4 bis 0,6 eingestellt.
  • Wenn das komprimierte JPEG-Bild und das Same-Screen-Anwendungsdatenpaket größer sind als eine begrenzte Länge der Nachricht, werden das JPEG-Bild und das Same-Screen-Anwendungsdatenpaket in mehrere Subdatenpakete gemäß dem gleichen Verhältnis der Nachricht segmentiert, das heißt, das JPEG-Bild und das Same-Screen-Anwendungsdatenpaket werden in mehrere zeitweilige TMP-Dateien segmentiert; die segmentierten zeitweiligen TMP-Dateien werden durch das Netzwerk in einem Multicast-Modus übertragen, und, nachdem das Schülerendgerät alle segmentierten TMP-Dateien empfangen hat, werden die segmentierten TMP-Dateien zusammengeführt, um ein vollständiges JPEG-Bild zu bilden, um lokal auf dem Schülerendgerät angezeigt zu werden.
  • Die Daten werden gemäß der Datenlänge dynamisch berechnet und segmentiert, und die maximale Anzahl von Segmenten beträgt nicht mehr als fünf solcher zwei Sätze von Bedingungen zur umfassenden Berechnung, um eine relativ bessere Nachrichtenanordnung zur Übertragung zu erhalten. Wenn der Client des Schülerendgeräts das Multicast-Datenpaket von dem Lehrerendgerät empfängt, prüft er zuerst, ob die empfangenen Daten vollständig empfangen wurden, und führt dann die Datennachricht zusammen und stellt sie wieder her, falls die empfangenen Daten vollständig empfangen wurden;
  • Feedbackinformationen werden sofort zu dem Lehrerendgerät gesendet, wenn jede Datennachricht empfangen wird, und das Schülerendgerät sendet Feedbackinformationen zu dem Lehrerendgerät, nachdem es die Anweisungsinformationen empfangen hat.
  • Der Schritt der Thread-Überwachung umfasst spezifisch:
    • Bl: einen Schritt der Verarbeitung der Datennachricht zur Übertragung: Signatur und Nummerieren durch das Lehrerendgerät der Datennachrichten, die zu übertragen sind, um sicherzustellen, dass die IDs von Nachrichtengruppen, die jedes Mal übertragen werden, vereinheitlicht und eindeutig sind; Senden der Datennachrichten zu einer Multicast-Adresse eines drahtlosen AP (Access Point - Zugangspunkt), der eine fixe Multicast-Adresse ist, die in dem 234.5. *. * Multicast-Netzwerksegment liegt, und automatisches Berechnen der Multicast-Adresse, wenn das Lehrerendgerät ein Programm beginnt, um sicherzustellen, dass jede Unterrichtsstunde unabhängig eine Multicast-Adresse in einer Netzwerkumgebung belegt, insbesondere in einer Local Area Network-Umgebung.
    • B2: einen Schritt des Startens eines Self-Daemon-Threads: Starten durch das Lehrerendgerät eines Self-Daemon-Threads und eines Taktgebers nach dem Übertragen der Datennachricht, und Einrichtung eines Neuübertragungsstapels; Speichern der Daten und des Ziels, die dieses Mal in dem Neuübertragungsstapel übertragen werden, und Starten durch den Self-Daemon-Thread der Datennachricht-Neuübertragungsverarbeitung, wenn kein Datennachrichtfeedback von dem Schülerendgerät empfangen wird, nachdem die Zeit des Startens des Self-Daemon-Threads erreicht ist, und Senden des Datenpakets zu dem Schülerendgerät ohne Feedback;
    • B3: einen Schritt des Startens eines Feedback-Daemon-Threads: automatisches Starten durch das Lehrerendgerät des Feedback-Daemon-Threads nach dem Übertragen eines Multicast-User-Datagram-Protocol (UDP)-Datenpakets und Empfangen einer Feedbacknachricht von dem Schülerendgerät zum ersten Mal, wobei der Thread eine Garantie-Neuübertragungsverarbeitung auf dem Feedback des Schülerendgeräts gemäß dem segmentierten Datenpaket ausführt und den Self-Daemon-Thread gleichzeitig stoppt, und
    • B3: einen Nachrichtenfeedbackschritt: zuerst Prüfen durch den Client des Schülerendgeräts, ob die empfangenen Daten vollständig empfangen wurden, wenn das Multicast-Datenpaket von dem Lehrerendgerät empfangen wird, und Zusammenführen und Wiederherstellen der Datennachricht, falls die empfangenen Daten vollständig empfangen wurden, und sofortiges Senden der Feedbackinformationen zu dem Lehrerendgerät, während jede Datennachricht empfangen wird.
  • Der spezifische Prozess des Schritts des Verarbeitens abgelaufener Daten besteht aus Folgendem:
    • C1: Hochladen durch das Lehrerendgerät der Multicast-Nachricht zu dem Server und Übertragen durch den Server der Multicast-Nachricht zu dem Schülerendgerät durch die Netzwerkübertragung;
    • C2: C2: Pushen durch das Schülerendgerät der Nachrichteninformationen in den Stapel, falls die Nachrichtensignatur die Paketgruppe ist, die gerade verarbeitet wird, wenn das Multicast-Paket empfangen wird, und Übertragen der Feedbackinformationen zu dem Lehrerendgerät.
    • C3: Entleeren der Daten in dem Stapel, Pushen neuer Daten in den Stapel und Ausführen der Follow-up-Verarbeitung, nachdem die Nachrichtendaten vollständig empfangen wurden, falls die Multicast-Paketsignatur, die von dem Schülerendgerät empfangen wird, neuer ist als die Daten, die in dem aktuellen Stapel verarbeitet werden, was angibt, dass die Daten in dem Stapel abgelaufen sind;
    • C4: Verwerfen durch das System aktuell empfangener Datennachrichten, falls die Multicast-Paketsignatur, die von dem Schülerendgerät empfangen wird, älter ist als Daten, die in dem aktuellen Stapel verarbeitet werden, was angibt, dass die empfangene Datennachricht abgelaufen ist, und
    • C5: Empfangen durch das Lehrerendgerät der Datennachricht-Feedbackinformationen von dem Schülerendgerät, Verwerfen der Datennachricht und Ausführen keiner anderen Verarbeitung, falls der Zeitstempel der Nachricht abgelaufen ist, was angibt, dass eine Verzögerung für das Schülerendgerät zum Empfangen der Nachricht besteht und die Daten abgelaufen sind, und Empfangen der Feedbackinformationen, falls der Zeitstempel der empfangenen Datennachricht das aktuell übertragene Datenpaket ist.
  • Was den Synchronanzeigeschritt betrifft, ist in dem Client oder APP auf dem Schülerendgerät ein Bildsubdatenpaket-Zusammenführungs- und Anzeigemodul eingebaut, das konfiguriert ist, um die empfangenen mehreren Subdatenpakete, wie zum Beispiel mehrere zeitweilige TMP-Dateien zusammenzuführen, um ein vollständiges JPEG-Bild zu bilden, und Anzeigen des Bilds auf dem Schülerendgerät, um den Zweck der Same-Screen-Anzeige zu erfüllen, und ist ein Dateibetriebslogikmodul eingebaut, das das gleiche ist wie das auf dem Lehrerendgerät; das Schülerendgerät lädt vorab die elektronischen Dateiressourcen dieser Unterrichtsstunde während des Same-Screen-Anwendungsprozesses, und während der Live-Kurse des Lehrers erfasst das Schülerendgerät mittels des Servers Lehrerbetriebsanweisungsdaten eines elektronischen Dokuments/einer elektronischen Datei, wie eine Anweisung oder Koordinatenpunktdaten, und simuliert automatisch den Vorgang eines Lehrers unter Verwenden des eingebauten Logikmoduls kombiniert mit den heruntergeladenen elektronischen Unterrichtsstundendokumentressourcen, um den Zweck des Same-Screen-Anwendungsanzeige zu erfüllen.
  • Das in Echtzeit empfangene Bild wird lokal von dem Schülerendgerät angezeigt, und eine Reihe der empfangenen synchronen Bilddaten wird als ein wiedergebbarer Videostrom gespeichert, und die Wiedergabe des Videostroms passt zu der relativen Audioaufzeichnung des Lehrers gemäß den Zeitcharakteristiken, um einen Videostrom mit einer Sprache zu bilden.
  • Gemäß einer anderen Aufgabe der vorliegenden Erfindung, wird ein Netzwerkunterrichtssystem bereitgestellt, das einen Server und eine Vielzahl von Benutzerendgeräten umfasst, dadurch gekennzeichnet, dass das System das Verfahren ausführen kann oder das Synchronbildanzeigegerät zum Übertragen des Bildinhalts auf dem Bildschirm von einem der Benutzerendgeräte zu den Endgeräten umfasst, um synchrone Anzeige auszuführen.
  • Durch Verwenden des Verfahrens und des Geräts der vorliegenden Erfindung, besteht eine Fähigkeit zum Ausführen der jederzeitigen Übertragung im Erfassen von Bildschirminhalt in regelmäßigen Zeitpunkten und Ausführen von Kompression, wobei die Übertragungseffekte verbessert werden und Übertragungszeit verkürzt wird. Ein schneller Vergleich des erfassten Bildschirminhalts und intelligentes Bestimmen auf dem synchronen Bild erfolgen durch Verwenden von Eigenwerten, die während der Bildkompression gepasst und erhalten werden, so dass synchrone Übertragung automatisch ohne manuelle Vorgänge ausgeführt wird. Außerdem wird das Übertragen wiederholten Bildschirminhalts weitestgehend vermieden, was Speicherauflagen auf Schülerendgeräten verringert und Verständlichkeit des Inhalts sicherstellt. Außerdem helfen das Markieren und Beurteilen auf dem Bildschirminhalt, die Effizienz der Durchsicht durch den Schüler zu verbessern. Die Schüler können zum Beispiel direkt die letzten Seiten jeder Blackboard-Beschriftung während Durchsichten sehen, was im Allgemeinen umfassenderer Blackboard-Inhalt ist, ohne durch das vorhergehende Prozess-Blackboard-Bild navigieren zu müssen, was die Effizienz der Durchsicht verbessert, und falls ein Schüler wünscht, den Prozess und das Fortschreiten des Lesens zu sehen, wird kein Inhalt übersehen.
  • Das Netzwerkunterrichtssystem der vorliegenden Erfindung verzichtet auf das herkömmliche Unterrichtssystem und auf ein fixes Klassenzimmer, ein Pult, einen Lehrplan, ein Schulbuch, eine Tafel, Kreide usw., so dass ein modernes interaktives Internet-Unterrichtsmuster verwirklicht wird, das Zeit- und Raumeinschränkung beseitigt. Durch Speichern der elektronischen Schulbücher unter Verwenden einer Datenbank, wird das Tragen schwerer Schulbücher verringert, die Unterrichtseffizienz, Interaktivität und das Interesse werden verbessert.
  • Die Erfindung hat die Vorteile, dass das Benutzerendgerät leicht und praktisch zu tragen ist, das Problem existierender Klassenzimmer-Unterrichtssysteme wird effektiv gelöst, bei dem die Probleme sind, dass das ursprüngliche Desktop-Computergehäuse sperrig ist, dass viel Platz belegt wird, dass Vorrichtungen zu zahlreich sind, dass die Verdrahtung kompliziert ist, dass der Betrieb unpraktisch ist und Probleme schwer zu eliminieren sind.
  • Das Same-Screen-Unterrichten erlaubt es Schülern in der Unterrichtsstunde, das Markieren wichtiger Kenntnisse durch den Lehrer in einem Zeitpunkt präzis zu sehen, und der Lehrer kann den Lehrplan markieren und gleichzeitig unterrichten, so dass jeder Schüler in seiner eigenen Unterrichtsausstattung die Markierung des Lehrers sieht und die relevanten Kenntniselemente besser versteht. Die Probleme der Studenten im Klassenzimmer beim Stand der Technik können mit der Unterrichtsgeschwindigkeit nicht Schritt halten, und Erklärung wird eliminiert.
  • Durch das Bildkompressionsverfahren mit einem hohen Verhältnis werden übertragene Videostroms und die Größe des Bilds verringert. Wenn Schüler nach Hause kommen, können sie fehlende oder ungewisse Kenntniselemente nachsehen und das Lernen durch die Wiedergabe der Unterrichtsstunde konsolidieren.
  • Das Kernstück der Erfindung besteht darin, dass auf der Basis des Stands der Technik die Probleme von Bildanzeige und synchroner Anzeige von Anwendungsbetriebsdaten in dem Netzwerkunterrichtssystem auf organische und systemische Art gelöst werden. Unter Voraussetzung der Verwendung einiger Techniken, kann es im Stand der Technik unabhängige Anwendungen geben, es besteht jedoch keine Aufklärung und kein Darlegen kreativer Anwendung der organischen Integration und systemischen Verbesserung dieser Technologien, und unerwartete technische Effekte der Erfindung werden erzielt.
  • Figurenliste
    • 1 ist ein JPEG-Bildkompressionsschritt des Stands der Technik;
    • 2 ist eine Skizze der grundlegenden Struktur eines Netzwerkunterrichtssystems gemäß der vorliegenden Erfindung;
    • 3 ist eine spezifische beispielhafte Skizze eines Netzwerkunterrichtssystems gemäß der vorliegenden Erfindung;
    • 4 ist eine schematische Darstellung eines Benutzerendgeräts des Netzwerkunterrichtssystems gemäß der vorliegenden Erfindung;
    • 5 ist eine schematische Darstellung der grundlegenden Schritte eines Verfahrens zur synchronen Anzeige gemäß der vorliegenden Erfindung;
    • die 6-1 bis 6-3 sind schematische Darstellungen eines Prozesses des Erhaltens von Wegkoordinatendaten gemäß der vorliegenden Erfindung;
    • 7 ist eine schematische Darstellung des Bildkompressionsprozesses gemäß der vorliegenden Erfindung;
    • 8 ist eine JPEG-Luminanz- und Chrominanz- Quantisierungstabelle gemäß der vorliegenden Erfindung;
    • 9 ist eine Abfolgenummer eines Zickzack-gescannten DCT-Eigenwerts gemäß der vorliegenden Erfindung;
    • 10 ist eine schematische Darstellung einer Datenübertragungsarchitektur basierend auf dem UDP-Protokoll, gemäß der vorliegenden Erfindung;
    • 11 ist eine schematische Darstellung der Thread-Überwachung gemäß der vorliegenden Erfindung;
    • 12 ist eine Skizze der Same-Screen-Anzeige des Schülerendgeräts gemäß der vorliegenden Erfindung, und
    • 13 ist eine schematische Darstellung des Benutzerendgerät-Feedbackmechanismus des Netzwerkunterrichtssystems gemäß der vorliegenden Erfindung.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Wie in 2 gezeigt, gemäß der schematischen Darstellung des Netzwerkunterrichtssystems, auf das das synchrone Bildanzeigeverfahren gemäß der vorliegenden Erfindung verweist, weist das Netzwerkunterrichtssystem einen Hintergrundserver, eine Vielzahl von Benutzerendgeräten (Schülerendgeräte, Unterrichtsendgeräte für Lehrer) und Internet auf, wobei der Server ein lokaler Server und/oder ein entfernter Server sein kann, der auf einem entfernten Host vorgesehen ist, oder ein Cloud-Server auf einer Netzwerk-Cloud, und der Client des Netzwerkunterrichtssystems läuft auf den Benutzerendgeräten. Außerdem können Projektionsvorrichtungen und dergleichen ebenfalls enthalten sein. Das Netzwerk ist das Internet, das ein Local Area Network (wie ein Hochschulgelände-Netzwerk) und ein Wide Area Internet, kann ein verdrahtetes Internet sein kann, oder kann auch ein drahtloses Internet sein oder irgendeine Kombination davon. Der Client kann einer der diversen Software-Clients oder Mobiltelefon-APPs sein.
  • Wie in 3 gezeigt, gemäß der spezifischen beispielhaften Skizze des Netzwerkunterrichtssystems, auf das bei dem synchronen Bildanzeigeverfahren gemäß der vorliegenden Erfindung verwiesen wird, weist das Netzwerkunterrichtssystem beispielhaft ein Cloud-Datencenterteil, ein Hochschulgelände-Internetmodusteil und das Internet-Direktverbindungsmodusteil auf. Das Cloud-Datencenter weist mindestens einen Server auf, der Buchressourcen, Lehrplanressourcen, Unterrichtssoftware und Videoressourcen aufweisen kann. Das Hochschulgelände-Internetmodusteil weist einen Zugangsschalter, einen lokalen Hochschulgeländeserver, einen Hochschul-AC-Zugangspunkt und eine Vielzahl von Unterrichtsstunden-APs, die in Klassenzimmern eingerichtet und durch Verwenden eines Branch Virtual Local Area Networks (VLAN) verbunden sind, auf. Jedes Klassenzimmer weist eine Vielzahl von Schülerendgeräten, eine Projektionsvorrichtung, ein elektronisches Whiteboard und ein Lehrerendgerät auf. Der Internet-Direktverbindungsmodusteil kann direkt mit dem Cloud-Datencenter über das Internet ohne einen Hochschulgeländeserver verbunden sein.
  • Zu bemerken ist wieder, dass der Netzwerkunterricht gemäß der vorliegenden Erfindung nicht auf eine Unterrichtsform von Schülern und Lehrern beschränkt ist. Er kann Netzwerk-Onlineunterricht, Netzwerk-Fernunterricht, lokalen Netzwerkunterricht aufweisen, bei dem die Lehrer-Benutzer, Schüler-Benutzer oder Training-Benutzer die Hauptteilnehmer sind, und Online-Webkonferenz, Fern-Webkonferenz und lokale Webkonferenz sowie andere Kommunikations-/Wechselwirkungsformen, die das Netzwerk für Online-Kommunikationen und/oder Anzeige von Dokumenteninhalt nutzen, wie Fernzusammenarbeit, bei welcher die Arbeitnehmer von Unternehmen und Institutionen die Hauptteilnehmer sind.
  • Wie in 4 gezeigt, gemäß der schematischen Strukturskizze des Benutzerendgeräts des Netzwerkunterrichtssystem gemäß der vorliegenden Erfindung, was eine typisches Benutzerendgerät betrifft, das von dem Netzwerkunterrichtssystem der vorliegenden Erfindung verwendet werden kann, ist die vorliegende Erfindung nicht auf ein solches Benutzerendgerät beschränkt. Eine ausführliche Beschreibung eines solchen typischen Endgeräts ist in der chinesischen Patentanmeldung 201410553620.8 zu finden, und eine ausführliche Beschreibung der Struktur wird hier nicht wiederholt. Eine kurze Beschreibung ist wie folgt:
  • Das Benutzerendgerät weist einen Hostcomputer 1 auf, wobei der Hostcomputer 1 ein Grundgehäuse 11 und einen Mittenrahmen 14, eine Hauptplatine 12, eine Flüssigkristalltafel 13 und ein Touchpanel 15 aufweist, die stationär zwischen dem Grundgehäuse 11 und dem Mittenrahmen 14 montiert sind; eine Hauptplatinenschaltung, die auf der Hauptplatine 12 angeordnet ist, wobei die Hauptplatinenschaltung eine Audiorauschreduzierungsschaltung und einen CPU-Chip aufweist, und die CPU mit einem CM6571-Chip der Audiorauschreduzierungsschaltung mittels einer USB-Schnittstelle verbunden ist, und der Touchscreen ein kapazitiver elektromagnetischer Komposit-Doppelschicht-Touchscreen ist, wobei die obere Schicht ein kapazitiver Bildschirm und die untere Schicht ein elektromagnetischer Bildschirm ist.
  • Die Hauptplatine 12 ist ferner mit einer Batterie 121, einem 3G-Modul, einem SIM-Kartenschlitz, einem IC-Kartenschlitz 124 und einem Magnetkopf 123 einer Magnetkarte versehen, wobei das 3G-Modul, der SIM-Kartenschlitz, der IC-Kartenschlitz 124 und der Magnetkopf 123 der Magnetkarte alle mit der Hauptplatinenschaltung verbunden sind, wobei die Hauptplatinenschaltung mit der Batterie 121 verbunden ist und mit Strom durch Verwenden der Batterie 121 versorgt wird, wobei der Magnetkopf 123 der Magnetkarte konfiguriert ist, um Magnetstreifeninformation der Magnetkarte zu lesen, und der IC-Kartenschlitz 124 konfiguriert ist, um IC-Karte aufzunehmen, um die IC-Karteninformationen zu lesen. Bei der vorliegenden Erfindung erfolgt das Durchziehen der Bankkarte durch Verwenden des IC-Kartenschlitzes und des Magnetkopfs der Magnetkarte, was eine Bezahlung an Ort und Stelle für Unterrichts- und Trainingseinrichtungen erleichtert und Zwecke des Einloggens durch Durchziehen und Mitgliedsmanagement durch Ausstellen von Mitgliedskarten ausführt.
  • Die Hauptplatine 12 ist mit einem FPC-Steckverbinder 122 versehen und kann mit dem LCD 13 mittels des FPC-Steckverbinders 122 verbunden werden.
  • Das hintere Ende des Grundgehäuses 11 weist eine Öffnungsnut 111 auf; das hintere Ende des Mittenrahmens 14 weist eine Aufnahmenut 2 auf, wobei die Aufnahmenut 2 entsprechend in der Öffnungsnut 111 liegt, und die Öffnungsnut 111 auch eine umkehrbare Abdeckung 3 aufweist, die umgedreht werden kann, um einen entsprechenden abgedichteten Hohlraum mit der Aufnahmenut 2 nach dem Umdrehen des umkehrbaren Deckels 3 zu bilden. Das hintere Ende des Grundgehäuses 11 ist auch mit einer Einfügeöffnung 112 versehen, in der ein elektromagnetischer Stift 7 befestigt ist, wobei in dem elektromagnetischen Stift 7 eine Steuerschaltung, ein elektromagnetisches Stiftsensormodul, und eine Stromversorgungsbatterie eingebaut sind; die Steuerschaltung ist elektrisch mit dem elektromagnetischen Stiftsensormodul und der Stromversorgungsbatterie verbunden; ein Ende ist eine elektromagnetische Stiftspitze, und das andere Ende ist ein Laserstiftende. Der Mittenteil des elektromagnetischen Stifts ist mit einem Schallreduzierungsmikrofon versehen, und das Schallreduzierungsmikrofon ist mit einer Steuerschaltung verbunden, wobei die Steuerschaltung ein Bluetooth-Modul zum Übertragen eines Audiosignals aufweist, und der elektromagnetische Stift kann nicht nur direkt auf einem Touchscreen schreiben, sondern kann auch als ein Mikrofon und als ein Fernlasercontroller bei Halten in der Hand verwendet werden.
  • Der Grund des Grundgehäuses 11 ist auch mit einer Kartenabdeckung 115 zum Befestigen des 3G-Moduls versehen. Zusätzlich, um einen besseren Blickwinkel zu erzielen, ist ein Rückseitentragpad 114 an dem hinteren Ende des Grundgehäuses 11 montiert, und ein Vorderseitentragpad 113 ist an dem vorderen Ende des Grundgehäuses 11 derart montiert, dass der gesamte Hostcomputer 1 in einem bestimmten Schwenkwinkel montiert und zum Beobachten und Verwenden durch Benutzer geeignet ist.
  • Eine Hochgeschwindigkeitskamera ist in der Aufnahmenut 2 montiert, wo die Hochgeschwindigkeitskamera einen Hauptrahmen 4, einen Unterrahmen 5 und einen Fotografierhebel 6 aufweist. Ein Ende des Hauptrahmens 4 ist drehbar mit einem Schaftelement 42 verbunden, das stationär in der Aufnahmenut 2 mittels eines drehenden Schaftelements 41 montiert ist, und das andere Ende ist bewegbar mit dem Subrahmen 5 mittels einer ersten vertikalen drehenden Welle 54 verbunden.
  • Der Subrahmen 5 weist eine obere Subrahmenabdeckung 51, eine untere Subrahmenabdeckung 52 und eine Leiterplatte 53 auf, die zwischen der oberen Subrahmenabdeckung 51 und der unteren Subrahmenabdeckung 52 montiert ist, wobei die Leiterplatte 53 mit einer Hauptplatinenschaltung auf der Hauptplatine 12 durch Verwenden einer Schaltung, die in den Hauptrahmen 4 montiert ist, verbunden ist.
  • Im Allgemeinen kann das Benutzerendgerät, das angenommen wird, Folgendes aufweisen: Einen Prozessor, ein Netzwerkmodul, ein Steuermodul, ein Anzeigemodul und ein intelligentes Betriebssystem, wobei das Benutzerendgerät alle Arten von Datenschnittstellen aufweisen kann, die mit diversen Erweiterungsvorrichtungen und Zubehörteilen durch einen Datenbus verbunden sind; wobei das intelligente Betriebssystem Ausführungsplattformen für Windows, Android und deren Verbesserungen aufweist, und IOS, auf welchen Anwendungssoftware installiert und ausgeführt werden kann, um Funktionen diverser Anwendungssoftware, Services und Anwendungsprogramm-Stores/Plattformen in dem intelligenten Betriebssystem auszuführen.
  • Das Benutzerendgerät kann diverse individuelle mobile Zugangsvorrichtungen für Benutzer verwenden, die entsprechende Leistungsanforderungen erfüllen, wie zum Beispiel einen Tablet-Computer, ein Smartphone und einen Notebook-Computer, solange die Vorrichtungen mit Anwendungssoftware versehen sind, die auf dem Verfahren oder Gerät der vorliegenden Erfindung basieren. Zum Beispiel könnte ein customisierter 10.1-Zoll-Android-Tablet-Computer eingesetzt werden. Das Benutzerendgerät muss ein Login-Konto für den Zugang zu dem Client des Systems verwenden. Das Benutzerendgerät kann ein Lehrerendgerät, ein Schülerendgerät und ein Elternendgerät usw. sein, und unterschiedliche Benutzer verwenden unterschiedliche Identitäten zum Einloggen in Clients der entsprechenden Benutzerendgeräte, während Vorrichtungen in entsprechende Systemschnittstellen einloggen, um entsprechende Funktionen zu verwirklichen.
  • Bei der vorliegenden Erfindung kann das Benutzerendgerät mit dem Internet in einer Netzwerkverbindungsart verbunden werden, wie zum Beispiel RJ45/Wi-Fi/Bluetooth/20/3G/4G/Ghn/Zigbee/Z-ware/RFID; es kann mit anderen Endgeräten oder anderen Computern und Ausstattungen mit Hilfe des Internets verbunden werden und kann mit diversen Erweiterungsvorrichtungen und Zubehörteilen über eine Vielfalt von Datenschnittstellen oder einen Busmodus von 1394/USB/serial/SATA/SCSI/PCI-E/Thunderbolt/Datenkartenschnittstelle verbunden werden, und eine Verbindungsart, wie zum Beispiel Audio- und Videoschnittstelle von HDMI/YpbPr/SPDIF/AV/DVUVGA/TRS/SCART/Displayport, so dass eine interaktive Konferenz-/Unterrichtsausstattungsplattform gebildet wird.
  • Das Benutzerendgerät kann mit einem Spracherfassungs-Steuermodul und einem Bewegungserfassungs-Steuermodul in einer Softwareform versehen sein, oder mit einem Spracherfassungs-Steuermodul und einem Bewegungserfassungs-Steuermodul in der Form von Hardware auf dem Datenbus, um Sprach- und Aktionssteuerfunktionen auszuführen, Anzeigen, Projizieren, Tonzugriff, Audio- und Videowiedergabe, und digitale oder analoge Audio-Video-Eingabe- und Ausgabefunktionen werden durch Verbinden eines Anzeige-/Projektionsmoduls erzielt, ein Mikrofon, eine Audioausstattung und andere Audio-und Videoausstattung über eine Audio- und Videoschnittstelle; Bildzugriff, Sprachzugriff, Nutzungssteuerung und Bildschirmaufzeichnung eines elektronischen Whiteboards, und eine Funkfrequenzidentifikations (Radio Frequency Identification (RFID)-Lesefunktion wird durch Verbinden einer Kamera, eines Mikrofons, eines elektronischen Whiteboards und eines RFID-Lesegeräts durch eine Datenschnittstelle ausgeführt; mobile Speichervorrichtungen, digitale Vorrichtungen und andere Vorrichtungen, auf die durch entsprechende Schnittstellen zugegriffen und gesteuert werden kann; und Funktionen, wie Steuern, Wechselwirkung und Bildschirmverwerfung unter Multi-Bildschirmvorrichtungen werden durch Verwenden einer Digital Living Network Alliance (DLNA)/Intelligent Grouping and Resource Sharing (IGRS)-Technik und der Internet-Technologie erzielt.
  • Bei der vorliegenden Erfindung ist der Prozessor definiert, um Folgendes aufzuweisen, ohne darauf beschränkt zu sein: ein Anweisungsausführungssystem, wie zum Beispiel ein System, das auf einem Computer/Prozessor basiert, eine anwendungsspezifische integrierte Schaltung (Application Specific Integrated Circuit (ASIC)), eine Rechenvorrichtung, oder Hardware- und/oder Softwaresysteme, die Logiken von einem nicht zeitweiligen Speichermedium oder einem nichtflüchtigen computerlesbaren Speichermedium erhalten oder erfassen können, und Ausführungsanweisungen, die in dem nicht zeitweiligen Speichermedium oder dem nichtflüchtigen computerlesbaren Speichermedium enthalten sind. Der Prozessor kann ferner eine beliebige Steuervorrichtung, eines Statusmaschine, einen Mikroprozessor, eine Internet-basierte Entität, Service oder Merkmal oder eine beliebige andere analoge, digitale und/oder mechanische Umsetzungsart davon aufweisen. Bei der vorliegenden Erfindung ist ein computerlesbares Speichermedium definiert, um Folgendes einzuschließen, ohne darauf beschränkt zu sein: ein beliebiges Medium, das fähig ist, Programme, Informationen und Daten zu enthalten, zu speichern oder verwahren. Das computerlesbare Speichermedium weist eine beliebige Anzahl physischer Medien auf, wie zum Beispiel ein elektronisches Medium, ein magnetisches Medium, ein optisches Medium, ein elektromagnetisches Medium oder ein Halbleitermedium. Spezifischere Beispiele geeigneter computerlesbare Speichermedien und Speicher, die von den Benutzerendgeräten und Servern verwendet werden, weisen folgende auf, ohne darauf beschränkt zu sein: eine magnetische Computerplatte (wie zum Beispiel Floppydisk oder Festplatte), ein Magnetband, einen Direktzugriffsspeicher (Random Access Memory (RAM)), einen Nurlesespeicher (Read Only Memory (ROM) ), einen löschbaren programmierbaren Nurlesespeicher (Erasable Programmable Read-Only Memory (EPROM), eine Compact Disk (CD) oder eine Digital Video Disk (DVD), eine Blu-ray-Speicherplatte, eine Solid State Disk (SSD) und einen Flashspeicher.
  • Die Kursinformationen, die von dem Lehrerendgerät aufgezeichnet und hochgeladen werden, werden durch den Hintergrund-Server gespeichert und stimmen mit den Kursinformationen durch die ID und den Zeitstempel des Aufzeichnens des Kurses überein. Das System CentOS 6.4 oder höher wird auf den Hintergrund-Server verwendet, und eine Meta Quarter Language (MQL)-Datenbank wird zum Speichern interaktiver Endgerätdaten verwendet, darunter Audio-, Video- und Textdateien, um ein Verzeichnis und einen Index zum Lesen und Abrufen zu bilden, und auch Ereignisinformationen, Login-Informationen und Login-Informationen, die von dem Betriebssystem zum Hochladen und Verwalten der Lernsoftware durch ein Lernsoftware-Editiermanagementsystem erzeugt werden.
  • Das Lehrerendgerät, das Schülerendgerät und der Hintergrund-Server sind durch das Netzwerk verbunden, und die drei können verdrahtete Kommunikation durch eine RJ45-Schnittstelle ausführen, oder drahtlose Netzwerkkommunikation durch Verwenden einer kommerziellen drahtlosen Kommunikationsart ausführen, wie zum Beispiel mit einem WIFI-Modul, einem 3GPCI-E-Modul und einem 2G-, 3G-, 4G- und 5G-Modul. Eine SIM-Karte kann in das Modul eingefügt werden. Das Lehrerendgerät wird zum Aufnehmen des Kurses eines Lehrers und zum entsprechenden Hochladen und Speichern in der Form eines Datenstroms und Audiostroms zu dem Hintergrund-Server verwendet, und das Schülerendgerät wird zum Erfassen der ID des aufgezeichneten Kurses und entsprechenden Lesen des Datenstroms und des Audiostroms, die dem Zeitstempel von dem Hintergrund-Server entsprechen, verwendet. Der Datenstrom besteht aus Vortragszeit und Aktionsinformationen, die von dem Lehrerendgerät in dem Lehrer-Multimedia-Klassenzimmer aufgezeichnet werden; und der Audiostrom besteht aus Klassenzimmerzeit und Sprachinformationen, die von dem Lehrerendgerät in dem Lehrer-Multimedia-Klassenzimmer aufgezeichnet werden.
  • Das Netzwerkunterrichtssystem weist ferner eine Projektionsvorrichtung in Kommunikationsverbindung mit dem Lehrerendgerät auf. Die Projektionsvorrichtung ist ein Projektor mit einem Bildschirm oder einem Widescreen-Display. Beim Verwenden für den Klassenzimmerunterricht, wird die Projektionsvorrichtung mit dem Lehrersteuermodul unter Verwenden einer High Definition Multimedia Interface (HDMI)-Schnittstelle verbunden, und Touchscreeninhalt des Endgeräts wird angezeigt.
  • Ein Lehrer-Benutzer loggt in den Hintergrund-Server durch das Lehrerendgerät ein und lädt einen Lernsoftware-Editor herunter und installiert ihn. Der Editor-Quellencode ist in einem C&C++ Modus entwickelt, und Multiple-Choice-Fragen, Single-Choice-Fragen und Beurteilungsfragen werden hinzugefügt und basierend auf Office 2010 Word editiert und dann zu dem Hintergrund-Server hochgeladen, um Test-Lernsoftware und Lernsoftware und Lernsoftware-Analyseresultate, die in dem Server in einem eXtensible Markup Language (XML)-Dokument Format zu speichern sind, zu bilden. Das Benutzerendgerät unterteilt die Lernsoftware durch Verwenden von Informationen, die von der Lernsoftware geparst werden, um eine Shock Wave Flash (SWF)-Fragendatei zu erzeugen und auf dem Touchscreen anzuzeigen. Die intelligente Beurteilung einer Antwort erfolgt durch Vergleichen der Antwort, die von einem Schüler eingegeben wird, mit einer vorab auf der Serverseite gespeicherten Antwort, und die Resultate können automatisch nach dem Beantworten berücksichtigt werden, um Praktiken oder Tests in der Unterrichtsstunde zu erleichtern. Der Schüler-Benutzer loggt in den Hintergrund-Server durch das Schülerendgerät ein, lädt eine elektronische Dokumentdatei, die in der Unterrichtsstunde verwendet wird herunter und speichert sie in einem lokalen Endgerät.
  • Das synchrone Bildanzeigeverfahren der vorliegenden Erfindung zeigt synchron den Inhalt auf einem Benutzerendgerät zu anderen Benutzerendgeräten an. Im Allgemeinen ist das Benutzerendgerät ein Lehrerendgerät, und die Endgeräte, die das Anzeigen von Inhalt akzeptieren, sind im Allgemeinen Schülerendgeräte.
  • Der ausführliche Betriebsfluss jedes Schritts des synchronen Bildanzeigeverfahrens gemäß der vorliegenden Erfindung wird unten ausführlich beschrieben.
  • Das synchrone Bildanzeigeverfahren, das an ein Netzwerkunterrichtssystem angewandt wird, das ein Lehrerendgerät, ein Schülerendgerät, einen Server und ein Netzwerk umfasst, umfasst die folgenden Schritte:
    • einen Schritt des Einschaltens des Lehrerendgeräts, das vorbereitet wird, um Daten zur synchronen Anzeige zu erfassen;
    • einen Schritt des Erfassens von Same-Screen-Anzeigedaten, des Erfassens der Same-Screen-Anzeigedaten zur synchronen Anzeige;
    • einen Schritt des Erfassens der Same-Screen-Anwendungsdaten, des Erfassens der Same-Screen-Anwendungsbetriebsdaten zur synchronen Anzeige;
    • einen Bildkompressionsschritt, der die erfassten Same-Screen-Anzeigebilddaten unter Verwenden eines Joint Photographic Experts Group (JPEG)-Formats komprimiert; einen Schritt des Beurteilens der Bildübertragung, der beurteilt, ob die zwei benachbarten Same-Screen-Anzeigebilder, die bei dem Kompressionsschritt komprimiert werden, gleich sind, und Bestimmen, ob das Bild gemäß dem Beurteilungsresultat übertragen wird;
    • einen Schritt des Segmentierens der komprimierten Bilddaten, die zum Übertragen bestimmt werden, der die komprimierten Bilddaten, die zum Übertragen bestimmt wurden, segmentiert sowie die Anwendungsdaten, um ein Übertragungsdatenpaket zu bilden;
    • einen Schritt des Übertragens eines Datenpakets, der das Datenpaket zu einer Vielzahl von Benutzerendgeräten in
    • einem Multicast-Modus basierend auf einem User Datagram Protocol (UDP)-Protokoll überträgt;
    • einen Schritt des Threadüberwachens, der konfiguriert ist, um Echtzeitüberwachung auf dem Thread beim Übertragen basierend auf dem UDP-Protokoll auszuführen und verlorene Paketdaten neu zu übertragen;
    • einen Schritt des Verarbeitens abgelaufener Daten, der konfiguriert ist, um die abgelaufenen Daten in dem Netzwerkunterrichtssystem zu verwerfen, um die flüssige Netzwerkübertragung sicherzustellen, und
    • einen Synchronanzeigeschritt, der konfiguriert ist, um synchrone Anzeige auf dem Schülerendgerät zum Empfangen von Daten auszuführen.
  • Wie in 5 gezeigt, sind die Erfassung der synchronen Daten und der grundlegende Datenübertragungsmodus des synchronen Anzeigens systematisch gezeigt. Unter Verwenden des synchronen Anzeigeverfahrens der vorliegenden Erfindung, werden Vortragszeit und Aktionsdatenstrom, Unterrichtszeit und Sprachdatenstrom jeweils von dem Lehrerendgerät und dem Unterrichts-Multimedia-Klassenzimmer von dem Lehrer in dem Klassenzimmer erhalten. Anhand der Verbindung zwischen dem Hochschulgelände-Local Area Network und dem Internet, werden die Daten erhalten und durch das Internet durch einen intelligenten Unterrichts-Cloud-Server verarbeitet und über das Internet und das Hochschulgelände-Local Area Network zu dem Schülerendgerät zum Bereitstellen von Diensten für die Schüler verteilt.
  • Für jeden der oben stehenden Schritte: wird ein Schritt des Einschaltens des Lehrerendgeräts, das vorbereitet wird, um Daten zur synchronen Anzeige zu erfassen, ausgeführt. Das synchrone Bildanzeigeverfahren der vorliegenden Erfindung basiert auf einem Netzwerkunterrichtssystem. Das System startet ein Programm zur synchronen Bildanzeige, wenn der Client des Lehrerendgeräts aktiviert wird, um in einen Arbeitszustand überzugehen.
  • Ein Schritt der Same-Screen-Datenerfassung besteht aus dem Erfassen der Same-Screen-Anzeigebilddaten zur synchronen Bildanzeige.
  • Die Arten des Erfassens von Bilddaten können diverse Arten sein, darunter ein Screenshot-Bild, ein Bild, das von einer Kamera oder einem Fotoapparat aufgenommen wird, ein Bild, das durch einen Scanner erfasst wird usw. Inhalt auf dem Bild weist das Schreiben des Lehrers auf dem Blackboard, ein Screenshot-Bild, das von einem elektronischen Whiteboard oder einem fotografierten Bild erhalten wird; ein fotografiertes Bild, das von einer gewöhnlichen Tafel erhalten wird; kann ein Screenshot-Bild oder ein fotografiertes Bild sein, das durch einen Tablet-Computer eingegeben und auf einem Bildschirm angezeigt wird; ein Bild einer Textfotografie oder dergleichen, das durch Verwenden eines Scanners eingegeben wird, und ein Screenshot-Bild, das auf dem Lehrerendgerät integriert angezeigt wird, sein.
  • Zu herkömmlich verwendeten Bildformaten gehören JPEG, BMP, GIF, PNG, TIFF usw., JPEG (Joint Photographic Experts Group) und BMP (Bitmap) sind die am weitesten verbreiteten. BMP ist ein von Hardware unabhängiges Bilddateiformat, das vorrichtungsunabhängige Bitmap genannt werden kann. BMP nimmt die Form eines Mapping-Speicherformats an und, außer einer optischen Bildtiefe, wird keine andere Kompression verwendet, so dass eine BMP-Datei relativ viel Speicherplatz beansprucht, und zu den Standardbildformaten in der Windows-Umgebung gehört, aber seine Größe ist zu groß, um über das Netzwerk übertragen zu werden.
  • Eine typische BMP-Bilddatei besteht aus vier Teilen: eine Bitmap-Dateikopfdatenstruktur, die den BMP-Bilddateityp, Anzeigeinhalt und andere Informationen enthält, deren Struktur im Allgemeinen eine fixe Länge von 14 Bytes ist; eine Bitmap-Informationsdatenstruktur, die Breite, Höhe, Kompressionsverfahren, Farbdefinition und andere Informationen des BMP-Bilds enthält, deren Strukturlänge im Allgemeinen eine fixe Länge von 40 Byte ist; eine Palette, die ein optionaler Teil ist; Bitmap-Daten, wobei der Inhalt dieses Teils mit der Anzahl der Bits der BMP-Bitmap, die verwendet wird, variiert, und RGB wird direkt in 24-Bitmap verwendet.
  • BMP wird als ein herkömmliches Bitmap-Format betrachtet. Falls ein ursprünglich erhaltenes Bild nicht in einem BMP-Format ist, sollte das Format in ein BMP-Format umgewandelt werden, und dann wird das BMP-Bild in ein JPEG-Bild komprimiert.
  • Das Netzwerkunterrichtssystem der vorliegenden Erfindung kann das Erfassen von Bildschirmen ausführen oder in Echtzeit gemäß Regeln erhalten. Der Bildschirmanzeigeinhalt oder fotografierte Inhalt, der synchron anzuzeigen ist, wird zum Beispiel automatisch in Abständen von einigen Sekunden erfasst, oder Bildschirmanzeigeinhalt oder Fotografieren des relevanten Inhalts erfolgt manuell und wird willkürlich gemäß dem eigenen Gutdünken und/oder Unterrichtserfordernissen von den Lehrern erfasst, so dass das BMP-Bild, das synchron anzuzeigen ist, erhalten wird. Typischerweise ist der Inhalt dieser BMP-Bilderinhalt, der auf dem Lehrerendgerät angezeigt wird. Dieser Inhalt ist typischerweise Inhalt, der vom Lehrer auf dem Blackboard geschrieben wird, der in diversen Formen erhalten wird, wie zum Beispiel ein Blackboard-Schreibbild auf einem elektronischen Whiteboard sein kann, und Blackboard-Schreibinhalt sein kann, der auf einem gewöhnlichen Whiteboard fotografiert wird.
  • In Übereinstimmung mit der vorliegenden Erfindung, enthalten Arten zum Erhalten von Screenshots:
    1. (A) das Erfassen des BMP-Bilds einer aktuellen Betriebsseite durch Neuschreiben der Android-System-Screenshot-Komponente;
    2. (B) Erfassen des BMP-Bilds durch Aufzeichnen einer Szene eines Bereichs, der von den Lehrern ausgewählt wird, unter Verwenden einer Hochgeschwindigkeitskamera;
    3. (C) Erfassen des BMP-Bilds einer Beschriftung, die mit einem Whiteboard-Stift durch Befehlssteuerung geschrieben wird;
  • Der Schritt der Same-Screen-Datenerfassung besteht aus dem Erfassen der Anwendungsbetriebsanweisungsdaten zur synchronen Bildanzeige.
  • Für Daten, deren Anzeige auf demselben Bildschirm direkt unnötig ist, kann die Same-Screen-Anwendung Betriebsinformation, die synchron angezeigt werden muss, durch Übertragen einer Anweisung und von Koordinatenpunktdaten erhalten werden, und dann erfolgt die synchrone Bildanzeige durch Betriebsreproduktion. Spezifisch, was den Inhalt einer solchen Blackboard-Beschriftung betrifft, die von dem Lehrerendgerät gezeichnet wird, werden Wegkoordinatendaten des Blackboard-Schreibverlaufs gesendet, während der Lehrer-Benutzer auf dem Blackboard auf der APP auf dem Endgerät schreibt, und nachdem die Wegkoordinatendaten von dem Schülerendgerät erhalten wurden, wird ein Echo durch Neuzeichnen von Koordinaten unter Verwenden von Anweisungen erhalten, ohne die gesamten angezeigten Bildinformationen zu erhalten.
  • Was die Anweisungsextraktion und Maschinenlernen betrifft: zuerst wird eine System-Maschinenlernfähigkeit aufgebaut; diverse Dateibetriebsanweisungen werden durch eine Wörterbuchtabelle aufgezeichnet, und praktische Ausführungssprachen, die den Betriebsanweisungen entsprechen, werden durch Index-Übereinstimmung gezeigt. Insbesondere, was die unterschiedlichen Klassifizierer (schwache Klassifizierer), die in demselben Trainingssatz trainiert werden, betrifft, werden diese schwachen Klassifizierer vereint, um einen stärkeren abschließenden Klassifizierer (einen starken Klassifizierer) zu bilden.
  • Das Verfahren selbst wird durch Ändern der Datenverteilung verwirklicht, ein Gewichtswert jeder Abtastung wird auf der Basis bestimmt, ob die Klassifizierung jeder Abtastung in jedem Trainingssatz korrekt ist, sowie ob alle vorhergehenden Gesamtklassifikationen präzis sind. Der neue Datensatz mit dem modifizierten Gewichtswert wird zu dem schwachen Klassifizierer zum Training gesendet. Schließlich werden die Klassifizierer, die durch jedes Training erhalten werden, zusammengeführt, um einen abschließenden Entscheidungsklassifizierer zu bilden. Anweisungsextraktions-Maschinenlernen erlaubt es, effektivere Anweisungen auf einer Datenbank durch automatisches Systembeurteilen zu speichern und ungültige Anweisungen zu löschen, so dass ein Unterrichtsprozess vollständiger ist und Daten, die in der Datenbank gespeichert sind, effektiver sind.
  • Die 6-1 bis 6-3 sind schematische Darstellungen eines Prozesses des Erhaltens von Wegkoordinatendaten gemäß der vorliegenden Erfindung. Beim Erfassen der Wegkoordinatendaten, könnten die folgenden Schritte verwendet werden: Initialisieren der Bildschirmanordnung; Anwenden, um eine zeitweilige Leinwand zu bilden; Parsen von Wegkoordinatendaten; Bestimmen, ob es ein Pinsel ist; Wiedergabe der Pinselaktion falls ja, anderenfalls Erhalten der nächsten Anweisung; Bestimmen, ob eine anschließende Anweisung vorhanden ist, nachdem die Pinselaktion abgeschlossen wurde, und Fortsetzen des Erhaltens der nächsten Anweisung, falls ja, anderenfalls Beenden der Wiedergabe und Anzeigen der Resultate auf dem Endgerät. Spezifisch ist der Aufzeichnungsprozess der Weg-Wegkoordinatendaten der folgende:
    • A1: Parsen der aufgezeichneten Weg-Wegkoordinatendaten und ihr Speichern in einen zeitweiligen Anweisungskoordinatenstapel und dann Ausführen einer anfänglichen Anordnung auf dem Bildschirm und Einstellen eines Hintergrundmusters auf einer Leinwand des Bildschirms;
    • A2: Anlegen einer neuen Bitmap und Verwenden dieser Bitmap zum Erzeugen eines zeitweiligen Leinwand-temptCanvas;
    • A3: Einstellen des Hintergrunds der tempBitmap auf durchsichtig zum Zweck des Lokalisierens des Ziels der zeitweiligen Leinwand temptCanvas in der angelegten tempBitmap;
    • A4: Nach einer solchen Struktur, Extrahieren der Koordinatenanweisungen aus dem Anweisungsstapel und ihr einzelnes Wiederherstellen, wobei ein entsprechendes Bild auf der zeitweiligen tempBitmap durch alle Zeichenfunktionen der temptCanvas durch Überschreiben, das mittels der temptCanvas ausgeführt wird, gezeichnet wird, so dass in dem Aktionsbacktrackingprozess Zeichenpunkte, Zeichenlinien die temptCanvas an Stelle der Leinwand, die ursprünglich auf dem Bildschirm war, abrufen, umfassend temptCanvas, drawPoint und temptCanvasRect, und
    • A5: Nach der Ausführung aller Anweisungskoordinatenstapel, Ausführen von Canvas.drawBitmap (tempBitmap,0,0,null), wobei die temptCanvas dafür zuständig ist, diverse Pinselstriche auf der tempBitmap zu zeichnen, während die Leinwand für das Zeichnen der tempBitmap auf dem Bildschirm zuständig ist.
  • Der Referenzpunkt der Bezier-Kurve wird durch die Mittenposition zweier aufeinanderfolgender eingeführter Koordinatenpunkte eingestellt, und dann wird der Bezier-Algorithmus zum Glätten verwendet, um mehrere Punkte als eine glatte Kurve darzustellen. Der abschließende Koordinatenpunkt wird als der Anfangspunkt des darauffolgenden Betriebsreferenzpunkts eingestellt, und der Weg wird in einem Wegsatz gespeichert. Die logischen Schritte, die durch die Aktion beschrieben werden, sind die folgenden, wobei die (float x, float y)-Parameter, die durch eine touchMove-Funktion eingeführt werden jeweils horizontale und vertikale Achsenkoordinaten sind.
  • private void touchMove (float x, float y)
    
     if (null! = This.mPathPaint)
     float dx = Math.abs (x - this.mPreviousX);
     float dy = Math.abs (y - this.mPreviousY);
     wenn der Abstand zwischen den zwei Punkten größer oder
     gleich 3 ist, wird die Bezier-Plotterkurve erzeugt
     if ((dx> = DEFAULT_TOUCH_TOLERANCE) I I (dy>
     DEFAULT_TOUCH_TOLERANCE))
  • Der Betriebspunkt der Bezier-Kurve wird auf die Hälfte zwischen dem Startpunkt und dem Endpunkt eingestellt
  • float cX = (this.mPreviousX + x) / 2.0F;
    
     float cY = (this.mPreviousY + y) / 2.0F;
    
     // der quadratische Bizet-Algorithmus wird ausgeführt, um
    
     eine glatte Kurve zu erzielen:
     previousX, previousY sind die Betriebspunkte, cX, cY sind
     die Endpunkte
     this.mPath.quadTo (this.mPreviousX, this.mPreviousY, cX,
     cY) ;
     if (!IsEraser ()) {
     this.mCanvas.drawPath (this.mPath, this.mPaint);
    
     }
    
     // bei der zweiten Ausführung wird der Koordinatenwert des
     ersten Aufrufs als der anfängliche Koordinatenwert des
     zweiten Aufrufs verwendet
     this.mPreviousX = x;
     this.mPreviousY = y;
     this.mPathPaint.addPathPoint (x,y) ;
      }
      }
      }
  • Wie in 7 gezeigt, weist der Bildkompressionsschritt, der die erfassten Same-Screen-Anzeigebilddaten komprimiert, unter Verwenden eines JPEG-Formats ferner Bildprimärkompression und Bildsekundärkompression auf. Die grundlegenden Schritte der Sekundärkompression weisen auf: 1, Erfassen des synchronen Bilds; Bestimmen, ob ein Bedarf an Kompression gemäß der Größe des Bilds besteht; dynamisches Berechnen des Kompressionsverhältnisses falls ja, und Komprimieren in das JPEG-Format, falls erforderlich, anderenfalls direktes Einsteigen in einen Bildsegmentierungs- und Beurteilungsschritt, und, falls Segmentieren erforderlich ist, Entpacken des Bilds, und falls nicht, direktes Einsteigen in einen synchronen Datenübertragungsschritt. Spezifisch
    1, Bildprimärkompression
  • Da die maximalen Längen von Datenpaketen, die in einem Multicast-to-Unicast übertragen werden, begrenzt sind, muss das Bild zuerst decodiert und in ein spezifisches JPEG-Formatbild umgewandelt werden, und das Kompressionsverhältnis muss dynamisch gemäß der Größe des Bilds in dem Zeitpunkt der Umwandlung berechnet werden, um die Bildprimärkompression auszuführen. Es wird von einem Objekt des Typs Bitmap empfangen und in Fragmente zur Multicast-Übertragung in Local Area Networks umgewandelt. Im Allgemeinen umfasst die Bildkompression: Differential Pulse Code Modulation (DPCM), Discrete Cosine Transform (DCT), Vector Quantization (VQ)-Codierung sowie andere Techniken. Derzeit weisen die internationalen Bildkompressionsnormen basierend auf DCT und anderen Techniken JPEG, MPEG, H261 usw. auf.
  • Auf der Grundlage der existierenden DCT-Technik sowie weiterer Verbesserung, können übertragener Videostrom, Bilddatei, die mit einer Vielzahl von Bildern eingekapselt ist, oder die Größe einer Bilddatei durch die Bildkompression der vorliegenden Erfindung verringert werden.
  • Die Bildprimärkompression weist ferner die folgenden Schritte auf: zuerst, vor dem Ausführen des Bildkompressionsschritts, werden nicht komprimierte Bilddaten gesichert, um eine Original-Bildbackupdatenbank zu bilden, und, wenn ein Benutzer das komprimierte Bild empfängt und ein feineres Bild anzeigen muss, kann ein Originalbild aus der Original-Bildbackupdatenbank durch einen Klickvorgang heruntergeladen werden.
  • Außerdem werden nach dem Ausführen des Beurteilungsschritts der Bildübertragung die Originalbackupdaten des komprimierten Bilds, von welchen bestimmt wird, dass sie nicht synchron auf dem Schülerendgerät angezeigt werden, aus der Datenbank gelöscht.
  • (1) Forward Discrete Cosine Transform (FDCT)
  • Ein RGB-Farbsystem ist die am häufigsten verwendete Art, Farben darzustellen, und BMP-Bitmap verwendet das RGB-Farbsystem. Drei Komponenten, R, G und B stellen jeweils drei Primärfarben Rot, Grün und Blau dar. Und das JPEG, in das das Bild umgewandelt werden soll, verwendet ein YCbCr-Farbsystem, und die drei Bildkomponenten Y, Cb und Rc stellen jeweils Dominanz, Chrominanz und Sättigung dar. Wenn es sich um Full-Color-Bilder handelt, sollten RGB-Farbmodus-Bilddaten zuerst in YCbCr-Farbmodusdaten umgewandelt werden.
  • Discrete Cosine Transform (DCT) wandelt eine Gruppe von Lichtstärkendaten in Frequenzdaten um, um die Stärkenumwandlungssituation zu erhalten, die zu verlustfreien Umwandlungen gehört. DCT-Transformation unterscheidet jede Frequenzinformation in dem Bild und berücksichtigt dann visuell sensitive Hochfrequenzteil-Informationen, stellt den Niederfrequenzteil, der von Video nicht gesehen wird, digital auf null ein, so dass der Zweck der Bildkompression erzielt wird. Durch DCT-Transformation kann Energie auf einige wenige Eigenwerte konzentriert werden, die im Allgemeinen DC-Eigenwerte und AC-Eigenwerte sind.
  • Während DCT-Transformation, wird das Bild zuerst in NxN Pixelblöcke (auch Subbildblöcke genannt) zerlegt, wobei N = bevorzugt 4, 8 oder 16 ist, und bevorzugter N= 8, werden getrennte zweidimensionale DCT-Transformationen für jeden Subbildblock herausgenommen. Bei der vorliegenden Erfindung wird bevorzugt ein 8x8-Zerlegungsverfahren verwendet. Wenn die Länge eines Originalbilds kein Vielfaches von 8 ist, muss sie in ein Vielfaches von 8 ergänzt werden. Die Amplituden der zweidimensionalen räumlichen Frequenzkomponente von 64 Pixeln werden daher DCT-Eigenwerte genannt, nämlich kann jeder Subbildblock durch 1 DC-Eigenwert und 63 AC-Eigenwerte dargestellt werden.
  • Für ein digitales Bild, das durch Verwenden einer Pixelmatrix (einer quadratischen Matrix) dargestellt wird, wird die folgende Gleichung zur zweidimensionalen positiven DCT-Transformation verwendet: F ( u , v ) = 1 2 N c ( u ) c ( v ) x = 0 N 1 y = 0 N 1 f ( x , y ) cos ( 2 x + 1 2 N u π ) cos ( 2 y + 1 2 N v π )
    Figure DE112015007134T5_0001
    F ( u , v ) = 1 4 c ( u ) c ( v ) x = 0 7 y = 0 7 f ( x , y ) cos ( 2 x + 1 16 u π ) cos ( 2 y + 1 16 v π )
    Figure DE112015007134T5_0002
    wird die folgende Formel für die umgekehrte Transformation der zweidimensionalen DCT (IDCT-Transformation) verwendet: f ( x , y ) = 1 2 N u = 0 N 1 v = 0 N 1 c ( u ) c ( v ) F ( u , v ) cos ( 2 x + 1 2 N u π ) cos ( 2 y + 1 2 N v π )
    Figure DE112015007134T5_0003
    f ( x , y ) = 1 4 u = 0 7 v = 0 7 c ( u ) c ( v ) F ( u , v ) cos ( 2 x + 1 16 u π ) cos ( 2 y + 1 16 v π )
    Figure DE112015007134T5_0004
  • In den beiden oben stehenden Formeln
    • sind u und v die Koordinatenpositionen eines bestimmten Werts in der Matrix nach der DCT-Transformation, nämlich die Frequenzbereichabtastwerte, wobei u=0,1, ..., N-1, and v = 0, 1, ..., N-1;
    • F (u, v) der Frequenzeigenwert an der Position (u, v) in der Matrix nach der DCT-Transformation ist;
    • (x, y) die Koordinatenposition eines bestimmten Werts in der Bilddatei ist, das heißt der Abtastwert des räumlichen Bereichs, wobei x = 0,1, ..., N-1, and y = 0,1, ..., N-1; F (x, y) der Pixelwert an der Position (x, y) in der Bilddatei ist;
    • wenn u = 0 und v = 0,c(u), c ( v ) = 1 2 ,
      Figure DE112015007134T5_0005
      und
    • wenn u> 0 oder v> 0, c (u), c (v) = 1.
  • Natürliche Zahlen der Matrixdaten nach der DCT-Transformation sind Frequenzeigenwerte, der Wert von F (0, 0) ist unter diesen Eigenwerten der größte, das heißt der DC-Eigenwert, und die restlichen 63 Frequenzeigenwerte sind größtenteils positive und negative Gleitkommazahlen nahe null, die gemeinsam die AC-Eigenwerte genannt werden.
  • Zweidimensionale DCT-Transformation ist trennbar, das heißt, dass zweidimensionale Transformation in zwei eindimensionale Transformationen in Reihe aufgeschlüsselt werden kann, was darauf zurückführen ist, dass DCT-Transformation höher ist als die zweidimensionale DCT-Transformation. Die Computerverarbeitungseffizienz kann daher durch Trennen der Berechnung verbessert werden, wodurch die Vorwärtstransformationsgleichung wie folgt neu geschrieben werden kann: F ( u , v ) = 2 N c ( v ) y = 0 N 1 [ 2 N c ( u ) x = 0 N 1 f ( x , y ) cos ( 2 x + 1 2 N u π ) ] cos ( 2 y + 1 2 N π )
    Figure DE112015007134T5_0006
    nämlich wird die eindimensionale DCT-Transformation zuerst entlang jeder Spalte des Bilds ausgeführt, um Folgendes zu erhalten f ( u , y ) = 2 N c ( u ) x = 0 N 1 f ( x , y ) cos ( 2 y + 1 2 N v π )
    Figure DE112015007134T5_0007
    und dann wird die eindimensionale DCT-Transformation zum zweiten Mal entlang jeder Reihe von f(u,y) ausgeführt, um Folgendes zu erhalten F ( u , v ) = 2 N c ( v ) y = 0 N 1 f ( u , y ) cos ( 2 v + 1 2 N v π ) .
    Figure DE112015007134T5_0008
  • Die zweidimensionale DCT-Transformation kann daher schnell durch Verwenden der eindimensionalen DCT-Transformation berechnet werden.
  • (2) Quantization (Quantisierung)
  • Quantisierung besteht aus dem Entfernen redundanter Informationen, die sich wenig auf einen visuellen Effekt des Bilds auswirken, während eine bestimmte Bildqualität aufrechterhalten wird. Angesichts der Frequenzeigenwerte nach der FDCT-Transformation, besteht das Ziel darin, die Amplitude der Nicht-Null-Eigenwerte zu verringern und die Anzahl von „Null“-Eigenwerten zu erhöhen. Quantisierung ist der Hauptgrund für die Verschlechterung der Bildqualität. Für verlustbehaftete JPEG-Kompression wird Quantisierung insbesondere unter Verwenden eines linearen gleichmäßigen Quantisierers ausgeführt, was durch Teilen der 64 DCT-Eigenwerte durch den Quantisierungsschritt und ihr Abrunden verwirklicht wird. Der Quantisierungsschritt wird in Übereinstimmung mit einer Position, an der der Eigenwert liegt, und einem Farbtonwert jeder Farbkomponente bestimmt. Da das menschliche Auge für ein Luminanzsignal empfänglicher ist als für ein chromatisches Unterschiedssignal, werden zwei Quantisierungstabellen verwendet: ein Luminanzquantisierungswert und ein Chrominanzquantisierungwert. Außerdem, da das menschliche Auge für das Bild der Niederfrequenzkomponente empfänglicher ist als für das Bild der Hochfrequenzkomponente, ist der Quantisierungsschritt der oberen linken Ecke in dem Bild kleiner als die Quantisierungsschrittgröße der unteren rechten Ecke.
  • Wie in 8 gezeigt, sind die Werte der Luminanzquantisierungstabelle und der Chrominanzquantisierungstabelle für ein CCIR 601-Standard Fernsehbild optimal. Falls diese zwei Tabellen nicht verwendet werden, könnten sie mit anderen Quantisierungstabellen nach Bedarf ersetzt werden. Falls dieselbe Quantisierungstabelle in jedem Subbildblock verwendet wird, wird die Menge an Berechnung verringert, aber der optimale Kompressionseffekt wird eventuell aufgrund der unterschiedlichen Lagen der Subbildblöcke nicht erreicht.
  • (3) Zigzag Scan (Zickzack-Scan)
  • Die quantisierten AC-Eigenwerte haben im Allgemeinen viele Nullwerte und müssen in einem Zickzack-Weg neu angeordnet werden, um die Anzahl aufeinanderfolgender „0“-Eigenwerte zu erhöhen, nämlich eine Schlaglänge von „0“. Auf diese Art wird eine 8x8-Matrix in einen 1x64-Vektor verwandelt, und die niedrigeren Frequenzeigenwerte werden an die Spitze des Vektors gegeben.
  • Wie in 9 gezeigt, werden die Sequenznummern der DCT-Eigenwerte nach dem Zickzack-Scan gezeigt. 0 stellt einen DC-Frequenzeigenwert null dar, und die restlichen 1 bis 63 sind AC-Eigenwerte. Je größer die Eigenwerte sind, desto höher ist die Frequenz einer Frequenzkomponente, die der Position entspricht, und die anschließende Quantisierungscodierung basiert auf diesen Eigenwerten.
  • (4) Der quantisierte DC-Eigenwert wird durch Verwenden von Differential Pulse Code Modulation (DPCM) nach dem Zickzack-Scan codiert, wobei der quantisierte DC-Eigenwert zwei Merkmale hat: Eines ist, dass der Wert des Eigenwerts relativ groß ist, und das andere ist, dass die DC-Eigenwerte der benachbarten 8x8-Bildblöcke wenig ändern. Gemäß diesem Merkmal, wird der Unterschied (Delta) der quantisierten DC-Eigenwerte zwischen den benachbarten Bildblöcken unter Verwenden der DPCM-Technik codiert: Delta=DC (0, 0) k-DC (0, 0) k-1.
  • (5) Der quantisierte AC-Eigenwert wird unter Verwenden von Run Length Encoding (RLE) codiert, wobei RLE eine typische verlustfreie Kompressionstechnik ist. Wenn in einem Bild viele Module mit derselben Farbe bestehen und jede Zeile von Modulen dieselbe Farbe hat, wird das Speichern des Farbwerts jedes Pixels im Allgemeinen für diese Art von Bild nicht empfohlen, aber es reicht, einfach die Pixelzahl und den Farbwert derselben Farbe zu speichern. Ein String RRRRRGGGBBBBB, der den Pixelfarbwert darstellt, kann zum Beispiel nach der RLE-Kompression mit 5R3G5B ersetzt werden.
  • Nach dem Zickzack-Scan, besteht das Merkmal des quantisierten AC-Eigenwerts darin, dass der 1 x 64-Vektor viele „0“-Eigenwerte enthält, wobei viele „0“ aufeinanderfolgen, so dass sie durch Verwenden der relativ einfachen und intuitiven RLE codiert werden.
  • Die JPEG-Norm benutzt die 4 höheren Bits von 1 Byte, um die Anzahl aufeinanderfolgender „0“ darzustellen, und verwendet die niedrigeren 4 Bits zum Darstellen der Anzahl von Bits, die erforderlich ist, um den nächsten Nicht-„0”-Eigenwert zu codieren, und was folgt ist ein Wert des quantisierten AC-Eigenwerts.
  • Das Codierformat ist (Symbol 1) (Symbol 2), wobei das Symbol 1 zwei Stück Informationen darstellt, nämlich Run und Länge. Der Run ist die Anzahl von Bits der aufeinanderfolgenden „0“-Werte des AC-Eigenwerts, die vor dem Nicht-Null-AC-Eigenwert in der Zickzack-Matrix liegen. Die Länge ist die Anzahl von Bits, die verwendet wird, um die Amplitude des AC-Eigenwerts zu codieren. Das Symbol 2 stellt die Amplitude des AC-Eigenwerts dar.
  • (6) Entropy coding (Entropiecodierung)
  • Entropiecodierung ist ein verlustfreies Codieren basierend auf statistischen Merkmalen der quantisierten Eigenwerte. Herkömmliche Codierung weist Run Length Encoding, Huffman-Codierung und arithmetische Codierung auf. Run Length-Huffman-Codierung (RL-VLC) ist das gewöhnlich verwendete Codierungsverfahren bei einem internationalen Bildkompressionscodierstandard von JPEG, und wird in der Hauptsache zur Entropiecodierung von AC-Eigenwerten verwendet. Eine JPEG-Standard-Huffman-Codierungstabelle wird, nachdem der 8x8-Bildblock durch die zweidimensionale DCT transformiert und durch Zickzack-gescannt wurde, erzeugt wurde, die gemeinsame Verteilungswahrscheinlichkeit von Level, das Amplitudenmaß des Nicht-Null-AC-Eigenwert und Run, die vorhergehende „0“-Runlänge des AC-Eigenwerts, nämlich ein (Run, Level)-Zahlenpaar erzeugt.
  • Bei dem verlustbehafteten JPEG-Kompressionsverfahren wird die Huffman-Codierung verwendet, um die Entropie zu verringern. Der Grund für das Verwenden der Huffman-Codierung besteht darin, dass das Codieren durch Verwenden eines einfachen Nachschlagtabellen-Verfahrens ausgeführt werden kann, wobei die Nachschlagtabelle eine Huffman-Codiertabelle ist. Während des Codierens werden unterschiedliche Huffman-Codiertabellen für 1 DC-Wert und 63 AC-Werte jeder Matrixdata verwendet, und unterschiedliche Huffman-Codiertabellen sind auch für Luminanz und Chrominanz erforderlich. Beim Komprimieren von Datensymbolen weist Huffman-Codierung relativ kurzen Codes Symbole mit höherer Frequenz des Auftretens zu, und relativ langen Codes Symbole mit niedrigerer Frequenz des Auftretens. Diese Huffman-Codiertabelle mit variabler Länge kann im Voraus definiert werden. Bei der vorliegenden Erfindung können der DC-Eigenwert nach der DPCM-Codierung und der AC-Eigenwert nach der RLE-Codierung ferner durch Verwenden der Entropiecodierung verringert werden.
  • Der differenzielle DC-Eigenwert und jeder AC-Eigenwert werden unter Verwenden von zwei Symbolen, nämlich Symbol 1 und Symbol 2 codiert. Für den DC-Eigenwert werden Informationen, die durch das Symbol 1 dargestellt werden, Länge genannt, das heißt die Anzahl von Bits, die verwendet wird, um die Amplitude des DC-Eigenwerts zu codieren, und das Symbol 2 stellt die Amplitude des DC-Eigenwerts dar. Für den AC-Eigenwert stellt das Symbol 1 zwei Stücke von Informationen, Run und Länge genannt, dar. Der Run ist die Anzahl von Bits, die verwendet wird, um die Amplitude der aufeinanderfolgenden „0“-Werte des AC-Eigenwerts, die vor dem Nicht-Null-AC-Eigenwert in der Zickzack-Matrix liegen, zu codieren. Das Symbol 2 stellt die Amplitude des AC-Eigenwerts dar.
  • Falls das Schülerendgerät Übertragung gemäß dem ursprünglichen Bild ausführt, während die Definition des Bilds, die von dem Lehrerendgerät übertragen wird, möglicherweise sehr hoch ist, würden unweigerlich eine übermäßige Anforderung von Netzwerkressourcen und sogar Netzwerküberlastung verursacht, und andere Daten könnten nicht übertragen werden. Eine Reihe von Transformationen wird daher ausgeführt, um ein Bild zu erhalten, das an die Bildschirmgröße angepasst ist. Dateien werden in einer begrenzten Bandbreite übertragen, was einen Unterrichtsstundenprozess flüssiger macht.
  • Bildsekundärkompression (Entpacken)
  • Nach der Primärkompression, falls die Bildgröße immer noch größer ist als der Wert, der von dem Protokoll vorgeschrieben wird, ist eine zweite Kompression, auch Entpacken genannt, erforderlich.
  • Der Bitdatenstrom, den man durch die oben erwähnte Verarbeitung erhält, bildet ein komprimiertes Bild, und dann wird das komprimierte Bild weiterer Differenzierungsverarbeitung unterzogen. In der folgenden weiteren Differenzierungsverarbeitung wird ein weiteres Kompressionsverhältnis in Übereinstimmung mit der Bildgröße kombiniert mit {einem Mindestwert, einem Höchstwert} eingestellt: {minGrößemaxGröße} die Anzahl von Dateibytes, die von dem System in Anbetracht des Differenzierungsverfahrens spezifiziert wird.
  • 
     If (image.getBytes ()>maxGröße)
     {Compression ratio = image.getBytes () / maxGröße * system-
    
     defined offset}
     Else,
     {Compression ratio = 1}.
  • Hierbei verweist das Differenzierungsverfahren darauf, dass: die Größe jedes Bilds, das von dem System verarbeitet wird, unterschiedlich ist, aber die Länge jeder Nachricht (im Allgemeinen etwa 1500 Bytes) während der Datenübertragung basierend auf dem UDP-Protokoll begrenzt ist. Daher erfordert bei dem Prozess der Verarbeitung der Bilder unterschiedlicher Größen Differenzierung unter den Bilddateigrößen; die maxGröße des Bilds wird in dem System festgelegt; eine weitere Kompressionsverarbeitung wird eingeleitet, falls die Bildgröße größer ist als die Anzahl von Bytes, das heißt, dass das Bild weiter komprimiert wird, indem das Kompressionsverhältnis verwendet wird, das mit der Gleichung berechnet wird.
  • Die 1500 Bytes verweisen auf die Größe einer einzelnen Datennachricht, wenn das UDP Daten überträgt. Unterschiedliche Netzwerkvorrichtungen sind leicht unterschiedlich. Bei dem tatsächlichen Übertragungsprozess wird jedes Bild automatisch in ein Subpaket gemäß der Größe verpackt, und wird übertragen, und der Client führt Kombinationsverarbeitung auf den Daten nach dem Empfangen der entsprechenden Nachricht aus; zusätzlich, falls die Länge eines Originalpakets, das durch das UDP-Protokoll gesendet wird, übermäßig lang ist, nämlich mehr als 65 K oder so, kann das UDP-Protokoll das Datenpaket nicht richtig segmentieren, und das zweite manuelle Entpacken der Daten ist erforderlich, um sicherzustellen, dass das UDP-Protokoll Datennachrichten jedes Mal normal sendet. Das Bildkompressionsverhältnis wird gemäß der Größe des Bilds erhalten, das aus dem komprimierten Bild und {minGröße, maxGröße} der spezifizierten Anzahl von Dateibytes besteht: Falls die Größe des Bilds größer ist als das Maximum Kompressionsverhältnis = Bildgröße/Maximum * systemdefiniertes Offset, wobei für die Hardwareplattform-Anzeigeauflösung, die bei der vorliegenden Erfindung verwendet wird, das Offset auf 0,4 bis 0,6 eingestellt ist, und sich auf die Korrespondenz in der unten folgenden Tabelle 1 bezieht. Anderenfalls beträgt das Kompressionsverhältnis 1. Tabelle 1
    Auflösung Offset
    über 1920*1080 0.6
    1280*720 0.5
    unter 800*600 0.4
  • Eine Bildanzeigequalität variiert mit unterschiedlichen Auflösungen der mobilen Vorrichtung, und eine mobile Vorrichtung mit einer niedrigen Auflösung kann ein Bild mit leicht geringerer Qualität anzeigen. Das Offset ist daher proportional zu der Auflösung gemäß den Daten, die in Tabelle 1 gegeben sind. Das Kompressorverhältnis wird gemäß den folgenden Schritten umgesetzt:
    1. (a) Erfassen eines Screenshots einer elektronischen Blackboard-Beschriftung während der Unterrichtsstunde eines Lehrers durch ein Anwendungsprogramm auf dem Lehrerendgerät;
    2. (b) Berechnen eines zweckdienlichen Kompressionsverhältnisses basierend auf der Auflösung des Lehrerendgeräts, und
    3. (c) Umwandeln des Bildformats gemäß dem Kompressionsverhältnis, das heißt der Primärkompression. Anhand von zwei Bildkompressionen, werden schnelle und effiziente Kompression, Vergleich und Übertragung erzielt. Bei dem Bildprimärkompressionsschritt und bei dem FDCT-Tranceformationsprozess, ist die natürliche Anzahl der Matrixdaten nach der DCT-Transformation der Frequenzeigenwert, der Wert von F (0,0) ist der größte unter diesen Eigenwerten, nämlich der DC-Eigenwert, und die restlichen 63 Frequenzeigenwerte sind größtenteils positive und negative Gleitkommazahlen nahe Null, die gemeinsam AC-Merkmalwerte genannt werden.
  • Bei dem Bildkompressionsprozess gemäß der vorliegenden Erfindung, werden der DC-Eigenwert und der AC-Eigenwert, die einen Hauptfaktor des Bilds bilden, extrahiert und in anderen Dateien unabhängig von der Bilddatei, die komprimiert wird, gespeichert, ohne die Bildprimärkompression zu beeinträchtigen.
  • Im Allgemeinen sollten die Überblickverteilung, die Farbverteilung und DC- und AC-Werte des Bilds beim Vergleichen von Bildern umfassend berücksichtigt werden. Bei der vorliegenden Erfindung wirken sich die DC- und AC-Eigenwerte des Bilds, das bei dem Kompressionsprozess unter Verwenden von JPEG erhalten wird, nicht nur auf die Bildkompressionsverarbeitung aus, sondern beurteilen auch, ob Änderungen in zwei benachbarten Bildern bestehen, indem einfach Eigenwerte der zwei benachbarten Bilder verglichen werden, und entschieden wird, ob das komprimierte Bild zu dem Schülerendgerät gemäß dem Entscheidungsresultat gesendet wird.
  • Die Menge an Systemberechnung wird durch dieses vereinfachte Beurteilungsverfahren aufgrund der Merkmale verringert, dass ein Bildschirmanzeigeinhalt, insbesondere ein Inhalt einer elektronischen Blackboard-Beschriftung mit dem Unterricht des Lehrers gewöhnlich ständig wechselt; in benachbarter Zeit, wie zum Beispiel innerhalb weniger Sekunden, ändert sich der Inhalt der Blackboard-Beschriftung eventuell nicht oder zunehmend, und das Gerät zum Erfassen des Bilds, die Bildanzeigeumgebung, die Hintergrundkontur und andere Informationen sind grundlegend dieselben.
  • Ob es Änderungen zwischen den zwei benachbarten Bildern gibt, stellt man durch einfachen Vergleich fest, und ob das Bild synchron zu dem Schülerendgerät übertragen werden sollte. Falls sich der Bildinhalt nicht geändert hat, ist die Übertragung nicht erforderlich.
  • Da das Bildschirmanzeigekopieren, das Erfassen und die Kompressionsverarbeitung des Bilds normalerweise in einem fixen Zeitintervall ausgeführt werden, werden, sobald bestimmt ist, dass das Bild basierend auf dem Vergleich und den Entscheidungsresultaten zu übertragen ist, die komprimierten Bilddaten direkt segmentiert und ohne zeitliche Verzögerung übertragen, und sobald bestimmt wird, dass das Bild basierend auf dem Entscheidungsresultat nicht zu übertragen ist, werden keine Netzwerkressourcen verwendet, und das Schülerendgerät braucht den benachbarten gleichen Anzeigeinhalt nicht wiederholt zu aktualisieren, was die Erfahrung des Benutzers beeinträchtigt.
  • Die vorliegende Erfindung schließt nämlich umfassendes Vergleichen und Beurteilung zweier aufeinanderfolgender erhaltener Bilder nicht aus, um ein umfassenderes Vergleichsresultat zu erhalten.
  • Spezifisch wird der Unterschiedswert der zwei Bilder durch Berechnen des Abstands zwischen den zwei Bildern beurteilt, nämlich der Summe der Unterschiedswerte zwischen Komponenten der DC- und AC-Eigenvektoren. Der Unterschied sind die Vergleiche zwischen den DC- und AC-Eigenwerten (Eigenvektorwerte) der zwei benachbarten Bilder; was den DC-Eigenwert betrifft, werden beim Vergleichen von Vorzeichen Komponenten mit 1 markiert, falls die Vorzeichen der Komponenten gleich sind, anderenfalls werden sie als 0 markiert.
  • Was den AC-Eigenwert betrifft und gemäß einem eingestellten Kontrastschwellenwert, Markieren als 0, falls der Unterschied zwischen den Komponenten den Kontrastschwellenwert überschreitet, anderenfalls Markieren als 1.
  • Berechnen der Anzahl von 0 oder 1 dadurch und Summieren, um den Unterschiedswert zwischen den zwei benachbarten Bildern zu erhalten.
  • Je größer die Anzahl von 0, desto größer der Unterschied zwischen den Eigenvektoren und desto größer der Unterschied zwischen den Bildern.
  • Ferner, weil kein Unterschied zwischen den zwei Bildern besteht, was darauf hinweist, dass die zwei benachbarten Screenshots des Bilds gleich oder grundlegend gleich sind, ist die Übertragung desselben Screenshots nicht erforderlich; falls es Wertunterschiede gibt, was anzeigt, dass Änderungen in den Inhalten der zwei Screenshots vorliegen, wird das entsprechende komprimierte Bild zu dem Schülerendgerät von dem Lehrerendgerät übertragen.
  • Die Bestimmung, ob ein Unterschied besteht, kann durch Vergleichen und Beurteilung basierend auf dem eingestellten Schwellenwert erfolgen, oder der Schwellenwert ist nicht notwendigerweise eingestellt, und synchrone Übertragung wird ausgeführt, sobald ein Unterschied besteht.
  • Eine Vielzahl von Speicherdateien zum Speichern der kopierten und gespeicherten DC- und AC-Eigenwerte wird eingestellt, eine andere Speicherdatei wird verwendet, wenn ein Verzeichnis voll ist, und dann löscht das System das volle Verzeichnis für Backup.
  • Die Zeit zum Erfassen des Bildschirmbildinhalts wird allmählich und automatisch verlängert, wenn während einer langen Zeit kein Unterschied zwischen Bildschirminhalten, die nacheinander erfasst werden, erfasst wird. Alle paar Sekunden wird zum Beispiel auf jedes Dutzend von Sekunden oder sogar einige Minuten erweitert.
  • Gemäß den grundlegenden Merkmalen des Unterrichtsprozesses, insbesondere des Schreibens auf dem Blackboard, werden die Unterschiedwerte der Vielzahl kontinuierlicher und aufeinanderfolgender Bilder in einer Zeitperiode, wie zum Beispiel innerhalb einer Unterrichtsstundenzeit, in eine Kurve verwandelt, und der aktuelle Bildschirminhalt wird als Erstausgabe-Blackboard-Beschriftungsinhalt markiert, wenn der Unterschiedswert erfasst wird, um grundlegend innerhalb eines bestimmten Bereichs beständig zu halten; und ein Starten eines neuen Layout-Blackboard-Beschriftens oder ein neues Anzeigen von Inhalt wird beurteilt, wenn eine relativ große Änderung des Unterschiedswerts erfasst wird.
  • Die empfangenen synchronen Bilddaten werden als ein reproduzierbarer Videostrom von dem Schülerendgerät gespeichert, so dass der Lerninhalt jederzeit durchgesehen werden kann. Bevorzugter wird eine Wiedergabe des Videostroms und der Audioaufzeichnung des Lehrers basierend auf dem Zeitmerkmal (wie zum Beispiel Zeitstempel, die durch das Unterrichtssystem erzeugt werden) abgestimmt, um eine übereinstimmende Wiedergabe mit einem Sprachstrom und einem Videostrom zu bilden.
  • Durch den Beurteilungsschritt werden automatische Unterscheidung und Echtzeitübertragung des Bilds, das synchron angezeigt werden soll, ausgeführt, und die Zwecke des synchronen Screenshots, der Echtzeitkompression, des synchronen Beurteilens und der automatischen Übertragung werden erzielt.
  • Zu bemerken ist, dass nach dem Ausführen des Beurteilungsschritts der Bildübertragung, die Originalbackupdaten des komprimierten Bilds, von welchen bestimmt wird, dass sie nicht synchron auf dem Schülerendgerät angezeigt werden, aus der Datenbank gelöscht werden.
  • Ein Schritt des Segmentierens des Bilds, das zum Übertragen bestimmt wird, segmentiert die komprimierten Bilddaten, die zum Übertragen bestimmt wurden, segmentiert, um ein Übertragungsdatenpaket zu bilden.
  • Wenn das komprimierte JPEG-Bild und das Same-Screen-Anwendungsdatenpaket größer sind als die begrenzte Länge der Nachricht, werden das JPEG-Bild und das Same-Screen-Anwendungsdatenpaket in mehrere Subdatenpakete gemäß dem gleichen Verhältnis der Nachricht segmentiert, das heißt, dass das JPEG-Bild und das Same-Screen-Anwendungsdatenpaket in mehrere zeitweilige TMP-Dateien segmentiert werden; die segmentierten zeitweiligen TMP-Dateien werden durch das Netzwerk in einem Multicast-Modus übertragen, und, nachdem das Schülerendgerät alle segmentierten TMP-Dateien empfangen hat, werden die segmentierten TMP-Dateien zusammengeführt, um ein vollständiges JPEG-Bild zu bilden, um lokal auf dem Schülerendgerät angezeigt zu werden.
  • Spezifisch, wenn die UDP-Datennachricht übertragen wird, wird die Multicast-Nachricht automatisch gemäß der Länge des übertragenen Datenpakets in Subpakete geteilt, um ein Versagen der Übertragung aufgrund eines übermäßig großen Datenpakets zu verhindern.
  • Falls die UDP-Daten in Subpaketen jedoch übermäßig klein sind, wird eine große Datenmenge innerhalb einer kurzen Zeitspanne übertragen, was für das Netzwerk in dem LAN relativ starken Druck mit sich bringt. Die Daten werden dynamisch berechnet und gemäß der Datenlänge segmentiert, mit nicht mehr als 16.000 Bytes pro einzelner Datennachricht. Gemäß der vorliegenden Erfindung, werden die unendliche AP-Bandbreiten-Belegungsrate und die Reaktionsgeschwindigkeit basierend auf den Resultaten wiederholter Debugging-Versuche beurteilt, und der erzielte optimale Wert beträgt 16.000 Bytes, und die maximale Anzahl von Segmenten beträgt nicht mehr als fünf solcher Sätze von Bedingungen für umfassende Berechnung, um eine relativ bessere Nachrichtenanordnung zur Übertragung zu erhalten.
  • Der spezifische Betriebsprozess des synchronen Datensegmentierungsschritts ist der folgende:
  • Wie in 10 gezeigt, überträgt der Datenpaketübertragungsschritt das Datenpaket zu einer Vielzahl von Benutzerendgeräten in einem Multicast-Modus basierend auf dem UDP-Protokoll. Nachrichten, die weiterzuleiten sind, werden in ein Unicast-Format geändert und einzeln durch drahtlosen AP durch die Multicast-Adresse übertragen. Die Anwendung des Lehrerendgeräts überträgt die Nachrichten zu mehreren Endgeräten durch customisierten AP über die Multicast-Adresse 234.5.10.200.
  • Ein drahtloser Zugangspunkt, das heißt ein drahtloser AP (Access Point), ist ein drahtloser Schalter, der in einem drahtlosen Netzwerk verwendet wird, und das Kernstück des drahtlosen Netzwerks. Der drahtlose AP ist ein Zugangspunkt für mobile Computerbenutzer, um auf ein begrenztes Netzwerk zuzugreifen.
  • Als eine Art von Kommunikationsweg parallel zu Unicast und Broadcast, löst eine Multicast-Technik effektiv die Probleme einer Einzelpunktübertragung und eines Multipunktempfangs, und wird bei der Echtzeitdatenübertragung, Multimedia-Konferenzen, Datensimulation und in anderen Bereichen weitgehend verwendet. Multicast dient zum Übertragen eines IP-Datenpakets zu einer „Gruppe“ von Adressen, so dass das Datenpaket alle Mitglieder derselben Gruppe auf dem Internet erreichen kann, wobei die „Gruppe“ eine spezielle IP-Adressidentifikation ist. Das IGMP-Protokoll von TCP und IP enthält Multicast-Inhalt. Das Protokoll spezifiziert, dass die Adresse, die von dem Multicast-verwendet wird, von 224.0.0.0 zu 239.255.255.255 reicht. Die Multicast-Adressen von 224.0.0.0 bis 239.0.0.255 werden zum Speichern von Multicast-Routinginformationen verwendet. Multicast-Adressen aus diesem Bereich werden für Anwendungsprogramme eingestellt.
  • UDP (User Datagram Protocol) ist ein verbindungsloses Protokoll basierend auf einem IP-Protokoll. Es wird hauptsächlich zum Unterstützen von Netzwerkanwendungen verwendet, die Daten zwischen Computern übertragen müssen. Da es keine Datenneuübertragung und Bestätigung bereitstellt, besteht sein Vorteil in schneller Übertragungsgeschwindigkeit, während der Nachteil die niedrige Zuverlässigkeit ist. Das UDP-Protokoll wird von einer großen Anzahl von Netzwerkanwendungen in einem Client-/Servermodus verwendet, darunter Netzwerk-Videokonferenzsysteme. Eine UDP-Nachricht weist zwei Teile auf: einen Kopfteil und ein Datenfeld. Der Kopfteil des UDP besteht aus vier Feldern, von welches jedes zwei Bytes belegt: eine Quellenport-Nummer, eine Zielport-Nummer, eine Datenpaketlänge und einen Prüfwert. Das UDP-Datenpaket wird durch einen Quellenport von einem Datensender übertragen, und die Daten werden von einem Datenempfänger durch einen Zielport empfangen.
  • Die Größe des Datenpakets, das von dem UDP gesendet wird, überschreitet im Allgemeinen 2048 Bytes nicht. Ein Übertragungspufferspeicher wird in dem Sendeendgerät und in dem Empfangsendgerät festgelegt, und seine Größe beträgt 65.536 Bytes. Das Sendeendgerät schreibt zuerst einen Rahmen von Videodaten in den Pufferspeicher und segmentiert ihn in mehrere Datenpakete, so dass die Größe jedes Datenpakets 2048 Bytes nicht überschreitet, was Paketdaten genannt wird. Eine Kopfteilstruktur wird zu jedem Datenpaket der jeweiligen Paketdaten hinzugefügt, wobei die Kopfteilstruktur eine Seriennummer, eine Übertragungskanalnummer, eine Videokompressionsformat und einen Zeitstempel definiert. Das Datenpaketlängenfeld wird in der Hauptsache zum Berechnen des Datenteils der variablen Länge verwendet. Die maximale Länge des Datenpakets, das den Kopfteil aufweist, beträgt theoretisch 65.536 Bytes, und bei einer praktischen Anwendung wird ein niedrigerer Wert, zum Beispiel 1024 Bytes, ausgewählt.
  • Das UDP ist basierend auf dem IP-Protokoll aufgebaut, aber in Zusammenhang mit dem IP-Protokoll stellt die Erhöhung der Ports zum Bereitstellen des Protokolls Prozesskommunikation sicher, und die gesamte UDP-Nachricht wird in dem IP-Datenpaket eingekapselt und übertragen. Das Problem des UDP-Protokolls besteht jedoch darin, dass das Protokoll selbst keinen Fehler-Neuübertragungsmechanismus hat, und dass keine Erfassung und Verarbeitung von Fehlern in dem Anwendungsprogramm ausgeführt werden.
  • Gemäß unterschiedlichen Arten von Empfängern bei der Verarbeitung von Multicast-Quellen, weisen Multicast-Modelle die Folgenden auf: das ASM (Any-Source Multicast)-Modell, das SFM (Source-Filtered Multicast)-Modell, das SSM (Source-Specific Multicast)-Modell.
  • Das ASM-Modell
  • Kurz gefasst ist das ASM-Modell ein beliebiges Quellen-Multicast-Modell. Bei dem ASM-Modell könnte jeder Sender eine Multicast-Quelle sein und Informationen zu einer bestimmten Multicast-Gruppenadresse senden. Viele Empfänger erhalten die Multicast-Informationen, die an die Multicast-Gruppe adressiert werden, durch Beitreten zu der Multicast-Gruppe, die von der Multicast-Gruppenadresse identifiziert wird. Bei dem ASM-Modell, können Empfänger eine Lage der Multicast-Quelle nicht im Voraus kennen, können jedoch der Multicast-Gruppe jederzeit beitreten oder sie verlassen.
  • Das SFM-Modell
  • Das SFM-Modell erbt das ASM-Modell. Aus der Sicht eines Senders, sind Mitgliedschaften von Multicast-Gruppen dieser beiden völlig gleich. Indes erweitert das SFM-Modell die Funktionalität des ASM-Modells. Bei dem SFM-Modell, prüft Oberschichtsoftware die Quellenadressen der empfangenen Multicast-Pakete und erlaubt oder deaktiviert die Nachrichten von bestimmten Multicast-Quellen. Empfänger können daher Multicast-Daten nur von den Multicast-Quellen empfangen. Aus der Sicht eines Empfängers, ist nur ein Teil der Multicast-Quellen gültig, und die Multicast-Quellen werden gefiltert.
  • Das SSM-Modell
  • In einer realen Situation, sind Benutzer eventuell nur an der Multicast-Information interessiert, die von bestimmten Multicast-Quellen gesendet werden, statt Informationen von allen anderen Quellen zu empfangen. Das SSM-Modell stellt dem Benutzer einen Übertragungsservice bereit, der eine Multicast-Quelle an einem Benutzerendgerät spezifizieren kann. Ein grundlegender Unterschied zwischen dem SSM-Modell und dem ASM-Modell liegt darin, dass der Empfänger bei dem SSM-Modell die spezifische Lage der Multicast-Quelle bereits durch andere Mittel kennt. Das SSM-Modell verwendet einen Multicast-Adressenbereich, der von dem des ASM-/SFM-Modells unterschiedlich ist, um direkt einen dedizierten Multicast-Weiterleitungsweg zwischen dem Empfänger und der Multicast-Quelle, die dadurch benannt wird, einzurichten.
  • Ein Server braucht nicht zur Local Area Network-Übertragung verwendet zu werden. Bei der vorliegenden Erfindung, sind das Lehrerendgerät und das Schülerendgerät mit demselben Netzwerksegment durch AC-Routing (802.11AC, drahtlose Netzwerknorm der fünften Generation, gewöhnlich als 5G WIFI bekannt) verbunden. Die Peer-To-Peer (P2P)-Technologie könnte nämlich ebenfalls für die Same-Screen-Datenübertragung verwendet werden.
  • Wie in 11 gezeigt, ist der Schritt der Thread-Überwachung konfiguriert, um eine Echtzeitüberwachung auf dem Thread auszuführen, wenn Übertragung basierend auf dem UDP-Protokoll ausgeführt wird, und um einen Neuübertragungsvorgang für verlorene Paketdaten auszuführen. Die grundlegenden Schritte sind: mData-Trennen durch Einsetzen eines Serialisierungswerkzeugs, Lesen des getrennten Datenobjekts in der Reihenfolge; Einkapseln der Datenfragmente in ein Datagram-Paket; Übertragen der Nachricht mittels des UDP-Multicast durch Steuer-Handler; Ausführen des Schlafens einer sendenden Steuervorrichtung während 60 ms, um den Netzwerkdruck zu lindern; Starten der Überwachung der periodischen Neuübertragung der Datennachricht; Bestimmen, ob die aktuell übertragene Datennachricht abgelaufen ist, und, falls ja, Bestimmen, dass der aktuelle Vorgang beendet ist, und anderenfalls Fortsetzen des Bestimmens, ob ein darauf folgendes Datenfragment besteht und Fortsetzen des Erfassens der Daten.
  • Die vorliegende Erfindung verwendet den drahtlosen AP zum Übertragen des segmentierten Datenpakets durch das UDP-Protokoll basierend auf dem SSM-Modell. Die Vorteile des SSM-Modells bestehen darin, dass der Netzwerkverkehr verringert wird, dass die Last eines Servers und einer CPU verringert wird; dass redundanter Strom verringert wird, und dass eine Mehrpunkt-Anwendung ermöglicht wird. Die Nachteile sind jedoch ebenfalls offensichtlich. Aufgrund der Kommunikation durch das UDP-Protokoll, werden eine nicht lange Verbindung und ein Paketverlust verursacht.
  • Um redundante Same-Screen-Anweisungsinformationen zu entfernen, hohe Datenrate und stabile Ausführung des Same-Screen-Programms sicherzustellen, die Zuverlässigkeit der Uplink-Datenübertragung aus der Sicht des Netzwerkkommunikations-Uplink (eine Vorrichtung zu einem AP) sicherzustellen und doppelten Schutz der Datenübertragung, präzis und effizient, zu den Schülerendgeräten sicherzustellen, verwendet die vorliegende Erfindung die Thread-Überwachung, um die oben erwähnten Probleme zu lösen.
  • Die spezifischen Betriebsprozesse sind die folgenden:
    • Bl: ein Schritt der Verarbeitung der Datennachricht zur Übertragung: Signatur und Nummerieren durch das Lehrerendgerät der Datennachrichten, die zu übertragen sind, um sicherzustellen, dass die IDs von Nachrichtengruppen, die jedes Mal übertragen werden, vereinheitlicht und eindeutig sind; Senden der Datennachrichten zu einer Multicast-Adresse eines drahtlosen AP (Access Point - Zugangspunkt), der eine fixe Multicast-Adresse ist, die in dem 234.5. *. * Multicast-Netzwerksegment liegt, und automatisches Berechnen der Multicast-Adresse, wenn das Lehrerendgerät ein Programm beginnt, um sicherzustellen, dass jede Unterrichtsstunde unabhängig eine Multicast-Adresse in einer Netzwerkumgebung belegt, insbesondere in einer Local Area Network-Umgebung.
    • B2: ein Schritt des Startens eines Self-Daemon-Threads: Starten durch das Lehrerendgerät eines Self-Daemon-Threads und eines Taktgebers nach dem Übertragen der Datennachricht, und Einrichtung eines Neuübertragungsstapels; Speichern der Daten und des Ziels, die dieses Mal in dem Neuübertragungsstapel übertragen werden, und Starten durch den Self-Daemon-Thread der Datennachricht-Neuübertragungsverarbeitung, wenn kein Datennachrichtfeedback von dem Schülerendgerät empfangen wird, nachdem die Zeit des Startens des Self-Daemon-Threads erreicht ist, und Senden des Datenpakets zu dem Schülerendgerät ohne Feedback;
    • B3: ein Schritt des Startens eines Feedback-Daemon-Threads: Automatisches Starten durch das Lehrerendgerät des Feedback-Daemon-Threads nach dem Übertragen eines Multicast-User Datagram Protocol (UDP)-Datenpakets und Empfangen einer Feedbacknachricht von dem Schülerendgerät zum ersten Mal, wobei der Thread eine Garantie-Neuübertragungsverarbeitung auf dem Feedback des Benutzerendgeräts gemäß dem segmentierten Datenpaket ausführt, und den Self-Daemon-Thread gleichzeitig stoppt, und
    • B4: ein Nachrichtenfeedbackschritt: zuerst Prüfen durch den Client des Schülerendgeräts, ob die empfangenen Daten vollständig empfangen wurden, wenn das Multicast-Datenpaket von dem Lehrerendgerät empfangen wird, und Zusammenführen und Wiederherstellen der Datennachricht, falls die empfangenen Daten vollständig empfangen wurden, und sofortiges Senden der Feedbackinformationen zu dem Lehrerendgerät, während jede Datennachricht empfangen wird.
  • Wie in dem gestrichelten Kastenabschnitt in 12 gezeigt, wird der Verarbeitungsschritt abgelaufener Daten konfiguriert, um abgelaufene Daten in dem System zu verwerfen, um flüssige Netzwerkübertragung sicherzustellen.
  • Was das Same-Screen-Verarbeiten an dem Schülerendgerät betrifft, wird zuerst der Weg des Same-Screen-Verarbeitens bestimmt. Falls es sich um die Same-Screen-Anweisung handelt, wird die Same-Screen-Anweisung akzeptiert, die Same-Screen-Ressourcen werden gesucht; das Same-Screen-Bild wird geladen; Anweisungskoordinatendaten werden zusammengeführt, und dann wird ein Bild gezeichnet. Falls es das Same-Screen-Bild ist, werden Bildsequenztrümmer empfangen; es wird bestimmt, ob das Bild abgelaufen ist; falls es abgelaufen ist, wird es aufgegeben und, anderenfalls, wird bestimmt, ob die Bildsequenz vollständig empfangen wurde; und falls die Bildsequenz nicht vollständig empfangen wurde, wird auf die nächsten Sequenztrümmer gewartet, und wenn sie vollständig empfangen wurden, werden die Fragmente in ein Bildobjekt zusammengeführt, und das Bild wird lokal gezeichnet.
  • Abgelaufene Daten verweist darauf, dass, wenn ein Datenpaket in einem Netzwerk während des Echtzeit-Überwachungsprozesses des Datenpakets, das von dem Netzwerk übertragen wird, übertragen wird, das Lehrerendgerät ein neues Datenpaket sendet und das Unterrichtssystem die Existenz eines neuen Datenpakets erfasst, und die erfassten alten Daten als die abgelaufenen Daten betrachtet werden.
  • Die abgelaufenen Daten werden von dem Unterrichtssystem verworfen. Die abgelaufenen Daten in dem Verarbeitungsprozess werden von dem Lehrerendgerät, dem Schülerendgerät, dem drahtlosen AP und anderen Vorrichtung gleichzeitig verworfen, um den Druck auf dem Netzwerk, der durch das Übertragen von Daten in dem Netzwerk bewirkt wurde, zu verringern und sicherzustellen, dass das Schülerendgerät die jüngsten Daten, die von dem Lehrerendgerät in Echtzeit übertragen werden, anzeigt.
  • Wie in 13 gezeigt, prüft der Client des Schülerendgeräts zuerst, ob die empfangenen Daten vollständig empfangen wurden, wenn das Multicast-Datenpaket von dem Lehrerendgerät empfangen wird, und führt die Datennachricht zusammen und stellt sie wieder her, falls die empfangenen Daten vollständig empfangen wurden, und sendet sofort die Feedbackinformationen zu dem Lehrerendgerät, während jede Datennachricht empfangen wird. Spezifisch sendet das Lehrerendgerät ein Datenpaket, und das Schülerendgerät empfängt das Datenpaket. Das Lehrerendgerät überwacht in Echtzeit, ob Datenfeedback des Schülerendgeräts innerhalb von 5 Sekunden empfangen wird. Ist das nicht der Fall, überträgt das Lehrerendgerät das Datenpaket erneut, und falls das der Fall ist, bestätigt das Lehrerendgerät, dass das Datenpaket erfolgreich gesendet wurde.
  • Nachdem das Schülerendgerät die Anweisungsinformationen empfangen hat, werden Feedbackinformationen zu dem Lehrerendgerät gesendet. Durch die Feedbackinformationen von dem Schülerendgerät bestimmt das Lehrerendgerät, ob der Schüler die Anweisungen vollständig empfangen hat. Falls das Lehrerendgerät bestimmt, dass der Schülerendgerät die Anweisungen vollständig empfangen hat, führt das Lehrerendgerät den nächsten Schritt der Verarbeitung aus (zum Beispiel das Senden einer Anweisung, einer Sprache usw.), falls das Lehrerendgerät bestimmt, dass das Schülerendgerät die Anweisungen nicht vollständig empfangen hat, nimmt es das Neuübertragen der Anweisungen vor, bis das Schülerendgerät sie vollständig empfängt.
  • Basierend darauf besteht der spezifische Prozess des Schritts des Verarbeitens abgelaufener Daten aus Folgendem:
    • C1: Hochladen durch das Lehrerendgerät der Multicast-Nachricht zu dem Server und Übertragen durch den Server der Multicast-Nachricht zu dem Schülerendgerät durch die Netzwerkübertragung;
    • C2: Pushen durch das Schülerendgerät der Nachrichteninformationen in den Stapel, falls die Nachrichtensignatur die Paketgruppe ist, die gerade verarbeitet wird, wenn das Multicast-Paket empfangen wird, und Übertragen der Feedbackinformationen zu dem Lehrerendgerät.
    • C3: Entleeren der Daten in dem Stapel, Pushen neuer Daten in den Stapel und Ausführen der Follow-up-Verarbeitung, nachdem die Nachrichtendaten vollständig empfangen wurden, falls die Multicast-Paketsignatur, die von dem Schülerendgerät empfangen wird, neuer ist als die Daten, die in dem aktuellen Stapel verarbeitet werden, was angibt, dass die Daten in dem Stapel abgelaufen sind;
    • C4: Verwerfen durch das System aktuell empfangener Datennachrichten, falls die Multicast-Paketsignatur, die von dem Schülerendgerät empfangen wird, älter ist als Daten, die in dem aktuellen Stapel verarbeitet werden, was angibt, dass die empfangene Datennachricht abgelaufen ist, und
    • C5: Empfangen durch das Lehrerendgerät der Datennachricht-Feedbackinformationen von dem Schülerendgerät, Verwerfen der Datennachricht und Ausführen keiner anderen Verarbeitung, falls der Zeitstempel der Nachricht abgelaufen ist, was angibt, dass eine Verzögerung für das Schülerendgerät zum Empfangen der Nachricht besteht und die Daten abgelaufen sind, und Empfangen der Feedbackinformationen, falls der Zeitstempel der empfangenen Datennachricht das aktuell übertragene Datenpaket ist.
  • Wie in 12 gezeigt, ist der Synchronanzeigeschritt konfiguriert, um synchrone Anzeige auf dem Schülerendgerät zum Empfangen von Daten auszuführen.
  • In einen Client oder einer APP auf dem Schülerendgerät ist ein Bildsubdatenpaket- Zusammenführungs- und Anzeigemodul eingebaut, das konfiguriert ist, um die empfangenen mehreren Subdatenpakete, wie zum Beispiel mehrere zeitweilige TMP-Dateien, zusammenzuführen, um ein vollständiges JPEG-Bild zu bilden, und das Bild auf dem Schülerendgerät anzuzeigen, um den Zweck des Same-Screen-Anzeigens zu erfüllen, und ist ein Dateibetriebslogikmodul eingebaut, das das gleiche ist wie das auf dem Lehrerendgerät; das Schülerendgerät lädt vorab die elektronischen Dateiressourcen dieser Unterrichtsstunde während des Same-Screen-Anwendungsprozesses, und während der Live-Kurse des Lehrers erfasst das Schülerendgerät mittels des Servers Lehrerbetriebsanweisungsdaten eines elektronischen Dokuments/einer elektronischen Datei, wie eine Anweisung oder Koordinatenpunktdaten, und simuliert automatisch den Vorgang eines Lehrers unter Verwenden des eingebauten Logikmoduls kombiniert mit den heruntergeladenen elektronischen Unterrichtsstundendokumentressourcen, um den Zweck des Same-Screen-Anwendungsanzeige zu erfüllen.
  • Um die Studierfähigkeit des Systemservers aufzubauen, zeichnet eine Wörterbuchtabelle (eine Datenbanktabelle) in dem System eine Vielfalt von Dateibetriebsanweisungen auf, und mittels einer Datenbank-Indexabstimmung, verweist sie auf die Betriebsanweisungen an einer tatsächlichen Ausführungssprache, die den Betriebsanweisungen entspricht. Das Endgerät schließt das Ausführen des Simulationsvorgangs mit dem Lesen der tatsächlichen Ausführungssprache ab.
  • Durch Anwenden des Verfahrens der vorliegenden Erfindung, sind Same-Screen-Daten Informationen nicht auf Bilder und dergleichen beschränkt, und die Same-Screen-Informationen werden durch Übertragen von Anweisungen und Koordinatenpunktdaten gepusht, so dass die Menge an gleichzeitigen Daten des Netzwerks beträchtlich verringert wird, die Same-Screen-Geschwindigkeit wesentlich erhöht wird, viel Speicherplatz und Nutzungsverkehr eingespart wird und herkömmliche Arten des Aufzeichnens von Videoströmen ersetzt werden.
  • Die oben stehende Beschreibung basiert auf einem Same-Screen-Netzwerkunterrichtssystem, das Kommunikation zwischen einem Schüler-Benutzer und einem Lehrer-Benutzer anzeigt. Man versteht, dass der sogenannte Schüler-Benutzer und der Lehrer-Benutzer der vorliegenden Erfindung in einem anderen ähnlichen Kommunikationssystem basierend auf dem Netzwerk ein Teilnehmer, ein Konferenzhost, ein Sprecher usw. bei einer Netzwerk-Konferenz sein können. Beziehungen zwischen ihnen können gleich sein oder können eine Master-Slave-Beziehung sein, und die Beziehungen können gewechselt oder vertauscht werden. Der sogenannte Schüler-Benutzer, der Lehrer-Benutzer und das Netzwerkunterrichtssystem bezwecken nicht, den Gebrauch der vorliegenden Erfindung, die nur eine beispielhafte Beschreibung einer typischen Erscheinung ist, einzuschränken. Anwendungen, die auf Netzwerkanforderungen des Sendens von Anzeigeinhalt und/oder Betriebsinhalt auf einem Endgerät zu mindestens einem anderen Endgerät des anderen Endes des Netzwerks basieren, können an die vorliegende Erfindung angewandt werden.
  • Die oben stehende Beschreibung betrifft bevorzugte Ausführungsformen der vorliegenden Erfindung, es wird jedoch bezweckt, den Geist der vorliegenden Erfindung klarer und einfacher zu verstehen zu gestalten, nicht aber, die vorliegende Erfindung einzuschränken. Änderungen, äquivalente Variationen und Verbesserungen innerhalb des Geists und der Grundsätze der vorliegenden Erfindung fallen in den Schutzbereich der anliegenden Ansprüche.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • CN 201410553620 [0062]
  • Zitierte Nicht-Patentliteratur
    • „Journal of Image and Graphics“, Band 8, Ausgabe 9, September 2003, Zhang Liping et al., „Screen Sharing Scheme Based on Copying Screen and Data Compression“ [0005]

    Claims (41)

    1. Synchrones Bildanzeigeverfahren, das an ein Netzwerkunterrichtssystem angewandt wird, das ein Lehrerendgerät, ein Schülerendgerät, einen Server und ein Netzwerk umfasst, das die folgenden Schritte umfasst: einen Schritt des Einschaltens des Lehrerendgeräts, das vorbereitet wird, um Daten zur synchronen Anzeige zu erfassen; einen Schritt des Erfassens von Same-Screen-Anzeigedaten, der die Same-Screen-Anzeigedaten zur synchronen Anzeige erfasst; einen Schritt des Erfassens der Same-Screen-Anwendungsdaten, der die Same-Screen-Anwendungsbetriebsdaten zur synchronen Anzeige erfasst; einen Bildkompressionsschritt, der die erfassten Same-Screen-Anzeigebilddaten unter Verwenden eines Joint Photographic Experts Group (JPEG)-Formats komprimiert; einen Schritt des Beurteilens der Bildübertragung, der beurteilt, ob die zwei benachbarten Same-Screen-Anzeigebilder, die durch den Kompressionsschritt komprimiert wurden, dieselben sind, und bestimmt, ob das Bild gemäß dem Beurteilungsresultat zu übertragen ist; einen Schritt des Segmentierens des Bilds, das zu übertragen ist, Segmentierens der komprimierten Bilddaten, die zum Übertragen bestimmt wurden, sowie die Anwendungsdaten, um ein Übertragungsdatenpaket zu bilden; einen Schritt des Übertragens eines Datenpakets, der das Datenpaket zu einer Vielzahl von Benutzerendgeräten in einem Multicast-Modus basierend auf einem User Datagram Protocol (UDP)-Protokoll überträgt; einen Schritt des Threadüberwachens, der konfiguriert ist, um Echtzeitüberwachung auf dem Thread beim Übertragen basierend auf dem UDP-Protokoll auszuführen und verlorene Paketdaten neu zu übertragen; einen Schritt des Verarbeitens abgelaufener Daten, der konfiguriert ist, um die abgelaufenen Daten in dem Netzwerkunterrichtssystem zu verwerfen, um die flüssige Netzwerkübertragung sicherzustellen, und einen Synchronanzeigeschritt, der konfiguriert ist, um synchrone Anzeige auf dem Schülerendgerät zum Empfangen von Daten auszuführen.
    2. Synchrones Bildanzeigeverfahren nach Anspruch 1, wobei die Same-Screen-Anzeigedaten der Inhalt sind, der auf dem Bildschirm des Lehrerendgeräts angezeigt wird, nämlich die Bilddaten, die durch ein elektronisches Whiteboard, ein Projektionseingabegerät, ein Handschrifteingabegerät, ein Blackboard oder ein Whiteboard gesammelt werden, und ein Bildsammelgerät, das die Kamera und die Videokamera umfasst, und die gesammelten Bilddaten in einem Bit Map Picture (BMP)-Format sind.
    3. Synchrones Bildanzeigeverfahren nach Anspruch 1, wobei die erforderlichen Same-Screen-Anwendungsdaten durch Aufzeichnen und Übertragen einer Anweisung und von Koordinatenpunktdaten, die Weg-Wegkoordinatendaten umfassen, durch Verwenden eines Client oder eines APP auf dem Lehrerendgerät erhalten werden.
    4. Synchrones Bildanzeigeverfahren nach Anspruch 3, wobei der Aufzeichnungsprozess der Weg-Wegkoordinatendaten der folgende ist: A1: Parsen der aufgezeichneten Weg-Wegkoordinatendaten und ihr Speichern in einen zeitweiligen Anweisungskoordinatenstapel, und dann Ausführen einer anfänglichen Anordnung auf dem Bildschirm und Einstellen eines Hintergrundmusters auf einer Leinwand Leinwand des Bildschirms; A2: Anlegen einer neuen Bitmap und Verwenden dieser Bitmap zum Erzeugen eines zeitweiligen Leinwand-temptCanvas; A3: Einstellen des Hintergrunds der tempBitmap auf durchsichtig zum Zweck des Lokalisierens des Ziels der zeitweiligen Leinwand temptCanvas in der angelegten tempBitmap; A4: nach einer solchen Struktur, Extrahieren der Koordinatenanweisungen aus dem Anweisungsstapel und ihr einzelnes Wiederherstellen, wobei ein entsprechendes Bild auf der zeitweiligen tempBitmap durch alle Zeichenfunktionen der temptCanvas durch Überschreiben, das mittels der temptCanvas ausgeführt wird, gezeichnet wird, so dass in einem Aktionsbacktrackingprozess Zeichenpunkte, Zeichenlinien die temptCanvas an Stelle der Leinwand, die ursprünglich auf dem Bildschirm war, abrufen, umfassend temptCanvas, drawPoint und temptCanvasRect, und A5: nach der Ausführung aller Anweisungskoordinatenstapel, Ausführen von Canvas.drawBitmap (tempBitmap,0,0,null), wobei die temptCanvas dafür verantwortlich ist, diverse Pinselstriche auf der tempBitmap zu zeichnen, während die Leinwand für das Zeichnen der tempBitmap auf dem Bildschirm zuständig ist.
    5. Synchrones Bildanzeigeverfahren nach Anspruch 1, wobei vor dem Ausführen des Bildkompressionsschritts, nicht komprimierte Bilddaten gesichert werden, um eine Original-Bildbackupdatenbank zu bilden, und, wenn ein Benutzer das komprimierte Bild empfängt und ein feineres Bild anzeigen muss, ein Originalbild aus der Original-Bildbackupdatenbank durch einen Klickvorgang heruntergeladen werden kann.
    6. Synchrones Bildanzeigeverfahren nach Anspruch 5, wobei nach dem Ausführen des Beurteilungsschritts der Bildübertragung, die Originalbackupdaten des komprimierten Bilds, von welchen bestimmt wird, dass sie nicht synchron auf den Schülerendgeräten angezeigt werden, aus der Datenbank gelöscht werden.
    7. Synchrones Bildanzeigeverfahren nach Anspruch 1, wobei der Bildkompressionsschritt ferner JPEG-Primärbildkompression und Sekundärbildkompression umfasst.
    8. Synchrones Bildanzeigeverfahren nach Anspruch 7, wobei bei dem JPEG-Primärbildkompressionsprozess ein DC-Eigenwert und ein AC-Eigenwert jedes Bilds kopiert und als eine unabhängige Datendatei gespeichert werden, wenn das Bild komprimiert wird; gemäß der kopierten und gespeicherten Datendatei, jeweils der Unterschiedswert zwischen dem DC- und dem AC-Eigenwert zweier benachbarter Bilder berechnet wird, nämlich die Summe von Unterschieden zwischen Komponenten des DC- und AC-Eigenvektors; ein größerer Unterschiedswert einen größeren Unterschied zwischen den zwei benachbarten Bildern angibt, und ein kleinerer Unterschiedswert oder keine Unterschiede einen kleineren oder keine Unterschiede zwischen den zwei benachbarten Bildern angeben, und bestimmt wird, dass das letztere Bild nicht zu dem Schülerendgerät zur synchronen Anzeige zu übertragen werden braucht.
    9. Synchrones Bildanzeigeverfahren nach Anspruch 8, wobei das Berechnungsverfahren des Unterschiedwerts zwischen den Eigenwerten besteht aus: Vergleichen der DC- und AC-Eigenwerte zwischen den zwei benachbarten Bildern; was den DC-Eigenwert betrifft, Vergleichen von Vorzeichen der Komponenten, wobei als 1 markiert wird, falls die Vorzeichen der Komponenten gleich sind, anderenfalls Markieren als 0; was den AC-Eigenwert betrifft und gemäß einem eingestellten Kontrastschwellenwert, Markieren als 0, falls der Unterschied zwischen den Komponenten den Kontrastschwellenwert überschreitet, anderenfalls Markieren als 1, und Berechnen der Anzahl von 0 oder 1 dadurch und Summieren, um den Unterschiedswert zwischen den zwei benachbarten Bildern zu erhalten, wobei je größer die Anzahl von 0, desto größer der Unterschied zwischen den Eigenvektoren und desto größer der Unterschied zwischen den Bildern ist.
    10. Synchrones Bildanzeigeverfahren nach Anspruch 9, wobei eine Vielzahl von Speicherdateien zum Speichern der kopierten und gespeicherten DC- und AC-Eigenwerte eingestellt wird; eine andere Speicherdatei verwendet wird, wenn ein Verzeichnis voll ist, und das System dann das volle Verzeichnis für Backup löscht.
    11. Synchrones Bildanzeigeverfahren nach Anspruch 9, wobei die Zeit zum Abfangen von Bildschirmbildinhalt allmählich und automatisch verlängert wird, wenn während einer langen Zeit kein Unterschied zwischen Bildschirminhalten, die nacheinander abgefangen werden, erfasst wird.
    12. Synchrones Bildanzeigeverfahren nach Anspruch 9, wobei der aktuelle Bildschirminhalt wird als Erstausgabe-Blackboard-Schreibinhalt markiert wird, wenn erfasst wird, dass der Unterschiedswert innerhalb eines bestimmten Bereichs grundlegend beständig bleibt; und ein Starten einer neuen Layout-Blackboard-Beschriftung oder neuen Anzeigeinhalts beurteilt wird, wenn eine relativ große Änderung des Unterschiedswerts erfasst wird.
    13. Synchrones Bildanzeigeverfahren nach Anspruch 7, wobei der Sekundärbildkompressionsschritt ein weiteres Kompressionsverhältnis gemäß der Bildgröße und {Mindestwert, Höchstwert}: {minSize, maxSize} der Anzahl von Dateibytes, die von dem System spezifiziert wird, einstellt: If (image.getBytes ()>maxSize) {Kompressionsverhältnios = image.getBytes () / maxSize * System-definiertes Offset} Else, {Kompressionsverhältnis =1}, und das Bildkompressionsverhältnis gemäß der Größe des Bilds, das aus dem komprimierten Bild und {minSize, maxSize} der spezifizierten Anzahl von Dateibytes besteht, erhalten wird: falls die Bildgröße größer ist als der Höchstwert, Kompressionsverhältnis = Bildgröße/Höchstwert* System-definiertes Offset, anderenfalls Kompressionsverhältnis = 1, und das Offset als 0,4 bis 0,6 eingestellt wird.
    14. Synchrones Bildanzeigeverfahren nach Anspruch 1, wobei wenn das komprimierte JPEG-Bild und das Same-Screen-Anwendungsdatenpaket größer sind als eine begrenzte Länge der Meldung, das JPEG-Bild und das Same-Screen-Anwendungsdatenpaket in mehrere Subdatenpakete gemäß dem gleichen Verhältnis der Meldung segmentiert werden, das heißt, das JPEG-Bild und das Same-Screen-Anwendungsdatenpaket in mehrere zeitweilige TMP-Dateien segmentiert werden; die segmentierten zeitweiligen TMP-Dateien durch das Netzwerk in einem Multicastmodus übertragen werden, und, nachdem das Schülerendgerät alle segmentierten TMP-Dateien empfangen hat, die segmentierten TMP-Dateien zusammengeführt werden, um ein vollständiges JPEG-Bild zu bilden, um lokal auf dem Schülerendgerät angezeigt zu werden.
    15. Synchrones Bildanzeigeverfahren nach Anspruch 14, wobei die Daten gemäß der Datenlänge dynamisch berechnet und segmentiert werden, und die maximale Anzahl von Segmenten nicht mehr als fünf solcher zwei Sätze von Bedingungen zur umfassenden Berechnung beträgt, um eine relativ bessere Meldungsanordnung zur Übertragung zu erhalten.
    16. Synchrones Bildanzeigeverfahren nach Anspruch 1, wobei wenn der Client des Schülerendgeräts das Multicast-Datenpaket von dem Lehrerendgerät empfängt, er zuerst prüft, ob die empfangenen Daten vollständig empfangen wurden, und dann die Datenmeldung zusammenführt und sie wiederherstellt, falls die empfangenen Daten vollständig empfangen wurden; Feedbackinformationen sofort zu dem Lehrerendgerät gesendet werden, wenn jede Datenmeldung empfangen wird, und das Schülerendgerät Feedbackinformationen zu dem Lehrerendgerät sendet, nachdem es die Anweisungsinformationen empfangen hat.
    17. Synchrones Bildanzeigeverfahren nach Anspruch 16, wobei der Schritt der Thread-Überwachung spezifisch umfasst: B1: einen Schritt der Verarbeitung der Datenmeldung zur Übertragung: Signatur und Nummerieren durch das Lehrerendgerät der Datenmeldungen, die zu übertragen sind, um sicherzustellen, dass die IDs von Meldungsgruppen, die jedes Mal übertragen werden, vereinheitlicht und eindeutig sind; Senden der Datenmeldungen zu einer Multicast-Adresse eines drahtlosen AP (Access Point - Zugangspunkt), der eine fixe Multicast-Adresse ist, die in dem 234.5. *. * Multicast-Netzwerksegment liegt, und automatisches Berechnen der Multicast-Adresse, wenn das Lehrerendgerät ein Programm beginnt, um sicherzustellen, dass jede Unterrichtsstunde unabhängig eine Multicast-Adresse in einer Netzwerkumgebung belegt, insbesondere in einer Local Area Network-Umgebung. B2: einen Schritt des Startens eines Self-Daemon-Threads: Starten durch das Lehrerendgerät eines Self-Daemon-Threads und eines Taktgebers nach dem Übertragen der Datenmeldung, und Einrichtung eines Neuübertragungsstapels; Speichern der Daten und des Ziels, die dieses Mal in dem Neuübertragungsstapel übertragen werden, und Starten durch den Self-Daemon-Thread der Datenmeldung-Neuübertragungsverarbeitung, wenn kein Datenmeldungsfeedback von dem Schülerendgerät empfangen wird, nachdem die Zeit des Startens des Self-Daemon-Threads erreicht ist, und Senden des Datenpakets zu dem Schülerendgerät ohne Feedback; B3: einen Schritt des Startens eines Feedback-Daemon-Threads: automatisches Starten durch das Lehrerendgerät des Feedback-Daemon-Threads nach dem Übertragen eines Multicast-User-Datagram-Protocol (UDP)-Datenpakets und Empfangen einer Feedbackmeldung von dem Schülerendgerät zum ersten Mal, wobei der Thread eine Garantie-Neuübertragungsverarbeitung auf dem Feedback des Schülerendgeräts gemäß dem segmentierten Datenpaket ausführt und den Self-Daemon-Thread gleichzeitig stoppt, und B4: einen Meldungsfeedbackschritt: zuerst Prüfen durch den Client des Schülerendgeräts, ob die empfangenen Daten vollständig empfangen wurden, wenn das Multicast-Datenpaket von dem Lehrerendgerät empfangen wird, und Zusammenführen und Wiederherstellen der Datenmeldung, falls die empfangenen Daten vollständig empfangen wurden, und sofortiges Senden der Feedbackinformationen zu dem Lehrerendgerät, während jede Datenmeldung empfangen wird.
    18. Synchrones Bildanzeigeverfahren nach Anspruch 1, wobei der spezifische Prozess des Schritts des Verarbeitens abgelaufener Daten aus Folgendem besteht: C1: Hochladen durch das Lehrerendgerät der Multicast-Meldung zu dem Server und Übertragen durch den Server der Multicast-Meldung zu dem Schülerendgerät durch die Netzwerkübertragung; C2: Pushen durch das Schülerendgerät der Meldungsinformationen in den Stapel, falls die Meldungssignatur die Paketgruppe ist, die gerade verarbeitet wird, wenn das Multicast-Paket empfangen wird, und Übertragen der Feedbackinformationen zu dem Lehrerendgerät; C3: Entleeren der Daten in dem Stapel, Pushen neuer Daten in den Stapel und Ausführen der Follow-up-Verarbeitung, nachdem die Meldungsdaten vollständig empfangen wurden, falls die Multicast-Paketsignatur, die von dem Schülerendgerät empfangen wird, neuer ist als die Daten, die in dem aktuellen Stapel verarbeitet werden, was angibt, dass die Daten in dem Stapel abgelaufen sind; C4: Verwerfen durch das System aktuell empfangener Datenmeldungen, falls die Multicast-Paketsignatur, die von dem Schülerendgerät empfangen wird, älter ist als Daten, die in dem aktuellen Stapel verarbeitet werden, was angibt, dass die empfangene Datenmeldung abgelaufen ist, und C5: Empfangen durch das Lehrerendgerät der Datenmeldungs-Feedbackinformationen von dem Schülerendgerät, Verwerfen der Datenmeldung und Ausführen keiner anderen Verarbeitung, falls der Zeitstempel der Meldung abgelaufen ist, was angibt, dass eine Frist für das Schülerendgerät zum Empfangen der Meldung besteht, und dass die Daten abgelaufen sind, und Empfangen der Feedbackinformationen, falls der Zeitstempel der empfangenen Datenmeldung das aktuell übertragene Datenpaket ist.
    19. Synchrones Bildanzeigeverfahren nach Anspruch 1, wobei was den Synchronanzeigeschritt betrifft, in dem Client oder APP auf dem Schülerendgerät ein Bildsubdatenpaket-Zusammenführungs- und Anzeigemodul eingebaut ist, das konfiguriert ist, um die empfangenen mehreren Subdatenpakete, wie zum Beispiel mehrere zeitweilige TMP-Dateien, zusammenzuführen, um ein vollständiges JPEG-Bild zu bilden, und das Bild auf dem Schülerendgerät anzuzeigen, um den Zweck der Same-Screen-Anzeige zu erfüllen, und ein Dateibetriebslogikmodul eingebaut das, das das gleiche ist wie das auf dem Lehrerendgerät; das Schülerendgerät vorab die elektronischen Dateiressourcen dieser Unterrichtsstunde während des Same-Screen-Anwendungsprozesses lädt, und das Schülerendgerät während der Live-Kurse des Lehrers mittels des Servers Lehrerbetriebsanweisungsdaten eines elektronischen Dokuments/einer elektronischen Datei erfasst, wie eine Anweisung oder Koordinatenpunktdaten, und automatisch den Vorgang eines Lehrers unter Verwenden des eingebauten Logikmoduls kombiniert mit den heruntergeladenen elektronischen Unterrichtsstundendokumentressourcen simuliert, um den Zweck der Same-Screen-Anwendungsanzeige zu erfüllen.
    20. Synchrones Bildanzeigeverfahren nach den Ansprüchen 1 bis 19, wobei das in Echtzeit empfangene Bild lokal von dem Schülerendgerät angezeigt wird, und eine Reihe der empfangenen synchronen Bilddaten als ein wiedergebbarer Videostream gespeichert werden, und die Wiedergabe des Videostreams zu der relativen Audioaufzeichnung des Lehrers gemäß den Zeitcharakteristiken abgestimmt ist, um einen Videostream mit einer Stimme zu bilden.
    21. Synchrones Bildanzeigegerät für ein Netzwerkunterrichtssystem, das ein Lehrerendgerät, ein Schülerendgerät, einen Server und ein Netzwerk umfasst, das einen Prozessor umfasst, und einen Schritt des Einschaltens des Lehrerendgeräts, das vorbereitet wird, um Daten zur synchronen Anzeige zu erfassen; einen Schritt des Erfassens von Same-Screen-Anzeigedaten, der die Same-Screen-Anzeigedaten zur synchronen Anzeige erfasst; einen Schritt des Erfassens der Same-Screen-Anwendungsdaten, der die Same-Screen-Anwendungsbetriebsdaten zur synchronen Anzeige erfasst; einen Bildkompressionsschritt, der die erfassten Same-Screen-Anzeigebilddaten unter Verwenden eines Joint Photographic Experts Group (JPEG)-Formats komprimiert; einen Schritt des Beurteilens der Bildübertragung, der beurteilt, ob die zwei benachbarten Same-Screen-Anzeigebilder, die durch den Kompressionsschritt komprimiert wurden, dieselben sind, und bestimmt, ob das Bild gemäß dem Beurteilungsresultat zu übertragen ist; einen Schritt des Segmentierens des Bilds, das zu übertragen ist, Segmentierens der komprimierten Bilddaten, die zum Übertragen bestimmt wurden, sowie die Anwendungsdaten, um ein Übertragungsdatenpaket zu bilden; einen Schritt des Übertragens eines Datenpakets, der das Datenpaket zu einer Vielzahl von Benutzerendgeräten in einem Multicast-Modus basierend auf einem User Datagram Protocol (UDP)-Protokoll überträgt; einen Schritt des Threadüberwachens, der konfiguriert ist, um Echtzeitüberwachung auf dem Thread beim Übertragen basierend auf dem UDP-Protokoll auszuführen und verlorene Paketdaten neu zu übertragen; einen Schritt des Verarbeitens abgelaufener Daten, der konfiguriert ist, um die abgelaufenen Daten in dem Netzwerkunterrichtssystem zu verwerfen, um die flüssige Netzwerkübertragung sicherzustellen, und einen Synchronanzeigeschritt, der konfiguriert ist, um synchrone Anzeige auf dem Schülerendgerät zum Empfangen von Daten auszuführen.
    22. Synchrones Bildanzeigegerät nach Anspruch 21, wobei die Same-Screen-Anzeigedaten der Inhalt sind, der auf dem Bildschirm des Lehrerendgeräts angezeigt wird, nämlich die Bilddaten, die durch ein elektronisches Whiteboard, ein Projektionseingabegerät, ein Handschrifteingabegerät, ein Blackboard oder ein Whiteboard gesammelt werden, und ein Bildsammelgerät, das die Kamera und die Videokamera umfasst, und die gesammelten Bilddaten in einem Bit Map Picture (BMP)-Format sind.
    23. Synchrones Bildanzeigegerät nach Anspruch 21, wobei die erforderlichen Same-Screen-Anwendungsdaten durch Aufzeichnen und Übertragen einer Anweisung und von Koordinatenpunktdaten, die Weg-Wegkoordinatendaten umfassen, durch Verwenden eines Client oder eines APP auf dem Lehrerendgerät erhalten werden.
    24. Synchrones Bildanzeigegerät nach Anspruch 23, wobei der Aufzeichnungsprozess der Weg-Wegkoordinatendaten der folgende ist: A1: Parsen der aufgezeichneten Weg-Wegkoordinatendaten und ihr Speichern in einen zeitweiligen Anweisungskoordinatenstapel, und dann Ausführen einer anfänglichen Anordnung auf dem Bildschirm und Einstellen eines Hintergrundmusters auf einer Leinwand Leinwand des Bildschirms; A2: Anlegen einer neuen Bitmap und Verwenden dieser Bitmap zum Erzeugen eines zeitweiligen Leinwand-temptCanvas; A3: Einstellen des Hintergrunds der tempBitmap auf durchsichtig zum Zweck des Lokalisierens des Ziels der zeitweiligen Leinwand temptCanvas in der angelegten tempBitmap; A4: nach einer solchen Struktur, Extrahieren der Koordinatenanweisungen aus dem Anweisungsstapel und ihr einzelnes Wiederherstellen, wobei ein entsprechendes Bild auf der zeitweiligen tempBitmap durch alle Zeichenfunktionen der temptCanvas durch Überschreiben, das mittels der temptCanvas ausgeführt wird, gezeichnet wird, so dass in einem Aktionsbacktrackingprozess Zeichenpunkte, Zeichenlinien die temptCanvas an Stelle der Leinwand, die ursprünglich auf dem Bildschirm war, abrufen, umfassend temptCanvas, drawPoint und temptCanvasRect, und A5: nach der Ausführung aller Anweisungskoordinatenstapel, Ausführen von Canvas.drawBitmap (tempBitmap,0,0,null), wobei die temptCanvas dafür verantwortlich ist, diverse Pinselstriche auf der tempBitmap zu zeichnen, während die Leinwand für das Zeichnen der tempBitmap auf dem Bildschirm zuständig ist.
    25. Synchrones Bildanzeigegerät nach Anspruch 21, wobei vor dem Ausführen des Bildkompressionsschritts, nicht komprimierte Bilddaten gesichert werden, um eine Original-Bildbackupdatenbank zu bilden, und, wenn ein Benutzer das komprimierte Bild empfängt und ein feineres Bild anzeigen muss, ein Originalbild aus der Original-Bildbackupdatenbank durch einen Klickvorgang heruntergeladen werden kann.
    26. Synchrones Bildanzeigegerät nach Anspruch 25, wobei nach dem Ausführen des Beurteilungsschritts der Bildübertragung, die Originalbackupdaten des komprimierten Bilds, von welchen bestimmt wird, dass sie nicht synchron auf den Schülerendgeräten angezeigt werden, aus der Datenbank gelöscht werden.
    27. Synchrones Bildanzeigegerät nach Anspruch 21, wobei der Bildkompressionsschritt ferner JPEG-Primärbildkompression und Sekundärbildkompression umfasst.
    28. Synchrones Bildanzeigegerät nach Anspruch 27, wobei bei dem JPEG-Primärbildkompressionsprozess ein DC-Eigenwert und ein AC-Eigenwert jedes Bilds kopiert und als eine unabhängige Datendatei gespeichert werden, wenn das Bild komprimiert wird; gemäß der kopierten und gespeicherten Datendatei, jeweils der Unterschiedswert zwischen dem DC- und dem AC-Eigenwert zweier benachbarter Bilder berechnet wird, nämlich die Summe von Unterschieden zwischen Komponenten des DC- und AC-Eigenvektors; ein größerer Unterschiedswert einen größeren Unterschied zwischen den zwei benachbarten Bildern angibt, und ein kleinerer Unterschiedswert oder keine Unterschiede einen kleineren oder keine Unterschiede zwischen den zwei benachbarten Bildern angeben, und bestimmt wird, dass das letztere Bild nicht zu dem Schülerendgerät zur synchronen Anzeige zu übertragen werden braucht.
    29. Synchrones Bildanzeigegerät nach Anspruch 28, wobei das Berechnungsverfahren des Unterschiedwerts zwischen den Eigenwerten besteht aus: Vergleichen der DC- und AC-Eigenwerte zwischen den zwei benachbarten Bildern; was den DC-Eigenwert betrifft, Vergleichen von Vorzeichen der Komponenten, wobei als 1 markiert wird, falls die Vorzeichen der Komponenten gleich sind, anderenfalls Markieren als 0; was den AC-Eigenwert betrifft und gemäß einem eingestellten Kontrastschwellenwert, Markieren als 0, falls der Unterschied zwischen den Komponenten den Kontrastschwellenwert überschreitet, anderenfalls Markieren als 1, und Berechnen der Anzahl von 0 oder 1 dadurch und Summieren, um den Unterschiedswert zwischen den zwei benachbarten Bildern zu erhalten, wobei je größer die Anzahl von 0, desto größer der Unterschied zwischen den Eigenvektoren und desto größer der Unterschied zwischen den Bildern ist.
    30. Synchrones Bildanzeigegerät nach Anspruch 29, wobei eine Vielzahl von Speicherdateien zum Speichern der kopierten und gespeicherten DC- und AC-Eigenwerte eingestellt wird; eine andere Speicherdatei verwendet wird, wenn ein Verzeichnis voll ist, und das System dann das volle Verzeichnis für Backup löscht.
    31. Synchrones Bildanzeigegerät nach Anspruch 29, wobei die Zeit zum Abfangen von Bildschirmbildinhalt allmählich und automatisch verlängert wird, wenn während einer langen Zeit kein Unterschied zwischen Bildschirminhalten, die nacheinander abgefangen werden, erfasst wird.
    32. Synchrones Bildanzeigegerät nach Anspruch 29, wobei der aktuelle Bildschirminhalt als Erstausgabe-Blackboard-Schreibinhalt markiert wird, wenn erfasst wird, dass der Unterschiedswert innerhalb eines bestimmten Bereichs grundlegend beständig bleibt; und ein Starten einer neuen Layout-Blackboard-Beschriftung oder neuen Anzeigeinhalts beurteilt wird, wenn eine relativ große Änderung des Unterschiedswerts erfasst wird.
    33. Synchrones Bildanzeigegerät nach Anspruch 27, wobei der Sekundärbildkompressionsschritt ein weiteres Kompressionsverhältnis gemäß der Bildgröße und {Mindestwert, Höchstwert} einstellt: {minSize, maxSize} der Anzahl von Dateibytes, die von dem System spezifiziert wird: {minSize, maxSize} der Anzahl von Dateibytes, die von dem System spezifiziert wird: If (image.getBytes ()>maxSize) {Kompressionsverhältnios = image.getBytes () / maxSize * System-defininiertes Offset} Else, {Kompressionsverhältnis =1}, und das Bildkompressionsverhältnis gemäß der Größe des Bilds, das aus dem komprimierten Bild und {minSize, maxSize} der spezifizierten Anzahl von Dateibytes besteht, erhalten wird: falls die Bildgröße größer ist als der Höchstwert, Kompressionsverhältnis = Bildgröße/Höchstwert* System-definiertes Offset, anderenfalls Kompressionsverhältnis = 1, und das Offset als 0,4 bis 0,6 eingestellt wird.
    34. Synchrones Bildanzeigegerät nach Anspruch 21, wobei wenn das komprimierte JPEG-Bild und das Same-Screen-Anwendungsdatenpaket größer sind als eine begrenzte Länge der Meldung, das JPEG-Bild und das Same-Screen-Anwendungsdatenpaket in mehrere Subdatenpakete gemäß dem gleichen Verhältnis der Meldung segmentiert werden, das heißt, das JPEG-Bild und das Same-Screen-Anwendungsdatenpaket in mehrere zeitweilige TMP-Dateien segmentiert werden; die segmentierten zeitweiligen TMP-Dateien durch das Netzwerk in einem Multicastmodus übertragen werden, und, nachdem das Schülerendgerät alle segmentierten TMP-Dateien empfangen hat, die segmentierten TMP-Dateien zusammengeführt werden, um ein vollständiges JPEG-Bild zu bilden, um lokal auf dem Schülerendgerät angezeigt zu werden.
    35. Synchrones Bildanzeigegerät nach Anspruch 34, wobei die Daten gemäß der Datenlänge dynamisch berechnet und segmentiert werden, und die maximale Anzahl von Segmenten nicht mehr als fünf solcher zwei Sätze von Bedingungen zur umfassenden Berechnung beträgt, um eine relativ bessere Meldungsanordnung zur Übertragung zu erhalten.
    36. Synchrones Bildanzeigegerät nach Anspruch 21, wobei wenn der Client des Schülerendgeräts das Multicast-Datenpaket von dem Lehrerendgerät empfängt, er zuerst prüft, ob die empfangenen Daten vollständig empfangen wurden, und dann die Datenmeldung zusammenführt und sie wiederherstellt, falls die empfangenen Daten vollständig empfangen wurden; Feedbackinformationen sofort zu dem Lehrerendgerät gesendet werden, wenn jede Datenmeldung empfangen wird, und das Schülerendgerät Feedbackinformationen zu dem Lehrerendgerät sendet, nachdem es die Anweisungsinformationen empfangen hat.
    37. Synchrones Bildanzeigegerät nach Anspruch 36, wobei der Schritt der Thread-Überwachung spezifisch umfasst: B1: einen Schritt der Verarbeitung der Datenmeldung zur Übertragung: Signatur und Nummerieren durch das Lehrerendgerät der Datenmeldungen, die zu übertragen sind, um sicherzustellen, dass die IDs von Meldungsgruppen, die jedes Mal übertragen werden, vereinheitlicht und eindeutig sind; Senden der Datenmeldungen zu einer Multicast-Adresse eines drahtlosen AP (Access Point - Zugangspunkt), der eine fixe Multicast-Adresse ist, die in dem 234.5. *. * Multicast-Netzwerksegment liegt, und automatisches Berechnen der Multicast-Adresse, wenn das Lehrerendgerät ein Programm beginnt, um sicherzustellen, dass jede Unterrichtsstunde unabhängig eine Multicast-Adresse in einer Netzwerkumgebung belegt, insbesondere in einer Local Area Network-Umgebung. B2: einen Schritt des Startens eines Self-Daemon-Threads: Starten durch das Lehrerendgerät eines Self-Daemon-Threads und eines Taktgebers nach dem Übertragen der Datenmeldung, und Einrichtung eines Neuübertragungsstapels; Speichern der Daten und des Ziels, die dieses Mal in dem Neuübertragungsstapel übertragen werden, und Starten durch den Self-Daemon-Thread der Datenmeldung-Neuübertragungsverarbeitung, wenn kein Datenmeldungsfeedback von dem Schülerendgerät empfangen wird, nachdem die Zeit des Startens des Self-Daemon-Threads erreicht ist, und Senden des Datenpakets zu dem Schülerendgerät ohne Feedback; B3: einen Schritt des Startens eines Feedback-Daemon-Threads: automatisches Starten durch das Lehrerendgerät des Feedback-Daemon-Threads nach dem Übertragen eines Multicast-User-Datagram-Protocol (UDP)-Datenpakets und Empfangen einer Feedbackmeldung von dem Schülerendgerät zum ersten Mal, wobei der Thread eine Garantie-Neuübertragungsverarbeitung auf dem Feedback des Schülerendgeräts gemäß dem segmentierten Datenpaket ausführt und den Self-Daemon-Thread gleichzeitig stoppt, und B4: einen Meldungsfeedbackschritt: zuerst Prüfen durch den Client des Schülerendgeräts, ob die empfangenen Daten vollständig empfangen wurden, wenn das Multicast-Datenpaket von dem Lehrerendgerät empfangen wird, und Zusammenführen und Wiederherstellen der Datenmeldung, falls die empfangenen Daten vollständig empfangen wurden, und sofortiges Senden der Feedbackinformationen zu dem Lehrerendgerät, während jede Datenmeldung empfangen wird.
    38. Synchrones Bildanzeigegerät nach Anspruch 31, wobei der spezifische Prozess des Schritts des Verarbeitens abgelaufener Daten aus Folgendem besteht: C1: Hochladen durch das Lehrerendgerät der Multicast-Meldung zu dem Server und Übertragen durch den Server der Multicast-Meldung zu dem Schülerendgerät durch die Netzwerkübertragung; C2: Pushen durch das Schülerendgerät der Meldungsinformationen in den Stapel, falls die Meldungssignatur die Paketgruppe ist, die gerade verarbeitet wird, wenn das Multicast-Paket empfangen wird, und Übertragen der Feedbackinformationen zu dem Lehrerendgerät; C3: Entleeren der Daten in dem Stapel, Pushen neuer Daten in den Stapel und Ausführen der Follow-up-Verarbeitung, nachdem die Meldungsdaten vollständig empfangen wurden, falls die Multicast-Paketsignatur, die von dem Schülerendgerät empfangen wird, neuer ist als die Daten, die in dem aktuellen Stapel verarbeitet werden, was angibt, dass die Daten in dem Stapel abgelaufen sind; C4: Verwerfen durch das System aktuell empfangener Datenmeldungen, falls die Multicast-Paketsignatur, die von dem Schülerendgerät empfangen wird, älter ist als Daten, die in dem aktuellen Stapel verarbeitet werden, was angibt, dass die empfangene Datenmeldung abgelaufen ist, und C5: Empfangen durch das Lehrerendgerät der Datenmeldungs-Feedbackinformationen von dem Schülerendgerät, Verwerfen der Datenmeldung und Ausführen keiner anderen Verarbeitung, falls der Zeitstempel der Meldung abgelaufen ist, was angibt, dass eine Frist für das Schülerendgerät zum Empfangen der Meldung besteht, und dass die Daten abgelaufen sind, und Empfangen der Feedbackinformationen, falls der Zeitstempel der empfangenen Datenmeldung das aktuell übertragene Datenpaket ist.
    39. Synchrones Bildanzeigegerät nach Anspruch 21, wobei was den Synchronanzeigeschritt betrifft, in dem Client oder APP auf dem Schülerendgerät ein Bildsubdatenpaket-Zusammenführungs- und Anzeigemodul eingebaut ist, das konfiguriert ist, um die empfangenen mehreren Subdatenpakete, wie zum Beispiel mehrere zeitweilige TMP-Dateien, zusammenzuführen, um ein vollständiges JPEG-Bild zu bilden, und das Bild auf dem Schülerendgerät anzuzeigen, um den Zweck der Same-Screen-Anzeige zu erfüllen, und ein Dateibetriebslogikmodul eingebaut das, das das gleiche ist wie das auf dem Lehrerendgerät; das Schülerendgerät vorab die elektronischen Dateiressourcen dieser Unterrichtsstunde während des Same-Screen-Anwendungsprozesses lädt, und das Schülerendgerät während der Live-Kurse des Lehrers mittels des Servers Lehrerbetriebsanweisungsdaten eines elektronischen Dokuments/einer elektronischen Datei erfasst, wie eine Anweisung oder Koordinatenpunktdaten, und automatisch den Vorgang eines Lehrers unter Verwenden des eingebauten Logikmoduls kombiniert mit den heruntergeladenen elektronischen Unterrichtsstundendokumentressourcen simuliert, um den Zweck der Same-Screen-Anwendungsanzeige zu erfüllen.
    40. Synchrones Bildanzeigegerät nach den Ansprüchen 21 bis 39, wobei das in Echtzeit empfangene Bild lokal von dem Schülerendgerät angezeigt wird, und eine Reihe der empfangenen synchronen Bilddaten als ein wiedergebbarer Videostream gespeichert werden, und die Wiedergabe des Videostreams zu der relativen Audioaufzeichnung des Lehrers gemäß den Zeitcharakteristiken abgestimmt ist, um einen Videostream mit einer Stimme zu bilden.
    41. Netzwerklernsystem, das einen Server und eine Vielzahl von Benutzerendgeräten umfasst, wobei das Netzwerklernsystem das synchrone Bildanzeigeverfahren nach einem der Ansprüche 1 bis 20 ausführt oder das synchrone Bildanzeigegerät nach einem der Ansprüche 21 bis 40 zum Übertragen des Bildinhalts auf dem Bildschirm eines der Benutzerendgeräte zu anderen Endgeräten umfasst, um synchrones Anzeigen auszuführen.
    DE112015007134.2T 2015-11-19 2015-12-25 Verfahren und Gerät zur synchronen Bildanzeige Withdrawn DE112015007134T5 (de)

    Applications Claiming Priority (3)

    Application Number Priority Date Filing Date Title
    CN201510801936.9 2015-11-19
    CN201510801936.9A CN105491414B (zh) 2015-11-19 2015-11-19 一种图像同步显示方法及装置
    PCT/CN2015/099057 WO2017084174A1 (zh) 2015-11-19 2015-12-25 一种图像同步显示方法及装置

    Publications (1)

    Publication Number Publication Date
    DE112015007134T5 true DE112015007134T5 (de) 2018-08-09

    Family

    ID=55678077

    Family Applications (1)

    Application Number Title Priority Date Filing Date
    DE112015007134.2T Withdrawn DE112015007134T5 (de) 2015-11-19 2015-12-25 Verfahren und Gerät zur synchronen Bildanzeige

    Country Status (7)

    Country Link
    US (1) US10522049B2 (de)
    JP (1) JP6430653B2 (de)
    KR (1) KR102050865B1 (de)
    CN (1) CN105491414B (de)
    CA (1) CA2973405C (de)
    DE (1) DE112015007134T5 (de)
    WO (1) WO2017084174A1 (de)

    Families Citing this family (56)

    * Cited by examiner, † Cited by third party
    Publication number Priority date Publication date Assignee Title
    CN105405325B (zh) * 2015-12-22 2017-04-26 深圳市鹰硕技术有限公司 一种网络教学方法及系统
    CN106375804A (zh) * 2016-05-30 2017-02-01 深圳市美贝壳科技有限公司 移动端同步模拟智能设备界面的改良方法
    CN107800729B (zh) * 2016-08-30 2021-02-05 中国移动通信集团广东有限公司 一种信息查询方法和系统
    CN106230704B (zh) * 2016-08-31 2020-01-14 嘉兴学院 一种远程实验交互方法及系统
    CN106803863A (zh) * 2016-12-20 2017-06-06 深圳市金立通信设备有限公司 一种图像共享方法和终端
    CN106790621A (zh) * 2016-12-30 2017-05-31 广州幻境科技有限公司 一种动作捕捉数据的云分享控制方法、及其系统
    CN108415635A (zh) * 2017-02-10 2018-08-17 广州森成和信息技术有限公司 一种图片分享系统
    CN108513149B (zh) * 2017-02-28 2021-04-09 北京新唐思创教育科技有限公司 一种直播延迟测试方法及其装置
    CN106981224B (zh) * 2017-03-02 2019-06-28 山西大学 一种电子黑板系统及继承上次授课内容的方法
    CN107104947B (zh) * 2017-03-20 2020-05-12 福建天泉教育科技有限公司 多屏互动方法
    TWI643185B (zh) * 2017-04-26 2018-12-01 瑞昱半導體股份有限公司 音訊處理裝置及方法
    US10895954B2 (en) * 2017-06-02 2021-01-19 Apple Inc. Providing a graphical canvas for handwritten input
    CN107423407B (zh) * 2017-07-27 2021-06-15 广州视源电子科技股份有限公司 教学信息记录方法、装置、终端和计算机可读存储介质
    CN108154729A (zh) * 2017-12-26 2018-06-12 河南医学高等专科学校 一种基于移动互联网的医学教育师生云平台交互系统
    CN108156502A (zh) * 2018-01-05 2018-06-12 创盛视联数码科技(北京)有限公司 一种提高画笔和文字视频直播同步性的方法
    CN108322755B (zh) * 2018-01-10 2021-07-09 链家网(北京)科技有限公司 一种图片压缩处理方法及系统
    CN108509238A (zh) * 2018-03-06 2018-09-07 珠海爱创医疗科技有限公司 桌面屏幕推送的方法及装置
    KR102071975B1 (ko) * 2018-03-20 2020-04-01 주식회사 페이콕 광학적 문자 인식을 사용하는 카드 결제 장치 및 방법
    CN113467741A (zh) * 2018-04-18 2021-10-01 海信视像科技股份有限公司 一种传屏方法、显示设备及其传屏系统
    CN110445625B (zh) * 2018-05-02 2022-07-01 鸿合科技股份有限公司 一种大屏广播控制方法及系统
    CN110719429B (zh) * 2018-07-12 2022-01-11 视联动力信息技术股份有限公司 一种基于视联网的高拍仪处理方法及装置
    CN109509375B (zh) * 2018-10-26 2021-07-23 珠海中电数码科技有限公司 一种录播一体的智能全面屏黑板系统及其控制方法
    CN109640108B (zh) * 2018-12-13 2020-10-30 广州易方信息科技股份有限公司 基于文档类直播交互数据和音视频数据同步方法和系统
    CN109743332A (zh) * 2019-02-01 2019-05-10 中国电信股份有限公司南京分公司 一种多终端同步显示数据的系统
    US20220172454A1 (en) * 2019-03-19 2022-06-02 Nec Corporation System, client apparatus, data processing method, computer program and recording medium
    CN110022534B (zh) * 2019-03-28 2021-06-08 山东省计算中心(国家超级计算济南中心) 一种基于组播的数据传输方法及装置
    CN111355994A (zh) * 2019-04-24 2020-06-30 鸿合科技股份有限公司 一种课件控制方法及终端、电子设备
    CN111866484B (zh) * 2019-04-30 2023-06-20 华为技术有限公司 点云编码方法、点云解码方法、装置及存储介质
    CN110248235B (zh) * 2019-06-26 2022-06-17 深圳市轱辘车联数据技术有限公司 软件教学方法、装置、终端设备及介质
    CN110798672B (zh) * 2019-11-06 2021-11-05 广州炫视智能科技有限公司 一种具有多屏同显功能的视频驱动板卡
    JP2023503641A (ja) 2019-11-27 2023-01-31 スクリーンビーム インコーポレイテッド 協働プラットフォーム上の待ち時間を低減させるための方法およびシステム
    CN111045624A (zh) * 2019-11-27 2020-04-21 深圳创维-Rgb电子有限公司 多屏同显方法、显示终端及计算机可读存储介质
    CN111078171B (zh) * 2019-11-30 2021-05-25 北京城市网邻信息技术有限公司 用于同步显示的方法、终端设备、设备和可读存储介质
    CN111124333A (zh) * 2019-12-05 2020-05-08 视联动力信息技术股份有限公司 电子白板显示内容同步的方法、装置、设备以及存储介质
    CN111193936B (zh) * 2019-12-27 2021-11-12 腾讯科技(深圳)有限公司 视频流传输方法、装置、电子设备及计算机可读存储介质
    CN111240626A (zh) * 2020-01-09 2020-06-05 中瓴智行(成都)科技有限公司 一种基于Hypervisor智能座舱操作系统双屏互动的方法和系统
    CN111262920A (zh) * 2020-01-13 2020-06-09 深圳市鸿合创新信息技术有限责任公司 一种数据同步方法及交互式电子白板、服务器
    CN111338593B (zh) * 2020-03-25 2021-09-21 掌阅科技股份有限公司 投屏展示信息的方法、阅读终端及存储介质
    CN111796893A (zh) * 2020-06-12 2020-10-20 彭程 数据交互方法与电子设备
    CN111897461A (zh) * 2020-07-09 2020-11-06 北京国发天元信息技术有限公司 一种基于互联网的互动虚拟实验的实现方法
    CN114296675A (zh) 2020-08-05 2022-04-08 腾讯科技(深圳)有限公司 投屏状态确定方法、装置、设备及计算机可读存储介质
    CN111951618A (zh) * 2020-08-26 2020-11-17 吕梁学院 一种交互式英语学习系统
    CN111813312B (zh) * 2020-09-14 2021-01-29 湖南新云网科技有限公司 数据传输方法、装置、系统、终端设备及可读存储介质
    CN112347291A (zh) * 2020-11-06 2021-02-09 湖南新云网科技有限公司 网络课件的生成方法、装置、设备及存储介质
    CN112383788B (zh) * 2020-11-11 2023-05-26 成都威爱新经济技术研究院有限公司 一种基于智能ai技术的直播实时图像提取系统及方法
    CN112733056B (zh) * 2021-04-02 2021-06-18 北京百家视联科技有限公司 一种文档处理方法、装置、设备及存储介质
    CN113379752B (zh) * 2021-04-09 2022-10-25 合肥工业大学 一种用于双层液晶屏显示的图像分割方法
    CN113014439B (zh) * 2021-04-19 2021-10-26 广州大一互联网络科技有限公司 一种数据中心带宽的虚拟弹性管理方法
    CN113419693B (zh) * 2021-05-17 2023-04-18 广州佰锐网络科技有限公司 一种多用户轨迹的同步显示方法及系统
    CN113422933B (zh) * 2021-06-23 2022-10-25 江苏小牛电子科技有限公司 一种基于教学的录播系统及录播方法、介质
    CN113259775B (zh) * 2021-06-28 2021-10-12 大学长(北京)网络教育科技有限公司 一种直播的方法以及装置
    CN113992885B (zh) * 2021-09-22 2023-03-21 联想(北京)有限公司 一种数据同步方法及装置
    CN114173207B (zh) * 2021-11-15 2024-02-23 杭州当虹科技股份有限公司 一种视频帧顺序传输的方法和系统
    CN114237940B (zh) * 2021-12-20 2023-06-16 南京首印铭都信息技术科技有限公司 信息管理系统和方法
    TWI811148B (zh) * 2022-11-07 2023-08-01 許精一 基於環景影音的減少延遲的一對多通訊方法與計算機程式產品組
    CN116204135A (zh) * 2023-04-27 2023-06-02 中科信工创新技术(北京)有限公司 一种数据压缩的方法、装置、设备及介质

    Family Cites Families (26)

    * Cited by examiner, † Cited by third party
    Publication number Priority date Publication date Assignee Title
    US5730602A (en) * 1995-04-28 1998-03-24 Penmanship, Inc. Computerized method and apparatus for teaching handwriting
    KR200187183Y1 (ko) * 1997-10-17 2000-07-01 김영환 디지탈카메라
    KR20020016509A (ko) * 2000-08-25 2002-03-04 권혁빈 멀티미디어 전자 학습 시스템 및 방법
    JP2002118738A (ja) * 2000-10-10 2002-04-19 Canon Inc 画像表示装置及び方法、該画像表示装置を用いた情報処理装置、並びに記憶媒体
    KR20010083840A (ko) * 2001-07-04 2001-09-03 최용준 실시간 멀티미디어 프리젠테이션을 위한 서버 비의존캐스팅 기법 및 양방향통신의 구현방법
    KR100400947B1 (en) * 2002-11-26 2003-10-08 Coretrust Inc System and method for protecting information of multimedia streaming contents, and recording medium recording the same
    JP4444603B2 (ja) * 2003-09-03 2010-03-31 キヤノン株式会社 表示装置、システム、画像表示システム、画像処理方法、表示方法、及びプログラム
    JP2006148730A (ja) * 2004-11-24 2006-06-08 Hitachi Omron Terminal Solutions Corp 会議システム及び会議情報提供方法
    JP4522835B2 (ja) * 2004-12-07 2010-08-11 三菱電機株式会社 画像伝送装置及び画像監視システム
    CN101035262A (zh) * 2007-04-19 2007-09-12 深圳市融合视讯科技有限公司 一种视频信息的传输方法
    JP2009267734A (ja) * 2008-04-24 2009-11-12 Sharp Corp 画面データ送信端末、画面データ受信端末、画面データ伝送システム、画面データ送信方法および画面データ送信プログラム
    WO2011033460A1 (en) * 2009-09-17 2011-03-24 Time To Know Establishment Device, system, and method of educational content generation
    US9049482B2 (en) * 2012-02-19 2015-06-02 Udacity, Inc. System and method for combining computer-based educational content recording and video-based educational content recording
    CN103561277B (zh) * 2013-05-09 2017-05-03 陕西思智通教育科技有限公司 一种用于网络教学的传输方法和系统
    KR102053822B1 (ko) * 2013-06-03 2019-12-09 삼성전자주식회사 휴대 장치 및 휴대 장치의 화면 표시방법
    CN104581353B (zh) * 2013-10-24 2018-08-24 深圳习习网络科技有限公司 一种视频的录制/播放方法及录制/播放装置
    JP2015156173A (ja) * 2014-02-21 2015-08-27 セイコーエプソン株式会社 表示システム、表示装置およびプログラム
    CN203870835U (zh) * 2014-04-16 2014-10-08 深圳市时尚德源文化传播有限公司 一种基于电子白板的互动教学系统
    CN103927909B (zh) * 2014-04-29 2016-06-08 南京数模微电子有限公司 触摸式移动终端的交互式教学系统与方法
    CN103996315A (zh) * 2014-05-30 2014-08-20 杭州华银教育多媒体科技股份有限公司 一种新型的无线多媒体互动教学系统的系统安全设置方法
    CN104200710A (zh) * 2014-05-30 2014-12-10 杭州华银教育多媒体科技股份有限公司 一种新型的无线多媒体互动教学系统及故障处理方法
    TWI616808B (zh) * 2014-06-30 2018-03-01 緯創資通股份有限公司 分享顯示畫面的方法及裝置
    CN104158900B (zh) * 2014-08-25 2015-06-10 焦点科技股份有限公司 一种iPad控制课件同步的方法与系统
    CN104363545B (zh) * 2014-10-17 2015-06-03 深圳市时尚德源文化传播有限公司 音频降噪电路、采用该音频降噪电路的智能终端机及教学系统
    CN104539436B (zh) * 2014-12-22 2018-08-07 杭州施强教育科技有限公司 一种课堂内容实时直播方法及系统
    CN104540026B (zh) * 2014-12-22 2018-02-09 杭州施强教育科技有限公司 一种课堂内容录像及回放方法及系统

    Non-Patent Citations (1)

    * Cited by examiner, † Cited by third party
    Title
    „Journal of Image and Graphics", Band 8, Ausgabe 9, September 2003, Zhang Liping et al., „Screen Sharing Scheme Based on Copying Screen and Data Compression"

    Also Published As

    Publication number Publication date
    CA2973405C (en) 2021-03-02
    KR102050865B1 (ko) 2019-12-02
    KR20170107027A (ko) 2017-09-22
    WO2017084174A1 (zh) 2017-05-26
    JP6430653B2 (ja) 2018-11-28
    US20180247550A1 (en) 2018-08-30
    CN105491414A (zh) 2016-04-13
    JP2018514100A (ja) 2018-05-31
    US10522049B2 (en) 2019-12-31
    CN105491414B (zh) 2017-05-17
    CA2973405A1 (en) 2017-05-26

    Similar Documents

    Publication Publication Date Title
    DE112015007134T5 (de) Verfahren und Gerät zur synchronen Bildanzeige
    CN105405325B (zh) 一种网络教学方法及系统
    CN105578115B (zh) 一种具有语音评估功能的网络教学方法及系统
    CN105681920B (zh) 一种具有语音识别功能的网络教学方法及系统
    DE112015007020T5 (de) Verfahren und system zum aufzeichnen und bereitstellen von netzwerkunterricht
    KR102082816B1 (ko) 스트리밍 파일의 해상도 개선 방법
    DE112006003342T5 (de) Drahtloses Anzeigesystem und Verfahren dafür
    DE112006003371B4 (de) Anzeigesystem und -verfahren
    DE102017116177A1 (de) Verfahren und Gerät zum Kombinieren von Videos
    DE10214079A1 (de) Bewegungs- und tonerfassungsgestützte Web-Cam- und Bandbreiten-Steuerung
    DE202014010922U1 (de) Erzeugung von Tiefenkarten
    EP1371229A1 (de) Verfahren zur komprimierung und dekomprimierung von videodaten
    DE112020001290T5 (de) Videocodierungsverfahren mit Syntaxelementsignalisierung einer Guard-Band-Konfiguration eines projektionsbasierten Rahmens und dazugehörige Videodecodierungsverfahren und Vorrichtungen
    DE112021006157T5 (de) Videocodieren durch nicht-salienz-komprimierung für live-streaming von hochauflösenden videos in einer übertragung niedriger bandbreite
    CN105426148A (zh) 基于矢量图形的多终端屏幕同步方法
    CN205726152U (zh) 一种互联网视频互动系统
    KR20220021495A (ko) Ai에 기반하여 스트리밍 파일의 해상도를 개선하는 방법
    CN112732381B (zh) 一种在线课堂的桌面数据采集方法及系统
    DE102013102992A1 (de) Szenenaufbausystem und - verfahren durch Szenenausschnitte sowie deren Aufzeichnungsmedien
    US11748915B2 (en) VR image compression transmission method and system
    WO2021028178A1 (de) Verfahren zum übertragen einer metainformation zu einem bild eines videostroms
    CN105245753A (zh) 一种图片处理方法及装置
    DE10392523T5 (de) Verfahren und System zum Zeigen einer Präsentation einem lokalen und einem entfernten Puplikum
    CN104991976A (zh) 基于图形、图像识别和数据分析的虚拟现实系统及方法
    CN115550680A (zh) 课程录播方法及录播系统

    Legal Events

    Date Code Title Description
    R012 Request for examination validly filed
    R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee