DE202009019049U1 - Netzwerkkommunikationsvorrichtung mit einem ersten Gerät und einem zweiten Gerät - Google Patents

Netzwerkkommunikationsvorrichtung mit einem ersten Gerät und einem zweiten Gerät Download PDF

Info

Publication number
DE202009019049U1
DE202009019049U1 DE202009019049.8U DE202009019049U DE202009019049U1 DE 202009019049 U1 DE202009019049 U1 DE 202009019049U1 DE 202009019049 U DE202009019049 U DE 202009019049U DE 202009019049 U1 DE202009019049 U1 DE 202009019049U1
Authority
DE
Germany
Prior art keywords
terminal
information
screen
controller
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202009019049.8U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020090032283A external-priority patent/KR101100219B1/ko
Priority claimed from KR1020090051175A external-priority patent/KR101053629B1/ko
Priority claimed from KR1020090053946A external-priority patent/KR101062352B1/ko
Priority claimed from KR1020090053945A external-priority patent/KR101019485B1/ko
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of DE202009019049U1 publication Critical patent/DE202009019049U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0853Network architectures or network communication protocols for network security for authentication of entities using an additional device, e.g. smartcard, SIM or a different communication terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/14Session management
    • H04L67/141Setup of application sessions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72415User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72457User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/02Handling of images in compressed format, e.g. JPEG, MPEG
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • G09G2340/145Solving problems related to the presentation of information to be displayed related to small screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • G09G2370/042Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller for monitor identification
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/10Use of a protocol of communication by packets in interfaces along the display data pipeline
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/22Detection of presence or absence of input display information or of connection or disconnection of a corresponding information source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/16Details of telephonic subscriber devices including more than one display unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W68/00User notification, e.g. alerting and paging, for incoming communication, change of service or the like
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Computing Systems (AREA)
  • Environmental & Geological Engineering (AREA)
  • Telephone Function (AREA)

Abstract

Netzwerkkommunikationsvorrichtung, mit: einer zum Herstellen einer Kommunikationsverbindung zwischen einem ersten und einem zweiten Gerät konfigurierten, in dem ersten Gerät enthaltenen ersten drahtlosen Kommunikationseinheit, wobei die erste drahtlose Kommunikationseinheit ferner zum Übertragen von ersten Daten zum zweiten Gerät konfiguriert ist; einer zum Anzeigen von Inhalten auf einem ersten Bildschirm des ersten Geräts konfigurierten, im ersten Gerät enthaltenen ersten Anzeigeeinheit; einer zum Empfangen einer Ortsinformation vom zweiten Gerät und Ausführen einer Funktion basierend auf der empfangenen Ortsinformation konfigurierten, im ersten Gerät enthaltenen ersten Steuereinheit, wobei die erste Steuereinheit ferner zum Übertragen von zweiten Daten zum zweiten Gerät konfiguriert ist; einer zum Herstellen einer Kommunikationsverbindung mit dem ersten Gerät konfigurierten, im zweiten Gerät enthaltenen zweiten drahtlosen Kommunikationseinheit, wobei die zweite drahtlose Kommunikationseinheit ferner zum Empfangen der ersten Daten vom ersten Gerät und zum Übertragen der zweiten Daten zum ersten Gerät konfiguriert ist; einer zum Wiedergeben einer ersten Bildschirminformation basierend auf den ersten Daten auf einem zweiten Bildschirm des zweiten Geräts konfigurierten, im zweiten Gerät enthaltenen zweiten Anzeigeeinheit; und einer zum Empfangen eines Eingabesignals zur Auswahl einer Inhaltsinformation und zum Übertragen einer Ortsinformation entsprechend der ausgewählten Inhaltsinformation zum ersten Gerät konfigurierten, im zweiten Gerät enthaltenen zweiten Steuereinheit, wobei die zweite Steuereinheit ferner zum Steuern der zweiten Anzeigeeinheit zum Wiedergeben einer zweiten Bildschirminformation basierend auf den zweiten Daten auf dem zweiten Bildschirm des zweiten Geräts konfiguriert ist, und wobei die Ortsinformation eine Koordinateninformation der ausgewählten Inhaltsinformation der auf dem Bildschirm des zweiten Geräts wiedergegebenen ersten Bildschirminformation enthält.

Description

  • Die vorliegende Anmeldung beansprucht die Priorität der koreanischen Anmeldungen Nr. 10-2009-0032283 , eingereicht am 14. April 2009, Nr. 10-2009-0051175 , eingereicht am 9. Juni 2009, Nr. 10-2009-0053946 , eingereicht am 17. Juni 2009, und Nr. 10-2009-0053945 , eingereicht am 17. Juni 2009, deren Inhalte hier vollständig durch Verweis eingeschlossen sind.
  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Endgerät. Obwohl die vorliegende Erfindung für eine große Vielfalt von Anwendungen geeignet ist, ist sie besonders für Datenkommunikationsvorgänge zwischen Endgeräten geeignet.
  • Einschlägiger Stand der Technik
  • Ein Endgerät ist eine Vorrichtung, die zum Ausführen verschiedener Funktionen konfiguriert sein kann. Beispiele solcher Funktionen umfassen Daten- und Sprachkommunikation, Aufzeichnen von Bildern und Videos mit einer Kamera, Audioaufnahmen, Wiedergeben von Musikdateien über eine Lautsprecheranlage sowie Anzeigen von Bildern und Videos auf einem Display. Einige Endgeräte bieten zusätzliche Funktionen zum Unterstützen von Spielen, während andere Endgeräte als Multimediaplayer konfiguriert sind. Seit kurzem sind Endgeräte zum Empfangen von Rundfunk- und Multicast-Signalen konfiguriert, die die Wiedergabe von Inhalt wie Videos und Fernsehprogramme ermöglichen.
  • Das zuvor beschriebene mobile Endgerät stellt eine Kommunikationsverbindung mit einem externen Gerät mit einer Anzeigeeinheit und einer Eingabeeinheit wie ein Notebook-Computer, ein Personal-Computer, ein PDA und ähnliches her und kann dann Daten mit dem verbundenen externen Gerät austauschen (übertragen und empfangen).
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung betrifft ein Endgerät, das eine oder mehrere Probleme aufgrund der Beschränkungen und Nachteile des Standes der Technik im Wesentlichen behebt.
  • Eine Aufgabe der vorliegenden Erfindung ist das Bereitstellen eines Endgeräts, mit dem Daten eines ersten Endgeräts auf einem zweiten Endgerät ausführbar sind und alle Funktionen des ersten Endgeräts unter Verwendung des zweiten Endgeräts nutzbar sind.
  • Eine weitere Aufgabe der vorliegenden Erfindung ist das Bereitstellen eines Endgeräts, mit dem, wenn eine drahtlose Kommunikationsverbindung zwischen einer Vielzahl von Endgeräten hergestellt ist, auf beiden Bildschirmen des ersten und zweiten Endgeräts vorhandene Inhaltsinformation austauschbar verwendbar ist.
  • Eine weitere Aufgabe der vorliegenden Erfindung ist das Bereitstellen eines Endgeräts, mit dem eine dreiseitige heterogene Kommunikationsfunktion ersten bis dritten Endgeräten mittels einem Nahbereich-Kommunikationssystem und einem Mobilkommunikationssystem bereitgestellt werden kann.
  • Weitere Vorteile, Aufgaben und Merkmale der Erfindung werden teils in der folgenden Beschreibung dargestellt und werden Fachleuten teils anhand der folgenden Erläuterungen bzw. durch Umsetzung der Erfindung offensichtlich. Die Aufgaben und andere Vorteile der Erfindung können durch den Aufbau gelöst bzw. erzielt werden, der insbesondere in der schriftlichen Beschreibung und den Ansprüchen sowie in den beigefügten Zeichnungen dargestellt ist.
  • Erfindungsgemäße Lösungen dieser Aufgaben sind in den unabhängigen Schutzansprüchen angegeben. Vorteilhafte Weiterbildungen sind Gegenstand der abhängigen Schutzansprüche.
  • Gemäß einem Aspekt der vorliegenden Erfindung umfasst ein Endgerät eine zum Empfangen der Bildschirminformation, die in einem externen Endgerät angezeigt wird, konfigurierte Einheit zur drahtlosen Kommunikation über eine Kommunikationsverbindung mit dem externen Endgerät; eine zum Anzeigen der Bildschirminformation, wie sie im externen Endgerät auf wenigstens einem Teil eines Bildschirms des Endgeräts angezeigt wird, konfigurierte Anzeigeeinheit; und eine Steuereinheit, wobei dann, wenn eine Inhaltsinformation aus der Bildschirminformation, die auf dem wenigstens einen Teil des Bildschirms angezeigt wird, ausgewählt wird, die Steuereinheit zum Übertragen der Ortsinformation der ausgewählten Inhaltsinformation zum externen Endgerät konfiguriert ist.
  • Gemäß einem weiteren Aspekt der vorliegenden Erfindung umfasst ein Endgerät eine zum Anzeigen einer Bildschirminformation mit wenigstens einer Inhaltsinformation konfigurierte Anzeigeeinheit; eine Kommunikationseinheit, wobei dann, wenn eine Kommunikationsverbindung mit einem externen Endgerät hergestellt ist, die Kommunikationseinheit zum Übertragen der Bildschirminformation an das externe Endgerät konfiguriert ist; und eine Steuereinheit, wobei dann, wenn ein Signal mit einer Ortsinformation der wenigstens einen Inhaltsinformation vom externen Endgerät empfangen wird, die Steuereinheit zum Ausführen einer Funktion des Endgeräts entsprechend der empfangenen Ortsinformation auf dem Bildschirm konfiguriert ist.
  • Es versteht sich, dass die vorhergehende allgemeine Beschreibung und die folgende ausführliche Beschreibung der vorliegenden Erfindung exemplarisch und erläuternd sind und dazu gedacht sind, eine genauere Erklärung der beanspruchten Erfindung zu liefern.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die beigefügten Zeichnungen, die ein besseres Verständnis der Erfindung ermöglichen sollen und einen Bestandteil der vorliegenden Anmeldung darstellen, stellen Ausführungsformen der Erfindung dar und dienen zusammen mit der Beschreibung zum Erläutern des Prinzips der Erfindung. In den Zeichnungen ist bzw. sind:
  • 1 ein Blockdiagramm eines ersten Endgeräts eines mobilen Endgerättyps gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 2 ein Blockdiagramm eines zweiten Endgeräts eines PC-Typs gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 3 ein Diagramm zur Erläuterung einer Fernsteuerung umfassend ein erstes Endgerät eines mobilen Endgerättyps und ein zweites Endgerät eines PC-Typs gemäß der vorliegenden Erfindung;
  • 4 ein Diagramm von Bildschirmkonfigurationen zur Erläuterung eines Prozesses für ein zweites Endgerät zum Steuern einer Telefonbuchmenüfunktion eines ersten Endgeräts per drahtloser Kommunikation;
  • 5 ein Diagramm von Bildschirmkonfigurationen zur Erläuterung eines Prozesses für ein zweites Endgerät zum Steuern einer Nachrichtenmenüfunktion eines ersten Endgeräts per drahtloser Kommunikation;
  • 6 ein Diagramm von Bildschirmkonfigurationen zur Erläuterung eines Prozesses für ein zweites Endgerät zum Steuern einer Kameramenüfunktion eines ersten Endgeräts per drahtloser Kommunikation;
  • 7 ein Diagramm von Bildschirmkonfigurationen zur Erläuterung eines Prozesses für ein zweites Endgerät zum Steuern einer Bildmenüfunktion eines ersten Endgeräts per drahtloser Kommunikation;
  • 8 ein Diagramm zur Erläuterung einer Vorgangssteuerung umfassend ein erstes Endgerät eines mobilen Endgerättyps und ein zweites Endgerät eines mobilen Endgerättyps gemäß der vorliegenden Erfindung;
  • 9 ein Diagramm zur Erläuterung einer Vorgangssteuerung umfassend ein zweites Endgerät eines PC-Typs und ein drittes Endgerät eines mobilen Endgerättyps gemäß der vorliegenden Erfindung;
  • 10 ein Fließschema eines Prozesses für ein zweites Endgerät zum Zugriff auf eine Kommunikation mit einem ersten Endgerät in einer Vorgangssteuerung gemäß der vorliegenden Erfindung;
  • 11 ein Fließschema eines Prozesses für ein zweites Endgerät zum Zugriff auf eine Kommunikation mit einem zweiten Endgerät in einer Vorgangssteuerung gemäß der vorliegenden Erfindung;
  • 12 ein Blockdiagramm eines ersten Endgeräts zur Komprimierung einer Bildschirminformation in einer Vorgangssteuerung gemäß einer ersten Ausführungsform der vorliegenden Erfindung;
  • 13 ein Blockdiagramm eines ersten Endgeräts des PC-Typs zur Dekomprimierung einer komprimierten Bildschirminformation in einer Vorgangssteuerung gemäß einer ersten Ausführungsform der vorliegenden Erfindung;
  • 14 ein Fließschema eines Prozesses zur Komprimierung eines Videos auf einem Bildschirm eines ersten Endgeräts gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 15 ein Fließschema eines Prozesses zur Komprimierung eines Videos auf einem Bildschirm eines ersten Endgeräts gemäß einer weiteren Ausführungsform der vorliegenden Erfindung;
  • 16 ein Fließschema eines Prozesses zur Komprimierung eines Videos auf einem Bildschirm eines ersten Endgeräts gemäß einer weiteren Ausführungsform der vorliegenden Erfindung;
  • 17 ein Fließschema eines Prozesses zur Dekomprimierung eines komprimierten Videos wie in 14 dargestellt gemäß einer ersten Ausführungsform der vorliegenden Erfindung;
  • 18 ein Fließschema eines Prozesses zur Dekomprimierung eines komprimierten Videos wie in 15 dargestellt gemäß einer ersten Ausführungsform der vorliegenden Erfindung;
  • 19 ein Signalverarbeitungsdiagramm für einen Datenübertragungsprozess zwischen einem ersten Endgerät und einem zweiten Endgerät in einer Vorgangssteuerung gemäß einer zweiten Ausführungsform der vorliegenden Erfindung;
  • 20 und 21 Diagramme für Bildschirmkonfigurationen zum Erläutern eines Prozesses für ein erstes Endgerät zum Erzeugen einer ersten Benachrichtigungsinformation gemäß einer zweiten Ausführungsform der vorliegenden Erfindung;
  • 22 ein Signalverarbeitungsdiagramm für einen Datenübertragungsprozess zwischen einem ersten Endgerät und einem zweiten Endgerät gemäß einer dritten Ausführungsform der vorliegenden Erfindung;
  • 23 und 24 Diagramme von Bildschirmkonfigurationen zum Erläutern eines Prozesses zum Erzeugen und Anzeigen einer zweiten Benachrichtigungsinformation für ein erstes Endgerät zum Melden des Auftretens eines Ereignisses gemäß einer dritten Ausführungsform der vorliegenden Erfindung;
  • 25 ein Signalverarbeitungsdiagramm für einen Prozess für ein zweites Endgerät zum Zugriff auf homogene Inhaltsinformationen eines ersten Endgeräts gemäß einer vierten Ausführungsform der vorliegenden Erfindung;
  • 26 ein Diagramm einer Bildschirmkonfiguration eines Prozesses für ein zweites Endgerät zum Zugriff auf homogene Inhaltsinformationen eines ersten Endgeräts gemäß einer vierten Ausführungsform der vorliegenden Erfindung;
  • 27 ein Signalverarbeitungsdiagramm für einen Prozess für ein zweites Endgerät zum Zugriff auf heterogene Inhaltsinformationen eines ersten Endgeräts gemäß einer vierten Ausführungsform der vorliegenden Erfindung;
  • 28 ein Diagramm einer Bildschirmkonfiguration eines Prozesses für ein zweites Endgerät zum Zugriff auf heterogene Inhaltsinformationen eines ersten Endgeräts gemäß einer vierten Ausführungsform der vorliegenden Erfindung;
  • 29 ein Fließschema eines Prozesses für ein zweites Endgerät zum automatischen Herstellen einer Kommunikationsverbindung mit einem ersten Endgerät per Nahbereich-Kommunikation gemäß einer fünften Ausführungsform der vorliegenden Erfindung;
  • 30 ein Diagramm einer Bildschirmkonfiguration eines Prozesses für ein zweites Endgerät zum Festlegen eines Zeitraums für das regelmäßige Suchen eines ersten Endgeräts gemäß einer fünften Ausführungsform der vorliegenden Erfindung;
  • 31 ein Diagramm einer Bildschirmkonfiguration eines Prozesses für ein zweites Endgerät zum Zurücksetzen eines Zeitraums für das regelmäßige Suchen eines ersten Endgeräts gemäß einer fünften Ausführungsform der vorliegenden Erfindung;
  • 32 ein Fließschema eines Prozesses für ein zweites Endgerät zum automatischen Herstellen einer Kommunikationsverbindung mit einem ersten Endgerät per RFID gemäß einer fünften Ausführungsform der vorliegenden Erfindung;
  • 33 ein Diagramm einer Bildschirmkonfiguration eines Prozesses für ein zweites Endgerät zum automatischen Herstellen einer Kommunikationsverbindung mit einem ersten Endgerät per RFID gemäß einer fünften Ausführungsform der vorliegenden Erfindung;
  • 34 ein Fließschema eines Prozesses für ein zweites Endgerät zum Durchführen von Vorgängen zum Trennen und Wiederherstellen einer Kommunikationsverbindung mit einem ersten Endgerät gemäß einer sechsten Ausführungsform der vorliegenden Erfindung;
  • 35 ein Diagramm einer Bildschirmkonfiguration eines Prozesses für ein zweites Endgerät zum Durchführen eines Trennens und Wiederherstellens einer Kommunikationsverbindung mit einem ersten Endgerät gemäß einer sechsten Ausführungsform der vorliegenden Erfindung;
  • 36 ein Diagramm einer Bildschirmkonfiguration eines Prozesses für ein zweites Endgerät zum Durchführen eines Trennens einer Kommunikationsverbindung mit einem ersten Endgerät gemäß einer sechsten Ausführungsform der vorliegenden Erfindung;
  • 37 und 38 Diagramme von Bildschirmkonfigurationen für einen Prozess für ein zweites Endgerät zum Informieren eines Benutzers über den Status einer getrennten und wiederhergestellten Kommunikationsverbindung mit einem ersten Endgerät gemäß einer sechsten Ausführungsform der vorliegenden Erfindung;
  • 39 ein Fließschema eines Prozesses für ein erstes Endgerät zum Durchführen von Vorgängen zum Trennen und Wiederherstellen einer Kommunikationsverbindung mit einem zweiten Endgerät gemäß einer sechsten Ausführungsform der vorliegenden Erfindung;
  • 40 ein Fließschema eines Prozesses für ein zweites Endgerät zum Empfangen, Speichern, Bearbeiten und Ausführen einer Inhaltsinformation von einem ersten Endgerät gemäß einer siebten Ausführungsform der vorliegenden Erfindung;
  • 41 ein Diagramm einer Bildschirmkonfiguration für einen Zustand, in dem eine Bildschirminformation eines zweiten Endgeräts und eine Bildschirminformation eines ersten Endgeräts auf einem Bildschirm des zweiten Endgeräts zusammen angezeigt werden, gemäß einer siebten Ausführungsform der vorliegenden Erfindung;
  • 42 bis 46 Diagramme von Bildschirmkonfigurationen für einen Prozess für ein zweites Endgerät zum Empfangen und Speichern einer Inhaltsinformation von einem ersten Endgerät gemäß einer siebten Ausführungsform der vorliegenden Erfindung;
  • 47 ein Diagramm einer Bildschirmkonfiguration für einen Prozess für ein zweites Endgerät zum Klassifizieren und Speichern einer von einem ersten Endgerät empfangenen Inhaltsinformation gemäß einer siebten Ausführungsform der vorliegenden Erfindung;
  • 48 und 52 Diagramme von Bildschirmkonfigurationen für einen Prozess für ein zweites Endgerät zum Ausführen einer von einem ersten Endgerät empfangenen Inhaltsinformation gemäß einer siebten Ausführungsform der vorliegenden Erfindung;
  • 53 ein Fließschema eines Prozesses zur Übertragung einer Inhaltsinformation eines zweiten Endgeräts zu einem ersten Endgerät gemäß einer siebten Ausführungsform der vorliegenden Erfindung;
  • 54 und 55 Diagramme von Bildschirmkonfigurationen eines Prozesses zur Übertragung einer Inhaltsinformation eines zweiten Endgeräts zu einem ersten Endgerät gemäß einer siebten Ausführungsform der vorliegenden Erfindung;
  • 56 ein Fließschema eines Prozesses für ein zweites Endgerät zum Liefern einer Inhaltsinformation eines ersten Endgeräts an ein drittes Endgerät gemäß einer achten Ausführungsform der vorliegenden Erfindung;
  • 57 ein Diagramm einer Bildschirmkonfiguration für einen Zustand, in dem eine Bildschirminformation eines zweiten Endgeräts und eine Bildschirminformation eines zweiten und dritten Endgeräts auf einem Bildschirm des zweiten Endgeräts zusammen angezeigt werden, gemäß einer achten Ausführungsform der vorliegenden Erfindung;
  • 58 ein Diagramm einer Bildschirmkonfiguration für einen Prozess für ein zweites Endgerät zum Liefern einer Inhaltsinformation eines ersten Endgeräts an ein drittes Endgerät gemäß einer achten Ausführungsform der vorliegenden Erfindung;
  • 59 ein Fließschema eines Prozesses für ein zweites Endgerät zum Liefern einer Inhaltsinformation eines dritten Endgeräts an ein erstes Endgerät gemäß einer achten Ausführungsform der vorliegenden Erfindung;
  • 60 ein Diagramm einer Bildschirmkonfiguration für einen Prozess für ein zweites Endgerät zum Liefern einer Inhaltsinformation eines dritten Endgeräts an ein erstes Endgerät gemäß einer achten Ausführungsform der vorliegenden Erfindung;
  • 61 ein Signalverarbeitungsdiagramm eines Prozesses zum Durchführen eines Sprachanrufs zwischen einem zweiten Endgerät, einem ersten Endgerät und einem dritten Endgerät mit verschiedenen Kommunikationssystemen gemäß einer neunten Ausführungsform der vorliegenden Erfindung; und
  • 62 ein Signalverarbeitungsdiagramm eines Prozesses zum Durchführen eines Sprachanrufs zwischen einem zweiten Endgerät, einem ersten Endgerät und einem dritten Endgerät mit Nachrichten und Sprache gemäß einer neunten Ausführungsform der vorliegenden Erfindung.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • Es erfolgt nun ein ausführlicher Bezug auf die bevorzugten Ausführungsformen der vorliegenden Erfindung, von denen Beispiele in den beigefügten Zeichnungen dargestellt sind. Einem Fachmann auf diesem Gebiet ist klar, dass andere Ausführungsformen verwendet und strukturelle, elektrische und verfahrensmäßige Änderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Erfindung abzuweichen. Wo möglich werden in den Zeichnungen die gleichen Bezugszeichen für den Bezug auf gleiche oder ähnliche Teile verwendet.
  • Die Begriffe „Modul” und „Einheit” für die in der folgenden Beschreibung verwendeten Elemente wurden ausschließlich zur Erleichterung des Abfassens der vorliegenden Offenbarung verwendet, haben aber keine unterscheidende Bedeutungen oder Funktionen.
  • Ein mobiles Endgerät gemäß der Beschreibung in der vorliegenden Offenbarung kann ein Endgerät zur Ausgabe von Video- und Audiodaten wie ein Mobiltelefon, ein Smartphone, ein digitales Rundfunkgerät, ein PDA (Personal Digital Assistant), ein PMP (Portable Multimedia Player), ein Navigationssystem, ein Laptop-Computer, ein Personal Computer (PC) und ähnliches sein.
  • In der folgenden ausführlichen Beschreibung der Erfindung sei angenommen, dass ein erstes Endgerät und ein zweites Endgerät ein mobiles Endgerät bzw. ein PC sind, wodurch das erste und zweite Endgerät nicht eingeschränkt sind.
  • Ein erstes Endgerät gemäß der vorliegenden Erfindung wird nachfolgend ausführlich mit Bezug auf 1 erläutert.
  • 1 zeigt ein Blockdiagramm eines ersten Endgeräts eines mobilen Endgerättyps gemäß einer Ausführungsform der vorliegenden Erfindung.
  • Unter Bezug auf 1 ist ein erstes Endgerät 100 gemäß der vorliegenden Erfindung ein mobiles Endgerät und umfasst eine Kommunikationseinheit 110, eine A/V-(Audio/Video-)Eingabeeinheit 120, eine Benutzereingabeeinheit 130, eine Erkennungseinheit 140, eine Ausgabeeinheit 150, einen Speicher 160, eine Schnittstelleneinheit 170, einen Controller 180, eine Stromversorgungseinheit 190 und ähnliches 1 zeigt das mobile Endgerät 100 mit verschiedenen Komponenten, jedoch versteht es sich, dass eine Implementierung aller dargestellter Komponenten nicht erforderlich ist. Es können alternativ mehr oder weniger Komponenten implementiert werden.
  • In der folgenden Beschreibung werden die Elemente des ersten Endgeräts 100 der Reihe nach erläutert.
  • Die Kommunikationseinheit 110 kann wenigstens ein Modul umfassen, das eine Kommunikation zwischen dem ersten Endgerät 100 und einem drahtlosen Kommunikationssystem, zwischen dem ersten Endgerät 100 und einem Netz, in dem das erste Endgerät 100 sich befindet, oder zwischen dem ersten Endgerät 100 und einem zweiten Endgerät 200 gemäß der vorliegenden Erfindung ermöglicht.
  • Beispielsweise kann die Kommunikationseinheit 110 ein Rundfunkempfangsmodul 111, ein Mobilkommunikationsmodul 112, ein drahtloses Internetmodul 113, ein Nahbereich-Kommunikationsmodul 114, ein Positionsortungsmodul 115 und ähnliches umfassen.
  • Das Rundfunkempfangsmodul 111 empfängt ein Rundfunksignal und/oder rundfunkrelevante Informationen von einem externen Rundfunkverwaltungsserver über einen Rundfunkkanal.
  • Das Mobilkommunikationsmodul 112 überträgt/empfängt Drahtlossignale zu/von einer oder mehreren Netzeinheiten (beispielsweise einer Basisstation, einem externen Endgerät, einem Server usw.). Solche Drahtlossignale können ein Sprachanrufsignal, ein Videokommunikationsanrufsignal und Daten im Rahmen von Text/Multimedia-Nachrichtenübertragungen darstellen.
  • Das Mobilkommunikationsmodul 112 verfügt über eine Kommunikationsverbindung mit dem zweiten Endgerät 200 gemäß der vorliegenden Erfindung und kann somit alle Daten des ersten Endgeräts 100 zum zweiten Endgerät 200 unter der Steuerung des Controllers 180 übertragen. Beispielsweise kann das Mobilkommunikationsmodul 112 alle auf dem Anzeigemodul 151 angezeigten Bildschirminformationen zum zweiten Endgerät 200 übertragen. Auch kann das Mobilkommunikationsmodul 112 eine vom Audioausgabemodul 152 ausgegebene Audioinformation zum zweiten Endgerät 200 übertragen. Ferner kann das Mobilkommunikationsmodul 112 ein von der Benutzereingabeeinheit 130 eingegebenes Tastensignal oder ein vom Anzeigemodul 151 in Touchscreen-Ausführung eingegebenes Berührungssignal zum zweiten Endgerät 200 übertragen.
  • Das Drahtlosinternetmodul 113 unterstützt den Internetzugriff für das erste Endgerät 100. Dieses Modul kann intern oder extern mit dem ersten Endgerät 100 gekoppelt sein. In diesem Fall kann die Drahtlos-Internettechnologie WLAN (Wireless LAN) (Wi-Fi), WiBro (Wireless Broadband), WiMAX (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) usw. umfassen.
  • Das Drahtlosinternetmodul 113 verfügt über eine Kommunikationsverbindung mit dem zweiten Endgerät 200 gemäß der vorliegenden Erfindung per Internetkommunikation und kann somit alle Daten des ersten Endgeräts 100 zum zweiten Endgerät 200 unter der Steuerung des Controllers 180 übertragen. Beispielsweise kann das Drahtlosinternetmodul 113 alle auf dem Anzeigemodul 151 angezeigten Bildschirminformationen zum zweiten Endgerät 200 übertragen. Auch kann das Drahtlosinternetmodul 113 eine vom Audioausgabemodul 152 ausgegebene Audioinformation zum zweiten Endgerät 200 übertragen. Ferner kann das Drahtlosinternetmodul 113 ein von der Benutzereingabeeinheit 130 eingegebenes Tastensignal oder ein vom Anzeigemodul 151 in Touchscreen-Ausführung eingegebenes Berührungssignal zum zweiten Endgerät 200 übertragen.
  • Das Nahbereich-Kommunikationsmodul 114 unterstützt Kommunikation relativ kurzer Reichweite. Geeignete Technologien zur Implementierung dieses Moduls umfassen Bluetooth, Infrared Data Association (IrDA), Ultrabreitband (UWB), ZigBee, Wi-Fi (Wireless Fidelity), RFB (Remote Frame Buffer) und ähnliches
  • Das Nahbereich-Kommunikationsmodul 114 verfügt über eine Kommunikationsverbindung mit dem zweiten Endgerät 200 gemäß der vorliegenden Erfindung und kann somit alle Daten des ersten Endgeräts 100 zum zweiten Endgerät 200 unter der Steuerung des Controllers 180 übertragen. Beispielsweise kann das Nahbereich-Kommunikationsmodul 114 alle auf dem Anzeigemodul 151 angezeigten Bildschirminformationen zum zweiten Endgerät 200 übertragen. Auch kann das Nahbereich-Kommunikationsmodul 114 eine vom Audioausgabemodul 152 ausgegebene Audioinformation zum zweiten Endgerät 200 übertragen. Ferner kann das Nahbereich-Kommunikationsmodul 114 ein von der Benutzereingabeeinheit 130 eingegebenes Tastensignal oder ein vom Anzeigemodul 151 in Touchscreen-Ausführung eingegebenes Berührungssignal zum zweiten Endgerät 200 übertragen.
  • Das Positionsortungsmodul 115 identifiziert oder ermittelt anderweitig den Ort des ersten Endgeräts 100. Dieses Modul kann gegebenenfalls mit einem Global-Positioning-System-(GPS-)Modul implementiert werden.
  • Unter Bezug auf 1 ist die Audio/Video-(A/V-)Einheit 120 zum Bereitstellen einer Audio- oder Videosignaleingabe für das erste Endgerät 100 konfiguriert. Wie dargestellt umfasst die A/V-Eingabeeinheit 120 eine Kamera 121, ein Mikrofon 122 und ähnliches.
  • Die Kamera 121 empfängt und verarbeitet Einzelbilder oder Videos, die durch einen Bildsensor in einem Videoanrufmodus oder einem Fotografiermodus erzeugt werden. Ferner können die verarbeiteten Bilder auf der Anzeigeeinheit 151 angezeigt werden.
  • Wenigstens zwei oder mehr Kameras können je nach Einsatzbedingungen vorhanden sein. Ferner kann das von der Kamera 121 verarbeitete Bild über die Kommunikationseinheit 110 zum zweiten Endgerät 200 übertragen werden.
  • Das Mikrofon 122 empfängt ein externes Audiosignal, während das tragbare Gerät sich in einem bestimmten Modus wie Telefonanrufmodus, Aufnahmemodus und Spracherkennungsmodus befindet. Dieses Audiosignal wird verarbeitet und in elektrische Audiodaten umgewandelt.
  • Im Falle eines Anrufmodus werden die verarbeiteten Audiodaten in ein Format umgewandelt, das zu einer Basisstation für die Mobilkommunikation über das Mobilkommunikationsmodul 112 übertragbar ist. Das Mikrofon 122 umfasst typischerweise verschiedene Algorithmen zum Ausfiltern von Störungen, um beim Empfang des externen Audiosignals erzeugte Störungen zu entfernen.
  • Die Benutzereingabeeinheit 130 erzeugt Daten entsprechend der Bedienung einer damit verknüpften Eingabevorrichtung bzw. damit verknüpfter Eingabevorrichtungen durch einen Benutzer. Solche Vorrichtungen umfassen beispielsweise eine Tastatur, einen gewölbten Schalter, ein Touchpad (beispielsweise mit statischem Druck/kapazitiver Reaktanz), ein Jog-Wheel, ein Jog-Switch usw.
  • In diesem Fall wird eine Hintergrundbeleuchtung unter der Benutzereingabeeinheit 130 zum Erzeugen von Licht zum Identifizieren der Tastatur, des gewölbten Schalters, des Jog-Wheel und des Jog-Switch in einer dunklen Umgebung bereitgestellt.
  • Die Erkennungseinheit 140 stellt Erkennungssignale für Steuervorgänge des ersten Endgeräts 100 unter Verwendung von Statusmessungen verschiedener Aspekte des mobilen Endgeräts bereit. Beispielsweise kann die Erkennungseinheit 140 einen Offen/Geschlossen-Status des ersten Endgeräts 100, eine relative Positionierung von Komponenten (beispielsweise Anzeige und Tastatur) des mobilen Endgeräts 100, eine Positionsänderung des ersten Endgeräts 100 oder einer Komponente des ersten Endgeräts 100, ein Vorhandensein oder Nichtvorhandensein von Benutzerkontakt mit dem ersten Endgerät 100, eine Ausrichtung oder Beschleunigung/Verlangsamung des ersten Endgeräts 100 erkennen.
  • Die Ausgabeeinheit 150 wiederum erzeugt sinnesbezogene Ausgaben für die Sinne Sehen, Hören, Fühlen und ähnliches. Ferner umfasst die Ausgabeeinheit 150 die Anzeigeeinheit (bzw. das Anzeigemodul) 151, ein Audioausgabemodul 152, eine Alarmeinheit 153, ein haptisches Modul 154 und ähnliches.
  • Das Anzeigemodul 151 kann mit Anzeigetechnologien nach dem Stand der Technik wie beispielsweise einer Flüssigkristallanzeige (LCD), einer Dünnschichttransistor-Flüssigkristallanzeige (TFT-LCD), einer organischen Leuchtdiodenanzeige (OLED), einer flexiblen Anzeige und einer dreidimensionalen Anzeige implementiert werden. Das mobile Endgerät 100 kann eine oder mehrere solcher Anzeigen umfassen.
  • Wenigstens zwei Anzeigeeinheiten 151 können für das erste Endgerät 100 gemäß der implementierten Konfiguration des ersten Endgeräts 100 bereitgestellt werden. Beispielsweise kann eine Mehrzahl von Anzeigemodulen auf einer einzigen Seite des ersten Endgeräts 100 so angeordnet sein, dass sie voneinander beabstandet oder in einem Gehäuse eingebaut sind. Alternativ kann eine Mehrzahl von Anzeigemodulen auf verschiedenen Seiten des ersten Endgeräts 100 angeordnet sein.
  • Wenn die Anzeigeeinheit 151 und ein Sensor zum Erkennen einer Berührungsaktion (nachfolgend als Berührungssensor bezeichnet) eine wechselseitige Schichtstruktur (nachfolgend als Touchscreen bezeichnet) ausbilden, kann die Anzeigeeinheit 151 sowohl als Eingabevorrichtung als auch als Ausgabevorrichtung verwendet werden. In diesem Fall kann der Berührungssensor als berührungsempfindliche Folie, berührungsempfindliches Blatt, Touchpad oder ähnliches konfiguriert sein.
  • Der Berührungssensor kann dazu konfiguriert sein, einen auf einen bestimmten Teil der Anzeigeeinheit 151 einwirkenden Druck oder eine Änderung einer von einem bestimmten Teil der Anzeigeeinheit 151 erzeugten Kapazität in ein elektrisches Eingabesignal umzuwandeln. Ferner kann der Berührungssensor dazu konfiguriert sein, einen Druck einer Berührung sowie eine Position oder eine Größe einer Berührung zu erkennen.
  • Der Näherungssensor 141 ist der Sensor, der ein Vorhandensein oder Nichtvorhandensein eines sich einer vorgegebenen Erkennungsfläche nähernden oder eines um den Näherungssensor vorhandenen Objekts mit einer elektromagnetischen Feldstärke oder Infrarotstrahlen ohne mechanischem Kontakt erkennt. Somit bietet ein Näherungssensor eine längere Lebensdauer als ein Kontaktsensor und bietet auch mehr Verwendungsmöglichkeiten als ein Kontaktsensor.
  • Der Näherungssensor kann einen transmissiven fotoelektrischen Sensor, einen direkt reflektierenden fotoelektrischen Sensor, einen spiegelreflektierenden fotoelektrischen Sensor, einen Funkfrequenzoszillations-Näherungssensor, einen Kondensator-Näherungssensor, einen magnetischen Näherungssensor, einen Infrarot-Näherungssensor und ähnliches umfassen.
  • Das Audioausgabemodul 152 funktioniert in verschiedenen Modi wie einem Anrufsignalempfangsmodul, einem Anrufmodus, einem Aufzeichnungsmodus, einem Spracherkennungsmodus, einem Rundfunkempfangsmodus und ähnliches zur Ausgabe von Audiodaten, die von der Drahtloskommunikationseinheit 110 empfangen oder im Speicher 160 gespeichert werden.
  • Im Betrieb gibt das Audioausgabemodul 152 ein Audiosignal für eine bestimmte Funktion (beispielsweise Anruf empfangen, Nachricht empfangen usw.) aus. Das Audioausgabemodul 152 ist häufig mit einem oder mehreren Lautsprechern, Summern, anderen geräuscherzeugenden Vorrichtungen und Kombinationen hieraus implementiert.
  • Die Alarmausgabeeinheit 153 gibt ein Signal zum Melden des Auftretens eines bestimmten Ereignisses im Zusammenhang mit dem ersten Endgerät 100 aus. Typische Ereignisse umfassen ein Ereignis „Anruf empfangen”, ein Ereignis „Nachricht empfangen”, ein Ereignis „Tastensignal eingegeben” und ein Ereignis „Berührungseingabe empfangen”.
  • Das haptische Modul 154 erzeugt verschiedene taktile Effekte, die von einem Benutzer wahrgenommen werden können. Vibration ist ein repräsentativer der vom haptischen Modul 154 erzeugten taktilen Effekte. Stärke und Muster der vom haptischen Modul 154 erzeugten Vibration sind steuerbar. Beispielsweise können verschiedene Vibrationen zusammengefasst oder nacheinander ausgegeben werden.
  • Der Speicher 160 dient im Allgemeinen zum Speichern verschiedener Arten von Daten zum Unterstützen der Verarbeitungs-, Steuer- und Speicheranforderungen des Controllers 180. Solche Daten umfassen beispielsweise Programmbefehle für Anwendungen, die auf dem ersten Endgerät 100 ausgeführt werden, Telefonbuchdaten, Nachrichtendaten, Audiodaten, Einzelbilddaten, Daten bewegter Bilder usw. Ferner können Daten für verschiedene Muster von Vibrationen und/oder Tönen, die bei einer Berührungseingabe auf dem Touchscreen ausgegeben werden, im Speicher 160 gespeichert werden.
  • Ferner ist der Speicher 160 ist mit einem Betriebssystem (BS) zur Steuerung der Vorgänge der Elemente des ersten Endgeräts 100 ausgestattet. Darüber hinaus ist der Speicher 160 mit einer Vielzahl von Anwendungen für laufende Inhaltsinformationen ausgestattet, die im ersten Endgerät 100 ausgeführt werden.
  • Die Anwendungen können beispielsweise ein Textverarbeitungsprogramm, ein Bildanzeigeprogramm, ein Videoanzeigeprogramm, ein Audiowiedergabeprogramm, ein Internetverbindungsprogramm und ähnliches umfassen. Das zuvor beschriebene Betriebssystem-Programm und die Anwendungen können unter der Steuerung des Controllers 180 gestartet und ausgeführt werden.
  • Ferner können das zuvor beschriebene Betriebssystem-Programm und die Anwendungen als Software im Speicher 160 gespeichert sein oder in Form von Modulen bereitgestellt sein.
  • Die Schnittstelleneinheit 170 wiederum ist häufig zum Koppeln des ersten Endgeräts 100 mit externen Geräten implementiert.
  • Die zuvor beschriebene Schnittstelleneinheit 170 kann mit einem Anschluss für ein kabelgebundenes/kabelloses Headset, einem Anschluss für ein externes Ladegerät, einem kabelgebundenen/drahtlosen Datenanschluss, einem Speicherkartenanschluss, einem Anschluss zum Verbinden mit einem Gerät mit einem Identitätsmodul, Audio-Ein-/Ausgangsanschlüssen, einem Kopfhöreranschluss, einem USB-(Universal-Serial-Bus-)Anschluss und ähnliches konfiguriert sein.
  • Insbesondere ist die Schnittstelleneinheit 170 kabelgebunden mit dem zweiten Endgerät 200 über ein Datenkabel oder ähnliches verbunden und kann dann alle Daten des ersten Endgeräts 100 zum zweiten Endgerät 200 übertragen. Beispielsweise kann die Schnittstelleneinheit 170 alle auf dem Anzeigemodul 151 angezeigten Bildschirminformationen zum zweiten Endgerät 200 übertragen. Die Schnittstelleneinheit 170 kann eine vom Audioausgabemodul 152 ausgegebene Audioinformation zum zweiten Endgerät 200 übertragen. Ferner kann die Schnittstelleneinheit 170 ein von der Benutzereingabeeinheit 130 eingegebenes Tastensignal oder ein vom Anzeigemodul 151 in Touchscreen-Ausführung eingegebenes Berührungssignal zum zweiten Endgerät 200 übertragen.
  • Der Controller 180 steuert unterdessen normalerweise die gesamten Vorgänge des ersten Endgeräts 100. Beispielsweise führt der Controller 180 die für einen Sprachanruf, eine Datenkommunikation, einen Videoanruf und ähnliches relevante Steuerung und Verarbeitung durch.
  • Der Steuerungsvorgangsprozess des Controllers 180 gemäß einer Ausführungsform der vorliegenden Erfindung wird nachfolgend ausführlich erläutert.
  • Eine Sprach/Text-Umwandlungseinheit 181 wandelt ein vom Mikrofon 122 eingegebenes Sprachsignal in ein Textsignal um oder wandelt ein von der Kommunikationseinheit 110 empfangenes Anrufsprachsignal in ein Textsignal um. Ferner wandelt eine Sprach/Text-Umwandlungseinheit 181 einen Inhalt von einer von der Kommunikationseinheit 110 empfangenen Nachricht in ein Sprachsignal um.
  • Die Sprach/Text-Umwandlungseinheit 181 kann ein TTS-(Text-to-Speech-)Modul umfassen.
  • Ferner kann das erste Endgerät 100 gemäß der vorliegenden Erfindung mit einem RFID-Tag 182 zum Aufzeichnen von Geräteinformationen des ersten Endgeräts 100, die für die Kommunikationsverbindung mit dem zweiten Endgerät 200 verwendet wird, ausgestattet sein.
  • Die Stromversorgungseinheit 190 stellt unterdessen den von den verschiedenen Komponenten für das mobile Endgerät 100 benötigten Strom bereit. Der Strom kann aus einer internen Quelle, aus einer externen Quelle oder aus Kombinationen hieraus stammen.
  • Verschiedene hier beschriebene Ausführungsformen können in einem computerlesbaren Medium unter Verwendung von beispielsweise Computersoftware, -hardware oder Kombinationen hieraus implementiert werden.
  • Bei einer Hardware-Implementierung können die hier beschriebenen Ausführungsformen in einem oder mehreren anwendungsspezifischen integrierten Schaltkreisen (ASICs), digitalen Signalprozessoren (DSPs), digitalen Signalverarbeitungsgeräten (DSPDs), programmierbaren Logikbausteinen (PLDs), Field Programmable Gate Arrays (FPGAs), Prozessoren, Controllern, Mikrocontrollern, Mikroprozessoren, anderen zum Ausführen der hier beschriebenen Funktionen vorgesehenen elektronischen Einheiten oder einer selektiven Kombination hiervon implementiert werden. Solche Ausführungsformen können ebenfalls durch den Controller 180 implementiert werden.
  • Bei einer Software-Implementierung können die hier beschriebenen Ausführungsformen mit separaten Softwaremodulen wie Verfahren und Funktionen implementiert werden, die jeweils eine oder mehrere der hier beschriebenen Funktionen und Vorgänge ausführen. Die Softwarecodes können mit einer in einer beliebigen geeigneten Programmiersprache geschriebenen Softwareanwendung implementiert werden und in einem Speicher wie dem Speicher 160 gespeichert sowie von einem Controller oder Prozessor wie dem Controller 180 ausgeführt werden.
  • In der vorhergehenden Beschreibung sind die Konfigurationen des ersten Endgeräts 100 gemäß der vorliegenden Erfindung unter Bezug auf 1 erläutert worden.
  • In folgenden Beschreibung wird das zweite Endgerät 200 gemäß der vorliegenden Erfindung ausführlich unter Bezug auf 2 erläutert.
  • 2 zeigt, dass das zweite Endgerät 200 gemäß der vorliegenden Erfindung ein Personal-Computer (nachfolgend mit PC abgekürzt) ist. Ferner kann wie in der vorhergehenden Beschreibung erläutert ein stationäres Endgerät 200 jedes Gerät umfassen, das mit dem ersten Endgerät 100 kommunizieren, Bilder anzeigen und Audiodaten ebenso wie der PC ausgeben kann.
  • 2 zeigt ein Blockdiagramm eines zweiten Endgeräts eines PC-Typs gemäß einer Ausführungsform der vorliegenden Erfindung.
  • Unter Bezug auf 2 umfasst ein zweites Endgerät 200 gemäß der vorliegenden Erfindung eine Kommunikationseinheit 210, eine Eingabeeinheit 220, einen Speicher 230, einen Lautsprecher 240, ein Mikrofon 250, eine Anzeigeeinheit 260 und einen Controller 270.
  • Es versteht sich ferner, dass die in der vorhergehenden Beschreibung des ersten Endgeräts 100 beschriebenen Elemente (beispielsweise eine Kamera, eine Schnittstelleneinheit usw.) im zweiten Endgerät 200 zusätzlich zu den oben beschriebenen Elementen integriert sein können.
  • Die Kommunikationseinheit 210 verfügt über eine Kommunikationsverbindung mit dem ersten Endgerät 100 gemäß der vorliegenden Erfindung unter der Steuerung des Controllers 270. Und die Kommunikationseinheit 210 empfängt eine im ersten Endgerät 100 angezeigte Bildschirminformation, Audioinformation und Tasteneingabeinformation vom ersten Endgerät 100.
  • Wie die vorhergehende Kommunikationseinheit 110 des ersten Endgeräts 100 gemäß der Darstellung in 1 kann die zuvor konfigurierte Kommunikationseinheit 210 des zweiten Endgeräts 100 ferner ein Mobilkommunikationsmodul, das eine Kommunikationsverbindung zwischen dem mobilen Endgerät 100 und einem stationären Endgerät 200 ermöglicht, ein Drahtlosinternetmodul und ein Nahbereich-Kommunikationsmodul umfassen.
  • Die Eingabeeinheit 220 erzeugt unterdessen ein Tastensignal für eine Vorgangssteuerung des zweiten Endgeräts 200 oder ein Tastensignal für eine Vorgangssteuerung des ersten Endgeräts 100. Die Eingabeeinheit 220 kann gegebenenfalls eine Tastatur, einen gewölbten Schalter, ein Touchpad (beispielsweise statischer Druck/kapazitive Reaktanz), ein Jog-Wheel, ein Jog-Switch usw. umfassen.
  • Der Speicher 230 kann ein Programm für einen Vorgang des zweiten Endgeräts 200 speichern. Im Speicher 230 sind verschiedene Daten gespeichert.
  • Auch ist der Speicher 230 mit einem Betriebssystem (BS) zur Steuerung der Vorgänge der Elemente des zweiten Endgeräts 200 ausgestattet. Ferner ist der Speicher 230 mit einer Vielzahl von Anwendungen für laufende Inhaltsinformationen ausgestattet, die im zweiten Endgerät 200 ausgeführt werden. Die Anwendungen können beispielsweise ein Textverarbeitungsprogramm, ein Bildanzeigeprogramm, ein Videoanzeigeprogramm, ein Audiowiedergabeprogramm, ein Internetverbindungsprogramm und ähnliches umfassen. Das zuvor beschriebene Bebtriebssystem-Programm und die Anwendungen können unter der Steuerung des Controllers 270 gestartet und ausgeführt werden.
  • Ferner können das zuvor beschriebene Betriebssystem-Programm und die Anwendungen als Software im Speicher 230 gespeichert sein oder in Form von Modulen bereitgestellt sein.
  • Der Speicher 230 kann mit jeglicher Art oder einer Kombination aus geeigneten flüchtigen oder nichtflüchtigen Speichern oder Speichervorrichtungen umfassend eine Festplatte, Random Access Memory (RAM), Static Random Access Memory (SRAM), Electrically Erasable Programmable Read-only Memory (EEPROM), Erasable Programmable Read-only Memory (EPROM), Programmable Read-only Memory (PROM), Read-only Memory (ROM), einen magnetischen Speicher, Flash-Speicher, eine Magnetplatte oder optische Platte, einen Speicher in Kartenausführung (beispielsweise SD-Speicher, XD-Speicher usw.) oder anderen ähnlichen Speichern oder Datenspeichervorrichtung implementiert werden.
  • Der Lautsprecher 240 gibt Daten umfassend im Speicher gespeicherte Audiodaten und verschiedene vom zweiten Endgerät 200 erzeugte Audiodaten aus. Und das Mikrofon 250 empfängt eine Eingabe eines externen Audiosignals und verarbeitet anschließend die Eingabe zu elektrischen Sprachdaten.
  • Die Anzeigeeinheit 260 zeigt eine vom zweiten Endgerät 200 verarbeitete Information an. Die Anzeigeeinheit 260 kann mit Anzeigetechnologien nach dem Stand der Technik wie beispielsweise einer Flüssigkristallanzeige (LCD), einer Dünnschichttransistor-Flüssigkristallanzeige (TFT-LCD), einer organischen Leuchtdiodenanzeige (OLED), einer flexiblen Anzeige und einer dreidimensionalen Anzeige implementiert werden. Und das zweite Endgerät 200 kann eine oder mehrere solcher Anzeigen umfassen. Ferner kann die Anzeigeeinheit 260 mit einem Berührungssensor gekoppelt sein, um einen Touchscreen zu bilden.
  • Der Controller 270 steuert die gesamten Vorgänge des zweiten Endgeräts 200. Gemäß der vorliegenden Erfindung zeigt der Controller 270 eine vom ersten Endgerät 100 empfangene Bildschirminformation an und überträgt ein über die Eingabeeinheit 220 eingegebenes Tastensignal an das erste Endgerät 100 über die Kommunikationseinheit 210.
  • Die Sprach/Text-Umwandlungseinheit 271 wandelt ein vom Mikrofon 250 eingegebenes Sprachsignal in ein Textsignal um oder wandelt ein von der Kommunikationseinheit 210 empfangenes Anrufsprachsignal in ein Textsignal um.
  • Ferner wandelt die Sprach/Text-Umwandlungseinheit 271 ein von der Anzeigeeinheit in Touchscreen-Ausführung 260 oder der Eingabeeinheit 220 eingegebenes Textsignal in ein Sprachsignal um oder wandelt einen Inhalt einer von der Kommunikationseinheit 210 empfangenen Nachricht in ein Sprachsignal um.
  • Die wie zuvor beschrieben konfigurierte Sprach/Text-Umwandlungseinheit 181 kann ein TTS-(Text-to-Speech-)Modul umfassen.
  • Ferner umfasst das zweite Endgerät 200 gemäß der vorliegenden Erfindung ein RFID-Lesegerät 272, das zum Auslesen der im für das erste Endgerät 100 bereitgestellten RFID-Tag 182 wie in 1 dargestellt konfiguriert ist.
  • Wenn sich das erste Endgerät 100 in der Nähe des zweiten Endgeräts 200 befindet, liest oder interpretiert das RFID-Lesegerät 272 die im für das erste Endgerät 100 bereitgestellten RFID-Tag 182 gespeicherten Geräteinformation und gibt die gelesene Geräteinformation an den Controller 270 aus.
  • Sobald die Geräteinformation des ersten Endgeräts 100 über das RFID-Lesegerät 272 gelesen ist, prüft der Controller 270, ob die gelesene Geräteinformation des ersten Endgeräts 100 in einer im Speicher 230 gespeicherten Zugriffsauthentifizierungs-Geräteinformationsliste vorhanden ist. Wenn die gelesene Geräteinformation auf dem ersten Endgerät 100 in der Zugriffsauthentifizierungs-Geräteinformationsliste vorhanden ist, stellt der Controller 270 eine Kommunikationsverbindung mit dem ersten Endgerät 100 über die Kommunikationseinheit 210 her.
  • In der vorhergehenden Beschreibung sind die Konfigurationen des zweiten Endgeräts 200 gemäß der vorliegenden Erfindung erläutert worden.
  • In der folgenden Beschreibung sind Ausführungsformen unter Bezug auf die beigefügten Zeichnungen beschrieben, die für einen Prozess zum Übertragen und Empfangen von Daten (beispielsweise Bildschirminformationen, Audioinformationen und Tasteneingabeinformationen) zwischen dem zuvor beschriebenen ersten Endgerät 100 und zweiten Endgerät 200 relevant sind. Optional sind die folgenden Ausführungsformen einzeln oder miteinander kombiniert möglich.
  • 3 zeigt ein Diagramm zur Erläuterung eines Fernsteuerungssystems umfassend ein erstes Endgerät 100 und ein zweites Endgerät 200 gemäß der vorliegenden Erfindung.
  • Unter Bezug auf 3 können alle Daten (Bildschirminformationen, Audioinformationen und Tasteneingabeinformationen) des ersten Endgeräts 100 zum zweiten Endgerät 200 übertragen werden. In diesem Fall kann das zweite Endgerät 200 einen Vorgang des ersten Endgeräts 100 per drahtloser Kommunikation steuern.
  • Insbesondere überträgt, sobald das erste Endgerät 100 drahtlos mit dem zweiten Endgerät 200 verbunden ist, das erste Endgerät 100 eine auf der Anzeigeeinheit 151 angezeigte Bildschirminformation zum zweiten Endgerät 200, so dass die Bildschirminformation des ersten Endgeräts 100 auf mindestens einem Teil eines Bildschirms des zweiten Endgeräts 200 wiedergegeben wird.
  • In diesem Fall kann die drahtlose Kommunikation wenigstens eine von drahtlosen Kommunikationen im Nahbereich einschließlich Bluetooth, Infrared Data Association (IrDA), Ultrabreitband (UWB), ZigBee, Wi-Fi (Wireless Fidelity), RFB (Remote Frame Buffer), andere kabelgebundene bzw. drahtlose Verbindungen oder kabelgebundene bzw. drahtlose Kommunikationsverbindungen und ähnliches umfassen.
  • Das zweite Endgerät 200 zeigt unterdessen die vom ersten Endgerät 100 empfangene Bildschirminformation in einem vorgegebenen Teil seines Bildschirms an und kann dann alle Menüfunktionen des ersten Endgeräts 100 per drahtloser (oder kabelgebundener) Kommunikation über die Eingabeeinheit 220 wie einer Tastatur, einer Maus und ähnliches steuern.
  • In diesem Fall kann eine angezeigte Größe der Bildschirminformation des ersten Endgeräts 100, die auf dem zweiten Endgerät 200 angezeigt wird, auf die gleiche Größe eines aktuell auf dem ersten Endgerät 100 angezeigten Bildes eingestellt werden oder so eingestellt werden, dass sie sich von der Größe des aktuell auf dem ersten Endgerät 100 angezeigten Bildes unterscheidet.
  • Sobald die Bildschirminformation vom ersten Endgerät 100 empfangen wird, zeigt das zweite Endgerät 200 eine Bedieneinheit an, um einem Benutzer das Bedienen aller Funktionen des ersten Endgeräts 100 zusammen mit der Bildschirminformation zu ermöglichen. In diesem Fall kann die Bedieneinheit die gleiche Konfiguration einer Form wie eine Menütaste, eine Anruftaste, eine Richtungstaste, eine Tastatur oder ähnliches aufweisen, die ein Hauptgehäuse des ersten Endgeräts 100 aufweist. Beispielsweise kann die auf dem zweiten Endgerät 200 angezeigte Bedieneinheit in einer Darstellung des ersten Endgeräts 100 oder wenigstens einer Darstellung eines Bildschirmteils, das die Bildschirminformation des ersten Endgeräts 100 enthält, bestehen.
  • Beispielsweise ist unter Bezug auf 3 das erste Endgerät 100 ein mit einer Bedieneinheit in Touchscreen-Ausführung ausgestattetes mobiles Endgerät. In der Bedieneinheit des ersten Endgeräts 100 sind die Bildschirminformation des ersten Endgeräts 100 und Menüausführungssymbole beispielsweise eines Telefonbuchs 1, einer Nachricht 2, einer Kamera 3 und eines Bildes 4 enthalten.
  • Das zweite Endgerät 200 zeigt dann die Menüausführungssymbole des Telefonbuchs 1, der Nachricht 2, der Kamera 3 und des Bildes 4 auf der Bedieneinheit exakt so wie die Symbole des ersten Endgeräts 100 an.
  • In der folgenden Beschreibung ist ein Prozess für das zweite Endgerät 200 zum Steuern eines Vorgangs des ersten Endgeräts 100 über die Bedieneinheit per drahtloser Kommunikation unter Bezug auf 4 bis 7 erläutert.
  • 4 zeigt ein Diagramm von Bildschirmkonfigurationen zur Erläuterung eines Prozesses für ein zweites Endgerät zum Steuern einer Telefonbuchmenüfunktion eines ersten Endgeräts per drahtloser Kommunikation.
  • Unter Bezug auf 4 wird das Telefonbuch-Menüausführungssymbol 1 auf dem in 3 dargestellten Bildschirm über die Eingabeeinheit 220 ausgewählt; der Controller 270 des zweiten Endgeräts 200 erhält einen Ort des ausgewählten Telefonbuch-Menüausführungssymbol 1 und überträgt anschließend ein Signal zum Melden der erhaltenen Ortsinformation an das erste Endgerät 100.
  • Wenn beispielsweise eine Bildschirmauflösung des ersten Endgeräts 100, die auf dem Bildschirm des zweiten Endgeräts 100 angezeigt wird, 600×400 Pixel beträgt und ein Ort des Telefonbuch-Menüausführungssymbols 1 auf dem 600×400-Bildschirm „horizontal 531–534 und vertikal 96–100” ist, überträgt der Controller 270 ein Signal zum Melden von „horizontal 531–534 und vertikal 96–100” entsprechend dem Ort des Telefonbuch-Menüausführungssymbol 1 zum ersten Endgerät 100.
  • Der Controller 180 des ersten Endgeräts 100 erkennt die im vom zweiten Endgerät 200 empfangenen Signal enthaltene Ortsinformation, führt ein am erkannten Ort auf dem Bildschirm vorhandenes Telefonbuchmenü wie in 3 dargestellt aus und zeigt anschließend Untermenüs für dieses Telefonbuchmenü an.
  • Der Controller 270 des zweiten Endgeräts 200 empfängt unterdessen die Bildschirminformation wie in (a) von 4 dargestellt, vom ersten Endgerät 100 und zeigt danach die empfangenen Bildschirminformation an. Wenn ein Menü von „1. Telefonbuch suchen” (1a) aus den in der Bildschirminformation wie in (a) von 4 dargestellt angezeigten Untermenüs über die Eingabeeinheit 220 ausgewählt wird, überträgt der Controller 270 des zweiten Endgeräts 200 ein Signal zum Melden der Ortsinformation des ausgewählten Menüs von „1. Telefonbuch suchen” (1a) zum ersten Endgerät 100.
  • Der Controller 180 des ersten Endgeräts 100 erkennt die im vom zweiten Endgerät 200 empfangenen Signal enthaltene Ortsinformation, führt das am erkannten Ort auf dem in (a) von 4 dargestellten Bildschirm vorhandene Menü von „1. Telefonbuch suchen” (1a) aus und zeigt anschließend eine im Telefonbuch eingetragene Kontaktinformationsliste wie in (b) von 4 dargestellt an. Ferner überträgt der Controller 180 des ersten Endgeräts 100 die Bildschirminformation, wie in (b) von 4 dargestellt, zum zweiten Endgerät 200.
  • Anschließend empfängt der Controller 270 des zweiten Endgeräts 200 die Bildschirminformation, wie in (b) von 4 dargestellt, vom ersten Endgerät 100 und zeigt danach die empfangene Bildschirminformation an.
  • Wenn „1. kim” (1b) aus der in der in (b) von 4 dargestellten Bildschirminformation angezeigten Kontaktinformationsliste über die Eingabeeinheit 220 ausgewählt wird und eine Anrufverbindungstaste von „1. kim” (1b) ausgewählt wird, überträgt der Controller 270 des zweiten Endgeräts 200 nacheinander die Ortsinformation der Auswahl „1. kim” (1b) und die Ortsinformation der Anrufverbindungstaste zum ersten Endgerät 100.
  • Sobald die Ortsinformation der Auswahl „1. kim” 1b und die Ortsinformation der Anrufverbindungstaste nacheinander vom zweiten Endgerät 200 empfangen werden, versucht der Controller 180 des ersten Endgeräts 100 eine Anrufverbindung mit „1. kim” 1b durch Steuern der Kommunikationseinheit 110, wie in (c) von 4 dargestellt, und überträgt anschließend die in (c) von 4 dargestellten Bildschirminformation zum zweiten Endgerät 200.
  • 5 zeigt ein Diagramm von Bildschirmkonfigurationen zur Erläuterung eines Prozesses für ein zweites Endgerät zum Steuern einer Nachrichtenmenüfunktion eines ersten Endgeräts per drahtloser Kommunikation.
  • Wenn unter Bezug auf 5 ein Benutzer des zweiten Endgeräts 200 ein Nachrichten-Menüausführungssymbol 2 in der Bedieneinheit durch Bedienen der Eingabeeinheit 220 wie einer Maus, einer Tastatur und ähnliches auswählt, überträgt der Controller 270 eine Ortsinformation des ausgewählten Menüausführungssymbols 2 zum ersten Endgerät 100.
  • Der Controller 180 des ersten Endgeräts 100 führt ein am vom ersten Endgerät 100 empfangenen Ort vorhandenes Nachrichtenmenü wie in (a) von 5 dargestellt aus und zeigt anschließend Untermenüs für dieses Nachrichtenmenü an. Ferner überträgt der Controller 180 des ersten Endgeräts die Bildschirminformation wie in (a) von 5 dargestellt zum zweiten Endgerät 200.
  • Anschließend empfängt der Controller 270 des zweiten Endgeräts 200 die Bildschirminformation wie in (a) von 5 dargestellt vom ersten Endgerät 100 und zeigt danach die empfangenen Bildschirminformation an. Wenn ein Menü „1. Nachricht übertragen” aus den in der Bildschirminformation wie in (a) von 5 dargestellt angezeigten Untermenüs über die Eingabeeinheit 220 ausgewählt wird, überträgt der Controller 270 des zweiten Endgeräts 200 einen angezeigten Ort des Menüs von „1. Nachricht übertragen” (oder „Nachricht senden”) 2a zum ersten Endgerät 100.
  • Ferner führt der Controller 180 des ersten Endgeräts 100 wie in (b) von 5 dargestellt das Menü von „1. Nachricht übertragen” 2a am empfangenen Ort aus und zeigt anschließend eine im Telefonbuch eingetragene Kontaktinformationsliste an. Und der Controller 180 des ersten Endgeräts 100 überträgt die Bildschirminformation wie in (b) von 5 dargestellt zum zweiten Endgerät 200.
  • Anschließend empfängt der Controller 270 des zweiten Endgeräts 200 die Bildschirminformation wie in (b) von 5 dargestellt und zeigt anschließend die empfangene Bildschirminformation an. Wenn „1. kim” 2b aus der in der Bildschirminformation wie in (b) von 5 dargestellt angezeigten Kontaktinformationsliste über die Eingabeeinheit 220 ausgewählt wird, überträgt der Controller 270 des zweiten Endgeräts 200 die Ortsinformation der Kontaktinformation „1. kim” 2b zum ersten Endgerät 100.
  • Wenn die Ortsinformation der Kontaktinformation „1. kim” 2b vom zweiten Endgerät 200 empfangen wird, zeigt der Controller 180 des ersten Endgeräts 100, wie in (c) von 5 dargestellt, ein Nachrichtenschreibfenster an und überträgt die in (c) von 5 dargestellten Bildschirminformation zum zweiten Endgerät 200. In diesem Fall kann das Nachrichtenschreibfenster eine Tastatur 2c zur Eingabe eines Inhalts einer Nachricht und ein Nachrichteninhaltsfenster 2d, auf dem der Inhalt der über die Tastatur 2c eingegebenen Nachricht angezeigt wird, umfassen.
  • Der Controller 270 des zweiten Endgeräts 200 empfängt die Bildschirminformation, wie in (c) von 5 dargestellt, vom ersten Endgerät 200 und zeigt danach die empfangene Bildschirminformation an.
  • Wenn eine Mehrzahl von Zeichen von der Tastatur 2c über die Eingabeeinheit 220 ausgewählt ist, überträgt der Controller 270 des zweiten Endgeräts 200 nacheinander Ortsinformationen der ausgewählten Zeichen zum ersten Endgerät 100.
  • Anschließend zeigt der Controller 180 des ersten Endgeräts 100 an den jeweiligen Orten vorhandene Zeichen, die nacheinander empfangen werden, im Nachrichteninhaltsfenster 2d an und überträgt die Bildschirminformation mit den Zeichen entsprechend dem Nachrichteninformationsfenster zum zweiten Endgerät 200.
  • Das zweite Endgerät 200 empfängt die Bildschirminformation mit den eingegebenen Zeichen entsprechend dem Nachrichteninformationsfenster 2d vom ersten Endgerät 100 und zeigt anschließend die empfangene Bildschirminformation an. Wenn eine Taste zum Senden der im Nachrichteninhaltsfenster 2d geschriebenen Nachricht zu „1. kim” 2b von der Eingabeeinheit 220 ausgewählt ist, überträgt das zweite Endgerät 200 die Ortsinformation der ausgewählten Taste zum ersten Endgerät 100.
  • Anschließend sendet, wenn die Ortsinformation der ausgewählten Taste vom zweiten Endgerät 200 empfangen ist, der Controller 180 des ersten Endgeräts 100 die im Nachrichteninhaltsfenster 2d geschriebene Nachricht zu „1. kim” 2b durch Steuern der Kommunikationseinheit 110 und sendet ebenfalls die Bildschirminformation wie in (d) von 5 dargestellt zum zweiten Endgerät 200.
  • 6 zeigt ein Diagramm von Bildschirmkonfigurationen zur Erläuterung eines Prozesses für ein zweites Endgerät zum Steuern einer Kameramenüfunktion eines ersten Endgeräts per drahtloser Kommunikation.
  • Wenn unter Bezug auf 6 ein Benutzer des zweiten Endgeräts 200 ein Kamera-Menüausführungssymbol in der Bedieneinheit durch Bedienen der Eingabeeinheit 220 wie einer Maus, einer Tastatur und ähnliches auswählt, überträgt der Controller 270 des zweiten Endgeräts 200 ein Signal zum Befehlen einer vom Benutzer ausgewählten Kameramenüausführung zum ersten Endgerät 100.
  • In diesem Fall ist das Befehlssignal das Signal, das den Ort des Kamera-Menüausführungssymbol 3, wie in 4 und 5 dargestellt, enthält, und befiehlt eine Aktion des ersten Endgeräts 100 unter Verwendung der Ortsinformation.
  • Der Controller 180 des ersten Endgeräts 100 führt das Kameramenü entsprechend dem empfangenen Befehlssignal aus, wie in (a) von 6 dargestellt, und zeigt anschließend Untermenüs für dieses Kameramenü an. Ferner überträgt der Controller 180 des ersten Endgeräts 100 die Bildschirminformation wie in (a) von 6 dargestellt zum zweiten Endgerät 200.
  • Der Controller 270 des zweiten Endgeräts 200 empfängt die Bildschirminformation wie in (a) von 6 dargestellt vom ersten Endgerät 100 und zeigt danach die empfangene Bildschirminformation an. Wenn ein Tastensignal zum Aufzeichnen eines Vorschaubildereignisses von der Kamera 121 über die Eingabeeinheit 220 eingegeben wird, überträgt der Controller 270 des zweiten Endgeräts 200 ein Signal zum Befehlen des Aufzeichnens eines Bildes zum ersten Endgerät 100.
  • Anschließend zeichnet der Controller 180 des ersten Endgeräts 100 ein aktuelles Vorschaubildereignis von der Kamera 121 entsprechend dem empfangenen Befehlssignal, wie in (c) von 6 dargestellt, auf und überträgt die in (c) von 6 dargestellte Bildschirminformation zum zweiten Endgerät 200.
  • 7 zeigt ein Diagramm von Bildschirmkonfigurationen zur Erläuterung eines Prozesses für ein zweites Endgerät zum Steuern einer Bildmenüfunktion eines ersten Endgeräts per drahtloser Kommunikation.
  • Wenn unter Bezug auf 7 ein Benutzer des zweiten Endgeräts 200 ein Bild-Menüausführungssymbol in der Bedieneinheit durch Bedienen der Eingabeeinheit 220 wie einer Maus, einer Tastatur und ähnliches auswählt, überträgt der Controller 270 des zweiten Endgeräts 200 ein Signal zum Befehlen einer vom Benutzer ausgewählten Bildmenüausführung zum ersten Endgerät 100.
  • Der Controller 180 des ersten Endgeräts 100 führt das Bildmenü entsprechend dem empfangenen Befehlssignal aus, wie in (a) von 7 dargestellt, und zeigt anschließend eine Liste von im Bildmenü gespeicherten Bildern an. Ferner überträgt der Controller 180 des ersten Endgeräts 100 die Bildschirminformation wie in (a) von 7 dargestellt zum zweiten Endgerät 200.
  • Der Controller 270 des zweiten Endgeräts 200 empfängt die Bildschirminformation wie in (a) von 7 dargestellt vom ersten Endgerät 100 und zeigt danach die empfangene Bildschirminformation an. Wenn „1. a.jpp” 4a zur Anzeige über die Eingabeeinheit 220 ausgewählt wird, überträgt der Controller 270 des zweiten Endgeräts 200 ein Signal zum Befehlen einer Anzeige von „1. a.jpp” 4a zum ersten Endgerät 100.
  • Anschließend startet der Controller 180 des ersten Endgeräts 100 eine Bildanzeigeanwendung entsprechend dem empfangenen Befehlssignal und zeigt anschließend „1. a.jpp” auf dem Bildschirm über die gestartete Anwendung an, wie in (b) von 7 dargestellt. Ferner überträgt der Controller 180 des ersten Endgeräts 100 die Bildschirminformation wie in (b) von 7 dargestellt zum zweiten Endgerät 200.
  • In der vorhergehenden Beschreibung ist ein Prozess für das zweite Endgerät 200 zum Steuern eines Vorgangs des ersten Endgeräts 100 ausführlich unter Bezug auf 4 bis 7 erläutert worden.
  • Obgleich sich die vorhergehende Beschreibung unter Bezug auf 4 bis 7 auf den Vorgangssteuerungsprozess für das Telefonbuchmenü 1, das Nachrichtenmenü 2, das Kameramenü 3 und das Bildmenü 4 des ersten Endgeräts 100 bezieht, schränkt sie andere Implementierungen der vorliegenden Erfindung nicht ein. Beispielsweise kann das zweite Endgerät 200 Vorgänge aller Menüfunktionen oder andere Symbole oder Tasten des ersten Endgeräts 100 steuern.
  • Eine Vorgangssteuerung gemäß der vorliegenden Erfindung kann das erste Endgerät 100 eines mobilen Endgerättyps und das zweite Endgerät 200 eines PC-Typs umfassen, wie in 3 bis 7 dargestellt, das erste Endgerät 100 eines mobilen Endgerättyps und ein drittes Endgerät 300 eines mobilen Endgerättyps umfassen, wie in 8 dargestellt, oder das zweite Endgerät 200 eines PC-Typs und das erste Endgerät 100 und dritte Endgerät 300 einer Mehrzahl mobiler Endgerättypen umfassen, wie in 9 dargestellt.
  • In der folgenden Beschreibung wird ein Kommunikationszugriffsprozess zwischen dem ersten Endgerät 100 und dem zweiten Endgerät 200 in einer Vorgangssteuerung gemäß der vorliegenden Erfindung ausführlich unter Bezug auf 10 und 11 erläutert.
  • 10 zeigt ein Fließschema eines Prozesses für ein zweites Endgerät zum Zugriff auf eine Kommunikation mit einem ersten Endgerät in einer Vorgangssteuerung gemäß der vorliegenden Erfindung.
  • Unter Bezug auf 10 prüft, wenn der Controller 180 des ersten Endgeräts 100 ein Kommunikationszugriffsanforderungssignal vom zweiten Endgerät 200 über die Kommunikationseinheit 110 empfängt [S11], dieser vorab durch ein Authentifizieren [S12], ob das zweite Endgerät 200 ein Gerät ist, auf das zugegriffen werden kann.
  • Insbesondere prüft der Controller 180, ob die Geräteinformation auf dem zweiten Endgerät 200 in einer im Speicher 160 gespeicherten Zugriffsauthentifizierungs-Geräteinformationsliste vorhanden ist. Wenn die Geräteinformation auf dem zweiten Endgerät 200 in der Zugriffsauthentifizierungs-Geräteinformationsliste vorhanden ist [S13], greift der Controller 180 auf eine Kommunikation mit dem zweiten Endgerät durch Senden eines Signals zum Zulassen eines Kommunikationszugriffs an das zweite Endgerät 200 über die Kommunikationseinheit 110 zu [S14].
  • Sobald eine Kommunikationsverbindung mit dem zweiten Endgerät 200 hergestellt ist, sendet der Controller 180 die momentan auf der Anzeigeeinheit 151 angezeigte Bildschirminformation zum zweiten Endgerät 200.
  • Der Controller 180 vergleicht unterdessen die vom zweiten Endgerät 200 empfangene Geräteinformation mit der Geräteinformation entsprechend dem zweiten Endgerät 200 in der Zugriffsauthentifizierungs-Geräteinformationsliste. Wenn sich die vorhergehende Geräteinformation und die nachfolgende Geräteinformation voneinander unterscheiden, aktualisiert der Controller 180 die vom zweiten Endgerät 200 empfangene Geräteinformation in der Zugriffsauthentifizierungs-Geräteliste [S15].
  • Als ein Ergebnis des Prüfschritts S12 zeigt, wenn die Geräteinformation des zweiten Endgeräts 200 in der Zugriffsauthentifizierungs-Geräteinformationsliste nicht vorhanden ist, der Controller 180 ein Auswahlfenster zur Auswahl eines Vorhandenseins oder Nichtvorhandenseins einer Zugriffserlaubnis des zweiten Endgeräts 200 auf dem Bildschirm der Anzeigeeinheit 151 an.
  • Wenn im Auswahlfenster „Zugriff nicht erlaubt” ausgewählt wird, sperrt der Controller 180 den Zugriff des zweiten Endgeräts 200. Wenn im Auswahlfenster „Zugriff erlaubt” ausgewählt wird [S16], stellt der Controller 180 einem Benutzer einen Authentifizierungsprozess zum Zugriff auf das zweite Endgerät 200 bereit [S17]. Wenn eine Authentifizierung für das zweite Endgerät 200 von einem Benutzer erlaubt wird [S18], führt der Controller 180 Aktionen der Schritte S14 und S15 durch.
  • 11 zeigt ein Fließschema eines Prozesses für ein zweites Endgerät zum Zugriff auf eine Kommunikation mit einem zweiten Endgerät in einer Vorgangssteuerung gemäß der vorliegenden Erfindung.
  • Unter Bezug auf 11 sucht, wenn ein Befehl für den Zugriff auf eine Kommunikation mit dem ersten Endgerät für eine Fernsteuerung des ersten Endgeräts von einem Benutzer über die Eingabeeinheit 220 eingegeben wird, der Controller 270 des zweiten Endgeräts 200 in der Nähe nach dem ersten Endgerät 100 durch Steuern der Kommunikationseinheit 210 [S21].
  • In diesem Fall kann der Controller 270 in der Nähe nach dem zweiten Endgerät 100 mit einer der verschiedenen Suchverfahren (beispielsweise Geräteabfrage per Bluetooth, Service Discovery usw.) suchen. Alternativ kann der Controller 270 nach dem ersten Endgerät 100 per TXP/IP-basiertem SSDP suchen.
  • Als ein Ergebnis des Suchschritts S21 prüft der Controller 270, wenn das erste Endgerät 100 gefunden ist, ob das erste Endgerät 100 ein zugriffsauthentifiziertes Gerät ist [S22].
  • Wenn das erste Endgerät 100 ein Gerät ist, auf das zugegriffen werden kann [S23], überträgt der Controller 270 ein Signal zum Anfordern eines Kommunikationszugriffs zum ersten Endgerät 100 über die Kommunikationseinheit 210 [S24]. Wenn ein Signal zum Erlauben des Zugriffs vom ersten Endgerät 100 über die Kommunikationseinheit empfangen wird [S25], stellt der Controller 270 eine Kommunikationsverbindung mit dem ersten Endgerät 100 her [S26].
  • Wenn das erste Endgerät 100 das Gerät ist, das im Schritt S22 nicht authentifiziert wurde, stellt der Controller 270 einem Benutzer einen Prozess zum Authentifizieren des Zugriffs auf das erste Endgerät 100 bereit [S27]. Wenn der Benutzer die Authentifizierung für das erste Endgerät 100 erlaubt [S28], stellt der Controller 270 eine Kommunikationsverbindung mit dem ersten Endgerät 100 her.
  • In der vorhergehenden Beschreibung ist der Kommunikationsverbindungsprozess zwischen dem ersten Endgerät 100 und dem zweiten Endgerät 200 ausführlich erläutert worden.
  • In der folgenden Beschreibung wird ein Prozess zum Komprimieren und Dekomprimieren von Bildschirminformationen auf einem ersten Endgerät gemäß der vorliegenden Erfindung ausführlich unter Bezug auf 12 bis 18 erläutert.
  • Zunächst werden nachfolgend eine Vorrichtung zur Komprimierung einer Bildschirminformation eines ersten Endgeräts eines mobilen Endgerättyps und eine Vorrichtung zur Dekomprimierung der Bildschirminformation in einer Vorgangssteuerung gemäß der vorliegenden Erfindung unter Bezug auf 12 erläutert.
  • <Erste Ausführungsform>
  • 12 zeigt ein Blockdiagramm eines ersten Endgeräts zur Komprimierung einer Bildschirminformation in einer Vorgangssteuerung gemäß einer ersten Ausführungsform der vorliegenden Erfindung.
  • In der folgenden Beschreibung kann die Konfiguration eines ersten Endgeräts 400 die gleichen Elemente des ersten Endgeräts 100 wie in 1 dargestellt aufweisen oder nicht.
  • Sowohl das in 12 dargestellte erste Endgerät 400 als auch das in 1 dargestellte, vorhergehende erste Endgerät 100 umfasst im Wesentlichen das gleiche Gerät des mobilen Endgerättyps und kann die gleichen Vorgänge ausführen.
  • In der folgenden Beschreibung der ersten Ausführungsform wird ein Prozess zur Komprimierung einer Bildschirminformation unter Verwendung des in 12 dargestellten ersten Endgeräts 400 erläutert.
  • Unter Bezug auf 12 umfasst ein erstes Endgerät 400 zum Implementieren einer Vorgangssteuerung eine äußere Konfiguration 410, eine interne Hardware 430, eine Anwendung 450, einen virtuellen Server 470, einen Controller (dieser ist identisch mit dem in 1 dargestellten Controller 180, nachfolgend durch ein Bezugszeichen 180 bezeichnet) und ähnliches.
  • Die äußere Konfiguration 410 des ersten Endgeräts 400 umfasst ein LCD 411, einen Lautsprecher 412, ein Mikrofon 413, eine Tastatur/ein Touchpad 414, ein Netzwerkgerät 415 und ähnliches.
  • Die interne Hardware 430 umfasst ein Anzeigemodul 431, einen Videospeicher 432, ein Audiomodul 433, einen Audioausgabespeicher 434, einen Audioeingabespeicher 435, ein Eingabegerätmodul 436, ein kabelgebundenes/drahtloses Netzwerkmodul 437 und ähnliches. In diesem Fall speichert der Videospeicher 432 eine Videoinformation und gibt diese auf einem Bildschirm des ersten Endgeräts 400 aus. Das kabelgebundene/drahtlose Netzwerkmodul 437 wird mit einem externen Netzwerkgerät 415 verbunden und überträgt dann die komprimierte und verschlüsselte Videoinformation zu einem zweiten Endgerät 500.
  • Die Anwendung 450 ist mittels Software implementiert und umfasst ein Betriebssystem/einen Gerätetreiber 451, eine Videoausgabeeinheit 452, eine Audioausgabeeinheit 453, eine Audioeingabeeinheit 454, eine Eingabeverarbeitungseinheit 455 und ähnliches.
  • Der virtuelle Server 470 ist mittels Software implementiert und umfasst eine Server-Video-Erfassungs- und Verschlüsselungseinheit 471, eine Server-Audio-Aufzeichnungs- und Verschlüsselungseinheit 472, eine Server-Audio-Entschlüsselungseinheit 473, eine Server-Eingabegerätinformationseinheit 474, ein Server-Protokoll 475 und ähnliches.
  • Die Server-Video-Aufzeichnungs- und Verschlüsselungseinheit 471 des virtuellen Servers 470 empfängt eine Eingabe einer Videoinformation auf einem Bildschirm des ersten Endgeräts 400 vom Videospeicher 432 und extrahiert anschließend eine Niederfrequenzinformation und eine Mittelfrequenzinformation aus der eingegebenen Videoinformation.
  • Die Server-Video-Aufzeichnungs- und Verschlüsselungseinheit 471 bestimmt ein Variationsausmaß der aktuellen Bildschirminformation durch Vergleichen von Niederfrequenz- und Mittelfrequenzinformation der aktuellen Videoinformation mit Niederfrequenz- bzw. Mittelfrequenzinformation der vorhergehenden Videoinformation. Die Server-Video-Aufzeichnungs- und Verschlüsselungseinheit 471 bestimmt die aktuelle Videoinformation als „totale Variation”, „partielle Variation” oder „keine Variation” entsprechend dem Variationsausmaß.
  • Wenn die aktuelle Videoinformation als „totale Variation” bestimmt ist, quantisiert die Server-Video-Aufzeichnungs- und Verschlüsselungseinheit 471 jeweils die Niederfrequenzinformation und die Mittelfrequenzinformation der aktuellen Videoinformation.
  • Wenn die aktuelle Videoinformation als „partielle Variation” bestimmt ist, quantisiert die Server-Video-Aufzeichnungs- und Verschlüsselungseinheit 471 jeweils die Niederfrequenzinformation und die Mittelfrequenzinformation der aktuellen Videoinformation und erzeugt anschließend eine Information zur Angabe einer Differenz von der vorhergehenden Niederfrequenzinformation der vorhergehenden Videoinformation und eine Informationen zur Anzeige einer Differenz von der vorhergehenden Mittelfrequenzinformation der vorhergehenden Videoinformation.
  • Wenn die aktuelle Videoinformation als „keine Variation” bestimmt ist, extrahiert die Server-Video-Aufzeichnungs- und Verschlüsselungseinheit 471 eine Hochfrequenzinformation aus der aktuellen Videoinformation und quantisiert anschließend die extrahierte Hochfrequenzinformation. Die Server-Video-Aufzeichnungs- und Verschlüsselungseinheit 471 führt anschließend eine Entropie-Verschlüsselung der komprimierten Videoinformation durch.
  • Wenn die aktuelle Videoinformation als „keine Variation” bestimmt ist, quantisiert die Server-Video-Aufzeichnungs- und Verschlüsselungseinheit 471 die Mittelfrequenzinformation der aktuellen Videoinformation und erzeugt anschließend eine Differenzinformation zur Angabe einer Differenz zwischen der quantisierten Mittelfrequenzinformation und der vorhergehenden Mittelfrequenzinformation als „totale Variation” oder „partielle Variation”. In diesem Fall weist die Mittelfrequenzinformation bei „keine Variation” eine höhere Auflösung als die Mittelfrequenzinformation bei „totale Variation” oder „partielle Variation” auf.
  • Dabei berechnet im Falle der Bestimmung des Variationsausmaßes der aktuellen Videoinformation die Server-Video-Aufzeichnungs- und Verschlüsselungseinheit 471 die Zahl der Pixel, deren Variation zwischen entsprechenden Pixel größer oder gleich einem Schwellenwert ist, oder ein Verhältnis dieser Zahl.
  • Wenn die Server-Video-Aufzeichnungs- und Verschlüsselungseinheit 471 die aktuelle Bildschirminformation als „keine Variation” bestimmt, kann ein weiterer Schritt zum Abtasten einer vorgegebenen Zahl von Pixeln in der aktuellen Videoinformation durchgeführt werden.
  • Hierbei werden die von der Server-Video-Aufzeichnungs- und Verschlüsselungseinheit 471 abgetasteten Pixel mit den in der vorhergehenden Videoinformation abgetasteten Pixeln verglichen. In diesem Fall wird, wenn eine Differenz zwischen den entsprechenden Pixeln eine Pixelzahl größer oder gleich einem vorgegebenen Schwellenwert ist oder das Zahlenverhältnis größer oder gleich einem vorgegebenen Verhältnis ist, die aktuelle Videoinformation wieder als „partielle Variation” bestimmt, und es wird ein Prozess entsprechend einer partiellen Variation durchgeführt.
  • Der Controller 180 komprimiert, verschlüsselt und gibt die Videoinformation des ersten Endgeräts 400 durch Steuern der Videoausgabeeinheit 452 der Anwendung und der Server-Video-Aufzeichnungs- und Verschlüsselungseinheit 471 des virtuellen Servers 450 aus. In diesem Fall wird ein Identifizierer entsprechend „totaler Variation”, „partieller Variation” oder „keine Variation” der ausgegebenen komprimierten Videoinformation hinzugefügt. Dieser Identifizierer kann beispielsweise auf 0, 1 oder 2 gesetzt werden.
  • In der Konfiguration des ersten Endgeräts 400 zum Implementieren der Vorgangssteuerung ist die äußere Konfiguration 410 mit jedem der entsprechenden Elemente der internen Hardware 430 verbunden. Jedes der Elemente der internen Hardware 430 wird von der Anwendung 450 gesteuert und der virtuelle Server 470 ist mit der Anwendung 450 und der Hardware 430 zum Übertragen von Daten oder Befehlen verbunden.
  • 13 zeigt ein Blockdiagramm eines ersten Endgeräts des PC-Typs zur Dekomprimierung einer komprimierten Bildschirminformation in einer Vorgangssteuerung gemäß einer ersten Ausführungsform der vorliegenden Erfindung.
  • Unter Bezug auf 13 umfasst ein virtueller Client 550 Elemente, die eine vom ersten Endgerät 400 über ein kabelgebundenes/drahtloses Netzwerkgerät 515 empfangene Videoinformation anzeigen. In diesem Fall umfassen die Elemente ein Client-Protokoll 559, eine Client-Videoentschlüsselungseinheit 555, eine Client-Audioentschlüsselungseinheit 556, eine Client-Audio-Aufzeichnungs- und Verschlüsselungseinheit 557, eine Client-Eingabegerätinformationseinheit 558 und ähnliches, die mit einem Betriebssystem und Hardware eines zweiten Endgeräts 500 jeweils über eine Client-Videoausgabeeinheit 551, eine Client-Audioausgabeeinheit 552, eine Client-Audioeingabeeinheit 553, eine Client-Eingabeverarbeitungseinheit 554 und ähnliches verbunden sind.
  • Der virtuelle Client 550 ist mit einem Videoausgabegerät 511, einem Audioausgabegerät 512, einem Audioeingabegerät 513, einer Tastatur/Maus 514 und ähnliches des zweiten Endgeräts 500 verbunden.
  • Die in 13 dargestellte Client-Videoentschlüsselungseinheit 555 entschlüsselt und dekomprimiert die von der in 12 dargestellten Server-Video-Aufzeichnungs- und Verschlüsselungseinheit 471 komprimierte und verschlüsselte Videoinformation. Die Dekomprimierung der komprimierten Videoinformation folgt einem Prozess umgekehrt zum vorhergehenden Prozess zum Komprimieren der Videoinformation.
  • Die Client-Videoentschlüsselungseinheit 555 führt eine Entropie-Entschlüsselung der empfangenen komprimierten Videoinformation durch und bestimmt anschließend mittels eines in der komprimierten Videoinformation enthaltenen Identifizierers, ob die Videoinformation eine eindeutige Videoinformation, differentielle Videoinformation oder Videoinformation zur Bildqualitätswiederherstellung ist.
  • In Falle des Bestimmens der empfangenen Videoinformation als eine eindeutige Videoinformation anhand des Identifizierers entquantisiert die Client-Videoentschlüsselungseinheit 555 die Niederfrequenzinformation und Mittelfrequenzinformation der eindeutigen Videoinformation und fasst die entquantisierte Niederfrequenzinformation und die entquantisierte Mittelfrequenzinformation zusammen. Dieses zusammengefasste Video enthält keine Hochfrequenzinformation und kann zur Ausgabe einer gleichmäßig rekonstruierten Videoinformation interpoliert werden.
  • Im Falle des Bestimmens der empfangenen Videoinformation als eine differentielle Videoinformation anhand des Identifizierers erzeugt die Client-Videoentschlüsselungseinheit 555 die quantisierte Nieder- und Mittelfrequenzinformation durch Addieren unterschiedlicher Informationen der Nieder- und Mittelfrequenzinformation und der vorhergehenden Videoinformation und entquantisiert die Nieder- und Mittelfrequenzinformation. Die entquantisierte Nieder- und Mittelfrequenzinformation wird anschließend zusammengefasst. Im Fall der differentiellen Videoinformation enthält das zusammengefasste Video keine Hochfrequenzinformation. Daher wird vorzugsweise eine Interpolation durchgeführt.
  • Im Falle des Bestimmens der empfangenen Videoinformation als eine Videoinformation zur Bildqualitätswiederherstellung anhand des Identifizierers entquantisiert die Client-Videoentschlüsselungseinheit 555 die Hochfrequenzinformation und fasst anschließend die entquantisierte Hochfrequenzinformation mit der rekonstruierten Nieder- und Mittelfrequenzinformation zusammen. Da das zusammengefasste Video im Prozess zum Rekonstruieren der Videoinformation mit wiederhergestellter Bildqualität die Niederfrequenzinformation, die Mittelfrequenzinformation und die Hochfrequenzinformation enthält, muss keine Interpolation durchgeführt werden.
  • Die durch die Client-Videoentschlüsselungseinheit 555 dekomprimierte Videoinformation wird zur Videoausgabeeinheit 251 weitergeleitet und anschließend auf dem Videoausgabegerät 511 des zweiten Endgeräts 500 angezeigt.
  • Die Client-Videoentschlüsselungseinheit 555 rekonstruiert eine hochauflösende Zwischeninformation aus der durch den Komprimierungsprozess erzeugten hochauflösenden Mittelfrequenzinformation.
  • In diesem Fall kann die Rekonstruktion der hochauflösenden Mittelfrequenzinformation wie folgt formuliert werden: Q4(M) = Q4 (Q2–1(Q2(M))) + X(M). In diesem Fall bezieht sich Q2–1(Q2(M)) auf das Ergebnis der Verarbeitung der verwendeten eindeutigen Videoinformation oder differentiellen Videoinformation. Die rekonstruierte hochauflösende Zwischeninformation wird mit der rekonstruierten Hochfrequenzinformation und ähnliches zusammengefasst.
  • Die Vorgangssteuerung gemäß der vorliegenden Erfindung, wie in 12 und 13 dargestellt, wird durch eine Kombination aus Hardware und Software implementiert. Insbesondere wird die Vorgangssteuerung durch den in das erste Endgerät 400 integrierten virtuellen Server 470 und den in das zweite Endgerät 500 integrierten virtuellen Client 550 ausgeführt.
  • Der virtuelle Server 470 und der virtuelle Client 550 sind durch das Netzwerkgerät 415 des ersten Endgeräts 400 und des kabelgebundenen/drahtlosen Netzwerkgeräts 515 des zweiten Endgeräts 500 per kabelgebundener/drahtloser Verbindung miteinander verbunden. Durch diese Verbindung komprimiert der virtuelle Server 470 die Videoinformation auf dem Bildschirm des ersten Endgeräts 400 und überträgt anschließend die komprimierte Videoinformation zum virtuellen Client 550 des zweiten Endgeräts 500. Anschließend liefert der virtuelle Client 550 in Echtzeit die vom ersten Endgerät 400 empfangene Videoinformation zum Videoausgabegerät 511, so dass die gelieferte Videoinformation auf dem Videoausgabegerät 511 angezeigt werden kann.
  • 14 zeigt eine Ausführungsform zur Videokomprimierung des ersten Endgeräts 400, die von der Server-Video-Aufzeichnungs- und Verschlüsselungseinheit 471 des virtuellen Servers 470 durchgeführt wird.
  • Unter Bezug auf 14 umfasst eine Videokomprimierung des ersten Endgeräts 100 gemäß einer Ausführungsform der vorliegenden Erfindung einen Schritt zum Extrahieren der Niederfrequenzinformation und Mittelfrequenzinformation, einen Videoinformationsvariations-Analyseschritt zum Bestimmen eines Variationsausmaßes der aktuellen Videoinformation durch Vergleichen der aktuellen Videoinformation mit der vorhergehenden Videoinformation auf Basis der extrahierten Nieder- und Mittelfrequenzinformation, einen Schritt zum Erzeugen einer eindeutigen Videoinformation, differentiellen Videoinformation oder Videoinformation zur Bildqualitätswiederherstellung durch Differenzieren von Vorhandensein und Nichtvorhandensein von Informationen über eine Differenz zu einem Quantisierungsziel entsprechend dem Variationsausmaß der aktuellen Videoinformation und einen Schritt zum Verschlüsseln der erzeugten Videoinformation. Die Videokomprimierung des ersten Endgeräts 400 gemäß einer Ausführungsform wird ausführlich unter Bezug auf 14 wie folgt erläutert.
  • Zunächst ist ein Schritt S31 der Schritt zum Extrahieren von Niederfrequenzinformation und Mittelfrequenzinformation aus der Videoinformation. Ein Video des ersten Endgeräts wird als aufeinanderfolgende Videoinformation (beispielsweise Einzelbilder) eingegeben.
  • Für dieses Extrahieren wird die eingegebene Videoinformation in Niederfrequenzinformation (N) und Zwischenfrequenzinformation (M) aufgelöst. Wenn die Videoinformation in Niederfrequenzinformation und Mittelfrequenzinformation aufgelöst ist, wird eine Wavelet-Transformation verwendet. Für eine geringe Vorgangsmenge wird vorzugsweise ein Harr-Wavelet verwendet. In diesem Schritt muss die Hochfrequenzinformation (H) nicht aus der entsprechenden Videoinformation extrahiert werden. Dies ist darauf zurückzuführen, dass ein Benutzer des ersten Endgeräts gegebenenfalls nicht versuchen wird, Buchstaben zu lesen, wenn solche eine Videovariation als Animation/Bildlauf und ähnliches groß ist.
  • Da die Niederfrequenzinformation und die Mittelfrequenzinformation eine relativ niedrige räumliche Auflösung aufweisen, wird im Schritt S31 die eindeutige Videoinformation reduziert. Da die Niederfrequenzinformation und die Mittelfrequenzinformation aus der Videoinformation extrahiert werden, ist die Komprimierungsrate hoch. Der Schritt S31 führt nur einen Ganzzahl-Additions-/Subtraktionsvorgang durch oder führt nur einen Ganzzahl-Additions-/Subtraktionsvorgang und einen logischen Vorgang durch.
  • Ein Schritt S32 ist der Schritt zum Analysieren eines Variationsausmaßes der aktuellen Videoinformation im Vergleich zur vorhergehenden Videoinformation. In diesem Schritt werden die Niederfrequenzinformation und die Mittelfrequenzinformation der vorhergehenden Videoinformation jeweils mit der Niederfrequenzinformation und der Mittelfrequenzinformation der aktuellen Videoinformation verglichen.
  • Zunächst werden die Niederfrequenzinformationen verglichen. Ein Schwellenwert zur Bewertung eines Variationsausmaßes zwischen einem Pixel entsprechend der Niederfrequenzinformation der vorhergehenden Videoinformation und einem Pixel entsprechend der Niederfrequenzinformation der aktuellen Videoinformation wird vorzugsweise bestimmt. Dieser Schwellenwert bezieht sich auf ein Ausmaß zum Erkennen, dass eine Variation vorhanden ist. Und der Schwellenwert kann unterschiedlich auswählbar mit 10%, 20%, 30%, 50% usw. sein. Anschließend wird die Zahl der Pixel mit einer Variation größer oder gleich dem Schwellenwert zwischen Pixeln berechnet.
  • Anschließend werden die Mittelfrequenzinformationen verglichen. Es wird analysiert, ob ein Variationsausmaß zwischen einem Pixel entsprechend der Mittelfrequenzinformation der vorhergehenden Videoinformation und einem Pixel entsprechend der Mittelfrequenzinformation der aktuellen Videoinformation vom Schwellenwert abweicht. Und es wird die Zahl der Pixel berechnet, die vom Schwellenwert abweichen.
  • In diesem Fall ist ein Variationsschwellenwert für die Niederfrequenzinformation auf den Schwellenwert anwendbar und ein Schwellenwert kann unter Berücksichtigung einer Charakteristik der Mittelfrequenzinformation verschieden festgelegt werden.
  • Die Zahl der Pixel, die vom Schwellenwertbereich für die Niederfrequenzinformation abweichen, und die Zahl der Pixel, die vom Schwellenwertbereich für die Mittelfrequenzinformation abweichen, werden addiert.
  • In diesem Fall kann entsprechend dem Verhältnis, das in der Gesamtpixelzahl durch die addierte Zahl von Pixeln belegt wird, die aktuelle Videoinformation als „totale Variation”, „partielle Variation” oder „keine Variation” bestimmt werden.
  • Wenn das Verhältnis der Zahl der Pixel, die als Variationen aufweisend erkennbar sind, größer oder gleich 50% ist, wird bestimmt, dass die aktuelle Videoinformation eine erhebliche Videovariation im Vergleich zur vorhergehenden Videoinformation aufweist, und das Variationsausmaß der aktuellen Videoinformation wird als „totale Variation” bestimmt. Wenn das Verhältnis der Zahl der Pixel, die als Variationen aufweisend erkennbar sind, 5%~50% ist, wird bestimmt, dass die aktuelle Videoinformation eine partielle Videovariation aufweist, und das Variationsausmaß der aktuellen Videoinformation wird als „partielle Variation” bestimmt.
  • Wenn das Verhältnis der Zahl der Pixel, die als Variationen aufweisend erkennbar sind, kleiner als 5% ist, wird bestimmt, dass die aktuelle Videoinformation keine Videovariation im Vergleich zur vorhergehenden Videoinformation aufweist, und das Variationsausmaß der aktuellen Videoinformation wird als „keine Variation” bestimmt.
  • Obgleich hier die Bestimmungsreferenzen des Zahlenverhältnisses auf 50% und 5% festgelegt sind, ist es möglich, die Zahlenverhältnis-Bestimmungsreferenzen unterschiedlich mit 70% und 10% oder 50% und 0% oder ähnliches festzulegen. Statt der Verwendung eines Zahlenverhältnisses können die Zahlen 10, 20, 30 und ähnliches als Bestimmungsreferenzen verwendet werden.
  • Ein Schritt S33 ist der Schritt zum Erzeugen einer eindeutigen Videoinformation durch Quantisieren von jeweils der Niederfrequenzinformation und der Mittelfrequenzinformation, wenn die aktuelle Videoinformation als „totale Variation” bestimmt ist. In diesem Fall bezieht sich die eindeutige Videoinformation auf die Videoinformation, die eine intakte originale Videoinformation enthält. Insbesondere ist die eindeutige Videoinformation die Videoinformation, die aus dem Entfernen von Hochfrequenzinformation aus der originalen Videoinformation resultiert.
  • Da die Niederfrequenzinformation sehr wichtige Informationen enthält, hat die Quantisierung für die Niederfrequenzinformation in diesem Fall die höchste Auflösung. Die Quantisierung für die Zwischeninformation weist eine niedrigere Auflösung als für die Niederfrequenzinformation auf.
  • Schritt S34 und S35 sind der Schritt zum Quantisieren der Niederfrequenzinformation bzw. der Mittelfrequenzinformation der aktuellen Videoinformation (Q1(L), Q2(M)), wenn die aktuelle Videoinformation als „partielle Variation” bestimmt sind, und der Schritt zum Erzeugen einer differentiellen Videoinformation durch Vergleichen der quantisierten Niederfrequenzinformation und der quantisierten Mittelfrequenzinformation der aktuellen Videoinformation mit den Quantisierungsergebnissen jeweils der Niederfrequenzinformation und der Mittelfrequenzinformation der vorhergehenden Videoinformation.
  • In diesem Fall betrifft die differentielle Videoinformation die aus der Differenzinformation zwischen der aktuellen Videoinformation und der vorhergehenden Videoinformation in der Niederfrequenzinformation und der Mittelfrequenzinformation erzeugte Videoinformation.
  • Wie aus Schritt S35 zu erkennen ist, kann die Differenzinformation in der Niederfrequenzinformation und die Differenzinformation in der Mittelfrequenzinformation jeweils wie folgt formuliert werden: D(L) = Q1(L) – Q1(L') und D(M) = Q2(M) – Q2(M'). In diesem Fall gibt D(L) die Differenzinformation zur Niederfrequenzinformation und D(M) gibt die Differenzinformation zur Mittelfrequenzinformation an.
  • Q1(L) gibt ein Ergebnis aus dem Quantisieren der Niederfrequenzinformation der aktuellen Videoinformation an. Q1(M) gibt ein Ergebnis aus dem Quantisieren der Mittelfrequenzinformation der aktuellen Videoinformation an. Q1(L') gibt ein Ergebnis aus dem Quantisieren der Niederfrequenzinformation der vorhergehenden Videoinformation an und Q1(M') gibt ein Ergebnis aus dem Quantisieren der Mittelfrequenzinformation der vorhergehenden Videoinformation an.
  • Im Schritt S35 wird eine Quantisierungsauflösung der Nieder- und Mittelfrequenzinformation gleich der der Nieder- und Mittelfrequenzinformation bei Bestimmung als „totale Variation” verwendet.
  • Durch Ermitteln der Differenzinformation in den Schritten S34 und S35 bleibt nur ein aussagekräftiger Wert als variierender Teil übrig. Als Ergebnis wird eine erhebliche Menge an Daten (nicht variierender Teil) in einem Verschlüsselungsprozess komprimiert.
  • Die Schritte S36 und S37 sind der Schritt zum Extrahieren einer Hochfrequenzinformation aus der aktuellen Videoinformation, wenn die aktuelle Videoinformation als „keine Variation” bestimmt ist, und der Schritt zum Erzeugen einer Videoinformation zur Bildqualitätswiederherstellung durch Quantisieren (Q3(H)) der extrahierten Hochfrequenzinformation.
  • Die Videoinformation zur Bildqualitätswiederherstellung enthält nur deshalb zusätzliche Informationen zur Bildqualitätswiederherstellung, weil die Niederfrequenzinformation und die Mittelfrequenzinformation im vorhergehenden Schritt geliefert wurden. Durch die Videoinformation zur Bildqualitätswiederherstellung kann eine Bildqualität ausreichend verbessert werden, um einen kleinen Buchstaben identifizieren zu können.
  • Somit wird das Verfahren zum Übertragen einer Hochfrequenzinformation nur angewendet, wenn keine Videovariation vorhanden ist. Dies ist darauf zurückzuführen, dass ein Benutzer des ersten Endgeräts keine Probleme beim Lesen von Buchstaben hat, wenn eine Videovariation stoppt. Insbesondere ist dies das Ergebnis bei der Berücksichtigung der Gewohnheiten eines Benutzers bei der Verwendung des ersten Endgeräts.
  • Obgleich die Hochfrequenzinformation eine hohe räumliche Auflösung aufweist, ist in diesem Fall ihr Wert nahezu 0. Somit tritt im Laufe der Entropie-Verschlüsselung eine erhebliche Komprimierung auf. Ferner wird ein Quantisierungsprozess für die niedrigste Auflösung durchgeführt, da die Hochfrequenzinformation ein für die Augen irrelevanter Bereich ist.
  • Die eindeutige Videoinformation, die differentielle Videoinformation und die Videoinformation zur Bildqualitätswiederherstellung, die in den Schritten S33 bis S37 erzeugt wurden, werden in einem Schritt S50 einer Entropie-Verschlüsselung unterzogen und jeder Videoinformation wird ein Identifizierer wie 0, 1, 2 und ähnliches gegeben.
  • Die Identifizierer werden zum virtuellen Client des zweiten Endgeräts übertragen, indem sie jeweils in der eindeutigen Videoinformation, der differentiellen Videoinformation und der Videoinformation zur Bildqualitätswiederherstellung enthalten sind. Wenn die komprimierte eindeutige Videoinformation, differentielle Videoinformation und Videoinformation zur Bildqualitätswiederherstellung durch den virtuellen Client 50 des zweiten Endgeräts dekomprimiert werden, kann ein Typ der übertragenen Videoinformation durch den entsprechenden Identifizierer identifiziert werden.
  • 15 zeigt eine weitere Ausführungsform einer Videokomprimierung des ersten Endgeräts.
  • Unter Bezug auf 15 umfasst die Videokomprimierung des ersten Endgeräts gemäß einer weiteren Ausführungsform, die durch die Server-Video-Aufzeichnungs- und Verschlüsselungseinheit 471 des virtuellen Servers 470 durchgeführt wird, im Falle des Bestimmens der aktuellen Videoinformation als „keine Variation” ferner die Schritte S38 und S39 in 14.
  • Der Schritt S38 ist der Schritt zum Quantisieren (Q4(M)) einer Mittelfrequenzinformation mit einer Quantisierungsauflösung, die höher ist als die der Mittelfrequenzinformation mit „totaler Variation” oder „partieller Variation”. Insbesondere verbessert der Schritt S38 die Bildqualität der Mittelfrequenzinformation zusätzlich.
  • Das Quantisierungsergebnis des Schritts S38 wird an den Verschlüsselungsschritt gesendet, nachdem die Differenzinformation und das Quantisierungsergebnis der Mittelfrequenzinformation von „totale Variation” oder „partieller Variation” erzeugt wurden.
  • Wie aus der Formel „X(M) = Q4(M) – Q4(Q2”1(Q2(M)))” im Schritt S39 ersichtlich ist, wird die hochauflösende Mittelfrequenz-Differenzinformation so erzeugt, dass ein Entquantisieren des Ergebnisses des Quantisierens der Mittelfrequenzinformation mit hoher Auflösung und des Ergebnisses des Quantisierens der Mittelfrequenzinformation mit „totaler Variation” oder „partieller Variation” und einer Differenz eines Ergebnisses des Quantisierens mit hoher Auflösung erfolgt.
  • Der Schritt S38 ist der Prozess zur weiteren Komprimierung des quantisierten Ergebnisses im Schritt S38.
  • 16 zeigt eine Videokomprimierung des ersten Endgeräts gemäß einer weiteren Ausführungsform der vorliegenden Erfindung.
  • Unter Bezug auf 16 enthält die Videokomprimierung des ersten Endgeräts gemäß einer weiteren Ausführungsform, die durch die Server-Video-Aufzeichnungs- und Verschlüsselungseinheit 471 des virtuellen Servers 470 durchgeführt wird, ferner die Schritte S40 und S41 im Falle des Bestimmens der aktuellen Videoinformation als „keine Variation” in 14 und 15.
  • In 16 wird erneut bestimmt, ob die aktuelle Videoinformation als „partielle Information” bestimmt werden kann, wenn die aktuelle Videoinformation als „keine Variation” bestimmt wird.
  • Im Schritt S40 wird eine vorgegebene Zahl von sich gegenseitig entsprechenden Pixeln aus Pixeln der aktuellen und vorhergehenden Videoinformation abgetastet. In diesem Fall wird die Zahl der abgetasteten Pixel unter Berücksichtigung der Vorgangsfähigkeit des ersten Endgeräts bestimmt. Beispielsweise können 9, 12, 15, 16 oder 20 Pixel unterschiedlich für jede Videoinformation bestimmt werden.
  • Im Schritt S41 werden in der aktuellen Videoinformation abgetastete Pixel mit in der vorhergehenden Videoinformation abgetasteten Pixeln verglichen. Wenn die Zahl der Pixel, die einen Schwellenwert zwischen den in der aktuellen Videoinformation abgetasteten Pixel und den in der vorhergehenden Videoinformation abgetasteten Pixel überschreitet, größer oder gleich einer vorgegebenen Zahl oder einem vorgegebenen Verhältnis ist, wird die aktuelle Videoinformation erneut als „partielle Variation” bestimmt.
  • In diesem Fall kann die vorgegebene Zahl der Vergleichsreferenz auf 1 festgelegt werden und das vorgegebene Verhältnis kann unterschiedlich auf 3%, 5%, 10% oder ähnliches festgelegt werden. Wenn in diesem Schritt eine Bestimmung als „partielle Variation” erfolgt, wird der Schritt S34 durchgeführt. Wenn weiterhin eine Bestimmung als „keine Variation” erfolgt, wird der Schritt S36 oder S38 durchgeführt.
  • In der folgenden Beschreibung wird ein Prozess zur Dekomprimierung eines vom ersten Endgerät empfangenen komprimierten Videos durch den virtuellen Client des zweiten Endgeräts unter Bezug auf 17 und 18 erläutert.
  • Die in 17 und 18 dargestellten Ausführungsformen entsprechend einem umgekehrten Prozess zu dem in 14 und 15 dargestellten. Der in 14 und 15 dargestellte Dekomprimierungsprozess ist für einen Fachmann auf dem Gebiet, der den Komprimierungsprozess versteht, ohne ausführliche Erläuterung nachvollziehbar.
  • 17 zeigt eine Ausführungsform zur Dekomprimierung des komprimierten Videos gemäß der Darstellung in 14. Insbesondere wird die in 17 dargestellte Ausführungsform durch die Client-Videoentschlüsselungseinheit 555 des virtuellen Client 550 des zweiten Endgeräts ausgeführt.
  • Unter Bezug auf 17 werden komprimierte Daten in einem Schritt S61 einer Entropie-Entschlüsselung unterzogen. Anschließend wird in einem Schritt S62 mit einem in jeder Videoinformation enthaltenen Identifizierer bestimmt, ob die vom ersten Endgerät empfangene Videoinformation eine eindeutige Videoinformation, differentielle Videoinformation oder Videoinformation zur Bildqualitätswiederherstellung ist.
  • Zunächst wird in einem Fall, in dem die empfangene Videoinformation als eindeutige Videoinformation im Schritt S62 bestimmt ist, die quantisierte Nieder- und Mittelfrequenzinformation der eindeutigen Videoinformation in einem Schritt S63 entquantisiert.
  • Anschließend werden in einem Schritt S64 die Niederfrequenzinformation und die entquantisierte Mittelfrequenzinformation zusammengefasst. Da das zusammengefasste Video keine Hochfrequenzinformation enthält, kann eine Interpolation als Schritt S65 durchgeführt werden. Als Ergebnis dieser Interpolation können gleichmäßiger rekonstruierte Videoinformationen ausgegeben werden.
  • Wenn die empfangene Videoinformation als differentielle Videoinformation im Schritt S62 bestimmt ist, wird eine quantisierte Niederfrequenzinformation und eine quantisierte Mittelfrequenzinformation durch Hinzufügen von Differenzen der Nieder- und Mittelfrequenzinformation zur vorhergehenden Videoinformation in einem Schritt S66 erzeugt.
  • In einem Schritt S67 werden die Niederfrequenzinformation und die Mittelfrequenzinformation entquantisiert. Anschließend werden in einem Schritt S68 die Niederfrequenzinformation und die entquantisierte Mittelfrequenzinformation zusammengefasst. Da im Fall der differentiellen Videoinformation keine Hochfrequenzinformation im zusammengefassten Video enthalten ist, kann eine Interpolation als ein Schritt S69 durchgeführt werden.
  • Wenn die empfangene Videoinformation als die Videoinformation zur Bildqualitätswiederherstellung im Schritt S62 bestimmt ist, wird die quantisierte Hochfrequenzinformation in einem Schritt S70 entquantisiert. Anschließend wird in einem Schritt S71 die entquantisierte Hochfrequenzinformation und die bereits rekonstruierte Nieder- und Mittelfrequenzinformation zusammengefasst. Da der Prozess für das Rekonstruieren der Videoinformation zur Bildqualitätswiederherstellung die Nieder-, Mittel- und Hochfrequenzinformation umfasst, muss die Interpolation nicht durchgeführt werden.
  • Schließlich wird die in jedem der zuvor beschriebenen Fälle verarbeitete rekonstruierte Videoinformation in einem Schritt S80 zur Videoausgabeeinheit 551 gesendet.
  • 18 zeigt eine weitere Ausführungsform zur Dekomprimierung des komprimierten Videos gemäß der Darstellung in 15.
  • In 18 ist ferner ein Prozess zum Rekonstruieren einer hochauflösenden Mittelfrequenzinformation aus der hochauflösenden Mittelfrequenz-Differenzinformation enthalten, die aus dem in 15 dargestellten Komprimierungsprozess stammt.
  • Unter Bezug auf 18 wird ein Quantisierungsergebnis der hochauflösenden Mittelfrequenz durch die Formel „Q4(M) = Q4(Q2–1(Q2(M))) + X(M)” im Schritt S72 rekonstruiert.
  • In diesem Fall verwendet Q2–1(Q2(M)) ein Verarbeitungsergebnis der eindeutigen Videoinformation oder differentiellen Videoinformation. Anschließend wird das hochauflösende Mittelfrequenz-Quantisierungsergebnis in einem Schritt S73 entquantisiert, um die hochauflösende Mittelfrequenzinformation zu rekonstruieren.
  • Damit ist der Video-Komprimierungs- und Dekomprimierungsprozess des ersten und zweiten Endgeräts gemäß der ersten Ausführungsform der vorliegenden Erfindung ausführlich erläutert worden.
  • In der folgenden Beschreibung werden ein Vorgangsprozess zum Übertragen und Empfangen von Daten und ein Kommunikationsverbindungsprozess zwischen einem ersten Endgerät und einem zweiten Endgerät in einer Vorgangssteuerung gemäß Ausführungsformen der vorliegenden Erfindung ausführlich erläutert.
  • <Zweite Ausführungsform>
  • Gemäß einer zweiten Ausführungsform der vorliegenden Erfindung kann, wenn eine Bildschirminformation eines ersten Endgeräts auf einem zweiten Endgerät angezeigt wird, die in der Bildschirminformation des ersten Endgeräts enthaltene Inhaltsinformation einfach auf dem zweiten Endgerät erkannt werden. Ferner kann die Inhaltsinformation des ersten Endgeräts frei auf dem zweiten Endgerät verwendet und bearbeitet werden.
  • In der folgenden Beschreibung der ersten bis dritten Ausführungsform der vorliegenden Erfindung sei angenommen, dass ein erstes Endgerät des mobilen Endgerättyps und ein zweites Endgerät eines PC-Typs verwendet werden.
  • Diese Annahme erfolgt, um die Beschreibung der ersten bis dritten Ausführungsform der vorliegenden Erfindung klar zu gestalten. Alternativ können sowohl das erste als auch das zweite Endgerät gemäß der ersten bis dritten Ausführungsform der vorliegenden Erfindung ein Endgerät des mobilen Endgerättyps sein. Alternativ können sowohl das erste als auch das zweite Endgerät gemäß der ersten bis dritten Ausführungsform der vorliegenden Erfindung ein stationäres Endgerät umfassen.
  • Somit können das erste und zweite Endgerät gemäß der ersten bis dritten Ausführungsform der vorliegenden Erfindung kommunikationsfähige Endgeräte durch Integrieren einer Bildschirmanzeigevorrichtung und eines Eingabegeräts umfassen.
  • Eine erste Ausführungsform der vorliegenden Erfindung wird nachfolgend ausführlich unter Bezug auf 19 erläutert.
  • 19 zeigt ein Signalverarbeitungsdiagramm für einen Datenübertragungsprozess zwischen einem ersten Endgerät 100 und einem zweiten Endgerät 200 in einer Vorgangssteuerung gemäß einer ersten Ausführungsform der vorliegenden Erfindung.
  • Unter Bezug auf 19 prüft der Controller 180 des ersten Endgeräts 100, ob wenigstens eine Inhaltsinformation in der auf der Anzeigeeinheit 151 zunächst anzuzeigenden Bildschirminformation vorhanden ist [S111].
  • In diesem Fall kann die wenigstens eine Inhaltsinformation einen Text, ein Bild, eine empfangene Nachricht, Kontaktinformationen in einem Telefonbuch, eine Audiodatei, eine Fotodatei, eine Videodatei, eine Spieledatei, Termininformationen, eine Dokumentdatei, eine elektronische Wörterbuchdatei, eine Taschenrechnerdatei, eine Webseitenadresseninformation und ähnliches umfassen.
  • Insbesondere umfasst die Inhaltsinformation alle in einer Menüfunktion des ersten Endgeräts 100 enthaltenen Daten. Ferner kann die Kontaktinformation eine Mobiltelefonnummer, einen Namen, eine private Telefonnummer und eine E-Mail-Adresse einer Kontaktperson usw. umfassen.
  • In diesem Fall erzeugt der Controller 180, wenn die wenigstens eine Inhaltsinformation in der anzuzeigenden Bildschirminformation enthalten ist [S112], eine erste Benachrichtigungsinformation zum Melden der Inhaltsinformation mittels der Bildschirminformation [S113], und der Controller 180 überträgt die erzeugte erste Benachrichtigungsinformation zum zweiten Endgerät 200 über die Kommunikationseinheit 110, indem die erzeugte erste Benachrichtigungsinformation in der anzuzeigenden Bildschirminformation enthalten ist [S114].
  • In diesem Fall kann die erste Benachrichtigungsinformation in Form eines Textes zur Anzeige der Inhaltsinformation, eines zwei- oder dreidimensionalen Bildes, eines Symbols, einer Animation, eines Wasserzeichens, eines Strichcodes oder ähnliches erzeugt werden.
  • In diesem Fall überträgt der Controller 180 die Bildschirminformation, welche die erste Benachrichtigungsinformation enthält, zum zweiten Endgerät 200 durch Komprimierung der Bildschirminformation mittels der in 14 bis 16 dargestellten Prozesse.
  • Insbesondere kann der Controller 180 die Bildschirminformation, welche die erste Benachrichtigungsinformation enthält, komprimieren, wofür ein Video- oder Einzelbildkomprimierungsverfahren verwendet wird. Beispielsweise kann die Bildschirminformation mit einem Videokomprimierungsverfahren wie JPEG, PNP, MPEG, H.264 usw. komprimiert werden.
  • Ferner kann der Controller 180 im Falle der Übertragung einer vom Audioausgabemodul 152 an das stationäre Endgerät 200 ausgegebenen Audioinformation die Audioinformation mit einem Audiokomprimierungsverfahren komprimieren. Beispielsweise kann die Audioinformation mit einem Audiokomprimierungsverfahren wie MP3, MP4, SBC, ADPCM, Ogg Vorbis usw. komprimiert werden.
  • Beim Übertragen einer Bildschirminformation, die eine durch den vorhergehenden Prozess komprimierte erste Benachrichtigungsinformation enthält, zum zweiten Endgerät 200 kann der Controller 180 die Bildschirminformation mit einem VDP-Standard-Protokoll (Video) und einem A2DP-Standard-Protokoll (Audio) per Bluetooth übertragen.
  • Ein Prozess zum Erzeugen einer ersten Benachrichtigungsinformation und ein Prozess zum Übertragen einer ersten Benachrichtigungsinformation im Controller 180 werden nachfolgend ausführlich unter Bezug auf 20 und 21 erläutert.
  • 20 und 21 zeigen Diagramme für Bildschirmkonfigurationen zum Erläutern eines Prozesses für ein erstes Endgerät zum Erzeugen einer ersten Benachrichtigungsinformation gemäß einer zweiten Ausführungsform der vorliegenden Erfindung.
  • Unter Bezug auf (a) von 20 erzeugt der Controller 180 des mobilen Endgeräts 100 eine textförmige erste Benachrichtigungsinformation 10a zum Benachrichtigen der Termininhaltsinformation 10, wie in (b) von 13 dargestellt, wenn auf einem Bildschirm zum Anzeigen eine Termininhaltsinformation vorhanden ist. Der Controller 180 kann anschließend die textförmige erste Benachrichtigungsinformation 10a zum zweiten Endgerät 200 übertragen, indem die textförmige erste Benachrichtigungsinformation in die anzuzeigende Bildschirminformation aufgenommen wird.
  • In (b) von 20 ist die Bildschirminformation dargestellt, welche die durch das zweite Endgerät 200 vom ersten Endgerät 100 empfangene textförmige erste Benachrichtigungsinformation 10a enthält, die angezeigt wird.
  • In diesem Fall kann der Controller 180 des ersten Endgeräts die erste Benachrichtigungsinformation 10a so übertragen, dass ein Zusammenfassen oder Überlappen der ersten Benachrichtigungsinformation 10a um einen Bereich erfolgt, in dem die Termininformation 10 angezeigt wird.
  • Alternativ kann der Controller 180 des ersten Endgeräts 100 statt des Anzeigens der Termininformation 10 die erste Benachrichtigungsinformation 10a so übertragen, dass ein Zusammenfassen oder Überlappen der ersten Benachrichtigungsinformation 10a mit einem Bereich erfolgt, in dem nur die Termininformation 10 angeordnet ist.
  • Alternativ kann der Controller 180 des ersten Endgeräts 100 die erste Benachrichtigungsinformation 10a so übertragen, dass ein Zusammenfassen oder Überlappen der ersten Benachrichtigungsinformation 10a innerhalb eines Anzeigebereichs der Bildschirminformation erfolgt.
  • Alternativ erzeugt der Controller 180 des ersten Endgeräts 100, wie in (c) von 20 dargestellt, eine symbolförmige erste Benachrichtigungsinformation 10b zur Benachrichtigung der Termininformation 10 und kann anschließend die symbolförmige erste Benachrichtigungsinformation 10b zum zweiten Endgerät 200 übertragen, indem die symbolförmige erste Benachrichtigungsinformation 10b in die anzuzeigende Bildschirminformation aufgenommen wird.
  • In diesem Fall ist in (c) von 20 die Bildschirminformation dargestellt, welche die durch das zweite Endgerät 200 vom ersten Endgerät 100 empfangene symbolförmige erste Benachrichtigungsinformation 10a enthält, die angezeigt wird.
  • Der Controller 180 des ersten Endgeräts 100 erzeugt eine erste Benachrichtigungsinformation 10c zur Benachrichtigung der Termininformation 10 in Strichcodeform, wie in (d) von 20 dargestellt, und kann anschließend die erzeugte strichcodeförmige erste Benachrichtigungsinformation 10c zum zweiten Endgerät 200 übertragen, indem sie in die Bildschirminformation aufgenommen wird.
  • Wenn innerhalb eines anzuzeigenden Bildschirms eine Webseitenadressen-Inhaltsinformation 20 vorhanden ist, erzeugt der Controller 180 des ersten Endgeräts 100 unter Bezug auf (a) von 21 eine textförmige erste Benachrichtigungsinformation 20a zur Benachrichtigung der Webseitenadressen-Inhaltsinformation 20, wie in (b) von 21 dargestellt, und kann anschließend die textförmige zweite Benachrichtigungsinformation 20a zum zweiten Endgerät 200 übertragen, indem diese in die anzuzeigende Bildschirminformation aufgenommen wird.
  • In (b) von 21 ist die Bildschirminformation dargestellt, welche die durch das zweite Endgerät 200 vom ersten Endgerät 100 empfangene textförmige erste Benachrichtigungsinformation 20a enthält, die angezeigt wird.
  • In diesem Fall kann der Controller 180 des ersten Endgeräts die erste Benachrichtigungsinformation 20a so übertragen, dass ein Zusammenfassen oder Überlappen der ersten Benachrichtigungsinformation 20a um einen Bereich erfolgt, in dem die Webseitenadressen-Inhaltsinformation 20 angezeigt wird.
  • Alternativ kann der Controller 180 des ersten Endgeräts 100 statt des Anzeigens der Webseitenadressen-Inhaltsinformation 20 die erste Benachrichtigungsinformation 20a so übertragen, dass ein Zusammenfassen oder Überlappen der ersten Benachrichtigungsinformation 20a mit einem Bereich erfolgt, in dem nur die Webseitenadressen-Inhaltsinformation 20 angeordnet ist.
  • Alternativ kann der Controller 180 des ersten Endgeräts 100 die erste Benachrichtigungsinformation 20a so übertragen, dass ein Zusammenfassen oder Überlappen der ersten Benachrichtigungsinformation 20a innerhalb eines Anzeigebereichs des Bildschirms zum Anzeigen erfolgt.
  • Alternativ erzeugt der Controller 180 des ersten Endgeräts 100, wie in (c) von 21 dargestellt, eine symbolförmige erste Benachrichtigungsinformation 20b zur Benachrichtigung der Webseitenadressen-Inhaltsinformation 20 und kann anschließend die symbolförmige erste Benachrichtigungsinformation 20b zum zweiten Endgerät 200 übertragen, indem die symbolförmige erste Benachrichtigungsinformation 20b in die anzuzeigende Bildschirminformation ausgenommen wird.
  • Der Controller 180 des ersten Endgeräts 100 erzeugt eine erste Benachrichtigungsinformation 20c zur Benachrichtigung der Webseitenadressen-Inhaltsinformation 20 in Strichcodeform, wie in (d) von 21 dargestellt, und kann anschließend die erzeugte strichcodeförmige erste Benachrichtigungsinformation 20c zum zweiten Endgerät 200 übertragen, indem diese in die anzuzeigende Bildschirminformation aufgenommen wird.
  • Wenn die Bildschirminformation, welche die erste Benachrichtigungsinformation enthält, vom ersten Endgerät 100 über die Kommunikationseinheit 210 empfangen wird, zeigt unterdessen der Controller 270 des zweiten Endgeräts 200 unter Bezug auf 19 die empfangene Bildschirminformation auf der Anzeigeeinheit 260 an [S115].
  • Insbesondere entschlüsselt der Controller 270 des zweiten Endgeräts 200 die Bildschirminformation, welche die erste Benachrichtigungsinformation enthält, durch den zuvor beschriebenen Prozess, der in 17 bzw. 18 dargestellt ist, und kann anschließend die entschlüsselte Bildschirminformation auf der Anzeigeeinheit 260 anzeigen.
  • Insbesondere kann der Controller 270 des zweiten Endgeräts 200 die Komprimierung der empfangenen Bildschirminformation mit einem Video- oder Einzelbildentschlüsselungsverfahren dekomprimieren.
  • Die Bildschirminformation kann mit einem Videoentschlüsselungsverfahren wie JPEG, PNP, MPEG, H.264 usw. dekomprimiert werden. Die dekomprimierte Bildschirminformation kann auf der Anzeigeeinheit 260 angezeigt werden.
  • Beim Empfangen einer Audioinformation vom ersten Endgerät 100 kann der Controller 270 des zweiten Endgeräts 200 die Komprimierung der empfangenen Audioinformation mit einem Audioentschlüsselungsverfahren dekomprimieren.
  • Die Komprimierung der Audioinformation wird mit einem Audiodekomprimierungsverfahren wie MP3, MP4, SBC, ADPCM, Ogg Vorbis und ähnliches dekomprimiert. Die dekomprimierte Audioinformation wird an den Lautsprecher 240 ausgegeben und die dekomprimierte Bildschirminformation wird auf der Anzeigeeinheit 260 angezeigt.
  • Wenn die erste Benachrichtigungsinformation aus der Bildschirminformation mittels der Eingabeeinheit 220 oder der Anzeigeeinheit in Touchscreen-Ausführung 260 ausgewählt wird [S116], führt der Controller 270 des zweiten Endgeräts 200 in diesem Fall eine Funktion der Inhaltsinformation entsprechend der ersten Benachrichtigungsinformation aus [S117].
  • In der folgenden Beschreibung wird ein Prozess für den Controller 270 des zweiten Endgeräts 200 zum Ausführen einer Funktion von Inhaltsinformationen entsprechend der ersten Benachrichtigungsinformation ausführlich erläutert.
  • Wenn die erste Benachrichtigungsinformation am Bildschirm ausgewählt wird, erzeugt der Controller 270 des zweiten Endgeräts 200 zunächst ein Signal zur Anforderung eines Ausführens eines Inhalts entsprechend der ersten Benachrichtigungsinformation und überträgt anschließend über die Kommunikationseinheit 210 das erzeugte Anforderungssignal an die Kommunikationseinheit 11 des ersten Endgeräts 100.
  • Das Anforderungssignal zum Ausführen von Inhalt kann eine Information zur Angabe eines Anzeigeorts der in der Bildschirminformation ausgewählten ersten Benachrichtigungsinformation umfassen. Insbesondere erhält der Controller 270 den Anzeigeort der in der Bildschirminformation ausgewählten Benachrichtigungsinformation und kann anschließend das Anforderungssignal, das die erhaltene Anzeigeortsinformation der ersten Benachrichtigungsinformation umfasst, zum ersten Endgerät 100 übertragen.
  • Beim Empfangen des Anforderungssignals über die Kommunikationseinheit 110 führt der Controller 180 des ersten Endgeräts 100 die Inhaltsinformation entsprechend der ersten Benachrichtigungsinformation durch Starten einer Anwendung aus und überträgt anschließend eine Ausführungsbildschirminformation der Inhaltsinformation über die Kommunikationseinheit 110 zum zweiten Endgerät 200.
  • Insbesondere erhält der Controller 180 die Ortsinformation der im empfangenen Anforderungssignal enthaltenen ersten Benachrichtigungsinformation. Wenn die erste Benachrichtigungsinformation am erhaltenen Ort auf einem aktuellen Bildschirm vorhanden ist, führt der Controller 180 die Inhaltsinformation entsprechend der ersten Benachrichtigungsinformation aus und kann anschließend die Ausführungsbildschirminformation der Inhaltsinformation zum zweiten Endgerät 200 übertragen.
  • Beim Empfangen der Ausführungsbildschirminformation der Inhaltsinformation vom ersten Endgerät 100 zeigt der Controller 270 des zweiten Endgeräts 200 die empfangene Ausführungsbildschirminformation auf dem Bildschirm der Anzeigeeinheit 260 an.
  • Wenn beispielsweise die in (d) von 20 dargestellte strichcodeförmige erste Benachrichtigungsinformation 10c auf dem zweiten Endgerät 200 ausgewählt wird, durchsucht das erste Endgerät 100 den Speicher 160 nach einem Termin entsprechend der ersten Benachrichtigungsinformation 10c, führt diesen auf dem Bildschirm der Anzeigeeinheit 151 aus und überträgt den Terminbildschirm zum zweiten Endgerät 200.
  • Wenn ferner die in (c) von 21 dargestellte symbolförmige erste Benachrichtigungsinformation 20b auf dem zweiten Endgerät 200 ausgewählt wird, greift das erste Endgerät 100 auf eine Webseite entsprechend der ersten Benachrichtigungsinformation 20b zu und überträgt den Webseitenbildschirm, auf den zugegriffen wird, zum zweiten Endgerät 200.
  • Beim Empfangen des Anforderungssignals über die Kommunikationseinheit 110 führt unterdessen der Controller 180 des ersten Endgeräts 100 nicht die Inhaltsinformation entsprechend der ersten Benachrichtigungsinformation auf dem Bildschirm der Anzeigeeinheit 151 aus, sondern kann direkt eine Inhaltsdatei entsprechend der ersten Benachrichtigungsinformation zum zweiten Endgerät 200 übertragen.
  • Ferner kann der der Controller 180 des ersten Endgeräts 100, während die Bildschirminformation, welche die erste Benachrichtigungsinformation enthält, auf der Anzeigeeinheit 151 angezeigt wird, wenn die erste Benachrichtigungsinformation von einem Benutzer ausgewählt wird, eine Inhaltsdatei entsprechend der ersten Benachrichtigungsinformation zum zweiten Endgerät 200 ohne eine Anforderung durch das zweite Endgerät 200 übertragen.
  • <Dritte Ausführungsform>
  • In der zweiten Ausführungsform der vorliegenden Erfindung kann ein Bildschirm, der die erste Benachrichtigungsinformation enthält, zu einem Bildschirm eines auf dem ersten Endgerät 100 auftretenden Ereignisses ungeachtet der Absicht des Benutzers des zweiten Endgeräts 200 wechseln, während ein Benutzer des zweiten Endgeräts 200 eine Bildschirminformation, welche eine erste Benachrichtigungsinformation enthält, verwendet, wenn ein Ereignis wie ein Anruf, ein Nachrichtenempfang und ähnliches auf einem ersten Endgerät 100 auftritt.
  • Um diesen Nachteil der zweiten Ausführungsform zu vermeiden, wird gemäß einer dritten Ausführungsform der vorliegenden Erfindung, wenn ein Ereignis auf einem ersten Endgerät 100 auftritt, während ein Benutzer eines zweiten Endgeräts 200 die Bildschirminformation verwendet, das Auftreten des Ereignisses des ersten Endgeräts 100 auf einem Bildschirm des zweiten Endgeräts 200 mit einer zweiten Benachrichtigungsinformation zum Benachrichtigen des Auftretens angezeigt. Sobald der Benutzer des zweiten Endgeräts 200 die Verwendung der Bildschirminformation abgeschlossen hat, kann ein ereignisrelevanter Bildschirm angezeigt werden.
  • Ein Vorgangsprozess gemäß einer dritten Ausführungsform der vorliegenden Erfindung wird nachfolgend ausführlich unter Bezug auf 22 erläutert.
  • 22 zeigt ein Signalverarbeitungsdiagramm für einen Datenübertragungsprozess zwischen einem ersten Endgerät und einem zweiten Endgerät gemäß einer dritten Ausführungsform der vorliegenden Erfindung
  • Unter Bezug auf 22 ist ein Vorgangsprozess umfassend Schritt S114 bis S117 identisch mit dem in 19 dargestellten.
  • Wenn ein spezifisches Ereignis auf dem ersten Endgerät 100 auftritt [S118], erzeugt der Controller 180 des ersten Endgeräts 100 eine zweite Benachrichtigungsinformation zur Angabe des auftretenden Ereignisses über die Kommunikationseinheit 110, zeigt die erzeugte zweite Benachrichtigungsinformation auf einem aktuellen Bildschirm an und überträgt anschließend die erzeugte zweite Benachrichtigungsinformation zum zweiten Endgerät 200, statt die Bildschirminformation entsprechend dem auftretenden Ereignis zum zweiten Endgerät 200 zu übertragen [S119]. In diesem Fall kann das Ereignis einen Anruf, einen Nachrichtenempfang, eine Alarmausgabe und ähnliches enthalten.
  • Ferner kann die zweite Benachrichtigungsinformation als ein Text, ein Bild, ein Symbol, eine Animation, ein Wasserzeichen oder ein Strichcode zum Anzeigen des auftretenden Ereignisses erzeugt werden.
  • Der Controller 270 des zweiten Endgeräts 200 zeigt unterdessen die vom ersten Endgerät 100 empfangene zweite Benachrichtigungsinformation auf dem Bildschirm an, der die erste Benachrichtigungsinformation enthält [S120].
  • In diesem Fall kann der Controller 270 des zweiten Endgeräts 200 die zweite Benachrichtigungsinformation anzeigen, indem die zweite Benachrichtigungsinformation innerhalb des Bildschirms, der die erste Benachrichtigungsinformation enthält, zusammengefasst wird oder mit diesem überlappt.
  • Ferner kann der Controller 270 des zweiten Endgeräts 200 die zweite Benachrichtigungsinformation in einem Anzeigebereich des Bildschirms anzeigen, der die erste Benachrichtigungsinformation enthält.
  • Wenn ein Benutzer des zweiten Endgeräts 200 die zweite Benachrichtigungsinformation durch Bedienen der Eingabeeinheit 220 auswählt [S121], erzeugt der Controller 270 in diesem Fall ein Signal zum Anfordern eines ereignisrelevanten Bildschirms entsprechend der ausgewählten zweiten Benachrichtigungsinformation und überträgt anschließend das erzeugte Anforderungssignal für einen ereignisrelevanten Bildschirm an das erste Endgerät 100 über die Kommunikationseinheit 210 [S122].
  • In diesem Fall umfasst das Anforderungssignal für einen ereignisrelevanten Bildschirm die Ortsinformation der auf dem Bildschirm angeordneten zweiten Benachrichtigungsinformation.
  • Insbesondere erhält der Controller 270 den Ort der auf dem Bildschirm ausgewählten zweiten Benachrichtigungsinformation und überträgt anschließend ein Anforderungssignal zum ersten Endgerät 100, das die erhaltene Ortsinformation der zweiten Benachrichtigungsinformation umfasst.
  • Sobald das Anforderungssignal für einen ereignisrelevanten Bildschirm vom zweiten Endgerät 200 empfangen wurde, wechselt der Controller 180 des ersten Endgeräts 100 von einem aktuellen Bildschirm des Anzeigemoduls 151 zum für das auftretende Ereignis relevanten Bildschirm und überträgt anschließend die ereignisrelevante Bildschirminformation zum zweiten Endgerät 200 [S123].
  • Insbesondere bezieht der Controller 180 die Ortsinformation der im empfangenen Anforderungssignal enthaltenen zweiten Benachrichtigungsinformation. Wenn die zweite Benachrichtigungsinformation am erhaltenen Ort auf dem aktuellen Bildschirm vorhanden ist, wechselt der Controller 180 vom aktuellen Bildschirm zu einem Ereignisbildschirm entsprechend der zweiten Benachrichtigungsinformation und überträgt anschließend die Information des Wechselns zum Ereignisbildschirm zum zweiten Endgerät 200.
  • Beim Empfangen der ereignisrelevanten Bildschirminformation vom ersten Endgerät 100 wechselt der Controller 270 des zweiten Endgeräts 200 vom Bildschirm, der die erste Benachrichtigungsinformation enthält, zum empfangenen ereignisrelevanten Bildschirm [S124].
  • Wenn das Ereignis abgeschlossen ist, überträgt ferner der Controller 180 des ersten Endgeräts 100 die Bildschirminformation vor dem Auftreten des Ereignisses über die Kommunikationseinheit 110 zum zweiten Endgerät 200. Anschließend kann das zweite Endgerät 200 vom ereignisrelevanten Bildschirm zum Bildschirm vor dem Auftreten des Ereignisses zurückkehren.
  • Die Vorgänge der Schritte S118 bis S124 werden nachfolgend ausführlich unter Bezug auf 23 und 24 erläutert.
  • 23 und 24 zeigen Diagramme von Bildschirmkonfigurationen zum Erläutern eines Prozesses zum Erzeugen und Anzeigen einer zweiten Benachrichtigungsinformation für ein erstes Endgerät zum Melden des Auftretens eines Ereignisses gemäß einer dritten Ausführungsform der vorliegenden Erfindung.
  • Zunächst zeigt (a) von 23, dass ein im Schritt S118 auftretendes Ereignis ein Anrufereignis 30 ist.
  • Wenn das Anrufereignis 30 auftritt, erzeugt der Controller 180 des ersten Endgeräts 100 eine zweite Benachrichtigungsinformation in Symbolform 30a zum Anzeigen des Anrufereignisses 30 und überträgt anschließend die erzeugte zweite Benachrichtigungsinformation in Symbolform 30a zum zweiten Endgerät 200, wie in (b) von 23 dargestellt.
  • Während der Bildschirm angezeigt wird, der die erste Benachrichtigungsinformation 10a enthält, zeigt das zweite Endgerät 200 die empfangene Benachrichtigungsinformation 30a auf dem Bildschirm an, wenn die zweite Benachrichtigungsinformation 30a zur Angabe des Anrufereignisses 30 vom ersten Endgerät 100 empfangen wird.
  • Falls die zweite Benachrichtigungsinformation 30a über die Eingabeeinheit 220 ausgewählt wird, erzeugt der Controller 270 des zweiten Endgeräts 200 ein Signal zum Anfordern eines für das Anrufereignis 30 relevanten Bildschirms entsprechend der zweiten Benachrichtigungsinformation 30a und überträgt anschließend das erzeugte Anforderungssignal über die Kommunikationseinheit 210 zum ersten Endgerät 100.
  • Sobald das Anforderungssignal vom zweiten Endgerät 200 empfangen wurde, wechselt der Controller 180 des ersten Endgeräts 100 von einem aktuellen Bildschirm der Anzeigeeinheit 151 zum für das Anrufereignis 30 relevanten Bildschirm und überträgt anschließend die für das Anrufereignis 30 relevante Bildschirminformation zum zweiten Endgerät 200.
  • Beim Empfangen der für das Anrufereignis 30 relevanten Bildschirminformation über die Kommunikationseinheit 210 wechselt der Controller 270 des zweiten Endgeräts 200 vom Bildschirm, der die auf der Anzeigeeinheit 260 angezeigte erste Benachrichtigungsinformation 10b enthält, wie in (b) von 23 dargestellt, zum anrufereignisrelevanten Bildschirm 30b, wie in (c) von 23 dargestellt.
  • Ferner zeigt (a) von 24, dass das im Schritt S118 auftretende Ereignis ein Nachrichtenempfangsereignis 40 ist.
  • Wenn das Nachrichtenempfangsereignis 40 auftritt, erzeugt der Controller 180 des ersten Endgeräts 100 eine zweite Benachrichtigungsinformation in Symbolform 40a zum Anzeigen des Nachrichtenempfangsereignisses 40 und kann anschließend die erzeugte zweite Benachrichtigungsinformation in Symbolform 40a, wie in (b) von 24 dargestellt, zum zweiten Endgerät 200 übertragen.
  • Während der Bildschirm, der die erste Benachrichtigungsinformation 20a enthält, angezeigt wird, wenn die zweite Benachrichtigungsinformation 40a zur Angabe des Nachrichtenempfangsereignisses 40 vom ersten Endgerät 100 empfangen wird, zeigt das zweite Endgerät 200 die empfangene Benachrichtigungsinformation 40a auf dem Bildschirm an, der die erste Benachrichtigungsinformation 20a enthält.
  • Falls die zweite Benachrichtigungsinformation 40a über die Eingabeeinheit 220 ausgewählt wird, erzeugt der Controller 270 des zweiten Endgeräts 200 ein Signal zum Anfordern eines für das Nachrichtenempfangsereignis 40 relevanten Bildschirms entsprechend der zweiten Benachrichtigungsinformation 40a und überträgt anschließend das erzeugte nachrichtenempfangsereignisrelevante Anforderungssignal über die Kommunikationseinheit 210 zum ersten Endgerät 100.
  • Sobald das Anforderungssignal für den nachrichtenempfangsereignisrelevanten Bildschirm vom zweiten Endgerät 200 empfangen wurde, wechselt der Controller 180 des ersten Endgeräts 100 von einem aktuellen Bildschirm der Anzeigeeinheit 151 zum für das Nachrichtenempfangsereignis 40 relevanten Bildschirm und überträgt anschließend die für das Nachrichtenempfangsereignis 40 relevante Bildschirminformation zum zweiten Endgerät 200.
  • Beim Empfangen der für das Nachrichtenempfangsereignis 40 relevanten Bildschirminformation über die Kommunikationseinheit 210 wechselt der Controller 270 des zweiten Endgeräts 200 vom Bildschirm, der die auf der Anzeigeeinheit 260 angezeigte erste Benachrichtigungsinformation 20a enthält, wie in (b) von 24 dargestellt, zum Nachrichtenempfangsereignisrelevanten Bildschirm 40b, wie in (c) von 24 dargestellt.
  • <Vierte Ausführungsform>
  • Wenn eine Vielzahl von homogenen oder heterogenen Inhaltsinformationen auf einem Bildschirm eines ersten Endgeräts 100 vorhanden ist, besteht die Aufgabe einer vierten Ausführungsform der vorliegenden Erfindung darin, eine Funktion bereitzustellen, die es einem zweiten Endgerät 200 ermöglicht, jede der Inhaltsinformationen in Funktion zu setzen.
  • 25 zeigt ein Signalverarbeitungsdiagramm für einen Prozess für ein zweites Endgerät zum Zugriff auf homogene Inhaltsinformationen eines ersten Endgeräts gemäß einer vierten Ausführungsform der vorliegenden Erfindung.
  • Ferner zeigt 26 ein Diagramm einer Bildschirmkonfiguration eines Prozesses für ein zweites Endgerät zum Zugriff auf homogene Inhaltsinformationen eines ersten Endgeräts gemäß einer vierten Ausführungsform der vorliegenden Erfindung.
  • Wenn eine erste Inhaltsinformation 51a und eine zweite Inhaltsinformation 52a, die homogen sind, auf einem anzuzeigenden Bildschirm vorhanden sind, erzeugt der Controller 180 des ersten Endgeräts 100 unter Bezug auf 25 und 26 eine erste Benachrichtigungsinformation 51b zur Angabe der homogenen ersten Inhaltsinformation 51a und eine zweite Benachrichtigungsinformation 52b zur Angabe der homogenen zweiten Inhaltsinformation 52a und überträgt anschließend die erzeugte erste Benachrichtigungsinformation 51b und die zweite Benachrichtigungsinformation 52b zum zweiten Endgerät 200, indem die anzuzeigende Bildschirminformation die erzeugte erste Benachrichtigungsinformation 51b und die zweite Benachrichtigungsinformation 52b enthält [S211] [(a) von 26].
  • In (a) von 26 ist dargestellt, dass homogene erste Inhaltsinformation 51a und zweite Inhaltsinformation 52a per Internet zugreifbare Webseitenadressen sind. Ferner sind die erste Benachrichtigungsinformation 51b und die zweite Benachrichtigungsinformation 52b zum Anzeigen der Webseitenadressen jeweils als Symbole dargestellt.
  • Die vorliegende Erfindung schränkt jedoch die Arten der ersten Inhaltsinformation 51a und zweiten Inhaltsinformation 52a und die Formen (bzw. Darstellung) der ersten Benachrichtigungsinformation 51b und zweiten Benachrichtigungsinformation 52b nicht ein.
  • Der Controller 270 des zweiten Endgeräts 200 zeigt die Bildschirminformation, welche die vom ersten Endgerät 100 über die Kommunikationseinheit 210 empfangene erste Benachrichtigungsinformation 51b und zweite Benachrichtigungsinformation 52b enthält, auf der Anzeigeeinheit 260 an [S212] [(b) von 26].
  • Wenn ein Benutzer des zweiten Endgeräts 200 die erste Benachrichtigungsinformation 51b aus der ersten Benachrichtigungsinformation 51b und zweiten Benachrichtigungsinformation 52b auswählt [S213], zeigt der Controller 270 des zweiten Endgeräts 200 die Menüs 53a, 53b, 53c und 53d zum Ausführen von Funktionen der ersten Inhaltsinformation 51a entsprechend der ausgewählten ersten Benachrichtigungsinformation 51b, wie in (c) von 26 dargestellt, auf der Anzeigeeinheit 260 an [S214].
  • Wenn das erste Menü 53a („e1 Zugriff”) aus den in (c) von 26 dargestellten Menüs 53a, 53b, 53c und 53d ausgewählt wird [S215], erzeugt der Controller 270 des zweiten Endgeräts 200 ein Signal für eine Anforderung eines Funktionsausführungsbildschirms der ersten Inhaltsinformation 51a entsprechend dem ersten Menü („e1 Zugriff”) und überträgt anschließend das erzeugte Anforderungssignal über die Kommunikationseinheit 210 zum ersten Endgerät 100 [S216].
  • Anschließend steuert der Controller 180 des ersten Endgeräts 100 die Kommunikationseinheit 110 an, um auf die erste Inhaltsinformation 51a zuzugreifen, beispielsweise eine Webseitenadresse wie „http://www.abc.com”, und überträgt anschließend die Bildschirminformation 54 der Webseite, auf die zugegriffen wird, zum zweiten Endgerät 200 [S217]. Der Controller 270 des zweiten Endgeräts 200 zeigt dann die vom ersten Endgerät 100 empfangene Webseitenbildschirminformation 54 auf der Anzeigeeinheit 260 an [S218].
  • Während die Webseitenbildschirminformation 54 im Schritt S218 angezeigt wird, wenn das zweite Menü 53b („e1 Zugriff trennen”) aus den in (c) von 26 dargestellten Menüs 53a, 53b, 53c und 53d ausgewählt wird, stoppt der Controller 270 des zweiten Endgeräts 200 das Anzeigen der Webseitenbildschirminformation 54 und kann anschließend zu einem aktuellen Bildschirm entsprechend (b) von 26 wechseln.
  • Während die Webseitenbildschirminformation 54 im Schritt S218 angezeigt wird, wenn das dritte Menü 53c („Speichern”) aus den in (c) von 26 dargestellten Menüs 53a, 53b, 53c und 53d ausgewählt wird, kann der Controller 270 des zweiten Endgeräts 200 die Webseitenbildschirminformation 54 so steuern, dass sie als ein Bild im Speicher 240 gespeichert wird.
  • 27 zeigt ein Signalverarbeitungsdiagramm für einen Prozess für ein zweites Endgerät zum Zugriff auf heterogene Inhaltsinformationen eines ersten Endgeräts gemäß einer vierten Ausführungsform der vorliegenden Erfindung.
  • 28 zeigt ein Diagramm einer Bildschirmkonfiguration eines Prozesses für ein zweites Endgerät zum Zugriff auf heterogene Inhaltsinformationen eines ersten Endgeräts gemäß einer vierten Ausführungsform der vorliegenden Erfindung.
  • Wenn die erste bis dritte Inhaltsinformation 61a, 62a und 63a, die heterogen sind (das heißt unterschiedlich in der Art), auf einem Bildschirm zum Anzeigen vorhanden sind, erzeugt der Controller 180 des ersten Endgeräts 100 unter Bezug auf 27 und 28 die erste bis dritte Benachrichtigungsinformation 61b, 62b und 63b zum Benachrichtigen der heterogenen ersten bis dritten Inhaltsinformation 61a, 62a und 63a und überträgt diese anschließend zum zweiten Endgerät 200, indem die erste bis dritte Benachrichtigungsinformation 61b, 62b und 63b in die anzuzeigende Bildschirminformation aufgenommen wird [S301] [(a) von 28].
  • In (a) von 28 ist dargestellt, dass die heterogene erste Inhaltsinformation 61a eine Bilddatei ist, die zweite Inhaltsinformation 62a eine Dokumentdatei ist und die dritte Inhaltsinformation 62c ein Telefonbuch ist. Ferner weisen die erste bis dritte Benachrichtigungsinformation 61b, 62b und 63b, die jeweils die erste bis dritte Inhaltsinformation 61a, 62a und 63a angeben, jeweils eine Symbolform auf.
  • Die vorliegende Erfindung schränkt jedoch die Arten der ersten bis dritten Inhaltsinformation 61a, 62a und 63a und die Formen (bzw. Darstellung) der ersten bis dritten Benachrichtigungsinformation 61b, 62b und 63b nicht ein.
  • Der Controller 270 des zweiten Endgeräts 200 zeigt die Bildschirminformation, welche die vom ersten Endgerät 100 über die Kommunikationseinheit 210 empfangene erste bis dritte Benachrichtigungsinformation 61b, 62b und 63b enthält, auf der Anzeigeeinheit 260 an [S302] [(b) von 28].
  • In diesem Fall zeigt der Controller 270 des zweiten Endgeräts 200 Menüs 64 zum Ausführen von Funktionen der ersten bis dritten Inhaltsinformation 61a, 62a und 63a entsprechend der ersten bis dritten Benachrichtigungsinformation 61b, 62b und 63b, wie in (b) von 28 dargestellt, auf der Anzeigeeinheit 260 an [S303].
  • Wenn ein Benutzer des zweiten Endgeräts 200 das dritte Menü 64c („Telefonbuch anzeigen”) aus den Menüs 64 auswählt [S304], erzeugt der Controller 270 des zweiten Endgeräts 200 ein Signal zum Anfordern eines Funktionsausführungsbildschirms des dritten Menüs 64c („Telefonbuch anzeigen”) und überträgt anschließend das erzeugte Anforderungssignal über die Kommunikationseinheit 210 zum ersten Endgerät 100 [S305].
  • Anschließend führt der Controller 180 des ersten Endgeräts 100 die dritte Inhaltsinformation 63a, das heißt „Telefonbuch”, aus und überträgt anschließend die Bildschirminformation 63c des ausgeführten Telefonbuchs 63a zum zweiten Endgerät 200 [S306].
  • Der Controller 270 des zweiten Endgeräts 200 zeigt dann die vom ersten Endgerät 100 empfangene Telefonbuchbildschirminformation 63c auf der Anzeigeeinheit 260 an [S307].
  • Wenn die Telefonbuchbildschirminformation 63c im Schritt S307 angezeigt wird, kann in diesem Fall der Controller 270 des zweiten Endgeräts 200 die Untermenüs 64c 1, 64c 2, 64c 3 und 64c 4 für die Funktionsausführung des „Telefonbuchs”, wie in (c) von 28 dargestellt, in einem Bereich der Telefonbuchbildschirminformation 63c anzeigen.
  • Nachdem der Benutzer des zweiten Endgeräts 200 die Kontaktinformation („1. TOM”) in der Telefonbuchbildschirminformation 63c ausgewählt hat, wenn der Benutzer des zweiten Endgeräts 200 das erste Untermenü 64c 1 („Anruf verbinden”) aus den Untermenüs 64c 1, 64c 2, 64c 3 und 64c 4 auswählt, erzeugt der Controller 270 des zweiten Endgeräts 200 ein Signal zur Angabe, dass die Kontaktinformation („1. TOM”) und das erste Untermenü 64c 1 („Anruf verbinden”) ausgewählt sind, und überträgt anschließend das erzeugte Signal über die Kommunikationseinheit 210 zum ersten Endgerät 100.
  • Der Controller 180 des ersten Endgeräts 100 verbindet dann einen Anruf zu einer Telefonnummer der ausgewählten Kontaktinformation („1. TOM”) durch Steuern der Kommunikationseinheit 110 entsprechend dem vom zweiten Endgerät empfangenen Signal und überträgt anschließend den Anruf-verbunden-Statusbildschirm zum zweiten Endgerät 200.
  • Nachdem der Benutzer des zweiten Endgeräts 200 die Kontaktinformation („1. TOM”) in der Telefonbuchbildschirminformation 63c ausgewählt hat, wenn der Benutzer des zweiten Endgeräts 200 das zweite Untermenü 64c 2 („Nachricht senden”) aus den Untermenüs 64c 1, 64c 2, 64c 3 und 64c 4 auswählt, erzeugt ferner der Controller 270 des zweiten Endgeräts 200 ein Signal zur Angabe, dass die Kontaktinformation („1. TOM”) und das zweite Untermenü 64c 2 („Nachricht senden”) ausgewählt sind, und überträgt anschließend das erzeugte Signal über die Kommunikationseinheit 210 zum ersten Endgerät 100.
  • Der Controller 180 des ersten Endgeräts 100 überträgt dann ein Eingabefenster für eine an die Telefonnummer der ausgewählten Kontaktinformation („1. TOM”) zu sendende Nachricht zum zweiten Endgerät 200 durch Steuern der Kommunikationseinheit 110 entsprechend dem vom zweiten Endgerät 200 empfangenen Signal.
  • Das zweite Endgerät 200 zeigt das vom ersten Endgerät 100 empfangene Nachrichteneingabefenster an und überträgt anschließend einen im Nachrichteneingabefenster geschriebenen Nachrichteninhalt zum ersten Endgerät 100.
  • Anschließend überträgt der Controller 180 des ersten Endgeräts 100 den vom zweiten Endgerät 200 empfangenen Nachrichteninhalt zur ausgewählten Kontaktinformation („1. TOM”).
  • Ferner wählt das zweite Endgerät 200 das dritte Untermenü 64c 3 oder das vierte Untermenü 64c 4 aus den Untermenüs 64c 1, 64c 2, 64c 3 und 64c 4 aus und kann anschließend Telefonnummern und ähnliches im entsprechenden Telefonbuch bearbeiten oder löschen.
  • <Fünfte Ausführungsform>
  • Die Aufgabe der fünften Ausführungsform der vorliegenden Erfindung besteht im Bereitstellen einer Funktion zum automatischen Herstellen einer Kommunikationsverbindung ohne eine separate Bedienung eines Benutzers, wenn eine Kommunikationsverbindung zwischen einem ersten Endgerät und einem zweiten Endgerät hergestellt ist.
  • Insbesondere betrifft eine fünfte Ausführungsform der vorliegenden Erfindung einen Prozess zum automatischen Herstellen einer Kommunikationsverbindung per Nahbereich-Kommunikation oder RFID.
  • In der folgenden Beschreibung einer fünften Ausführungsform der vorliegenden Erfindung sei angenommen, dass ein erstes Endgerät ein Endgerät des mobilen Endgerättyps ist, dass ein zweites Endgerät ein Endgerät des PC-Typs ist und dass das zweite Endgerät automatisch nach dem ersten Endgerät sucht, um eine Kommunikationsverbindung herzustellen.
  • Ein Prozess zum automatischen Herstellen einer Kommunikationsverbindung per Nahbereich-Kommunikation gemäß der vorliegenden Erfindung wird nachfolgend unter Bezug auf 29 und 30 erläutert.
  • 29 zeigt ein Fließschema eines Prozesses für ein zweites Endgerät zum automatischen Herstellen einer Kommunikationsverbindung mit einem ersten Endgerät per Nahbereich-Kommunikation gemäß einer fünften Ausführungsform der vorliegenden Erfindung.
  • Ferner zeigt 30 ein Diagramm einer Bildschirmkonfiguration eines Prozesses für ein zweites Endgerät zum Festlegen eines Zeitraums für das regelmäßige Suchen eines ersten Endgeräts gemäß einer fünften Ausführungsform der vorliegenden Erfindung.
  • Wenn ein Benutzer eine Funktion zum automatischen Suchen nach dem ersten Endgerät 100 im Umkreis des zweiten Endgeräts 200 und Herstellen einer Kommunikationsverbindung auswählt, zeigt der Controller 270 des zweiten Endgeräts 200 unter Bezug auf 29 und 30 eine Zugriffsauthentifizierungs-Geräteinformationsliste 71 an, die zuvor dem Speicher 230 auf der Anzeigeeinheit 260 zugeführt wurde [S401] [(a) von 30].
  • In diesem Fall betrifft die Zugriffsauthentifizierungs-Geräteinformationsliste 71 eine Geräteinformationsliste externer Geräte, die mit dem zweiten Endgerät 200 zur Kommunikation durch Authentifizierungsprozesse verbunden wurden.
  • Wenn das erste Endgerät (TX0015) 100 zum automatischen Zugriff aus der Zugriffsauthentifizierungs-Geräteinformationsliste 71 ausgewählt wurde [S402] [(a) von 30], zeigt der Controller 270 des zweiten Endgeräts 200 ein Fenster 72 zum Festlegen eines Zeitraums für die Suche nach dem ausgewählten ersten Endgerät (TX0015) auf der Anzeigeeinheit an [S403] [(b) von 30].
  • Wenn ein Benutzer den Zeitraum (5 Minuten) im Fenster zum Festlegen des Zeitraums 72 festlegt [S404] [(b) von 30], versucht der Controller 270 des zweiten Endgeräts 200 eine Suche nach und einen Zugriff auf das erste Endgerät (TX0015) 100 während des festgelegten Zeitraums (5 Minuten) durch Steuern der Kommunikationseinheit 210 [S405] [(c) von 30].
  • Wenn der Zugriff auf das erste Endgerät (TX0015) 100 erfolgreich ist [S406], stellt der Controller 270 des zweiten Endgeräts 200 eine Kommunikationsverbindung mit dem ersten Endgerät (TX0015) 100 her. Der Controller 270 des zweiten Endgeräts 200 empfängt die Bildschirminformation der ersten bis vierten Ausführungsform vom ersten Endgerät (TX0015) 100 und zeigt anschließend die empfangene Bildschirminformation an [S407].
  • Wenn hingegen der Zugriff auf das erste Endgerät (TX0015) 100 erfolglos ist, bleibt der Controller 270 des zweiten Endgeräts 200 während des festgelegten Zeitraums auf Standby und versucht dann den Zugriff erneut [S408].
  • 31 zeigt ein Diagramm einer Bildschirmkonfiguration eines Prozesses für ein zweites Endgerät zum Zurücksetzen eines Zeitraums für das regelmäßige Suchen eines ersten Endgeräts gemäß einer fünften Ausführungsform der vorliegenden Erfindung.
  • Wenn die Kommunikationsverbindung mit dem ersten Endgerät (TX0015) 100 durch den in 29 und 30 dargestellten Prozess hergestellt ist, empfängt das zweite Endgerät 200 unter Bezug auf 31 die Bildschirminformation gemäß der ersten bis dritten Ausführungsform vom ersten Endgerät (TX0015) 100 und zeigt anschließend die empfangene Bildschirminformation an. Ferner zeigt das zweite Endgerät 200 eine Benachrichtigungsinformation 73 zur Angabe des in 29 und 30 festgelegten Zeitraums in der Bildschirminformation an [(a) von 31].
  • Wenn ein Benutzer die Benachrichtigungsinformation 73 auswählt, erkennt der Controller 270 des zweiten Endgeräts 200, dass der in 29 und 30 festgelegte Zeitraum geändert werden soll, und zeigt anschließend erneut das in (b) von 30 dargestellte Fenster zum Festlegen des Zeitraums 72 an [(b) von 31].
  • Wenn ein Benutzer den Zeitraum (10 Minuten) im Fenster zum Festlegen des Zeitraums 72 ändert, versucht der Controller 270 des zweiten Endgeräts 200 eine Suche nach und einen Zugriff auf das erste Endgerät (TX0015) 100 während des geänderten Zeitraums (10 Minuten) durch Steuern der Kommunikationseinheit 210 [(c) von 31].
  • 32 zeigt ein Fließschema eines Prozesses für ein zweites Endgerät zum automatischen Herstellen einer Kommunikationsverbindung mit einem ersten Endgerät per RFID gemäß einer fünften Ausführungsform der vorliegenden Erfindung.
  • Ferner zeigt 33 ein Diagramm einer Bildschirmkonfiguration eines Prozesses für ein zweites Endgerät zum automatischen Herstellen einer Kommunikationsverbindung mit einem ersten Endgerät per RFID gemäß einer fünften Ausführungsform der vorliegenden Erfindung.
  • Unter Bezug auf 32 und 33 startet der Controller 270 des zweiten Endgeräts 200 das RFID-Lesegerät 271 für das Herstellen der Kommunikationsverbindung mit dem ersten Endgerät [S501] und ermittelt anschließend mittels des RFID-Lesegeräts 271, ob sich das erste Endgerät 100 mit dem RFID-Tag 182 im Umkreis des zweiten Endgeräts 200 befindet [S502].
  • Wenn sich das erste Endgerät 100 mit dem RFID-Tag 182 im Umkreis des zweiten Endgeräts 200 befindet, liest der Controller 270 des zweiten Endgeräts 200 die im RFID-Tag 182 gespeicherte Geräteinformation des ersten Endgeräts 100 mit Hilfe des RFID-Lesegeräts 271 [S503].
  • Der Controller 270 prüft, ob die mit Hilfe des RFID-Lesegeräts 271 gelesene Geräteinformation des ersten Endgeräts 100 in der im Speicher 230 gespeicherten Zugriffsauthentifizierungs-Geräteinformationsliste vorhanden ist [S504]. Wenn die entsprechende Information in der Liste vorhanden ist [S505], stellt der Controller 270 des zweiten Endgeräts 200 eine Kommunikationsverbindung mit dem ersten Endgerät 100 mit Hilfe der gelesenen Geräteinformation des ersten Endgeräts 100 her [S506].
  • <Sechste Ausführungsform>
  • Die Aufgabe einer sechsten Ausführungsform der vorliegenden Erfindung besteht im Bereitstellen einer Funktion zum Verlängern einer Verwendungszeit eines Endgeräts durch Vermeiden von unnötigem Stromverbrauch. Insbesondere wird, während eine Kommunikationsverbindung zwischen einem ersten Endgerät und einem zweiten Endgerät hergestellt ist, wenn ein Betriebszustand einer Bildschirm-, Audio-, Tasteneingabe oder ähnliches in einem vorgegebenen Zeitraum nicht variiert, die Kommunikationsverbindung zwischen dem ersten Endgerät und dem zweiten Endgerät getrennt.
  • In der folgenden Beschreibung einer sechsten Ausführungsform der vorliegenden Erfindung sei angenommen, dass ein erstes Endgerät ein Endgerät des mobilen Endgerättyps ist, dass ein zweites Endgerät ein Endgerät des PC-Typs ist und dass das zweite Endgerät automatisch nach dem ersten Endgerät sucht, um eine Kommunikationsverbindung herzustellen.
  • Nachfolgend wird ein Prozess für ein zweites Endgerät zum Durchführen eines Vorgangs zum Trennen/Wiederherstellen einer Kommunikationsverbindung unter Bezug auf 34 bis 38 erläutert.
  • 34 zeigt ein Fließschema eines Prozesses für ein zweites Endgerät zum Durchführen von Vorgängen zum Trennen und Wiederherstellen einer Kommunikationsverbindung mit einem ersten Endgerät gemäß einer sechsten Ausführungsform der vorliegenden Erfindung.
  • 35 zeigt ein Diagramm einer Bildschirmkonfiguration eines Prozesses für ein zweites Endgerät zum Durchführen eines Trennens und Wiederherstellens einer Kommunikationsverbindung mit einem ersten Endgerät gemäß einer sechsten Ausführungsform der vorliegenden Erfindung.
  • 36 zeigt ein Diagramm einer Bildschirmkonfiguration eines Prozesses für ein zweites Endgerät zum Durchführen eines Trennens einer Kommunikationsverbindung mit einem ersten Endgerät gemäß einer sechsten Ausführungsform der vorliegenden Erfindung.
  • Und 37 und 38 zeigen Diagramme von Bildschirmkonfigurationen für einen Prozess für ein zweites Endgerät zum Informieren eines Benutzers über den Status einer getrennten und wiederhergestellten Kommunikationsverbindung mit einem ersten Endgerät gemäß einer sechsten Ausführungsform der vorliegenden Erfindung.
  • Wenn eine Kommunikationsverbindung mit dem ersten Endgerät 100 gemäß der vierten Ausführungsform hergestellt ist [S601], empfängt der Controller 270 des zweiten Endgeräts 200 unter Bezug auf 34 bis 38 eine Bildschirminformation 510 enthaltende Daten über die erste Kommunikationseinheit 210 vom ersten Endgerät und zeigt anschließend die empfangene Bildschirminformation 510 auf einem Bildschirm der Anzeigeeinheit 260 an [S602] [(a) von 35].
  • In diesem Fall können die vom ersten Endgerät 100 empfangenen Daten eine Audioinformation und ein Tastensignal, die am ersten Endgerät 100 eingegeben wurden, sowie die Bildschirminformation 510 enthalten.
  • Anschließend ermittelt der Controller 270 des zweiten Endgeräts 200, ob sich der Betriebszustand des zweiten Endgeräts 200 während einer vorgegebenen Dauer ändert [S603].
  • Insbesondere ermittelt der Controller 270 des zweiten Endgeräts 200, ob der Betriebszustand des zweiten Endgeräts 200 in einem inaktiven Zustand bleibt.
  • Hier bezeichnet der inaktive Zustand einen Zustand, in dem das zweite Endgerät 200 keine neue Bildschirminformation oder neue Audioinformation vom ersten Endgerät 100 erhält, oder einen Zustand, in dem das zweite Endgerät 200 kein Tastensignal zur Fernsteuerung eines Vorgangs des ersten Endgeräts 100 zum ersten Endgerät 100 überträgt.
  • Ferner ist die Dauer zum Ermitteln der Betriebszustandsänderung von einem Benutzer unterschiedlich festlegbar. Insbesondere stellt der Controller 270 einem Benutzer ein Menü zum unterschiedlichen Festlegen der vorgegebenen Dauer bereit. Der Benutzer kann dann die Dauer mit diesem Menü ändern.
  • Wenn sich der Betriebszustand des zweiten Endgeräts 200 während der vorgegebenen Dauer nicht ändert [S604], erkennt der Controller 270 unterdessen, dass der Benutzer die Fernsteuerungskommunikation mit dem ersten Endgerät 100 gemäß der vorliegenden Erfindung nicht nutzt und trennt die Kommunikationsverbindung mit dem ersten Endgerät 100 durch Steuern der Kommunikationseinheit 210 [S605] [(b) von 35].
  • Insbesondere wenn keine neue Bildschirminformation oder neue Audioinformation während der vorgegebenen Dauer vom ersten Endgerät 100 empfangen wird oder kein Tastensignal zur Fernsteuerung des ersten Endgeräts 100 übertragen wird, trennt der Controller 270 die Kommunikationsverbindung mit dem ersten Endgerät 100 durch Steuern der Kommunikationseinheit 210.
  • Wenn sich der Betriebszustand des zweiten Endgeräts 200 während der vorgegebenen Dauer nicht ändert, wie in 36 dargestellt, zeigt der Controller 270 ein Auswahlfenster 82 zum Auswählen eines Trennens einer Kommunikationsverbindung mit dem ersten Endgerät 100 auf der Anzeigeeinheit 260 an [(a) von 36]. Wenn im Auswahlfenster 82 das Trennen der Kommunikationsverbindung mit dem ersten Endgerät 100 ausgewählt wird, kann der Controller 270 die Kommunikationsverbindung mit dem ersten Endgerät trennen [(b) von 36].
  • Wenn die Kommunikationsverbindung mit dem ersten Endgerät 100 getrennt ist, wie in (a) von 37 dargestellt, kann der Controller 270 Audiodaten 82 zum Melden der getrennten Kommunikationsverbindung an den Lautsprecher 240 ausgeben.
  • Wenn die Kommunikationsverbindung mit dem ersten Endgerät 100 getrennt ist, wie in (a) von 38 dargestellt, kann der Controller 270 eine Benachrichtigungsinformation 85 zum Melden der getrennten Kommunikationsverbindung auf dem Bildschirm der Anzeigeeinheit 260 anzeigen.
  • In diesem Fall kann der Controller 270, wenn ein Benutzer die Benachrichtigungsinformation 85 auswählt, wie in (a) von 38 dargestellt, die Kommunikationsverbindung mit dem ersten Endgerät 100 durch Steuern der Kommunikationseinheit 210 wiederherstellen, wie in (b) von 38 dargestellt.
  • Wenn die Kommunikationsverbindung mit dem ersten Endgerät 100 getrennt ist, kann der Benutzer das erste Endgerät 100 nicht fernsteuern. Der Controller 270 reduziert somit zum Stromsparen beim zweiten Endgerät 200 die Bildschirmhelligkeit der Anzeigeeinheit 260 auf ein Niveau, das unter einem vorgegebenen Helligkeitsniveau liegt, oder kann die Anzeigeeinheit 260 ausschalten.
  • Während unterdessen die Kommunikationsverbindung mit dem ersten Endgerät 100 getrennt ist, ermittelt der Controller 270 erneut, ob sich der Betriebszustand des zweiten Endgeräts 200 ändert [S606].
  • Wenn sich der Betriebszustand des zweiten Endgeräts 200 ändert [S607], während die Kommunikationsverbindung mit dem ersten Endgerät 100 getrennt ist, stellt der Controller 270 die Kommunikationsverbindung mit dem ersten Endgerät 100 wieder her, indem er eine Anforderung für ein Wiederherstellen der Kommunikationsverbindung über die Kommunikationseinheit 210 beim ersten Endgerät 100 stellt [S608] [(c) von 35].
  • Insbesondere wenn eine neue Bildschirminformation oder neue Audioinformation vom ersten Endgerät 100 empfangen wird oder ein Tastensignal zur Fernsteuerung des ersten Endgeräts 100 übertragen wird, während die Kommunikationsverbindung mit dem ersten Endgerät 100 getrennt ist, stellt der Controller 270 die Kommunikationsverbindung mit dem ersten Endgerät 100 durch Steuern der Kommunikationseinheit 210 wieder her.
  • In diesem Fall kann unter Bezug auf (b) von 37, wenn die Kommunikationsverbindung mit dem ersten Endgerät 100 wiederhergestellt ist, der Controller Audiodaten 84 zum Melden der wiederhergestellten Kommunikationsverbindung an den Lautsprecher 240 ausgeben.
  • Wenn die Kommunikationsverbindung mit dem ersten Endgerät 100 wiederhergestellt ist, wie in (b) von 38 dargestellt, kann der Controller 270 eine Benachrichtigungsinformation 86 zum Melden der wiederhergestellten Kommunikationsverbindung auf dem Bildschirm der Anzeigeeinheit 260 anzeigen.
  • Wenn die Kommunikationsverbindung mit dem ersten Endgerät 100 wiederhergestellt ist, startet der Controller 270 die Anzeigeeinheit 260 oder stellt die reduzierte Bildschirmhelligkeit der Anzeigeeinheit 260 wieder auf ein ursprüngliches Helligkeitsniveau ein.
  • 39 zeigt ein Fließschema eines Prozesses für ein erstes Endgerät zum Durchführen von Vorgängen zum Trennen und Wiederherstellen einer Kommunikationsverbindung mit einem zweiten Endgerät gemäß einer sechsten Ausführungsform der vorliegenden Erfindung.
  • Wenn eine Kommunikationsverbindung mit dem zweiten Endgerät 200 hergestellt ist [S701], überträgt der Controller 180 des ersten Endgeräts 100 unter Bezug auf 39 eine Bildschirminformation enthaltende Daten über die Kommunikationseinheit 110 zum zweiten Endgerät 200 [S702].
  • Wenn eine Kommunikationsverbindung zwischen dem ersten Endgerät 100 und dem zweiten Endgerät 200 hergestellt ist, ist ein Anzeigebildschirm der Anzeigeeinheit 100 des ersten Endgeräts 100 identisch mit dem der Anzeigeeinheit 250 des zweiten Endgeräts 200 und ein Benutzer des ersten Endgeräts 100 sieht den Anzeigebildschirm des ersten Endgeräts 100 über den Bildschirm der Anzeigeeinheit 260 des zweiten Endgeräts 200.
  • Somit reduziert gemäß der sechsten Ausführungsform der vorliegenden Erfindung, wenn die Kommunikationsverbindung mit dem zweiten Endgerät 200 hergestellt ist, zum Vermeiden eines unnötigen Stromverbrauchs des ersten Endgeräts 100 der Controller 180 des ersten Endgeräts 100 die Bildschirmhelligkeit der Anzeigeeinheit 151 auf ein Niveau, das unter einem vorgegebenen Helligkeitsniveau liegt, oder kann die Anzeigeeinheit 151 ausschalten.
  • Ferner reduziert gemäß der sechsten Ausführungsform der vorliegenden Erfindung, wenn die Kommunikationsverbindung mit dem zweiten Endgerät 200 hergestellt ist, zum Vermeiden eines unnötigen Stromverbrauchs des ersten Endgeräts 100 der Controller 180 des ersten Endgeräts 100 die Helligkeit einer Hintergrundbeleuchtung, welche die Benutzereingabeeinheit 130 beleuchtet, auf ein Niveau, das unter einem vorgegebenen Helligkeitsniveau liegt, oder kann die Hintergrundbeleuchtung ausschalten.
  • Der Controller 180 ermittelt unterdessen, ob sich der Betriebszustand des ersten Endgeräts 100 für eine vorgegebene Dauer bzw. während einer vorgegebenen Dauer ändert [S703].
  • Insbesondere ermittelt der Controller 180 des ersten Endgeräts 100, ob der Betriebszustand des ersten Endgeräts 100 in einem inaktiven Zustand bleibt.
  • Hier bezeichnet der inaktive Zustand einen Zustand, in dem das erste Endgerät 100 keine neue Bildschirminformation oder neue Audioinformation zum ersten Endgerät 200 überträgt, oder einen Zustand, in dem das erste Endgerät 100 kein Tastensignal zur Fernsteuerung eines drahtlosen Kommunikationsvorgangs des ersten Endgeräts 100 vom ersten Endgerät 200 empfängt.
  • Ferner ist die Dauer zum Ermitteln der Betriebszustandsänderung ist von einem Benutzer unterschiedlich festlegbar. Insbesondere stellt der Controller 180 einem Benutzer ein Menü zum unterschiedlichen Festlegen der vorgegebenen Dauer bereit. Der Benutzer kann dann die Dauer mit diesem Menü ändern.
  • Wenn sich der Betriebszustand des ersten Endgeräts 100 für die vorgegebene Dauer bzw. während der vorgegebenen Dauer nicht ändert [S704], erkennt der Controller 180 unterdessen, dass der Benutzer die drahtlose Fernsteuerungskommunikation mit dem zweiten Endgerät 200 gemäß der vorliegenden Erfindung nicht nutzt und trennt die Kommunikationsverbindung mit dem zweiten Endgerät 200 durch Steuern der Kommunikationseinheit 110 [S705].
  • Wenn sich der Betriebszustand des ersten Endgeräts 100 für die vorgegebene Dauer nicht ändert, wie in 36 dargestellt, zeigt der Controller 180 ein Auswahlfenster zum Auswählen eines Trennens einer Kommunikationsverbindung mit dem zweiten Endgerät 200 auf der Anzeigeeinheit 151 an. Wenn im Auswahlfenster das Trennen der Kommunikationsverbindung mit dem zweiten Endgerät 200 ausgewählt wird, kann der Controller 180 die Kommunikationsverbindung mit dem zweiten Endgerät trennen.
  • Wenn die Kommunikationsverbindung mit dem zweiten Endgerät 200 getrennt ist, wie in (a) von 37 dargestellt, kann der Controller 180 Audiodaten zum Melden der getrennten Kommunikationsverbindung an das Audioausgabemodul 152 ausgeben.
  • Wenn die Kommunikationsverbindung mit dem zweiten Endgerät 200 getrennt ist, wie in (a) von 38 dargestellt, kann der Controller 180 eine Benachrichtigungsinformation zum Melden der getrennten Kommunikationsverbindung auf dem Bildschirm der Anzeigeeinheit 151 anzeigen.
  • In diesem Fall kann der Controller 180, wenn ein Benutzer die Benachrichtigungsinformation zum Melden der getrennten Kommunikationsverbindung mit dem zweiten Endgerät 200 auswählt, wie in (b) von 38 dargestellt, die Kommunikationsverbindung mit dem zweiten Endgerät 200 durch Steuern der Kommunikationseinheit 110 wiederherstellen.
  • Während unterdessen die Kommunikationsverbindung mit dem zweiten Endgerät 200 getrennt ist, ermittelt der Controller 180 erneut, ob sich der Betriebszustand des ersten Endgeräts 100 ändert [S706].
  • Insbesondere ermittelt der Controller 180, ob ein Tastensignal zur Steuerung des Betriebs des ersten Endgeräts 100 vom zweiten Endgerät 200 empfangen wird oder ob eine neue Bildschirminformation oder Audioinformation zum zweiten Endgerät 200 zu übertragen ist.
  • Wenn sich der Betriebszustand des ersten Endgeräts 100 ändert [S707], während die Kommunikationsverbindung mit dem ersten Endgerät 200 getrennt ist, stellt der Controller 180 die Kommunikationsverbindung mit dem zweiten Endgerät 200 durch Steuern der Kommunikationseinheit 110 wieder her [S708].
  • Insbesondere stellt der Controller 180 die Kommunikationsverbindung mit der Geräteinformation entsprechend dem zweiten Endgerät 200 in der dem Speicher 160 bereitgestellten Zugriffsauthentifizierungs-Geräteinformationsliste her.
  • Unterdessen kann, unter Bezug auf (b) von 37, wenn die Kommunikationsverbindung mit dem ersten Endgerät 200 wiederhergestellt ist, der Controller 180 Audiodaten zum Melden der wiederhergestellten Kommunikationsverbindung an das Audioausgabemodul 152 ausgeben.
  • Wenn die Kommunikationsverbindung mit dem zweiten Endgerät 200 wiederhergestellt ist, wie in (b) von 38 dargestellt, kann der Controller 180 eine Benachrichtigungsinformation zum Melden der wiederhergestellten Kommunikationsverbindung auf dem Bildschirm der Anzeigeeinheit 151 anzeigen.
  • Wenn die Kommunikationsverbindung mit dem ersten Endgerät 200 wiederhergestellt ist, startet der Controller 180 die Anzeigeeinheit 151 oder die Hintergrundbeleuchtung oder kann die reduzierte Bildschirmhelligkeit der Anzeigeeinheit 260 oder die Helligkeit der Hintergrundbeleuchtung wieder auf das ursprüngliche Helligkeitsniveau einstellen.
  • <Siebte Ausführungsform>
  • Während eine Kommunikationsverbindung zwischen einem ersten Endgerät und einem zweiten Endgerät hergestellt ist, besteht die Aufgabe der siebten Ausführungsform im Bereitstellen einer Funktion zum Übertragen/Empfangen einer in jedem Bildschirm des ersten und zweiten Endgeräts enthaltenen Inhaltsinformation zwischen dem ersten Endgerät und dem zweiten Endgerät und einer Funktion zum Speichern, Ausführen und Bearbeiten der empfangenen Inhaltsinformation.
  • In der folgenden Beschreibung einer siebten Ausführungsform der vorliegenden Erfindung sei angenommen, dass ein erstes Endgerät ein Endgerät des mobilen Endgerättyps und ein zweites Endgerät ein Endgerät des PC-Typs ist.
  • Eine siebte Ausführungsform der vorliegenden Erfindung wird nachfolgend ausführlich unter Bezug auf 40 bis 55 erläutert.
  • Wenn eine Kommunikationsverbindung mit dem ersten Endgerät 100 über die Kommunikationseinheit 210 hergestellt ist [S801], empfängt zunächst der Controller 270 des zweiten Endgeräts 200 unter Bezug auf 40 bis 52 eine Bildschirminformation, die wenigstens eine Inhaltsinformation vom ersten Endgerät 100 enthält, und zeigt anschließend die empfangene Bildschirminformation des ersten Endgeräts auf einem Bildschirm 600 der Anzeigeeinheit 260 an [S802].
  • In diesem Fall unterteilt der Controller 270 des zweiten Endgeräts 200 den Bildschirm 600 der Anzeigeeinheit 260, wie in (a) von 41 dargestellt, in einen ersten Bereich 610 und einen zweiten Bereich 620. Anschließend zeigt der Controller 270 des zweiten Endgeräts 200 die erste Bildschirminformation, welche die Inhaltsinformationen 611, 612 und 613 des ersten Endgeräts 100 enthält, im ersten Bereich 610 an und zeigt ferner die zweite Bildschirminformation, welche die Inhaltsinformation 625 des zweiten Endgeräts 200 enthält, im zweiten Bereich 620 an.
  • Unter Bezug auf (b) und (c) von 41 kann der Controller 270 des zweiten Endgeräts 200 den ersten Bereich 610 mit der gleichen Form eines Äußeren des ersten Endgeräts 100 mit der Größe des Bildschirms des mobilen Endgeräts 100 anzeigen.
  • In (b) von 41 ist dargestellt, dass das erste Endgerät 100 ein Touchscreen-Endgerät ist. In (c) von 41 ist dargestellt, dass das erste Endgerät 100 ein riegelförmiges Endgerät mit einer Zeicheneingabetaste ist.
  • Während die erste und zweite Bildschirminformation jeweils im ersten Bereich 610 und zweiten Bereich 620 angezeigt werden, wenn ein Benutzer wenigstens eine der Inhaltsinformationen im ersten Bereich 610 über die Eingabeeinheit 220 oder die Anzeigeeinheit 260 in Touchscreen-Ausführung auswählt [S803], erzeugt unterdessen der Controller 270 des zweiten Endgeräts 200 ein Signal zum Stellen einer Anforderung für die ausgewählte Inhaltsinformation beim ersten Endgerät 100 und überträgt anschließend das erzeugte Anforderungssignal über die Kommunikationseinheit 210 zum ersten Endgerät 100.
  • In diesem Fall kann, wenn das erste Endgerät 100 eine Touchscreen-Ausführung wie in (b) von 41 dargestellt aufweist, wie in den vorhergehenden Beschreibungen unter Bezug auf 4 und 5 vorgeschlagen, der Controller 270 des zweiten Endgeräts 200 das Inhaltsinformations-Anforderungssignal zum ersten Endgerät 100 so übertragen, dass die Ortsinformation der ausgewählten Inhaltsinformation auf dem Bildschirm im Inhaltsinformations-Anforderungssignal enthalten ist.
  • Wenn das erste Endgerät 100 eine Riegelform wie in (c) von 32 dargestellt aufweist, ermöglicht es der Controller 270 des zweiten Endgeräts 200, dass ein Tastenwert, der von einem Benutzer zur Auswahl der Inhaltsinformation eingegeben wurde, im Inhaltsinformations-Anforderungssignal enthalten ist.
  • Insbesondere prüft der Controller 270, wenn die Inhaltsinformation im ersten Bereich 610 ausgewählt ist, einen Anzeigeort der Inhaltsinformation im ersten Bereich 610 und überträgt anschließend ein Anforderungssignal, das die geprüfte Ortsinformation enthält, zum ersten Endgerät 100.
  • Der Controller 180 des ersten Endgeräts 100 erhält die Ortsinformation im vom zweiten Endgerät 200 empfangenen Anforderungssignal und überträgt anschließend die am erhaltenen Ort auf einem aktuellen Bildschirm angeordnete Inhaltsinformation zum zweiten Endgerät 200.
  • Der Controller 270 des zweiten Endgeräts 200 empfängt schließlich die angeforderte Inhaltsinformation über die Kommunikationseinheit 210 vom ersten Endgerät 100 [S805].
  • Ein Prozess zum Auswählen der Inhaltsinformation im Schritt S803 wird nachfolgend ausführlich unter Bezug auf 42 bis 46 erläutert.
  • Wenn eine vom ersten Endgerät 100 herunterzuladende Inhaltsinformation („a.jpg”) 612 per Drag-and-Drop aus dem ersten Bereich 610 über eine Tastatur oder Maus der Eingabeeinheit 220 oder den Touchscreen 260 in den zweiten Bereich 620 gezogen wird [(a) von 42], stellt der Controller 270 unter Bezug auf 42 eine Anforderung nach der Inhaltsinformation („a.jpg”) 612 beim ersten Endgerät 100 und empfängt anschließend die angeforderte Inhaltsinformation („a.jpg”) 612 vom ersten Endgerät 100 [(b) von 42].
  • Insbesondere nachdem ein Benutzer des zweiten Endgeräts 200 einen für den Bildschirm 600 bereitgestellten Zeiger bei der Inhaltsinformation („a.jpg”) 612 im ersten Bereich 610 durch Bedienen der Tastatur oder Maus der Eingabeeinheit 220 oder ähnliches gesetzt hat, wenn die Inhaltsinformation („a.jpg”) 612 per Drag-and-Drop in den zweiten Bereich 620 gezogen wird, stellt der Controller 270 eine Anforderung nach der Inhaltsinformation („a.jpg”) 612 beim ersten Endgerät 100 und empfängt diese anschließend vom ersten Endgerät 100.
  • Und insbesondere wenn die Inhaltsinformation („a.jpg”) 612 per Drag-and-Drop vom ersten Bereich 610 in den zweiten Bereich gezogen wird, erkennt der Controller 270, dass die Inhaltsinformation („a.jpg”) 612 ausgewählt wurde. Der Controller 270 überträgt dann das Anforderungssignal zum ersten Endgerät 100 so, dass die Anzeigeortsinformation der Inhaltsinformation („a.jpg”) 612 im ersten Bereich 610 im Anforderungssignal enthalten ist.
  • Wenn das erste Endgerät 100 das Anforderungssignal, das den Anzeigeort der Inhaltsinformation („a.jpg”) 612 enthält, vom zweiten Endgerät 200 empfängt, überträgt es die am empfangenen Ort auf dem aktuellen Bildschirm vorhandene Inhaltsinformation („a.jpg”) 612 zum zweiten Endgerät 200.
  • Wenn die Inhaltsinformation („a.jpg”) 612 ausgewählt wird, zeigt der Controller 270 anschließend unter Bezug auf 43 ein erstes Fenster 631 für eine Übertragungsanforderung für die Inhaltsinformation („a.jpg”) 612, ein zweites Fenster 632 für eine Bearbeitungsanforderung und eines drittes Fenster 633 für eine Ausführungsanforderung an [(a) von 43].
  • Wenn das erste Fenster 631 für den Übertragungsbefehl der Inhaltsinformation („a.jpg”) 612 von einem Benutzer ausgewählt wird, stellt der Controller 270 eine Anforderung nach der Inhaltsinformation („a.jpg”) 612 beim ersten Endgerät 100 und empfängt anschließend die angeforderte Inhaltsinformation („a.jpg”) 612 vom ersten Endgerät 100 [(b) von 43].
  • Wenn der Benutzer in (a) von 43 das zweite Fenster 632 auswählt, überträgt der Controller 270 ein Signal für eine Bearbeitungsanforderung für die Inhaltsinformation („a.jpg”) 612 zum ersten Endgerät 100.
  • Der Controller 180 des ersten Endgeräts 100 startet eine Bearbeitungsanwendung der Inhaltsinformation („a.jpg”) 612, wie in (a) von 44 dargestellt, entsprechend dem vom zweiten Endgerät 200 empfangenen Bearbeitungsanforderungssignal und übertragt anschließend die in (a) von 44 dargestellte Bildschirminformation zum zweiten Endgerät 200.
  • Der Controller 270 des zweiten Endgeräts 200 zeigt die in (a) von 44 dargestellte Bildschirminformation im ersten Bereich 610 an. Wenn ein Befehl zum Bearbeiten der Inhaltsinformation („a.jpg”) 612 von einem Benutzer über die Eingabeeinheit 220 eingegeben wird, überträgt der Controller 270 des zweiten Endgeräts 200 den eingegebenen Bearbeitungsbefehl von der Eingabeeinheit 220 zum ersten Endgerät 100.
  • Anschließend bearbeitet der Controller 180 des ersten Endgeräts 100 die Inhaltsinformation („a.jpg”) 612 entsprechend dem vom zweiten Endgerät 200 empfangenen Bearbeitungsbefehl und übertragt anschließend die Bildschirminformation, in der die Inhaltsinformation („a.jpg”) 612 bearbeitet wurde, zum zweiten Endgerät 200.
  • Der Controller 270 des zweiten Endgeräts 200 empfängt unterdessen die Bildschirminformation, in der die Inhaltsinformation („a.jpg”) 612 bearbeitet wurde, vom ersten Endgerät 100 und zeigt anschließend die empfangene Bildschirminformation im ersten Bereich 610 an. Wenn die vom Benutzer bearbeitete Inhaltsinformation („a.jpg”) 612 per Drag-and-Drop aus dem ersten Bereich 610 in den zweiten Bereich 620 gezogen wird, stellt der Controller 270 des zweiten Endgeräts 200 eine Anforderung nach der bearbeiteten Inhaltsinformation („a.jpg”) 612 beim ersten Endgerät 100 und kann anschließend die angeforderte Inhaltsinformation („a.jpg”) 612 vom ersten Endgerät 100 empfangen.
  • In 44 bearbeitet insbesondere der Benutzer des zweiten Endgeräts 200 direkt Daten zum Herunterladen auf dem ersten Endgerät 100 und kann anschließend die bearbeiteten Daten vom ersten Endgerät 100 herunterladen.
  • Der Controller 180 des ersten Endgeräts 100 startet eine Bearbeitungsanwendung der Inhaltsinformation („a.jpg”) 612, wie in (a) von 44 dargestellt, entsprechend dem vom zweiten Endgerät 200 empfangenen Bearbeitungsanforderungssignal und übertragt anschließend die in (a) von 44 dargestellte Bildschirminformation zum zweiten Endgerät 200.
  • Der Controller 270 des zweiten Endgeräts 200 zeigt die in (a) von 44 dargestellte Bildschirminformation im ersten Bereich 610 an. Wenn ein Befehl zum Bearbeiten der Inhaltsinformation („a.jpg”) 612 vom Benutzer über die Eingabeeinheit 220 eingegeben wird, überträgt der Controller 270 des zweiten Endgeräts 200 den eingegebenen Bearbeitungsbefehl von der Eingabeeinheit 220 zum ersten Endgerät 100.
  • Der Controller 180 des ersten Endgeräts 100 bearbeitet die Inhaltsinformation („a.jpg”) 612 entsprechend dem vom zweiten Endgerät 200 empfangenen Bearbeitungsbefehl und überträgt anschließend die Bildschirminformation, in der die Inhaltsinformation („a.jpg”) 612 bearbeitet wurden, zum zweiten Endgerät 200.
  • Der Controller 270 des zweiten Endgeräts 200 empfängt die Bildschirminformation, in der die Inhaltsinformation („a.jpg”) 612 bearbeitet wurde, vom ersten Endgerät 100 und zeigt anschließend die empfangene Bildschirminformation im ersten Bereich 610 an. Wenn die Inhaltsinformation („a.jpg”) 612 per Drag-and-Drop durch den Benutzer aus dem ersten Bereich 610 in den zweiten Bereich 620 gezogen wird, stellt der Controller 270 des zweiten Endgeräts 200 eine Anforderung nach der bearbeiteten Inhaltsinformation („a.jpg”) 612 beim ersten Endgerät 100 und kann anschließend die angeforderte Inhaltsinformation („a.jpg”) 612 empfangen.
  • Nachdem der Benutzer des zweiten Endgeräts 200 durch Bedienen einer Tastatur oder Maus der Eingabeeinheit 220 eine Auswahl 634 für die Inhaltsinformation („a.jpg”) 612 getroffen hat, die vom ersten Endgerät 100 heruntergeladen werden soll, falls der Benutzer einen spezifischen Punkt 626 des zweiten Bereichs 620 auswählt [(a) von 45], stellt der Controller 270 anschließend unter Bezug auf 45 eine Anforderung nach der Inhaltsinformation („a.jpg”) 612 beim ersten Endgerät 100 und empfängt anschließend die angeforderte Inhaltsinformation („a.jpg”) 612 [(b) von 45].
  • Wenn der Benutzer des zweiten Endgeräts 200 durch Bedienen einer Tastatur oder Maus der Eingabeeinheit 220 eine Textinhaltsinformation 614, die heruntergeladen werden soll, im ersten Bereich 610 spezifiziert, [(a) von 46], stellt der Controller 270 anschließend unter Bezug auf 46 eine Anforderung nach der spezifizierten Textinhaltsinformation 614 beim ersten Endgerät 100 und empfängt anschließend die angeforderte Textinhaltsinformation 614 [(b) von 46].
  • Der Controller 270 kann unterdessen einen Prozess zum Speichern, Bearbeiten und Ausführen der vom ersten Endgerät empfangenen Inhaltsinformation ausführen, wie in den folgenden Schritten S806 bis S811 bzw. 47 bis 52 dargestellt.
  • Wenn ein Speicherbefehl für die in (b) von 42 empfangene Inhaltsinformation („a.jpg”) 612 von einem Benutzer eingegeben wird [S806], speichert zunächst der Controller 270 unter Bezug auf 47 die empfangene Inhaltsinformation („a.jpg”) 612 im Speicher 240.
  • In diesem Fall erhält der Controller 270 ein Format der Inhaltsinformation („a.jpg”) 612 und kann anschließend die Inhaltsinformation („a.jpg”) 612 in einem Bildspeicherplatz 623 unter Speicherplätzen 621, 622, 623 und 624 entsprechend dem erhaltenen Format der Inhaltsinformation („a.jpg”) 612 speichern [S807], die bereits nach dem Inhaltsinformationsformat klassifiziert wurden.
  • Wenn anschließend ein Bearbeitungsbefehl für die in (b) von 42 empfangene Inhaltsinformation („a.jpg”) 612 von einem Benutzer eingegeben wird [S808], startet der Controller 270 eine vorab für den Speicher 240 bereitgestellte bildbearbeitungsrelevante Anwendung 650, wie in 48 dargestellt.
  • In diesem Fall umfasst die Bearbeitungsanwendung 650 eine Vielzahl von Bearbeitungswerkzeugen zum Bearbeiten des Bildes auf unterschiedliche Weisen. Der Benutzer des zweiten Endgeräts 200 kann die Inhaltsinformation („a.jpg”) 612 mit den Bearbeitungswerkzeugen bearbeiten.
  • Ferner kann der Controller 270 die vom Benutzer mit den Bearbeitungswerkzeugen bearbeitete Inhaltsinformation („a.jpg”) 612 speichern [S809].
  • Wenn anschließend unter Bezug auf 49 ein Ausführungsbefehl für die in (b) von 42 empfangene Inhaltsinformation („a.jpg”) 612 von einem Benutzer eingegeben wird [S810], startet der Controller 270 eine vorab für den Speicher 240 bereitgestellte bildausführungsrelevante Anwendung 660 und führt anschließend die Inhaltsinformation („a.jpg”) 612 mittels der Bildausführungsanwendung 660 aus [S811].
  • In diesem Fall kann die Bildausführungsanwendung 660 die Bildanzeigesoftware umfassen, die Bilder in verschiedenen Formaten anzeigt und die gleiche Bearbeitungsfunktion der in 48 dargestellten Bildbearbeitungsanwendung 650 ausführen kann.
  • Insbesondere kann die Inhaltsinformation („a.jpg”) 612 durch die Bildausführungsanwendung angezeigt werden und es kann die Inhaltsinformation („a.jpg”) 612 bearbeitet und gespeichert werden.
  • Wenn eine E-Mail-Adresse („2. KIM@abc.com”) 615b per Drag-and-Drop in den zweiten Bereich 620 gezogen wird [(a) von 50], während eine E-Mail-Adressenlisten-Inhaltsinformation 615 im ersten Bereich 610 angezeigt wird, stellt der Controller 270 anschließend unter Bezug auf 50 eine Anforderung nach der E-Mail-Adresse („2. KIM@abc.com”) 615b beim ersten Endgerät 100 und empfängt anschließend die angeforderte E-Mail-Adresse („2. KIM@abc.com”) 615b [(b) von 50].
  • Wenn die E-Mail-Adresse („2. KIM@abc.com”) 615b ausgewählt wird, startet der Controller 270 eine E-Mail-Anwendung entsprechend der E-Mail-Adresse („2. KIM@abc.com”) 615b und kann anschließend ein E-Mail-Schreibfenster 670 für eine E-Mail, die an die E-Mail-Adresse („2. KIM@abc.com”) 615b [(b) von 50] gesendet werden soll, anzeigen. In diesem Fall kann, wenn ein Benutzer des zweiten Endgeräts 200 einen E-Mail-Inhalt mit dem E-Mail-Schreibfenster 660 schreibt, der Controller 270 die geschriebene E-Mail an die E-Mail-Adresse („2. KIM@abc.com”) 615b senden.
  • Wenn eine Kontaktinformation („2. KIM 010-111-xxx”) 616b per Drag-and-Drop in den zweiten Bereich 620 gezogen wird [(a) von 51], während eine Telefonbuch-Inhaltsinformation 616 im ersten Bereich 610 angezeigt wird, stellt der Controller 270 anschließend unter Bezug auf 51 eine Anforderung nach der Kontaktinformation („2. KIM 010-111-xxx”) 616b beim ersten Endgerät und empfängt anschließend die angeforderte Kontaktinformation („2. KIM 010-111-xxx”) 616b [(b) von 51].
  • Wenn die Kontaktinformation („2. KIM 010-111-xxx”) 616b ausgewählt wird, startet der Controller 270 eine für die Kontaktinformation („2. KIM 010-111-xxx”) 616b relevante Anrufverbindungsanwendung und kann anschließend einen Anruf mit der Kontaktinformation („2. KIM 010-111-xxx”) 616b verbinden [(c) von 51].
  • Wenn die Kontaktinformation („2. KIM 010-111-xxx”) 616b ausgewählt wird, startet der Controller 270, obgleich dies in 51 nicht dargestellt ist, ferner eine für die Kontaktinformation („2. KIM 010-111-xxx”) 616b relevante Nachrichtenübertragungsanwendung und kann anschließend ein Nachrichtenschreibfenster für eine an die Kontaktinformation („2. KIM 010-111-xxx”) 616b zu sendende Nachricht anzeigen. In diesem Fall kann, wenn ein Benutzer des zweiten Endgeräts 200 einen Nachrichteninhalt mit dem Nachrichtenschreibfenster schreibt, der Controller 270 die geschriebene Nachricht an die Kontaktinformation („2. KIM 010-111-xxx”) 616b senden.
  • Wenn eine Webseitenadresse („http://www.abc.com”) 617 per Drag-and-Drop in den zweiten Bereich 620 gezogen wird [(a) von 52], während eine Webseitenadresse („http://www.abc.com”) 617 im ersten Bereich 610 angezeigt wird, stellt der Controller 270 anschließend unter Bezug auf 52 eine Anforderung nach der Webseitenadresse („http://www.abc.com”) 617 beim ersten Endgerät 110 und empfängt anschließend die angeforderte Webseitenadresse („http://www.abc.com”) 617 [(b) von 52].
  • Wenn die Webseitenadresse („http://www.abc.com”) 617 ausgewählt wird, startet der Controller 270 die Internetzugriffsanwendung und greift anschließend auf die Webseitenadresse („http://www.abc.com”) 617 zu [(c) von 52].
  • Wenn die vom ersten Endgerät 100 empfangene Inhaltsinformation eine Termininformation ist, startet der Controller 270 des zweiten Endgeräts 200, obgleich dies in der Zeichnung nicht dargestellt ist, ferner eine Terminverwaltungsanwendung und kann anschließend die Terminverwaltungsanwendung durch Bearbeiten der empfangenen Termininformation in der gestarteten Terminverwaltungsanwendung aktualisieren. Und der Controller 270 des zweiten Endgeräts 200 kann die Terminverwaltungsanwendung ohne Bearbeiten der empfangenen Termininformation in der gestarteten Terminverwaltungsanwendung aktualisieren.
  • Insbesondere können alle Arten von Anwendungen zum Ausführen und Bearbeiten einer vom ersten Endgerät 100 empfangenen Inhaltsinformation dem Speicher 230 des zweiten Endgeräts 200 bereitgestellt werden. Der Controller 270 des zweiten Endgeräts 200 erhält ein Format der vom ersten Endgerät 100 empfangenen Inhaltsinformation, startet eine Anwendung entsprechend dem erhaltenen Format der Inhaltsinformation und kann dann für einen Benutzer die Funktionen zum Ausführen und Bearbeiten bereitstellen.
  • Wenn eine Kommunikationsverbindung mit dem ersten Endgerät 100 über die Kommunikationseinheit 210 hergestellt ist [S901], empfängt anschließend der Controller 270 des zweiten Endgeräts 200 unter Bezug auf 53 bis 55 eine Bildschirminformation, die wenigstens eine Inhaltsinformation vom ersten Endgerät 100 enthält und zeigt anschließend die empfangene Bildschirminformation 610 des ersten Endgeräts 100 auf einem Bildschirm 600 der Anzeigeeinheit 260 an [S902].
  • In diesem Fall unterteilt der Controller 270 des zweiten Endgeräts 200 den Bildschirm 600 der Anzeigeeinheit 260, wie in (a) von 54 dargestellt, in einen ersten Bereich 610 und einen zweiten Bereich 620. Anschließend zeigt der Controller 270 des zweiten Endgeräts 200 die erste Bildschirminformation, welche die Inhaltsinformationen 611, 612 und 613 des ersten Endgeräts 100 enthält, im ersten Bereich 610 an und zeigt ferner die zweite Bildschirminformation, welche die Inhaltsinformation 625 des zweiten Endgeräts 200 enthält, im zweiten Bereich 620 an.
  • Während die erste und zweite Bildschirminformation jeweils im ersten Bereich 610 und zweiten Bereich 620 angezeigt werden, wenn ein Benutzer die Inhaltsinformation („Arbeitsdokument.xls”) 625 im zweiten Bereich 620 über die Eingabeeinheit 220 oder die Anzeigeeinheit 260 in Touchscreen-Ausführung auswählt [S903], überträgt der Controller 270 des zweiten Endgeräts 200 die Inhaltsinformation („Arbeitsdokument.xls”) 625 zum ersten Endgerät 100 durch Steuern der Kommunikationseinheit 210 [S904].
  • Wenn die Inhaltsinformation („Arbeitsdokument.xls”) 625, die zum ersten Endgerät 100 übertragen werden soll, über eine Tastatur oder Maus der Eingabeeinheit 220 oder den Touchscreen 260 per Drag-and-Drop aus dem zweiten Bereich 620 in den ersten Bereich 610 gezogen wird [(a) von 42], überträgt insbesondere der Controller 270 unter Bezug auf 54 die Inhaltsinformation („Arbeitsdokument.xls”) 625 zum ersten Endgerät 100.
  • Insbesondere nachdem ein Benutzer des ersten Endgeräts 100 einen für den Bildschirm 600 bereitgestellten Zeiger bei der Inhaltsinformation („Arbeitsdokument.xls”) 625 im zweiten Bereich 620 durch Bedienen der Tastatur oder Maus der Eingabeeinheit 220 oder ähnliches gesetzt hat, wenn die Inhaltsinformation („Arbeitsdokument.xls”) 625 per Drag-and-Drop in den ersten Bereich 610 gezogen wird, überträgt der Controller 270 die Inhaltsinformation („Arbeitsdokument.xls”) 625 zum ersten Endgerät 100.
  • Falls der Benutzer des zweiten Endgeräts 200 die Inhaltsinformation („Arbeitsdokument.xls”) 625 per Drag-and-Drop in den ersten Bereich 610 zieht, während die Inhaltsinformation („Arbeitsdokument.xls”) 625 im zweiten Bereich 620 der Anzeigeeinheit in Touchscreen-Ausführung 260 berührt wird, überträgt ferner der Controller 270 die Inhaltsinformation („Arbeitsdokument.xls”) 625 zum ersten Endgerät 100.
  • Falls der Benutzer den ersten Bereich 610 durch Bedienen der Tastatur und Maus der Eingabeeinheit 220 auswählt, während der Benutzer des zweiten Endgeräts 200 die Inhaltsinformation („Arbeitsdokument.xls”) 625 auswählt, überträgt der Controller 270 die Inhaltsinformation („Arbeitsdokument.xls”) 625 zum ersten Endgerät 100.
  • Wenn der Benutzer des zweiten Endgeräts die Inhaltsinformation („Arbeitsdokument.xls”) 625 im zweiten Bereich 620 der Anzeigeeinheit in Touchscreen-Ausführung 260 und ersten Bereich 610 mehrmals berührt, überträgt der Benutzer des zweiten Endgeräts 200 die Inhaltsinformation („Arbeitsdokument.xls”) 625 zum ersten Endgerät 100.
  • Wenn der Benutzer des zweiten Endgeräts 200 die Textinformation 670, die zum ersten Endgerät 100 übertragen werden soll, im zweiten Bereich 620 durch Bedienen der Tastatur und Maus der Eingabeeinheit 220 spezifiziert, wie in (a) von 55 dargestellt, überträgt der Controller 270 die Inhaltsinformation („Arbeitsdokument.xls”) 625 zum ersten Endgerät 100, wie in (b) von 55 dargestellt.
  • Das erste Endgerät kann das Speichern, Bearbeiten und Ausführen der unter Bezug auf 47 bis 52 beschriebenen Prozesse an der vom zweiten Endgerät 200 empfangenen Inhaltsinformation („Arbeitsdokument.xls”) 625 gemäß 53 bis 55 durchführen und das erste Endgerät 100 kann die Speicher-, Bearbeitungs- und Ausführungsbildschirminformation zum zweiten Endgerät 200 übertragen.
  • <Achte Ausführungsform>
  • Gemäß einer achten Ausführungsform der vorliegenden Erfindung liefert, während ein zweites Endgerät über eine Kommunikationsverbindung mit einer Mehrzahl aus ersten und dritten Endgeräten verfügt, wenn die Bildschirminformation des ersten bzw. dritten Endgeräts auf einem Bildschirm des zweiten angezeigt werden, falls die Inhaltsinformation in der Bildschirminformation des ersten Endgeräts in die Bildschirminformation des dritten Endgeräts verschoben wird, das zweite Endgerät die Inhaltsinformation des ersten Endgeräts zum dritten Endgerät. Solch eine Funktion wird durch die achte Ausführungsform der vorliegenden Erfindung bereitgestellt.
  • In der folgenden Beschreibung einer achten Ausführungsform der vorliegenden Erfindung sei angenommen, dass ein erstes und ein drittes Endgerät mobile Endgeräte sind und dass ein zweites Endgerät ein PC-Endgerät ist.
  • Wenn Kommunikationsverbindungen mit dem ersten Endgerät 100 und dem dritten Endgerät 300 über die Kommunikationseinheit 210 hergestellt sind [S1001], empfängt anschließend der Controller 270 des zweiten Endgeräts 200 unter Bezug auf 56 bis 58 eine Bildschirminformationen, die jeweils wenigstens eine Inhaltsinformation vom ersten Endgerät 100 bzw. dritten Endgerät 300 enthalten, und zeigt anschließend die empfangenen Bildschirminformationen 710 und 730 des ersten Endgeräts 100 und des dritten Endgeräts 300 auf einem Bildschirm 700 der Anzeigeeinheit 260 an [S1002].
  • In diesem Fall unterteilt der Controller 270 des zweiten Endgeräts 200 unter Bezug auf 57 den Bildschirm 700 der Anzeigeeinheit 260 in den ersten bis dritten Bereich 710, 720 und 730. Der Controller 270 des zweiten Endgeräts 200 zeigt die erste Bildschirminformation, welche die Inhaltsinformationen 711 und 712 enthält, im ersten Bereich 710 an. Der Controller 270 des zweiten Endgeräts 200 zeigt die zweite Bildschirminformation des zweiten Endgeräts 200 im zweiten Bereich 720 an, und der Controller 270 des zweiten Endgeräts 200 zeigt die dritte Bildschirminformation, welche die Inhaltsinformationen 731 und 732 enthält, im dritten Bereich 730 an.
  • Während die Bildschirminformation des ersten Endgeräts 100 und zweiten Endgeräts 300 im ersten Bereich 710 bzw. zweiten Bereich 730 angezeigt wird, wenn ein Benutzer die Inhaltsinformation 712 im ersten Bereich 710 und dritten Bereich 730 über die Eingabeeinheit 220 oder die Anzeigeeinheit 260 in Touchscreen-Ausführung auswählt [S1003], liefert der Controller 270 des zweiten Endgeräts 200 die ausgewählte Inhaltsinformation 712 des ersten Endgeräts 100 zum dritten Endgerät 300 durch Steuern der Kommunikationseinheit 210 [S1004].
  • Der Prozess zur Inhaltsinformationsauswahl des ersten Endgeräts 100 im Schritt S903 wird nachfolgend ausführlich unter Bezug auf 58 erläutert.
  • Wenn die Inhaltsinformation („a.jpg”) 712 des ersten Endgeräts 100, die zum dritten Endgerät 300 geliefert werden soll, über die Tastatur der Eingabeeinheit 220, die Maus oder den Touchscreen 260 per Drag-and-Drop aus dem ersten Bereich 710 in den dritten Bereich 730 gezogen wird [(a) von 58], liefert zunächst der Controller 270 unter Bezug auf 58 die Inhaltsinformation („a.jpg”) 712 zum dritten Endgerät 300[(b) von 58].
  • Insbesondere wenn ein Benutzer des zweiten Endgeräts 200 einen für den Bildschirm 700 bereitgestellten Zeiger bei der Inhaltsinformation („a.jpg”) 712 im ersten Bereich 710 durch Bedienen der Tastatur der Eingabeeinheit 220, der Maus oder ähnliches setzt und die Inhaltsinformation („a.jpg”) 712 per Drag-and-Drop in den dritten Bereich 730 zieht [(a) von 58], liefert der Controller 270 die Inhaltsinformation („a.jpg”) 712 zum dritten Endgerät 300 [(b) von 58].
  • Wenn der Benutzer des zweiten Endgeräts 200 den dritten Bereich 730 durch Bedienen der Tastatur und Maus der Eingabeeinheit 200 beim Auswählen der Inhaltsinformation („a.jpg”) 712 auswählt, liefert der Controller 270 die Inhaltsinformation („a.jpg”) 712 zum dritten Endgerät 300.
  • Wenn der Benutzer des zweiten Endgeräts 200 die Inhaltsinformation („a.jpg”) 712 im ersten Bereich 710 des Touchscreens 260 und dritten Bereich 730 mehrmals berührt, liefert der Controller 270 die Inhaltsinformation („a.jpg”) 712 zum dritten Endgerät 300.
  • Beim Liefern der in 58 ausgewählten Inhaltsinformation 712 zum dritten Endgerät 300 erzeugt der Controller 270 ein Signal zum Befehlen des Übertragens der Inhaltsinformation 712 zum dritten Endgerät 300 und überträgt anschließend das erzeugte Übertragungsbefehlssignal über die Kommunikationseinheit 210 zum ersten Endgerät 100.
  • Das erste Endgerät 100 überträgt dann die Inhaltsinformation 712 zum dritten Endgerät 300 entsprechend dem vom zweiten Endgerät 200 empfangenen Übertragungsbefehlssignal.
  • In diesem Fall erhält, wie in der vorhergehenden Beschreibung unter Bezug auf 4 und 5 dargestellt, falls die Inhaltsinformation 712 des ersten Bereichs 710 in (a) von 58 ausgewählt wird, der Controller 270 eine Anzeigeortsinformation der Inhaltsinformation 712 im ersten Bereich 710 und kann anschließend das Übertragungsbefehlssignal so übertragen, dass die erhaltene Ortsinformation der Inhaltsinformation 712 im Übertragungsbefehlssignal enthalten ist. Das erste Endgerät 100 kann dann die am empfangenen Ort auf einem aktuellen Bildschirm vorhandene Inhaltsinformation 712 zum dritten Endgerät 300 übertragen.
  • Ferner stellt der Controller 270 eine Anforderung für die ausgewählte Inhaltsinformation 712 in 58 beim ersten Endgerät 100 und empfängt anschließend die angeforderte Inhaltsinformation 712. Der Controller 270 kann die vom ersten Endgerät 100 empfangene Inhaltsinformation 712 durch Übertragen der Inhaltsinformation 712 zum dritten Terminal liefern.
  • Wenn Kommunikationsverbindungen mit dem ersten Endgerät 100 und dem dritten Endgerät 300 mittels der Kommunikationseinheit 210 hergestellt sind [S1101], empfängt anschließend der Controller 270 des zweiten Endgeräts 200 unter Bezug auf 59 und 60 Bildschirminformationen, die jeweils wenigstens eine Inhaltsinformation vom ersten Endgerät 100 bzw. dritten Endgerät 300 enthalten, und zeigt anschließend die empfangenen Bildschirminformationen 710 und 730 des ersten Endgeräts 100 und des dritten Endgeräts 300 auf einem Bildschirm 700 der Anzeigeeinheit 260 an [S1102].
  • Falls ein Benutzer die Inhaltsinformation 731 im dritten Bereich 730 und ersten Bereich 710 über die Eingabeeinheit 220 oder die Anzeigeeinheit 260 in Touchscreen-Ausführung auswählt [S1103], während die Bildschirminformation des ersten Endgeräts 100 und dritten Endgeräts 300 im ersten Bereich 710 bzw. dritten Bereich 730 angezeigt wird, liefert der Controller 270 des zweiten Endgeräts 200 die ausgewählte Inhaltsinformation 731 des dritten Endgeräts 300 zum ersten Endgerät 100 durch Steuern der Kommunikationseinheit 210 [S1104].
  • Wenn die Inhaltsinformation (d.avi”) 731 des dritten Endgeräts 300, die zum ersten Endgerät 100 geliefert werden soll, mittels der Tastatur der Eingabeeinheit 220, der Maus oder des Touchscreens 260 per Drag-and-Drop aus dem dritten Bereich 710 in den ersten Bereich 730 gezogen wird [(a) von 60], liefert insbesondere der Controller 270 unter Bezug auf 60 die Inhaltsinformation („d.avi”) 731 zum ersten Endgerät 300 [(b) von 60].
  • Wenn der Benutzer des zweiten Endgeräts 200 den ersten Bereich 710 durch Bedienen der Tastatur und Maus der Eingabeeinheit 200 beim Auswählen der Inhaltsinformation („d.avi”) 731 auswählt, liefert der Controller 270 die Inhaltsinformation („d.avi”) 731 zum ersten Endgerät 100.
  • Wenn der Benutzer des zweiten Endgeräts 200 die Inhaltsinformation („d.avi”) 731 im dritten Bereich 730 des Touchscreens 260 und ersten Bereich 710 mehrmals berührt, liefert der Controller 270 die Inhaltsinformation („d.avi”) 731 zum ersten Endgerät 100.
  • <Neunte Ausführungsform>
  • Gemäß einer neunten Ausführungsform der vorliegenden Erfindung wandelt, während eine Nahbereich-Kommunikationsverbindung für eine drahtlose Vorgangssteuerung der vorliegenden Verbindung zwischen einem ersten Endgerät und einem zweiten Endgerät hergestellt ist, falls das erste Endgerät eine Mobilkommunikationsverbindung mit einem externen dritten Endgerät aufweist, das erste Endgerät vom zweiten Endgerät empfangene Nahbereich-Kommunikationsdaten in Mobilkommunikationsdaten um und überträgt anschließend diese Mobilkommunikationsdaten zum dritten Endgerät. Ferner wandelt das erste Endgerät vom dritten Endgerät empfangene Mobilkommunikationsdaten in Nahbereich-Kommunikationsdaten um und überträgt anschließend diese Nahbereich-Kommunikationsdaten zum zweiten Endgerät. Somit besteht die Aufgabe der neunten Ausführungsform der vorliegenden Erfindung im Bereitstellen einer dreiseitigen heterogenen Kommunikationsfunktion.
  • In der folgenden Beschreibung einer neunten Ausführungsform der vorliegenden Erfindung sei angenommen, dass ein erstes und ein drittes Endgerät mobile Endgeräte sind und dass ein zweites Endgerät ein PC-Endgerät ist.
  • Eine neunte Ausführungsform der vorliegenden Erfindung wird nachfolgend ausführlich unter Bezug auf 61 und 62 erläutert.
  • 61 zeigt ein Signalverarbeitungsdiagramm eines Prozesses zum Durchführen eines Sprachanrufs zwischen einem zweiten Endgerät, einem ersten Endgerät und einem dritten Endgerät mit verschiedenen Kommunikationssystemen gemäß einer neunten Ausführungsform der vorliegenden Erfindung.
  • Unter Bezug auf 61 kann, wenn eine Fernsteuerungskommunikationsverbindung mit dem zweiten Endgerät 200 hergestellt ist [S1201], der Controller 180 des ersten Endgeräts 100 die zuvor beschriebenen Vorgänge der ersten bis achten Ausführungsform durchführen. Ferner kann der Controller 180 des ersten Endgeräts 100 einen Sprachanruf mit dem zweiten Endgerät 200 per Nahbereich-Kommunikation durchführen.
  • Insbesondere wandelt der Controller 270 des zweiten Endgeräts 200 von einem Benutzer über das Mikrofon eingegebene Audiodaten in ein Nahbereich-Kommunikations-Audiosignal um und überträgt dann das umgewandelte Nahbereich-Kommunikations-Audiosignal über die Kommunikationseinheit 210 zum ersten Endgerät 100 [S1202]. Ferner gibt der Controller 270 des zweiten Endgeräts 200 ein Sprachsignal des ersten Endgeräts 100, das über die Kommunikationseinheit 210 empfangen wurden, an den Lautsprecher 240 aus.
  • Der Controller 180 des ersten Endgeräts 100 wandelt von einem Benutzer über das Mikrofon 122 eingegebene Audiodaten in ein Nahbereich-Kommunikations-Audiosignal um und überträgt dann das umgewandelte Nahbereich-Kommunikations-Audiosignal über die Kommunikationseinheit 110 zum zweiten Endgerät 200 [S1203]. Ferner gibt der Controller 180 des ersten Endgeräts 100 ein Sprachsignal des zweiten Endgeräts 200, das über die Kommunikationseinheit 110 empfangen wurden, an das Audioausgabemodul 152 aus.
  • Somit erzeugt im Laufe des Sprachanrufs per Nahbereich-Kommunikation mit dem zweiten Endgerät 200, wenn eine Mobilkommunikationsverbindung mit einem externen dritten Endgerät 300 hergestellt ist [S1204], der Controller 180 des ersten Endgeräts 100 ein Signal zum Abfragen eines Vorhandenseins oder Nichtvorhandenseins einer Kommunikationsverbindung mit dem dritten Endgerät 300 und überträgt anschließend das erzeugte Abfragesignal zum zweiten Endgerät 200 [S1205].
  • In diesem Fall kann die mobile Kommunikation per Code Division Multiple Access (CDMA), Universal Mobile Telecommunications Systems (UMTS), Global System for Mobile Communications (GSM) und Wideband Code Division Multiple Access (WCDMA) erfolgen.
  • Wenn das Abfragesignal vom ersten Endgerät 100 empfangen wird, zeigt der Controller 270 des zweiten Endgeräts 200 ein Auswahlfenster zur Auswahl eines Vorhandenseins oder Nichtvorhandenseins einer Kommunikationsverbindung mit dem dritten Endgerät 300 auf dem Bildschirm der Anzeigeeinheit 260 an.
  • Wenn eine Annahme einer Kommunikationsverbindung mit dem dritten Endgerät 300 im Auswahlfenster ausgewählt wird [S1206], überträgt der Controller 27 ein Signal zum Melden der Annahme der Kommunikationsverbindung zum ersten Endgerät 100 und überträgt ein vom Benutzer über das Mikrofon 250 eingegebenes Audiosignal zum ersten Endgerät 100 [S1207].
  • Ferner überträgt, wenn eine Kommunikationstrennung vom dritten Endgerät 300 im Auswahlfenster ausgewählt wird, der Controller 270 des zweiten Endgeräts 200 ein Signal zum Melden der Kommunikationstrennung zum ersten Endgerät 100.
  • Wenn das Signal zum Melden der Kommunikationstrennung vom zweiten Endgerät 200 empfangen wird, trennt das erste Endgerät 100 die Kommunikation zwischen dem zweiten Endgerät 200 und dem dritten Endgerät 300 [S1208].
  • Wenn das Nahbereich-Kommunikations-Audiosignal vom zweiten Endgerät 200 empfangen wird [S1207], wandelt der Controller 180 des ersten Endgeräts 100 unterdessen das empfangene Nahbereich-Kommunikations-Audiosignal in ein Mobilkommunikations-Audiosignal um [S1209] und überträgt anschließend das umgewandelte Mobilkommunikations-Audiosignal zum dritten Endgerät 300 [S1210].
  • Ferner wandelt, wenn das Mobilkommunikations-Audiosignal vom dritten Endgerät 300 empfangen wird [S1211], der Controller 180 des ersten Endgeräts 100 das empfangene Mobilkommunikations-Audiosignal in ein Nahbereich-Kommunikations-Audiosignal um [S1212] und überträgt anschließend das umgewandelte Nahbereich-Kommunikations-Audiosignal zum zweiten Endgerät 200 [S1213].
  • 62 zeigt ein Signalverarbeitungsdiagramm eines Prozesses zum Durchführen eines Sprachanrufs zwischen einem zweiten Endgerät, einem ersten Endgerät und einem dritten Endgerät mit Nachrichten und Sprache gemäß einer neunten Ausführungsform der vorliegenden Erfindung.
  • Unter Bezug auf 62 ist das erste Endgerät 100 mit dem zweiten Endgerät 200 durch ein Nahbereich-Kommunikationssystem verbunden [S1301] und ist ferner mit dem dritten Endgerät 300 über ein Mobilkommunikationssystem verbunden [S1302].
  • In diesem Fall führt das erste Endgerät 100 eine Textnachrichtenkommunikation mit dem zweiten Endgerät über das Nahbereich-Kommunikationssystem durch und führt ferner einen Sprachanruf mit dem dritten Endgerät 300 über das Mobilkommunikationssystem durch.
  • Das erste Endgerät 100 überträgt ein Signal zur Abfrage eines Vorhandenseins oder Nichtvorhandenseins einer Kommunikationsverbindung mit dem dritten Endgerät zum zweiten Endgerät 200 [S1303].
  • Wenn das Abfragesignal vom ersten Endgerät 100 empfangen wird, zeigt das zweite Endgerät 200 ein Auswahlfenster zur Auswahl eines Vorhandenseins oder Nichtvorhandenseins einer Kommunikationsverbindung mit dem dritten Endgerät 300 auf dem Bildschirm der Anzeigeeinheit 260 an.
  • Wenn eine Annahme einer Kommunikationsverbindung mit dem dritten Endgerät 300 im Auswahlfenster ausgewählt wird [S1304], überträgt das zweite Endgerät 200 ein Signal zum Melden der Annahme der Kommunikationsverbindung zum ersten Endgerät 100, empfängt eine Eingabe eines Nachrichteninhalts von einem Benutzer [S1305] und sendet anschließend eine vom Benutzer eingegebene Nachricht an das erste Endgerät [S1306].
  • Wenn eine Kommunikationstrennung vom dritten Endgerät 300 im Auswahlfenster ausgewählt wird, überträgt das zweite Endgerät 200 ein Signal zum Melden der Kommunikationstrennung zum ersten Endgerät 100.
  • Wenn das Signal zum Melden der Kommunikationstrennung vom zweiten Endgerät 200 empfangen wird, trennt das erste Endgerät 100 die Kommunikation zwischen dem zweiten Endgerät 200 und dem dritten Endgerät 300 [S1307].
  • Wenn eine Nahbereich-Kommunikationsnachricht vom zweiten Endgerät 200 empfangen wird [S1306], wandelt das erste Endgerät 100 unterdessen den Nachrichteninhalt mit der Text-to-Speech-Umwandlungseinheit 181 in ein Mobilkommunikations-Audiosignal um [S1308] und überträgt anschließend das umgewandelte Mobilkommunikations-Audiosignal zum dritten Endgerät 300 [S1309].
  • Insbesondere wandelt das erste Endgerät 100 den Nachrichteninhalt des zweiten Endgeräts 200 in einen Sprachanrufinhalt um und überträgt anschließend den Sprachanrufinhalt zum dritten Endgerät 300. Somit kann ein Benutzer des dritten Endgeräts 300 einen Sprachanruf beim dritten Endgerät 300 mittels des ersten Endgeräts 100 durchführen.
  • Wenn das Mobilkommunikations-Audiosignal vom dritten Endgerät 300 empfangen wird [S310], wandelt das erste Endgerät 100 das empfangene Mobilkommunikations-Audiosignal mit der Text-to-Speech-Umwandlungseinheit 181 in eine Nahbereich-Kommunikationsnachricht um [S1311] und sendet anschließend die umgewandelte Nahbereich-Kommunikationsnachricht zum zweiten Endgerät 200 [S1312].
  • Insbesondere wandelt das erste Endgerät 100 den Sprachanrufinhalt des dritten Endgeräts 300 in eine Textnachricht um und sendet anschließend die Textnachricht an das zweite Endgerät 200. Somit kann ein Benutzer des zweiten Endgeräts 200 eine Nachrichtenkommunikation mit dem dritten Endgerät 300 mittels des ersten Endgeräts 100 durchführen.
  • Alternativ wandelt, obgleich das erste Endgerät 100 die Nachricht des zweiten Endgeräts 200 in ein Mobilkommunikations-Audiosignal im Schritt S1308 umwandelt, das zweite Endgerät 200 einen von einem Benutzer geschriebenen Nachrichteninhalt in ein Mobilkommunikations-Audiosignal um und kann anschließend dieses Mobilkommunikations-Audiosignal zum ersten Endgerät 100 übertragen.
  • Entsprechend bietet die vorliegende Erfindung die folgenden Wirkungen und/oder Vorteile.
  • Erstens sind Daten eines ersten Endgeräts auf einem zweiten Endgerät ausführbar und alle Funktionen des ersten Endgeräts sind mit dem zweiten Endgerät verwendbar.
  • Zweitens können Inhaltsinformationen auf einem Bildschirm des ersten Endgeräts problemlos von einem zweiten Endgerät verwendet werden.
  • Drittens kann eine dreiseitige heterogene Kommunikationsfunktion für das erste bis dritte Endgerät mit einem Nahbereich-Kommunikationssystem und einem Mobilkommunikationssystem bereitgestellt werden.
  • Zusätzlich können die zuvor beschriebenen Verfahren in einem programmaufgezeichneten Medium als computerlesbarer Code implementiert sein. Die computerlesbaren Medien umfassen alle Arten von Aufzeichnungsvorrichtungen, auf denen von einem Computersystem lesbare Daten gespeichert werden. Die computerlesbaren Medien umfassen beispielsweise ROM, RAM, CD-ROM, Magnetbänder, Disketten, optische Datenspeichervorrichtungen und ähnliches und umfassen ebenfalls Implementierungen mit Trägerwellen (beispielsweise Übertragung per Internet).
  • Fachleuten ist klar, dass verschiedene Modifikationen und Variationen an der vorliegenden Erfindung vorgenommen werden können, ohne von Wesensart oder Umfang der Erfindungen abzuweichen. Somit deckt die vorliegende Erfindung die Modifikationen und Variationen der vorliegenden Erfindung ab, sofern sich diese im Umfang der beigefügten Ansprüche und ihrer Äquivalente befinden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • KR 10-2009-0032283 [0001]
    • KR 10-2009-0051175 [0001]
    • KR 10-2009-0053946 [0001]
    • KR 10-2009-0053945 [0001]

Claims (11)

  1. Netzwerkkommunikationsvorrichtung, mit: einer zum Herstellen einer Kommunikationsverbindung zwischen einem ersten und einem zweiten Gerät konfigurierten, in dem ersten Gerät enthaltenen ersten drahtlosen Kommunikationseinheit, wobei die erste drahtlose Kommunikationseinheit ferner zum Übertragen von ersten Daten zum zweiten Gerät konfiguriert ist; einer zum Anzeigen von Inhalten auf einem ersten Bildschirm des ersten Geräts konfigurierten, im ersten Gerät enthaltenen ersten Anzeigeeinheit; einer zum Empfangen einer Ortsinformation vom zweiten Gerät und Ausführen einer Funktion basierend auf der empfangenen Ortsinformation konfigurierten, im ersten Gerät enthaltenen ersten Steuereinheit, wobei die erste Steuereinheit ferner zum Übertragen von zweiten Daten zum zweiten Gerät konfiguriert ist; einer zum Herstellen einer Kommunikationsverbindung mit dem ersten Gerät konfigurierten, im zweiten Gerät enthaltenen zweiten drahtlosen Kommunikationseinheit, wobei die zweite drahtlose Kommunikationseinheit ferner zum Empfangen der ersten Daten vom ersten Gerät und zum Übertragen der zweiten Daten zum ersten Gerät konfiguriert ist; einer zum Wiedergeben einer ersten Bildschirminformation basierend auf den ersten Daten auf einem zweiten Bildschirm des zweiten Geräts konfigurierten, im zweiten Gerät enthaltenen zweiten Anzeigeeinheit; und einer zum Empfangen eines Eingabesignals zur Auswahl einer Inhaltsinformation und zum Übertragen einer Ortsinformation entsprechend der ausgewählten Inhaltsinformation zum ersten Gerät konfigurierten, im zweiten Gerät enthaltenen zweiten Steuereinheit, wobei die zweite Steuereinheit ferner zum Steuern der zweiten Anzeigeeinheit zum Wiedergeben einer zweiten Bildschirminformation basierend auf den zweiten Daten auf dem zweiten Bildschirm des zweiten Geräts konfiguriert ist, und wobei die Ortsinformation eine Koordinateninformation der ausgewählten Inhaltsinformation der auf dem Bildschirm des zweiten Geräts wiedergegebenen ersten Bildschirminformation enthält.
  2. Netzwerkkommunikationsvorrichtung nach Anspruch 1, bei der das erste Gerät Inhalte anzeigt und das zweite Gerät Bildschirminformation basierend auf von dem ersten Gerät erhaltenen Daten wiedergibt, die mit den in dem ersten Gerät angezeigten Inhalten in Beziehung stehen.
  3. Erstes Gerät, mit: einer zum Herstellen einer Kommunikationsverbindung mit einem zweiten Gerät konfigurierten drahtlosen Kommunikationseinheit, wobei die drahtlose Kommunikationseinheit ferner zum Übertragen von ersten Daten konfiguriert ist; einer zum Anzeigen von Inhalten auf einem Bildschirm des ersten Geräts konfigurierten Anzeigeeinheit; und einer zum Empfangen einer Ortsinformation vom zweiten Gerät und Ausführen einer Funktion basierend auf der empfangenen Ortsinformation konfigurierten Steuereinheit, wobei die Steuereinheit ferner zum Übertragen von zweiten Daten zum zweiten Gerät konfiguriert ist, und wobei die Ortsinformation eine Koordinateninformation der ausgewählten Inhaltsinformation der auf dem Bildschirm des zweiten Geräts wiedergegebenen ersten Bildschirminformation enthält.
  4. Erstes Gerät nach Anspruch 3, bei dem, während das erste Gerät Inhalte anzeigt, das zweite Gerät Bildschirminformation basierend auf von dem ersten Gerät erhaltenen Daten wiedergibt, die mit den in dem ersten Gerät angezeigten Inhalten in Beziehung stehen.
  5. Erstes Gerät nach Anspruch 3, bei dem das erste Gerät ein zur drahtlosen Kommunikation mit anderen Anzeigegeräten konfiguriertes mobiles Gerät ist.
  6. Erstes Gerät nach Anspruch 3, bei dem die ersten Daten mit auf dem ersten Gerät angezeigten Inhalten vor einem Empfang der Ortsinformation vom zweiten Gerät in Beziehung stehen.
  7. Erstes Gerät nach Anspruch 5, bei dem die zweiten Daten mit auf dem ersten Gerät angezeigten Inhalten nach einem Empfang der Ortsinformation vom zweiten Gerät und Ausführen der Funktion basierend auf der vom zweiten Gerät empfangenen Ortsinformation in Beziehung stehen.
  8. Zweites Gerät, mit: einer zum Herstellen einer Kommunikationsverbindung mit einem ersten Gerät konfigurierten drahtlosen Kommunikationseinheit, wobei die drahtlose Kommunikationseinheit ferner zum Empfangen von ersten Daten konfiguriert ist; einer zum Wiedergeben einer ersten Bildschirminformation basierend auf den ersten Daten auf einem Bildschirm des zweiten Geräts konfigurierten Anzeigeeinheit; und einer zum Empfangen eines Eingabesignals zur Auswahl einer Inhaltsinformation und Übertragen einer Ortsinformation entsprechend der ausgewählten Inhaltsinformation zum ersten Gerät konfigurierten Steuereinheit, wobei die Steuereinheit ferner zum Steuern der Anzeigeeinheit zum Wiedergeben einer zweiten Bildschirminformation basierend auf den zweiten Daten auf dem Bildschirm des zweiten Geräts konfiguriert ist, und wobei die Ortsinformation eine Koordinateninformation der ausgewählten Inhaltsinformation der auf dem Bildschirm des zweiten Geräts wiedergegebenen ersten Bildschirminformation enthält.
  9. Zweites Gerät nach Anspruch 8, bei dem die drahtlose Kommunikationseinheit ferner zum Herstellen einer Kommunikationsverbindung mit dem ersten Gerät und zum Übertragen/Empfangen von Daten mit dem ersten Gerät konfiguriert ist.
  10. Zweites Gerät nach Anspruch 8, bei dem das Eingabesignal über ein zum Bewegen eines Cursors und Auswählen von Inhalt aus der ersten Bildschirminformation konfiguriertes Eingabegerät empfangen wird.
  11. Zweites Gerät nach Anspruch 8, bei dem, während das erste Gerät Inhalte anzeigt, das zweite Gerät Bildschirminformation basierend auf von dem ersten Gerät erhaltenen Daten wiedergibt, die mit den in dem ersten Gerät angezeigten Inhalten in Beziehung stehen.
DE202009019049.8U 2009-04-14 2009-11-19 Netzwerkkommunikationsvorrichtung mit einem ersten Gerät und einem zweiten Gerät Expired - Lifetime DE202009019049U1 (de)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
KR20090032283 2009-04-14
KR1020090032283A KR101100219B1 (ko) 2009-04-14 2009-04-14 단말기 및 그의 데이터 송/수신 방법 및 이를 이용한 데이터 송/수신 시스템
KR20090051175 2009-06-09
KR1020090051175A KR101053629B1 (ko) 2009-06-09 2009-06-09 영상정보 압축/해제 방법 및 이를 위한 단말기
KR1020090053946A KR101062352B1 (ko) 2009-06-17 2009-06-17 단말기 및 그 제어 방법
KR1020090053945A KR101019485B1 (ko) 2009-06-17 2009-06-17 단말기 및 무선 통신을 이용한 단말기의 제어 방법
KR20090053946 2009-06-17
KR20090053945 2009-06-17

Publications (1)

Publication Number Publication Date
DE202009019049U1 true DE202009019049U1 (de) 2015-12-04

Family

ID=42244136

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202009019049.8U Expired - Lifetime DE202009019049U1 (de) 2009-04-14 2009-11-19 Netzwerkkommunikationsvorrichtung mit einem ersten Gerät und einem zweiten Gerät

Country Status (3)

Country Link
US (9) US20100259464A1 (de)
EP (4) EP2242240A1 (de)
DE (1) DE202009019049U1 (de)

Families Citing this family (125)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9454304B2 (en) * 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US9213480B2 (en) * 2010-04-08 2015-12-15 Nokia Technologies Oy Method, apparatus and computer program product for joining the displays of multiple devices
US8966401B2 (en) * 2010-05-03 2015-02-24 Lg Electronics Inc. Electronic device and methods of sending information with the electronic device, controlling the electronic device, and transmitting and receiving information in an information system
JP5614173B2 (ja) * 2010-08-25 2014-10-29 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20120050183A1 (en) 2010-08-27 2012-03-01 Google Inc. Switching display modes based on connection state
DE112010005779T5 (de) * 2010-08-31 2013-05-08 Hewlett-Packard Development Company, L.P. Bestimmung des Leistungsverbrauchs einer Anzeigevorrichtung
US10013137B2 (en) 2010-08-31 2018-07-03 Datapath Limited System and method for unlimited multi-user computer desktop environment
US9043706B2 (en) * 2010-08-31 2015-05-26 Anders Nancke-Krogh System and method for using state replication between application instances to provide a collaborative desktop environment
KR101677638B1 (ko) * 2010-09-29 2016-11-18 엘지전자 주식회사 이동 단말기 및 그 제어 방법
WO2012046890A1 (ko) * 2010-10-06 2012-04-12 엘지전자 주식회사 이동단말기, 디스플레이 장치 및 그 제어 방법
US11314344B2 (en) 2010-12-03 2022-04-26 Razer (Asia-Pacific) Pte. Ltd. Haptic ecosystem
US9235277B2 (en) * 2010-12-03 2016-01-12 Razer (Asia-Pacific) Pte Ltd. Profile management method
TWM410273U (en) * 2010-12-08 2011-08-21 Elitegroup Computer Sys Co Ltd Control transfer apparatus and control transfer system
JP5743523B2 (ja) * 2010-12-15 2015-07-01 アルパイン株式会社 電子装置
US8446363B1 (en) * 2010-12-30 2013-05-21 Google Inc. Enhanced input using touch screen
KR101742578B1 (ko) * 2011-01-14 2017-06-01 삼성전자주식회사 컨텐츠 관리 방법 및 이를 적용한 디스플레이 장치
JP5664273B2 (ja) * 2011-01-21 2015-02-04 ソニー株式会社 無線通信装置、プログラム、および無線通信システム
US8843358B2 (en) 2011-02-03 2014-09-23 Echostar Technologies L.L.C. Apparatus, systems and methods for presenting displayed image information of a mobile media device on a large display and control of the mobile media device therefrom
KR101810403B1 (ko) * 2011-05-13 2017-12-19 삼성전자주식회사 휴대용 단말기에서 주변 디바이스의 데이터를 저장하기 위한 장치 및 방법
KR101801577B1 (ko) * 2011-06-28 2017-11-27 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
KR20130007811A (ko) * 2011-07-11 2013-01-21 삼성전자주식회사 외부 장치와 연결된 휴대 단말기의 화면 표시 방법 및 장치
US10976981B2 (en) * 2011-07-15 2021-04-13 Vmware, Inc. Remote desktop exporting
JP5658366B2 (ja) * 2011-07-22 2015-01-21 クラリオン株式会社 車載機による遠隔操作システム
US20130027289A1 (en) * 2011-07-27 2013-01-31 Lg Electronics Inc. Electronic device
BE1020187A3 (nl) * 2011-08-10 2013-06-04 Laureyssens Dirk Speciale mobiele telefoon.
US9342205B2 (en) 2011-09-05 2016-05-17 Lenovo (Beijing) Co., Ltd. Display method, terminal device and multi-terminal device system
CN103257948A (zh) * 2012-02-20 2013-08-21 联想(北京)有限公司 一种信息交互方法及系统
EP2783503A1 (de) * 2011-11-22 2014-10-01 BlackBerry Limited Verfahren und vorrichtung zur steuerung von darstellungsvorrichtungen
KR101890674B1 (ko) * 2011-12-07 2018-08-22 엘지전자 주식회사 이동 단말기 및 그 동작 제어 방법
EP2615809A1 (de) * 2012-01-13 2013-07-17 Research In Motion Limited Drahtloses Kommunikationssystem zur Übertragung eines Hyperlinks im Zusammenhang mit einer Sekundärressource und zugehörige Verfahren
KR101195520B1 (ko) * 2012-02-22 2012-10-29 알서포트 주식회사 모바일 단말을 원격 제어하는 방법 및 장치
JP5944689B2 (ja) * 2012-02-22 2016-07-05 クラリオン株式会社 車載機、および、車載機の表示制御システム
CN102662514B (zh) * 2012-03-30 2017-03-29 中兴通讯股份有限公司 一种控制触摸屏的方法和移动终端
DE102012206536A1 (de) * 2012-04-20 2013-10-24 Hans-Ulrich Neubauer Verfahren zum Ausgeben mindestens einer Bedieninformation für ein Produkt
KR101952682B1 (ko) * 2012-04-23 2019-02-27 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR20130121524A (ko) * 2012-04-27 2013-11-06 삼성전자주식회사 통신 서비스 관리 시스템 및 이의 운용 방법
KR20140003151A (ko) * 2012-06-29 2014-01-09 엘지전자 주식회사 디지털 기기 및 그 제어 방법
KR102009816B1 (ko) * 2012-08-28 2019-08-12 삼성전자주식회사 화면 디스플레이 방법 및 장치
KR101888650B1 (ko) 2012-09-07 2018-08-14 삼성전자주식회사 애플리케이션 실행 방법 및 이를 위한 단말
US20140073255A1 (en) * 2012-09-07 2014-03-13 Google Inc. System and method for interacting with content of an electronic device
US10524100B2 (en) 2012-09-07 2019-12-31 Samsung Electronics Co., Ltd. Electronic apparatus and method of outputting content by the electronic apparatus
US20140075377A1 (en) * 2012-09-10 2014-03-13 Samsung Electronics Co. Ltd. Method for connecting mobile terminal and external display and apparatus implementing the same
CN103677711B (zh) * 2012-09-10 2018-07-20 三星电子株式会社 连接移动终端和外部显示器的方法和实现该方法的装置
US9936335B2 (en) * 2012-12-13 2018-04-03 Microsoft Technology Licensing, Llc Mobile computing device application sharing
CN103902027A (zh) * 2012-12-26 2014-07-02 鸿富锦精密工业(深圳)有限公司 智能切换装置及其智能切换方法和系统
WO2014103314A1 (ja) * 2012-12-27 2014-07-03 パナソニック株式会社 他の機器と通信可能な電子機器
US11210076B2 (en) 2013-01-28 2021-12-28 Samsung Electronics Co., Ltd. Downloading and launching an app on a second device from a first device
US9306990B2 (en) 2013-02-14 2016-04-05 Raytheon Company System and method for map collaboration
US20140240241A1 (en) * 2013-02-26 2014-08-28 Payam Moradian Monitor for Mobile Phone
US9473563B2 (en) * 2013-03-08 2016-10-18 Tencent Technology (Shenzhen) Company Limited Methods and systems for loading data into terminal devices
US9323455B2 (en) * 2013-04-27 2016-04-26 Lg Electronics Inc. Mobile terminal and method of controlling an external mobile terminal
CN103237086B (zh) * 2013-05-15 2017-03-01 努比亚技术有限公司 一种信息传输系统和信息传输方法
US20160227011A1 (en) * 2013-05-29 2016-08-04 Nikon Corporation Electronic device, and program
US9467558B2 (en) * 2013-06-14 2016-10-11 Lg Electronics Inc. Mobile terminal and controlling method thereof
KR102064952B1 (ko) * 2013-07-12 2020-01-10 삼성전자주식회사 수신 데이터를 이용하여 어플리케이션을 운영하는 전자 장치
KR102144553B1 (ko) * 2013-08-30 2020-08-13 삼성전자주식회사 다중 디스플레이 방법, 저장 매체 및 전자 장치
KR102071579B1 (ko) * 2013-09-02 2020-01-30 삼성전자주식회사 화면 미러링을 이용한 서비스 제공 방법 및 그 장치
US10225611B2 (en) 2013-09-03 2019-03-05 Samsung Electronics Co., Ltd. Point-to-point content navigation using an auxiliary device
KR101670808B1 (ko) * 2013-09-03 2016-10-31 삼성전자주식회사 알림을 제공하는 방법 및 그 전자 장치
US9883231B2 (en) 2013-09-03 2018-01-30 Samsung Electronics Co., Ltd. Content control using an auxiliary device
US20150062164A1 (en) * 2013-09-05 2015-03-05 Seiko Epson Corporation Head mounted display, method of controlling head mounted display, computer program, image display system, and information processing apparatus
US10451874B2 (en) * 2013-09-25 2019-10-22 Seiko Epson Corporation Image display device, method of controlling image display device, computer program, and image display system
KR102107404B1 (ko) * 2013-10-30 2020-05-07 삼성전자주식회사 어플리케이션을 공유하는 전자 장치 및 그 제어 방법
CN104731444B (zh) * 2013-12-23 2019-08-13 阿尔派株式会社 电子装置及图标的显示方法
US9886134B2 (en) 2013-12-27 2018-02-06 Pioneer Corporation Terminal device, calibration method and calibration program
KR102122476B1 (ko) 2014-01-08 2020-06-12 삼성전자주식회사 화면의 회전을 컨트롤할 수 있는 전자 장치 및 방법
CA2937922A1 (en) * 2014-02-07 2015-08-13 Kik Interactive Inc. Method and system for replicating a communication application on an auxiliary computing device
US20150245163A1 (en) * 2014-02-25 2015-08-27 Sony Corporation Proximity detection of candidate companion display device in same room as primary display using wi-fi or bluetooth signal strength
KR101550055B1 (ko) * 2014-03-18 2015-09-04 주식회사 오비고 템플릿 기반 ui를 이용하는 애플리케이션 커넥터를 제공하기 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
KR102374584B1 (ko) 2014-03-21 2022-03-16 삼성전자주식회사 영상을 디스플레이 하는 방법 및 디바이스
US10623351B2 (en) * 2014-03-31 2020-04-14 Htc Corporation Messaging system and method thereof
US20150334138A1 (en) * 2014-05-14 2015-11-19 Microsoft Corporation Transferring content between graphical user interfaces
US10270819B2 (en) * 2014-05-14 2019-04-23 Microsoft Technology Licensing, Llc System and method providing collaborative interaction
US9552473B2 (en) 2014-05-14 2017-01-24 Microsoft Technology Licensing, Llc Claiming data from a virtual whiteboard
KR102276272B1 (ko) * 2014-05-21 2021-07-12 삼성전자주식회사 홈 스크린 페이지를 추가하는 전자 장치 및 방법
US20160105628A1 (en) * 2014-10-13 2016-04-14 Mediatek Inc. Method for controlling an electronic device with aid of user input back channel, and associated apparatus and associated computer program product
KR20160048429A (ko) * 2014-10-24 2016-05-04 엘지전자 주식회사 이동 단말기 및 그 제어 방법
GB2532038B (en) * 2014-11-06 2018-08-29 Displaylink Uk Ltd System for controlling a display device
KR20160069286A (ko) * 2014-12-08 2016-06-16 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR102335024B1 (ko) * 2014-12-10 2021-12-03 삼성전자주식회사 제어 방법 및 그 방법을 처리하는 전자장치
US11023117B2 (en) * 2015-01-07 2021-06-01 Byron Burpulis System and method for monitoring variations in a target web page
KR102296323B1 (ko) * 2015-01-14 2021-09-01 삼성전자주식회사 전자 장치 및 전자 장치에서의 정보 처리 방법
EP3259661B1 (de) * 2015-02-19 2022-04-27 Citrix Systems, Inc. Systeme und verfahren zur bereitstellung von angepasster multimonitortopologieunterstützung in einer virtualisierungsumgebung
US9870192B2 (en) 2015-02-19 2018-01-16 Citrix Systems, Inc. Systems and methods for providing adapted multi-monitor topology support in a virtualization environment
WO2016137167A1 (en) * 2015-02-23 2016-09-01 Lg Electronics Inc. Terminal
JP6617422B2 (ja) * 2015-03-27 2019-12-11 富士通株式会社 ウィンドウ設定方法、プログラム及び表示制御装置
KR102306536B1 (ko) 2015-04-01 2021-09-29 삼성전자주식회사 위젯 제공 시스템 및 방법
US10311715B2 (en) * 2015-04-27 2019-06-04 Navico Holding As Smart device mirroring
TW201642625A (zh) * 2015-05-22 2016-12-01 Trusted Solutions Corp 內建圖形使用者介面描述於物聯網裝置的自動控制方法
TW201642642A (zh) 2015-05-25 2016-12-01 宏碁股份有限公司 通知互動方法及裝置
US10025546B2 (en) * 2015-07-14 2018-07-17 International Business Machines Corporation Remote device control via transparent display
KR102390082B1 (ko) * 2015-07-14 2022-04-25 삼성전자주식회사 전자 장치의 동작 방법 및 전자 장치
CN106550090A (zh) * 2015-09-16 2017-03-29 中兴通讯股份有限公司 远程控制方法、装置及移动终端
CN105426076B (zh) * 2015-11-04 2019-10-29 联想(北京)有限公司 信息处理方法及电子设备
US10078482B2 (en) 2015-11-25 2018-09-18 Samsung Electronics Co., Ltd. Managing display of information on multiple devices based on context for a user task
KR102459547B1 (ko) * 2016-01-08 2022-10-27 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
KR102383130B1 (ko) * 2016-01-18 2022-04-08 삼성전자주식회사 기능을 제어하는 방법 및 이를 지원하는 전자 장치
GB2547919B (en) * 2016-03-02 2019-08-21 Arm Ip Ltd Proximity authentication protocol
JP6699279B2 (ja) * 2016-03-23 2020-05-27 セイコーエプソン株式会社 デバイスの支援方法、表示機器の支援システム及び電子機器
US20170285813A1 (en) * 2016-03-29 2017-10-05 Microsoft Technology Licensing, Llc Touch-Input Support for an External Touch-Capable Display Device
WO2017177302A1 (en) 2016-04-15 2017-10-19 Light Wave Technology Inc. Automotive rear-view camera peripheral
WO2018010023A1 (en) 2016-07-11 2018-01-18 Light Wave Technology Inc. Command relay device, system and method for providing remote assistance / remote control
JP6844159B2 (ja) * 2016-09-12 2021-03-17 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
US11170757B2 (en) * 2016-09-30 2021-11-09 T-Mobile Usa, Inc. Systems and methods for improved call handling
US11314313B2 (en) 2016-10-19 2022-04-26 Hewlett-Packard Development Company, L.P. Screen casting
WO2018144027A1 (en) 2017-02-06 2018-08-09 Hewlett-Packard Development Company, L.P. Mirroring of screens
WO2018144026A1 (en) 2017-02-06 2018-08-09 Hewlett-Packard Development Company, L.P. Media content control of source devices on sink devices
US11145122B2 (en) * 2017-03-09 2021-10-12 Samsung Electronics Co., Ltd. System and method for enhancing augmented reality (AR) experience on user equipment (UE) based on in-device contents
US11163866B2 (en) * 2017-03-31 2021-11-02 Ricoh Company, Ltd. Shared terminal, display control method, and non-transitory computer-readable medium
WO2018223400A1 (zh) 2017-06-09 2018-12-13 华为技术有限公司 一种显示方法及装置
AU2017418882A1 (en) * 2017-06-13 2019-12-19 Huawei Technologies Co., Ltd. Display method and apparatus
JP6528820B2 (ja) * 2017-09-19 2019-06-12 カシオ計算機株式会社 コンピュータ、情報機器、これらを動作させるプログラム、情報処理システム、及び情報処理システムの制御方法
CN108804067A (zh) * 2018-06-14 2018-11-13 上海掌门科技有限公司 信息显示方法、设备和计算机可读介质
US10809899B2 (en) 2018-07-20 2020-10-20 Navico Holding As Computing device mirroring on a marine electronics device
JP7081052B2 (ja) 2018-09-04 2022-06-06 アップル インコーポレイテッド 模擬現実(sr)におけるデバイス共有及び対話性の表示
CN109766066B (zh) * 2018-12-29 2022-03-01 华为技术有限公司 一种消息处理的方法、相关装置及系统
JP2020201372A (ja) * 2019-06-10 2020-12-17 セイコーエプソン株式会社 表示装置の制御方法、および表示装置
JP7354702B2 (ja) * 2019-09-05 2023-10-03 富士通株式会社 表示制御方法、表示制御プログラムおよび情報処理装置
CN112527221A (zh) * 2019-09-18 2021-03-19 华为技术有限公司 一种数据传输的方法及相关设备
CN117492611A (zh) * 2019-12-24 2024-02-02 华为技术有限公司 一种文件处理方法、电子设备、系统和存储介质
CN113453081A (zh) * 2020-03-28 2021-09-28 华为技术有限公司 视频传输方法、系统、相关设备及存储介质
CN114077411A (zh) * 2020-08-11 2022-02-22 华为技术有限公司 数据传输方法和设备
CN114296948A (zh) * 2020-09-21 2022-04-08 荣耀终端有限公司 一种跨设备调用应用的方法及电子设备
CN116391170A (zh) * 2020-10-28 2023-07-04 三星电子株式会社 电子装置、显示装置及其控制方法
CN112269511A (zh) * 2020-10-30 2021-01-26 维沃移动通信有限公司 页面显示方法、装置及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090032283A (ko) 2007-09-27 2009-04-01 세메스 주식회사 기판 처리 장치 및 그의 약액 공급 방법
KR20090051175A (ko) 2006-07-20 2009-05-21 오스람 게젤샤프트 미트 베쉬랭크터 하프퉁 초고압 수은 램프
KR20090053945A (ko) 2006-09-06 2009-05-28 신젠타 파티서페이션즈 아게 살진균제
KR20090053946A (ko) 2006-09-15 2009-05-28 인터디지탈 테크날러지 코포레이션 랜덤 액세스 파라미터의 동적 업데이트를 위한 방법 및 장치

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04177992A (ja) 1990-11-09 1992-06-25 Victor Co Of Japan Ltd 階層性を有する画像符号化装置
US5621430A (en) * 1994-08-29 1997-04-15 Software Garden, Inc. Method and apparatus for navigating multiple independent windowed images
JPH0922339A (ja) * 1995-07-05 1997-01-21 Matsushita Electric Ind Co Ltd 遠隔操作装置
US5864711A (en) * 1995-07-05 1999-01-26 Microsoft Corporation System for determining more accurate translation between first and second translator, and providing translated data to second computer if first translator is more accurate
JP3582393B2 (ja) * 1999-02-09 2004-10-27 セイコーエプソン株式会社 デバイス制御装置、ユーザインターフェイス表示方法およびユーザインターフェイスを表示させるためのコンピュータプログラムを記録した記録媒体
JP2001078199A (ja) 1999-09-07 2001-03-23 Matsushita Electric Ind Co Ltd 映像信号符号化装置
US6621508B1 (en) * 2000-01-18 2003-09-16 Seiko Epson Corporation Information processing system
US6993575B2 (en) * 2000-02-22 2006-01-31 Oracle International Corporation Using one device to configure and emulate web site content to be displayed on another device
US20020049978A1 (en) * 2000-10-20 2002-04-25 Rodriguez Arturo A. System and method for access and placement of media content information items on a screen display with a remote control device
JP2003058482A (ja) * 2001-08-14 2003-02-28 Fujitsu Ltd エリアチャットルーム提供方法,端末側エリアチャット処理方法,エリアチャットルーム提供処理プログラム記録媒体,エリアチャットルーム提供装置
US7409231B2 (en) * 2001-08-28 2008-08-05 Sony Corporation Information processing apparatus and method, and recording medium
US7802207B2 (en) * 2001-12-13 2010-09-21 Nvidia International, Inc. System, method, and article of manufacture for generating a customizable network user interface
JP2003244343A (ja) * 2002-02-21 2003-08-29 Toyota Motor Corp 表示装置、携帯端末及び情報表示システム
KR20030093753A (ko) 2002-06-05 2003-12-11 삼성전자주식회사 데이터 송수신 방법 및 장치
JP2004153382A (ja) 2002-10-29 2004-05-27 Victor Co Of Japan Ltd 動きベクトル検出装置
JP2006511384A (ja) * 2002-11-13 2006-04-06 アカレッタ、ラウル デルガド 情報表示装置
EP1597895A2 (de) 2003-02-19 2005-11-23 Koninklijke Philips Electronics N.V. System und verfahren fürs ad-hoc teilen von inhaltsstücken zwischen tragbaren endgeräten
US7194690B2 (en) * 2003-04-17 2007-03-20 Lenovo (Singapore) Pte. Ltd. Remote support for computer or other electronic device
JP2005038110A (ja) * 2003-05-21 2005-02-10 Hitachi Ltd 情報表示システムおよびそのシステムの処理方法
US20050015731A1 (en) * 2003-07-15 2005-01-20 Microsoft Corporation Handling data across different portions or regions of a desktop
EP1515223A1 (de) 2003-09-10 2005-03-16 Siemens Aktiengesellschaft Generierung einer Objekt-Bearbeitungsplattform zwischen zwei Computern über eine Bildschirmzusammenfügung
US7275212B2 (en) * 2003-10-23 2007-09-25 Microsoft Corporation Synchronized graphics and region data for graphics remoting systems
US20050091359A1 (en) * 2003-10-24 2005-04-28 Microsoft Corporation Systems and methods for projecting content from computing devices
US7535515B2 (en) * 2003-12-23 2009-05-19 Ravi Ananthapur Bacche Motion detection in video signals
US7487454B2 (en) 2004-04-26 2009-02-03 Microsoft Corporation Managing arbitrary window regions for more effective use of screen space
US7634533B2 (en) * 2004-04-30 2009-12-15 Microsoft Corporation Systems and methods for real-time audio-visual communication and data collaboration in a network conference environment
KR100755437B1 (ko) * 2004-07-07 2007-09-04 주식회사 더블유알지 휴대단말기의 캐릭터 서비스 장치 및 방법
WO2006043977A1 (en) 2004-10-19 2006-04-27 Sony Ericsson Mobile Communications Ab Handheld wireless communication device for displaying information on multiple display screens, method of operating the device, and computer program product for operating the device
US20060107303A1 (en) * 2004-11-15 2006-05-18 Avaya Technology Corp. Content specification for media streams
JP4738805B2 (ja) * 2004-12-16 2011-08-03 株式会社リコー 画面共有システム、画面共有方法、画面共有プログラム
US7450954B2 (en) * 2005-02-07 2008-11-11 Lamoda, Inc. System and method for location-based interactive content
US7970870B2 (en) * 2005-06-24 2011-06-28 Microsoft Corporation Extending digital artifacts through an interactive surface
JP4349349B2 (ja) 2005-08-30 2009-10-21 ソニー株式会社 データ送受信システム、送信装置、受信装置及びデータ送受信方法
JP2007065944A (ja) * 2005-08-31 2007-03-15 Hitachi Ltd 計算機情報の表示方法およびシステム
US7633076B2 (en) * 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
KR100713511B1 (ko) 2005-10-07 2007-04-30 삼성전자주식회사 이동 통신 단말기의 화상 통화 서비스 수행 방법
KR20070039719A (ko) 2005-10-10 2007-04-13 삼성전자주식회사 송수신목록을 이용한 데이터 송수신 기능을 가진 복합기 및이를 이용한 데이터 송수신 방법
US20070124370A1 (en) * 2005-11-29 2007-05-31 Microsoft Corporation Interactive table based platform to facilitate collaborative activities
KR20070067927A (ko) 2005-12-26 2007-06-29 주식회사 케이티 음성 통화 중에 콘텐츠 공유를 제공하는 시스템, 방법 및이를 구현하는 단말
WO2007102453A1 (ja) 2006-03-08 2007-09-13 Nec Corporation 情報共有システム、情報共有方法、端末装置及びプログラム
JP2007288380A (ja) * 2006-04-14 2007-11-01 Fuji Xerox Co Ltd 電子会議システム、電子会議支援プログラム及び方法、電子会議制御装置、携帯型記憶機器
CN101216808A (zh) * 2007-01-04 2008-07-09 联想(北京)有限公司 播放系统和方法
US20080209066A1 (en) * 2007-01-24 2008-08-28 Spio Mary A Method and apparatus for providing continuous playback of media programs at a remote end user computer
KR101524572B1 (ko) * 2007-02-15 2015-06-01 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 인터페이스 제공 방법
US20080209075A1 (en) 2007-02-22 2008-08-28 Yahoo! Inc. Synchronous delivery of media content and real-time communication for online dating
JP5129499B2 (ja) * 2007-04-11 2013-01-30 キヤノン株式会社 画像形成装置、画像形成装置の制御方法、プログラム、記憶媒体
KR101414609B1 (ko) * 2007-09-11 2014-07-03 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
JP2009122947A (ja) * 2007-11-14 2009-06-04 Canon Inc 画面共有システム及びデータ転送方法
KR20090056081A (ko) 2007-11-29 2009-06-03 삼성전자주식회사 근거리 통신망을 이용한 휴대 단말기 및 그 데이터 공유방법.
US20090195513A1 (en) * 2008-02-05 2009-08-06 Delphi Technologies, Inc. Interactive multimedia control module
US8473851B2 (en) * 2008-02-27 2013-06-25 Cisco Technology, Inc. Multi-party virtual desktop
US20090249219A1 (en) * 2008-03-31 2009-10-01 Best Steven F Providing a Shared Desktop Interface of Multiple Computer Terminals
US7953777B2 (en) * 2008-04-25 2011-05-31 Yahoo! Inc. Method and system for retrieving and organizing web media
CN102257471B (zh) * 2008-10-26 2015-07-22 思杰系统有限公司 一种用于在移动计算设备上显示在服务器上执行的应用的窗口的方法
KR101143601B1 (ko) * 2008-12-18 2012-05-11 한국전자통신연구원 이종 기기간 디지털 컨텐츠 이동 시스템 및 방법
US8185828B2 (en) 2009-04-08 2012-05-22 Cisco Technology, Inc. Efficiently sharing windows during online collaborative computing sessions
US8842635B2 (en) * 2011-05-06 2014-09-23 Samsung Electronics Co., Ltd. Apparatus and method for anti-collision in wireless power transmission

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090051175A (ko) 2006-07-20 2009-05-21 오스람 게젤샤프트 미트 베쉬랭크터 하프퉁 초고압 수은 램프
KR20090053945A (ko) 2006-09-06 2009-05-28 신젠타 파티서페이션즈 아게 살진균제
KR20090053946A (ko) 2006-09-15 2009-05-28 인터디지탈 테크날러지 코포레이션 랜덤 액세스 파라미터의 동적 업데이트를 위한 방법 및 장치
KR20090032283A (ko) 2007-09-27 2009-04-01 세메스 주식회사 기판 처리 장치 및 그의 약액 공급 방법

Also Published As

Publication number Publication date
US9792028B2 (en) 2017-10-17
EP2242241A1 (de) 2010-10-20
US9413820B2 (en) 2016-08-09
US20100262673A1 (en) 2010-10-14
US20160357427A1 (en) 2016-12-08
EP2958305B1 (de) 2023-01-04
EP2242241B1 (de) 2019-06-19
US20100261508A1 (en) 2010-10-14
US20150326706A1 (en) 2015-11-12
US20150358398A1 (en) 2015-12-10
US20100259464A1 (en) 2010-10-14
EP3337147A1 (de) 2018-06-20
US9753629B2 (en) 2017-09-05
US8914462B2 (en) 2014-12-16
US9456028B2 (en) 2016-09-27
US20100261507A1 (en) 2010-10-14
US20160357426A1 (en) 2016-12-08
EP2242240A1 (de) 2010-10-20
US20150072675A1 (en) 2015-03-12
EP2958305A1 (de) 2015-12-23

Similar Documents

Publication Publication Date Title
DE202009019049U1 (de) Netzwerkkommunikationsvorrichtung mit einem ersten Gerät und einem zweiten Gerät
DE112018000226T5 (de) Mobiles Cloud-Computing-Endgerät und Betriebsverfahren dafür
DE112011102650T5 (de) Eingabe in gesperrtes Computergerät
DE202009019125U1 (de) Bewegungsgesteuerte Ansichten auf mobilen Computergeräten
DE202011110922U1 (de) Mobiles Endgerät
DE202020005847U1 (de) Ein elektronisches Gerät, ein Computerspeichermedium und ein Computerprogrammprodukt
DE102013004214A1 (de) Alternative Entsperrungsmuster
DE202008018484U1 (de) Mobiles Endgerät
EP0814611A2 (de) Kommunikationssystem und Verfahren zur Aufnahme und Verwaltung digitaler Bilder
DE202013012353U1 (de) Mobiles Endgerät und Steuerverfahren dafür
CN102148888A (zh) 移动电话集成到驾驶员信息系统
US20100318599A1 (en) Method for remotely controlling terminal device
CN108475221B (zh) 用于提供多任务处理视图的方法和装置
DE112016002945T5 (de) Systeme und verfahren zur kontextentdeckung von gerätefunktionen
DE202017104855U1 (de) Animieren eines Bildes zum Anzeigen, dass das Bild verschiebbar ist
CN105611341B (zh) 一种传输图像的方法、装置及系统
DE112016004733T5 (de) Techniken zum Anfügen von durch ein mobiles Computergerät aufgenommenen Medien an ein elektronisches Dokument
DE112021003374T5 (de) Anwenden von gespeicherten digitalen make-up-verbesserungen auf erkannte gesichter in digitalen bildern
DE102010006389B4 (de) Bereitstellung eines Internetzugangs für eine externe Wiedergabeeinrichtung
CN106844691A (zh) 一种相机文件管理方法及终端
KR101612301B1 (ko) 단말기 및 그 메뉴 편집 방법
DE112018007632T5 (de) Mobilgerät und verfahren zur steuerung desselben
DE112012006638T5 (de) Inhaltswiedergabevorrichtung und Mobilendgerät
DE102014119727A1 (de) Verfahren zur verarbeitung von informationen und elektronisches gerät
DE102019125849A1 (de) Herstellung einer drahtlosen verbindung zwischen vorrichtungen

Legal Events

Date Code Title Description
R207 Utility model specification
R151 Utility model maintained after payment of second maintenance fee after six years
R152 Utility model maintained after payment of third maintenance fee after eight years
R071 Expiry of right