DE69434843T2 - Am Kopf montierte Bildanzeigevorrichtung und diese enthaltendes Datenverarbeitungssystem - Google Patents

Am Kopf montierte Bildanzeigevorrichtung und diese enthaltendes Datenverarbeitungssystem Download PDF

Info

Publication number
DE69434843T2
DE69434843T2 DE1994634843 DE69434843T DE69434843T2 DE 69434843 T2 DE69434843 T2 DE 69434843T2 DE 1994634843 DE1994634843 DE 1994634843 DE 69434843 T DE69434843 T DE 69434843T DE 69434843 T2 DE69434843 T2 DE 69434843T2
Authority
DE
Germany
Prior art keywords
display
image
screen
operator
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE1994634843
Other languages
English (en)
Other versions
DE69434843D1 (de
Inventor
Hiroshi Suwa-shi KAMAKURA
Joji Suwa-shi KARASAWA
Tadashi Suwa-shi Kinebuchi
Syoichi Suwa-shi Uchiyama
Noriko Suwa-shi Watanabe
Masaaki Suwa-shi Yasukawa
Kunio Suwa-shi Yoneno
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP20086393 priority Critical
Priority to JP20086393 priority
Priority to JP28845993 priority
Priority to JP28845993 priority
Priority to JP29095593 priority
Priority to JP29095593 priority
Priority to JP29095393 priority
Priority to JP29095293 priority
Priority to JP29095293 priority
Priority to JP29095393 priority
Priority to JP29847893 priority
Priority to JP29847893 priority
Priority to JP32859493 priority
Priority to JP32858693 priority
Priority to JP32859493 priority
Priority to JP32858693 priority
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Application granted granted Critical
Publication of DE69434843D1 publication Critical patent/DE69434843D1/de
Publication of DE69434843T2 publication Critical patent/DE69434843T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS, OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS, OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 – G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 – G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 – G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 – G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1632External expansion units, e.g. docking stations
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 – G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 – G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 – G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1654Details related to the display arrangement, including those related to the mounting of the display in the housing the display being detachable, e.g. for remote use
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 – G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1656Details related to functional adaptations of the enclosure, e.g. to provide protection against EMI, shock, water, or to host detachable peripherals like a mouse or removable expansions units like PCMCIA cards, or to provide access to internal components for maintenance or to removable storage supports like CDs or DVDs, or to mechanically mount accessories
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 – G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS, OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS, OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS, OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS, OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • G02B2027/0156Head-up displays characterised by mechanical features with movable elements with optionally usable elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS, OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS, OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B2027/0192Supplementary details
    • G02B2027/0198System for aligning or maintaining alignment of an image in a predetermined direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • H04N5/7475Constructional details of television projection apparatus
    • H04N5/7491Constructional details of television projection apparatus of head mounted projectors

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine kopfverbundene Bildanzeigevorrichtung zur Anzeige von Bildern auf einem Bildschirm, der einen virtuellen Raum zeigt, und auf ein Datenverarbeitungsgerät, das diese Vorrichtung enthält.
  • Beschreibung des Stands der Technik
  • Die Konstruktion von elektronischen Schaltungen oder Experimente mit diesen erfordern aufgrund der Notwendigkeit, die technischen Daten von zu verwendenden Bauteilen zu bestätigen, Materialien wie zum Beispiel Datenblätter. In diesem Fall sind die Materialien auf dem und um den Arbeitstisch des Konstrukteurs herum verteilt, wodurch der Arbeitsraum begrenzt oder der Konstrukteur daran gehindert wird, erforderliches Material schnell zu finden. Dies verringert den Arbeitswirkungsgrad.
  • Um die Konstruktion wirkungsvoll ausführen zu können, wurde die rechnerunterstützte Entwicklung (CAE – Computer Aided Engineering) zur Ausarbeitung von Konstruktionen mit Hilfe von Computern eingeführt. Das heißt, es wird eine papierlose Konstruktionsumgebung aufgebaut, bei der zum Beispiel Materialien wie Datenblätter in einem Computer gespeichert werden, damit sie nach Bedarf auf dem Bildschirm des Anzeigegeräts angezeigt werden können und auf sie Bezug genommen werden kann. Die obigen Nachteile wurden dadurch teilweise beseitigt.
  • Wenn aber viele Bauteile verwendet werden müssen und gleichzeitig auf viele Materialien Bezug genommen werden muss, müssen aufgrund der physikalisch begrenzten Größe und Auflösung der CRT (Kathodenstrahlröhren)-Anzeige zur Anzeige von Informationen, obwohl mehrere Fenster zur Anzeige verschiedener Materialien in den verschiedenen Fenstern auf dem Bildschirm geöffnet werden können, die Fenster manchmal einander über lappen, wenn eine große Anzahl von Fenstern gleichzeitig benutzt werden muss. Als Ergebnis ist die Menge an Informationen, auf die gleichzeitig Bezug genommen werden kann, begrenzt, und die durch die Einführung der CAE gelieferte Leistungsfähigkeit ist dadurch begrenzt; in manchen Fällen ist es schneller, die erforderlichen Materialien unter den auf dem und um den Tisch herum verteilten Materialien, wie oben beschrieben, zu finden.
  • Der Arbeitswirkungsgrad bei der Wartung oder Reparatur einer installierten Vorrichtung, bei der die Bedienperson einen solchen Vorgang durchführen muss, während sie sich auf Anweisungshandbücher bezieht und bei der, da die Umgebung in Unordnung ist, die Bedienperson die Handbücher nicht so in Stellung bringen kann, dass sie sich in geeigneter Weise auf sie beziehen kann, ist ebenfalls verringert. Unter solchen Bedingungen ist es außerdem schwierig, eine CRT-Anzeige in der Nähe der Bedienperson anzuordnen, und die Verwendung einer CAE ist unmöglich. Daher waren keine anderen geeigneten Lösungen erhältlich.
  • Es wurden daher mehrere Verfahren zur Befestigung eines Anzeigegeräts am Kopf der Bedienperson und zur Anzeige von Material-Informationen darauf vorgeschlagen.
  • Die ungeprüfte, veröffentlichte Patentanmeldung Nr. 5-35 100192 beschreibt ein Verfahren zum Anzeigen von Bildschirmen ausgehend von Elektronik, wie z.B. Textverarbeitungssystemen, auf einer brillenähnlichen Anzeige, aber dies ist nur eine brillenförmige Version üblicher Anzeigen und nicht für die Darstellung einer großen Anzahl von Materialien geeignet. Die ungeprüfte veröffentlichte Patentanmeldung Nr. 4-263283 schlägt ein tragbares Gerät virtueller Realität vor, aber dies führt einfach zu einem Gerät künstlicher Realität und ist nicht für die Handhabung angezeigter Daten geeignet.
  • Zusätzlich wurde auf mehrere Probleme üblicher kopfverbundener Bildanzeigevorrichtungen hingewiesen, die aus der Notwendigkeit, abwechselnd ein virtuelles Bild auf der Flüssigkristallanzeige und das entsprechende Bild auf der externen Tastatur anzusehen, aufgrund des großen Unterschieds in der Bildqualität zwischen diesen Bildern entstehen. Um dieses Problem zu lösen, bringen einige übliche Techniken ein Anzeigebild und das entsprechende externe Bild dazu, einander zu überlappen. Kopfverbundene Bildanzeigevorrichtungen dieser Art bringen aber auch Probleme mit sich. Zum Beispiel ist bei solchen Geräten die Sichtbarkeit sehr schlecht, da die externen Bilder nur dazu gebracht werden, die entsprechenden Anzeigebilder zu überlappen, und das abwechselnde Ansehen von verschiedenen Bildern kann die Augen der Bedienperson überanstrengen.
  • Wenn bei kopfverbundenen Bildanzeigevorrichtungen zum Beispiel Daten in ein Textverarbeitungssystem eingegeben werden, müssen darüber hinaus zu drückende Tasten bestätigt werden, während ein Anzeigebild angesehen wird, so dass die externe Tastatur überprüft werden muss, während das Anzeigebild beobachtet wird.
  • Um dieses Problem zu lösen, kann eine Einrichtung zum Umschalten zwischen einem externen Bild und dem entsprechenden Bild von einer Rechenoperationsvorrichtung vorgesehen werden, oder es kann eine Konfiguration, die die Verwendung eines Teils des Sehbereichs zur Beobachtung der Anzeige ermöglicht, während der andere Teil zum Überprüfen der Außenumgebung verwendet wird, vorgesehen werden, wie in der veröffentlichten ungeprüften Patentanmeldung Nr. 5-100192 vorgeschlagen wird. Da Daten eingegeben werden müssen, während ein bestimmter Teil des Sehbereichs verwendet wird, um die Eingabevorrichtung zu überprüfen, schließt in diesem Fall aber das Anbringen der Bildanzeigevorrichtung am Kopf der Bedienperson die freie Eingabeposition der Bedienperson aus, und Langzeitarbeit führt demnach zu beträchtlicher Ermüdung. Wenn außerdem eine Tastatur als Eingabevorrichtung verwendet wird, ist der Eingabevorgang sehr schwierig, wenn die Tasten größer als die Fingerspitzen der Bedienperson sind, wodurch die Grenze der praktischen Größe von tragbaren Bildschirmgeräten von der Größe der Tastatur abhängt. Aufgrund der ortsfesten Anordnung von Tasten bei üblichen Tastaturen sind außerdem keine optimalen Tastenanordnungen für verschiedene Anwendungen erhältlich. In der heutigen informationsorientierten Gesellschaft wird den Multimedia-Anwendungen immer mehr Aufmerksamkeit gewidmet, und so müssen die Leute häufig mit Daten arbeiten, bei denen bewegliche Bilder und Standbilder gemischt sind. Unter diesen Umständen hindert die Notwendigkeit komplizierter Verfahren zur Erzeugung von beweglichen Bildern Menschen ohne spezielle Erfahrung daran, unter wirkungsvoller Verwendung von mehreren Medien geeignete Ausdrücke zu liefern.
  • Für Multimedia-Hypertextsystem-Anwendungen ist die von Apple Co., Ltd. erhältliche HyperCard beliebt, aber sie erfordert eine große Anzahl von Mausklicks, was möglicherweise zu Fehlern bei den angeklickten Positionen führen kann.
  • Bei Filmnachbearbeitungsprozessen zum Verarbeiten, Synthetisieren und Editieren von Filmmaterial ist aufgrund der Notwendigkeit, komplexe Prozeduren gemäß Vorberechnungen akkurat durchzuführen, viel Zeit erforderlich, um den Prozess zu vervollständigen; zudem ist die Anpassungsfähigkeit dieser Prozesse begrenzt und es ist unmöglich, während des Prozesses verschiedene Bildkombinationen zu testen.
  • Wenn eine kopfverbundene Bildanzeigevorrichtung verwendet wird, kann außerdem nur die die Vorrichtung tragende Person die von einem Datenverarbeitungsgerät ausgegebenen Bildanzeigeinformationen betrachten. Wenn mehrere Leute vom Datenverarbeitungsgerät ausgegebene Bildanzeigeinformationen ansehen müssen, dann
    • (1) müssen diese Leute abwechselnd eine einzige kopfverbundene Bildanzeigevorrichtung nutzen, oder
    • (2) muss ein weiteres Datenverarbeitungsgerät mit einer CRT-Anzeige zur Verfügung gestellt werden.
  • Auf diese Weise können mehrere Vorrichtungen erforderlich sein, je nach dem bestimmten Zweck und der Anwendung.
  • Es wurde versucht, die Größe der Computer und Textverarbeitungssysteme zu reduzieren, und es werden immer häufiger tragbare Datenverarbeitungsgeräte verwendet. Solche tragbaren Datenverarbeitungsgeräte weisen üblicherweise eine Anzeige vom offenen Typ auf, die bei Gebrauch geöffnet wird. Mit der weiteren Reduzierung der Größe von tragbaren Datenverarbeitungsgeräten, der Ausdehnung des Bereichs, innerhalb dessen solche Vorrichtungen verwendet werden können, und der steigenden Nachfrage nach Funktionen der öffentlichen Herstellung von vertraulichen Dokumenten wurde die Verwendung von kopfverbundenen Bildanzeigevorrichtungen vorgeschlagen. Wie in der veröffentlichten ungeprüften Patentanmeldung Nr. 5-100192 enthalten solche Vorrichtungen eine Rechenwerkvorrichtung und eine kopfverbundene Bildanzeigevorrichtung zur Anzeige von von der Rechenwerkvorrichtung ausgegebenen Bildschirminformationen über die kopfverbundene Bildanzeigevorrichtung als vergrößerte virtuelle Bilder. In solchen üblichen Strukturen sind die Rechenwerkvorrichtung und die kopfverbundene Bildanzeigevorrichtung immer voneinander getrennt, sie müssen getrennt getragen werden, was trotz ihrer reduzierten Größen zu einer schlechten Tragbarkeit führt. Selbst wenn die kopfverbundene Bildanzeigevorrichtung in einem äußeren Hüllengehäuse getragen wird, wird die Handhabung umständlich und es können Fehler auftreten.
  • Das Dokument "Eye Movements, For a Bidirectional Human Interface", R. Epworth, ICL Technical Journal November 1990, S. 384 bis 411, offenbart eine an einem Kopfband montierte Anzeigevorrichtung, die eine Eingabesteuerung über Augenbewegungen aufweist.
  • KURZE ZUSAMMENFASSUNG DER ERFINDUNG
  • Es ist ein Ziel der vorliegenden Erfindung, eine kopfverbundene Bildanzeigevorrichtung zu liefern, die für eine wirkungsvolle Konstruktion, Experimente, Wartung und Reparaturen geeignet ist.
  • Es ist ein weiteres Ziel der vorliegenden Erfindung, eine kopfverbundene Bildanzeigevorrichtung zu liefern, die eine gute Tragbarkeit und Sichtbarkeit aufweist und die der Gesundheit des Benutzers nicht schadet.
  • Es ist noch ein weiteres Ziel der vorliegenden Erfindung, eine kopfverbundene Bildanzeigevorrichtung zu liefern, die es der Bedienperson ermöglicht, unabhängig von der Größe einer Eingabevorrichtung Daten in einer natürlichen Position einzugeben.
  • Es ist noch ein weiteres Ziel der vorliegenden Erfindung, eine kopfverbundene Bildanzeigevorrichtung zu liefern, die für Multimedia-Anwendungen genutzt werden kann und die es dem Benutzer ermöglicht, sowohl einen Bildanzeigebereich als auch angezeigte Informationen über die Attribute eines angezeigten Bilds, wenn Standbilder und bewegliche Bilder editiert werden, einfach durch Richtungsänderung des Sichtfelds zu überprüfen.
  • Es ist noch ein weiteres Ziel der vorliegenden Erfindung, eine kopfverbundene Bildanzeigevorrichtung zu liefern, die als ein Bildrückholverfahren, das bei Anwendung mit Multimedia-Hypertextsystem-Anwendungen kompliziert ist, ein Verfahren zur Anzeige zurückgeholter Attribute verwendet, das auf Zeitreihen oder Hierarchien basiert und das Fehler, die dem Bildrückholverfahren zuzuordnen sind, einfach dadurch reduziert, dass die Richtung des Sichtfelds zwischen einem ersten Anzeigebereich und einem zweiten Anzeigebereich umgeschaltet wird.
  • Es ist noch ein weiteres Ziel der vorliegenden Erfindung, eine kopfverbundene Bildanzeigevorrichtung zu liefern, die die dreidimensionale Anzeige von Informationen, die im zweiten Anzeigebereich angezeigt werden, deren Menge mit den Änderungen in Raum oder Zeit variiert, durch Ändern der Parallaxe des Auges der Bedienperson ermöglicht, wodurch Fehler beim Eingeben hierarchischer Daten reduziert werden.
  • Es ist noch ein weiteres Ziel der vorliegenden Erfindung, eine kopfverbundene Bildanzeigevorrichtung zu liefern, die während des Editierens bei fantasievollen Filmproduktionsverfahren, bei denen Stimmen zusätzlich zum Verarbeiten und Editieren von Filmmaterialien eingegeben werden, sogar geringfügige Positionsverhältnisse in einem Bild ausdrücken kann, und die beim Editieren von Filmen Bedingungen, die auf Zeitreihen wie zum Beispiel einer teilweisen Beschleunigung und Verlangsamung basieren, derart ausdrücken kann, dass sie wie reale Bedingungen aussehen.
  • Es ist noch ein weiteres Ziel der vorliegenden Erfindung, ein Datenverarbeitungsgerät zu liefern, das eine Anzeigeeinrichtung je nach Bedarf einfach zwischen einer kopfverbundenen Bildanzeigevorrichtung und einem Bildschirm oder ähnlichem umschalten kann, um darauf eine Bildanzeigeinformation anzuzeigen, die vom Hauptgehäuse des Datenverarbeitungsgeräts ausgegeben wurde.
  • Es ist noch ein weiteres Ziel der vorliegenden Erfindung, ein Datenverarbeitungsgerät zu liefern, das eine kopfverbundene Bildanzeigevorrichtung aufweist, die tragbar und leicht handzuhaben ist.
  • Eine Hauptausführungsform einer kopfverbundenen Bildanzeigevorrichtung gemäß dieser Erfindung ist in Anspruch 1 definiert.
  • Weitere Ausführungsformen sind in den abhängigen Ansprüchen definiert.
  • Mit dem obigen Aufbau ermöglicht die Erfindung, dass die Bedienperson die Größen von Bildern und deren relative Beziehungen beim Editieren während der Bildbetrachtung exakt einstellen kann, durch Bereitstellen einer Ortserfassungseinrichtung zum Erfassen des Sichtfeldes in horizontalen und vertikalen Richtungen und der Spracheingabeeinrichtung, die mit dem Gestell unter Verwendung einer flexiblen Verbindung verbunden ist.
  • Da die Spracheingabeeinrichtung ein kleines Mikrofon aufweist, die es unspezifizierten Sprechern ermöglicht, darin Spracheingaben zu tätigen, kann jeder Benutzer diese Vorrichtung tragen. Darüber hinaus werden durch Einrichten einer Form von Spracheingabeverarbeitung unter Verwendung von "WordSpotting" auf einem Neuro-Computer Fehler bei Eingabevorgängen in gewisser Weise kompensiert, weil verknüpfte Schlüsselwörter auf der Grundlage einer bestimmten Wahrscheinlichkeitsermittlung erkannt werden können, wodurch die Ausführung eines Editierens ermöglicht wird, ohne sich alle Befehle merken zu müssen.
  • Da die Ortserfassungseinrichtung zwischen ersten und zweiten Anzeigebereichen hin und her schalten kann, kann der Anzeigebereich räumlich in eine Vielzahl von Seiten gegliedert werden, wodurch ermöglicht wird, dass das Gesamtbild während des Editierens bestätigt wird, im Gegensatz zu herkömmlichen Techniken, bei denen ein Bild und seine Attribute auf einer einzigen Seite angezeigt werden, die einen Anzeigebereich bildet.
  • Da der zweite Anzeigebereich zum Anzeigen von Attributen eines Bildes ein Geometrie- oder Bedienungsmodell anzeigt, das in den ersten Anzeigebereich einzubeziehen ist, kann er nicht nur Bildmaterialien anzeigen, die während des Editierens er forderlich sind, sondern auch Materialien, die während der interaktiven Eingabe verwendet werden, und Symbole, die in dem zweiten Anzeigebereich angezeigt werden, können durch Mausklick darauf eingegeben werden, wodurch Bedienfehler verringert werden.
  • Weil der zweite Anzeigebereich zum Anzeigen von Attributen eines Bildes Raum-Zeit-Bereichsdaten anzeigt, die in den ersten Anzeigebereich einzubeziehen sind, können Informationen, die sich mit der Zeit ändern, in geeigneter Weise verarbeitet werden.
  • Da der zweite Anzeigebereich zum Anzeigen von Attributen eines Bildes hierarchische und Raum-Zeit-Bereichsdaten, die in den ersten Anzeigebereich mit einer darin vorgesehenen Parallaxe einzubeziehen sind, dreidimensional anzeigt, können die Tiefe der Bilder in dem ersten Anzeigebereich und Raum-Zeit-Bereichsdaten in geeigneter Weise editiert und verarbeitet werden.
  • Obwohl das obige Anzeigeverfahren in Verbindung mit einer Ausführungsform beschrieben wurde, die hauptsächlich Bilder anzeigt und bei der ein Bild rechts von seinen Attributen angezeigt wird, ist diese Erfindung nicht auf diese Anordnung beschränkt, und Attributdaten können links von dem Bild oder über oder unter dem Bild angeordnet sein.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt eine kopfverbundene Bildanzeigevorrichtung gemäß einem erläuternden Beispiel;
  • 2 ist ein Blockdiagramm, das die Details der Anzeigevorrichtung in 1 zeigt;
  • 3 zeigt eine Szene, wie sie von der Bedienperson in dem Beispiel in 1 gesehen wird;
  • 4 ist ein Blockdiagramm, das die Details eines Steuerungssystems in 2 zeigt;
  • 5 ist ein Ablaufdiagramm, das den Betrieb des Steuerungssystems in 4 zeigt;
  • 6 ist ein Ablaufdiagramm, das ein Verfahren zur Spezifizierung von Bildern in dem Beispiel der 1 zeigt;
  • 7 ist ein Ablaufdiagramm, das ein Verfahren zur Bewegung von Bildern in dem Beispiel der 1 zeigt;
  • 8 zeigt eine kopfverbundene Bildanzeigevorrichtung gemäß einem anderen Beispiel der vorliegenden Erfindung;
  • 9 zeigt eine Szene, wie sie von der Bedienperson in dem Beispiel der 8 gesehen wird;
  • 10 zeigt eine kopfverbundene Bildanzeigevorrichtung gemäß noch einem weiteren Beispiel der vorliegenden Erfindung;
  • 11 beschreibt einen Bildschirm, der in dem in 10 gezeigten Beispiel angewendet wird;
  • 12 erklärt eine Verwendung des Beispiels der 10;
  • 13 beschreibt eine Verwendung einer kopfverbundenen Bildanzeigevorrichtung gemäß noch einem weiteren Beispiel der vorliegenden Erfindung von der Seite gesehen;
  • 14 erklärt die Verwendung des Beispiels aus 13 von vorne gesehen;
  • 15 beschreibt die Bedienperson beim Eingeben von Daten mit einer kopfverbundenen Bildanzeigevorrichtung gemäß noch einem weiteren Beispiel der vorliegenden Erfindung (die ein gegebene Informationen und die Ergebnisse von Rechenoperationen anzeigt), die auf den Kopf der Bedienperson aufgesetzt ist;
  • 16 erklärt den Anzeigebildschirm der Bildanzeigevorrichtung aus 15;
  • 17 ist ein Blockdiagramm, das die Struktur einer Rechenoperationsvorrichtung in dem Beispiel der 15 zeigt;
  • 18 ist ein Ablaufdiagramm, das den Signalfluss in dem Beispiel der 15 zeigt;
  • 19 ist ein Ablaufdiagramm, das einen in einer Zuweisungseinrichtung in 17 durchgeführten Prozess zeigt;
  • 20 zeigt die Konfiguration der Bildanzeigevorrichtung in dem Beispiel der 15;
  • 21 zeigt in Perspektive ein Datenverarbeitungsgerät gemäß einem Beispiel der vorliegenden Erfindung, das für einen PC verwendet wird, und eine als Anzeigemittel verwendete brillenähnliche Anzeige, die ein Beispiel der kopfverbundenen Bildanzeigevorrichtung ist;
  • 22 ist eine Seitenansicht, welche die Details einer kopfverbundenen Bildanzeigevorrichtung für das Datenverarbeitungsgerät der 21 zeigt;
  • 23 zeigt in Perspektive ein übliches Datenverarbeitungsgerät, bei dem ein Hauptgehäuse und ein Anzeigeteil voneinander getrennt werden können;
  • die 24 und 25 zeigen das Verhältnis zwischen der senkrechten Bewegung einer Flüssigkristall-Anzeigetafel und der Position eines Bilds;
  • die 26 und 27 zeigen das Verhältnis zwischen der Längsbewegung einer Flüssigkristall-Anzeigetafel und der Größe eines Bilds;
  • 28 zeigt in Perspektive einen Trägermechanismus für die Flüssigkristall-Anzeigetafel;
  • 29 zeigt eine perspektivische Explosionsansicht der 28;
  • 30 zeigt in Perspektive ein übliches Datenverarbeitungsgerät, bei dem ein Hauptgehäuse und ein Anzeigeteil voneinander getrennt werden können;
  • 31 zeigt in Perspektive ein Datenverarbeitungsgerät, an das eine Bildanzeigevorrichtung gemäß noch einer weiteren Ausführungsform der vorliegenden Erfindung angeschlossen werden kann;
  • 32 zeigt ein Datenverarbeitungsgerät gemäß noch einem weiteren Beispiel der vorliegenden Erfindung;
  • 33 zeigt ein Blockdiagramm eines Steuerungssystems in dem Beispiel der 32;
  • 34 zeigt ein Ablaufdiagramm, welches das Steuerungssystem in dem Beispiel der 32 beschreibt;
  • 35 zeigt eine kopfverbundene Bildanzeigevorrichtung gemäß noch einer weiteren Ausführungsform der vorliegenden Erfindung;
  • die 36 und 37 zeigen eine Vorder- bzw. eine Seitenansicht eines optischen Systems in der Ausführungsform der 35;
  • die 38 und 39 zeigen ein Anzeigeverfahren, das verwendet wird, wenn die kopfverbundene Bildanzeigevorrichtung benutzt wird, um Standbilder zu editieren. 38 ist eine Modellzeichnung, welche das Anzeigeverfahren dieses Beispiels zeigt, bei dem ein Bild und seine Attribute in einem ersten und einem zweiten Anzeigebereich angezeigt werden, die rechts bzw. links des Bildschirms angeordnet sind;
  • 40 ist ein Ablaufdiagramm, das einen Prozess zeigt, der in dem Beispiel der 35 ausgeführt wird;
  • 41 ist ein Ablaufdiagramm, das ein Stimmeingabeverfahren in dem Beispiel der 35 zeigt;
  • 42 ist eine Modellzeichnung, die eine Ausführungsform des Anzeigeverfahrens der vorliegenden Erfindung zeigt, bei der die erfindungsgemäße kopfverbundene Bildanzeigevorrichtung verwendet wird, um bewegte Bilder zu simulieren, und bei der ein Bild und seine Attribute in einem ersten und einem zweiten Anzeigebereich angezeigt werden, die sich links bzw. rechts des Bildschirms befinden. 42(a) zeigt die Ergebnisse eines simulierten Bilds. 42(b) zeigt den Verlauf des Flugzeugs. 42(c) zeigt die Geschwindigkeit des Flugzeugs. 42(d) zeigt die hierarchische Segmentierung der Bildsegmente;
  • 43 ist eine Modellzeichnung, die ein Datenverarbeitungsgerät gemäß noch einer weiteren Ausführungsform der vorliegenden Erfindung zeigt;
  • 44 ist ein Blockdiagramm, das ein Steuerungssystem in dem Datenverarbeitungsgerät der 43 zeigt;
  • 45 ist eine Modellzeichnung, die ein Datenverarbeitungsgerät gemäß noch einem weiteren Beispiel der vorliegenden Erfindung beschreibt;
  • 46 ist eine Modellzeichnung, die ein Datenverarbeitungsgerät gemäß noch einem weiteren Beispiel der vorliegenden Erfindung beschreibt; und
  • 47 ist ein Blockdiagramm, das ein Steuerungssystem im Datenverarbeitungsgerät der 46 zeigt.
  • AUSFÜHRLICHE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Beispiel 1
  • 1 zeigt ein Beispiel, bei dem eine Bedienperson 1 auf einem Stuhl 8 sitzt, um an einem Pult 7 zu arbeiten. Die Bedienperson 1 trägt auf ihrem Kopf eine kopfverbundene Bildanzeigevorrichtung 2 (nachfolgend "Anzeigevorrichtung" genannt). Ein Computer 3 ist unter dem Pult 7 angeordnet, um über eine Verbindungsschnur Bildanzeigeinformationen an die Anzeigevorrichtung 2 zu liefern (siehe 2). Außerdem ist mit dem Computer 3 ein Fußschalter 4 verbunden, der als Trigger-Eingabeeinrichtung arbeitet.
  • Wie in 2 gezeigt, besitzt die Anzeigevorrichtung 2 ein brillenähnliches Gestell 101, in dem eine Treiberschaltung 105 untergebracht ist, und ein Ende der Verbindungsschnur 106 ist mit der Treiberschaltung 105 verbünden. Die Treiberschaltung 105 und der Computer 3 bilden eine Bilderzeugungseinrichtung gemäß der vorliegenden Erfindung. Vor dem Gestell 101 ist auch eine Flüssigkristalltafel 102 befestigt, die ein seitliches Paar von Flüssigkristall-Anzeigevorrichtungen und eine Hintergrundbeleuchtung 104 aufweist, die die Flüssigkristalltafel 102 von hinten beleuchtet, und eine Vergrößerungslinse 103 ist auf der Innenfläche des Gestells 101 zwischen der Flüssigkristalltafel 102 und den Augen 120 der Bedienperson angeordnet. Die vom Computer 3 über die Verbindungsschnur 106 gesendete Bildanzeigeinformation wird von der Treiberschaltung 105 decodiert und auf der Flüssigkristalltafel 102 angezeigt.
  • Die Flüssigkristalltafel 102 ist vom sehr kleinen Vollfarben- oder Einfarbentyp, mit einer Bildschirmgröße von etwa 1,778 cm bis 3,30 cm (0,7 bis 1,3 Inch), und ein Bild wird von der Vergrößerungslinse 103 auf etwa 35,56 cm (14 Inch) in einem Sichtfeld von 0,5 bis 1,0 m vergrößert und von der Bedienperson 1 als virtuelles Bild gesehen. Die Flüssigkristalltafel 102, die Hintergrundbeleuchtung 104 und die Vergrößerungslinse 103 sind je für ein Auge 120 der Bedienperson vorgesehen und normalerweise so ausgebildet, dass sie den gleichen Bildschirm anzeigen, so dass die Augen einen einzigen Anzeigebildschirm sehen.
  • Der Anzeigebildschirm ist so angeordnet, dass er von der Bedienperson gesehen wird, wenn sie in eine Richtung etwas oberhalb der direkten Vorderseite sieht, die vom Pfeil A in 2 angezeigt ist, und ein unterer Teil 122 hat eine hohe Durchlässigkeit im Bereich von etwa 70 bis etwa 95%, so dass, wenn die Bedienperson etwas nach unten sieht, wie vom Pfeil B angezeigt, sie durch den unteren Bereich 122 der Vorderseite des Gestells 101 in die Nähe ihrer Hände sehen kann. Der obere Teil 123 der Vorderfläche des Gestells 101 hat eine geringere Durchlässigkeit im Bereich von 0 bis etwa 10%, um Störlicht am Eindringen in das Gestell zu hindern.
  • Außerdem ist auf das Gestell 101 ein Winkelsensor 107 montiert, der die Richtung und den Winkel des Kopfes 1 der Bedienperson erfasst, wenn er sich senkrecht oder waagerecht bewegt, und der die erfassten Daten über die Verbindungsschnur 106 an den Computer 3 überträgt.
  • Eine Infrarotstrahl-LED 108 ist über der Vergrößerungslinse 103 befestigt, und ein Fotodetektor 109 ist unter der Linse 103 angeordnet, um die Richtung der Sichtlinie und das Blinzeln der Bedienperson zu erfassen.
  • Zurück in 1 kann die Bedienperson 1, wenn sie leicht nach oben sieht, einen Anzeigebildschirm auf der Flüssigkristalltafel 102 als einen virtuellen Unterbildschirm 5 auf einem virtuellen Anzeigebildschirm 6 in einem Abstand von etwa 0,5 m bis 1,0 m von der Bedienperson weg sehen, und wenn sie leicht nach unten sieht, kann sie einen Vorgang auf dem Pult 7 sehen.
  • 3 zeigt eine Szene, wie sie von der Bedienperson 1 gesehen wird. In dieser Figur sind sowohl der ganze virtuelle Unterbildschirm 5b als auch der untere Teil eines virtuellen Unterbildschirms 5c, die in dem Bereich enthalten sind, der von einem Anzeigerahmen 51 angezeigt wird, welcher dem maximalen Anzeigebereich der Flüssigkristalltafel 102 entspricht, geringfügig über dem Sichtfeld gezeigt. Das Pult 7, an dem die Bedienperson 1 einen Vorgang durchführt, und die Hände 131 der Bedienperson sind leicht unterhalb des Sichtfelds gezeigt. Wenn die Bedienperson 1 ihren Kopf nach rechts dreht, bewegt sich die Anzeigevorrichtung 2 auch nach rechts, und der Anzeigerahmen 51 bewegt sich dementsprechend nach rechts. Der Winkelsensor 107 erfasst die Richtung und den Winkel des Kopfes der Bedienperson, und der virtuelle Unterbildschirm 5 vom Computer 3 rollt gemäß dem erfassten Winkel nach links. Der virtuelle Unterbildschirm innerhalb des Anzeigerahmens 51 geht über zum Unterbildschirm 5c, geht dann über zum Unterbildschirm 5d, ... usw. Dies gilt auch in senkrechter Richtung. Wenn in diesem Fall die Ausgabe des Winkelsensors 107 und die Strecke, über die der virtuelle Unterbildschirm 5 rollt, vorher eingestellt wurden, kann ein festes relatives Positionsverhältnis zwischen dem Pult 7 und dem virtuellen Unterbildschirm 5 aufrechterhalten werden. Durch Drehung ihres Kopfes kann die Bedienperson 1 einen Teil einer großen Anzahl von Unterbildschirmen 5 sehen; der Bedienperson scheint es, als ob die Unterbildschirme an dem am Raum befestigten virtuellen Anzeigebildschirm 6 festgeklemmt wären.
  • Die Treiberschaltung 105 in der Anzeigevorrichtung 2 enthält eine CPU (Central Processing Unit – Zentraleinheit) 132, eine Bildspeichervorrichtung 133 und einen Bildspeicher 134, wie in 4 gezeigt. In der Bildspeichervorrichtung 133 sind Daten vom Computer 3 gespeichert, und der Bildspeicher 134 speichert Bilddaten, die erforderlich sind, um einen einzelnen Bildschirm (entsprechend dem Anzeigerahmen 51) auf der Flüssigkristalltafel 102 anzuzeigen. Die Bildspeichervorrichtung 133 (und die CPU 132) können in den Computer 3 eingebaut sein.
  • Das Ablaufdiagramm in 5 zeigt den Betrieb eines Steuerungssystems in 4. Die Bildspeichervorrichtung 133 lädt regelmäßig Bilddaten vom Computer 3 und speichert zum Beispiel Bilddaten für die virtuellen Unterbildschirme 5a bis 5e, die in 3 gezeigt sind. Die CPU 132 überprüft, ob die Ausgabe des Winkelsensors 107 sich verändert hat oder nicht, und wenn sie sich ändert, wenn die Bedienperson 1 ihren Kopf bewegt, berechnet sie eine Adresse, die benötigt wird, um einen Bildschirm innerhalb des Anzeigerahmens 51 entsprechend der Winkeländerung anzuzeigen, um sie an die Bildspeichervorrichtung 133 auszugeben. Die Bildspeichervorrichtung 133 schneidet Bilddaten entsprechend der Adresse, um sie an den Bildspeicher 134 auszugeben. Die Flüssigkristalltafel 102 zeigt die Bilddaten an. Auf diese Weise kann die Bedienperson 1 eine große Anzahl von virtuellen Unterbildschirmen 5 betrachten, indem sie einfach ihren Kopf bewegt.
  • Als nächstes wird ein Verfahren zur Bewegung eines beliebigen der großen Anzahl von virtuellen Unterbildschirmen 5 auf dem virtuellen Anzeigebildschirm 6 beschrieben.
  • Zunächst wird ein Verfahren zur Spezifizierung eines beliebigen aus der großen Anzahl von virtuellen Unterbildschirmen 5 auf der Basis des Ablaufdiagramms in 6 beschrieben.
  • Die Position auf dem Anzeigerahmen 51 wird durch die Ausgabe des Winkelsensors 107 wie oben beschrieben bestimmt. Das heißt, diese Ausgabe bestimmt die Adresse im Bildspeicher 134, die dem virtuellen Anzeigebildschirm 6 entspricht. Zusätzlich kann der Fotodetektor 109 erfassen, welchen Abschnitt innerhalb des Anzeigerahmens 51 die Bedienperson betrachtet. Dadurch ermöglicht der Fotodetektor die Identifizierung des Abschnitts auf dem virtuellen Anzeigebildschirm 6, den die Bedienperson betrachtet, d.h. des Abschnitts, der einer bestimmten Adresse im Bildspeicher 134 entspricht. Wenn die Bedienperson auf den Fußschalter 4 tritt, der als Trigger-Eingabeeinrichtung wirkt, wird die identifizierte Adresse bestätigt, um den virtuellen Unterbildschirm 5 einschließlich der Adresse zu spezifizieren, was zur Bewegung des Unterbildschirms führt (dies ist wie die Bewegung eines Fensters auf einem Windows-Bildschirm unter Verwendung einer Maus. Die Bewegung der Sichtlinie der Bedienperson entspricht der Bewegung der Maus, während der Fußschalter der Anklicktaste der Maus entspricht). Wenn die Bedienperson 1 daher auf den Fußschalter 4 tritt, während sie einen beliebigen zu bewegenden virtuellen Unterbildschirm 5 betrachtet, kann sie den Abschnitt innerhalb des virtuellen Unterbildschirms 5 spezifizieren, den sie betrachtet.
  • Als nächstes wird ein Verfahren zum Bewegen des spezifizierten virtuellen Unterbildschirms 5 auf der Basis des Ablaufdiagramms in 7 beschrieben.
  • Der wie oben spezifizierte virtuelle Unterbildschirm 5 bewegt sich auf der Basis der Bewegungsrichtung und der Entfernung, die durch die neuesten Ausgabedaten des Fotodetektors 109 und des Winkelsensors 107 bestimmt werden. Das heißt, die Richtung der Sichtlinie der Bedienperson wird aus den Ausgabedaten des Fotodetektors 109 erfasst, um zu bestimmen, wohin der virtuelle Unterbildschirm 5 innerhalb des Anzeigerahmens 51 bewegt werden soll, und die Richtung des Kopfes der Bedienperson wird aus den Ausgabedaten des Winkelsensors 107 er fasst, um zu bestimmen, wohin der virtuelle Unterbildschirm 5 auf dem virtuellen Bildschirm 6 bewegt werden soll. Der virtuelle Unterbildschirm 5 wird dann bewegt, und das Ziel wird aktualisiert, bis ein Triggersignal eingegeben wird. Wenn die Bedienperson auf den Fußschalter 4 tritt, endet die Bewegung des spezifizierten virtuellen Unterbildschirms 5, und er wird dann am Beobachtungspunkt der Bedienperson fixiert. Auf diese Weise kann ein beliebiger virtueller Unterbildschirm 5 frei in eine gewünschte Position auf dem virtuellen Bildschirm 6 bewegt werden.
  • Es wird dann angenommen, dass die Bedienperson 1 an einer elektronischen Schaltung auf dem Pult 7 experimentiert.
  • Technische Daten und andere Materialien für die beim Experiment zu verwendenden Bauteile werden vorab im Computer 3 gespeichert, um sie als eine Vielzahl von virtuellen Unterbildschirmen 5 auf dem virtuellen Bildschirm 6 anzuzeigen. Die Bedienperson 1 kann ein beliebiges Material betrachten, indem sie einen gewünschten virtuellen Unterbildschirm 5 innerhalb des Anzeigerahmens 51 anzeigt. Außerdem bewirkt ein Treten auf den Fußschalter 4 beim Betrachten eines gewünschten virtuellen Unterbildschirms 5, dass dieser virtuelle Unterbildschirm 5 spezifiziert wird, eine Bewegung des Kopfes der Bedienperson ermöglicht es, ihn in eine Position zu bewegen, in der er am klarsten gesehen werden kann, und ein erneutes Treten auf den Fußschalter 4 ermöglicht es, ihn auf dem virtuellen Bildschirm 6 zu fixieren.
  • Wenn die Anzeige aufgrund einer großen Anzahl von virtuellen Unterbildschirmen 5 auf dem virtuellen Bildschirm 6 kompliziert ist, kann nach dem Spezifizieren des virtuellen Unterbildschirms 5, wie in 6 beschrieben, die Kombination aus der Anzahl von Tritten auf den Fußschalter 4 und dem zeitlichen Abstand zwischen den Tritten so eingestellt werden, dass dem Computer 3 ein Befehl zum Umwandeln spezifizierter virtueller Unterbildschirme 5 in Ikons gesendet wird, um ihre Größe zu verringern, wodurch eine klare Anzeige erhalten wird.
  • Wenn angezeigte virtuelle Unterbildschirme 5 zu klein sind, um sie klar zu sehen, kann die Kombination aus der Anzahl von Tritten auf den Fußschalter 4 und dem zeitlichen Abstand zwischen den Tritten so eingestellt werden, dass dem Computer 3 ein Befehl zum Vergrößern spezifizierter virtueller Unterbildschirme 5 gesendet wird.
  • Wie oben beschrieben, ermöglicht dieses Beispiel den Bezug auf eine große Anzahl von Materialien, ohne dass die Umgebung in Unordnung gebracht wird, wodurch die Abnahme des Arbeitswirkungsgrads vermieden wird. Da dieser Vorgang einfach durch eine Bewegung des Kopfes, der Augen und des Fußes der Bedienperson erhalten werden kann, und ihre Hände bei diesem Vorgang nicht tätig sind, können außerdem Unfälle wie das Herunterfallen oder die Beschädigung eines Bauteils, an dem Experimente durchgeführt werden, sogar während eines komplizierten Experiments vermieden werden. Da die erforderlichen Materialien in Positionen angeordnet werden können, in denen sie überaus klar gesehen werden können, kann zudem die Bewegung der Augen zwischen einem Bauteil, an dem experimentiert wird, und dem entsprechenden Material minimiert werden, um die Ermüdung der Bedienperson zu reduzieren.
  • Selbst wenn eine große Zahl von virtuellen Unterbildschirmen angezeigt wird, können sie über den virtuellen Bildschirm verteilt und durch Bewegung des Kopfes der Bedienperson gerollt werden, wodurch sie daran gehindert werden, einander auf dem Bildschirm zu überlappen.
  • Durch vorherige Verbindung eines für das Experiment genutzten Instruments mit dem Computer 3 können außerdem die Messergebnisse nahe der Bedienperson als ein virtueller Unterbildschirm 5 angezeigt werden, wodurch das Experiment wirkungsvoller durchgeführt werden kann.
  • Beispiel 2
  • 8 zeigt ein Beispiel, bei der die Bedienperson 1 ein Gerät 22 repariert. Die Anzeigevorrichtung 2 ist am Kopf der Bedienperson befestigt, und ein Winkelsensor 21 ist an der Brust der Bedienperson befestigt, und ein tragbarer Computer 13 und ein Druckschalter, der als Trigger-Eingabeeinrichtung dient, sind an der Taille der Bedienperson befestigt. Die Anzeigevorrichtung 2 ist die gleiche wie in dem Beispiel 1, und ihre Beschreibung wird daher weggelassen. Die Anzeigevorrichtung 2 ist über eine Verbindungsschnur mit dem Computer 13 verbunden.
  • Indem sie leicht nach oben schaut, kann die Bedienperson 1 den Anzeigebildschirm einer Flüssigkristalltafel 102 als virtuellen Unterbildschirm 5 auf einem virtuellen Bildschirm 6 betrachten, während sie, wenn sie leicht nach unten schaut, das gerade repariert werdende Gerät 22 betrachten kann.
  • 9 zeigt eine Szene, wie sie von der Bedienperson 1 gesehen wird. In dieser Figur sind sowohl der gesamte virtuelle Unterbildschirm 5b als auch der untere Teil eines virtuellen Unterbildschirms 5c, die in dem Bereich enthalten sind, der von einem Anzeigerahmen 51 entsprechend dem maximalen Anzeigebereich der Flüssigkristalltafel 102 gezeigt wird, geringfügig oberhalb des Sichtfelds gezeigt. Das repariert werdende Gerät ist geringfügig unterhalb des Sichtfelds gezeigt. Wenn die Bedienperson 1 ihren Kopf nach rechts dreht, bewegt sich die Anzeigevorrichtung 2 nach rechts und der Anzeigerahmen 51 bewegt sich folglich nach rechts. Der virtuelle Unterbildschirm 5 vom Computer 13 rollt dann nach links gemäß dem Winkel, der von einem Winkelsensor 107 erfasst wird, der in der Anzeigevorrichtung 2 vorgesehen ist. Der virtuelle Unterbildschirm innerhalb des Anzeigerahmens 51 wechselt zum Unterbildschirm 5c, wechselt dann zum Unterbildschirm 5d, ... usw. Dies gilt auch in der senkrechten Richtung. Wenn in diesem Fall die Ausgabe des Winkelsensors 107 und die Entfernung, über die der virtuelle Unterbildschirm 5 rollt, vorab eingestellt wurden, kann ein festes Positionierungsverhältnis zwischen dem umgebenden Raum und dem virtuellen Unterbildschirm 5 beibehalten werden. Es scheint der Bedienperson, als ob die große Anzahl von Unterbildschirmen 5 am virtuellen Anzeigebildschirm 6 festgehalten würde, der im Raum fixiert ist.
  • Wenn die Bedienperson 1 sich beugt oder bewegt, um ein weiteres Bauteil des Geräts 22 zu reparieren, erfasst der an der Brust der Bedienperson befestigte Winkelsensor 21 die Bewegung der Bedienperson, um den Computer 13 darüber zu informieren. Der Computer 13 verarbeitet die Ausgabe des Winkelsensors 21 und die Ausgabe des in der Anzeigevorrichtung 2 vorgesehenen Winkelsensors 107 rechnerisch, und wenn er feststellt, dass die Ausgabe des Winkelsensors 21 gleich der Ausgabe des Winkelsensors 107 ist, behandelt er dies als die Bewegung des ganzen Körpers und erlaubt der Anzeige auf dem virtuellen Bildschirm 6, unverändert zu bleiben. Das heißt, das relative Positionsverhältnis zwischen der Bedienperson 1 und dem virtuellen Bildschirm 6 wird konstant gehalten, und der virtuelle Bildschirm 6 folgt der Bewegung des Körpers der Bedienperson. Auf diese Weise ist der virtuelle Bildschirm 6 immer um die Bedienperson 1 herum angezeigt, und der virtuelle Unterbildschirm 5 kann je nach Erfordernis einfach dadurch betrachtet werden, dass man leicht nach oben schaut, unabhängig von der von der Bedienperson eingenommenen Stellung.
  • Durch Drücken des Druckschalters 14 während des Betrachtens eines virtuellen Unterbildschirms 5, wie in der Ausführungsform 1 beschrieben, wird es außerdem möglich, diesen Unterbildschirm 5 auf der Basis der von einem Fotodetektor 109 erfassten Richtung der Sichtlinie der Bedienperson und der Ausgabe des Winkelsensors 107 zu spezifizieren. Dann kann durch Bewegen des spezifizierten virtuellen Unterbildschirms 5 auf der Basis der Ausgabe sowohl des Fotodetektors 109 als auch des Winkelsensors 107 und anschließendem erneutem Drücken des Druckschalters 14 der spezifizierte virtuelle Unterbildschirm 5 am aktuellen Beobachtungspunkt fixiert werden. Auf diese Weise kann ein beliebiger virtueller Unterbildschirm 5 zu einer gewünschten Position auf dem virtuellen Bildschirm 6 bewegt werden.
  • Dann wird angenommen, dass die Bedienperson 1 in diesem Moment das Gerät 22 repariert. Für Reparaturen notwendige Anweisungshandbücher und technische Daten werden vorher im Computer 13 gespeichert. Mehrere virtuelle Unterbildschirme 5 werden auf dem virtuellen Bildschirm 6 angezeigt, d.h. sind in einer Bildspeichervorrichtung 133 gespeichert. Ein gewünschtes Anweisungshandbuch kann betrachtet werden, indem der Kopf der Bedienperson so bewegt wird, dass der entsprechende virtuelle Unterbildschirm 5 innerhalb des Anzeigerahmens 51 angezeigt wird. Weiter kann beim Betrachten eines gewünschten virtuellen Unterbildschirms 5 durch Drücken des Druckschalters 14, Bewegen des Kopfes und der Sichtlinie der Bedienperson in eine Position, in der der Unterbildschirm klar gesehen werden kann, und dann erneutes Drücken des Druckschalters 14 der virtuelle Unterbildschirm am virtuellen Bildschirm 6 fixiert werden. Zusätzlich, selbst wenn die Bedienperson sich bewegt, um ein anderes Bauteil des gleichen Geräts zu reparieren, bleibt der virtuelle Bildschirm 6 in der gleichen Position um die Bedienperson 1 herum, so dass auf erwünschte Anleitungshandbücher Bezug genommen werden kann, unabhängig von der von der Bedienperson eingenommenen Arbeitsposition.
  • Als Alternative zur in den Beispielen 1 und 2 beschriebenen Triggereinrichtung wird die Ausgabe des Fotodetektors 109 zum Beispiel erhalten, wenn die Bedienperson zweimal nacheinander schnell blinzelt. Dadurch können sogar in dem Beispiel 2 beide Hände für Reparaturen benutzt werden. Es ist klar, dass Stimmen oder Atmung auch als Triggereinrichtung verwendet werden können.
  • Beispiel 3
  • Die Anzeigevorrichtung 2 des in 10 gezeigten Beispiels hat ein brillenähnliches Gestell 101, das die Flüssigkristalltafel 102, die Vergrößerungslinse 103, die Hintergrundbeleuchtung 104 und einen Halbspiegel 135 aufweist. Die Bedienperson 1 kann ein vergrößertes Anzeigebild auf der Flüssigkristalltafel 102 und ein externes Bild (die Tastatur) über optische Pfade 136 bzw. 138 betrachten. Diese Bilder können vom Halbspiegel 135 synthetisiert und von der Bedienperson 1 betrachtet werden. Dadurch hat die Bedienperson 1 den Eindruck, als ob das Flüssigkristall-Anzeigebild außerhalb des Gestells (nahe der Tastatur) vorhanden wäre, was zu verbesserten Bearbeitungsmöglichkeiten führt.
  • Mit dieser Konfiguration können aber einige Probleme auftreten. Erstens überlappen das Flüssigkristall-Anzeigebild und das externe Bild einfach einander, so dass das Anzeigebild nicht klar unterschieden werden kann. Zweitens, da die Entfernung zwischen der Bedienperson und dem virtuellen Bild nicht einfach der Entfernung zwischen der Bedienperson und der Tastatur angepasst werden kann, muss jedes Mal dann eine Fokussierung der Augen durchgeführt werden, wenn das Sichtfeld zwischen dem Flüssigkristall-Anzeigebild und der im synthetisierten Bild enthaltenen Tastatur wechselt, was zu einer beträchtlichen Ermüdung der Bedienperson führt.
  • Diese Probleme können dadurch gelöst werden, dass ein Teil eines äußeren Umhüllungsgehäuses für das Datenverarbeitungsgerät und die Tastatur als Bildschirm genutzt wird. Das heißt, die Rückseite 141 einer Abdeckung für die Tastatur 140 des Computers 3 wird als Bildschirm verwendet. Dieser Bildschirm besteht aus einem undurchsichtigen Material mit einer einzigen Farbe wie weiß, schwarz oder blau, und ist wirksam in Bezug auf die Verbesserung der Sichtbarkeit eines Flüssigkristall-Anzeigebilds, das das Bildschirmbild überlappen kann. Die Farbe und das Reflexionsvermögen des Bildschirms hängen vom Grad dieser Wirkung ab.
  • Wie im in 12 gezeigten Beispiel kann die Bedienperson 1 durch Bewegen der Flüssigkristalltafel 102 in Richtung 139 (entlang des optischen Pfads 136) in 10 in Längsrichtung zu ihr die Position bewegen, in der der virtuelle Unterbildschirm 5 für ein Flüssigkristall-Anzeigebild gebildet wird. Dann ermöglicht das Anpassen dieser Position an den Bildschirm 141 die Lösung der obigen Probleme.
  • Da das äußere Bild, das das Flüssigkristall-Anzeigebild überlappt, der einfarbige Bildschirm ist, stört es die Sichtbarkeit des Anzeigebilds nicht wesentlich. Das heißt, das Anzeigebild hat eine hohe Sichtbarkeit, die zu verbesserten Arbeitsmöglichkeiten führt. Zusätzlich wird der virtuelle Unterbildschirm 5 für ein Flüssigkristall-Anzeigebild auf dem Bildschirm 141 nahe der Tastatur 140 gebildet, so dass keine Fokussierung der Augen durchgeführt werden muss, wenn das Sichtfeld zwischen dem Anzeigebild (dem virtuellen Unterbildschirm 5) und der Tastatur 140 wandert, was zu einer verringerten Ermüdung der Bedienperson führt.
  • Folglich ermöglicht das obige Beispiel die Realisierung tragbarer Computer und Textverarbeitungssysteme, die eine hohe Tragbarkeit und Sichtbarkeit aufweisen und die Gesundheit der Bedienperson nicht beeinträchtigen.
  • Die Merkmale des Bildschirms sind unbegrenzt, so lange sie den Zielen der vorliegenden Erfindung entsprechen. Zum Beispiel kann die Befestigung einer Polarisationsplatte am Bildschirm die Helligkeit des externen Bilds verringern, während die Helligkeit des Flüssigkristall-Anzeigebilds beibehalten wird, wodurch eine Anzeige mit hohem Kontrast ermöglicht wird.
  • Beispiel 4
  • Die Anzeigevorrichtung in den 13 und 14 ist vom Ein-Augen-Typ. In diesen Figuren wird aus Gründen der Vereinfachung das Kabel zur Verbindung der Treiberschaltung mit dem Hauptgehäuse weggelassen.
  • Ein auf der Flüssigkristalltafel 102 angezeigtes Bild wird vom Vergrößerungsspiegel 145 vergrößert, und das rechte Auge der Bedienperson sieht ein großes Anzeigebild vor der Bedienperson, während ihr linkes Auge durch das durchsichtige brillenähnliche Gestell 101 die Außenumgebung sieht. Das Problem bei Anzeigevorrichtungen vom Ein-Augen-Typ (die Sichtbarkeit des Anzeigebilds ist schlecht, da das externe Bild das Anzeigebild überlappt, und die unterschiedliche Fokussierung des rechten und des linken Auges bewirkt eine starke Ermüdung der Bedienperson) durch Anpassen der Entfernung zwischen der Flüssigkristalltafel 102 und dem Vergrößerungsspiegel 145 kann gelöst werden, damit auf dem Bildschirm ein virtueller Unterbildschirm 5 erzeugt wird, der ein Anzeigebild ist, so dass das linke Auge der Bedienperson den Bildschirm 141 sehen kann. Das heißt dass, da der virtuelle Bildschirm auf dem Flüssigkristall-Anzeigebildschirm auf dem einfarbigen und gleichmäßigen Bildschirm 141 gebildet wird, die Sichtbarkeit des Flüssigkristall-Anzeigebildschirms verbessert wird, und die gleiche Fokussierung für das rechte und das linke Auge dient dazu, die Ermüdung der Bedienperson fast auf das gleiche Niveau wie bei normalen Anzeigen zu reduzieren.
  • Folglich kann das obige Beispiel tragbare Computer und Textverarbeitungssysteme liefern, die eine gute Tragbarkeit und Sichtbarkeit aufweisen und die Gesundheit der Bedienperson nicht beeinträchtigen.
  • Beispiel 5
  • In dem Beispiel der 15 wird ein Signal von der Eingabevorrichtung 150 über die Verbindungsschnur 151 in den Compu ter (ein Rechenwerk) 3 eingegeben, und eine Bildanzeigeinformation, die vom Computer 3 ausgegeben wird, wird über die Verbindungsschnur 106 an die kopfverbundene Anzeigevorrichtung 2 übertragen. Die kopfverbundene Anzeigevorrichtung 2 ermöglicht die gleichzeitige Anzeige dieser eingegebenen Information, wie zum Beispiel die Beschaffenheit der Eingabevorrichtung 150, z. B. eine Tastatur oder ein Datenhandschuh, die vom Computer 3 ausgegeben wird, und der Ergebnisse von Rechenoperationen vom Computer 3, und gibt an, welche Tasten im Moment für die Eingabe benutzt werden können und welche Taste die Bedienperson berührt.
  • Der Anzeigebildschirm der kopfverbundenen Anzeigevorrichtung 2 ist lang und besteht aus einem Anzeigebildschirm 152 zur Anzeige von Ergebnissen von Rechenoperationen, um die Ergebnisse von Rechenoperationen innerhalb des virtuellen Unterbildschirms 5 anzuzeigen, und aus einem virtuellen Tastatur-Anzeigebildschirm 153 zur Anzeige der Beschaffenheit der Eingabevorrichtung. Durch Verwendung zum Beispiel eines Datenhandschuhs als Eingabevorrichtung 150, der eine Einrichtung zum Messen der Durchlässigkeit von Licht durch Lichtleitfasern zum Erfassen der Krümmung der Finger der Bedienperson aufweist, und durch Verwendung eines magnetischen Sensors zum Erfassen der relativen Position der Hände der Bedienperson, oder einer Tastatur mit einem Sensor, der eine Positionserfassungseinrichtung wie z.B. ein widerstandsfähiges, folienartiges Tablett aufweist, kann die Eingabeposition erfasst werden, und die Ergebnisse von Rechenoperationen können betrachtet werden, während eine Tastenzuweisungseinrichtung 156 und eine Bildsynthetisierungseinrichtung 159 im Computer 3 verwendet werden, um auf dem virtuellen Tastatur-Anzeigebildschirm 7 zu überprüfen, welche Taste gedrückt wird.
  • Als nächstes wird unter Bezugnahme auf das Ablaufdiagramm in 17 ein Verfahren zur Ausgabe der Ergebnisse von Rechenoperationen auf dem Anzeigebildschirm 152 für Rechenoperati onsergebnisse und zur Anzeige der Beschaffenheit der Eingabevorrichtung 150 auf dem virtuellen Tastatur-Anzeigebildschirm 153 beschrieben. Die Eingabevorrichtung 150 erfasst Positionsinformationen 154 über die Positionen der Hände und Finger der Bedienperson und Ein/Aus-Informationen 155, die angeben, ob eine Fingerspitze eine Taste drückt oder nicht, um diese Information an den Computer 3 zu übertragen. Der Computer 3 verwendet die Tastenzuweisungseinrichtung 156, um für jede Anwendung über den Eingabebereich der Eingabevorrichtung 150 vorab Tasten zuzuweisen, um zu bestimmen, welche Tasten der Positionsinformation 154 entsprechen, und bestimmt ausgehend von der Ein/Aus-Information 155, ob die Taste betätigt ist oder nicht, um die Ergebnisse an ein Rechenwerkteil 158 und eine Bildsynthetisierungseinrichtung 159 als Eingabeinformation 157 zu übertragen. Das Rechenwerkteil 158 führt Rechenoperationen durch, die auf der Eingabeinformation 157 basieren, um die Ergebnisse 160 an die Bildsynthetisierungseinrichtung 159 zu übertragen. Die Bildsynthetisierungseinrichtung 159 gibt kontinuierlich die Beschaffenheit der Eingabevorrichtung 150 der Art aus, welche Taste die Hand der Bedienperson drückt, basierend auf der Eingabeinformation und dem Ein/Aus-Zustand der Taste, und gibt an die kopfverbundene Anzeigevorrichtung 2 ein Signal als Bildsignal 161 aus, welches die Ergebnisse der Rechenoperation 160 vom Rechenwerkteil 158 jedes Mal dann in ein Bild synthetisiert, wenn ein solcher Vorgang durchgeführt wird. Die Eingabevorrichtung 150 überträgt einfach die Positionsinformation 154 und die entsprechende Ein/Aus-Information 155 an den Computer 3, wodurch die Tastenzuweisungseinrichtung 156 befähigt wird, verschiedene Tasten zuzuweisen, ohne von der Anzahl von Tasten auf der Eingabevorrichtung 150 abzuhängen, und es auch ermöglicht wird, dass das virtuelle Tastenanzeigeteil 153 verschiedene Schnittstellen darstellt.
  • Der Signalfluss im Steuerungssystem der 17 wird unter Bezugnahme auf 18 beschrieben. Die Eingabevorrichtung 150 erfasst die Eingabeposition und die entsprechende Ein/Aus-Information (S10). Die Tastenzuweisungseinrichtung 156 bestimmt, welcher Taste die eingegebene Information entspricht, und überträgt den Inhalt der entsprechenden Taste an das Rechenwerkteil 158 (S11). Die Tastenzuweisungseinrichtung 156 bestimmt dann, ob die Taste gedrückt wird oder nicht, und falls ja, informiert den Rechenwerkteil 158 über diesen Zustand (S12). Die Bildsynthetisierungseinrichtung 159 erzeugt dann ein Bild auf dem virtuellen Tastatur-Anzeigebildschirm 153 auf der Basis der eingegebenen Position und der Ein/Aus-Information (S13). Der Rechenwerkteil 158 führt Rechenoperationen durch, die auf übertragener Information basieren, um einen Anzeigebildschirm 152 für Rechenoperationsergebnisse zu erzeugen (S14). Die Bildsynthetisierungseinrichtung 159 synthetisiert den virtuellen Tastatur-Anzeigebildschirm 153 und den Rechenoperationsergebnis-Anzeigebildschirm 152, der vom Rechenwerkteil 11 erzeugt wurde, als einzelnen Bildschirm, um einen virtuellen Unterbildschirm zu erzeugen (S15).
  • Die Eingabevorrichtung 150 enthält widerstandsfähige, folienartige Vorrichtungen, eine Sammlung von kleinen Schaltelementen, und verschiedene andere Vorrichtungen. Als nächstes wird der von der Zuweisungseinrichtung 156, wenn eine widerstandsfähige, folienartige Eingabevorrichtung für die Tasten- und Zeigerangabe verwendet wird, durchgeführte Prozess ausführlich beschrieben.
  • Die Zuweisungseinrichtung 156 bestimmt zuerst das Eingabeverfahren der Eingabevorrichtung 150 (S20). Wenn die Eingabevorrichtung 150 ein Tasteneingabeverfahren verwendet, teilt die Zuweisungseinrichtung 156 die Eingabeebene in Tastenbereiche (S21) auf. Die Zuweisungseinrichtung bestimmt dann, ob das Eingabeverfahren umgeschaltet wurde oder nicht (S22), und falls nicht, empfängt sie das Eingabesignal (X, Y) (S23). Sie untersucht dann, welchem Tastenbereich das Eingabesignal (X, Y) entspricht (S24), und gibt den Code für die entsprechende Taste aus (S25).
  • Wenn die Zuweisungseinrichtung in S20 bestimmt, dass die Eingabevorrichtung ein Zeigerverfahren verwendet, bestimmt sie dann, ob das Eingabeverfahren umgeschaltet wurde oder nicht (S26). Falls nicht, empfängt sie das Eingabesignal und speichert es in einem Pufferspeicher (X0, Y0) (S27). Dann empfängt sie das nächste Eingabesignal (X1, Y1), um die Differenz zwischen diesem Signal und dem vorhergehenden Signal (X0, Y0) zu bestimmen (S28). Die Zuweisungseinrichtung bestimmt, ob die Differenz zum Beispiel 2 cm oder länger ist oder nicht (S29), und wenn dies der Fall ist, behandelt sie diese Eingabe als das Ergebnis des Anklickens von (X0, Y0) (S30). Wenn die Differenz kürzer als 2 cm ist, wird das erste Signal um die entsprechende Bewegungsmenge bewegt. Die obige Verarbeitung zwischen dem Schritt S26 und dem Schritt S31 wird in 0,01 Sekunden oder kürzer ausgeführt.
  • Wie in 20 gezeigt, ist in der Anzeigevorrichtung 2 in 15 ein Ende der Verbindungsschnur 106 mit dem brillenähnlichen Gestell 101 zum Befestigen der Anzeigevorrichtung 2 am Kopf der Bedienperson verbunden, um Bildsignale und Strom an die Treiberschaltung 105 und die Hintergrundbeleuchtung 104 zu liefern, die an der oberen Vorderseite des brillenähnlichen Gestells 101 angeordnet ist. Ein in die Treiberschaltung 105 eingegebenes Bildsignal wird decodiert und auf der Flüssigkristalltafel 102 angezeigt. Die angezeigte Bildinformation wird von der Hintergrundbeleuchtung 104 beleuchtet, die sich auf der Rückseite der Flüssigkristalltafel 102 befindet, und erreicht das Auge der Bedienperson über einen Reflexionsspiegel 170 und die Vergrößerungslinse 103, die sich an der Vorderseite des brillenähnlichen Gestells 101 und vor dem jeweiligen Auge der Bedienperson befindet. In einem anderen Aspekt ermöglicht die Anordnung, zwischen der Flüssigkristalltafel 102 und dem Reflexionsspiegel 135, eines Strahlteilers zum Projizieren eines Bilds in zwei verschiedene Richtungen, dass das Bild über den Reflexionsspiegel und die Vergrößerungslinse, die vor den jeweiligen Augen angeordnet sind, beide Augen des Benutzers erreicht.
  • Die Flüssigkristalltafel 102 ist eine lange und kleine Vollfarben- oder Einfarben-Flüssigkristallanzeige mit einer Bildschirmgröße von 2,54 bis 5,08 cm (1 bis 2 Inch) und ermöglicht einen virtuellen Unterbildschirm 5 einer Größe von etwa 35,56 cm (14 Inch), der vom Benutzer über die Vergrößerungslinse 103 in einer Entfernung von 500 bis 1.000 mm von den Augen des Benutzers gesehen werden kann, wie in 20 gezeigt ist.
  • Obwohl der Computer und die Anzeigevorrichtung voneinander getrennt sind, kann der Computer in dem obigen Beispiel in die kopfverbundene Anzeigevorrichtung eingebaut werden, und in diesem Fall werden Signale von der Eingabevorrichtung direkt an die kopfverbundene Anzeigevorrichtung und den Computer übertragen. Dieser Computer kann mit einer Rechenoperationsvorrichtung realisiert werden, die für eine Anzeigevorrichtung konstruiert ist.
  • Die Schnittstelle in dem obigen Beispiel, bei dem die Tastenzuweisungseinrichtung in der Rechenoperationsvorrichtung die Zuteilung durchführt, ist nicht auf eine Tastatur beschränkt, sondern kann eine Maus, ein Joystick oder ein Schreibstift sein.
  • Außerdem ist die Eingabevorrichtung nicht auf ein Tablett oder einen Datenhandschuh wie in der obigen Ausführungsform beschränkt, da verschiedene Eingabevorrichtungen, die Positionsinformationen und Ein/Aus-Informationen erfassen können, mit dem Computer verbunden werden können.
  • Als Alternative zu dem in 16 gezeigten Beispiel kann die Bildsynthetisierungseinrichtung im Computer (das Rechenwerk) weggelassen werden, indem der Anzeigebildschirm für Rechenoperationsergebnisse und der Anzeigebildschirm der virtuellen Tastatur getrennt gesteuert und angezeigt werden, um dadurch den Anzeigeteil der kopfverbundenen Anzeigevorrichtung zu realisieren.
  • Beispiel 6
  • Das Beispiel in den 21 bis 29 zeigt das Datenverarbeitungsgerät gemäß der vorliegenden Erfindung in Anwendung auf einen PC. 21 ist eine perspektivische Ansicht, in der die Anzeigevorrichtung 2 der obigen Ausführungsform als Anzeigeeinrichtung verwendet wird. Ein Signal einer Bildanzeigeinformation, das vom Computer 3 ausgegeben wird, wird über das Verbindungskabel 106 an die Anzeigevorrichtung 2 übertragen. Um die Anzeigeeinrichtung getrennt von dem oben beschriebenen Verfahren zu verwenden, ist das Kabel 106 an den Computer 3 über einen Verbinder 23 angeschlossen, damit es leicht davon entfernt werden kann.
  • Die Anzeigevorrichtung 2 in 21 ist im Wesentlichen von gleichem Aufbau wie die in 20 gezeigte Vorrichtung, abgesehen davon, dass die Flüssigkristalltafel 102 leicht vom Gestell 101 entfernt werden kann. Der Reflexionsspiegel 170 kann senkrecht und in Längsrichtung bewegt werden, und sein Winkel kann auch eingestellt werden, so dass die Bedienperson eine klare Sicht erhalten kann. Das Gestell 101 dient dazu, Störlicht aufzufangen, so dass das auf der Flüssigkristalltafel 102 angezeigte Bild klar gesehen werden kann. Die Außenumgebung muss aber durch das Gestell 101 sichtbar sein, so dass das Gestell 101 vorzugsweise eine Lichtdurchlässigkeit von etwa 70 bis 80% hat.
  • Zusätzlich werden in dem Beispiel der 21 der Strom für den Antrieb der Anzeigevorrichtung 2 und die Bildinformationsausgabe vom Hauptgehäuse zur Anzeigevorrichtung 2 über eine Verbindervertiefung 60, die im Hauptgehäuse des Computers 3 vorgesehen ist, einen Verbindervorsprung 23 an der Anzeigevorrichtung 2 und das Verbindungskabel 106 zur Verbindung des Computer-Hauptgehäuses 3 mit der Anzeigevorrichtung 2 übertragen.
  • 22 zeigt einen Bildschirm, der als Anzeigevorrichtung verwendet wird, und 23 zeigt einen Querschnitt durch den Bildschirm.
  • Die Flüssigkristalltafel 102, die von der Anzeigevorrichtung 2 entfernt ist, ist in eine Buchse 24 eingesteckt. Ein auf der Flüssigkristalltafel 102 angezeigtes Bild wird von dem von der Hintergrundbeleuchtung 25 kommenden Licht beleuchtet, von einer Linse 206 vergrößert, und auf einen Bildschirm 27 projiziert. Als Ergebnis kann die Bedienperson das Bild 28 betrachten. Die senkrechte Stellung und die Größe des Bilds 28 können durch Bewegen der Flüssigkristalltafel 102 in senkrechter oder in Längsrichtung in der Buchse 24 eingestellt werden. Der Bildschirm ist nicht unbedingt eine weiße Tafel, sondern kann eine ebene Fläche ohne Muster, wie zum Beispiel eine Wand, sein.
  • Die 24 und 25 zeigen das Verhältnis zwischen einer senkrechten Stellung der Flüssigkristallplatte und der senkrechten Stellung des Bilds 28. Diese Figuren zeigen, dass die senkrechte Stellung des Bilds 28 durch senkrechtes Bewegen der Flüssigkristalltafel 102 eingestellt werden kann.
  • Die 26 und 27 zeigen das Verhältnis zwischen der Längsstellung der Flüssigkristallplatte und der Größe des Bilds 28. Diese Figuren zeigen, dass das Bewegen der Flüssigkristallplatte 102 in Längsrichtung die Einstellung der Größe des Bilds 28 ermöglicht. Wenn die Entfernung zwischen der Flüssigkristallplatte 102 und der Vergrößerungslinse 26 und die Entfernung zwischen der Vergrößerungslinse 26 und dem Bildschirm 27 mit S1 bzw. S2 bezeichnet werden, liegt der Ausdruck (1) vor. (f) ist eine Brennweite. Wenn zusätzlich die Größe des Bilds mit β bezeichnet wird, liegt der Ausdruck (2) vor. [Ausdruck 1]
    Figure 00340001
    [Ausdruck 2]
    Figure 00340002
  • Im Ausdruck (1) steigt S2 mit fallendem S1 an, während S2 mit ansteigendem S1 abfällt. Folglich vergrößert sich das Bild β, wenn S1 abfällt, während es kleiner wird, wenn S1 ansteigt.
  • 28 zeigt eine perspektivische Ansicht der Struktur der Buchse 24, und 29 zeigt eine Explosionsansicht der Buchse 24 in Perspektive.
  • Die senkrechte und die Längsrichtung der Flüssigkristalltafel 102 werden durch einen Stift 54 bzw. einen exzentrischen Stift 55 eingestellt. Die Flüssigkristalltafel 102 wird in Richtung A in 29 eingeführt. Die Buchse 41 fixiert dann die Flüssigkristalltafel 102. Der Stift 54 wird in ein Gewindeloch 51 über ein Loch 42 eingeführt, um die Buchse 41 an einer Buchse 44 zu befestigen. Dadurch führt die Drehbewegung des Stifts 54 zu einer senkrechten Bewegung der Buchse 41 und somit zu einer senkrechten Bewegung der Flüssigkristalltafel 102. Die Bauteile 46, 47 der Buchse 44 greifen in die Buchse 41 ein, und die Bauteile und die Buchse 44 werden in Längsrichtung aneinander befestigt. Eine Drehung des exzentrischen Stifts 55 in einem Langloch 50 ermöglicht eine Längsbewegung. Die Stifte 52, 53 werden in Langlöcher 48, 49 eingeführt, um eine seitliche Ablenkung zu vermeiden. Die Fenster 43, 45 ermöglichen den Durchgang von Licht von einer Lichtquelle.
  • Obwohl die obigen Beispiele ein Beispiel einer Flüssigkristalltafel von lösbarer Struktur zeigen, müssen die Flüssigkristalltafel in der Anzeigevorrichtung 2 und die Flüssigkristalltafel im Computer-Hauptgehäuse nicht unbedingt aus den jeweiligen Vorrichtungen entfernt werden, und die Flüssigkristalltafel kann ortsfest und es kann ein Anzeigeschalter vorgesehen sein, um die Anzeigeeinrichtung für den Computer zu schalten.
  • Obwohl das obige Beispiel sich auf die Verwendung eines PC bezog, ist die vorliegende Erfindung außerdem nicht auf die obigen Beispiele begrenzt und auf Datenverarbeitungsgeräte wie zum Beispiel Textverarbeitungssysteme anwendbar. Es wurde eine kopfverbundene Anzeigevorrichtung vom Ein-Augen-Typ beschrieben, aber die vorliegende Erfindung ist auch bei kopfverbundenen Anzeigevorrichtungen vom Zwei-Augen-Typ anwendbar. Obwohl die obigen Ausführungsformen die Verwendung einer brillenähnlichen kopfverbundenen Bildanzeigevorrichtung gezeigt haben, ist die vorliegende Erfindung gleichwohl auch auf andere Arten von kopfverbundenen Bildanzeigevorrichtungen wie Helme und Korbbrillen anwendbar.
  • Wenn das Datenverarbeitungsgerät mit der obigen Konfiguration zusammen mit einer kopfverbundenen Bildanzeigevorrichtung als Anzeigeeinrichtung verwendet wird, kann nur die Bedienperson direkt den Inhalt der Anzeige betrachten, so dass die Bedienperson geheime Informationen verarbeiten kann, ohne sich um die Leute um sie herum zu kümmern. Die Tragbarkeit dieses Datenverarbeitungsgeräts ist auch gut, da die Bedienperson das Gerät in einem begrenzten Raum wie zum Beispiel einem Flugzeug oder einem Zug in einer natürlichen Stellung benutzen kann. Zusätzlich kann das Sichtfeld leicht zwischen dem durch die Anzeigevorrichtung betrachteten virtuellen Bild und der Außenumgebung, einschließlich der Tastatur, bewegt werden, was zur verbesserten Bedienbarkeit des Datenverarbeitungsgeräts führt.
  • Wenn mehrere Leute gleichzeitig die vom Datenverarbeitungsgerät ausgegebene Bildanzeigeinformation sehen möchten, kann die Flüssigkristalltafel im Hauptgehäuse des Geräts verwendet werden, um Bildanzeigeinformationen auf dem Bildschirm oder ähnlichem anzuzeigen. Ein solches Umschalten der Anzeigeeinrichtung kann einfach durchgeführt werden.
  • Ausführungsform 7
  • 30 zeigt einen üblichen Computer, bei dem der Anzeigeteil von seinem Hauptgehäuse entfernt werden kann. Ein Computer-Hauptgehäuse 3a ist mit einer Anzeige 63 über eine Verbindervertiefung 61 und einen Verbindervorsprung 62a verbunden.
  • 31 zeigt eine Ausführungsform, bei der die Anzeigevorrichtung 2 in der obigen Ausführungsform auf den Computer 3 der 30 montiert ist. In dieser Ausführungsform ist das Computer-Hauptgehäuse 3a über die Verbindervertiefung 61, den Verbindervorsprung 62 und des Verbinderkabel 106 mit der Anzeigevorrichtung 2 verbunden.
  • Wenn sowohl der Verbindervorsprung 62a der Anzeige 63 in 30 als auch der Verbindervorsprung 62 des Kabels 106 in 31 der gleichen Norm entsprechen, können sowohl die übliche Anzeige 63 als auch die Anzeigevorrichtung 2 gemäß der vorliegenden Erfindung mit dem gleichen Hauptgehäuse verbunden werden. Das heißt, es wird ein Datenverarbeitungsgerät hergestellt, bei dem die übliche Anzeige 63 und die Anzeigevorrichtung 2 gemäß dem vorliegenden Beispiel leicht ausgetauscht werden können.
  • Obwohl die obigen Beispiele einen Computer als Datenverarbeitungsgerät nutzen, ist die vorliegende Erfindung nicht auf diese Ausführungsformen beschränkt, und sie ist auf andere Datenverarbeitungsgeräte wie zum Beispiel Textverarbeitungssysteme anwendbar. Es wurde eine kopfverbundene Anzeigevor richtung vom Ein-Augen-Typ beschrieben, aber die vorliegende Erfindung ist auf kopfverbundene Anzeigevorrichtungen vom Zwei-Augen-Typ anwendbar. Obwohl die obigen Beispiele die Verwendung einer brillenähnlichen kopfverbundenen Bildanzeigevorrichtung zeigen, kann die vorliegende Erfindung außerdem auch auf andere Arten von kopfverbundenen Bildanzeigevorrichtungen wie vom Korbbrillen- oder Helmtyp verwendet werden.
  • Wie aus der obigen Erklärung hervorgeht, ist dieses Beispiel insofern vorteilhaft, als die Anzeigevorrichtung einfach vom Datenverarbeitungsgerät entfernt werden kann. Außerdem ermöglicht die Verwendung von Verbindern, die einer gemeinsamen Spezifikation entsprechen, den Austausch zwischen einer üblichen Anzeige und der Anzeigevorrichtung gemäß der vorliegenden Ausführungsform. Außerdem verbraucht die Hintergrundbeleuchtung in der Anzeigevorrichtung des vorliegenden Beispiels weniger Strom als Anzeigen, die bei üblichen tragbaren Datenverarbeitungsgeräten verwendet werden. Als Ergebnis kann die Lebensdauer der Batterie verlängert werden, was zu einer beträchtlich verbesserten Tragbarkeit des Datenverarbeitungsgeräts gemäß der vorliegenden Ausführungsform führt,
  • Beispiel 8
  • Bei dem Bildanzeigesystem der 32 werden Ausgabeergebnisse vom Computer 3 auf der Anzeige 63 und der am Kopf der Bedienperson befestigten Anzeigevorrichtung 2 angezeigt. Der Benutzer 1 kann eine Datenverarbeitung durchführen, während er seinen Blick leicht bewegt, um das auf der Anzeige 63 angezeigte Bild und den von der an seinem Kopf befestigten Anzeigevorrichtung 2 erzeugten virtuellen Unterbildschirm 5 zu betrachten. Der virtuelle Unterbildschirm 5 wird erzeugt, indem es einem Bild, das auf der Flüssigkristalltafel 102 angezeigt wird, ermöglicht wird, über einen vergrößernden Reflexionsspiegelteil 64 die Augen des Benutzers zu erreichen.
  • Im Steuerungssystem der Anzeigevorrichtung in 33 wird ein vom Rechenwerk 70 ausgegebenes Bild durch eine Ausgabeinformations-Zuweisungseinrichtung 72 den jeweiligen Bildausgabevorrichtungen zur Ausgabe zugeteilt und dann an ein graphisches RAM 73 in einem Bildausgabe-Steuerwerk 71 geschrieben. Die an das graphische RAM 73 geschriebene Information wird auf der Basis von Adressen verwaltet, vom Rechenwerk 70 ausgegebene Information wird an die Anzeigevorrichtung 2 und die Anzeige 63 ausgegeben. Zum Beispiel kann die gleiche Information sowohl auf der Anzeigevorrichtung 2 als auch auf der Anzeige 63 angezeigt werden, oder es können getrennte Datensätze auf der Anzeigevorrichtung 2 bzw. der Anzeige 63 angezeigt werden, und die Information kann auch an eine beliebige Bildanzeigevorrichtung übertragen werden.
  • Das Ablaufdiagramm in 34 zeigt einen Prozess der Ausgabe von Bildinformationen, die vom Rechenwerk ausgegeben werden, an mehrere Bildanzeigevorrichtungen. So als ob Bildanzeigevorrichtungen von anscheinend großen Kapazitäten mit dem Rechenwerk verbunden wären, wird vom Rechenwerk ausgegebene Information in diese Anzeigevorrichtungen eingelesen (S51). Es wird bestimmt, ob die gelesene Information ein Bild enthält oder Anzeigebereiche steuert (S52). Wenn die Information dazu dient, den Anzeigebereich zu steuern, wird ein Speicheradressenbereich, der im graphischen RAM 73 eingestellt werden muss, um ein Bild auf jeder Anzeigevorrichtung anzuzeigen, auf der Basis dieser Information bestimmt (S53). Wenn die Information ein Bild enthält, werden Parameter wie ein Anzeigebereich (Adressen) auf der Basis des Speicheradressenbereichs bestimmt (S54). Dann wird bestimmt, ob die Bildinformation in dem in Schritt S54 (S55) bestimmten Anzeigebereich enthalten sein soll oder nicht, der Teil der Information, der nicht zum Anzeigebereich gehört, wird während der Verarbeitung ignoriert (S56), und der Rest der Information, der im Anzeigenbereich enthalten sein sollte, wird adressenkonvertiert (S57) und an das graphische RAM (S58) geschrieben. Jede der Bildan zeigevorrichtungen zeigt die Information in dem zugewiesenen Adressenbereich wie gefordert an.
  • Der Benutzer betrachtet den virtuellen Unterbildschirm 5 in einem Teil seines Sichtfelds und die anderen Bildanzeigevorrichtungen in dem Rest seines Sichtfelds und kann die Vielzahl von Bildanzeigevorrichtungen einfach dadurch sehen, dass er seine Sichtlinie leicht bewegt.
  • Obwohl in dem obigen Beispiel zwei Bildanzeigevorrichtungen mit dem tragbaren Computer verbunden sind, ist die Anzahl an Rechenwerken und Bildanzeigevorrichtungen nicht begrenzt, und bei einem System, das eine große Menge an Informationen unter Verwendung von vielen Rechenwerken verarbeitet, können die Ergebnisse der Verarbeitung auf den vielen Bildanzeigevorrichtungen angezeigt werden, wobei nur die zu überwachende Information auf einer kopfverbundenen Anzeigevorrichtung angezeigt wird.
  • Beispiel 9
  • In der Anzeigevorrichtung der 35 ist in ein brillenähnliches Gestell 101 ein Flüssigkristalltafel-Anzeigeteil 172 für das linke Auge und ein Flüssigkristalltafel-Anzeigeteil 173 für das rechte Auge eingebaut. Diese Flüssigkristalltafel-Anzeigeteile 172, 173 bilden ein virtuelles Bild auf der Retina der Augen über eine konvexe Linse 103 und einen Spiegel 170 im Verhältnis zur Stärke jedes Bilds durch Bestrahlen der Rückseite der Flüssigkristalltafel 102 von hinten mit Fremdlicht oder Licht von der Hintergrundbeleuchtung 104. Eine Treiberschaltung zur Steuerung dieser Flüssigkristalltafeln 102 kann integral mit oder getrennt von dem brillenähnlichen Gestell gestaltet sein, um Bilder auf der Flüssigkristalltafel zu bilden.
  • Ein Mikrofon 174 ist über eine biegsame Verbindung 175 mit dem Gestell verbunden, die in Höhe der Ohren des Benutzers befestigt ist und zu seinem Mund hin gebogen werden kann. Ein Nachführsensor 176, der als Positionserfassungseinrichtung dient, ist in der Mitte eines Gestells 177 angeordnet, um das rechte und das linke Ohr des Benutzers zu verbinden. Der Nachführsensor 176 erfasst die Richtung der Sichtlinie der Bedienperson unter Verwendung des Trägheitsmoments, das bewirkt wird, wenn der Kopf des Benutzers gedreht wird. Die Anzeigevorrichtung in dieser Ausführungsform umfasst eine Maus 180 und eine Tastatur 181.
  • Die 38 und 39 zeigen ein Beispiel, bei dem ein Standbild editiert wird, das unter Verwendung der in 35 gezeigten Anzeigevorrichtung erhalten wird. Diese Figuren beschreiben ein Anzeigeverfahren, bei dem ein erster und ein zweiter Anzeigebereich seitlich auf dem Anzeigebildschirm angezeigt werden.
  • Der erste Anzeigebereich enthält üblicherweise Standbilder, die vor der Bedienperson angezeigt werden. Der zweite Anzeigebereich wird entsprechend dem Ausmaß der Bewegung des Benutzers, die vom Nachführsensor 176 erfasst wird, wenn der Benutzer sich nach rechts dreht, rechts vom Bildschirm angezeigt. Der zweite Anzeigebereich zeigt Attribute der Bilddaten an, die im ersten Anzeigebereich angezeigt werden. Wenn in diesem Fall der Benutzer sich nach rechts dreht, erfasst der Nachführsensor 176 diese Bewegung, um auf den beiden Flüssigkristalltafeln 102 ein Bild wie in 39 gezeigt zu erzeugen. Dieses Beispiel bezieht sich auf die Synthese von Standbildern, bei der die Segmente des Bilds (geometrische Modelle, wie ein Baum, ein Haus oder ein Auto) im zweiten Anzeigebereich erfasst und ihre Größen eingestellt werden. In diesem Fall wird zum Beispiel ein "Auto" von der Tastatur 181 eingegeben, um seine Konstruktions-Datei nach einem geeigneten Material zu durchsuchen. In gleicher Weise werden Suchvorgänge für das Haus und den Baum durchgeführt, und die Größe des Bilds wird ebenfalls im zweiten Anzeigebereich eingestellt. Die verarbeiteten Bildmaterialien werden an den ers ten Anzeigebereich übertragen, wo sie gegen einen Hintergrund wie zum Beispiel einen Berg aufgebaut werden.
  • Als nächstes wird der obige Editierungsprozess unter Bezugnahme auf das Ablaufdiagramm in 40 beschrieben. Die Ausgabe des Nachführsensors 176 wird zuerst eingegeben, und die Richtung der Sichtlinie der Bedienperson wird auf der Basis dieses eingegebenen Signals erfasst (S20). Wenn bestimmt wird, dass die Sichtlinie nach links ausgerichtet ist, werden Hintergrundbilder in den ersten Anzeigebereich (S21) eingegeben, um unter ihnen auszuwählen (S22). Dann wird auf der Basis der Ausgabe des Nachführsensors 176 bestimmt, ob die Bedienperson 1 sich nach rechts gedreht hat oder nicht (S23), und wenn nicht, wird das Hintergrundbild dann verarbeitet (S24). Bis die Verarbeitung beendet ist (S25), wird der Prozess des Auswählens und Verarbeitens eines Hintergrundbilds wiederholt (S22 bis S24).
  • Wenn die Verarbeitung beendet ist (S25), wird bestimmt, ob Daten zum Bild hinzugefügt werden oder nicht (S26). Wenn bestimmt wird, dass Daten hinzugefügt werden sollten, werden Attribut-Daten zum ersten Anzeigebereich hinzugefügt (S27).
  • Dann wird eine Stimmeingabe verwendet, um die Details des Layouts zu editieren (S28). Dieser Prozess wird später beschrieben. Wenn die Editierung beendet ist (S29), ist die Verarbeitungsserie vollständig.
  • Wenn andererseits bei der Erfassung der Richtung der Sichtlinie (S20) bestimmt wird, dass die Sichtlinie der Bedienperson nach rechts ausgerichtet ist, werden Attribut-Daten in den zweiten Anzeigebereich eingegeben (S30). Eine Bezugskoordinatenposition wird bestimmt (S31), und es wird nach Attribut-Daten gesucht (S32). Wenn die Suche beendet ist (S33), werden die Attribut-Daten verarbeitet (S34). Wenn die Verarbeitung beendet ist, wird bestimmt, ob anschließend eine Editierung durchgeführt wird oder nicht (S36). Wenn ja, werden zu edi tierende Segmente ausgewählt (S37). Dann wird bestimmt, ob die Bedienperson 1 nach links sieht oder nicht, und wenn ja, werden die Bezugskoordinaten berechnet (S39), und der Prozess geht zum obigen Schritt S27 über. Ansonsten, d.h. wenn bestimmt wird, dass die Bedienperson immer noch nach rechts sieht, geht der Prozess zurück zu Schritt S34, um den Prozess der Verarbeitung von Attribut-Daten und der Auswahl von zu editierenden Segmenten zu wiederholen.
  • Ein Prozess des Audio-Editierens wird unter Bezugnahme auf das Ablaufdiagramm in 41 beschrieben. Eine Audio-Eingabe besteht nicht nur einfach darin, Wörter zu verstehen, die durch Befehle impliziert werden, sondern verwendet eine "WordSpotting" genannte Audio-Eingabeeinrichtung für nicht spezifizierte Sprecher, in die Klauseln eingegeben werden können.
  • In dieser Audio-Eingabeeinrichtung werden Sätze durch Neuro-Computer-Verarbeitung verstanden, in der Substantive wie ein Baum, die rechte Seite, Bewegung, die linke Seite, und eine Höhe vorab eingespeichert werden, um den ganzen Satz auf der Basis der Wahrscheinlichkeit des Vorkommens jedes Worts zu verstehen.
  • In diesem Fall wird ein virtuelles Bild innerhalb des ersten Anzeigebereichs über eine Weitwinkellinse gezeigt, so dass das Bild vergrößert ist, und dem Benutzer kann der Eindruck vermittelt werden, dass er sich in dem Bild befindet. Die Entfernung, über die das Bild sich bewegt, wird im Computer auf die Größe des ersten Anzeigebereichs eingestellt, und die Entfernung zwischen dem Sichtpunkt und einem Gegenstand wird vorab berechnet. Während des Editierens kann ein gewünschtes Bild in Form einer Stimme eingegeben werden, um sogar kleinere Positionsbeziehungen zu editieren, während das Bild im ersten Anzeigebereich betrachtet wird, ohne dass der Sichtpunkt verändert wird.
  • Der Sichtpunkt kann im zweiten Anzeigebereich auch so geändert werden, als ob diese Änderung durch Kameraführung durchgeführt würde.
  • 42 zeigt eine Simulation von bewegten Bilddaten unter Verwendung der in 35 gezeigten Anzeigevorrichtung. Ein simuliertes Bild (a) wird im ersten Anzeigebereich angezeigt, während seine Attribute im zweiten Anzeigebereich angezeigt werden. Der zweite Anzeigebereich zeigt räumliche Bereichsdaten, die sich mit der Zeitspanne ändern, zum Beispiel sich zeitlich ändernde und graphisch angezeigte Angaben des geometrischen Orts (b) eines fliegenden Flugzeugs, (c) seiner Geschwindigkeit und (d) die hierarchische Segmentierung der Bildsegmente.
  • In dieser Ausführungsform kann der geometrische Ort des Flugzeugs durch Aufzeichnen der sich zeitlich verändernden Position des Flugzeugs im zweiten Anzeigebereich erhalten werden. Eine Geschwindigkeit kann für jeden aufgezeichneten Punkt basierend auf der Kurvendarstellung Zeit gegenüber Geschwindigkeit eingestellt werden. Wenn zum Beispiel die Geschwindigkeit verändert werden soll, wird die Maus auf jeden Schrittpunkt geklickt, um ihn nach oben oder unten zu bewegen. Die Segmente, die in den Bilddaten gemäß einer bestimmten Zeitbasis erscheinen, können auf der Basis der Kurvendarstellung, in der die Bildsegmente hierarchisch ausgedrückt werden, ausgeschnitten oder in das Bild eingefügt werden.
  • Eine solche Verarbeitung, die es ermöglicht, dass die Attribute der Bilddaten in der Zeit verändert werden, ist beim Editieren von segmentierten Daten während der Nachbearbeitung sehr wirkungsvoll. Die Wirksamkeit der Editierung wird weiter verbessert durch Anwenden der Tiefe jedes Bildmaterials und einer Parallaxe, die dem Unterschied zwischen dem rechten und dem linken Auge entspricht, um eine dreidimensionale Anzeige zu erreichen, bei der die Bedienperson das Gefühl hat, tat sächliche Szenen sowie eine hierarchische Anzeige zu betrachten, die die Tiefe gut ausdrückt.
  • Beispiel 10
  • In dem Datenverarbeitungsgerät der 43 ist ein Rechenwerk 81 vom tragbaren Typ, wie übliche Notebook-PCs oder PCs. Dieses Rechenwerk 81 weist aber keine übliche Anzeige vom offenen Typ auf, sondern enthält ein Rechenwerk-Hauptgehäuse 82, das aus einem Rechenteil, einem Speicherteil und einer Tastatur besteht, und einen Deckel 83 zum Schutz der Oberfläche der Tastatur während der Lagerung oder des Transports. Wie bei üblichen Datenverarbeitungsgeräten ist der Deckel 83 mit dem Rechenwerk-Hauptgehäuse 82 über eine Gelenkverbindung 84 verbunden, um geöffnet oder geschlossen gehalten werden zu können. Die Innenfläche des Deckels 83 hat eine Pufferstruktur, die aus einem elastischen Körper besteht, und ein Teil davon bildet einen Gehäuseabschnitt 86 zur Aufnahme der Anzeigevorrichtung 2. Die Anzeigevorrichtung 2 weist ein brillenähnliches Gestell 101 auf, in dem das obige optische System und die Treiberschaltung angeordnet sind, und das am Kopf des Benutzers befestigt wird, um sein Gesicht zu bedecken. Ein Bügel 88 ist an beiden Enden des Gestells 101 mit Scharnieren 89 ausgebildet, um über den Ohren des Benutzers zu verlaufen, und kann gefaltet und eingepackt werden. Ein Verbindungskabel 106 von der Treiberschaltung steht an einem Ende des Bügels 88 vor und verbindet über ein Ende des Gehäuseteils 86 mit dem Rechenwerk-Hauptgehäuse 82.
  • Wenn die kopfverbundene Bildanzeigevorrichtung 2 im Betrieb über das Gestell 101 am Kopf des Benutzers befestigt ist und das Rechenwerk 81 angetrieben wird, vergrößern die Treiberschaltung und das optische System in der Anzeigevorrichtung 2 eine Bildinformation, die vom Rechenwerk 81 ausgegeben wird, und zeigen sie als ein virtuelles Bild in einer bestimmten Entfernung vom Gesicht der Bedienperson an. Beim Lagern oder Transport wird der Bügel 88 auf beiden Seiten der Anzeigevor richtung 2 zusammengefaltet, und die Anzeigevorrichtung wird im Gehäuseteil 86 untergebracht. Das Verbindungskabel 106 wird auch zusammengefaltet und im Gehäuseteil 86 untergebracht, und der Deckel 83 wird geschlossen. Dieses Gerät stellt dann eine integrale Struktur wie übliche tragbare Datenverarbeitungsgeräte dar.
  • Folglich ist es möglich, die Tragbarkeit und die Bedienbarkeit des Datenverarbeitungsgeräts zu verbessern, während die üblichen Vorteile, wie z. B. die Fähigkeit, vertrauliche Dokumente herzustellen, und die Vermeidung örtlicher Beschränkungen, wie die Anforderung, die Anzeige ganz zu öffnen, beibehalten werden.
  • Der Betrieb des obigen Beispiels wird anhand des Blockdiagramms der 44 erklärt. Ein elektrischer Strom von einem externen Stromversorgungseingang AC teilt sich an einer Stromschaltung 96 im Rechenwerk 81 in zwei Ströme auf, von denen einer an den Rechenoperationsteil 97 gespeist wird. Der andere Strom und die Ausgabe des Rechenwerkoperationsteils 97 werden über das Verbindungskabel 106 an die Treiberschaltung 105 in der Anzeigevorrichtung 2 geliefert und dann in ein Flüssigkristall-Antriebssignal umgewandelt, um die Flüssigkristalltafel 102 anzutreiben. In diesem Blockdiagramm werden zur Erklärung nicht notwendige Bauteile weggelassen und nicht beschrieben. Zusätzlich können die Größe und das Gewicht der Anzeigevorrichtung 2 weiter dadurch reduziert werden, dass die Treiberschaltung 105, die in dieser Ausführungsform in der Anzeigevorrichtung 2 untergebracht ist, in zwei Teile geteilt wird, von denen eines in das Rechenwerk 81 derart eingebaut wird, dass diese Konfiguration nicht zum Entstehen von Geräuschen führt.
  • Beispiel 11
  • Das Datenverarbeitungsgerät in 45 hat die gleiche Basiskonfiguration wie in dem vorhergehenden Beispiel. In die ser Ausführungsform ist ein Gehäuseteil 90 zur Aufnahme der Anzeigevorrichtung 2 innerhalb des Rechenwerk-Hauptgehäuses 82 ausgebildet, und das Verbindungskabel 106 ist sowohl mit der Stromversorgung im Rechenwerk 81 als auch mit dem Rechenoperationsteil verbunden. Obwohl das Volumen des Rechenwerk-Hauptgehäuses 82 sich etwas vergrößert, wird in dieser Ausbildung die Notwendigkeit eines großen Deckels beseitigt, um die Größe und das Gewicht des Geräts zu verringern und dadurch die Tragbarkeit zu verbessern, und das Bedürfnis eines Deckels vom offenen Typ wird beseitigt, um die örtlichen Begrenzungen zu verringern, wodurch die Verwendbarkeit weiter verbessert wird.
  • Beispiel 12
  • Das Datenverarbeitungsgerät in den 46 und 47 hat auch die gleiche Basiskonfiguration wie in den beiden vorhergehenden Ausführungsformen. Gleiche Bauteile tragen gleiche Bezugszeichen und ihre Beschreibung wird weggelassen.
  • In dieser Ausführungsform enthält das Rechenwerk 81 ein Ladegerät, und die Anzeigevorrichtung 2 enthält eine aufladbare Batterie. Zusätzlich stehen der Rechenoperationsteil 97 und die Treiberschaltung 105 miteinander über Funk in Verbindung. Die Nutzung, Lagerung oder Transport dieses Geräts erfordern also weniger Raum. Das Rechenwerk 81 hat ein Ladegerät 98, an das von einer Stromversorgung 96 elektrische Ströme geliefert werden, und eine Übertragungsschaltung 99, an die vom Rechenoperationsteil 97 Signale geliefert werden. Ein an die Übertragungsschaltung 99 geliefertes Signal wird in der Schaltung 99 moduliert, dann über Antennen 201, 202 übertragen und empfangen und in einer Empfangsschaltung 203 demoduliert. Das Signal wird schließlich in die Treiberschaltung 105 eingegeben. Die Anzeigevorrichtung 2 enthält eine wiederaufladbare Batterie 204, um Treiberströme an die Treiberschaltung 105 zu liefern.
  • Ein mit dem Ladegerät 98 verbundener Elektrodenkontakt 205 ist an der Endfläche des Gehäuseteils 90 freigelegt. Wenn zum Beispiel die kopfverbundene Bildanzeigevorrichtung 2 im Gehäuseteil 90 durch seitliches Einfügen der Antenne 202 im Teil 90 untergebracht werden soll, ist an der Seite der Antenne 202 des Gestells 101 ein Elektrodenkontakt 206 vorgesehen, der mit dem Elektrodenkontakt 205 in Eingriff gelangt, wenn die Anzeigevorrichtung im Hauptgehäuse untergebracht ist, und der mit der Batterie 204 verbunden ist. In dieser Konfiguration sind, wenn die kopfverbundene Bildanzeigevorrichtung 2 im Hauptgehäuse untergebracht ist, der Elektrodenkontakt 205 des Ladegeräts 98 und der Elektrodenkontakt 206 der Batterie 204 miteinander verbunden. Die Batterie 204 wird also geladen, während das Anzeigegerät 2 im Hauptgehäuse untergebracht ist, d.h. während das Gerät 2 nicht in Gebrauch ist.
  • In dieser Struktur sind das Rechenwerk 81 und die Anzeigevorrichtung 2 vollständig voneinander getrennt, wodurch die Verwendung des Datenverarbeitungsgeräts 81 sowie der Einbau und der Ausbau der Anzeigevorrichtung 2 in und aus dem Gehäuseteil 90 wesentlich vereinfacht werden. Zusätzlich, selbst wenn die Anzeigevorrichtung 2 in gleicher Weise wie in der Ausführungsform der 43 untergebracht wird, können ähnliche Wirkungen durch Hinzufügen der obigen Bauteile zum Gerät erzeugt werden.
  • Die Anzeigevorrichtung in jeder der obigen Ausführungsformen muss nicht unbedingt von einem Ein-Augen-Typ sein, bei dem ein optisches System über nur einem Auge angeordnet wird, während das andere Auge ein Bild betrachtet, sondern kann vom Zwei-Augen-Typ sein, bei dem über jedem Auge ein optisches System angeordnet ist. In diesem Fall ist die optische Achse jedes optischen Systems vorzugsweise nach innen gerichtet, so dass die Blickrichtungen der beiden Augen einander in einer Bildsichtbarkeitsentfernung schneiden (einer Entfernung, in der ein virtuelles Bild gesehen werden kann), wie bei der na türlichen Art des Betrachtens von Gegenständen. Zusätzlich sind die obigen Bauteile nicht auf den obigen Inhalt beschränkt, und verschiedene Veränderungen können an ihnen vorgenommen werden, ohne den Umfang dieser Erfindung zu verlassen.

Claims (4)

  1. Kopfverbundene Bildanzeigevorrichtung (2), die eine Flüssigkristall-Anzeigetafel (102) und ein optisches Vergrößerungssystem (103) aufweist, die in einem Gestell (101) angeordnet sind, und wobei auf der Flüssigkristall-Anzeigetafel (102) erzeugte Bilder durch das optische Vergrößerungssystem (103) hindurch im Sichtfeld eines Benutzers (1) vor dem Gestell (101) sichtbar sind, mit: einer Ortserfassungseinrichtung (107), (109) und (108) zur Erfassung des Sichtfelds des Benutzers (1) in horizontaler oder vertikaler Richtung; dadurch gekennzeichnet, dass sie weiter aufweist: eine Bilderzeugungseinrichtung zur Segmentierung des Anzeigebereichs in einen ersten Anzeigebereich zum Anzeigen von Bildern und in einen zweiten Anzeigebereich zum Anzeigen von Eigenschaften eines Bildes, und zum Umschalten zwischen den ersten und zweiten Anzeigebereichen auf der Basis der Ausgabe der Ortserfassungseinrichtung, und Anzeigemittel zum Anzeigen von Eigenschaften einer Bildgeometrie oder von Betriebsmodellen, die in dem ersten Anzeigebereich miteinbezogen sein sollen.
  2. Bildanzeigevorrichtung nach Anspruch 1, wobei die geometrischen Daten oder die Kameraführung, die in dem ersten Anzeigebereich miteinbezogen sein sollen, in dem zweiten Anzeigebereich angezeigt werden.
  3. Bildanzeigevorrichtung nach Anspruch 1, wobei Raum-Zeit-Bereichsdaten, die in dem ersten Anzeigebereich miteinbezogen sein sollen, in dem zweiten Anzeigebereich angezeigt werden.
  4. Bildanzeigevorrichtung nach Anspruch 1, wobei Raum-Zeit-Bereichsdaten, die in dem ersten Anzeigebereich miteinbezogen sein sollen, dreidimensional in dem zweiten Anzeigebereich angezeigt werden, wobei eine Parallaxe darin vorgesehen ist.
DE1994634843 1993-08-12 1994-08-12 Am Kopf montierte Bildanzeigevorrichtung und diese enthaltendes Datenverarbeitungssystem Expired - Lifetime DE69434843T2 (de)

Priority Applications (16)

Application Number Priority Date Filing Date Title
JP20086393 1993-08-12
JP20086393 1993-08-12
JP28845993 1993-11-17
JP28845993 1993-11-17
JP29095593 1993-11-19
JP29095593 1993-11-19
JP29095393 1993-11-19
JP29095293 1993-11-19
JP29095293 1993-11-19
JP29095393 1993-11-19
JP29847893 1993-11-29
JP29847893 1993-11-29
JP32859493 1993-12-24
JP32858693 1993-12-24
JP32859493 1993-12-24
JP32858693 1993-12-24

Publications (2)

Publication Number Publication Date
DE69434843D1 DE69434843D1 (de) 2006-10-19
DE69434843T2 true DE69434843T2 (de) 2007-02-15

Family

ID=27573423

Family Applications (4)

Application Number Title Priority Date Filing Date
DE69435274T Expired - Lifetime DE69435274D1 (de) 1993-08-12 1994-08-12 Am Kopf montierte Bildanzeige- und eine hiermit ausgestattete Datenverarbeitungsvorrichtung
DE1994634843 Expired - Lifetime DE69434843T2 (de) 1993-08-12 1994-08-12 Am Kopf montierte Bildanzeigevorrichtung und diese enthaltendes Datenverarbeitungssystem
DE1994632466 Expired - Lifetime DE69432466T2 (de) 1993-08-12 1994-08-12 Am kopf befestigte bildanzeigevorrichtung und damit ausgestattete informationsverarbeitungseinrichtung
DE1994634851 Expired - Lifetime DE69434851T2 (de) 1993-08-12 1994-08-12 Am Kopf montierte Bildanzeigevorrichtung und diese enthaltendes Datenverarbeitungsgerät

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE69435274T Expired - Lifetime DE69435274D1 (de) 1993-08-12 1994-08-12 Am Kopf montierte Bildanzeige- und eine hiermit ausgestattete Datenverarbeitungsvorrichtung

Family Applications After (2)

Application Number Title Priority Date Filing Date
DE1994632466 Expired - Lifetime DE69432466T2 (de) 1993-08-12 1994-08-12 Am kopf befestigte bildanzeigevorrichtung und damit ausgestattete informationsverarbeitungseinrichtung
DE1994634851 Expired - Lifetime DE69434851T2 (de) 1993-08-12 1994-08-12 Am Kopf montierte Bildanzeigevorrichtung und diese enthaltendes Datenverarbeitungsgerät

Country Status (5)

Country Link
US (3) US5977935A (de)
EP (4) EP1326121B1 (de)
JP (1) JP3872100B2 (de)
DE (4) DE69435274D1 (de)
WO (1) WO1995005620A1 (de)

Families Citing this family (168)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4272711B2 (ja) * 1995-05-15 2009-06-03 キヤノン株式会社 画像生成方法及び装置
US7724278B2 (en) 1995-05-30 2010-05-25 Maguire Francis J Jr Apparatus with moveable headrest for viewing images from a changing direction-of-view
USRE45062E1 (en) 1995-05-30 2014-08-05 Susan C. Maguire Apparatus for inducing attitudinal head movements for passive virtual reality
JP3752707B2 (ja) * 1995-08-31 2006-03-08 セイコーエプソン株式会社 頭部装着型表示装置
DE69709709D1 (de) * 1996-03-15 2002-02-21 Retinal Display Cayman Ltd Verfahren und vorrichtung zur betrachtung eines bildes
JPH10240491A (ja) * 1997-02-26 1998-09-11 Olympus Optical Co Ltd 情報処理装置
TW362207B (en) 1997-05-08 1999-06-21 Shimadzu Corp Display system
EP0903661B1 (de) * 1997-08-27 2003-01-08 Canon Kabushiki Kaisha Gerät und Verfahren zum Eingeben von Daten basierend auf visueller Erfassung
US6388657B1 (en) * 1997-12-31 2002-05-14 Anthony James Francis Natoli Virtual reality keyboard system and method
US6600480B2 (en) * 1998-12-31 2003-07-29 Anthony James Francis Natoli Virtual reality keyboard system and method
US7248232B1 (en) * 1998-02-25 2007-07-24 Semiconductor Energy Laboratory Co., Ltd. Information processing device
JPH11265248A (ja) * 1998-03-18 1999-09-28 Sony Corp 眼鏡型画像表示装置
WO2000016136A1 (en) 1998-09-14 2000-03-23 Digilens, Inc. Holographic illumination system and holographic projection system
US6184847B1 (en) * 1998-09-22 2001-02-06 Vega Vista, Inc. Intuitive control of portable data displays
WO2000023835A1 (en) 1998-10-16 2000-04-27 Digilens, Inc. Holographic technique for illumination of image displays using ambient illumination
AU6519099A (en) 1998-10-16 2000-05-08 Digilens Inc. Method and system for display resolution multiplication
US6678078B1 (en) 1999-01-07 2004-01-13 Digilens, Inc. Optical filter employing holographic optical elements and image generating system incorporating the optical filter
DE50003357D1 (de) * 1999-03-02 2003-09-25 Siemens Ag Augmented-reality-system mit sprachbasierter erfassung von informationsdaten, insbesondere von serviceberichten
US9274596B2 (en) 1999-03-16 2016-03-01 Susan C. Maguire Moveable headrest for viewing images from different directions
US7453451B1 (en) 1999-03-16 2008-11-18 Maguire Francis J Jr Moveable headrest for viewing images from different directions
US6504629B1 (en) 1999-03-23 2003-01-07 Digilens, Inc. Method and apparatus for illuminating a display
US6507419B1 (en) 1999-03-23 2003-01-14 Digilens, Inc. Illumination system using optical feedback
US6724354B1 (en) * 1999-06-21 2004-04-20 The Microoptical Corporation Illumination systems for eyeglass and facemask display systems
JP4168221B2 (ja) * 1999-09-06 2008-10-22 株式会社島津製作所 身体装着型表示システム
TWI252592B (en) * 2000-01-17 2006-04-01 Semiconductor Energy Lab EL display device
FR2804768A1 (fr) * 2000-02-08 2001-08-10 Francois Mouly Procede d'affichage pour ordinateur et dispositif pour sa mise en oeuvre
US6611252B1 (en) * 2000-05-17 2003-08-26 Dufaux Douglas P. Virtual data input device
GB0012275D0 (en) * 2000-05-22 2000-07-12 Secr Defence Brit Three dimensional human computer interface
US6424437B1 (en) 2000-10-10 2002-07-23 Digilens, Inc. Projection display employing switchable holographic optical elements
US20040246234A1 (en) * 2001-03-01 2004-12-09 Luis Serra Display apparatus
JP2003046903A (ja) * 2001-07-31 2003-02-14 Sanyo Electric Co Ltd 表示装置
JP4786076B2 (ja) * 2001-08-09 2011-10-05 パナソニック株式会社 運転支援表示装置
US7742013B2 (en) * 2002-09-26 2010-06-22 Hari Hara Kumar Venkatachalam Integrated spectacles and display unit for computers and video
JP2004213350A (ja) * 2002-12-27 2004-07-29 Seiko Epson Corp 力覚提示装置及び画像補正方法
ITTO20030426A1 (it) * 2003-06-06 2004-12-07 Galileo Avionica Spa Apparato di gestione missione e veicolo equipaggiato con tale apparato di gestione missione
ITTO20031055A1 (it) * 2003-12-30 2005-06-30 Fiat Ricerche Sistema per l'assistenza remota di un operatore in una fase di lavoro.
US7355583B2 (en) * 2004-08-10 2008-04-08 Mitsubishi Electric Research Laboretories, Inc. Motion-based text input
KR100800859B1 (ko) * 2004-08-27 2008-02-04 삼성전자주식회사 Hmd 정보 단말기에서 키를 입력하는 장치 및 방법
US8585476B2 (en) 2004-11-16 2013-11-19 Jeffrey D Mullen Location-based games and augmented reality systems
US8564532B2 (en) * 2005-12-06 2013-10-22 Naturalpoint, Inc. System and methods for using a movable object to control a computer
US20060224151A1 (en) * 2005-03-31 2006-10-05 Sherwood Services Ag System and method for projecting a virtual user interface for controlling electrosurgical generator
WO2006128648A2 (de) * 2005-05-30 2006-12-07 Andreas Durner Elektronische tag- und nachtsichtbrille
US7647175B2 (en) 2005-09-09 2010-01-12 Rembrandt Technologies, Lp Discrete inertial display navigation
US9958934B1 (en) * 2006-05-01 2018-05-01 Jeffrey D. Mullen Home and portable augmented reality and virtual reality video game consoles
US7928926B2 (en) * 2006-06-27 2011-04-19 Panasonic Corporation Display apparatus and method for hands free operation that selects a function when window is within field of view
EP2086392A2 (de) * 2006-08-15 2009-08-12 Dinesh Verma Ophthalmisches diagnosegerät
WO2008088691A2 (en) 2007-01-12 2008-07-24 Kopin Corporation Head mounted monocular display device
US9217868B2 (en) 2007-01-12 2015-12-22 Kopin Corporation Monocular display device
US20080204359A1 (en) * 2007-02-28 2008-08-28 Perception Digital Limited Electronic display device for displaying digital images
US8605008B1 (en) * 2007-05-04 2013-12-10 Apple Inc. Head-mounted display
US8832557B2 (en) 2007-05-04 2014-09-09 Apple Inc. Adjusting media display in a personal display system based on perspective
US20080285227A1 (en) * 2007-05-14 2008-11-20 Kennard Lindsey E Modular small size computer system
US8207962B2 (en) * 2007-06-18 2012-06-26 Mediatek Inc. Stereo graphics system based on depth-based image rendering and processing method thereof
EP2167920B1 (de) * 2007-07-18 2013-09-18 Elbit Systems Ltd. Flugzeuglandehilfe
WO2009063968A1 (ja) * 2007-11-16 2009-05-22 Nikon Corporation 制御装置、ヘッドマウントディスプレイ装置、プログラム及び制御方法
JP2009128565A (ja) * 2007-11-22 2009-06-11 Toshiba Corp 表示装置、表示方法及びヘッドアップディスプレイ
US9064196B1 (en) 2008-03-13 2015-06-23 Impinj, Inc. RFID tag dynamically adjusting clock frequency
US8193912B1 (en) * 2008-03-13 2012-06-05 Impinj, Inc. RFID tag dynamically adjusting clock frequency
US8416152B2 (en) * 2008-06-11 2013-04-09 Honeywell International Inc. Method and system for operating a near-to-eye display
KR101493748B1 (ko) * 2008-06-16 2015-03-02 삼성전자주식회사 물품 제공장치, 디스플레이 장치 및 이를 이용한 gui제공방법
US8957835B2 (en) 2008-09-30 2015-02-17 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
US20110291916A1 (en) * 2008-12-10 2011-12-01 Frank Arndt Method for transmitting an image from a first control unit to a second control unit and output unit
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
JP2010145861A (ja) * 2008-12-19 2010-07-01 Brother Ind Ltd ヘッドマウントディスプレイ
JP5293154B2 (ja) * 2008-12-19 2013-09-18 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP5218354B2 (ja) * 2009-09-16 2013-06-26 ブラザー工業株式会社 ヘッドマウントディスプレイ
KR20110055337A (ko) 2009-11-18 2011-05-25 삼성전자주식회사 디스플레이장치
JP5141672B2 (ja) * 2009-11-30 2013-02-13 ブラザー工業株式会社 ヘッドマウントディスプレイ装置、及びヘッドマウントディスプレイ装置を用いた画像共有システム
US8471814B2 (en) * 2010-02-26 2013-06-25 Microsoft Corporation User interface control using a keyboard
US20130038702A1 (en) * 2010-03-09 2013-02-14 Imax Corporation System, method, and computer program product for performing actions based on received input in a theater environment
GB2478738A (en) * 2010-03-16 2011-09-21 Belron Hungary Kft Zug Branch Eye level display in communication with electronic device
US8619005B2 (en) * 2010-09-09 2013-12-31 Eastman Kodak Company Switchable head-mounted display transition
US9292973B2 (en) 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
KR20120062170A (ko) * 2010-12-06 2012-06-14 삼성전자주식회사 가상 모니터 제어장치 및 그 제어방법
KR20120064557A (ko) * 2010-12-09 2012-06-19 한국전자통신연구원 증강형 3차원 입체 영상 제시를 위한 혼합현실 디스플레이 플랫폼 및 운영 방법
US20120327116A1 (en) * 2011-06-23 2012-12-27 Microsoft Corporation Total field of view classification for head-mounted display
US9024843B2 (en) * 2011-06-30 2015-05-05 Google Inc. Wearable computer with curved display and navigation tool
US9323325B2 (en) 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US8990682B1 (en) 2011-10-05 2015-03-24 Google Inc. Methods and devices for rendering interactions between virtual and physical objects on a substantially transparent display
US9081177B2 (en) 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US9547406B1 (en) 2011-10-31 2017-01-17 Google Inc. Velocity-based triggering
US20130117707A1 (en) * 2011-11-08 2013-05-09 Google Inc. Velocity-Based Triggering
JP5927867B2 (ja) 2011-11-28 2016-06-01 セイコーエプソン株式会社 表示システム、及び操作入力方法
US20130137076A1 (en) * 2011-11-30 2013-05-30 Kathryn Stone Perez Head-mounted display based education and instruction
FR2985321B1 (fr) * 2011-12-30 2014-11-28 Thales Sa Masque de realite augmentee assurant une bonne reproductibilite et une bonne repetitivite de la visualisation des informations des capteurs par rapport a l'environnement reel
US9684374B2 (en) 2012-01-06 2017-06-20 Google Inc. Eye reflection image analysis
US8947322B1 (en) 2012-03-19 2015-02-03 Google Inc. Context detection and context-based user-interface population
JP5971466B2 (ja) * 2012-05-08 2016-08-17 日本電気株式会社 フライトパス表示システム、方法及びプログラム
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
KR101861380B1 (ko) * 2012-07-16 2018-05-28 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 헤드 마운트 디스플레이를 이용한 컨텐츠 출력 방법 및 이를 위한 헤드 마운트 디스플레이
US20140101608A1 (en) * 2012-10-05 2014-04-10 Google Inc. User Interfaces for Head-Mountable Devices
US20150212647A1 (en) * 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
JP6023568B2 (ja) * 2012-11-30 2016-11-09 オリンパス株式会社 頭部装着型装置
JP6333801B2 (ja) * 2013-02-19 2018-05-30 ミラマ サービス インク 表示制御装置、表示制御プログラム、および表示制御方法
CN109656354A (zh) * 2013-02-22 2019-04-19 索尼公司 信息处理装置和信息处理方法
KR102138511B1 (ko) * 2013-08-28 2020-07-28 엘지전자 주식회사 헤드 마운티드 디스플레이의 화상통화를 지원하는 포터블 디바이스 및 그 제어 방법
US9785231B1 (en) * 2013-09-26 2017-10-10 Rockwell Collins, Inc. Head worn display integrity monitor system and methods
WO2015179877A2 (en) * 2014-05-19 2015-11-26 Osterhout Group, Inc. External user interface for head worn computing
US10001645B2 (en) 2014-01-17 2018-06-19 Sony Interactive Entertainment America Llc Using a second screen as a private tracking heads-up display
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US9523856B2 (en) 2014-01-21 2016-12-20 Osterhout Group, Inc. See-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US20150241963A1 (en) 2014-02-11 2015-08-27 Osterhout Group, Inc. Eye imaging in head worn computing
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9615742B2 (en) 2014-01-21 2017-04-11 Osterhout Group, Inc. Eye imaging in head worn computing
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9740280B2 (en) 2014-01-21 2017-08-22 Osterhout Group, Inc. Eye imaging in head worn computing
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
JP6379572B2 (ja) 2014-03-27 2018-08-29 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US9298010B2 (en) * 2014-08-08 2016-03-29 Marissa J. Sundquist Wearable optical display with audio functionality
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
CN107211195B (zh) * 2015-02-12 2020-04-24 日商可乐普拉股份有限公司 使用头戴显示器的内容视听用的装置和系统
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US9965029B2 (en) * 2015-03-30 2018-05-08 Sony Corporation Information processing apparatus, information processing method, and program
US20160349791A1 (en) * 2015-05-27 2016-12-01 Google Inc. Virtual reality headset and device case
GB2543019A (en) * 2015-07-23 2017-04-12 Muzaffar Saj Virtual reality headset user input system
KR102105637B1 (ko) * 2015-08-04 2020-06-26 구글 엘엘씨 가상 현실에서 오브젝트와 손의 상황 감지형 충돌을 통한 입력
US9298283B1 (en) * 2015-09-10 2016-03-29 Connectivity Labs Inc. Sedentary virtual reality method and systems
US20170092002A1 (en) * 2015-09-30 2017-03-30 Daqri, Llc User interface for augmented reality system
JP6134019B1 (ja) * 2016-01-29 2017-05-24 株式会社コロプラ 仮想現実空間提供方法および仮想現実空間提供プログラム
US10685247B2 (en) * 2016-03-29 2020-06-16 Aptiv Technologies Limited Infrastructure-device status-verification system for automated vehicles
JP2018033111A (ja) * 2016-08-26 2018-03-01 オリンパス株式会社 画像観察装置
GB2553769A (en) * 2016-09-08 2018-03-21 Sony Interactive Entertainment Inc Input device and method
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
US10437070B2 (en) 2016-12-23 2019-10-08 Realwear, Inc. Interchangeable optics for a head-mounted display
US10393312B2 (en) 2016-12-23 2019-08-27 Realwear, Inc. Articulating components for a head-mounted display
US10620910B2 (en) * 2016-12-23 2020-04-14 Realwear, Inc. Hands-free navigation of touch-based operating systems
USD864959S1 (en) 2017-01-04 2019-10-29 Mentor Acquisition One, Llc Computer glasses
EP3542252A1 (de) 2017-08-10 2019-09-25 Google LLC Kontextsensitive handinteraktion
JP2019101811A (ja) * 2017-12-04 2019-06-24 富士通株式会社 処理プログラム、処理方法及び処理装置、並びに表示プログラム、表示方法及び表示制御装置
JP2019113693A (ja) 2017-12-22 2019-07-11 セイコーエプソン株式会社 表示システム、表示システムの制御方法、表示装置、及び、表示装置の制御方法
US20190272800A1 (en) * 2018-03-02 2019-09-05 Facebook Technologies, Llc Portable compute case for eyewear devices
US10665206B2 (en) * 2018-07-30 2020-05-26 Honeywell International Inc. Method and system for user-related multi-screen solution for augmented reality for use in performing maintenance
WO2020170515A1 (ja) * 2019-02-19 2020-08-27 株式会社Jvcケンウッド ヘッドマウントディスプレイ
US10852820B1 (en) * 2019-02-22 2020-12-01 Facebook Technologies, Llc Gaze-based virtual content control

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4757714A (en) * 1986-09-25 1988-07-19 Insight, Inc. Speed sensor and head-mounted data display
GB8701288D0 (en) * 1987-01-21 1987-02-25 Waldern J D Perception of computer-generated imagery
GB8715184D0 (en) * 1987-06-29 1987-10-21 Gec Avionics Stereoscopic presentation of data
US5003300A (en) * 1987-07-27 1991-03-26 Reflection Technology, Inc. Head mounted display for miniature video display system
US5015188A (en) * 1988-05-03 1991-05-14 The United States Of America As Represented By The Secretary Of The Air Force Three dimensional tactical element situation (3DTES) display
JP3129719B2 (ja) * 1989-04-21 2001-01-31 株式会社パルカ ビデオディスプレイ装置
WO1991004508A2 (en) * 1989-09-14 1991-04-04 General Electric Company Helmet mounted display
JP2959000B2 (ja) * 1989-12-19 1999-10-06 ソニー株式会社 顔面装着型視覚装置
US5130794A (en) * 1990-03-29 1992-07-14 Ritchey Kurtis J Panoramic display system
JPH03289615A (en) * 1990-04-06 1991-12-19 Toshiba Corp Both-eye view display device
US5214466A (en) * 1990-04-11 1993-05-25 Canon Kabushiki Kaisha Camera having visual axis detecting apparatus
FR2662894B1 (fr) * 1990-06-01 1995-11-17 Thomson Csf Dispositif de visualisation d'images simulees pour casque.
CA2047412A1 (en) * 1990-08-24 1992-02-25 Albert F. Harvard Theme park attraction for multiple participants using real time simulation
JP3247126B2 (ja) * 1990-10-05 2002-01-15 テキサス インスツルメンツ インコーポレイテツド 可搬型可視表示装置を提供する方法並びに装置
IL96869A (en) * 1991-01-02 1994-04-12 Israel State Method and system for aiming a small caliber weapon
US5381158A (en) * 1991-07-12 1995-01-10 Kabushiki Kaisha Toshiba Information retrieval apparatus
JP3311025B2 (ja) 1991-07-12 2002-08-05 株式会社東芝 情報検索装置
US5450596A (en) * 1991-07-18 1995-09-12 Redwear Interactive Inc. CD-ROM data retrieval system using a hands-free command controller and headwear monitor
GB2259213A (en) * 1991-08-29 1993-03-03 British Aerospace Variable resolution view-tracking display
JP3111430B2 (ja) * 1991-10-11 2000-11-20 ソニー株式会社 メガネ型ディスプレイ
GB9121707D0 (en) * 1991-10-12 1991-11-27 British Aerospace Improvements in computer-generated imagery
WO1993014454A1 (en) * 1992-01-10 1993-07-22 Foster-Miller, Inc. A sensory integrated data interface
EP0554492B1 (de) * 1992-02-07 1995-08-09 International Business Machines Corporation Verfahren und Vorrichtung zum optischen Eingang von Befehlen oder Daten
JPH0678341A (ja) * 1992-08-24 1994-03-18 Kawai Musical Instr Mfg Co Ltd 画像装置
US5644324A (en) * 1993-03-03 1997-07-01 Maguire, Jr.; Francis J. Apparatus and method for presenting successive images
US6061064A (en) * 1993-08-31 2000-05-09 Sun Microsystems, Inc. System and method for providing and using a computer user interface with a view space having discrete portions
US5969698A (en) * 1993-11-29 1999-10-19 Motorola, Inc. Manually controllable cursor and control panel in a virtual image

Also Published As

Publication number Publication date
EP1326121A3 (de) 2003-07-16
US7113151B2 (en) 2006-09-26
DE69432466D1 (de) 2003-05-15
EP1326120B1 (de) 2010-02-24
EP1326121B1 (de) 2006-09-13
DE69432466T2 (de) 2004-01-15
EP1326122A2 (de) 2003-07-09
EP0714043A4 (de) 1997-01-29
WO1995005620A1 (fr) 1995-02-23
DE69435274D1 (de) 2010-04-08
EP0714043A1 (de) 1996-05-29
US5977935A (en) 1999-11-02
EP1326122B1 (de) 2006-09-06
EP1326122A3 (de) 2003-07-23
EP1326120A2 (de) 2003-07-09
JP3872100B2 (ja) 2007-01-24
DE69434843D1 (de) 2006-10-19
EP1326120A3 (de) 2005-01-12
US6320559B1 (en) 2001-11-20
EP1326121A2 (de) 2003-07-09
DE69434851T2 (de) 2007-04-19
DE69434851D1 (de) 2006-10-26
US20020126066A1 (en) 2002-09-12
EP0714043B1 (de) 2003-04-09

Similar Documents

Publication Publication Date Title
Csapó et al. A survey of assistive technologies and applications for blind users on mobile platforms: a review and foundation for research
DE102015100930B4 (de) Steuerung von verbesserter Kommunikation zwischen entfernt befindlichen Teilnehmern/Teilnehmerinnen mittels erweiterter und virtueller Realität
Spanlang et al. How to build an embodiment lab: achieving body representation illusions in virtual reality
JP6798010B2 (ja) 感覚式アイウェア
LaViola Jr et al. 3D user interfaces: theory and practice
DE102018005132A1 (de) Maximierung der Größe eines Breitbildfilms auf einem mobilen Gerät mit Frontkamera
Ware Information visualization: perception for design
Van Krevelen et al. A survey of augmented reality technologies, applications and limitations
US9225969B2 (en) Graphical system with enhanced stereopsis
Billinghurst et al. Collaborative mixed reality
Mann An historical account of the'WearComp'and'WearCam'inventions developed for applications in'Personal Imaging'
Cartwright et al. Geospatial information visualization user interface issues
Smallman et al. Naïve realism: Misplaced faith in realistic displays
Szalavári et al. The personal interaction Panel–a Two‐Handed interface for augmented reality
US6326988B1 (en) Method, apparatus and article of manufacture for displaying content in a multi-dimensional topic space
Engelbart Augmenting human intellect: A conceptual framework
DE19983513B4 (de) Verfahren für das Auswählen eines grafischen Objektes und System für die Steuerung einer Schnittstelle eines Rechnersystems hierfür
CN104718495B (zh) 视频观察系统
James et al. “Active” and “passive” learning of three-dimensional object structure within an immersive virtual reality environment
Bowman Interaction techniques for common tasks in immersive virtual environments
US6911975B2 (en) Stereo image display apparatus and method, and storage medium
EP0328357B1 (de) Stereoskopisches Graphik-Anzeigesystem mit mehreren Fenstern zur Darstellung von Mehrfachbildern
JP4468370B2 (ja) 三次元表示方法、装置およびプログラム
US5588104A (en) Method and apparatus for creating virtual worlds using a data flow network
JP4130409B2 (ja) 3次元グラフィック環境と対話する方法

Legal Events

Date Code Title Description
8364 No opposition during term of opposition