DE102015008907A1 - Verfahren und Eirichtung zur Präsentation der Imformation - Google Patents

Verfahren und Eirichtung zur Präsentation der Imformation Download PDF

Info

Publication number
DE102015008907A1
DE102015008907A1 DE102015008907.2A DE102015008907A DE102015008907A1 DE 102015008907 A1 DE102015008907 A1 DE 102015008907A1 DE 102015008907 A DE102015008907 A DE 102015008907A DE 102015008907 A1 DE102015008907 A1 DE 102015008907A1
Authority
DE
Germany
Prior art keywords
finger
image
working
gadget
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102015008907.2A
Other languages
English (en)
Inventor
Anmelder Gleich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE102015008907.2A priority Critical patent/DE102015008907A1/de
Publication of DE102015008907A1 publication Critical patent/DE102015008907A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0383Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)

Abstract

Verfahren zur Präsentierung und Bearbeitung der Information, bei dem wird eine visuelle Information an den u. a. Interaktiven berührungsempfindlichen (touchable, touch-sensitive) Bildschirm (Display) eines Gadgets (u. a. eines Smartphons oder einer Ipad) präsentiert, und wird diese visuelle Information durch einen Finger (im weiteren als „Arbeitsfinger” genannt) oder durch einen Zwischen-Körper, z. B. Stäbchen oder Nadel, im weiteren als „Mittel-Stäbchen” genannt), bearbeitet, wofür berührt man mittels des o. g. Arbeitsfingers oder des Mittel-Stäbchens die entsprechenden virtuellen Bildchen (u. a. Ikonchen) oder die virtuellen Tasten (oder irgendwelchen anderen interaktiven Felden) an diesem Bildschirm (Display), oder wird die Information an irgendwelchen beliebigen, u. a. nicht interaktiven Bildschirm präsentiert, dadurch gekennzeichnet, dass – wird diese visuelle Information gleichzeitig unmittelbar vor der Augen als imaginäre (virtuelle; engl.: aerial image; Bild außer der Bildschirmfläche) Bild präsentiert, wofür – wird diese o. g. visuelle Information von einem Gadget in ein Sichtgerät übertragt, welches Sichtgerät sich in den Brillen (bzw. in dem Aufsatz an den Brillen, bzw. in dem andersartigen Aufsatz an dem Kopf, bzw. in den Kontaktlinsen) platziert (dieses Sichtgerät wird im weiteren als „Brillensichtgerät” genannt), – und gleichzeitig wird jede Position (Raumkoordinaten oder 2D-Koordinaten in der Bildschirmflache) des o. g. Arbeitsfingers (bzw. eines o. g. Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder Mittel-Stäbchens) mittels einer Sondereinrichtung bestimmt, und wird diese Information über diese Position in das o. g. Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt, – wobei wird ein virtuelles Image dieses Arbeitsfingers bzw. dieses Mittel-Stäbchens an das Bild aufgelegt, das in das Brillensichtgerät von dem Gadjetsdisplay übertragt ist (d. h. mit den anderen Worte, dass die o. g. zwei Images: (das erste- vom Gadgetsdisplay, und das 2-te – von der Arbeitsfinger-(bzw. Mittel-Stäbchen)-Position in Hinsicht zu Gadgetsdisplay), in dem Brillensichtgerät in einem Bild übereinandergelegt sind, – wobei kann man anstatt des Arbeitsfingers (bzw. des Mittel-Stäbchens) nur ein virtuelles Image seines Tops (Endchens, Spitze), u. a. in der Form eines Kursors (wie z. B. eines Kreuzchens oder eines Pfeilchens), in dem Brillensichtsgerät präsentieren, – wobei kann man nur 2 Koordinaten des Arbeitsfingerstops (bzw. des Mittels-Stäbchenstops), und zwar in der Fläche der Gadgetsbildschirmsfläche bestimmen, ohne Berücksichtigung des Vertikalabstandes des Arbeitsfingers (Mittel-Stäbchens) von der Gadgetsbildschirmsfläche, – wobei u. a. bei der Ausführung der „Vergrößerung” und der „Verkleinerung”-Funktionen kann auch ein Image eines zweiten Fingers (oder seines Tops) in dem Brillensichtgerät vorübergehend erscheinen, nachdem man mit diesem Finger, neben den Arbeitsfinger, den Bildschirm (Display) des Gadgets berührt hat, – wobei u. a. können als Arbeitsfinger ein Zeigefinger, und als die o. g. zweite Finger ein Großfinger benutzt werden, – wobei kann das Top des Arbeitsfingers (bzw. des Mittel-Stäbchens mit dem irgendwelchen Markierer (u. a. magnetischen, elektrostatischen, optischen, etc.), markiert werden um die Position des o. g. Tops zu indizieren, – wobei kann man anstatt einen Finger, die mehreren, bis zu 10, Arbeitsfinger indizieren, nach den Raumpositionen bestimmen und für die Steuerung des Systems nutzen. – wobei kann man u. a. das o. g. imaginäre Bild nur vor einem von den 2 Augen generieren, wofür u. a. kann man eine visuelle Information z. B. in den Aufsatz übertragen, der an einem von 2 Brillengläsern aufgesetzt ist, – wobei kann das o. g. imaginäre Bild u. a. wie das ...

Description

  • Es sind die Smartfons (u. a. I-Phone) sowie tablett-PCs (u. a. Ipad) mit den interaktiven Bildschirmen weit bekannt, die zum Stand der Technik gehören. Es gibt auch die übliche tragbaren elektronischen Geräte, wie z. B. Mobiltelefons sowie Laptops mit den nicht-interaktiven Bildschirmen und nicht-virtuellen Klaviatur bekannt. Wie bekannt, gibt es die zwei zusammenausschließenden Erfordernisse zu diesen Geräte, und zwar:
    Einerseits, für eine bessere Tragbarkeit, muss das ganzes Gerät möglichst klein sein, und folglich, muss auch sein Bildschirm (Display) klein sein. Anderseits, muss der Bildschirm möglichst groß sein, um mehr Information zu enthalten, die der User lesen und bearbeiten könnte. Derselbe gilt auch für die Klaviatur, (wie für die Physikalischen, als auch für die virtuellen Klaviatur an den interaktiven Bildschirmen, welche Klaviatur muss einerseits möglichst klein sein, aber anderseits muss diese Klaviatur nach seine kleine Große noch verwendbar sein.
  • Der in den Patentansprüchen 1 bis 6 angegebenen Erfindung liegt das Problem zugrunde, den Verfahren zu ermöglichen, womit konnte man eine große interaktive Bild sowie Klaviatur sehen, nutzen und interaktive bearbeiten, ohne dafür einen großen physikalischen Gerät zu tragen.
  • Dieses Problem wird durch die in den Patentansprüchen 1 bis 6 aufgeführten Merkmale gelöst.
  • Die mit der Erfindung erzielten Forteile bestehen insbesondere darin, dass eine Möglichkeit der Operierung mit einem großen imaginären interaktiven Bild als auch mit einer großen imaginären interaktiven Klaviatur erreicht wird, unabhängig von der Große eines physikalisches elektronisches Geräts, das diese o. g. Operationen ermöglicht.
  • Definition: Im weiteren unter „Gadget” versteht man I-Phone oder irgendwelche andere Smartfon, Mobiltelephon, I-Pad, I-pod, irgendwelhe Tablett-PC, auch ein Laptop, irgendwelche PC und irgendwelche elektronische Gerät, das die PC-Funktionen ausführen kann.
  • Eine vorteilhafte Ausgestaltung der Erfindung ist in dem Patentanspruch 7 angegeben. Die Weiterbildung nach diesem Patentanspruch ermöglicht es, eine sichere Nutzung eines Smartfons (bzw. irgendwelches anderes Gadgets) nur durch die dafür zugelassenen Personen.
  • Eine weitere vorteilhafte Ausgestaltung der Erfindung ist in den Patentansprüchen 8 und 9 bis angegeben. Die Weiterbildung nach diesen Patentansprüchen ermöglicht es, die verschiedenen verbesserten Ausführungen der 3D-Images und stereoakustischen Darstellungen darzustellen.
  • Einige Ausführungsbeispiele der Erfindung werden im folgenden näher beschrieben.
  • In einem Ausführungsbeispiel des Verfahrens wird eine visuelle Information an den Interaktiven berührungsempfindlichen (touchable, touch-sensitive) Bildschirm (Display) eines Gadgets präsentiert, und wird diese visuelle Information durch einen Finger (im weiteren als „Arbeitsfinger” genannt) oder durch einen Zwischen-Körper, z. B. Stäbchen oder Nadel, im weiteren als „Mittel-Stäbchen” genannt), bearbeitet, wofür berührt man mittels des o. g. Arbeitsfingers oder des Mittel-Stäbchens die entsprechenden virtuellen Bildchen (u. a. Ikonchen) oder die virtuellen Tasten an diesem Bildschirm (Display). Darüber hinaus wird diese visuelle Information gleichzeitig unmittelbar vor der Augen als imaginäre (virtuelle; engl.: aerial image; Bild außer der Bildschirmfläche) Bild präsentiert, wofür wird diese o. g. visuelle Information von einem Gadget in ein Sichtgerät übertragt, welches Sichtgerät sich in den Brillen (bzw. in dem Aufsatz an den Brillen, bzw. in dem andersartigen Aufsatz an dem Kopf, bzw. in den Kontaktlinsen) platziert (dieses Sichtgerät wird im weiteren als „Brillensichtgerät” genannt).
  • Und gleichzeitig wird jede Position (Raumkoordinaten oder 2D-Koordinaten in der Bildschirmflache) des o. g. Arbeitsfingers (bzw. eines o. g. Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder Mittel-Stäbchens) mittels einer Sondereinrichtung bestimmt, und wird diese Information über diese Position in das o. g. Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt, wobei wird ein virtuelles Image dieses Arbeitsfingers bzw. dieses Mittel-Stäbchens an das Bild aufgelegt, das in das Brillensichtgerät von dem Gadjetsdisplay übertragt ist (d. h. mit den anderen Worte, dass die o. g. zwei Images: (das erste – vom Gadgetsdisplay, und das 2-te – von der Arbeitsfinger-(bzw. Mittel-Stäbchen)-Position in Hinsicht zu Gadgetsdisplay), in dem Brillensichtgerät in einem Bild übereinandergelegt sind. Hier kann man anstatt des Arbeitsfingers (bzw. des Mittel-Stäbchens) nur ein virtuelles Image seines Tops (Endchens, Spitze), u. a. in der Form eines Kursors (wie z. B. eines Kreuzchens oder eines Pfeilchens), in dem Brillensichtsgerät präsentieren, wobei kann man nur 2 Koordinaten des Arbeitsfingerstops (bzw. des Mittels-Stäbchenstops), und zwar in der Fläche der Gadgetsbildschirmsfläche bestimmen, ohne Berücksichtigung des Vertikalabstandes des Arbeitsfingers (Mittel-Stäbchens) von der Gadgetsbildschirmsfläche.
  • Dabei u. a. bei der Ausführung der „Vergrößerung” und der „Verkleinerung”-Funktionen kann auch ein Image eines zweiten Fingers (oder seines Tops) in dem Brillensichtgerät vorübergehend erseheinen, nachdem man mit diesem Finger, neben den Arbeitsfinger, den Bildschirm (Display) des Gadgets berührt hat, wobei u. a. können als Arbeitsfinger ein Zeigefinger, und als die o. g. zweite Finger ein Großfinger benutzt werden. Hier kann das Top des Arbeitsfingers (bzw. des Mittel-Stäbchens mit dem irgendwelchen Markierer (u. a. magnetischen, elektrostatischen, optischen, etc.), markiert werden um die Position des o. g. Tops zu indizieren, wobei kann man anstatt einen Finger, die mehreren, bis zu 10, Arbeitsfinger indizieren, nach den Raumpositionen bestimmen und für die Steuerung des Systems nutzen.
  • Dabei kann man u. a. das o. g. imaginäre Bild nur vor einem von den 2 Augen generieren, wofür u. a. kann man eine visuelle Information z. B. in den Aufsatz übertragen, der an einem von 2 Brillengläsern aufgesetzt ist. Und dabei kann das o. g. imaginäre Bild u. a. wie das ganze Gesichtfeld besetzen, als auch nur ein Teil des ganzen Gesichtfelds besetzen, wobei wird das Restteil des Gesichtsfeldes für die Ansehung der Umgebung geblieben, oder kann das Gesichtfeld mit den mehreren imaginären Bilder besetzt werden, welche Bilder können u. a. auch von den mehreren Quellen (u. a. von den mehreren Gadgets) in den Brillensichtgerät übertragt werden.
  • In diesem Verfahren kann die visuelle Information an den physikalischen berührungsempfindlichen Bildschirm eines Gadgets nicht präsentiert werden, und kann die visuelle Information durch die Berührung eines physikalischen Bildschirm nicht gesteuert werden, und anstatt kann jede Position (Raumkoordinaten oder 2D-Koordinaten in einigen Fläche) des Arbeitsfingers (bzw. der mehreren Finger, bzw. eines Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder der Arbeitsfinger oder Mittel-Stäbchens) mittels einer Sondereinrichtung bestimmt werden, und wird diese Information über diese Position in das Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt. Somit wird ein virtuelles Image dieses Arbeitsfingers oder dieser Arbeitfinger bzw. dieses Mittel-Stäbchens an das Bild aufgelegt, das in das Brillensichtgerät von dem Gadjet übertragt ist (d. h. mit den anderen Worte, dass die o. g. zwei Images: (das erste – vom Gadget, und das 2-te – von der Arbeitsfinger-(bzw. Mittel-Stäbchen)-Raumposition), in dem Brillensichtgerät in einem Bild übereinandergelegt sind,
    und somit wird das ganze System durch die Finger-gesteuerte Operationen mit dem virtuellen, imaginären, aerial-image-artigen, „in Lüft hängenden” interaktiven Bild gesteuert.
  • In einem Ausführungsbeispiel des Verfahrens wird in dem o. g. Brillensichtgerät ein virtuelles imaginäres interaktives Image eines Musikkeyboards formiert, somit man mit der virtuellen Klaviatur wie mit der realen Klaviatur eines Keyboards, u. a. auch mit den 10 Finger, spielen kann.
  • In einem Ausführungsbeispiel des Verfahrens wird in dem Brillensichtgerät ein virtuelles imaginäres interaktives Image eines PC-keyboards formiert, somit man mit der virtuellen Klaviatur wie mit der realen Klaviatur eines PCs, u. a. auch mit den 10 Finger, operieren kann.
  • In einem Ausführungsbeispiel des Verfahrens wird jede Position (Raumkoordinaten oder 2D-Koordinaten in der Bildschirmflache) des o. g. Arbeitsfingers, (bzw. der Arbeitfinger bzw. eines o. g. Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder Mittel-Stäbchens) bestimmt und wird danach diese Information über diese Position in das o. g. Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt), an der Brillensichtgerät bzw. an dem irgendwelchen Kopfaufsatz platziert werden, wobei kann die o. g. Sondereinrichtung u. a. auch an dem Handgelenk oder an dem Gürtel oder an dem irgendwelchen anderen Körperteil, bzw. auch an dem Tisch oder an der irgendwelchen anderen Stütze (Träger) in der nähe von den Arbeitsfinger platziert werden.
  • In einem Ausführungsbeispiel des Verfahrens wird die visuelle Information an den physikalischen berührungsempfindlichen Bildschirm nach Oberbegriff der Anspruch 1 eines Gadgets nicht präsentiert, und wird die visuelle Information durch die Berührung eines physikalischen Bildschirm nach Oberbegriff der Anspruch 1 nicht gesteuert, und anstatt – wird das ganze System durch einen Touchpad (u. a. wie in einem Laptop) gesteuert.
  • Ein mögliches Ausführungsbeispiel der Erfindung ist in der 1 dargestellt. In diesem Ausführungsbeispiel ein Gerät enthält:
    • – ein Smartfon (oder I-pad, oder ein anderes Gadget) 1 mit einem interaktiven Bildschirm 2, der durch die Berührung einer Spitze 3 eines Fingers 4 (oder der zwei Spitzen der zwei Finger) wie üblich gesteuert werden kann,
    • – eine Vorrichtung 5 für Identifizierung (Feststellung) einer Lokalisation der Spitze des Fingers in Beziehung auf den Bildschirm 2 (d. h. für die Feststellung über welchen Punkt des Bildschirms 2 eine Spitze des Fingers oder Spitze des Mittel-Stäbchens) sich momentan befindet); wobei diese Vorrichtung 5 (im weiterem als „Lokalisationssuchgerät” genannt) kann an der Smartfon (I-pad, Gadget etc.) 1 wie fest montiert sein, als auch als eine Abnehmbarer Vorrichtung ausgeführt werden kann;
    • – eine Vorrichtung 6, die die visuelle Information, die am Bildschirm 2 erscheint, gleichzeitig unmittelbar vor der Augen 13 als imaginäre (virtuelle; engl.: aerial image; Bild außer der Bildschirmfläche) Bild 7 präsentiert, wofür wird diese o. g. visuelle Information von einem Gerät 1 in dieses Vorrichtung (Sichtgerät) 6 durch Kabel 8 oder drahtlos (wireless) übertragt, welches Sichtgerät 6 sich in den Brillen 9 (bzw. in dem Aufsatz an den Brillen, bzw. in dem andersartigen Aufsatz an dem Kopf, bzw. in den Kontaktlinsen unmittelbar an der Augen) platziert (dieses Sichtgerät wird, wie oben geschrieben, hier als „Brillensichtgerät” 6 genannt); wobei das Brillensichtgerät” 6 mit zwei separaten elektrischen Input versehen werden kann, um die verschiedene Videoinformationen vor der linken und rechten Augen darstellen, und somit eine 3D-visuelle Bilddarstellung zu schaffen;
    • – eine elektronische Einrichtung 10, die die Lokalisation der Spitze des Fingers in Bezug auf der Bildschirm 2 in einer elektronische Form umwandelt und in einem o. g. visuellen Image (imaginären Bild 7) als eine Fingerspitze oder als ein Kursor 14 so präsentiert, dass seine Lokalisation genau dem Punkt in dem Bild entspricht, über welchem Punkt über den Bildschirm 2 diese Fingerspitze (oder Mittel-Stäbchenspitze) sich physikalisch befindet; (Die Funktionen dieses o. g. elektronischen Einrichtung 10 kann wie ein extra-Chip ausführen als auch kann diese Funktion durch den Hauptrechner des Gerätes 1 teilweise oder komplett ausgeführt werden;
    • – eine elektronische Einrichtung 11, die die Koordinaten des Fingerspitzes bzw. des Mittel-Stäbchens (in Bezug auf den interaktiven Bildschirm 2) in eine elektronischen Form umwandelt, und vergrößert einen Abschnitt des Bildes dieses, der in der Bildschirmsflache unmittelbar unter der Fingerspitze (oder Mittel-Stäbchenspitze) sich befindet, wobei kann diese lokale Bildvergrößerung auch durch den Brillensichtsgerät 5 in den Bild 7 unter den Kursor dargestellt werden. (Die Funktionen dieses o. g. elektronischen Einrichtung 11 kann wie ein extra-Chip ausführen als auch kann diese Funktion durch den Hauptrechner des Gerätes 1 teilweise oder komplett ausgeführt werden;
    • – eine elektronische Einrichtung 12, die die verschiedene visuelle Information zu den linken und rechten Teilen des Brillensichtgerät 6 schickt, um eine 3D-Bild vor den Augen zu schaffen. (Die Funktionen dieses o. g. elektronischen Einrichtung 12 kann wie ein extra-Chip ausführen als auch kann diese Funktion durch den Hauptrechner des Gerätes 1 teilweise oder komplett ausgeführt werden;;
    • – ein Verbindungskabel 8, der ein Gerät 1 mit dem Brillensichtgerät 6 elektrisch verbindet, und die dasselbe oder ähnliche Bild wie in der Bildschirm 2 erscheint, auch in der Brillensichtgerät 6 als o. g. Bild 7 durch die Übertragung der elektrischen Signalen gleichzeitig darstellt, zusammen mit dem Image eines Kursors, die die Lokalisation des Fingerspitzes 3 (oder Mittel-Stäbchenspitzes 3) in Bezug auf der Bildschirm 2 zeigt;
  • In einem Ausführungsbeispiel wird die virtuellen Image der Bildschirm 1 vor dem Nutzer ähnlich zu eine Position einer Tragbretts eines Tragbrettverkäufers vormiert (1(A–C): 1A – Ansicht von Vorne, 2B – Seitenansicht von Rechts, 1C – Ansicht von Oben). (In alle Fälle ist diese virtuelle Image durch die entsprechende Brille bzw. durch die Kontaktlinzen formiert.) Hier die position dieses o. g. Bildschirmimage 1 in Hinsicht zur Nutzer 2 unterscheidet sich von der Position dieses Tragbretts eines Bauchladenverkäufers nur dadurch, dass ist die Ebene dieses Bildschirms 1 nicht horisontal, sondern liegt es in die Ebene 3, die mit eine horisontale Ebene 4 einen Winkel 5 formiert. (2). Dieses Winkel 5 kann auch elektronisch verstellbar sein, und sein Wert von 0 grad bis 90 grad sein variirert werden kann. Wie auch einen Abstand dieses Bildschirm von der Nutzer, und genaue Position dieses Bildschirm relativ zu Nutzer, kann verstellbar sein abhängig von der Nutzereinstellungen. Praktisch kann es durch eine Bewegund eines Finges vor der Augen gemacht werden, bei der entsprechenden Einstellungen. Elektronische Technik dafür gehürt zum Stand der Technik. Im übrigen sieht der Nutzer 2 wärend seine Bewegung sowie wärend die Bewegungen seine Körperteile (Kopf 6, Augen 7, etc.) die Position dieses virtuellen Bildschirm 1 genau so, ohne die weitere Unterschiede, wie einen Tragbrettverkäufer die oberen Oberflähe seinen Tragbretts sieht. D. h. als kniekt der Nutzer seinen Kopf oder sieht der Nutzer mit seine Augen nach unten, wobei befindet sich seinen Sicht im Gesihtfeld „B” (oder „Bildschirm”) sieht er seinen Bildschirmsimage. Als rihtet der Nutzer seinen Kopf bzw. seine Augen bzw. beides nach oben, wobei befindet sich seinen Sicht im Gesichtfeld „F” (oder „Ferne”) sieht er die Umgebung (z. B. Strasse, Häuser, Leite) vor ihm. In dieses Moment bleibt das Bildschirmimage 2 unten, an der untere Peripherie seinen Sicht (3). Oder sicht der Nutzer dieses Bildschirm gar nicht, falls eine solche Einstellung elektronisch gemacht ist (d. h. falls ist es so eingestellt, dass schaltet das Bildschirmimage-generiertes Gerät den Bildschirmimage aus, falls richtet der Nutzer an dieses Bildschirm seine Augen nicht). Falls dreht (winkt) der Nutzer seinen Kopf oder seine Augen nach Rechts, (relativ zu seinem Körper bzw. zu seiner Schulternlinie) sieht er die Umgebung rehts von Ihm. In dieses Moment bleibt das Bildschirmimage 2 links, an der linken Peripherie seinen Sicht, oder sicht er dieses Bildschirm gar nicht. Falls dreht (winkt) der Nutzer seinen Kopf oder seine Augen nach Links, (relativ zu seinem Körper bzw. zu seiner Schulternlinie) sieht er die Umgebung links von Ihm. In dieses Moment bleibt das Bildschirmimage 2 rechts, an der rechten Periphere seinen Sicht. Oder sicht er dieses Bildschirm gar nicht, falls eine solche Einstellung vorher elektronisch gemacht ist (s. oben). Falls sieht der Nutzer nach vorne, ode nach oben, kann er seinen Kopf bzw. seinen Augen horisontal nach 180 grad von rechts nach links und umgekehrt drehen (winken), und dadurch die Umgebung ansehen, ohne dass das Bildschirmimage ihm stört. Falls siht der Nutzer an der Bildschirmimage, bleibt die Umgebung, wie die Nähere, als auch die Ferne, an Peripherie seines Sichtes, aber nicht komplett außer seine Aufmerksamkeit, wie is es bei der Operationen mit einem kleinen Gerät (Gadget) stattfindet. S
    Bildschirm 1 mit ihm zusammen
    Falls dreht (winkt) der Nutzer 2 komplett seinen Körper, sieht er, dass dreht (winkt) sich die virtuelle Bildschirm 2 mit ihm zusammen, wie ist es auch in der Fall eines Tragbretts eines Bauchladenverkäufers passiert. In weiterem wird das oben beschriebenen virtuellen Bildschirmimage 2 als „virtuellen Tragbrettsdisplay” genannt.
  • In einem Ausführungsbeispiel des Verfahrens wird das o. g. Gadget bei dem Ausschaltung teilweise blockiert, und bei Einschaltung platziert man sein Auge vor der Videokamera, wird die visuelle Information über die Auge (u. a. über dem Augenboden) durch Gadget oder seine Teile elektronisch analisiert, und mit vorher abgegebenen Information (Bild) vergleicht, danach wird das Gadget nur dann vollfunktionsfähig, falls die neugegebenen visuellen Information mit der vorher abgegebenen Information übereinstimmt.
  • In einem Ausführungsbeispiel des Verfahrens sind entweder ein Stereoklang (Stereo-akustische Schall, engl. – Stereosound) in Kopfhörer (headpfones), oder ein Stereo(3D)-Bild, oder beide, präsentiert, und dabei
    • – a) wird der perspektivische Einstellung („aspect to the observer”) eines 3D-Bildes abhängig von der Kopfposition bzw. Augenpositionen, an der Bildschirm (oder in einem Sichtgerät) präsentiert, d. h. wenn dreht oder nickt man der Kopf bzw. wenn ändert man die Position seines Kopfs, wird eine perspektivische Einstellung eines Bildes an der Bildschirm bzw. eines imaginäres Bilds in Sichtgerät auch entsprechend geändert, oder/und
    • – b) wird eine Verhältnis des akustischen Parameters (u. a. Lautstärkeverhältnis) in dem linken und rechten Kopfhörer geändert, abhängig von der der Kopfposition bzw. Augenpositionen in Hinsicht zu imaginären Schallquelle an den Bildschirm (in den imaginären Bild), d. h. u. a. wenn dreht oder nickt man der Kopf bzw. wenn ändert man die Position seines Kopfs, bzw. wenn ändert sich eine virtuelle Position einer virtuellen Schallquelle, wird u. a. auch die Schallstärkeverhältnis in den linken und in den rechten Kopfhörer entsprechend geändert, wie es (Schallstärkeverhältnisänderung) u. a. bei den realen Kopfbewegungen in Hinsicht zu den realen Schallquellenpositionen passiert sollte.
  • Darüber hinaus soll man u. a. die folgenden 2 Sondernsausführungsbeispiele mehr detailliert beschreiben:
    • 1) Ein übliches Fall eines übliches Kinos oder PC-game, wo geht es um 2D oder 3D Videopräsentation an dem physikalischen Bildschirm, und Stereoaudiopräsentation in der Kopfhörer. Es wird hier eine Verhältnis des akustischen Parameters (u. a. Lautstärkeverhältnis) in dem linken und rechten Kopfhörer geändert, wenn ändert sich eine virtuelle Position einer virtuellen Schallquelle an dem Bildschirm. Z. B. falls fährt eine Auto (d. h. selbstverständlich ein virtuelles Bild eines Autos) in dem Bildschirm von links nach rechts,
    • 2) In einem Ausführungsbeispiel des Verfahrens werden die zusätzliche Vibrationen an dem Kopfaufsatz (u. a. in den Kopfhörer oder in seinen separaten Teile) generiert, und zwar in seinen oberen oder hinteren Teil, abhängig davon, ob die virtuelle Schallquelle sich von vorne oder hinten dem User (Kopfhörerträger) sich befindet.
  • In einem Ausführungsbeispiel des Verfahrens werden bei dem Videoaufnahme auch mehrere (mindestens 3) videokameras (webkams) mit überlappenden Gesichtsfelde, die u. a. auch insgesamt 360° Gesichtfeld leisten können, und eine Einrichtung (u. a. auch PC mit einem entsprechenden software), das bearbeitet die von diesen Kameras gelieferten Videosignalsinformation und stellt diese allgemeine zusammengesammelte Information als eine Bild an dem Bildschirm (oder an dem o. g. Sichtgerät) dar, so dass kann man bei dem Abspielung der Aufnahme die verschiedenen Aussichte (points of view) wählen, auch unabhängig davon, im welchem Richtung ein Kamera-träger sich bewegt und wie diese Kameras in Raum momentan orientiert sind.
  • In einem Ausführungsbeispiel des Verfahrens wird ein Stereoklang (Stereo-akustische Schall, engl. – Stereosound) in Kopfhörer (headpfones) präsentiert, wobei
    • – a) wird der perspektivische Einstellung („aspect to the observer”) eines Bildes (u. a. 3D-Bildes) abhängig von der Kopfposition (oder Kopfpositionsänderungen oder Kopfbewegungen) bzw. Augenpositionen (oder Augenpositionsänderungen oder Augenbewegungen), an der Bildschirm (oder in einem Sichtgerät) präsentiert, d. h. wenn dreht oder nickt man der Kopf bzw. wenn ändert man die Position seines Kopfs (und/oder wenn ändert man entsprechend die Position seine Augen), wird eine perspektivische Einstellung eines Bildes an der Bildschirm bzw. eines imaginäres Bilds in Sichtgerät auch entsprechend geändert, oder/und
    • – b) wird eine Verhältnis des akustischen Parameters (u. a. Lautstärkeverhältnis) in dem linken und rechten Kopfhörer geändert, abhängig von der der Kopfposition bzw. Augenpositionen in Hinsicht zu imaginären Schallquelle an den realen Bildschirm eines Komputers (PC, Leptop, Ipad, I-phone, Smartphone etc.) oder in den oben beschriebenen imaginären Bildschirm, d. h. u. a. wenn dreht oder nickt man der Kopf bzw. wenn ändert man die Position seines Kopfs, bzw. wenn ändert sich die Augenposition, d. h. wenn richtet man seine Augen an den anderen Punkt des Bildschirms, bzw. wenn ändert sich eine virtuelle Position einer virtuellen Schallquelle, wird u. a. auch die Schallstärkeverhältnis in den linken und in den rechten Kopfhörer entsprechend geändert, wie es (Schallstärkeverhältnisänderung) u. a. bei den realen Kopfbewegungen (und u. a folglich die Augenpositionsänderung) in Hinsicht zu den realen Schallquellenpositionen passiert sollte. Dieses Ausführungsbeispiel kann wie für einen üblichen Gerät mit einen realen Bildschirm (PC, Leptop, Ipad, I-phone, Smartphone etc.) realisiert werden, als auch für einen oben beschriebenen Gerät mit einen wirtuelen (imaginären) Bildschirm. Die Augenposition kann durch eine Kamera beobachtet werden, und durch Computer (Gadget) analisiert erden, wie ist es in US 14/138,066 , vom Dec. 21, 2013 beschrieben.
    In einem Ausführungsbeispiel des Verfahrens können die alle oben beschriebenen akustischen Stereoklang-Funktionen mit dem in US 14/138,066 beschriebenen Funktionen zusammen ausgeführt werden. In einem Ausführungsbeispiel des Verfahrens können die alle oben beschriebenen Funktionen, u. a. die Bilde-Präsentation-Funktionen, mit dem in US 14/138,066 beschriebenen Funktionen zusammen ausgeführt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 14/138066 [0024, 0024, 0024]

Claims (10)

  1. Verfahren zur Präsentierung und Bearbeitung der Information, bei dem wird eine visuelle Information an den u. a. Interaktiven berührungsempfindlichen (touchable, touch-sensitive) Bildschirm (Display) eines Gadgets (u. a. eines Smartphons oder einer Ipad) präsentiert, und wird diese visuelle Information durch einen Finger (im weiteren als „Arbeitsfinger” genannt) oder durch einen Zwischen-Körper, z. B. Stäbchen oder Nadel, im weiteren als „Mittel-Stäbchen” genannt), bearbeitet, wofür berührt man mittels des o. g. Arbeitsfingers oder des Mittel-Stäbchens die entsprechenden virtuellen Bildchen (u. a. Ikonchen) oder die virtuellen Tasten (oder irgendwelchen anderen interaktiven Felden) an diesem Bildschirm (Display), oder wird die Information an irgendwelchen beliebigen, u. a. nicht interaktiven Bildschirm präsentiert, dadurch gekennzeichnet, dass – wird diese visuelle Information gleichzeitig unmittelbar vor der Augen als imaginäre (virtuelle; engl.: aerial image; Bild außer der Bildschirmfläche) Bild präsentiert, wofür – wird diese o. g. visuelle Information von einem Gadget in ein Sichtgerät übertragt, welches Sichtgerät sich in den Brillen (bzw. in dem Aufsatz an den Brillen, bzw. in dem andersartigen Aufsatz an dem Kopf, bzw. in den Kontaktlinsen) platziert (dieses Sichtgerät wird im weiteren als „Brillensichtgerät” genannt), – und gleichzeitig wird jede Position (Raumkoordinaten oder 2D-Koordinaten in der Bildschirmflache) des o. g. Arbeitsfingers (bzw. eines o. g. Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder Mittel-Stäbchens) mittels einer Sondereinrichtung bestimmt, und wird diese Information über diese Position in das o. g. Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt, – wobei wird ein virtuelles Image dieses Arbeitsfingers bzw. dieses Mittel-Stäbchens an das Bild aufgelegt, das in das Brillensichtgerät von dem Gadjetsdisplay übertragt ist (d. h. mit den anderen Worte, dass die o. g. zwei Images: (das erste- vom Gadgetsdisplay, und das 2-te – von der Arbeitsfinger-(bzw. Mittel-Stäbchen)-Position in Hinsicht zu Gadgetsdisplay), in dem Brillensichtgerät in einem Bild übereinandergelegt sind, – wobei kann man anstatt des Arbeitsfingers (bzw. des Mittel-Stäbchens) nur ein virtuelles Image seines Tops (Endchens, Spitze), u. a. in der Form eines Kursors (wie z. B. eines Kreuzchens oder eines Pfeilchens), in dem Brillensichtsgerät präsentieren, – wobei kann man nur 2 Koordinaten des Arbeitsfingerstops (bzw. des Mittels-Stäbchenstops), und zwar in der Fläche der Gadgetsbildschirmsfläche bestimmen, ohne Berücksichtigung des Vertikalabstandes des Arbeitsfingers (Mittel-Stäbchens) von der Gadgetsbildschirmsfläche, – wobei u. a. bei der Ausführung der „Vergrößerung” und der „Verkleinerung”-Funktionen kann auch ein Image eines zweiten Fingers (oder seines Tops) in dem Brillensichtgerät vorübergehend erscheinen, nachdem man mit diesem Finger, neben den Arbeitsfinger, den Bildschirm (Display) des Gadgets berührt hat, – wobei u. a. können als Arbeitsfinger ein Zeigefinger, und als die o. g. zweite Finger ein Großfinger benutzt werden, – wobei kann das Top des Arbeitsfingers (bzw. des Mittel-Stäbchens mit dem irgendwelchen Markierer (u. a. magnetischen, elektrostatischen, optischen, etc.), markiert werden um die Position des o. g. Tops zu indizieren, – wobei kann man anstatt einen Finger, die mehreren, bis zu 10, Arbeitsfinger indizieren, nach den Raumpositionen bestimmen und für die Steuerung des Systems nutzen. – wobei kann man u. a. das o. g. imaginäre Bild nur vor einem von den 2 Augen generieren, wofür u. a. kann man eine visuelle Information z. B. in den Aufsatz übertragen, der an einem von 2 Brillengläsern aufgesetzt ist, – wobei kann das o. g. imaginäre Bild u. a. wie das ganze Gesichtfeld besetzen, als auch nur ein Teil des ganzen Gesichtfelds besetzen, wobei wird das Restteil des Gesichtsfeldes für die Ansehung der Umgebung geblieben, oder kann das Gesichtfeld mit den mehreren imaginären Bilder besetzt werden, welche Bilder können u. a. auch von den mehreren Quellen (u. a. von den mehreren Gadgets) in den Brillensichtgerät übertragt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass wird die visuelle Information an den physikalischen berührungsempfindlichen Bildschirm nach Oberbegriff der Anspruch 1 eines Gadgets nicht präsentiert, und wird die visuelle Information durch die Berührung eines physikalischen Bildschirm nach Oberbegriff der Anspruch 1 nicht gesteuert, und anstatt – wird jede Position (Raumkoordinaten oder 2D-Koordinaten in einigen Fläche) des Arbeitsfingers (bzw. der mehreren Finger, bzw. eines Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder der Arbeitsfinger oder Mittel-Stäbchens) mittels einer Sondereinrichtung bestimmt, und wird diese Information über diese Position in das Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt, – wobei wird ein virtuelles Image dieses Arbeitsfingers oder dieser Arbeitfinger bzw. dieses Mittel-Stäbchens an das Bild aufgelegt, das in das Brillensichtgerät von dem Gadjet übertragt ist (d. h. mit den anderen Worte, dass die o. g. zwei Images: (das erste – vom Gadget, und das 2-te – von der Arbeitsfinger-(bzw. Mittel-Stäbchen)-Raumposition), in dem Brillensichtgerät in einem Bild übereinandergelegt sind, – somit wird das ganze System durch die Finger-gesteuerte Operationen mit dem virtuellen, imaginären, aerial-image-artigen, „in Lüft hängenden” interaktiven Bild gesteuert.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass wird in dem Brillensichtgerät ein virtuelles imaginäres interaktives Image eines Musikkeyboards formiert, somit man mit der virtuellen Klaviatur wie mit der realen Klaviatur eines Keyboards, u. a. auch mit den 10 Finger, spielen kann.
  4. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass wird in dem Brillensichtgerät ein virtuelles imaginäres interaktives Image eines PC-keyboards formiert, somit man mit der virtuellen Klaviatur wie mit der realen Klaviatur eines PCs, u. a. auch mit den 10 Finger, operieren kann.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass wird die Sondereinrichtung nach Anspruch 1, (womit wird jede Position (Raumkoordinaten oder 2D-Koordinaten in der Bildschirmflache) des o. g. Arbeitsfingers, (bzw. der Arbeitfinger bzw. eines o. g. Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder Mittel-Stäbchens) bestimmt und wird danach diese Information über diese Position in das o. g. Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt), an der Brillensichtgerät nach Anspruch 1, bzw. an dem irgendwelchen Kopfaufsatz platziert werden, – wobei kann die o. g. Sondereinrichtung u. a. auch an dem Handgelenk oder an dem Gürtel oder an dem irgendwelchen anderen Körperteil, bzw. auch an dem Tisch oder an der irgendwelchen anderen Stütze (Träger) in der nähe von den Arbeitsfinger platziert werden.
  6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass wird die visuelle Information an den physikalischen berührungsempfindlichen Bildschirm nach Oberbegriff der Anspruch 1 eines Gadgets nicht präsentiert, und wird die visuelle Information durch die Berührung eines physikalischen Bildschirm nach Oberbegriff der Anspruch 1 nicht gesteuert, und anstatt – wird das ganze System durch einen Touchpad (u. a. wie in einem Laptop) gesteuert.
  7. Verfahren nach dem Oberbegriff des Anspruchs 1 oder nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass wird das o. g. Gadget bei dem Ausschaltung teilweise blockiert, und bei Einschaltung platziert man sein Auge vor der Videokamera, wird die visuelle Information über die Auge (u. a. über dem Augenboden) durch Gadget oder seine Teile elektronisch analisiert, und mit vorher abgegebenen Information (Bild) vergleicht, danach wird das Gadget nur dann vollfunktionsfähig, falls die neugegebenen visuellen Information mit der vorher abgegebenen Information übereinstimmt.
  8. Verfahren zur Präsentierung und Bearbeitung der Information, u. a. auch nach einem der Ansprüche 1 bis 7, bei dem entweder ein Stereoklang (Stereo-akustische Schall, engl. – Stereosound) in Kopfhörer (headpfones), oder ein Stereo(3D)-Bild, oder beide, präsentiert sind, dadurch gekennzeichnet, dass – a) wird der perspektivische Einstellung („aspect to the observer”) eines 3D-Bildes abhängig von der Kopfposition (oder Kopfpositionsänderungen oder Kopfbewegungen) bzw. Augenpositionen (oder Augenpositionsänderungen oder Augenbewegungen), an der Bildschirm (oder in einem Sichtgerät) präsentiert, d. h. wenn dreht oder nickt man der Kopf bzw. wenn ändert man die Position seines Kopfs, wird eine perspektivische Einstellung eines Bildes an der Bildschirm bzw. eines imaginäres Bilds in Sichtgerät auch entsprechend geändert, oder/und – b) wird eine Verhältnis des akustischen Parameters (u. a. Lautstärkeverhältnis) in dem linken und rechten Kopfhörer geändert, abhängig von der der Kopfposition bzw. Augenpositionen in Hinsicht zu imaginären Schallquelle an den Bildschirm (in den imaginären Bild), d. h. u. a. wenn dreht oder nickt man der Kopf bzw. wenn ändert man die Position seines Kopfs, bzw. wenn ändert sich eine virtuelle Position einer virtuellen Schallquelle, wird u. a. auch die Schallstärkeverhältnis in den linken und in den rechten Kopfhörer entsprechend geändert, wie es (Schallstärkeverhältnisänderung) u. a. bei den realen Kopfbewegungen in Hinsicht zu den realen Schallquellenpositionen passiert sollte.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass werden die zusätzliche Vibrationen an dem Kopfaufsatz (u. a. in den Kopfhörer oder in seinen separaten Teile) generiert, und zwar in seinen oberen oder hinteren Teil, abhängig davon, ob die virtuelle Schallquelle sich von vorne oder hinten dem User (Kopfhörerträger) sich befindet.
  10. Einrichtung zu Realisierung des Verfahrens nach eine der Ansprüche 1–9, wobei enthält die Enrichtung einen Gadget, dadurch gekennzeichnet, dass enthält die Einrichtung 1. Einrichtung zur Fesstellung und der Position des Augenlöcher (Eyes Pupils) relativ der Nutzerskörper, die enthält a) Eine Einrichtung zur Feststellung der Position der Augenlöcher relativ zu Kopf (Gesicht) des Nutzers. (Es ist genuck nur 1 Augenloch zu beobachten, weil die beide Augenlöcher bewegen sich gleich.) Deswegen enthält die Einrichtung eine Kamera, die nur an Linken Teil oder an einen rechten Teil der Brille platziert ist; oder besteht die Einrichtung aus der 2 Kameras, die an der beiden linken und rechten Brillenklemmen links und rechts von der linken und rechten Augen platziert sind, oder besteht die Einrichtung aus der 2 Kameras, die in der Nähe von Nasenwurzeln platziert sind, wobei die eine davon beobachtet eine Bewegun der Augenloch in der linke teil des rechtes Auge, und die zweite davon beobachtet eine Bewegung der Augenloch in der rechten Teil des linkes Auge, wobei decken diese 2 Kameras alle Bewegungen der beide Augenlöcher, weil die Bewegungen der Augenlöcher sind ein voneinander definitive abhängig. b) Eine Einrichtung zur Beobachtung der Knicken und Drehungen (Winken) des Kopfes relativ zu Körper – in horisontalen und vertikalen Ebenen; c) Eine Einrichtung zu Verarbeitung der Daten aus der o. g. in der Punkten (a) und (b) Einrichtungen, und dadurch zu Feststellung der Augenlöherpositionen relativ zu Körper; d) Eine Einrichtung für Sammlung und Transfer der Daten aus der o. g. in Punkte (a) und (b) Einrichtungen in der Einrichtung nach Punkt (c). e) Einrichtung zur Transfer der Daten aus der Einrichtung nach Punkt (c) in der gerade unten in der Nechsten Punkt (2) beschriebene Einrichtung 2) Eine Einrichtung zu Bearbeitung der Information aus der Einrichtungen nach o. g. Punkte c, d und e, und für Generation eines BildschirmImage, und für Positionierung dieses Images vor der Nutzer abhängig von der momentane Augelöcherpositionen des Nutzers relativ zu Nutzerskörper. Diese Einrichtung kann in der Brillen oder in der Augenkontaktlinsen des Nutzers platziert werden. 3) Eine Einrichtung zur Beobachtung für eine Nutzerfinge und „Interaktive Felder” an der Bildschirm, wobei kann diese Einrichtung 2 Kameras in der Brillenklemmern links und rechts enthalten. Als der Finger (u. a. rechte oder linke Zeugefinge) des Nutzers befindet sich in der Nähe von der eine interaktive Feld, passiert „Einhaltung” (Zahwat) d. h. Fesstellung das Finger in der Nähe der aktive Feld ist, und Einrichtung informiert darüber mit Zummer oder duch beliebigen anderen bekannten Verfahren (z. B. durch Vergrösserung dieses Feldes oder durch Farben wechsel des Feldes oder einiges Teil oder Punktes diese Feldes), und danach soll der Nutzer bestätigen (u. a. mit der Stimme (Voice) oder durch Drücken einen Kontaktvorrichtung an der Finger u. a. mit dem Großfinger, oder generiert das Gerät eine virtuelle Teil an der virtuellen interaktiven Feld, und muss der Nutzer dieses Teil mit zwei Finger (u. a. mit dem Großfinger und Zeigefinger) fassen, was ist entweder mit der Kamera (die Kameras) an der Brillen fiksiert ist, oder enthält der Nutzer die entsprechender Kontakt-Vorrichtungen an seine Groß- und Zeugefinger, deren Zusammendruck wird als eine Bestätigung des Wals erkannt werden (entsprechend der Fingerdrück an Gadget Ineraktives Feld).
DE102015008907.2A 2014-07-15 2015-07-15 Verfahren und Eirichtung zur Präsentation der Imformation Withdrawn DE102015008907A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015008907.2A DE102015008907A1 (de) 2014-07-15 2015-07-15 Verfahren und Eirichtung zur Präsentation der Imformation

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102014010395 2014-07-15
DE102014010395.1 2014-07-15
DE102015008907.2A DE102015008907A1 (de) 2014-07-15 2015-07-15 Verfahren und Eirichtung zur Präsentation der Imformation

Publications (1)

Publication Number Publication Date
DE102015008907A1 true DE102015008907A1 (de) 2016-01-21

Family

ID=55021860

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015008907.2A Withdrawn DE102015008907A1 (de) 2014-07-15 2015-07-15 Verfahren und Eirichtung zur Präsentation der Imformation

Country Status (1)

Country Link
DE (1) DE102015008907A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140187322A1 (en) 2010-06-18 2014-07-03 Alexander Luchinskiy Method of Interaction with a Computer, Smartphone or Computer Game

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140187322A1 (en) 2010-06-18 2014-07-03 Alexander Luchinskiy Method of Interaction with a Computer, Smartphone or Computer Game

Similar Documents

Publication Publication Date Title
US11467709B2 (en) Mixed-reality guide data collection and presentation
EP2989524B1 (de) Verfahren zum interagieren mit einem auf einer datenbrille angezeigten objekt
DE202017105262U1 (de) Erzeugen virtueller Notationsoberflächen mit Gesten in einer erweiterten und/oder virtuellen Realitätsumgebung
CN105190477B (zh) 用于在增强现实环境中的用户交互的头戴式显示装置
Scarfe et al. Using high-fidelity virtual reality to study perception in freely moving observers
DE202017105307U1 (de) Umschalten aktiver Objekte in einer erweiterten Realitäts- und/oder virtuellen Realitätsumgebung
Carmigniani et al. Augmented reality technologies, systems and applications
WO2022022028A1 (zh) 虚拟对象控制方法及装置、设备、计算机可读存储介质
DE202016008297U1 (de) Zweihändige Objektmanipulationen in der virtuellen Realität
DE202017104928U1 (de) Manipulation virtueller Objekte anhand von Controllern mit sechs Freiheitsgraden in erweiterten bzw. virtuellen Realitätsumgebungen
Bolas Human factors in the design of an immersive display
DE202017104403U1 (de) Erkennen des Benutzerbewegungsbereichs für Virtual-Reality-Benutzeroberflächen
DE102015100930A1 (de) Steuerung von verbesserter Kommunikation zwischen entfernt befindlichen Teilnehmern/Teilnehmerinnen mittels erweiterter und virtueller Realität
DE102017119812A1 (de) Ziehen von virtuellen elementen einer erweiterten und/oder virtuellen realitätsumgebung
Huang et al. HandsinAir: a wearable system for remote collaboration on physical tasks
DE202017006742U1 (de) Eingabegerät-Stabilisierungstechniken für virtuelle Realitätssysteme
DE102014019631A1 (de) Elektronische Vorrichtung und Beschaffungssteuerverfahren
WO2015173271A2 (de) Verfahren zur darstellung einer virtuellen interaktion auf zumindest einem bildschirm und eingabevorrichtung, system und verfahren für eine virtuelle anwendung mittels einer recheneinheit
US11270116B2 (en) Method, device, and system for generating affordances linked to a representation of an item
Reichherzer et al. Secondsight: A framework for cross-device augmented reality interfaces
DE112011104939T5 (de) Anzeigevorrichtung und Verfahren zum Steuern derselben
US20200233489A1 (en) Gazed virtual object identification module, a system for implementing gaze translucency, and a related method
DE112019002798T5 (de) Informationsverarbeitungsvorrichtung, informationsverabeitungsverfahren und programm
DE102022110363A1 (de) Verfahren und vorrichtung zur debugging-programmausführung und inhaltswiedergabe
Pande et al. Eye-tracking in STEM education research: limitations, experiences and possible extensions

Legal Events

Date Code Title Description
R086 Non-binding declaration of licensing interest
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee