DE102015009113A1 - Method and device for presenting the information - Google Patents

Method and device for presenting the information Download PDF

Info

Publication number
DE102015009113A1
DE102015009113A1 DE102015009113.1A DE102015009113A DE102015009113A1 DE 102015009113 A1 DE102015009113 A1 DE 102015009113A1 DE 102015009113 A DE102015009113 A DE 102015009113A DE 102015009113 A1 DE102015009113 A1 DE 102015009113A1
Authority
DE
Germany
Prior art keywords
finger
image
gadget
screen
working
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102015009113.1A
Other languages
German (de)
Inventor
Anmelder Gleich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE102015009113.1A priority Critical patent/DE102015009113A1/en
Publication of DE102015009113A1 publication Critical patent/DE102015009113A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Verfahren zur Präsentierung und Bearbeitung der Information, bei dem wird eine visuelle Information an den u. a. Interaktiven berührungsempfindlichen (touchable, touch-sensitive) Bildschirm (Display) eines Gadgets (u. a. eines Smartphons oder einer Ipad) präsentiert, und wird diese visuelle Information durch einen Finger (im weiteren als „Arbeitsfinger” genannt) oder durch einen Zwischen-Körper, z. B. Stäbchen oder Nadel, im weiteren als „Mittel-Stäbchen” genannt), bearbeitet, wofür berührt man mittels des o. g. Arbeitsfingers oder des Mittel-Stäbchens die entsprechenden virtuellen Bildchen (u. a. Ikonchen) oder die virtuellen Tasten (oder irgendwelchen anderen interaktiven Felden) an diesem Bildschirm (Display), oder wird die Information an irgendwelchen beliebigen, u. a. nicht interaktiven Bildschirm präsentiert,
dadurch gekennzeichnet, dass
– wird diese visuelle Information gleichzeitig unmittelbar vor der Augen als imaginäre (virtuelle; engl.: aerial image; Bild außer der Bildschirmfläche) Bild präsentiert, wofür
– wird diese o. g. visuelle Information von einem Gadget in ein Sichtgerät übertragt, welches Sichtgerät sich in den Brillen (bzw. in dem Aufsatz an den Brillen, bzw. in dem andersartigen Aufsatz an dem Kopf, bzw. in den Kontaktlinsen) platziert (dieses Sichtgerät wird im weiteren als „Brillensichtgerät” genannt),
– und gleichzeitig wird jede Position (Raumkoordinaten oder 2D-Koordinaten in der Bildschirmflache) des o. g. Arbeitsfingers (bzw. eines o. g. Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder Mittel-Stäbchens) mittels einer Sondereinrichtung bestimmt, und wird diese Information über diese Position in das o. g. Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt,
– wobei wird ein virtuelles Image dieses Arbeitsfingers bzw. dieses Mittel-Stäbchens an das Bild aufgelegt, das in das Brillensichtgerät von dem Gadjetsdisplay übertragt ist (d. h. mit den anderen Worte, dass die o. g. zwei Images: (das erste- vom Gadgetsdisplay, und das 2-te – von der Arbeitsfinger-(bzw. Mittel-Stäbchen)-Position in Hinsicht zu Gadgetsdisplay), in dem Brillensichtgerät in einem Bild übereinandergelegt sind,
– wobei kann man anstatt des Arbeitsfingers (bzw. des Mittel-Stäbchens) nur ein virtuelles Image seines Tops (Endchens, Spitze), u. a. in der Form eines Kursors (wie z. B. eines Kreuzchens oder eines Pfeilchens), in dem Brillensichtsgerät präsentieren,
– wobei kann man nur 2 Koordinaten des Arbeitsfingerstops (bzw. des Mittels-Stäbchenstops), und zwar in der Fläche der Gadgetsbildschirmsfläche bestimmen, ohne Berücksichtigung des Vertikalabstandes des Arbeitsfingers (Mittel-Stäbchens) von der Gadgetsbildschirmsfläche,
– wobei u. a. bei der Ausführung der „Vergrößerung” und der „Verkleinerung” – Funktionen kann auch ein Image eines zweiten Fingers (oder seines Tops) in dem Brillensichtgerät vorübergehend erscheinen, nachdem man mit diesem Finger, neben den Arbeitsfinger, den Bildschirm (Display) des Gadgets berührt hat,
– wobei u. a. können als Arbeitsfinger ein Zeigefinger, und als die o. g. zweite Finger ein Großfinger benutzt werden,
– wobei kann das Top des Arbeitsfingers (bzw. des Mittel-Stäbchens mit dem irgendwelchen Markierer (u. a. magnetischen, elektrostatischen, optischen, etc.), markiert werden um die Position des o. g. Tops zu indizieren,
– wobei kann man anstatt einen Finger, die mehreren, bis zu 10, Arbeitsfinger indizieren, nach den Raumpositionen bestimmen und für die Steuerung des Systems nutzen. ...
A method for presenting and editing the information, in which visual information is presented to, inter alia, the interactive touch-sensitive (display) screen of a gadget (including a smartphone or an ipad), and this visual information is transmitted through a finger (hereinafter referred to as "working fingers") or by an intermediate body, for. As sticks or needle, hereinafter referred to as "center-sticks"), edited, what is touched by means of the above working finger or the center-rod the corresponding virtual image (including icons) or the virtual buttons (or any other interactive fields) on this screen (display), or the information is presented on any, inter alia, non-interactive screen,
characterized in that
- This visual information is presented at the same time immediately before the eyes as an imaginary (virtual: aerial image, image except the screen) image, for what
- This above visual information is transmitted from a gadget in a viewing device, which display device placed in the glasses (or in the article on the glasses, or in the other essay on the head, or in the contact lenses) (this viewing device is hereinafter referred to as "glasses viewing device"),
- And at the same time each position (space coordinates or 2D coordinates in the screen area) of the above working finger (or an above-center rod, or only its parts, or only the lower top (end, tip) of the above working finger or means Rod) determined by means of a special device, and this information is transmitted via this position in the above-mentioned eyeglass view device in the real-time (Real-Time) regime,
- where a virtual image of this working finger or this center-stick is placed on the image that is transmitted to the glasses view device of the gadget display (ie with the other words that the above two images: (the first of the gadget display, and the 2-th - from the working finger (or center-stick) position with respect to the gadget display) in which the glasses vision device are superimposed in one image,
- where you can present instead of the working finger (or the center-stick) only a virtual image of his top (endchen, top), including in the form of a cursor (such as a cross or a little arrow), in the eyewear .
Wherein one can only determine 2 coordinates of the working finger stop (or center stick stop), in the area of the gadget screen area, without taking into account the vertical distance of the working finger (center rod) from the gadget screen area,
- Among other things, in the execution of the "magnification" and the "reduction" - functions, an image of a second finger (or its top) in the eyeglass view device may appear temporarily, after using this finger, next to the working finger, the screen (display) touched the gadget,
- where among other things can be used as a working finger an index finger, and as the above-mentioned second finger a large finger,
- where the top of the working finger (or the center rod with the any marker (including magnetic, electrostatic, optical, etc.) can be marked to index the position of the above top,
- where you can instead of one finger, which index several, up to 10, finger fingers, determine the spatial positions and use for the control of the system. ...

Figure DE102015009113A1_0001
Figure DE102015009113A1_0001

Description

Es sind die Smartfons (u. a. I-Phone) sowie tablett-PCs (u. a. Ipad) mit den interaktiven Bildschirmen weit bekannt, die zum Stand der Technik gehören. Es gibt auch die übliche tragbaren elektronischen Geräte, wie z. B. Mobiltelefons sowie Laptops mit den nicht-interaktiven Bildschirmen und nicht-virtuellen Klaviatur bekannt. Wie bekannt, gibt es die zwei zusammenausschließenden Erfordernisse zu diesen Geräte, und zwar:
Einerseits, für eine bessere Tragbarkeit, muss das ganzes Gerät möglichst klein sein, und folglich, muss auch sein Bildschirm (Display) klein sein. Anderseits, muss der Bildschirm möglichst groß sein, um mehr Information zu enthalten, die der User lesen und bearbeiten könnte. Derselbe gilt auch für die Klaviatur, (wie für die Physikalischen, als auch für die virtuellen Klaviatur an den interaktiven Bildschirmen, welche Klaviatur muss einerseits möglichst klein sein, aber anderseits muss diese Klaviatur nach seine kleine Große noch verwendbar sein.
Smartphones (including I-phones) and tablet PCs (including Ipad) with the interactive screens well known in the art are widely known. There are also the usual portable electronic devices such. As mobile phones and laptops with the non-interactive screens and non-virtual keyboard known. As is known, there are two exclusive requirements for these devices, namely:
On the one hand, for better portability, the whole device must be as small as possible, and consequently, its screen also has to be small. On the other hand, the screen must be as large as possible to contain more information that the user could read and edit. The same applies to the keyboard, (as for the physical as well as for the virtual keyboard on the interactive screens, which keyboard must on the one hand be as small as possible, but on the other hand, this keyboard must still be usable after its small size.

Der in den Patentansprüchen 1 bis 6 angegebenen Erfindung liegt das Problem zugrunde, den Verfahren zu ermöglichen, womit konnte man eine große interaktive Bild sowie Klaviatur sehen, nutzen und interaktive bearbeiten, ohne dafür einen großen physikalischen Gerät zu tragen.The invention specified in the claims 1 to 6, the invention is based on the problem of enabling the method, which could see a large interactive image and keyboard, use and edit interactive, without having to carry a large physical device.

Dieses Problem wird durch die in den Patentansprüchen 1 bis 6 aufgeführten Merkmale gelöst.This problem is solved by the features listed in the patent claims 1 to 6.

Die mit der Erfindung erzielten Forteile bestehen insbesondere darin, dass eine Möglichkeit der Operierung mit einem großen imaginären interaktiven Bild als auch mit einer großen imaginären interaktiven Klaviatur erreicht wird, unabhängig von der Große eines physikalisches elektronisches Geräts, das diese o. g. Operationen ermöglicht.The advantages achieved by the invention are, in particular, that a possibility of operating with a large imaginary interactive image as well as with a large imaginary interactive keyboard is achieved, regardless of the size of a physical electronic device that this o. G. Operations possible.

Definition: Im weiteren unter „Gadget” versteht man I-Phone oder irgendwelche andere Smartfon, Mobiltelephon, I-Pad, I-pod, irgendwelhe Tablett-PC, auch ein Laptop, irgendwelche PC und irgendwelche elektronische Gerät, das die PC-Funktionen ausführen kann.Definition: Further, "gadget" means I-phone or any other smart phone, mobile phone, I-pad, I-pod, any tablet PC, even a laptop, any PC and any electronic device that performs the PC functions can.

Eine vorteilhafte Ausgestaltung der Erfindung ist in dem Patentanspruch 7 angegeben. Die Weiterbildung nach diesem Patentanspruch ermöglicht es, eine sichere Nutzung eines Smartfons (bzw. irgendwelches anderes Gadgets) nur durch die dafür zugelassenen Personen.An advantageous embodiment of the invention is specified in the patent claim 7. The development according to this claim makes it possible to safely use a smart phone (or any other gadgets) only by the authorized persons.

Eine weitere vorteilhafte Ausgestaltung der Erfindung ist in den Patentansprüchen 8 und 9 bis angegeben. Die Weiterbildung nach diesen Patentansprüchen ermöglicht es, die verschiedenen verbesserten Ausführungen der 3D-Images und stereoakustischen Darstellungen darzustellen.A further advantageous embodiment of the invention is specified in the claims 8 and 9 to. The development according to these claims makes it possible to represent the various improved versions of the 3D images and stereo-acoustic representations.

Einige Ausführungsbeispiele der Erfindung werden im folgenden näher beschrieben.Some embodiments of the invention will be described in more detail below.

In einem Ausführungsbeispiel des Verfahrens wird eine visuelle Information an den Interaktiven berührungsempfindlichen (touchable, touch-sensitive) Bildschirm (Display) eines Gadgets präsentiert, und wird diese visuelle Information durch einen Finger (im weiteren als „Arbeitsfinger” genannt) oder durch einen Zwischen-Körper, z. B. Stäbchen oder Nadel, im weiteren als „Mittel-Stäbchen” genannt), bearbeitet, wofür berührt man mittels des o. g. Arbeitsfingers oder des Mittel-Stäbchens die entsprechenden virtuellen Bildchen (u. a. Ikonchen) oder die virtuellen Tasten an diesem Bildschirm (Display). Darüber hinaus wird diese visuelle Information gleichzeitig unmittelbar vor der Augen als imaginäre (virtuelle; engl.: aerial image; Bild außer der Bildschirmfläche) Bild präsentiert, wofür wird diese o. g. visuelle Information von einem Gadget in ein Sichtgerät übertragt, welches Sichtgerät sich in den Brillen (bzw. in dem Aufsatz an den Brillen, bzw. in dem andersartigen Aufsatz an dem Kopf, bzw. in den Kontaktlinsen) platziert (dieses Sichtgerät wird im weiteren als „Brillensichtgerät” genannt).In one embodiment of the method, visual information is presented to the interactive touch-sensitive (display) screen of a gadget, and this visual information is provided by a finger (hereafter referred to as a "working finger") or by an intermediary Body, z. As sticks or needle, hereinafter referred to as "middle-sticks"), edited, what is touched by means of o. G. Working finger or the center-stick the corresponding virtual images (including icons) or the virtual buttons on this screen (display). In addition, this visual information is simultaneously presented immediately in front of the eyes as an imaginary (virtual: aerial image, picture except the screen area) image, what does this og g. transmits visual information from a gadget in a viewing device, which display device placed in the glasses (or in the article on the glasses, or in the other essay on the head, or in the contact lenses) (this viewer is hereinafter referred to as Called "glasses viewing device").

Und gleichzeitig wird jede Position (Raumkoordinaten oder 2D-Koordinaten in der Bildschirmflache) des o. g. Arbeitsfingers (bzw. eines o. g. Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder Mittel Stäbchens) mittels einer Sondereinrichtung bestimmt, und wird diese Information über diese Position in das o. g. Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt, wobei wird ein virtuelles Image dieses Arbeitsfingers bzw. dieses Mittel-Stäbchens an das Bild aufgelegt, das in das Brillensichtgerät von dem Gadjetsdisplay übertragt ist (d. h. mit den anderen Worte, dass die o. g. zwei Images: (das erste- vom Gadgetsdisplay, und das 2-te – von der Arbeitsfinger-(bzw. Mittel-Stäbchen)-Position in Hinsicht zu Gadgetsdisplay), in dem Brillensichtgerät in einem Bild übereinandergelegt sind. Hier kann man anstatt des Arbeitsfingers (bzw. des Mittel-Stäbchens) nur ein virtuelles Image seines Tops (Endchens, Spitze), u. a. in der Form eines Kursors (wie z. B. eines Kreuzchens oder eines Pfeilchens), in dem Brillensichtsgerät präsentieren, wobei kann man nur 2 Koordinaten des Arbeitsfingerstops (bzw. des Mittels-Stäbchenstops), und zwar in der Fläche der Gadgetsbildschirmsfläche bestimmen, ohne Berücksichtigung des Vertikalabstandes des Arbeitsfingers (Mittel-Stäbchens) von der Gadgetsbildschirmsfläche.And at the same time, each position (space coordinates or 2D coordinates in the screen area) of the above-mentioned g. Working finger (or an above-mentioned middle stick, or only its parts, or only the lower top (little end, tip) of the above-mentioned working finger or means rod) determined by means of a special device, and this information about this position in the o. Brillens view device in the real-time (Real-Time) regime transmits, where a virtual image of this working finger or this center-stick is placed on the image that is transmitted to the glasses view device from the gadget display (ie with the other words that the above two images: (the first of the gadget display, and the second - of the working finger (or middle-chopsticks) position in terms of gadget display) in which glasses are placed in a picture superimposed of the working finger (or the center-stick) only a virtual image of his top (endchen, top), including in the form of a cursor (such as a cross or a little arrow), present in the eyewear, where you can only Determine 2 coordinates of the working finger stop (or center stick stop), in the area of the gadget screen area, without taking into account the vertical distance of the working finger (center rod) of d he gadget screen.

Dabei u. a. bei der Ausführung der „Vergrößerung” und der „Verkleinerung” – Funktionen kann auch ein Image eines zweiten Fingers (oder seines Tops) in dem Brillensichtgerät vorübergehend erscheinen, nachdem man mit diesem Finger, neben den Arbeitsfinger, den Bildschirm (Display) des Gadgets berührt hat, wobei u. a. können als Arbeitsfinger ein Zeigefinger, und als die o. g. zweite Finger ein Großfinger benutzt werden. Hier kann das Top des Arbeitsfingers (bzw. des Mittel-Stäbchens mit dem irgendwelchen Markierer (u. a. magnetischen, elektrostatischen, optischen, etc.), markiert werden um die Position des o. g. Tops zu indizieren, wobei kann man anstatt einen Finger, die mehreren, bis zu 10, Arbeitsfinger indizieren, nach den Raumpositionen bestimmen und für die Steuerung des Systems nutzen.Among other things, when performing the "magnification" and the "reduction" - functions can Also, an image of a second finger (or its top) in the eyeglass viewing device temporarily appear after having touched with this finger, next to the working finger, the screen (display) of the gadget, whereby among other things can work finger as an index finger, and as the above-mentioned second Finger a big finger can be used. Here, the top of the working finger (or the center rod with the any marker (including magnetic, electrostatic, optical, etc.), marked to index the position of the above top, where you can instead of a finger, the several, up to 10, index working fingers, determine according to the room positions and use for the control of the system.

Dabei kann man u. a. das o. g. imaginäre Bild nur vor einem von den 2 Augen generieren, wofür u. a. kann man eine visuelle Information z. B. in den Aufsatz übertragen, der an einem von 2 Brillengläsern aufgesetzt ist. Und dabei kann das o. g. imaginäre Bild u. a. wie das ganze Gesichtfeld besetzen, als auch nur ein Teil des ganzen Gesichtfelds besetzen, wobei wird das Restteil des Gesichtsfeldes für die Ansehung der Umgebung geblieben, oder kann das Gesichtfeld mit den mehreren imaginären Bilder besetzt werden, welche Bilder können u. a. auch von den mehreren Quellen (u. a. von den mehreren Gadgets) in den Brillensichtgerät übertragt werden.You can u. a. the o. g. generate imaginary image just before one of the 2 eyes, for which u. a. can one visual information z. B. transferred to the essay, which is placed on one of 2 lenses. And this is the o. G. imaginary picture u. a. as occupy the whole field of view, as occupy only a part of the whole field of view, whereby the remaining part of the field of view for the respect of the environment remained, or can the field of view with the several imaginary pictures occupied, which pictures can u. a. be transferred from the multiple sources (including the multiple gadgets) in the spectacle view device.

In diesem Verfahren kann die visuelle Information an den physikalischen berührungsempfindlichen Bildschirm eines Gadgets nicht präsentiert werden, und kann die visuelle Information durch die Berührung eines physikalischen Bildschirm nicht gesteuert werden, und anstatt kann jede Position (Raumkoordinaten oder 2D-Koordinaten in einigen Fläche) des Arbeitsfingers (bzw. der mehreren Finger, bzw. eines Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder der Arbeitsfinger oder Mittel-Stäbchens) mittels einer Sondereinrichtung bestimmt werden, und wird diese Information über diese Position in das Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt. Somit wird ein virtuelles Image dieses Arbeitsfingers oder dieser Arbeitfinger bzw. dieses Mittel-Stäbchens an das Bild aufgelegt, das in das Brillensichtgerät von dem Gadjet übertragt ist (d. h. mit den anderen Worte, dass die o. g. zwei Images: (das erste- vom Gadget, und das 2-te – von der Arbeitsfinger-(bzw. Mittel-Stäbchen)-Raumposition), in dem Brillensichtgerät in einem Bild übereinandergelegt sind,
und somit wird das ganze System durch die Finger-gesteuerte Operationen mit dem virtuellen, imaginären, aerial-image-artigen, „in Lüft hängenden” interaktiven Bild gesteuert.
In this method, the visual information can not be presented to the physical touch-sensitive screen of a gadget, and the visual information can not be controlled by the touch of a physical screen, and instead, any position (space coordinates or 2D coordinates in some area) of the working finger (or the plurality of fingers, or a central rod, or only its parts, or only the lower top (end piece, tip) of the above working finger or the working fingers or center-rod) are determined by means of a special device, and will transmits this information about this position to the eyeglasses viewer in the real-time regime. Thus, a virtual image of this working finger or this working finger or this center-stick is placed on the image that is transmitted to the goggle-viewing device of the gadjet (ie with the other words that the above two images: (the first of the gadget, and the second-from-the-working-finger (or middle-stick) -space position) in which the glasses vision device are superimposed in one image,
and thus the whole system is controlled by the finger-controlled operations with the virtual, imaginary, aerial-image-like, "hung in the air" interactive image.

In einem Ausführungsbeispiel des Verfahrens wird in dem o. g. Brillensichtgerät ein virtuelles imaginäres interaktives Image eines Musikkeyboards formiert, somit man mit der virtuellen Klaviatur wie mit der realen Klaviatur eines Keyboards, u. a. auch mit den 10 Finger, spielen kann.In one embodiment of the method, in the o. G. Brillensive device forms a virtual imaginary interactive image of a music keyboard, so you with the virtual keyboard as the real keyboard of a keyboard, u. a. even with the 10 fingers, can play.

In einem Ausführungsbeispiel des Verfahrens wird in dem Brillensichtgerät ein virtuelles imaginäres interaktives Image eines PC-keyboards formiert, somit man mit der virtuellen Klaviatur wie mit der realen Klaviatur eines PCs, u. a. auch mit den 10 Finger, operieren kann.In one embodiment of the method, a virtual imaginary interactive image of a PC keyboards is formed in the glasses viewing device, thus one with the virtual keyboard as the real keyboard of a PC, u. a. also with the 10 fingers, can operate.

In einem Ausführungsbeispiel des Verfahrens wird jede Position (Raumkoordinaten oder 2D-Koordinaten in der Bildschirmflache) des o. g. Arbeitsfingers, (bzw. der Arbeitfinger bzw. eines o. g. Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder Mittel-Stäbchens) bestimmt und wird danach diese Information über diese Position in das o. g. Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt), an der Brillensichtgerät bzw. an dem irgendwelchen Kopfaufsatz platziert werden, wobei kann die o. g. Sondereinrichtung u. a. auch an dem Handgelenk oder an dem Gürtel oder an dem irgendwelchen anderen Körperteil, bzw. auch an dem Tisch oder an der irgendwelchen anderen Stütze (Träger) in der nähe von den Arbeitsfinger platziert werden.In one embodiment of the method, each position (space coordinates or 2D coordinates in the screen area) of the o. G. Arbeitsfingers, (or the working fingers or an above-center rod, or only its parts, or only the lower top (endchen, top) of the above working finger or center-rod) determines and then this information about this position in the above In the real-time regime), are placed on the eyeglass vision apparatus or on any headgear, where the above mentioned may be placed on the eyepiece viewer. Special equipment u. a. also be placed on the wrist or on the belt or on any other body part, or also on the table or on any other support (support) near the working fingers.

In einem Ausführungsbeispiel des Verfahrens wird die visuelle Information an den physikalischen berührungsempfindlichen Bildschirm nach Oberbegriff der Anspruch 1 eines Gadgets nicht präsentiert, und wird die visuelle Information durch die Berührung eines physikalischen Bildschirm nach Oberbegriff der Anspruch 1 nicht gesteuert, und anstatt

  • – wird das ganze System durch einen Touchpad (u. a. wie in einem Laptop) gesteuert.
In one embodiment of the method, the visual information is not presented to the physical touch screen according to the preamble of claim 1 of a gadget, and the visual information is not controlled by the touch of a physical screen according to the preamble of claim 1, and instead
  • - The whole system is controlled by a touchpad (like a laptop).

Ein mögliches Ausführungsbeispiel der Erfindung ist in der 1 dargestellt. In diesem Ausführungsbeispiel ein Gerät enthält:

  • – ein Smartfon (oder I-pad, oder ein anderes Gadget) 1 mit einem interaktiven Bildschirm 2, der durch die Berührung einer Spitze 3 eines Fingers 4 (oder der zwei Spitzen der zwei Finger) wie üblich gesteuert werden kann,
  • – eine Vorrichtung 5 für Identifizierung (Feststellung) einer Lokalisation der Spitze des Fingers in Beziehung auf den Bildschirm 2 (d. h. für die Feststellung über welchen Punkt des Bildschirms 2 eine Spitze des Fingers oder Spitze des Mittel-Stäbchens) sich momentan befindet); wobei diese Vorrichtung 5 (im weiterem als „Lokalisationssuchgerät” genannt) kann an der Smartfon (I-pad, Gadget etc.) 1 wie fest montiert sein, als auch als eine Abnehmbarer Vorrichtung ausgeführt werden kann;
  • – eine Vorrichtung 6, die die visuelle Information, die am Bildschirm 2 erscheint, gleichzeitig unmittelbar vor der Augen 13 als imaginäre (virtuelle; engl.: aerial image; Bild außer der Bildschirmfläche) Bild 7 präsentiert, wofür wird diese o. g. visuelle Information von einem Gerät 1 in dieses Vorrichtung (Sichtgerät) 6 durch Kabel 8 oder drahtlos (wireless) übertragt, welches Sichtgerät 6 sich in den Brillen 9 (bzw. in dem Aufsatz an den Brillen, bzw. in dem andersartigen Aufsatz an dem Kopf, bzw. in den Kontaktlinsen unmittelbar an der Augen) platziert (dieses Sichtgerät wird, wie oben geschrieben, hier als „Brillensichtgerät” 6 genannt); wobei das Brillensichtgerät” 6 mit zwei separaten elektrischen Input versehen werden kann, um die verschiedene Videoinformationen vor der linken und rechten Augen darstellen, und somit eine 3D-visuelle Bilddarstellung zu schaffen;
  • – eine elektronische Einrichtung 10, die die Lokalisation der Spitze des Fingers in Bezug auf der Bildschirm 2 in einer elektronische Form umwandelt und in einem o. g. visuellen Image (imaginären Bild 7) als eine Fingerspitze oder als ein Kursor 14 so präsentiert, dass seine Lokalisation genau dem Punkt in dem Bild entspricht, über welchem Punkt über den Bildschirm 2 diese Fingerspitze (oder Mittel-Stäbchenspitze) sich physikalisch befindet; (Die Funktionen dieses o. g. elektronischen Einrichtung 10 kann wie ein extra-Chip ausführen als auch kann diese Funktion durch den Hauptrechner des Gerätes 1 teilweise oder komplett ausgeführt werden;
  • – eine elektronische Einrichtung 11, die die Koordinaten des Fingerspitzes bzw. des Mittel-Stäbchens (in Bezug auf den interaktiven Bildschirm 2) in eine elektronischen Form umwandelt, und vergrößert einen Abschnitt des Bildes dieses, der in der Bildschirmsflache unmittelbar unter der Fingerspitze (oder Mittel-Stäbchenspitze) sich befindet, wobei kann diese lokale Bildvergrößerung auch durch den Brillensichtsgerät 5 in den Bild 7 unter den Kursor dargestellt werden. (Die Funktionen dieses o. g. elektronischen Einrichtung 11 kann wie ein extra-Chip ausführen als auch kann diese Funktion durch den Hauptrechner des Gerätes 1 teilweise oder komplett ausgeführt werden;
  • – eine elektronische Einrichtung 12, die die verschiedene visuelle Information zu den linken und rechten Teilen des Brillensichtgerät 6 schickt, um eine 3D-Bild vor den Augen zu schaffen. (Die Funktionen dieses o. g. elektronischen Einrichtung 12 kann wie ein extra-Chip ausführen als auch kann diese Funktion durch den Hauptrechner des Gerätes 1 teilweise oder komplett ausgeführt werden;;
  • ein Verbindungskabel 8, der ein Gerät 1 mit dem Brillensichtgerät 6 elektrisch verbindet, und die dasselbe oder ähnliche Bild wie in der Bildschirm 2 erscheint, auch in der Brillensichtgerät 6 als o. g. Bild 7 durch die Übertragung der elektrischen Signalen gleichzeitig darstellt, zusammen mit dem Image eines Kursors, die die Lokalisation des Fingerspitzes 3 (oder Mittel-Stäbchenspitzes 3) in Bezug auf der Bildschirm 2 zeigt;
A possible embodiment of the invention is in the 1 shown. In this embodiment, a device includes:
  • - a smart phone (or I-pad, or another gadget) 1 with an interactive screen 2 that by the touch of a tip 3 a finger 4 (or the two tips of the two fingers) can be controlled as usual
  • - a device 5 for identifying a location of the tip of the finger in relation to the screen 2 (ie for determining which point of the screen 2 a tip of the finger or tip of the center-stick is currently located); this device 5 (in the following as "localization searcher" called) can at the Smartfon (I-pad, gadget etc.) 1 as fixedly mounted, as well as being executable as a detachable device;
  • - a device 6 Showing the visual information on the screen 2 appears at the same time right in front of the eyes 13 as an imaginary (virtual: aerial image, picture except the screen) image 7 presents, what is the above visual information of a device 1 in this device (display device) 6 by cable 8th or wirelessly transmits which display device 6 in the glasses 9 (or in the attachment to the glasses, or in the other article on the head, or in the contact lenses directly to the eyes) placed (this viewer is, as written above, here as a "glasses viewing device" 6 called); whereby the spectacle view device " 6 can be provided with two separate electrical input to represent the different video information in front of the left and right eyes, and thus to create a 3D visual image display;
  • - an electronic device 10 Showing the location of the tip of the finger in relation to the screen 2 transformed in an electronic form and in an og visual image (imaginary image 7 ) as a fingertip or as a cursor 14 presented so that its location corresponds exactly to the point in the picture, above which point across the screen 2 this fingertip (or center-stick tip) is physically located; (The functions of this above electronic device 10 can run like an extra chip as well as can this function through the main computer of the device 1 be carried out partially or completely;
  • - an electronic device 11 representing the coordinates of the fingertip and the center-bar (with respect to the interactive screen 2 ) converts to an electronic form and enlarges a portion of the image that is in the screen area immediately under the fingertip (or center-point tip), and this local image magnification can also be magnified by the eyewitness 5 in the picture 7 under the cursor. (The functions of this above electronic device 11 can run like an extra chip as well as can this function through the main computer of the device 1 be carried out partially or completely;
  • - an electronic device 12 showing the various visual information to the left and right parts of the glasses view device 6 sends to create a 3D image in front of the eyes. (The functions of this above electronic device 12 can run like an extra chip as well as can this function through the main computer of the device 1 be carried out partially or completely;
  • - a connection cable 8th who is a device 1 with the glasses view device 6 electrically connects, and the same or similar picture as in the screen 2 appears, even in the glasses-view device 6 as above picture 7 represented by the transmission of electrical signals simultaneously, together with the image of a cursor, the localization of the fingertip 3 (or mean-chopstick-tip 3 ) in terms of the screen 2 shows;

In einem Ausführungsbeispiel wird die virtuellen Image der Bildschirm 100 mittels die Brille 800 vor dem Nutzer 200 ähnlich zu eine Position einer Tragbretts eines Tragbrettverkäufers vormiert (2(A–C), 3, 4, 5(A–B), wobei die 2A – Ansicht von Vorne, 2B – Seitenansicht von Rechts, 2C – Ansicht von Oben). (In alle Fälle ist diese virtuelle Image durch die entsprechende Brille 800 bzw. durch die Kontaktlinzen formiert.) Hier die position dieses o. g. Bildschirmimage 100 in Hinsicht zur Nutzer 200 unterscheidet sich von der Position dieses Tragbretts eines Bauchladenverkäufers nur dadurch, dass ist die Ebene dieses Bildschirms 100 nicht horisontal, sondern liegt es in die Ebene 300, die mit eine horisontale Ebene 400 einen Winkel 500 formiert. (3). Dieses Winkel 500 kann auch elektronisch verstellbar sein, und sein Wert von 0 grad bis 90 grad sein variirert werden kann. Wie auch einen Abstand dieses Bildschirm von der Nutzer, und genaue Position dieses Bildschirm relativ zu Nutzer, kann verstellbar sein abhängig von der Nutzereinstellungen. Praktisch kann es durch eine Bewegund eines Finges vor der Augen gemacht werden, bei der entsprechenden Einstellungen. Elektronische Technik dafür gehört zum Stand der Technik. Im übrigen sieht der Nutzer 200 wärend seine Bewegung sowie wärend die Bewegungen seine Körperteile (Kopf 600, Augen 700, etc.) die Position dieses virtuellen Bildschirm 100 genau so, ohne die weitere Unterschiede, wie einen Tragbrettverkäufer die oberen Oberflähe seinen Tragbretts sieht. D. h. als kniekt der Nutzer seinen Kopf 600 oder sieht der Nutzer mit seine Augen nach unten, wobei befindet sich seinen Sicht im Gesihtfeld „B” (oder „Bildschirm”) sieht er seinen Bildschirmsimage (4, 5B). Als rihtet der Nutzer seinen Kopf bzw. seine Augen bzw. beides nach oben, wobei befindet sich seinen Sicht im Gesichtfeld „F” (oder „Ferne”) sieht er die Umgebung (z. B. Strasse, Häuser, Leite) vor ihm. In dieses Moment bleibt das Bildschirmimage 100 unten, an der untere Peripherie seinen Sicht (4, 5A, 5B). Oder sicht der Nutzer dieses Bildschirm gar nicht, falls eine solche Einstellung elektronisch gemacht ist (d. h. falls ist es so eingestellt, dass schaltet das Bildschirmimage-generiertes Gerät den Bildschirmimage aus, falls richtet der Nutzer an dieses Bildschirm seine Augen nicht). Falls dreht (winkt) der Nutzer seinen Kopf oder seine Augen nach Rechts, (relativ zu seinem Körper bzw. zu seiner Schulternlinie 1001) sieht er die Umgebung rehts von Ihm. In dieses Moment bleibt das Bildschirmimage 100 links, an der linken Peripherie seinen Sicht, oder sicht er dieses Bildschirm gar nicht. Falls dreht (winkt) der Nutzer seinen Kopf oder seine Augen nach Links, (relativ zu seinem Körper bzw. zu seiner Schulternlinie 1001) sieht er die Umgebung links von Ihm. In dieses Moment bleibt das Bildschirmimage 100 rechts, an der rechten Peripherie seinen Sicht. Oder sicht er dieses Bildschirm gar nicht, falls eine solche Einstellung vorher elektronisch gemacht ist (s. oben). Falls sieht der Nutzer nach vorne, ode nach oben, kann er seinen Kopf bzw. seinen Augen horisontal nach 180 grad von rechts nach links und umgekehrt drehen (winken), und dadurch die Umgebung ansehen, ohne dass das Bildschirmimage ihm stört. Falls siht der Nutzer an der Bildschirmimage, bleibt die Umgebung, wie die Nähere, als auch die Ferne, an Peripherie seines Sichtes, aber nicht komplett außer seine Aufmerksamkeit, wie is es bei der Operationen mit einem kleinen Gerät (Gadget) stattfindetIn one embodiment, the virtual image is the screen 100 by means of the glasses 800 in front of the user 200 similar to a position of a carrier board of a board vendor vorormiert ( 2 (A-C), 3 . 4 . 5 (A-B), where the 2A - Front view, 2 B - side view from right, 2C - View from above). (In any case, this virtual image is through the corresponding glasses 800 or formed by the Kontaktlinzen.) Here is the position of this og screen image 100 in terms of users 200 differs from the position of this tummy vendor's carrying board only in that is the plane of this screen 100 not Horisontal, but it lies in the plane 300 with a horizontal plane 400 an angle 500 formed. ( 3 ). This angle 500 can also be electronically adjustable, and its value can be varied from 0 degrees to 90 degrees. As well as a distance of this screen from the user, and exact position of this screen relative to users, can be adjustable depending on the user settings. Practically it can be done by a movement and a finger in front of the eyes, with the appropriate settings. Electronic technology is part of the state of the art. Incidentally, the user sees 200 during his movement as well as during the movements his body parts (head 600 , Eyes 700 , etc.) the position of this virtual screen 100 just like that, without the further differences, like a board-vendor sees the upper surface of his carrying board. Ie. as if the user is bowing his head 600 or sees the user with his eyes down, where his view is in Gesihtfeld "B" (or "screen"), he sees his screen image ( 4 . 5B ). As if the user ranks his head or his eyes or both upwards, where his view is in the field of view "F" (or "distance"), he sees the environment (eg street, houses, Leite) in front of him. The screen image remains in this moment 100 below, at the lower periphery his view ( 4 . 5A . 5B ). Or the user does not see this screen at all, if such a setting is made electronically (ie if it is set so that the screen image generated device turns off the screen image, if the user does not direct their eyes to this screen). If the user turns (waves) his head or his eyes to the right, (relative to his body or to his shoulder line 1001 ) he sees the environment rehts of Him. The screen image remains in this moment 100 left, on the left periphery his view, or he does not see this screen. If the user turns his head or his eyes to the left, (relative to his body or to his shoulder line 1001 he sees the environment to the left of Him. The screen image remains in this moment 100 right, on the right periphery his view. Or he does not look at this screen, if such a setting was previously made electronically (see above). If the user looks forward or upward, he can rotate his head or eyes horizontally 180 degrees from right to left and vice versa (waving), thereby viewing the environment without the screen image disturbing him. If the user suffers from the screen image, the environment, such as the closer, as well as the distance, remains on the periphery of his view, but not completely out of his view, as is the case with small device (gadget) operations

Falls dreht (winkt) der Nutzer 200 komplett seinen Körper, sieht er, dass dreht (winkt) sich die virtuelle Bildschirm 100 mit ihm zusammen, wie ist es auch in der Fall eines Tragbretts eines Bauchladenverkäufers passiert. In weiterem wird das oben beschriebenen virtuellen Bildschirmimage 100 als „virtuellen Tragbrettsdisplay” genannt.If the user turns (beckons) 200 Completely his body, he sees that turns (beckons) the virtual screen 100 with him, as happened in the case of a carrying board of a vendor shop. Further, the above-described virtual screen image becomes 100 called "virtual carrier display".

In einem anderen Ausführungsbeispiel der Erfindung gibt es keine Beobachtung der Augenlöcherpositionen, d. h. enthält das System keine Kameras bzw. Sensors oder irgendwelchen anderen Einrichtungen für die Beobachtung der Augenlöcherpositionen des Nutzers. Das System beobachtet aber die Kopfposition, d. h. wie der Nutzer sein Kopf dreht (winkt) nach links und nach rechts relativ zu eine vertikale Achse; und wie der Nutzer den Kopf biegt nach unten und wieder nach oben (relativ zu Achse, die durch die linke und rechte Schulter 1000 gibt es keine Beobachtung der Augenlöcherpositionen, d. h. enthält das System keine Kameras bzw. Sensors oder irgendwelchen anderen Einrichtungen für die Beobachtung der Augenlöcherpositionen des Nutzers. und Hals durchgeht; bzw. ggf. auch wie der Nutzer den Kopf schüttelt (hin- und her wiegt). In Übrigen gilt alle oben dargestellte Beschreibung auch komplett für den Fall, falls gibt es keine Beobachtung der Augenlöcherpositionen, d. h. enthält das System keine Kameras bzw. Sensors oder irgendwelchen anderen Einrichtungen für die Beobachtung der Augenlöcherpositionen des Nutzers. In diesem Fall aber operiert man mit dem Display nur durch die Finger oder Stimme (Voice), weil Operierung durch die Augenlöchernpositionsänderungen ist unmöglich.In another embodiment of the invention, there is no observation of the eyehole positions, ie the system does not include any cameras or sensors or any other means for observing the eyehole positions of the user. However, the system observes the head position, ie how the user turns his head (beckons) to the left and to the right relative to a vertical axis; and how the user bends his head down and back up (relative to axis, through the left and right shoulder 1000 there is no observation of the eye-hole positions, ie the system does not contain any cameras or sensors or any other means for observing the eye-hole positions of the user. and throat goes through; or possibly also how the user shakes his head (weighs back and forth). Incidentally, all the above description also applies completely to the case, if there is no observation of the eyehole positions, that is, the system does not include any cameras or sensors or any other means for observing the eyehole positions of the user. In this case, however, one operates on the display only through the fingers or voice, because surgery through the eye-hole position changes is impossible.

Wichtig ist, dass das Fenster mit der Inhalt des Displays (d. h. der oben beschriebenen virtuellen Image) nur eine Teil des gesamtes Ansichtes nimmt, und auch dass bleibt diese Fenster aus der Blickpoint des Nutzers immer in einem Platz relativ zu den Nutzerskörper, wann bewegt der Nutzer sein Kopf und seine Augenlöcher. Somit kann der Nutzer immer die reale Umgebung 900 beobachten, und seine Aufmerksamkeit aus der Umgebung 900 nach der o. g. Display-Fenster (Bildschirm 100) und zurück mehrmals dort- und hin richten. Die reale Umgebung 900 kann direkt durch die transparente Glasses in die Brille 800 durch den Nutzer 200 gesehen werden. Oder aber, als einen anderen Ausführungsvariante, kann diese Umgebung durch die Kamera beobahtet werden, und durch den Komputer vor der Augen des Nutzers an den Bildschirm dargestellt werden, wobei sieht der Nutzer die Umgebung direkt nicht, sieht er aber diese Umgebung am Display, wobei Display belegt alle Gesihtfeld des Nutzers. Offensichtlich, diese Variante ist aber weniger nutzlich. Die oben beschriebene Ausführungsbeispiele sind in der Zeichnungen 2(A–C), 3, 4, 5(A–B) schematisch dargestellt.It is important that the window with the content of the display (ie the virtual image described above) takes only a part of the entire view, and also that these windows from the user's viewpoint always stays in a place relative to the user's body, when moves the Users his head and his eye holes. Thus, the user can always use the real environment 900 watch, and get his attention from the environment 900 after the above-mentioned display window (screen 100 ) and back there several times. The real environment 900 Can directly through the transparent glasses in the glasses 800 by the user 200 be seen. Or, as another embodiment, this environment may be observed by the camera and displayed by the computer to the screen in front of the user's eyes, but the user does not see the environment directly but sees the environment on the display Display occupies all Gesihtfeld of the user. Obviously, this variant is less useful. The embodiments described above are in the drawings 2 (A-C), 3 . 4 . 5 (A-B) shown schematically.

In einem anderen Ausführungsbeispiel, dagegen, alle Gesichtfeld des Nutzers mit einem virtuellen Diplay belegt ist, (wie ist es u. a. in der Komputerspiele stattfindet, wo man die Brille oder Helme Nutzt). Somit kann der Nutzer sich grundsätzlich nicht sicher frei und weit bewegen, weil sieht er nur einen virtuellen Realität, aber keine reale Umgebung. Um das Problem der Freibewegung zu lösen, soll der Komputer die reale Umgebungsumstände beobachten und analisieren, und in der virtuellen Realität einbauen. In diesem fall fixiert die an dem Nutzer platzierte Kamera auch die Umgebung (Lndschaft, Hindernisse, Zimmer- bzw. Raumdiemensionen und Zimmer- bzw. Raumausstatung, alle Dinge in der Zimmer bzw. in der Umgebung), und überhaupt alle Arte der Hindernisse, weiter sind diese Ümstände in der Komputer transferieret, danach bearbeitet der Komputer diese Information und integriert diese o. g. Hindernisse in der virtuelle Realität, der zum Nutzer durch die Displaybrille gezeigt ist. Darüber hinaus können diese Dinge und Hindernisse entweder in einen optisch untransformierten Form in der Virtuellen Realität integriert werden, oder können diese optisch in irgendwelche andere Dingen oder Hindernisse oder Personen oder Tiere u. s. w. tranformiert werden, die aber dieselbe Dimensionen und ggf. Bewegungsparameter haben. Z. b. kann der Nutzer einen modernen Komputer tisch als einen Mittelalter-Tisch oder als einen Tier sehen, der aber dieselbe Dimensionen hat, und somit soll man dieses Raumstück bei Bewegung umgehen, unabhängig davon was man in diesem Raumstück sieht. In diesem Ausführungsbeispiel kann man die Komputer Spiele auch im unbeschrenkten Bewegungsregime nutzen, u. a. z. B. real in einem realen Landschaft laufen, Fahrrad fahren, Autofahren, wobei aber sieht der Nutzer keine reale Umgebung, sondern eine Virtuelle Umgebung, wobei sind die reale Objekte und Hindernisse (inklusive u. a. Strassenkonture (Roadway Contours) sind in der virtuellen Realität unverändert oder in irgendwelchen veränderten Form eingebaut (integriert) sind. Z. B. als lauft man durch den Wald in der o. g. Bildschirm, die das ganse reale Ansicht blockiert, kann er das Laufweg mit alle Hindernisse und die Baume sehen, aber anstatt die Hindernisse in dem Form der Kleinwürzeln kann er z. B. die Drakonen sehen, die derselbe Masse und Dimensionen haben, und z. B. die fantastische Tiere an der Beume sehen. Als fährt man das Auto, kann er z. B. anstatt eines realen Strassenkontour eines Autodroms einen fantastischen Landschaft, aber mit derselben Kontoure sehen.In another embodiment, however, all the user's field of view is occupied by a virtual diploma (as is the case in computer games, where one uses the glasses or helmets). Thus, the user can not move freely and move safely, because he sees only a virtual reality, but no real environment. In order to solve the problem of the free movement, the computer should observe and analyze the real environment conditions, and install it in the virtual reality. In this case, the camera placed on the user also fixes the environment (landscape, obstacles, room or room dimensions and room or room furnishing, all things in the room or in the surrounding area), and in general all kinds of obstacles If these circumstances are transferred to the computer, then the computer processes this information and integrates these above-mentioned obstacles in the virtual reality that are shown to the user through the display goggles. Moreover, these things and obstacles can either be integrated into a visually untransformed form in virtual reality, or they can be visually transformed into any other things or obstacles or people or animals, etc., but having the same dimensions and possibly motion parameters. Z. b. For example, the user can see a modern computer table as a medieval table or as an animal, but with the same dimensions, and thus one should bypass this piece of space when moving, no matter what you see in this room piece. In this embodiment, the computer games can also be used in the unrestricted movement regime, such as running real in a real landscape, cycling, driving, but the user sees no real environment, but a virtual environment, where are the real objects and obstacles (including road contours) are unchanged in virtual reality or built (integrated) in any modified form, for example, as you walk through the forest in the above screen, which blocks the ganse real view, he can walk the path with all See obstacles and the trees, but instead of the obstacles in the form of the small spice he can z. For example, see the dracones that have the same mass and dimensions, and z. For example, see the fantastic animals on the Beume. As one drives the car, he can z. For example, instead of looking at a real road contour of a car stream, you can see a fantastic landscape, but with the same account.

In einem anderen Ausführungsbeispiel, bei dem wird eine visuelle Information an den u. a. Interaktiven berührungsempfindlichen (touchable, touch-sensitive) Bildschirm (Display) eines Gadgets (u. a. eines Smartphons oder einer Ipad) präsentiert, und wird diese visuelle Information durch einen Finger (im weiteren als „Arbeitsfinger” genannt) oder durch einen Zwischen-Körper, z. B. Stäbchen oder Nadel, im weiteren als „Mittel-Stäbchen” genannt), bearbeitet, wofür berührt man mittels des o. g. Arbeitsfingers oder des Mittel-Stäbchens die entsprechenden virtuellen Bildchen (u. a. Ikonchen) oder die virtuellen Tasten (oder irgendwelchen anderen interaktiven Felden) an diesem Bildschirm (Display), oder wird die Information an irgendwelchen beliebigen, u. a. nicht interaktiven Bildschirm präsentiert, wobei

  • – wird diese visuelle Information gleichzeitig unmittelbar vor der Augen als imaginäre (virtuelle; engl.: aerial image; Bild außer der Bildschirmfläche) Bild präsentiert, wofür
  • – wird diese o. g. visuelle Information von einem Gadget in ein Sichtgerät übertragt, welches Sichtgerät sich in den Brillen (bzw. in dem Aufsatz an den Brillen, bzw. in dem andersartigen Aufsatz an dem Kopf, bzw. in den Kontaktlinsen) platziert (dieses Sichtgerät wird im weiteren als „Brillensichtgerät” genannt),
  • – und gleichzeitig wird jede Position (Raumkoordinaten oder 2D-Koordinaten in der Bildschirmflache) des o. g. Arbeitsfingers (bzw. eines o. g. Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder Mittel-Stäbchens) mittels einer Sondereinrichtung bestimmt, und wird diese Information über diese Position in das o. g. Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt,
  • – wobei wird ein virtuelles Image dieses Arbeitsfingers bzw. dieses Mittel-Stäbchens an das Bild aufgelegt, das in das Brillensichtgerät von dem Gadjetsdisplay übertragt ist (d. h. mit den anderen Worte, dass die o. g. zwei Images: (das erste- vom Gadgetsdisplay, und das 2-te – von der Arbeitsfinger-(bzw. Mittel-Stäbchen)-Position in Hinsicht zu Gadgetsdisplay), in dem Brillensichtgerät in einem Bild übereinandergelegt sind,
  • – wobei kann man anstatt des Arbeitsfingers (bzw. des Mittel-Stäbchens) nur ein virtuelles Image seines Tops (Endchens, Spitze), u. a. in der Form eines Kursors (wie z. B. eines Kreuzchens oder eines Pfeilchens), in dem Brillensichtsgerät präsentieren,
  • – wobei kann man nur 2 Koordinaten des Arbeitsfingerstops (bzw. des Mittels-Stäbchenstops), und zwar in der Fläche der Gadgetsbildschirmsfläche bestimmen, ohne Berücksichtigung des Vertikalabstandes des Arbeitsfingers (Mittel-Stäbchens) von der Gadgetsbildschirmsfläche,
  • – wobei u. a. bei der Ausführung der „Vergrößerung” und der „Verkleinerung” – Funktionen kann auch ein Image eines zweiten Fingers (oder seines Tops) in dem Brillensichtgerät vorübergehend erscheinen, nachdem man mit diesem Finger, neben den Arbeitsfinger, den Bildschirm (Display) des Gadgets berührt hat,
  • – wobei u. a. können als Arbeitsfinger ein Zeigefinger, und als die o. g. zweite Finger ein Großfinger benutzt werden,
  • – wobei kann das Top des Arbeitsfingers (bzw. des Mittel-Stäbchens mit dem irgendwelchen Markierer (u. a. magnetischen, elektrostatischen, optischen, etc.), markiert werden um die Position des o. g. Tops zu indizieren,
  • – wobei kann man anstatt einen Finger, die mehreren, bis zu 10, Arbeitsfinger indizieren, nach den Raumpositionen bestimmen und für die Steuerung des Systems nutzen.
  • – wobei kann man u. a. das o. g. imaginäre Bild nur vor einem von den 2 Augen generieren, wofür u. a. kann man eine visuelle Information z. B. in den Aufsatz übertragen, der an einem von 2 Brillengläsern aufgesetzt ist,
  • – wobei kann das o. g. imaginäre Bild u. a. wie das ganze Gesichtfeld besetzen, als auch nur ein Teil des ganzen Gesichtfelds besetzen, wobei wird das Restteil des Gesichtsfeldes für die Ansehung der Umgebung geblieben, oder kann das Gesichtfeld mit den mehreren imaginären Bilder besetzt werden, welche Bilder können u. a. auch von den mehreren Quellen (u. a. von den mehreren Gadgets) in den Brillensichtgerät übertragt werden.
In another embodiment, in which visual information is presented to, among other things, the interactive interactive touch-sensitive screen (display) of a gadget (eg, a smartphone or an ipad), and this visual information is provided by a finger (hereafter referred to as as a "working finger" called) or by an intermediate body, for. As sticks or needle, hereinafter referred to as "center-sticks"), edited, what is touched by means of the above working finger or the center-rod the corresponding virtual image (including icons) or the virtual buttons (or any other interactive fields) on this screen, or the information is presented on any, inter alia, non-interactive screen, wherein
  • - This visual information is presented at the same time immediately before the eyes as an imaginary (virtual: aerial image, image except the screen) image, for what
  • - This above visual information is transmitted from a gadget in a viewing device, which display device placed in the glasses (or in the article on the glasses, or in the other essay on the head, or in the contact lenses) (this viewing device is hereinafter referred to as "glasses viewing device"),
  • - And at the same time each position (space coordinates or 2D coordinates in the screen area) of the above working finger (or an above-center rod, or only its parts, or only the lower top (end, tip) of the above working finger or means Rod) determined by means of a special device, and this information is transmitted via this position in the above-mentioned eyeglass view device in the real-time (Real-Time) regime,
  • - where a virtual image of this working finger or this center-stick is placed on the image that is transmitted to the glasses view device of the gadget display (ie with the other words that the above two images: (the first of the gadget display, and the 2-th - from the working finger (or center-stick) position with respect to the gadget display) in which the glasses vision device are superimposed in one image,
  • - where you can present instead of the working finger (or the center-stick) only a virtual image of his top (endchen, top), including in the form of a cursor (such as a cross or a little arrow), in the eyewear .
  • Wherein one can only determine 2 coordinates of the working finger stop (or center stick stop), in the area of the gadget screen area, without taking into account the vertical distance of the working finger (center rod) from the gadget screen area,
  • - Among other things, in the execution of the "magnification" and the "reduction" - functions, an image of a second finger (or its top) in the eyeglass view device may appear temporarily, after using this finger, next to the working finger, the screen (display) touched the gadget,
  • - where among other things can be used as a working finger an index finger, and as the above-mentioned second finger a large finger,
  • - where the top of the working finger (or the center rod with the any marker (including magnetic, electrostatic, optical, etc.) can be marked to index the position of the above top,
  • - where you can instead of one finger, which index several, up to 10, finger fingers, determine the spatial positions and use for the control of the system.
  • - where you can generate, inter alia, the above-mentioned imaginary picture only in front of one of the 2 eyes, for what you can, among other things, a visual information z. B. transferred to the essay, which is placed on one of 2 lenses,
  • - where the above-mentioned imaginary picture can occupy, like the whole field of view, as well as occupy only a part of the whole field of view, whereby the remaining part of the field of view is left to the environment, or the field of view can be occupied with the several imaginary pictures, which Among other things, images can also be transferred from the multiple sources (including the multiple gadgets) to the glasses-viewing device.

In einem Ausführungsbeispiel wird die visuelle Information an den physikalischen berührungsempfindlichen Bildschirm nach Anspruch 1 eines Gadgets nicht präsentiert, und wird die visuelle Information durch die Berührung eines physikalischen Bildschirm nach Anspruch 1 nicht gesteuert, und anstatt

  • – wird jede Position (Raumkoordinaten oder 2D-Koordinaten in einigen Fläche) des Arbeitsfingers (bzw. der mehreren Finger, bzw. eines Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder der Arbeitsfinger oder Mittel-Stäbchens) mittels einer Sondereinrichtung bestimmt, und wird diese Information über diese Position in das Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt,
  • – wobei wird ein virtuelles Image dieses Arbeitsfingers oder dieser Arbeitsfinger bzw. dieses Mittel-Stäbchens an das Bild aufgelegt, das in das Brillensichtgerät von dem Gadjet übertragt ist (d. h. mit den anderen Worte, dass die o. g. zwei Images: (das erste- vom Gadget, und das 2-te – von der Arbeitsfinger-(bzw. Mittel-Stäbchen)-Raumposition), in dem Brillensichtgerät in einem Bild übereinandergelegt sind,
  • – somit wird das ganze System durch die Finger-gesteuerte Operationen mit dem virtuellen, imaginären, aerial-image-artigen, „in Lüft hängenden” interaktiven Bild gesteuert.
In one embodiment, the visual information is not presented to the physical touch-sensitive screen of claim 1 of a gadget, and the visual information is not controlled by the touch of a physical screen according to claim 1, and instead
  • - becomes each position (space coordinates or 2D coordinates in some area) of the working finger (or the more fingers, or a central rod, or only its parts, or only the lower top (end, tip) of the above working finger or the working finger or middle stick) is determined by means of a special device, and this information is transmitted via this position into the spectacle view device in the real-time regime,
  • - In which a virtual image of this working finger or this working finger or this center-stick is placed on the image that in the The goggle viewfinder of the gadjet is transmitted (ie with the other words that the above two images: (the first-of-the-gadget, and the second-the working-finger (or middle-chopstick) room position) in the glasses-view device are superimposed in a picture,
  • Thus, the whole system is controlled by the finger-controlled operations with the virtual, imaginary, aerial image-like, "hung in the air" interactive image.

In einem Ausführungsbeispiel wird in dem Brillensichtgerät ein virtuelles imaginäres interaktives Image eines Musikkeyboards formiert, somit man mit der virtuellen Klaviatur wie mit der realen Klaviatur eines Keyboards, u. a. auch mit den 10 Finger, spielen kann.In one embodiment, a virtual imaginary interactive image of a music keyboard is formed in the glasses viewing device, thus one with the virtual keyboard as with the real keyboard of a keyboard, u. a. even with the 10 fingers, can play.

In einem Ausführungsbeispiel wird in dem Brillensichtgerät ein virtuelles imaginäres interaktives Image eines PC-keyboards formiert, somit man mit der virtuellen Klaviatur wie mit der realen Klaviatur eines PCs, u. a. auch mit den 10 Finger, operieren kann.In one embodiment, a virtual imaginary interactive image of a PC keyboard is formed in the eyeglass view device, so that one can use the virtual keyboard as well as the real keyboard of a PC, u. a. also with the 10 fingers, can operate.

In einem Ausführungsbeispiel wird die o. g. Sondereinrichtung, (womit wird jede Position (Raumkoordinaten oder 2D-Koordinaten in der Bildschirmflache) des o. g. Arbeitsfingers, (bzw. der Arbeitfinger bzw. eines o. g. Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder Mittel-Stäbchens) bestimmt und wird danach diese Information über diese Position in das o. g. Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt), an der Brillensichtgerät nach Anspruch 1, bzw. an dem irgendwelchen Kopfaufsatz platziert werden,

  • – wobei kann die o. g. Sondereinrichtung u. a. auch an dem Handgelenk oder an dem Gürtel oder an dem irgendwelchen anderen Körperteil, bzw. auch an dem Tisch oder an der irgendwelchen anderen Stütze (Träger) in der nähe von den Arbeitsfinger platziert werden.
In one embodiment, the above-mentioned special device, (which is each position (spatial coordinates or 2D coordinates in the screen area) of the above working finger, (or the working fingers or a above-center rod, or only its parts, or only the lower tops (end piece, tip) of the above-mentioned working finger or middle-rod) and is then transmitted this information about this position in the above-mentioned eyeglass view device in the real-time (real-time) regime), on the eyeglass view device according to claim 1, or on which any headgear is placed,
  • - In which the above-mentioned special device can also be placed on the wrist or on the belt or on any other body part, or also on the table or on any other support (support) near the working fingers.

In einem Ausführungsbeispiel wird die visuelle Information an den physikalischen berührungsempfindlichen Bildschirm nach Anspruch 1 eines Gadgets nicht präsentiert, und wird die visuelle Information durch die Berührung eines physikalischen Bildschirm nach Anspruch 1 nicht gesteuert, und anstatt

  • – wird das ganze System durch einen Touchpad (u. a. wie in einem Laptop) gesteuert.
In one embodiment, the visual information is not presented to the physical touch-sensitive screen of claim 1 of a gadget, and the visual information is not controlled by the touch of a physical screen according to claim 1, and instead
  • - The whole system is controlled by a touchpad (like a laptop).

In einem Ausführungsbeispiel wird das o. g. Gadget bei dem Ausschaltung, oder bei Ladung, oder nach Ablauf einer anstelbaren Zeitperiode komplett oder teilweise blockiert, und bei Einschaltung bzw. für die weitere Nutzung platziert man sein Auge vor der Videokamera, wird die visuelle Information über die Auge (u. a. über dem Augenboden) durch Gadget oder seine Teile elektronisch analisiert, und mit vorher abgegebenen Information (Bild) vergleicht, danach wird das Gadget nur dann vollfunktionsfähig, falls die neugegebenen visuellen Information mit der vorher abgegebenen Information übereinstimmt.In one embodiment, the o. G. Gadget at the power-off, or on charge, or after the expiration of an adjustable time period, completely or partially blocked, and at start-up or for further use, one places his eye in front of the video camera, the visual information about the eye (including the floor of the eye) electronically analyzed by gadget or its parts, and compared with previously submitted information (picture), then the gadget will only be fully functional if the newly added visual information matches the previously given information.

In einem Ausführungsbeispiel einen Verfahren zur Präsentierung und Bearbeitung der Information realisiert, bei dem entweder ein Stereoklang (Stereo-akustische Schall, engl.-Stereosound) in Kopfhörer (headpfones), oder ein Stereo(3D)-Bild, oder beide, präsentiert sind,
wobei:

  • – a) wird der perspektivische Einstellung („aspect to the observer”) eines 3D-Bildes abhängig von der Kopfposition (oder Kopfpositionsänderungen oder Kopfbewegungen) bzw. Augenpositionen (oder Augenpositionsänderungen oder Augenbewegungen), an der Bildschirm (oder in einem Sichtgerät) präsentiert, d. h. wenn dreht oder nickt man der Kopf bzw. wenn ändert man die Position seines Kopfs, wird eine perspektivische Einstellung eines Bildes an der Bildschirm bzw. eines imaginäres Bilds in Sichtgerät auch entsprechend geändert, oder/und
  • – b) wird eine Verhältnis des akustischen Parameters (u. a. Lautstärkeverhältnis) in dem linken und rechten Kopfhörer geändert, abhängig von der der Kopfposition bzw. Augenpositionen in Hinsicht zu imaginären Schallquelle an den Bildschirm (in den imaginären Bild), d. h. u. a. wenn dreht oder nickt man der Kopf bzw. wenn ändert man die Position seines Kopfs, bzw. wenn ändert sich eine virtuelle Position einer virtuellen Schallquelle, wird u. a. auch die Schallstärkeverhältnis in den linken und in den rechten Kopfhörer entsprechend geändert, wie es (Schallstärkeverhältnisänderung) u. a. bei den realen Kopfbewegungen in Hinsicht zu den realen Schallquellenpositionen passiert sollte.
In one embodiment, a method of presenting and editing the information is realized, where either stereo sound (stereo acoustic sound) in headphones (headpfones), or a stereo (3D) image, or both, are presented,
in which:
  • A) the aspect "to the observer" of a 3D image is presented on the screen (or in a viewer) depending on the head position (or head position changes or head movements) or eye positions (or eye position changes or eye movements), ie, if you turn or nod your head or if you change the position of his head, a perspective setting of an image on the screen or an imaginary image in display unit is also changed accordingly, or / and
  • - b) a ratio of the acoustic parameter (ua volume ratio) in the left and right headphones is changed, depending on the head position or eye positions with respect to imaginary sound source on the screen (in the imaginary picture), ie when turning or nodding The head or if you change the position of his head, or if a virtual position of a virtual sound source changes, among other things, the sound intensity ratio in the left and in the right earphones is changed accordingly, as it (sound power ratio change) among other things in the real head movements should happen in relation to the real sound source positions.

In einem Ausführungsbeispiel werden die zusätzliche Vibrationen an dem Kopfaufsatz (u. a. in den o. g. Kopfhörer oder in seinen separaten Teile) generiert, und zwar in seinen oberen oder hinteren Teil, abhängig davon, ob die virtuelle Schallquelle sich von vorne oder hinten dem User (Kopfhörerträger) sich befindet.In one embodiment, the additional vibrations are generated on the headset (eg in the above-mentioned headphones or in its separate parts), in its upper or rear part, depending on whether the virtual sound source is from the front or behind the user (headphone carrier) located.

In einem Ausführungsbeispiel enthält die Enrichtung einen Gadget,
wobei enthält die Einrichtung:

  • 1) Vorrichtung zur Fesstellung und der Position des Augenlöcher (Eyes Pupils) relativ der Nutzerskörper, die enthält a) Eine Vorrichtung zur Feststellung der Position der Augenlöcher relativ zu Kopf (Gesicht) des Nutzers. (Es ist genuck nur 1 Augenloch zu beobachten, weil die beide Augenlöcher bewegen sich gleich.) Deswegen enthält die Einrichtung eine Kamera, die nur an Linken Teil oder an einen rechten Teil der Brille platziert ist; oder besteht die Einrichtung aus der 2 Kameras, die an der beiden linken und rechten Brillenklemmen links und rechts von der linken und rechten Augen platziert sind, oder besteht die Einrichtung aus der 2 Kameras, die in der Nähe von Nasenwurzeln platziert sind, wobei die eine davon beobachtet eine Bewegun der Augenloch in der linke teil des rechtes Auge, und die zweite davon beobachtet eine Bewegung der Augenloch in der rechten Teil des linkes Auge, wobei decken diese 2 Kameras alle Bewegungen der beide Augenlöcher, weil die Bewegungen der Augenlöcher sind ein voneinander definitive abhängig. b) Eine Vorrichtung zur Beobachtung der Knicken und Drehungen (Winken) des Kopfes relativ zu Körper – in horisontalen und vertikalen Ebenen; c) Eine Vorrichtung zu Verarbeitung der Daten aus der o. g. in der Punkten (a) und (b) Einrichtungen, und dadurch zu Feststellung der Augenlöherpositionen relativ zu Körper; d) Eine Vorrichtung für Sammlung und Transfer der Daten aus der o. g. in Punkte (a) und (b) Einrichtungen in der Einrichtung nach Punkt (c). e) Vorrichtung zur Transfer der Daten aus der Einrichtung nach punkt (c) in der gerade unten in der Nechsten Punkt (2) beschriebene Einrichtung
  • 2) Eine Vorrichtung zu Bearbeitung der Information aus der Einrichtungen nach o. g. Punkte c, d und e, und fur Generation eines BildschirmImage, und für Positionierung dieses Images vor der Nutzer abhängig von der momentane Augelöcherpositionen des Nutzers relativ zu Nutzerskörper. Diese Einrichtung kann in der Brillen oder in der Augenkontaktlinsen des Nutzers platziert werden.
  • 3) Eine Vorrichtung zur Beobachtung für eine Nutzerfinge und „Interaktive Felder” an der Bildschirm, wobei kann diese Einrichtung 2 Kameras in der Brillenklemmern links und rechts enthalten. Als der Finger (u. a. rechte oder linke Zeugefinge) des Nutzers befindet sich in der Nähe von der eine interaktive Feld, passiert „Einhaltung” (Zahwat) d. h. Fesstellung das Finger in der Nähe der aktive Feld ist, und Einrichtung informiert darüber mit Zummer oder duch beliebigen anderen bekannten Verfahren (z. B. durch Vergrösserung dieses Feldes oder durch Farben wechsel des Feldes oder einiges Teil oder Punktes diese Feldes), und danach soll der Nutzer bestätigen (u. a. mit der Stimme (Voice) oder durch Drücken einen Kontaktvorrichtung an der Finger u. a. mit dem Großfinger, oder generiert das Gerät eine virtuelle Teil an der virtuellen interaktiven Feld, und muss der Nutzer dieses Teil mit zwei Finger (u. a. mit dem Großfinger und Zeigefinger) fassen, was ist entweder mit der Kamera (die Kameras) an der Brillen fiksiert ist, oder enthält der Nutzer die entsprechender Kontakt-Vorrichtungen an seine Groß- und Zeugefinger, deren Zusammendruck wird als eine Bestätigung des Wals erkannt werden (entsprechend der Fingerdrück an Gadget Ineraktives Feld).
In one embodiment, the device includes a gadget,
where the device contains:
  • 1) Device for detecting and positioning the eyepiece relative to the user's body, which contains a) A device for detecting the position of the eye-holes relative to the head (face) of the user. (It is only possible to observe 1 eye hole because the two eye holes are the same.) Therefore, the device contains a camera that is placed only on the left part or on the right part of the glasses; or the device consists of the 2 cameras placed at the two left and right eyeglass clamps to the left and right of the left and right eyes, or the device consists of the 2 cameras placed near the nasal roots, one of them One of them observes a movement of the eye hole in the left part of the right eye, and the second of which observes a movement of the eye hole in the right part of the left eye, whereby these 2 cameras cover all movements of both eye holes, because the movements of the eye holes are one from another definitely dependent. b) A device for observing the kinks and rotations (waving) of the head relative to the body - in horizontal and vertical planes; c) means for processing the data from the above-mentioned at points (a) and (b) means, and thereby determining the eyeliner positions relative to the body; d) A device for collection and transfer of the data from the above mentioned in points (a) and (b) devices in the device according to point (c). e) Device for transferring the data from the device according to point (c) in the device just described below in the ninth item (2)
  • 2) A device for processing the information from the devices according to the above-mentioned points c, d and e, and for generation of a screen image, and for positioning this image in front of the user depending on the current eye-hole positions of the user relative to the user's body. This device can be placed in the user's glasses or eye contact lenses.
  • 3) An observation device for a user's finger and "Interactive Fields" on the screen, wherein this device may include 2 cameras in the eyeglass clamps left and right. As the user's finger (including right or left hand fingers) is near the interactive field, "observance" (zahwat) occurs, ie, the finger is near the active field, and the device informs with zombie or duch Any other known method (eg by enlarging this field or by changing colors of the field or some part or point of this field), and then the user should confirm (including the voice or by pressing a contact device on the finger Among other things, with the big finger, or the device generates a virtual part on the virtual interactive field, and the user must grasp this part with two fingers (including the big finger and index finger), which is either with the camera (the cameras) on the glasses fiksiert, or contains the user the appropriate contact devices to his large and Zeuefinger whose se-tenant is recognized as a confirmation of the whale t (corresponding to the finger press on gadget ineractive field).

In einem Ausführungsbeispiel des Verfahrens wird das o. g. Gadget bei dem Ausschaltung teilweise blockiert, und bei Einschaltung platziert man sein Auge vor der Videokamera, wird die visuelle Information über die Auge (u. a. über dem Augenboden) durch Gadget oder seine Teile elektronisch analisiert, und mit vorher abgegebenen Information (Bild) vergleicht, danach wird das Gadget nur dann vollfunktionsfähig, falls die neugegebenen visuellen Information mit der vorher abgegebenen Information übereinstimmt.In one embodiment of the method, the o. G. Gadget partially blocked in the elimination, and when you put your eye in front of the video camera, the visual information about the eye (including the bottom of the eye) through the gadget or its parts electronically analyzed, and compared with previously submitted information (image), then the gadget will only become fully functional if the new visual information matches the previously submitted information.

In einem Ausführungsbeispiel des Verfahrens sind entweder ein Stereoklang (Stereo-akustische Schall, engl.-Stereosound) in Kopfhörer (headpfones), oder ein Stereo(3D)-Bild, oder beide, präsentiert, und dabei

  • – a) wird der perspektivische Einstellung („aspect to the observer”) eines 3D-Bildes abhängig von der Kopfposition bzw. Augenpositionen, an der Bildschirm (oder in einem Sichtgerät) präsentiert, d. h. wenn dreht oder nickt man der Kopf bzw. wenn ändert man die Position seines Kopfs, wird eine perspektivische Einstellung eines Bildes an der Bildschirm bzw. eines imaginäres Bilds in Sichtgerät auch entsprechend geändert, oder/und
  • – b) wird eine Verhältnis des akustischen Parameters (u. a. Lautstärkeverhältnis) in dem linken und rechten Kopfhörer geändert, abhängig von der der Kopfposition bzw. Augenpositionen in Hinsicht zu imaginären Schallquelle an den Bildschirm (in den imaginären Bild), d. h. u. a. wenn dreht oder nickt man der Kopf bzw. wenn ändert man die Position seines Kopfs, bzw. wenn ändert sich eine virtuelle Position einer virtuellen Schallquelle, wird u. a. auch die Schallstärkeverhältnis in den linken und in den rechten Kopfhörer entsprechend geändert, wie es (Schallstärkeverhältnisänderung) u. a. bei den realen Kopfbewegungen in Hinsicht zu den realen Schallquellenpositionen passiert sollte.
In one embodiment of the method, either a stereo sound (stereo acoustic sound) in headphones (headpfones), or a stereo (3D) image, or both, are presented, and thereby
  • A) the aspect "to the observer" of a 3D image is presented on the screen (or in a viewer) depending on the head position or positions, ie, the head is rotated or nodded one changes the position of his head, a perspective setting of an image on the screen or an imaginary image in display unit also according to, or / and
  • - b) a ratio of the acoustic parameter (ua volume ratio) in the left and right headphones is changed, depending on the head position or eye positions with respect to imaginary sound source on the screen (in the imaginary picture), ie when turning or nodding The head or if you change the position of his head, or if a virtual position of a virtual sound source changes, among other things, the sound intensity ratio in the left and in the right earphones is changed accordingly, as it (sound power ratio change) among other things in the real head movements should happen in relation to the real sound source positions.

Darüber hinaus soll man u. a. die folgenden 2 Sondernsausführungsbeispiele mehr detailliert beschreiben:

  • 1) Ein übliches Fall eines übliches Kinos oder PC-game, wo geht es um 2D oder 3D Videopräsentation an dem physikalischen Bildschirm, und Stereoaudiopräsentation in der Kopfhörer. Es wird hier eine Verhältnis des akustischen Parameters (u. a. Lautstärkeverhältnis) in dem linken und rechten Kopfhörer geändert, wenn ändert sich eine virtuelle Position einer virtuellen Schallquelle an dem Bildschirm. Z. B. falls fährt eine Auto (d. h. selbstverständlich ein virtuelles Bild eines Autos) in dem Bildschirm von links nach rechts,
  • 2) In einem Ausführungsbeispiel des Verfahrens werden die zusätzliche Vibrationen an dem Kopfaufsatz (u. a. in den Kopfhörer oder in seinen separaten Teile) generiert, und zwar in seinen oberen oder hinteren Teil, abhängig davon, ob die virtuelle Schallquelle sich von vorne oder hinten dem User (Kopfhörerträger) sich befindet.
In addition, the following 2 special implementation examples should be described in more detail:
  • 1) A common case of a common cinema or PC game, where there is 2D or 3D video presentation on the physical screen, and stereo audio presentation in the headphones. Here, a ratio of the acoustic parameter (eg, volume ratio) in the left and right headphones is changed when a virtual position of a virtual sound source changes on the screen. For example, if a car drives (ie, of course, a virtual image of a car) in the screen from left to right,
  • 2) In one embodiment of the method, the additional vibrations are generated at the headgear (eg in the headphones or in its separate parts), in its upper or rear part, depending on whether the virtual sound source is from the front or behind the user (Headphone carrier) is located.

In einem Ausführungsbeispiel des Verfahrens werden bei dem Videoaufnahme auch mehrere (mindestens 3) videokameras (webkams) mit überlappenden Gesichtsfelde, die u. a. auch insgesamt 360° Gesichtfeld leisten können, und eine Einrichtung (u. a. auch PC mit einem entsprechenden software), das bearbeitet die von diesen Kameras gelieferten Videosignalsinformation und stellt diese allgemeine zusammengesammelte Information als eine Bild an dem Bildschirm (oder an dem o. g. Sichtgerät) dar, so dass kann man bei dem Abspielung der Aufnahme die verschiedenen Aussichte (points of view) wählen, auch unabhängig davon, im welchem Richtung ein Kamera-träger sich bewegt und wie diese Kameras in Raum momentan orientiert sind.In one embodiment of the method in the video recording also several (at least 3) video cameras (webkams) with overlapping field of vision, the u. a. can also afford a total of 360 ° field of view, and a device (including, but not limited to, a PC with appropriate software) which processes the video signal information provided by these cameras and presents this general aggregated information as an image on the screen (or on the above-mentioned display device). so that one can select the different views (points of view) when playing the recording, regardless of the direction in which a camera carrier moves and how these cameras are currently oriented in space.

In einem Ausführungsbeispiel des Verfahrens wird ein Stereoklang (Stereo-akustische Schall, engl.-Stereosound) in Kopfhörer (headpfones) präsentiert, wobei

  • – a) wird der perspektivische Einstellung („aspect to the observer”) eines Bildes (u. a. 3D-Bildes) abhängig von der Kopfposition (oder Kopfpositionsänderungen oder Kopfbewegungen) bzw. Augenpositionen (oder Augenpositionsänderungen oder Augenbewegungen), an der Bildschirm (oder in einem Sichtgerät) präsentiert, d. h. wenn dreht oder nickt man der Kopf bzw. wenn ändert man die Position seines Kopfs (und/oder wenn ändert man entsprechend die Position seine Augen), wird eine perspektivische Einstellung eines Bildes an der Bildschirm bzw. eines imaginäres Bilds in Sichtgerät auch entsprechend geändert, oder/und
  • – b) wird eine Verhältnis des akustischen Parameters (u. a. Lautstärkeverhältnis) in dem linken und rechten Kopfhörer geändert, abhängig von der der Kopfposition bzw. Augenpositionen in Hinsicht zu imaginären Schallquelle an den realen Bildschirm eines Komputers (PC, Leptop, Ipad, I-phone, Smartphone etc.) oder in den oben beschriebenen imaginären Bildschirm, d. h. u. a. wenn dreht oder nickt man der Kopf bzw. wenn ändert man die Position seines Kopfs, bzw. wenn ändert sich die Augenposition, d. h. wenn richtet man seine Augen an den anderen Punkt des Bildschirms, bzw. wenn ändert sich eine virtuelle Position einer virtuellen Schallquelle, wird u. a. auch die Schallstärkeverhältnis in den linken und in den rechten Kopfhörer entsprechend geändert, wie es (Schallstärkeverhältnisänderung) u. a. bei den realen Kopfbewegungen (und u. a folglich die Augenpositionsänderung) in Hinsicht zu den realen Schallquellenpositionen passiert sollte. Dieses Ausführungsbeispiel kann wie für einen üblichen Gerät mit einen realen Bildschirm (PC, Leptop, Ipad, I-phone, Smartphone etc.) realisiert werden, als auch für einen oben beschriebenen Gerät mit einen wirtuelen (imaginären) Bildschirm. Die Augenposition kann durch eine Kamera beobachtet werden, und durch Computer (Gadget) analisiert erden, wie ist es in US 14/138,066 , vom Dec. 21, 2013 beschrieben. In einem Ausführungsbeispiel des Verfahrens können die alle oben beschriebenen akustischen Stereoklang-Funktionen mit dem in US 14/138,066 beschriebenen Funktionen zusammen ausgeführt werden. In einem Ausführungsbeispiel des Verfahrens können die alle oben beschriebenen Funktionen, u. a. die Bilde-Präsentation-Funktionen, mit dem in US 14/138,066 beschriebenen Funktionen zusammen ausgeführt werden.
In one embodiment of the method, a stereo sound (stereo-acoustic sound, engl.-stereo sound) is presented in headphones, wherein
  • - (a) the perspective setting ("aspect to the observer") of an image (inter alia 3D image) depends on the head position (or head position changes or head movements) or eye positions (or eye position changes or eye movements) on the screen (or on a screen) If you change the position of his head (and / or if you change the position accordingly his eyes), a perspective adjustment of an image on the screen or an imaginary image in Viewing device also changed accordingly, and / or
  • - b) a ratio of the acoustic parameter (ua volume ratio) is changed in the left and right headphones, depending on the head position or positions with respect to imaginary sound source to the real screen of a computer (PC, Leptop, Ipad, I-phone , Smartphone, etc.) or in the imaginary screen described above, ie when you turn or nod your head or if you change the position of his head, or if the eye position changes, ie if you direct your eyes to the other point of the Screen, or if changes a virtual position of a virtual sound source, among other things, the sound intensity ratio in the left and in the right earphones is changed accordingly, as (sound strength ratio change), inter alia, in the real head movements (and thus, consequently, the eye position change) in Respect to the real sound source positions should happen. This embodiment can be realized as for a conventional device having a real screen (PC, leptop, ipad, I-phone, smartphone, etc.) as well as for a device having a virtual (imaginary) screen as described above. The eye position can be observed through a camera, and grounded by computer (gadget), how is it in US 14 / 138,066 , from Dec. 21, 2013. In one embodiment of the method, all of the acoustic stereo sound features described above may be combined with those described in U.S. Pat US 14 / 138,066 functions described together. In one embodiment of the method, all of the functions described above, including the image presentation functions, may be combined with the functions described in FIG US 14 / 138,066 functions described together.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 14/138066 [0038, 0038, 0038] US 14/138066 [0038, 0038, 0038]

Claims (10)

Verfahren zur Präsentierung und Bearbeitung der Information, bei dem wird eine visuelle Information an den u. a. Interaktiven berührungsempfindlichen (touchable, touch-sensitive) Bildschirm (Display) eines Gadgets (u. a. eines Smartphons oder einer Ipad) präsentiert, und wird diese visuelle Information durch einen Finger (im weiteren als „Arbeitsfinger” genannt) oder durch einen Zwischen-Körper, z. B. Stäbchen oder Nadel, im weiteren als „Mittel-Stäbchen” genannt), bearbeitet, wofür berührt man mittels des o. g. Arbeitsfingers oder des Mittel-Stäbchens die entsprechenden virtuellen Bildchen (u. a. Ikonchen) oder die virtuellen Tasten (oder irgendwelchen anderen interaktiven Felden) an diesem Bildschirm (Display), oder wird die Information an irgendwelchen beliebigen, u. a. nicht interaktiven Bildschirm präsentiert, dadurch gekennzeichnet, dass – wird diese visuelle Information gleichzeitig unmittelbar vor der Augen als imaginäre (virtuelle; engl.: aerial image; Bild außer der Bildschirmfläche) Bild präsentiert, wofür – wird diese o. g. visuelle Information von einem Gadget in ein Sichtgerät übertragt, welches Sichtgerät sich in den Brillen (bzw. in dem Aufsatz an den Brillen, bzw. in dem andersartigen Aufsatz an dem Kopf, bzw. in den Kontaktlinsen) platziert (dieses Sichtgerät wird im weiteren als „Brillensichtgerät” genannt), – und gleichzeitig wird jede Position (Raumkoordinaten oder 2D-Koordinaten in der Bildschirmflache) des o. g. Arbeitsfingers (bzw. eines o. g. Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder Mittel-Stäbchens) mittels einer Sondereinrichtung bestimmt, und wird diese Information über diese Position in das o. g. Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt, – wobei wird ein virtuelles Image dieses Arbeitsfingers bzw. dieses Mittel-Stäbchens an das Bild aufgelegt, das in das Brillensichtgerät von dem Gadjetsdisplay übertragt ist (d. h. mit den anderen Worte, dass die o. g. zwei Images: (das erste- vom Gadgetsdisplay, und das 2-te – von der Arbeitsfinger-(bzw. Mittel-Stäbchen)-Position in Hinsicht zu Gadgetsdisplay), in dem Brillensichtgerät in einem Bild übereinandergelegt sind, – wobei kann man anstatt des Arbeitsfingers (bzw. des Mittel-Stäbchens) nur ein virtuelles Image seines Tops (Endchens, Spitze), u. a. in der Form eines Kursors (wie z. B. eines Kreuzchens oder eines Pfeilchens), in dem Brillensichtsgerät präsentieren, – wobei kann man nur 2 Koordinaten des Arbeitsfingerstops (bzw. des Mittels-Stäbchenstops), und zwar in der Fläche der Gadgetsbildschirmsfläche bestimmen, ohne Berücksichtigung des Vertikalabstandes des Arbeitsfingers (Mittel-Stäbchens) von der Gadgetsbildschirmsfläche, – wobei u. a. bei der Ausführung der „Vergrößerung” und der „Verkleinerung” – Funktionen kann auch ein Image eines zweiten Fingers (oder seines Tops) in dem Brillensichtgerät vorübergehend erscheinen, nachdem man mit diesem Finger, neben den Arbeitsfinger, den Bildschirm (Display) des Gadgets berührt hat, – wobei u. a. können als Arbeitsfinger ein Zeigefinger, und als die o. g. zweite Finger ein Großfinger benutzt werden, – wobei kann das Top des Arbeitsfingers (bzw. des Mittel-Stäbchens mit dem irgendwelchen Markierer (u. a. magnetischen, elektrostatischen, optischen, etc.), markiert werden um die Position des o. g. Tops zu indizieren, – wobei kann man anstatt einen Finger, die mehreren, bis zu 10, Arbeitsfinger indizieren, nach den Raumpositionen bestimmen und für die Steuerung des Systems nutzen. – wobei kann man u. a. das o. g. imaginäre Bild nur vor einem von den 2 Augen generieren, wofür u. a. kann man eine visuelle Information z. B. in den Aufsatz übertragen, der an einem von 2 Brillengläsern aufgesetzt ist, – wobei kann das o. g. imaginäre Bild u. a. wie das ganze Gesichtfeld besetzen, als auch nur ein Teil des ganzen Gesichtfelds besetzen, wobei wird das Restteil des Gesichtsfeldes für die Ansehung der Umgebung geblieben, oder kann das Gesichtfeld mit den mehreren imaginären Bilder besetzt werden, welche Bilder können u. a. auch von den mehreren Quellen (u. a. von den mehreren Gadgets) in den Brillensichtgerät übertragt werden.A method for presenting and editing the information, in which visual information is presented to, inter alia, the interactive touch-sensitive (display) screen of a gadget (including a smartphone or an ipad), and this visual information is transmitted through a finger (hereinafter referred to as "working fingers") or by an intermediate body, for. As sticks or needle, hereinafter referred to as "center-sticks"), edited, what is touched by means of the above working finger or the center-rod the corresponding virtual image (including icons) or the virtual buttons (or any other interactive fields) on this screen (display), or the information is presented on any, inter alia, non-interactive screen, characterized in that - this visual information is at the same time immediately in front of the eyes as imaginary (virtual: aerial image; ) Image, for which - this og visual information is transmitted from a gadget in a viewing device, which display device in the glasses (or in the article on the glasses, or in the other essay on the head, or in the contact lenses ) (this viewing device is hereinafter referred to as a "glasses viewing device"), - and at the same time each Positi on (spatial coordinates or 2D coordinates in the screen area) of the above-mentioned working finger (resp. of an above-center rod, or only its parts, or only the lower top (end, tip) of the above working finger or center rod determined by means of a special device, and this information about this position in the above-mentioned eyeglass view device in the real In this case, a virtual image of this working finger or central rod is transferred to the image transmitted to the eyeglasses viewer from the gadget display (ie with the other words that the above-mentioned two Images: (the first of the gadget display, and the second - of the working finger (or mid-chopstick) position in terms of gadget display) in which eyeglass viewers are superimposed in one image - where you can use instead of the working finger (or the middle stick) only a virtual image of its top (endchen, top), including in the form of a cursor (such as a little cross or a little arrow), present in the spectacle-viewing device, - where you can only 2 coordinates of the working finger stop (resp. of the center-stick stop), in the area of the gadget's screen area, without regard to the vertical distance of the working finger (center-bar) from the gadget's screen area, among other things when performing the "magnification" and "zooming" functions Image of a second finger (or its top) appear in the glasses viewing device temporarily after having touched with this finger, next to the working fingers, the screen (display) of the gadget, - where among other things can work fingers as an index finger, and as the above-mentioned second finger a large finger can be used, - whereby the top of the working finger (or the middle-stick with the any marker (including magnetic, electrostatic, optical, etc.) can be marked to index the position of the above top, - where you can instead of one finger, which index several, up to 10, working fingers, determine the space positions and f r use the control of the system. - where you can generate, inter alia, the above-mentioned imaginary picture only in front of one of the 2 eyes, for what you can, among other things, a visual information z. B. transferred to the essay, which is placed on one of 2 lenses, - where occupy the above imaginary picture, inter alia, like the whole field of view, as well occupy only part of the entire field of view, where the remaining part of the field of view for the appearance of Surroundings, or the field of view can be occupied with the multiple imaginary images, which images can be transferred, among other things, from the multiple sources (including the multiple gadgets) in the glasses viewing device. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass wird die visuelle Information an den physikalischen berührungsempfindlichen Bildschirm nach Oberbegriff der Anspruch 1 eines Gadgets nicht präsentiert, und wird die visuelle Information durch die Berührung eines physikalischen Bildschirm nach Oberbegriff der Anspruch 1 nicht gesteuert, und anstatt – wird jede Position (Raumkoordinaten oder 2D-Koordinaten in einigen Fläche) des Arbeitsfingers (bzw. der mehreren Finger, bzw. eines Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder der Arbeitsfinger oder Mittel-Stäbchens) mittels einer Sondereinrichtung bestimmt, und wird diese Information über diese Position in das Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt, – wobei wird ein virtuelles Image dieses Arbeitsfingers oder dieser Arbeitfinger bzw. dieses Mittel-Stäbchens an das Bild aufgelegt, das in das Brillensichtgerät von dem Gadjet übertragt ist (d. h. mit den anderen Worte, dass die o. g. zwei Images: (das erste- vom Gadget, und das 2-te – von der Arbeitsfinger-(bzw. Mittel-Stäbchen)-Raumposition), in dem Brillensichtgerät in einem Bild übereinandergelegt sind, – somit wird das ganze System durch die Finger-gesteuerte Operationen mit dem virtuellen, imaginären, aerial-image-artigen, „in Lüft hängenden” interaktiven Bild gesteuert.A method according to claim 1, characterized in that the visual information is not presented to the physical touch screen according to the preamble of claim 1 of a gadget, and the visual information is not controlled by the touch of a physical screen according to the preamble of claim 1, and instead each position (space coordinates or 2D coordinates in some area) of the working finger (or the multiple fingers, or a center-rod, or only its parts, or only the lower top (end, tip) of the above working finger or the working finger or central rod) is determined by means of a special device, and this information is transmitted via this position in the eyeglass view device in the real-time (Real-Time) regime, - wherein is a virtual image of this working finger or this working finger or this Intermediate chopsticks placed on the image, which in the glasses view device of the Gadjet practice rgt is (ie with the other words that the above two images: (the first of the gadget, and the second of the Arbeitfinger- (resp. Mid-stick) space position) in which the glasses view device are superimposed in one image, thus the whole system is controlled by the finger-controlled operations with the virtual, imaginary, controlled aerial image-like, "suspended in the air" interactive image. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass wird in dem Brillensichtgerät ein virtuelles imaginäres interaktives Image eines Musikkeyboards formiert, somit man mit der virtuellen Klaviatur wie mit der realen Klaviatur eines Keyboards, u. a. auch mit den 10 Finger, spielen kann.A method according to claim 2, characterized in that in the spectacle viewing device, a virtual imaginary interactive image of a music keyboard is formed, so you can play with the virtual keyboard as well as the real keyboard of a keyboard, including with the 10 fingers. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass wird in dem Brillensichtgerät ein virtuelles imaginäres interaktives Image eines PC-keyboards formiert, somit man mit der virtuellen Klaviatur wie mit der realen Klaviatur eines PCs, u. a. auch mit den 10 Finger, operieren kann.Method according to claim 2, characterized in that a virtual imaginary interactive image of a PC keyboard is formed in the spectacle vision device, so that one can operate with the virtual keyboard as well as with the real keyboard of a PC, among other things also with the 10 fingers. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass wird die Sondereinrichtung nach Anspruch 1, (womit wird jede Position (Raumkoordinaten oder 2D-Koordinaten in der Bildschirmflache) des o. g. Arbeitsfingers, (bzw. der Arbeitfinger bzw. eines o. g. Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder Mittel-Stäbchens) bestimmt und wird danach diese Information über diese Position in das o. g. Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt), an der Brillensichtgerät nach Anspruch 1, bzw. an dem irgendwelchen Kopfaufsatz platziert werden, – wobei kann die o. g. Sondereinrichtung u. a. auch an dem Handgelenk oder an dem Gürtel oder an dem irgendwelchen anderen Körperteil, bzw. auch an dem Tisch oder an der irgendwelchen anderen Stütze (Träger) in der nähe von den Arbeitsfinger platziert werden.Method according to one of claims 1 to 5, characterized in that the special device according to claim 1, (whereby is each position (spatial coordinates or 2D coordinates in the screen area) of the above working finger, (or the working fingers or a above-mentioned middle Chopsticks, or only its parts, or only the lower top (endchen, top) of the above working finger or middle-chopsticks) determines and then this information about this position in the above-mentioned eyeglass viewfinder in the real-time -Regime transmits), are placed on the spectacle view device according to claim 1, or on the any headgear, - wherein the above-mentioned special device including the wrist or on the belt or on any other body part, or at the table or to be placed on any other support (support) near the working fingers. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass wird die visuelle Information an den physikalischen berührungsempfindlichen Bildschirm nach Oberbegriff der Anspruch 1 eines Gadgets nicht präsentiert, und wird die visuelle Information durch die Berührung eines physikalischen Bildschirm nach Oberbegriff der Anspruch 1 nicht gesteuert, und anstatt – wird das ganze System durch einen Touchpad (u. a. wie in einem Laptop) gesteuert.A method according to claim 1, characterized in that the visual information is not presented to the physical touch screen according to the preamble of claim 1 of a gadget, and the visual information is not controlled by the touch of a physical screen according to the preamble of claim 1, and instead The whole system is controlled by a touchpad (like a laptop). Verfahren nach dem Oberbegriff des Anspruchs 1 oder nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass wird das o. g. Gadget bei dem Ausschaltung teilweise blockiert, und bei Einschaltung platziert man sein Auge vor der Videokamera, wird die visuelle Information über die Auge (u. a. über dem Augenboden) durch Gadget oder seine Teile elektronisch analisiert, und mit vorher abgegebenen Information (Bild) vergleicht, danach wird das Gadget nur dann vollfunktionsfähig, falls die neugegebenen visuellen Information mit der vorher abgegebenen Information übereinstimmt.Method according to the preamble of claim 1 or according to one of claims 1 to 6, characterized in that the above-mentioned gadget is partially blocked in the elimination, and when you place your eye in front of the video camera, the visual information about the eye (ua above the floor of the eye) is electronically analyzed by the gadget or its parts, and compared with previously submitted information (picture), then the gadget becomes fully functional only if the newly given visual information matches the previously given information. Verfahren zur Präsentierung und Bearbeitung der Information, u. a. auch nach einem der Ansprüche 1 bis 7, bei dem entweder ein Stereoklang (Stereo-akustische Schall, engl.-Stereosound) in Kopfhörer (headpfones), oder ein Stereo(3D)-Bild, oder beide, präsentiert sind, dadurch gekennzeichnet, dass – a) wird der perspektivische Einstellung („aspect to the observer”) eines 3D-Bildes abhängig von der Kopfposition (oder Kopfpositionsänderungen oder Kopfbewegungen) bzw. Augenpositionen (oder Augenpositionsänderungen oder Augenbewegungen), an der Bildschirm (oder in einem Sichtgerät) präsentiert, d. h. wenn dreht oder nickt man der Kopf bzw. wenn ändert man die Position seines Kopfs, wird eine perspektivische Einstellung eines Bildes an der Bildschirm bzw. eines imaginäres Bilds in Sichtgerät auch entsprechend geändert, oder/und – b) wird eine Verhältnis des akustischen Parameters (u. a. Lautstärkeverhältnis) in dem linken und rechten Kopfhörer geändert, abhängig von der der Kopfposition bzw. Augenpositionen in Hinsicht zu imaginären Schallquelle an den Bildschirm (in den imaginären Bild), d. h. u. a. wenn dreht oder nickt man der Kopf bzw. wenn ändert man die Position seines Kopfs, bzw. wenn ändert sich eine virtuelle Position einer virtuellen Schallquelle, wird u. a. auch die Schallstärkeverhältnis in den linken und in den rechten Kopfhörer entsprechend geändert, wie es (Schallstärkeverhältnisänderung) u. a. bei den realen Kopfbewegungen in Hinsicht zu den realen Schallquellenpositionen passiert sollte.Method for presenting and processing the information, among others also according to one of claims 1 to 7, in which either a stereo sound (stereo-acoustic sound, engl.-stereo sound) in headphones (headpones), or a stereo (3D) image, or both are presented, characterized in that - a) the aspect "to the observer" of a 3D image is dependent on the head position (or head position changes or head movements) or eye positions (or eye position changes or eye movements) on the Screen (or in a display unit) presented, ie when you turn or nod your head or if you change the position of his head, a perspective setting of an image on the screen or an imaginary image in the display device is also changed accordingly, or / and - b) a ratio of the acoustic parameter (ua volume ratio) in the left and right headphones is changed, depending on the Head position or eye positions with respect to imaginary sound source to the screen (in the imaginary picture), ie when you turn or nod your head or if you change the position of his head, or if a virtual position of a virtual sound source changes Among other things, the sound intensity ratio in the left and in the right earphones changed accordingly, as it should (sound strength ratio change), among other things, in the real head movements with respect to the real sound source positions happened. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass werden die zusätzliche Vibrationen an dem Kopfaufsatz (u. a. in den Kopfhörer oder in seinen separaten Teile) generiert, und zwar in seinen oberen oder hinteren Teil, abhängig davon, ob die virtuelle Schallquelle sich von vorne oder hinten dem User (Kopfhörerträger) sich befindet.A method according to claim 8, characterized in that the additional vibrations are generated at the headgear (eg in the headphones or in its separate parts), in its upper or rear part, depending on whether the virtual sound source is from the front or the back the user (headphone carrier) is located. Einrichtung zu Realisierung des Verfahrens nach eine der Ansprüche 1–9, wobei enthält die Enrichtung einen Gadget, dadurch gekennzeichnet, dass enthält die Einrichtung 1) Einrichtung zur Fesstellung und der Position des Augenlöcher (Eyes Pupils) relativ der Nutzerskörper, die enthält a) Eine Einrichtung zur Feststellung der Position der Augenlöcher relativ zu Kopf (Gesicht) des Nutzers. (Es ist genuck nur 1 Augenloch zu beobachten, weil die beide Augenlöcher bewegen sich gleich.) Deswegen enthält die Einrichtung eine Kamera, die nur an Linken Teil oder an einen rechten Teil der Brille platziert ist; oder besteht die Einrichtung aus der 2 Kameras, die an der beiden linken und rechten Brillenklemmen links und rechts von der linken und rechten Augen platziert sind, oder besteht die Einrichtung aus der 2 Kameras, die in der Nähe von Nasenwurzeln platziert sind, wobei die eine davon beobachtet eine Bewegun der Augenloch in der linke teil des rechtes Auge, und die zweite davon beobachtet eine Bewegung der Augenloch in der rechten Teil des linkes Auge, wobei decken diese 2 Kameras alle Bewegungen der beide Augenlöcher, weil die Bewegungen der Augenlöcher sind ein voneinander definitive abhängig. b) Eine Einrichtung zur Beobachtung der Knicken und Drehungen (Winken) des Kopfes relativ zu Körper – in horisontalen und vertikalen Ebenen; c) Eine Einrichtung zu Verarbeitung der Daten aus der o. g. in der Punkten (a) und (b) Einrichtungen, und dadurch zu Feststellung der Augenlöherpositionen relativ zu Körper; d) Eine Einrichtung für Sammlung und Transfer der Daten aus der o. g. in Punkte (a) und (b) Einrichtungen in der Einrichtung nach Punkt (c). e) Einrichtung zur Transfer der Daten aus der Einrichtung nach Punkt (c) in der gerade unten in der Nechsten Punkt (2) beschriebene Einrichtung 2) Eine Einrichtung zu Bearbeitung der Information aus der Einrichtungen nach o. g. Punkte c, d und e, und fur Generation eines Bildschirmimage, und für Positionierung dieses Images vor der Nutzer abhängig von der momentane Augelöcherpositionen des Nutzers relativ zu Nutzerskörper. Diese Einrichtung kann in der Brillen oder in der Augenkontaktlinsen des Nutzers platziert werden. 3) Eine Einrichtung zur Beobachtung für eine Nutzerfinge und „Interaktive Felder” an der Bildschirm, wobei kann diese Einrichtung 2 Kameras in der Brillenklemmern links und rechts enthalten. Als der Finger (u. a. rechte oder linke Zeugefinge) des Nutzers befindet sich in der Nähe von der eine interaktive Feld, passiert „Einhaltung” (Zahwat) d. h. Fesstellung das Finger in der Nähe der aktive Feld ist, und Einrichtung informiert darüber mit Zummer oder duch beliebigen anderen bekannten Verfahren (z. B. durch Vergrösserung dieses Feldes oder durch Farben wechsel des Feldes oder einiges Teil oder Punktes diese Feldes), und danach soll der Nutzer bestätigen (u. a. mit der Stimme (Voice) oder durch Drücken einen Kontaktvorrichtung an der Finger u. a. mit dem Großfinger, oder generiert das Gerät eine virtuelle Teil an der virtuellen interaktiven Feld, und muss der Nutzer dieses Teil mit zwei Finger (u. a. mit dem Großfinger und Zeigefinger) fassen, was ist entweder mit der Kamera (die Kameras) an der Brillen fiksiert ist, oder enthält der Nutzer die entsprechender Kontakt-Vorrichtungen an seine Groß- und Zeugefinger, deren Zusammendruck wird als eine Bestätigung des Wals erkannt werden (entsprechend der Fingerdrück an Gadget Ineraktives Feld).Device for implementing the method according to one of claims 1-9, wherein the device comprises a gadget, characterized in that the device 1) comprises means for detecting and the position of the eyelet (s) of the user's body, which contains a) a Device for determining the position of the eye holes relative to the head (face) of the user. (It is only possible to observe 1 eye hole because the two eye holes move alike.) Therefore, the device contains a camera that is placed only on the left part or on the right part of the glasses; or is the device composed of the 2 cameras placed on the two left and right eyeglass clips left and right of the left and right eyes, or is the device made the 2 cameras that are placed near the nasal roots, one of which observes a movement of the eye hole in the left part of the right eye, and the second of which observes a movement of the eye hole in the right part of the left eye, covering this 2 cameras all movements of both eye holes, because the movements of the eye holes are dependent on each other definitive. b) means for observing the kinking and rotation (waving) of the head relative to the body - in horizontal and vertical planes; c) means for processing the data from the above-mentioned items (a) and (b) means, and thereby determining the eyeliner positions relative to the body; d) A facility for collection and transfer of data from the above-mentioned items (a) and (b) facilities in the institution according to item (c). e) means for transferring the data from the device according to item (c) in the device just described below in the ninth item (2) 2) means for processing the information from the devices according to the above points c, d and e, and fur Generation of a screen image, and for positioning this image in front of the user depending on the current eye-hole positions of the user relative to user's body. This device can be placed in the user's glasses or eye contact lenses. 3) An observation device for a user's finger and "interactive fields" on the screen, wherein this device may include 2 cameras in the eyeglass clamps on the left and right. As the user's finger (including right or left hand fingers) is near the interactive field, "observance" (zahwat) occurs, ie, the finger is near the active field, and the device informs with zombie or duch Any other known method (eg by enlarging this field or by changing colors of the field or some part or point of this field), and then the user should confirm (including the voice or by pressing a contact device on the finger Among other things, with the big finger, or the device generates a virtual part on the virtual interactive field, and the user must grasp this part with two fingers (including the big finger and index finger), which is either with the camera (the cameras) on the glasses fiksiert, or contains the user the appropriate contact devices to his large and Zeuefinger whose se-tenant is recognized as a confirmation of the whale t (corresponding to the finger press on gadget ineractive field).
DE102015009113.1A 2015-07-19 2015-07-19 Method and device for presenting the information Withdrawn DE102015009113A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015009113.1A DE102015009113A1 (en) 2015-07-19 2015-07-19 Method and device for presenting the information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015009113.1A DE102015009113A1 (en) 2015-07-19 2015-07-19 Method and device for presenting the information

Publications (1)

Publication Number Publication Date
DE102015009113A1 true DE102015009113A1 (en) 2017-01-19

Family

ID=57630309

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015009113.1A Withdrawn DE102015009113A1 (en) 2015-07-19 2015-07-19 Method and device for presenting the information

Country Status (1)

Country Link
DE (1) DE102015009113A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114721576A (en) * 2020-12-18 2022-07-08 华为技术有限公司 Finger touch operation display method and device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114721576A (en) * 2020-12-18 2022-07-08 华为技术有限公司 Finger touch operation display method and device

Similar Documents

Publication Publication Date Title
US11467709B2 (en) Mixed-reality guide data collection and presentation
EP2989524B1 (en) Method for interacting with an object displayed on data eyeglasses
DE69434843T2 (en) Head-mounted image display device and data processing system incorporating the same
DE202017105262U1 (en) Create virtual notation surfaces with gestures in an augmented and / or virtual reality environment
US20190122440A1 (en) Content display property management
WO2022022028A1 (en) Virtual object control method and apparatus, and device and computer-readable storage medium
DE202017105307U1 (en) Switching active objects in an augmented reality and / or virtual reality environment
DE202016008297U1 (en) Two-handed object manipulations in virtual reality
DE102014019637B4 (en) Display switching method, data processing method and electronic device
US20210183132A1 (en) Intelligent Stylus Beam and Assisted Probabilistic Input to Element Mapping in 2D and 3D Graphical User Interfaces
DE202017104928U1 (en) Manipulate virtual objects using six-degree-of-freedom controllers in augmented or virtual reality environments
DE102017119812A1 (en) DRAWING VIRTUAL ELEMENTS OF AN ADVANCED AND / OR VIRTUAL REALITY ENVIRONMENT
DE102014019631A1 (en) Electronic device and procurement control process
WO2015173271A2 (en) Method for displaying a virtual interaction on at least one screen and input device, system and method for a virtual application by means of a computing unit
DE202017006742U1 (en) Input device stabilization techniques for virtual reality systems
DE202017105283U1 (en) Session end detection in an augmented and / or virtual reality environment
CN205195880U (en) Watch equipment and watch system
DE102019218787A1 (en) METHOD, DEVICE AND SYSTEM FOR GENERATING OFFERS ASSOCIATED WITH A PRESENTATION OF AN ARTICLE
DE102014114131A1 (en) Information processing and electronic device
DE112019002798T5 (en) INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
DE102022110363A1 (en) METHOD AND APPARATUS FOR DEBUGGING PROGRAM EXECUTION AND CONTENT PLAYBACK
EP3012712A1 (en) Virtual drawing in real environment
WO2024064828A1 (en) Gestures for selection refinement in a three-dimensional environment
DE102015009113A1 (en) Method and device for presenting the information
DE112020000573T5 (en) VIEWING REPRESENTATIONS OF ENVIRONMENTS

Legal Events

Date Code Title Description
R086 Non-binding declaration of licensing interest
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee