DE102015009113A1 - Method and device for presenting the information - Google Patents
Method and device for presenting the information Download PDFInfo
- Publication number
- DE102015009113A1 DE102015009113A1 DE102015009113.1A DE102015009113A DE102015009113A1 DE 102015009113 A1 DE102015009113 A1 DE 102015009113A1 DE 102015009113 A DE102015009113 A DE 102015009113A DE 102015009113 A1 DE102015009113 A1 DE 102015009113A1
- Authority
- DE
- Germany
- Prior art keywords
- finger
- image
- gadget
- screen
- working
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Verfahren zur Präsentierung und Bearbeitung der Information, bei dem wird eine visuelle Information an den u. a. Interaktiven berührungsempfindlichen (touchable, touch-sensitive) Bildschirm (Display) eines Gadgets (u. a. eines Smartphons oder einer Ipad) präsentiert, und wird diese visuelle Information durch einen Finger (im weiteren als „Arbeitsfinger” genannt) oder durch einen Zwischen-Körper, z. B. Stäbchen oder Nadel, im weiteren als „Mittel-Stäbchen” genannt), bearbeitet, wofür berührt man mittels des o. g. Arbeitsfingers oder des Mittel-Stäbchens die entsprechenden virtuellen Bildchen (u. a. Ikonchen) oder die virtuellen Tasten (oder irgendwelchen anderen interaktiven Felden) an diesem Bildschirm (Display), oder wird die Information an irgendwelchen beliebigen, u. a. nicht interaktiven Bildschirm präsentiert,
dadurch gekennzeichnet, dass
– wird diese visuelle Information gleichzeitig unmittelbar vor der Augen als imaginäre (virtuelle; engl.: aerial image; Bild außer der Bildschirmfläche) Bild präsentiert, wofür
– wird diese o. g. visuelle Information von einem Gadget in ein Sichtgerät übertragt, welches Sichtgerät sich in den Brillen (bzw. in dem Aufsatz an den Brillen, bzw. in dem andersartigen Aufsatz an dem Kopf, bzw. in den Kontaktlinsen) platziert (dieses Sichtgerät wird im weiteren als „Brillensichtgerät” genannt),
– und gleichzeitig wird jede Position (Raumkoordinaten oder 2D-Koordinaten in der Bildschirmflache) des o. g. Arbeitsfingers (bzw. eines o. g. Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder Mittel-Stäbchens) mittels einer Sondereinrichtung bestimmt, und wird diese Information über diese Position in das o. g. Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt,
– wobei wird ein virtuelles Image dieses Arbeitsfingers bzw. dieses Mittel-Stäbchens an das Bild aufgelegt, das in das Brillensichtgerät von dem Gadjetsdisplay übertragt ist (d. h. mit den anderen Worte, dass die o. g. zwei Images: (das erste- vom Gadgetsdisplay, und das 2-te – von der Arbeitsfinger-(bzw. Mittel-Stäbchen)-Position in Hinsicht zu Gadgetsdisplay), in dem Brillensichtgerät in einem Bild übereinandergelegt sind,
– wobei kann man anstatt des Arbeitsfingers (bzw. des Mittel-Stäbchens) nur ein virtuelles Image seines Tops (Endchens, Spitze), u. a. in der Form eines Kursors (wie z. B. eines Kreuzchens oder eines Pfeilchens), in dem Brillensichtsgerät präsentieren,
– wobei kann man nur 2 Koordinaten des Arbeitsfingerstops (bzw. des Mittels-Stäbchenstops), und zwar in der Fläche der Gadgetsbildschirmsfläche bestimmen, ohne Berücksichtigung des Vertikalabstandes des Arbeitsfingers (Mittel-Stäbchens) von der Gadgetsbildschirmsfläche,
– wobei u. a. bei der Ausführung der „Vergrößerung” und der „Verkleinerung” – Funktionen kann auch ein Image eines zweiten Fingers (oder seines Tops) in dem Brillensichtgerät vorübergehend erscheinen, nachdem man mit diesem Finger, neben den Arbeitsfinger, den Bildschirm (Display) des Gadgets berührt hat,
– wobei u. a. können als Arbeitsfinger ein Zeigefinger, und als die o. g. zweite Finger ein Großfinger benutzt werden,
– wobei kann das Top des Arbeitsfingers (bzw. des Mittel-Stäbchens mit dem irgendwelchen Markierer (u. a. magnetischen, elektrostatischen, optischen, etc.), markiert werden um die Position des o. g. Tops zu indizieren,
– wobei kann man anstatt einen Finger, die mehreren, bis zu 10, Arbeitsfinger indizieren, nach den Raumpositionen bestimmen und für die Steuerung des Systems nutzen. ...A method for presenting and editing the information, in which visual information is presented to, inter alia, the interactive touch-sensitive (display) screen of a gadget (including a smartphone or an ipad), and this visual information is transmitted through a finger (hereinafter referred to as "working fingers") or by an intermediate body, for. As sticks or needle, hereinafter referred to as "center-sticks"), edited, what is touched by means of the above working finger or the center-rod the corresponding virtual image (including icons) or the virtual buttons (or any other interactive fields) on this screen (display), or the information is presented on any, inter alia, non-interactive screen,
characterized in that
- This visual information is presented at the same time immediately before the eyes as an imaginary (virtual: aerial image, image except the screen) image, for what
- This above visual information is transmitted from a gadget in a viewing device, which display device placed in the glasses (or in the article on the glasses, or in the other essay on the head, or in the contact lenses) (this viewing device is hereinafter referred to as "glasses viewing device"),
- And at the same time each position (space coordinates or 2D coordinates in the screen area) of the above working finger (or an above-center rod, or only its parts, or only the lower top (end, tip) of the above working finger or means Rod) determined by means of a special device, and this information is transmitted via this position in the above-mentioned eyeglass view device in the real-time (Real-Time) regime,
- where a virtual image of this working finger or this center-stick is placed on the image that is transmitted to the glasses view device of the gadget display (ie with the other words that the above two images: (the first of the gadget display, and the 2-th - from the working finger (or center-stick) position with respect to the gadget display) in which the glasses vision device are superimposed in one image,
- where you can present instead of the working finger (or the center-stick) only a virtual image of his top (endchen, top), including in the form of a cursor (such as a cross or a little arrow), in the eyewear .
Wherein one can only determine 2 coordinates of the working finger stop (or center stick stop), in the area of the gadget screen area, without taking into account the vertical distance of the working finger (center rod) from the gadget screen area,
- Among other things, in the execution of the "magnification" and the "reduction" - functions, an image of a second finger (or its top) in the eyeglass view device may appear temporarily, after using this finger, next to the working finger, the screen (display) touched the gadget,
- where among other things can be used as a working finger an index finger, and as the above-mentioned second finger a large finger,
- where the top of the working finger (or the center rod with the any marker (including magnetic, electrostatic, optical, etc.) can be marked to index the position of the above top,
- where you can instead of one finger, which index several, up to 10, finger fingers, determine the spatial positions and use for the control of the system. ...
Description
Es sind die Smartfons (u. a. I-Phone) sowie tablett-PCs (u. a. Ipad) mit den interaktiven Bildschirmen weit bekannt, die zum Stand der Technik gehören. Es gibt auch die übliche tragbaren elektronischen Geräte, wie z. B. Mobiltelefons sowie Laptops mit den nicht-interaktiven Bildschirmen und nicht-virtuellen Klaviatur bekannt. Wie bekannt, gibt es die zwei zusammenausschließenden Erfordernisse zu diesen Geräte, und zwar:
Einerseits, für eine bessere Tragbarkeit, muss das ganzes Gerät möglichst klein sein, und folglich, muss auch sein Bildschirm (Display) klein sein. Anderseits, muss der Bildschirm möglichst groß sein, um mehr Information zu enthalten, die der User lesen und bearbeiten könnte. Derselbe gilt auch für die Klaviatur, (wie für die Physikalischen, als auch für die virtuellen Klaviatur an den interaktiven Bildschirmen, welche Klaviatur muss einerseits möglichst klein sein, aber anderseits muss diese Klaviatur nach seine kleine Große noch verwendbar sein.Smartphones (including I-phones) and tablet PCs (including Ipad) with the interactive screens well known in the art are widely known. There are also the usual portable electronic devices such. As mobile phones and laptops with the non-interactive screens and non-virtual keyboard known. As is known, there are two exclusive requirements for these devices, namely:
On the one hand, for better portability, the whole device must be as small as possible, and consequently, its screen also has to be small. On the other hand, the screen must be as large as possible to contain more information that the user could read and edit. The same applies to the keyboard, (as for the physical as well as for the virtual keyboard on the interactive screens, which keyboard must on the one hand be as small as possible, but on the other hand, this keyboard must still be usable after its small size.
Der in den Patentansprüchen 1 bis 6 angegebenen Erfindung liegt das Problem zugrunde, den Verfahren zu ermöglichen, womit konnte man eine große interaktive Bild sowie Klaviatur sehen, nutzen und interaktive bearbeiten, ohne dafür einen großen physikalischen Gerät zu tragen.The invention specified in the claims 1 to 6, the invention is based on the problem of enabling the method, which could see a large interactive image and keyboard, use and edit interactive, without having to carry a large physical device.
Dieses Problem wird durch die in den Patentansprüchen 1 bis 6 aufgeführten Merkmale gelöst.This problem is solved by the features listed in the patent claims 1 to 6.
Die mit der Erfindung erzielten Forteile bestehen insbesondere darin, dass eine Möglichkeit der Operierung mit einem großen imaginären interaktiven Bild als auch mit einer großen imaginären interaktiven Klaviatur erreicht wird, unabhängig von der Große eines physikalisches elektronisches Geräts, das diese o. g. Operationen ermöglicht.The advantages achieved by the invention are, in particular, that a possibility of operating with a large imaginary interactive image as well as with a large imaginary interactive keyboard is achieved, regardless of the size of a physical electronic device that this o. G. Operations possible.
Definition: Im weiteren unter „Gadget” versteht man I-Phone oder irgendwelche andere Smartfon, Mobiltelephon, I-Pad, I-pod, irgendwelhe Tablett-PC, auch ein Laptop, irgendwelche PC und irgendwelche elektronische Gerät, das die PC-Funktionen ausführen kann.Definition: Further, "gadget" means I-phone or any other smart phone, mobile phone, I-pad, I-pod, any tablet PC, even a laptop, any PC and any electronic device that performs the PC functions can.
Eine vorteilhafte Ausgestaltung der Erfindung ist in dem Patentanspruch 7 angegeben. Die Weiterbildung nach diesem Patentanspruch ermöglicht es, eine sichere Nutzung eines Smartfons (bzw. irgendwelches anderes Gadgets) nur durch die dafür zugelassenen Personen.An advantageous embodiment of the invention is specified in the patent claim 7. The development according to this claim makes it possible to safely use a smart phone (or any other gadgets) only by the authorized persons.
Eine weitere vorteilhafte Ausgestaltung der Erfindung ist in den Patentansprüchen 8 und 9 bis angegeben. Die Weiterbildung nach diesen Patentansprüchen ermöglicht es, die verschiedenen verbesserten Ausführungen der 3D-Images und stereoakustischen Darstellungen darzustellen.A further advantageous embodiment of the invention is specified in the
Einige Ausführungsbeispiele der Erfindung werden im folgenden näher beschrieben.Some embodiments of the invention will be described in more detail below.
In einem Ausführungsbeispiel des Verfahrens wird eine visuelle Information an den Interaktiven berührungsempfindlichen (touchable, touch-sensitive) Bildschirm (Display) eines Gadgets präsentiert, und wird diese visuelle Information durch einen Finger (im weiteren als „Arbeitsfinger” genannt) oder durch einen Zwischen-Körper, z. B. Stäbchen oder Nadel, im weiteren als „Mittel-Stäbchen” genannt), bearbeitet, wofür berührt man mittels des o. g. Arbeitsfingers oder des Mittel-Stäbchens die entsprechenden virtuellen Bildchen (u. a. Ikonchen) oder die virtuellen Tasten an diesem Bildschirm (Display). Darüber hinaus wird diese visuelle Information gleichzeitig unmittelbar vor der Augen als imaginäre (virtuelle; engl.: aerial image; Bild außer der Bildschirmfläche) Bild präsentiert, wofür wird diese o. g. visuelle Information von einem Gadget in ein Sichtgerät übertragt, welches Sichtgerät sich in den Brillen (bzw. in dem Aufsatz an den Brillen, bzw. in dem andersartigen Aufsatz an dem Kopf, bzw. in den Kontaktlinsen) platziert (dieses Sichtgerät wird im weiteren als „Brillensichtgerät” genannt).In one embodiment of the method, visual information is presented to the interactive touch-sensitive (display) screen of a gadget, and this visual information is provided by a finger (hereafter referred to as a "working finger") or by an intermediary Body, z. As sticks or needle, hereinafter referred to as "middle-sticks"), edited, what is touched by means of o. G. Working finger or the center-stick the corresponding virtual images (including icons) or the virtual buttons on this screen (display). In addition, this visual information is simultaneously presented immediately in front of the eyes as an imaginary (virtual: aerial image, picture except the screen area) image, what does this og g. transmits visual information from a gadget in a viewing device, which display device placed in the glasses (or in the article on the glasses, or in the other essay on the head, or in the contact lenses) (this viewer is hereinafter referred to as Called "glasses viewing device").
Und gleichzeitig wird jede Position (Raumkoordinaten oder 2D-Koordinaten in der Bildschirmflache) des o. g. Arbeitsfingers (bzw. eines o. g. Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder Mittel Stäbchens) mittels einer Sondereinrichtung bestimmt, und wird diese Information über diese Position in das o. g. Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt, wobei wird ein virtuelles Image dieses Arbeitsfingers bzw. dieses Mittel-Stäbchens an das Bild aufgelegt, das in das Brillensichtgerät von dem Gadjetsdisplay übertragt ist (d. h. mit den anderen Worte, dass die o. g. zwei Images: (das erste- vom Gadgetsdisplay, und das 2-te – von der Arbeitsfinger-(bzw. Mittel-Stäbchen)-Position in Hinsicht zu Gadgetsdisplay), in dem Brillensichtgerät in einem Bild übereinandergelegt sind. Hier kann man anstatt des Arbeitsfingers (bzw. des Mittel-Stäbchens) nur ein virtuelles Image seines Tops (Endchens, Spitze), u. a. in der Form eines Kursors (wie z. B. eines Kreuzchens oder eines Pfeilchens), in dem Brillensichtsgerät präsentieren, wobei kann man nur 2 Koordinaten des Arbeitsfingerstops (bzw. des Mittels-Stäbchenstops), und zwar in der Fläche der Gadgetsbildschirmsfläche bestimmen, ohne Berücksichtigung des Vertikalabstandes des Arbeitsfingers (Mittel-Stäbchens) von der Gadgetsbildschirmsfläche.And at the same time, each position (space coordinates or 2D coordinates in the screen area) of the above-mentioned g. Working finger (or an above-mentioned middle stick, or only its parts, or only the lower top (little end, tip) of the above-mentioned working finger or means rod) determined by means of a special device, and this information about this position in the o. Brillens view device in the real-time (Real-Time) regime transmits, where a virtual image of this working finger or this center-stick is placed on the image that is transmitted to the glasses view device from the gadget display (ie with the other words that the above two images: (the first of the gadget display, and the second - of the working finger (or middle-chopsticks) position in terms of gadget display) in which glasses are placed in a picture superimposed of the working finger (or the center-stick) only a virtual image of his top (endchen, top), including in the form of a cursor (such as a cross or a little arrow), present in the eyewear, where you can only Determine 2 coordinates of the working finger stop (or center stick stop), in the area of the gadget screen area, without taking into account the vertical distance of the working finger (center rod) of d he gadget screen.
Dabei u. a. bei der Ausführung der „Vergrößerung” und der „Verkleinerung” – Funktionen kann auch ein Image eines zweiten Fingers (oder seines Tops) in dem Brillensichtgerät vorübergehend erscheinen, nachdem man mit diesem Finger, neben den Arbeitsfinger, den Bildschirm (Display) des Gadgets berührt hat, wobei u. a. können als Arbeitsfinger ein Zeigefinger, und als die o. g. zweite Finger ein Großfinger benutzt werden. Hier kann das Top des Arbeitsfingers (bzw. des Mittel-Stäbchens mit dem irgendwelchen Markierer (u. a. magnetischen, elektrostatischen, optischen, etc.), markiert werden um die Position des o. g. Tops zu indizieren, wobei kann man anstatt einen Finger, die mehreren, bis zu 10, Arbeitsfinger indizieren, nach den Raumpositionen bestimmen und für die Steuerung des Systems nutzen.Among other things, when performing the "magnification" and the "reduction" - functions can Also, an image of a second finger (or its top) in the eyeglass viewing device temporarily appear after having touched with this finger, next to the working finger, the screen (display) of the gadget, whereby among other things can work finger as an index finger, and as the above-mentioned second Finger a big finger can be used. Here, the top of the working finger (or the center rod with the any marker (including magnetic, electrostatic, optical, etc.), marked to index the position of the above top, where you can instead of a finger, the several, up to 10, index working fingers, determine according to the room positions and use for the control of the system.
Dabei kann man u. a. das o. g. imaginäre Bild nur vor einem von den 2 Augen generieren, wofür u. a. kann man eine visuelle Information z. B. in den Aufsatz übertragen, der an einem von 2 Brillengläsern aufgesetzt ist. Und dabei kann das o. g. imaginäre Bild u. a. wie das ganze Gesichtfeld besetzen, als auch nur ein Teil des ganzen Gesichtfelds besetzen, wobei wird das Restteil des Gesichtsfeldes für die Ansehung der Umgebung geblieben, oder kann das Gesichtfeld mit den mehreren imaginären Bilder besetzt werden, welche Bilder können u. a. auch von den mehreren Quellen (u. a. von den mehreren Gadgets) in den Brillensichtgerät übertragt werden.You can u. a. the o. g. generate imaginary image just before one of the 2 eyes, for which u. a. can one visual information z. B. transferred to the essay, which is placed on one of 2 lenses. And this is the o. G. imaginary picture u. a. as occupy the whole field of view, as occupy only a part of the whole field of view, whereby the remaining part of the field of view for the respect of the environment remained, or can the field of view with the several imaginary pictures occupied, which pictures can u. a. be transferred from the multiple sources (including the multiple gadgets) in the spectacle view device.
In diesem Verfahren kann die visuelle Information an den physikalischen berührungsempfindlichen Bildschirm eines Gadgets nicht präsentiert werden, und kann die visuelle Information durch die Berührung eines physikalischen Bildschirm nicht gesteuert werden, und anstatt kann jede Position (Raumkoordinaten oder 2D-Koordinaten in einigen Fläche) des Arbeitsfingers (bzw. der mehreren Finger, bzw. eines Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder der Arbeitsfinger oder Mittel-Stäbchens) mittels einer Sondereinrichtung bestimmt werden, und wird diese Information über diese Position in das Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt. Somit wird ein virtuelles Image dieses Arbeitsfingers oder dieser Arbeitfinger bzw. dieses Mittel-Stäbchens an das Bild aufgelegt, das in das Brillensichtgerät von dem Gadjet übertragt ist (d. h. mit den anderen Worte, dass die o. g. zwei Images: (das erste- vom Gadget, und das 2-te – von der Arbeitsfinger-(bzw. Mittel-Stäbchen)-Raumposition), in dem Brillensichtgerät in einem Bild übereinandergelegt sind,
und somit wird das ganze System durch die Finger-gesteuerte Operationen mit dem virtuellen, imaginären, aerial-image-artigen, „in Lüft hängenden” interaktiven Bild gesteuert.In this method, the visual information can not be presented to the physical touch-sensitive screen of a gadget, and the visual information can not be controlled by the touch of a physical screen, and instead, any position (space coordinates or 2D coordinates in some area) of the working finger (or the plurality of fingers, or a central rod, or only its parts, or only the lower top (end piece, tip) of the above working finger or the working fingers or center-rod) are determined by means of a special device, and will transmits this information about this position to the eyeglasses viewer in the real-time regime. Thus, a virtual image of this working finger or this working finger or this center-stick is placed on the image that is transmitted to the goggle-viewing device of the gadjet (ie with the other words that the above two images: (the first of the gadget, and the second-from-the-working-finger (or middle-stick) -space position) in which the glasses vision device are superimposed in one image,
and thus the whole system is controlled by the finger-controlled operations with the virtual, imaginary, aerial-image-like, "hung in the air" interactive image.
In einem Ausführungsbeispiel des Verfahrens wird in dem o. g. Brillensichtgerät ein virtuelles imaginäres interaktives Image eines Musikkeyboards formiert, somit man mit der virtuellen Klaviatur wie mit der realen Klaviatur eines Keyboards, u. a. auch mit den 10 Finger, spielen kann.In one embodiment of the method, in the o. G. Brillensive device forms a virtual imaginary interactive image of a music keyboard, so you with the virtual keyboard as the real keyboard of a keyboard, u. a. even with the 10 fingers, can play.
In einem Ausführungsbeispiel des Verfahrens wird in dem Brillensichtgerät ein virtuelles imaginäres interaktives Image eines PC-keyboards formiert, somit man mit der virtuellen Klaviatur wie mit der realen Klaviatur eines PCs, u. a. auch mit den 10 Finger, operieren kann.In one embodiment of the method, a virtual imaginary interactive image of a PC keyboards is formed in the glasses viewing device, thus one with the virtual keyboard as the real keyboard of a PC, u. a. also with the 10 fingers, can operate.
In einem Ausführungsbeispiel des Verfahrens wird jede Position (Raumkoordinaten oder 2D-Koordinaten in der Bildschirmflache) des o. g. Arbeitsfingers, (bzw. der Arbeitfinger bzw. eines o. g. Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder Mittel-Stäbchens) bestimmt und wird danach diese Information über diese Position in das o. g. Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt), an der Brillensichtgerät bzw. an dem irgendwelchen Kopfaufsatz platziert werden, wobei kann die o. g. Sondereinrichtung u. a. auch an dem Handgelenk oder an dem Gürtel oder an dem irgendwelchen anderen Körperteil, bzw. auch an dem Tisch oder an der irgendwelchen anderen Stütze (Träger) in der nähe von den Arbeitsfinger platziert werden.In one embodiment of the method, each position (space coordinates or 2D coordinates in the screen area) of the o. G. Arbeitsfingers, (or the working fingers or an above-center rod, or only its parts, or only the lower top (endchen, top) of the above working finger or center-rod) determines and then this information about this position in the above In the real-time regime), are placed on the eyeglass vision apparatus or on any headgear, where the above mentioned may be placed on the eyepiece viewer. Special equipment u. a. also be placed on the wrist or on the belt or on any other body part, or also on the table or on any other support (support) near the working fingers.
In einem Ausführungsbeispiel des Verfahrens wird die visuelle Information an den physikalischen berührungsempfindlichen Bildschirm nach Oberbegriff der Anspruch 1 eines Gadgets nicht präsentiert, und wird die visuelle Information durch die Berührung eines physikalischen Bildschirm nach Oberbegriff der Anspruch 1 nicht gesteuert, und anstatt
- – wird das ganze System durch einen Touchpad (u. a. wie in einem Laptop) gesteuert.
- - The whole system is controlled by a touchpad (like a laptop).
Ein mögliches Ausführungsbeispiel der Erfindung ist in der
- – ein Smartfon (oder I-pad, oder ein anderes Gadget)
1 mit einem interaktiven Bildschirm2 , der durch die Berührung einerSpitze 3 eines Fingers4 (oder der zwei Spitzen der zwei Finger) wie üblich gesteuert werden kann, - – eine Vorrichtung
5 für Identifizierung (Feststellung) einer Lokalisation der Spitze des Fingers in Beziehung auf den Bildschirm2 (d. h. für die Feststellung über welchen Punkt des Bildschirms2 eine Spitze des Fingers oder Spitze des Mittel-Stäbchens) sich momentan befindet); wobei diese Vorrichtung5 (im weiterem als „Lokalisationssuchgerät” genannt) kann an der Smartfon (I-pad, Gadget etc.)1 wie fest montiert sein, als auch als eine Abnehmbarer Vorrichtung ausgeführt werden kann; - – eine Vorrichtung
6 , die die visuelle Information, die am Bildschirm2 erscheint, gleichzeitig unmittelbar vor der Augen13 als imaginäre (virtuelle; engl.: aerial image; Bild außer der Bildschirmfläche) Bild7 präsentiert, wofür wird diese o. g. visuelle Information von einem Gerät1 in dieses Vorrichtung (Sichtgerät)6 durchKabel 8 oder drahtlos (wireless) übertragt, welches Sichtgerät6 sich in den Brillen9 (bzw. in dem Aufsatz an den Brillen, bzw. in dem andersartigen Aufsatz an dem Kopf, bzw. in den Kontaktlinsen unmittelbar an der Augen) platziert (dieses Sichtgerät wird, wie oben geschrieben, hier als „Brillensichtgerät”6 genannt); wobei das Brillensichtgerät”6 mit zwei separaten elektrischen Input versehen werden kann, um die verschiedene Videoinformationen vor der linken und rechten Augen darstellen, und somit eine 3D-visuelle Bilddarstellung zu schaffen; - – eine elektronische Einrichtung
10 , die die Lokalisation der Spitze des Fingers in Bezug auf der Bildschirm2 in einer elektronische Form umwandelt und in einem o. g. visuellen Image (imaginären Bild7 ) als eine Fingerspitze oder als einKursor 14 so präsentiert, dass seine Lokalisation genau dem Punkt in dem Bild entspricht, über welchem Punkt über den Bildschirm2 diese Fingerspitze (oder Mittel-Stäbchenspitze) sich physikalisch befindet; (Die Funktionen dieses o. g. elektronischen Einrichtung10 kann wie ein extra-Chip ausführen als auch kann diese Funktion durch den Hauptrechner des Gerätes1 teilweise oder komplett ausgeführt werden; - – eine elektronische Einrichtung
11 , die die Koordinaten des Fingerspitzes bzw. des Mittel-Stäbchens (in Bezug auf den interaktiven Bildschirm2 ) in eine elektronischen Form umwandelt, und vergrößert einen Abschnitt des Bildes dieses, der in der Bildschirmsflache unmittelbar unter der Fingerspitze (oder Mittel-Stäbchenspitze) sich befindet, wobei kann diese lokale Bildvergrößerung auch durch den Brillensichtsgerät5 in den Bild7 unter den Kursor dargestellt werden. (Die Funktionen dieses o. g. elektronischen Einrichtung11 kann wie ein extra-Chip ausführen als auch kann diese Funktion durch den Hauptrechner des Gerätes1 teilweise oder komplett ausgeführt werden; - – eine elektronische Einrichtung
12 , die die verschiedene visuelle Information zu den linken und rechten Teilen des Brillensichtgerät6 schickt, um eine 3D-Bild vor den Augen zu schaffen. (Die Funktionen dieses o. g. elektronischen Einrichtung12 kann wie ein extra-Chip ausführen als auch kann diese Funktion durch den Hauptrechner des Gerätes1 teilweise oder komplett ausgeführt werden;; - –
ein Verbindungskabel 8 , der ein Gerät1 mit dem Brillensichtgerät6 elektrisch verbindet, und die dasselbe oder ähnliche Bild wie in der Bildschirm2 erscheint, auch in der Brillensichtgerät6 als o. g. Bild7 durch die Übertragung der elektrischen Signalen gleichzeitig darstellt, zusammen mit dem Image eines Kursors, die die Lokalisation des Fingerspitzes3 (oder Mittel-Stäbchenspitzes3 ) in Bezug auf der Bildschirm2 zeigt;
- - a smart phone (or I-pad, or another gadget)
1 with an interactive screen2 that by the touch of a tip3 a finger4 (or the two tips of the two fingers) can be controlled as usual - - a device
5 for identifying a location of the tip of the finger in relation to the screen2 (ie for determining which point of the screen2 a tip of the finger or tip of the center-stick is currently located); this device5 (in the following as "localization searcher" called) can at the Smartfon (I-pad, gadget etc.)1 as fixedly mounted, as well as being executable as a detachable device; - - a device
6 Showing the visual information on the screen2 appears at the same time right in front of the eyes13 as an imaginary (virtual: aerial image, picture except the screen) image7 presents, what is the above visual information of a device1 in this device (display device)6 by cable8th or wirelessly transmits which display device6 in the glasses9 (or in the attachment to the glasses, or in the other article on the head, or in the contact lenses directly to the eyes) placed (this viewer is, as written above, here as a "glasses viewing device"6 called); whereby the spectacle view device "6 can be provided with two separate electrical input to represent the different video information in front of the left and right eyes, and thus to create a 3D visual image display; - - an electronic device
10 Showing the location of the tip of the finger in relation to the screen2 transformed in an electronic form and in an og visual image (imaginary image7 ) as a fingertip or as acursor 14 presented so that its location corresponds exactly to the point in the picture, above which point across the screen2 this fingertip (or center-stick tip) is physically located; (The functions of this above electronic device10 can run like an extra chip as well as can this function through the main computer of the device1 be carried out partially or completely; - - an electronic device
11 representing the coordinates of the fingertip and the center-bar (with respect to the interactive screen2 ) converts to an electronic form and enlarges a portion of the image that is in the screen area immediately under the fingertip (or center-point tip), and this local image magnification can also be magnified by the eyewitness5 in the picture7 under the cursor. (The functions of this above electronic device11 can run like an extra chip as well as can this function through the main computer of the device1 be carried out partially or completely; - - an electronic device
12 showing the various visual information to the left and right parts of the glasses view device6 sends to create a 3D image in front of the eyes. (The functions of this above electronic device12 can run like an extra chip as well as can this function through the main computer of the device1 be carried out partially or completely; - - a connection cable
8th who is a device1 with the glasses view device6 electrically connects, and the same or similar picture as in the screen2 appears, even in the glasses-view device6 as above picture7 represented by the transmission of electrical signals simultaneously, together with the image of a cursor, the localization of the fingertip3 (or mean-chopstick-tip3 ) in terms of the screen2 shows;
In einem Ausführungsbeispiel wird die virtuellen Image der Bildschirm
Falls dreht (winkt) der Nutzer
In einem anderen Ausführungsbeispiel der Erfindung gibt es keine Beobachtung der Augenlöcherpositionen, d. h. enthält das System keine Kameras bzw. Sensors oder irgendwelchen anderen Einrichtungen für die Beobachtung der Augenlöcherpositionen des Nutzers. Das System beobachtet aber die Kopfposition, d. h. wie der Nutzer sein Kopf dreht (winkt) nach links und nach rechts relativ zu eine vertikale Achse; und wie der Nutzer den Kopf biegt nach unten und wieder nach oben (relativ zu Achse, die durch die linke und rechte Schulter
Wichtig ist, dass das Fenster mit der Inhalt des Displays (d. h. der oben beschriebenen virtuellen Image) nur eine Teil des gesamtes Ansichtes nimmt, und auch dass bleibt diese Fenster aus der Blickpoint des Nutzers immer in einem Platz relativ zu den Nutzerskörper, wann bewegt der Nutzer sein Kopf und seine Augenlöcher. Somit kann der Nutzer immer die reale Umgebung
In einem anderen Ausführungsbeispiel, dagegen, alle Gesichtfeld des Nutzers mit einem virtuellen Diplay belegt ist, (wie ist es u. a. in der Komputerspiele stattfindet, wo man die Brille oder Helme Nutzt). Somit kann der Nutzer sich grundsätzlich nicht sicher frei und weit bewegen, weil sieht er nur einen virtuellen Realität, aber keine reale Umgebung. Um das Problem der Freibewegung zu lösen, soll der Komputer die reale Umgebungsumstände beobachten und analisieren, und in der virtuellen Realität einbauen. In diesem fall fixiert die an dem Nutzer platzierte Kamera auch die Umgebung (Lndschaft, Hindernisse, Zimmer- bzw. Raumdiemensionen und Zimmer- bzw. Raumausstatung, alle Dinge in der Zimmer bzw. in der Umgebung), und überhaupt alle Arte der Hindernisse, weiter sind diese Ümstände in der Komputer transferieret, danach bearbeitet der Komputer diese Information und integriert diese o. g. Hindernisse in der virtuelle Realität, der zum Nutzer durch die Displaybrille gezeigt ist. Darüber hinaus können diese Dinge und Hindernisse entweder in einen optisch untransformierten Form in der Virtuellen Realität integriert werden, oder können diese optisch in irgendwelche andere Dingen oder Hindernisse oder Personen oder Tiere u. s. w. tranformiert werden, die aber dieselbe Dimensionen und ggf. Bewegungsparameter haben. Z. b. kann der Nutzer einen modernen Komputer tisch als einen Mittelalter-Tisch oder als einen Tier sehen, der aber dieselbe Dimensionen hat, und somit soll man dieses Raumstück bei Bewegung umgehen, unabhängig davon was man in diesem Raumstück sieht. In diesem Ausführungsbeispiel kann man die Komputer Spiele auch im unbeschrenkten Bewegungsregime nutzen, u. a. z. B. real in einem realen Landschaft laufen, Fahrrad fahren, Autofahren, wobei aber sieht der Nutzer keine reale Umgebung, sondern eine Virtuelle Umgebung, wobei sind die reale Objekte und Hindernisse (inklusive u. a. Strassenkonture (Roadway Contours) sind in der virtuellen Realität unverändert oder in irgendwelchen veränderten Form eingebaut (integriert) sind. Z. B. als lauft man durch den Wald in der o. g. Bildschirm, die das ganse reale Ansicht blockiert, kann er das Laufweg mit alle Hindernisse und die Baume sehen, aber anstatt die Hindernisse in dem Form der Kleinwürzeln kann er z. B. die Drakonen sehen, die derselbe Masse und Dimensionen haben, und z. B. die fantastische Tiere an der Beume sehen. Als fährt man das Auto, kann er z. B. anstatt eines realen Strassenkontour eines Autodroms einen fantastischen Landschaft, aber mit derselben Kontoure sehen.In another embodiment, however, all the user's field of view is occupied by a virtual diploma (as is the case in computer games, where one uses the glasses or helmets). Thus, the user can not move freely and move safely, because he sees only a virtual reality, but no real environment. In order to solve the problem of the free movement, the computer should observe and analyze the real environment conditions, and install it in the virtual reality. In this case, the camera placed on the user also fixes the environment (landscape, obstacles, room or room dimensions and room or room furnishing, all things in the room or in the surrounding area), and in general all kinds of obstacles If these circumstances are transferred to the computer, then the computer processes this information and integrates these above-mentioned obstacles in the virtual reality that are shown to the user through the display goggles. Moreover, these things and obstacles can either be integrated into a visually untransformed form in virtual reality, or they can be visually transformed into any other things or obstacles or people or animals, etc., but having the same dimensions and possibly motion parameters. Z. b. For example, the user can see a modern computer table as a medieval table or as an animal, but with the same dimensions, and thus one should bypass this piece of space when moving, no matter what you see in this room piece. In this embodiment, the computer games can also be used in the unrestricted movement regime, such as running real in a real landscape, cycling, driving, but the user sees no real environment, but a virtual environment, where are the real objects and obstacles (including road contours) are unchanged in virtual reality or built (integrated) in any modified form, for example, as you walk through the forest in the above screen, which blocks the ganse real view, he can walk the path with all See obstacles and the trees, but instead of the obstacles in the form of the small spice he can z. For example, see the dracones that have the same mass and dimensions, and z. For example, see the fantastic animals on the Beume. As one drives the car, he can z. For example, instead of looking at a real road contour of a car stream, you can see a fantastic landscape, but with the same account.
In einem anderen Ausführungsbeispiel, bei dem wird eine visuelle Information an den u. a. Interaktiven berührungsempfindlichen (touchable, touch-sensitive) Bildschirm (Display) eines Gadgets (u. a. eines Smartphons oder einer Ipad) präsentiert, und wird diese visuelle Information durch einen Finger (im weiteren als „Arbeitsfinger” genannt) oder durch einen Zwischen-Körper, z. B. Stäbchen oder Nadel, im weiteren als „Mittel-Stäbchen” genannt), bearbeitet, wofür berührt man mittels des o. g. Arbeitsfingers oder des Mittel-Stäbchens die entsprechenden virtuellen Bildchen (u. a. Ikonchen) oder die virtuellen Tasten (oder irgendwelchen anderen interaktiven Felden) an diesem Bildschirm (Display), oder wird die Information an irgendwelchen beliebigen, u. a. nicht interaktiven Bildschirm präsentiert, wobei
- – wird diese visuelle Information gleichzeitig unmittelbar vor der Augen als imaginäre (virtuelle; engl.: aerial image; Bild außer der Bildschirmfläche) Bild präsentiert, wofür
- – wird diese o. g. visuelle Information von einem Gadget in ein Sichtgerät übertragt, welches Sichtgerät sich in den Brillen (bzw. in dem Aufsatz an den Brillen, bzw. in dem andersartigen Aufsatz an dem Kopf, bzw. in den Kontaktlinsen) platziert (dieses Sichtgerät wird im weiteren als „Brillensichtgerät” genannt),
- – und gleichzeitig wird jede Position (Raumkoordinaten oder 2D-Koordinaten in der Bildschirmflache) des o. g. Arbeitsfingers (bzw. eines o. g. Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder Mittel-Stäbchens) mittels einer Sondereinrichtung bestimmt, und wird diese Information über diese Position in das o. g. Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt,
- – wobei wird ein virtuelles Image dieses Arbeitsfingers bzw. dieses Mittel-Stäbchens an das Bild aufgelegt, das in das Brillensichtgerät von dem Gadjetsdisplay übertragt ist (d. h. mit den anderen Worte, dass die o. g. zwei Images: (das erste- vom Gadgetsdisplay, und das 2-te – von der Arbeitsfinger-(bzw. Mittel-Stäbchen)-Position in Hinsicht zu Gadgetsdisplay), in dem Brillensichtgerät in einem Bild übereinandergelegt sind,
- – wobei kann man anstatt des Arbeitsfingers (bzw. des Mittel-Stäbchens) nur ein virtuelles Image seines Tops (Endchens, Spitze), u. a. in der Form eines Kursors (wie z. B. eines Kreuzchens oder eines Pfeilchens), in dem Brillensichtsgerät präsentieren,
- – wobei kann man nur 2 Koordinaten des Arbeitsfingerstops (bzw. des Mittels-Stäbchenstops), und zwar in der Fläche der Gadgetsbildschirmsfläche bestimmen, ohne Berücksichtigung des Vertikalabstandes des Arbeitsfingers (Mittel-Stäbchens) von der Gadgetsbildschirmsfläche,
- – wobei u. a. bei der Ausführung der „Vergrößerung” und der „Verkleinerung” – Funktionen kann auch ein Image eines zweiten Fingers (oder seines Tops) in dem Brillensichtgerät vorübergehend erscheinen, nachdem man mit diesem Finger, neben den Arbeitsfinger, den Bildschirm (Display) des Gadgets berührt hat,
- – wobei u. a. können als Arbeitsfinger ein Zeigefinger, und als die o. g. zweite Finger ein Großfinger benutzt werden,
- – wobei kann das Top des Arbeitsfingers (bzw. des Mittel-Stäbchens mit dem irgendwelchen Markierer (u. a. magnetischen, elektrostatischen, optischen, etc.), markiert werden um die Position des o. g. Tops zu indizieren,
- – wobei kann man anstatt einen Finger, die mehreren, bis zu 10, Arbeitsfinger indizieren, nach den Raumpositionen bestimmen und für die Steuerung des Systems nutzen.
- – wobei kann man u. a. das o. g. imaginäre Bild nur vor einem von den 2 Augen generieren, wofür u. a. kann man eine visuelle Information z. B. in den Aufsatz übertragen, der an einem von 2 Brillengläsern aufgesetzt ist,
- – wobei kann das o. g. imaginäre Bild u. a. wie das ganze Gesichtfeld besetzen, als auch nur ein Teil des ganzen Gesichtfelds besetzen, wobei wird das Restteil des Gesichtsfeldes für die Ansehung der Umgebung geblieben, oder kann das Gesichtfeld mit den mehreren imaginären Bilder besetzt werden, welche Bilder können u. a. auch von den mehreren Quellen (u. a. von den mehreren Gadgets) in den Brillensichtgerät übertragt werden.
- - This visual information is presented at the same time immediately before the eyes as an imaginary (virtual: aerial image, image except the screen) image, for what
- - This above visual information is transmitted from a gadget in a viewing device, which display device placed in the glasses (or in the article on the glasses, or in the other essay on the head, or in the contact lenses) (this viewing device is hereinafter referred to as "glasses viewing device"),
- - And at the same time each position (space coordinates or 2D coordinates in the screen area) of the above working finger (or an above-center rod, or only its parts, or only the lower top (end, tip) of the above working finger or means Rod) determined by means of a special device, and this information is transmitted via this position in the above-mentioned eyeglass view device in the real-time (Real-Time) regime,
- - where a virtual image of this working finger or this center-stick is placed on the image that is transmitted to the glasses view device of the gadget display (ie with the other words that the above two images: (the first of the gadget display, and the 2-th - from the working finger (or center-stick) position with respect to the gadget display) in which the glasses vision device are superimposed in one image,
- - where you can present instead of the working finger (or the center-stick) only a virtual image of his top (endchen, top), including in the form of a cursor (such as a cross or a little arrow), in the eyewear .
- Wherein one can only determine 2 coordinates of the working finger stop (or center stick stop), in the area of the gadget screen area, without taking into account the vertical distance of the working finger (center rod) from the gadget screen area,
- - Among other things, in the execution of the "magnification" and the "reduction" - functions, an image of a second finger (or its top) in the eyeglass view device may appear temporarily, after using this finger, next to the working finger, the screen (display) touched the gadget,
- - where among other things can be used as a working finger an index finger, and as the above-mentioned second finger a large finger,
- - where the top of the working finger (or the center rod with the any marker (including magnetic, electrostatic, optical, etc.) can be marked to index the position of the above top,
- - where you can instead of one finger, which index several, up to 10, finger fingers, determine the spatial positions and use for the control of the system.
- - where you can generate, inter alia, the above-mentioned imaginary picture only in front of one of the 2 eyes, for what you can, among other things, a visual information z. B. transferred to the essay, which is placed on one of 2 lenses,
- - where the above-mentioned imaginary picture can occupy, like the whole field of view, as well as occupy only a part of the whole field of view, whereby the remaining part of the field of view is left to the environment, or the field of view can be occupied with the several imaginary pictures, which Among other things, images can also be transferred from the multiple sources (including the multiple gadgets) to the glasses-viewing device.
In einem Ausführungsbeispiel wird die visuelle Information an den physikalischen berührungsempfindlichen Bildschirm nach Anspruch 1 eines Gadgets nicht präsentiert, und wird die visuelle Information durch die Berührung eines physikalischen Bildschirm nach Anspruch 1 nicht gesteuert, und anstatt
- – wird jede Position (Raumkoordinaten oder 2D-Koordinaten in einigen Fläche) des Arbeitsfingers (bzw. der mehreren Finger, bzw. eines Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder der Arbeitsfinger oder Mittel-Stäbchens) mittels einer Sondereinrichtung bestimmt, und wird diese Information über diese Position in das Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt,
- – wobei wird ein virtuelles Image dieses Arbeitsfingers oder dieser Arbeitsfinger bzw. dieses Mittel-Stäbchens an das Bild aufgelegt, das in das Brillensichtgerät von dem Gadjet übertragt ist (d. h. mit den anderen Worte, dass die o. g. zwei Images: (das erste- vom Gadget, und das 2-te – von der Arbeitsfinger-(bzw. Mittel-Stäbchen)-Raumposition), in dem Brillensichtgerät in einem Bild übereinandergelegt sind,
- – somit wird das ganze System durch die Finger-gesteuerte Operationen mit dem virtuellen, imaginären, aerial-image-artigen, „in Lüft hängenden” interaktiven Bild gesteuert.
- - becomes each position (space coordinates or 2D coordinates in some area) of the working finger (or the more fingers, or a central rod, or only its parts, or only the lower top (end, tip) of the above working finger or the working finger or middle stick) is determined by means of a special device, and this information is transmitted via this position into the spectacle view device in the real-time regime,
- - In which a virtual image of this working finger or this working finger or this center-stick is placed on the image that in the The goggle viewfinder of the gadjet is transmitted (ie with the other words that the above two images: (the first-of-the-gadget, and the second-the working-finger (or middle-chopstick) room position) in the glasses-view device are superimposed in a picture,
- Thus, the whole system is controlled by the finger-controlled operations with the virtual, imaginary, aerial image-like, "hung in the air" interactive image.
In einem Ausführungsbeispiel wird in dem Brillensichtgerät ein virtuelles imaginäres interaktives Image eines Musikkeyboards formiert, somit man mit der virtuellen Klaviatur wie mit der realen Klaviatur eines Keyboards, u. a. auch mit den 10 Finger, spielen kann.In one embodiment, a virtual imaginary interactive image of a music keyboard is formed in the glasses viewing device, thus one with the virtual keyboard as with the real keyboard of a keyboard, u. a. even with the 10 fingers, can play.
In einem Ausführungsbeispiel wird in dem Brillensichtgerät ein virtuelles imaginäres interaktives Image eines PC-keyboards formiert, somit man mit der virtuellen Klaviatur wie mit der realen Klaviatur eines PCs, u. a. auch mit den 10 Finger, operieren kann.In one embodiment, a virtual imaginary interactive image of a PC keyboard is formed in the eyeglass view device, so that one can use the virtual keyboard as well as the real keyboard of a PC, u. a. also with the 10 fingers, can operate.
In einem Ausführungsbeispiel wird die o. g. Sondereinrichtung, (womit wird jede Position (Raumkoordinaten oder 2D-Koordinaten in der Bildschirmflache) des o. g. Arbeitsfingers, (bzw. der Arbeitfinger bzw. eines o. g. Mittel-Stäbchens, bzw. nur seiner Teile, bzw. nur des unteren Tops (Endchens, Spitze) des o. g. Arbeitsfingers oder Mittel-Stäbchens) bestimmt und wird danach diese Information über diese Position in das o. g. Brillensichtgerät in dem Reale-Zeit(Real-Time)-Regime übertragt), an der Brillensichtgerät nach Anspruch 1, bzw. an dem irgendwelchen Kopfaufsatz platziert werden,
- – wobei kann die o. g. Sondereinrichtung u. a. auch an dem Handgelenk oder an dem Gürtel oder an dem irgendwelchen anderen Körperteil, bzw. auch an dem Tisch oder an der irgendwelchen anderen Stütze (Träger) in der nähe von den Arbeitsfinger platziert werden.
- - In which the above-mentioned special device can also be placed on the wrist or on the belt or on any other body part, or also on the table or on any other support (support) near the working fingers.
In einem Ausführungsbeispiel wird die visuelle Information an den physikalischen berührungsempfindlichen Bildschirm nach Anspruch 1 eines Gadgets nicht präsentiert, und wird die visuelle Information durch die Berührung eines physikalischen Bildschirm nach Anspruch 1 nicht gesteuert, und anstatt
- – wird das ganze System durch einen Touchpad (u. a. wie in einem Laptop) gesteuert.
- - The whole system is controlled by a touchpad (like a laptop).
In einem Ausführungsbeispiel wird das o. g. Gadget bei dem Ausschaltung, oder bei Ladung, oder nach Ablauf einer anstelbaren Zeitperiode komplett oder teilweise blockiert, und bei Einschaltung bzw. für die weitere Nutzung platziert man sein Auge vor der Videokamera, wird die visuelle Information über die Auge (u. a. über dem Augenboden) durch Gadget oder seine Teile elektronisch analisiert, und mit vorher abgegebenen Information (Bild) vergleicht, danach wird das Gadget nur dann vollfunktionsfähig, falls die neugegebenen visuellen Information mit der vorher abgegebenen Information übereinstimmt.In one embodiment, the o. G. Gadget at the power-off, or on charge, or after the expiration of an adjustable time period, completely or partially blocked, and at start-up or for further use, one places his eye in front of the video camera, the visual information about the eye (including the floor of the eye) electronically analyzed by gadget or its parts, and compared with previously submitted information (picture), then the gadget will only be fully functional if the newly added visual information matches the previously given information.
In einem Ausführungsbeispiel einen Verfahren zur Präsentierung und Bearbeitung der Information realisiert, bei dem entweder ein Stereoklang (Stereo-akustische Schall, engl.-Stereosound) in Kopfhörer (headpfones), oder ein Stereo(3D)-Bild, oder beide, präsentiert sind,
wobei:
- – a) wird der perspektivische Einstellung („aspect to the observer”) eines 3D-Bildes abhängig von der Kopfposition (oder Kopfpositionsänderungen oder Kopfbewegungen) bzw. Augenpositionen (oder Augenpositionsänderungen oder Augenbewegungen), an der Bildschirm (oder in einem Sichtgerät) präsentiert, d. h. wenn dreht oder nickt man der Kopf bzw. wenn ändert man die Position seines Kopfs, wird eine perspektivische Einstellung eines Bildes an der Bildschirm bzw. eines imaginäres Bilds in Sichtgerät auch entsprechend geändert, oder/und
- – b) wird eine Verhältnis des akustischen Parameters (u. a. Lautstärkeverhältnis) in dem linken und rechten Kopfhörer geändert, abhängig von der der Kopfposition bzw. Augenpositionen in Hinsicht zu imaginären Schallquelle an den Bildschirm (in den imaginären Bild), d. h. u. a. wenn dreht oder nickt man der Kopf bzw. wenn ändert man die Position seines Kopfs, bzw. wenn ändert sich eine virtuelle Position einer virtuellen Schallquelle, wird u. a. auch die Schallstärkeverhältnis in den linken und in den rechten Kopfhörer entsprechend geändert, wie es (Schallstärkeverhältnisänderung) u. a. bei den realen Kopfbewegungen in Hinsicht zu den realen Schallquellenpositionen passiert sollte.
in which:
- A) the aspect "to the observer" of a 3D image is presented on the screen (or in a viewer) depending on the head position (or head position changes or head movements) or eye positions (or eye position changes or eye movements), ie, if you turn or nod your head or if you change the position of his head, a perspective setting of an image on the screen or an imaginary image in display unit is also changed accordingly, or / and
- - b) a ratio of the acoustic parameter (ua volume ratio) in the left and right headphones is changed, depending on the head position or eye positions with respect to imaginary sound source on the screen (in the imaginary picture), ie when turning or nodding The head or if you change the position of his head, or if a virtual position of a virtual sound source changes, among other things, the sound intensity ratio in the left and in the right earphones is changed accordingly, as it (sound power ratio change) among other things in the real head movements should happen in relation to the real sound source positions.
In einem Ausführungsbeispiel werden die zusätzliche Vibrationen an dem Kopfaufsatz (u. a. in den o. g. Kopfhörer oder in seinen separaten Teile) generiert, und zwar in seinen oberen oder hinteren Teil, abhängig davon, ob die virtuelle Schallquelle sich von vorne oder hinten dem User (Kopfhörerträger) sich befindet.In one embodiment, the additional vibrations are generated on the headset (eg in the above-mentioned headphones or in its separate parts), in its upper or rear part, depending on whether the virtual sound source is from the front or behind the user (headphone carrier) located.
In einem Ausführungsbeispiel enthält die Enrichtung einen Gadget,
wobei enthält die Einrichtung:
- 1) Vorrichtung zur Fesstellung und der Position des Augenlöcher (Eyes Pupils) relativ der Nutzerskörper, die enthält a) Eine Vorrichtung zur Feststellung der Position der Augenlöcher relativ zu Kopf (Gesicht) des Nutzers. (Es ist genuck nur 1 Augenloch zu beobachten, weil die beide Augenlöcher bewegen sich gleich.) Deswegen enthält die Einrichtung eine Kamera, die nur an Linken Teil oder an einen rechten Teil der Brille platziert ist; oder besteht die Einrichtung aus der 2 Kameras, die an der beiden linken und rechten Brillenklemmen links und rechts von der linken und rechten Augen platziert sind, oder besteht die Einrichtung aus der 2 Kameras, die in der Nähe von Nasenwurzeln platziert sind, wobei die eine davon beobachtet eine Bewegun der Augenloch in der linke teil des rechtes Auge, und die zweite davon beobachtet eine Bewegung der Augenloch in der rechten Teil des linkes Auge, wobei decken diese 2 Kameras alle Bewegungen der beide Augenlöcher, weil die Bewegungen der Augenlöcher sind ein voneinander definitive abhängig. b) Eine Vorrichtung zur Beobachtung der Knicken und Drehungen (Winken) des Kopfes relativ zu Körper – in horisontalen und vertikalen Ebenen; c) Eine Vorrichtung zu Verarbeitung der Daten aus der o. g. in der Punkten (a) und (b) Einrichtungen, und dadurch zu Feststellung der Augenlöherpositionen relativ zu Körper; d) Eine Vorrichtung für Sammlung und Transfer der Daten aus der o. g. in Punkte (a) und (b) Einrichtungen in der Einrichtung nach Punkt (c). e) Vorrichtung zur Transfer der Daten aus der Einrichtung nach punkt (c) in der gerade unten in der Nechsten Punkt (2) beschriebene Einrichtung
- 2) Eine Vorrichtung zu Bearbeitung der Information aus der Einrichtungen nach o. g. Punkte c, d und e, und fur Generation eines BildschirmImage, und für Positionierung dieses Images vor der Nutzer abhängig von der momentane Augelöcherpositionen des Nutzers relativ zu Nutzerskörper. Diese Einrichtung kann in der Brillen oder in der Augenkontaktlinsen des Nutzers platziert werden.
- 3) Eine Vorrichtung zur Beobachtung für eine Nutzerfinge und „Interaktive Felder” an der Bildschirm, wobei kann diese Einrichtung 2 Kameras in der Brillenklemmern links und rechts enthalten. Als der Finger (u. a. rechte oder linke Zeugefinge) des Nutzers befindet sich in der Nähe von der eine interaktive Feld, passiert „Einhaltung” (Zahwat) d. h. Fesstellung das Finger in der Nähe der aktive Feld ist, und Einrichtung informiert darüber mit Zummer oder duch beliebigen anderen bekannten Verfahren (z. B. durch Vergrösserung dieses Feldes oder durch Farben wechsel des Feldes oder einiges Teil oder Punktes diese Feldes), und danach soll der Nutzer bestätigen (u. a. mit der Stimme (Voice) oder durch Drücken einen Kontaktvorrichtung an der Finger u. a. mit dem Großfinger, oder generiert das Gerät eine virtuelle Teil an der virtuellen interaktiven Feld, und muss der Nutzer dieses Teil mit zwei Finger (u. a. mit dem Großfinger und Zeigefinger) fassen, was ist entweder mit der Kamera (die Kameras) an der Brillen fiksiert ist, oder enthält der Nutzer die entsprechender Kontakt-Vorrichtungen an seine Groß- und Zeugefinger, deren Zusammendruck wird als eine Bestätigung des Wals erkannt werden (entsprechend der Fingerdrück an Gadget Ineraktives Feld).
where the device contains:
- 1) Device for detecting and positioning the eyepiece relative to the user's body, which contains a) A device for detecting the position of the eye-holes relative to the head (face) of the user. (It is only possible to observe 1 eye hole because the two eye holes are the same.) Therefore, the device contains a camera that is placed only on the left part or on the right part of the glasses; or the device consists of the 2 cameras placed at the two left and right eyeglass clamps to the left and right of the left and right eyes, or the device consists of the 2 cameras placed near the nasal roots, one of them One of them observes a movement of the eye hole in the left part of the right eye, and the second of which observes a movement of the eye hole in the right part of the left eye, whereby these 2 cameras cover all movements of both eye holes, because the movements of the eye holes are one from another definitely dependent. b) A device for observing the kinks and rotations (waving) of the head relative to the body - in horizontal and vertical planes; c) means for processing the data from the above-mentioned at points (a) and (b) means, and thereby determining the eyeliner positions relative to the body; d) A device for collection and transfer of the data from the above mentioned in points (a) and (b) devices in the device according to point (c). e) Device for transferring the data from the device according to point (c) in the device just described below in the ninth item (2)
- 2) A device for processing the information from the devices according to the above-mentioned points c, d and e, and for generation of a screen image, and for positioning this image in front of the user depending on the current eye-hole positions of the user relative to the user's body. This device can be placed in the user's glasses or eye contact lenses.
- 3) An observation device for a user's finger and "Interactive Fields" on the screen, wherein this device may include 2 cameras in the eyeglass clamps left and right. As the user's finger (including right or left hand fingers) is near the interactive field, "observance" (zahwat) occurs, ie, the finger is near the active field, and the device informs with zombie or duch Any other known method (eg by enlarging this field or by changing colors of the field or some part or point of this field), and then the user should confirm (including the voice or by pressing a contact device on the finger Among other things, with the big finger, or the device generates a virtual part on the virtual interactive field, and the user must grasp this part with two fingers (including the big finger and index finger), which is either with the camera (the cameras) on the glasses fiksiert, or contains the user the appropriate contact devices to his large and Zeuefinger whose se-tenant is recognized as a confirmation of the whale t (corresponding to the finger press on gadget ineractive field).
In einem Ausführungsbeispiel des Verfahrens wird das o. g. Gadget bei dem Ausschaltung teilweise blockiert, und bei Einschaltung platziert man sein Auge vor der Videokamera, wird die visuelle Information über die Auge (u. a. über dem Augenboden) durch Gadget oder seine Teile elektronisch analisiert, und mit vorher abgegebenen Information (Bild) vergleicht, danach wird das Gadget nur dann vollfunktionsfähig, falls die neugegebenen visuellen Information mit der vorher abgegebenen Information übereinstimmt.In one embodiment of the method, the o. G. Gadget partially blocked in the elimination, and when you put your eye in front of the video camera, the visual information about the eye (including the bottom of the eye) through the gadget or its parts electronically analyzed, and compared with previously submitted information (image), then the gadget will only become fully functional if the new visual information matches the previously submitted information.
In einem Ausführungsbeispiel des Verfahrens sind entweder ein Stereoklang (Stereo-akustische Schall, engl.-Stereosound) in Kopfhörer (headpfones), oder ein Stereo(3D)-Bild, oder beide, präsentiert, und dabei
- – a) wird der perspektivische Einstellung („aspect to the observer”) eines 3D-Bildes abhängig von der Kopfposition bzw. Augenpositionen, an der Bildschirm (oder in einem Sichtgerät) präsentiert, d. h. wenn dreht oder nickt man der Kopf bzw. wenn ändert man die Position seines Kopfs, wird eine perspektivische Einstellung eines Bildes an der Bildschirm bzw. eines imaginäres Bilds in Sichtgerät auch entsprechend geändert, oder/und
- – b) wird eine Verhältnis des akustischen Parameters (u. a. Lautstärkeverhältnis) in dem linken und rechten Kopfhörer geändert, abhängig von der der Kopfposition bzw. Augenpositionen in Hinsicht zu imaginären Schallquelle an den Bildschirm (in den imaginären Bild), d. h. u. a. wenn dreht oder nickt man der Kopf bzw. wenn ändert man die Position seines Kopfs, bzw. wenn ändert sich eine virtuelle Position einer virtuellen Schallquelle, wird u. a. auch die Schallstärkeverhältnis in den linken und in den rechten Kopfhörer entsprechend geändert, wie es (Schallstärkeverhältnisänderung) u. a. bei den realen Kopfbewegungen in Hinsicht zu den realen Schallquellenpositionen passiert sollte.
- A) the aspect "to the observer" of a 3D image is presented on the screen (or in a viewer) depending on the head position or positions, ie, the head is rotated or nodded one changes the position of his head, a perspective setting of an image on the screen or an imaginary image in display unit also according to, or / and
- - b) a ratio of the acoustic parameter (ua volume ratio) in the left and right headphones is changed, depending on the head position or eye positions with respect to imaginary sound source on the screen (in the imaginary picture), ie when turning or nodding The head or if you change the position of his head, or if a virtual position of a virtual sound source changes, among other things, the sound intensity ratio in the left and in the right earphones is changed accordingly, as it (sound power ratio change) among other things in the real head movements should happen in relation to the real sound source positions.
Darüber hinaus soll man u. a. die folgenden 2 Sondernsausführungsbeispiele mehr detailliert beschreiben:
- 1) Ein übliches Fall eines übliches Kinos oder PC-game, wo geht es um 2D oder 3D Videopräsentation an dem physikalischen Bildschirm, und Stereoaudiopräsentation in der Kopfhörer. Es wird hier eine Verhältnis des akustischen Parameters (u. a. Lautstärkeverhältnis) in dem linken und rechten Kopfhörer geändert, wenn ändert sich eine virtuelle Position einer virtuellen Schallquelle an dem Bildschirm. Z. B. falls fährt eine Auto (d. h. selbstverständlich ein virtuelles Bild eines Autos) in dem Bildschirm von links nach rechts,
- 2) In einem Ausführungsbeispiel des Verfahrens werden die zusätzliche Vibrationen an dem Kopfaufsatz (u. a. in den Kopfhörer oder in seinen separaten Teile) generiert, und zwar in seinen oberen oder hinteren Teil, abhängig davon, ob die virtuelle Schallquelle sich von vorne oder hinten dem User (Kopfhörerträger) sich befindet.
- 1) A common case of a common cinema or PC game, where there is 2D or 3D video presentation on the physical screen, and stereo audio presentation in the headphones. Here, a ratio of the acoustic parameter (eg, volume ratio) in the left and right headphones is changed when a virtual position of a virtual sound source changes on the screen. For example, if a car drives (ie, of course, a virtual image of a car) in the screen from left to right,
- 2) In one embodiment of the method, the additional vibrations are generated at the headgear (eg in the headphones or in its separate parts), in its upper or rear part, depending on whether the virtual sound source is from the front or behind the user (Headphone carrier) is located.
In einem Ausführungsbeispiel des Verfahrens werden bei dem Videoaufnahme auch mehrere (mindestens 3) videokameras (webkams) mit überlappenden Gesichtsfelde, die u. a. auch insgesamt 360° Gesichtfeld leisten können, und eine Einrichtung (u. a. auch PC mit einem entsprechenden software), das bearbeitet die von diesen Kameras gelieferten Videosignalsinformation und stellt diese allgemeine zusammengesammelte Information als eine Bild an dem Bildschirm (oder an dem o. g. Sichtgerät) dar, so dass kann man bei dem Abspielung der Aufnahme die verschiedenen Aussichte (points of view) wählen, auch unabhängig davon, im welchem Richtung ein Kamera-träger sich bewegt und wie diese Kameras in Raum momentan orientiert sind.In one embodiment of the method in the video recording also several (at least 3) video cameras (webkams) with overlapping field of vision, the u. a. can also afford a total of 360 ° field of view, and a device (including, but not limited to, a PC with appropriate software) which processes the video signal information provided by these cameras and presents this general aggregated information as an image on the screen (or on the above-mentioned display device). so that one can select the different views (points of view) when playing the recording, regardless of the direction in which a camera carrier moves and how these cameras are currently oriented in space.
In einem Ausführungsbeispiel des Verfahrens wird ein Stereoklang (Stereo-akustische Schall, engl.-Stereosound) in Kopfhörer (headpfones) präsentiert, wobei
- – a) wird der perspektivische Einstellung („aspect to the observer”) eines Bildes (u. a. 3D-Bildes) abhängig von der Kopfposition (oder Kopfpositionsänderungen oder Kopfbewegungen) bzw. Augenpositionen (oder Augenpositionsänderungen oder Augenbewegungen), an der Bildschirm (oder in einem Sichtgerät) präsentiert, d. h. wenn dreht oder nickt man der Kopf bzw. wenn ändert man die Position seines Kopfs (und/oder wenn ändert man entsprechend die Position seine Augen), wird eine perspektivische Einstellung eines Bildes an der Bildschirm bzw. eines imaginäres Bilds in Sichtgerät auch entsprechend geändert, oder/und
- – b) wird eine Verhältnis des akustischen Parameters (u. a. Lautstärkeverhältnis) in dem linken und rechten Kopfhörer geändert, abhängig von der der Kopfposition bzw. Augenpositionen in Hinsicht zu imaginären Schallquelle an den realen Bildschirm eines Komputers (PC, Leptop, Ipad, I-phone, Smartphone etc.) oder in den oben beschriebenen imaginären Bildschirm, d. h. u. a. wenn dreht oder nickt man der Kopf bzw. wenn ändert man die Position seines Kopfs, bzw. wenn ändert sich die Augenposition, d. h. wenn richtet man seine Augen an den anderen Punkt des Bildschirms, bzw. wenn ändert sich eine virtuelle Position einer virtuellen Schallquelle, wird u. a. auch die Schallstärkeverhältnis in den linken und in den rechten Kopfhörer entsprechend geändert, wie es (Schallstärkeverhältnisänderung) u. a. bei den realen Kopfbewegungen (und u. a folglich die Augenpositionsänderung) in Hinsicht zu den realen Schallquellenpositionen passiert sollte. Dieses Ausführungsbeispiel kann wie für einen üblichen Gerät mit einen realen Bildschirm (PC, Leptop, Ipad, I-phone, Smartphone etc.) realisiert werden, als auch für einen oben beschriebenen Gerät mit einen wirtuelen (imaginären) Bildschirm. Die Augenposition kann durch eine Kamera beobachtet werden, und durch Computer (Gadget) analisiert erden, wie ist es in
US 14/138,066US 14/138,066US 14/138,066
- - (a) the perspective setting ("aspect to the observer") of an image (inter alia 3D image) depends on the head position (or head position changes or head movements) or eye positions (or eye position changes or eye movements) on the screen (or on a screen) If you change the position of his head (and / or if you change the position accordingly his eyes), a perspective adjustment of an image on the screen or an imaginary image in Viewing device also changed accordingly, and / or
- - b) a ratio of the acoustic parameter (ua volume ratio) is changed in the left and right headphones, depending on the head position or positions with respect to imaginary sound source to the real screen of a computer (PC, Leptop, Ipad, I-phone , Smartphone, etc.) or in the imaginary screen described above, ie when you turn or nod your head or if you change the position of his head, or if the eye position changes, ie if you direct your eyes to the other point of the Screen, or if changes a virtual position of a virtual sound source, among other things, the sound intensity ratio in the left and in the right earphones is changed accordingly, as (sound strength ratio change), inter alia, in the real head movements (and thus, consequently, the eye position change) in Respect to the real sound source positions should happen. This embodiment can be realized as for a conventional device having a real screen (PC, leptop, ipad, I-phone, smartphone, etc.) as well as for a device having a virtual (imaginary) screen as described above. The eye position can be observed through a camera, and grounded by computer (gadget), how is it in
US 14 / 138,066U.S. Pat US functions described together. In one embodiment of the method, all of the functions described above, including the image presentation functions, may be combined with the functions described in14 / 138,066 FIG US functions described together.14 / 138,066
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
-
US 14/138066 [0038, 0038, 0038]
US 14/138066 [0038, 0038, 0038]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015009113.1A DE102015009113A1 (en) | 2015-07-19 | 2015-07-19 | Method and device for presenting the information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015009113.1A DE102015009113A1 (en) | 2015-07-19 | 2015-07-19 | Method and device for presenting the information |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102015009113A1 true DE102015009113A1 (en) | 2017-01-19 |
Family
ID=57630309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102015009113.1A Withdrawn DE102015009113A1 (en) | 2015-07-19 | 2015-07-19 | Method and device for presenting the information |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102015009113A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114721576A (en) * | 2020-12-18 | 2022-07-08 | 华为技术有限公司 | Finger touch operation display method and device |
-
2015
- 2015-07-19 DE DE102015009113.1A patent/DE102015009113A1/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114721576A (en) * | 2020-12-18 | 2022-07-08 | 华为技术有限公司 | Finger touch operation display method and device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11467709B2 (en) | Mixed-reality guide data collection and presentation | |
EP2989524B1 (en) | Method for interacting with an object displayed on data eyeglasses | |
DE69434843T2 (en) | Head-mounted image display device and data processing system incorporating the same | |
DE202017105262U1 (en) | Create virtual notation surfaces with gestures in an augmented and / or virtual reality environment | |
US20190122440A1 (en) | Content display property management | |
WO2022022028A1 (en) | Virtual object control method and apparatus, and device and computer-readable storage medium | |
DE202017105307U1 (en) | Switching active objects in an augmented reality and / or virtual reality environment | |
DE202016008297U1 (en) | Two-handed object manipulations in virtual reality | |
DE102014019637B4 (en) | Display switching method, data processing method and electronic device | |
US20210183132A1 (en) | Intelligent Stylus Beam and Assisted Probabilistic Input to Element Mapping in 2D and 3D Graphical User Interfaces | |
DE202017104928U1 (en) | Manipulate virtual objects using six-degree-of-freedom controllers in augmented or virtual reality environments | |
DE102017119812A1 (en) | DRAWING VIRTUAL ELEMENTS OF AN ADVANCED AND / OR VIRTUAL REALITY ENVIRONMENT | |
DE102014019631A1 (en) | Electronic device and procurement control process | |
WO2015173271A2 (en) | Method for displaying a virtual interaction on at least one screen and input device, system and method for a virtual application by means of a computing unit | |
DE202017006742U1 (en) | Input device stabilization techniques for virtual reality systems | |
DE202017105283U1 (en) | Session end detection in an augmented and / or virtual reality environment | |
CN205195880U (en) | Watch equipment and watch system | |
DE102019218787A1 (en) | METHOD, DEVICE AND SYSTEM FOR GENERATING OFFERS ASSOCIATED WITH A PRESENTATION OF AN ARTICLE | |
DE102014114131A1 (en) | Information processing and electronic device | |
DE112019002798T5 (en) | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM | |
DE102022110363A1 (en) | METHOD AND APPARATUS FOR DEBUGGING PROGRAM EXECUTION AND CONTENT PLAYBACK | |
EP3012712A1 (en) | Virtual drawing in real environment | |
WO2024064828A1 (en) | Gestures for selection refinement in a three-dimensional environment | |
DE102015009113A1 (en) | Method and device for presenting the information | |
DE112020000573T5 (en) | VIEWING REPRESENTATIONS OF ENVIRONMENTS |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R086 | Non-binding declaration of licensing interest | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |