EP3146411A1 - Vorrichtung zum anzeigen einer virtuellen realität sowie messgerät - Google Patents

Vorrichtung zum anzeigen einer virtuellen realität sowie messgerät

Info

Publication number
EP3146411A1
EP3146411A1 EP15732516.8A EP15732516A EP3146411A1 EP 3146411 A1 EP3146411 A1 EP 3146411A1 EP 15732516 A EP15732516 A EP 15732516A EP 3146411 A1 EP3146411 A1 EP 3146411A1
Authority
EP
European Patent Office
Prior art keywords
virtual
hand
representation
display
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP15732516.8A
Other languages
English (en)
French (fr)
Inventor
Jeronimo DZAACK
Ronald Meyer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Atlas Elektronik GmbH
Original Assignee
Atlas Elektronik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Atlas Elektronik GmbH filed Critical Atlas Elektronik GmbH
Publication of EP3146411A1 publication Critical patent/EP3146411A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/56Display arrangements
    • G01S7/62Cathode-ray tube displays
    • G01S7/6245Stereoscopic displays; Three-dimensional displays; Pseudo-three dimensional displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/56Display arrangements
    • G01S7/62Cathode-ray tube displays
    • G01S7/6272Cathode-ray tube displays producing cursor lines and indicia by electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Definitions

  • the invention relates to a device for displaying a virtual reality, wherein the device has a gesture recognition device for determining a movement of a hand and a display device and a measuring device.
  • cuts are placed in such 3D data, which are then displayed to an operator on a two-dimensional screen.
  • the operator or according to the user, has the opportunity to change the angle and orientation of the cuts in order to get a better picture of a given situation.
  • the object of the invention is to improve the state of the art.
  • the object is achieved by a device for displaying a virtual reality, wherein the device a gesture recognition device for determining a movement of a hand and a display device, wherein the display device displays a representation of the hand and has a virtual control element, which can be actuated by the hand by means of the representation of the hand, wherein the display device provides in particular further virtual controls, which by the hand is selectable by means of the representation of the hand.
  • an input means and a display can be provided which allow an operator to virtually work with a given amount of data.
  • the selection of the individual virtual control elements, the given data can be manipulated. For example, not only horizontal and vertical cuts, but also, for example, represented by a knife flat-shaped arbitrary shape can be put into the data set to display certain things.
  • the device can be used for both online and offline data.
  • the representation of the hand also referred to as the virtual hand in the following
  • the virtual hand can actuate a virtual operating element
  • an operator has a very intuitive operating concept in which he "moves" in a virtual environment by means of his hand, to better evaluate the data.
  • virtual reality is in particular a three-dimensional optical representation, which gives the operator the impression that it is located in the data itself.
  • a "display device” which is able to give the human eye or eyes the impression that a three-dimensional space is created for the operator
  • the eye can also be directly imprinted with light signals or it can be reflected signals generated, which give the eye a three-dimensional image.
  • a combination of screen and shutter glasses can realize the display device.
  • the "gesture recognition device” recognizes certain intentional movements of the operator by means of associated sensors, in particular, these movements can be hand movements.
  • the gesture recognition device is based on optical inputs, which are recorded in particular by two cameras and processed by means of appropriate software Hand transmitter and / or receiver can be arranged, which emit and / or receive corresponding signals.Thus, the signals can be detected a corresponding movement in space.In particular, it should be mentioned here that these transmitters to ultrasonic transmitter or infrared transmitter and the corresponding receiver can act.
  • the "representation of the hand” is in particular a virtual hand, which is represented by means of the display device, that real movements of the hand with the virtual hand in the virtual space are simulated, the real hand by means of the virtual hand of one of the virtual
  • the hand may be represented (partially) by points, which may be arranged on the joints of the fingers or on the individual links of the fingers, and points may be represented by straight lines , Surfaces, bars or bars are connected, so that a sketched hand results in three-dimensional space.
  • a "virtual control element” is in particular a control element which is displayed in the virtual environment but is controlled by movement of the real hand via the virtual hand.
  • the virtual control element can be coupled to an operating system or a computer so that control signals which can be impressed by the real hand are used to control the operating system or the computer.
  • the virtual control is a mouse
  • the real hand in the virtual environment may comprise the mouse by means of the virtual hand, which in the real world is, for example, a hand forming a cavity on a tabletop and which one over the Tabletop is moved.
  • an up and down of individual fingers as operating the individual mouse buttons or the buckling of individual fingers as moving the rolling wheel be interpreted on a mouse, whereby each representation of the hand reproduces the individual actions.
  • the operator can develop a sense of what actions in the real world have, which effects in the virtual environment.
  • a spatial data set is displayed by means of the display means as a spatial image and the spatial image can be manipulated by the virtual control elements.
  • the "spatial data set” may be, in particular, 3D sonar data in which, due to the low signal strengths and the noisy signals, automatic image recognition mechanisms function only to a limited extent and the human observer is able to gain an overview of the given situation much more quickly ,
  • the spatial record can be provided online or offline. If the data is provided online, it is also possible to look at the actual sonar system or the device that contains the 3D measurement data in this case, to elaborate certain details, if necessary, better.
  • the spatial data set can be determined online by means of a sensor.
  • sensors can be, for example, cameras or even hydrophones. All other sensors, which can convey a spatial impression, are applicable here.
  • one of the virtual controls is a virtual joystick, a virtual mouse, a virtual touch pad, a virtual scissors, a virtual knife, a virtual slider, a virtual knob, a virtual stylus, a virtual brush, a virtual file, a virtual glue stick or a virtual eraser.
  • the object is achieved by a measuring device, in particular sonar, which has a device described above.
  • the sonar may be an active or passive sonar.
  • the measuring device can also be a stereo camera, for example, which delivers a three-dimensional image of a specific situation.
  • this can also be an infrared camera, which can provide a three-dimensional overview of the observed scenery, especially in poor visibility conditions.
  • Figure 1 is a schematic representation of a device according to the invention with a 3D screen and a stereo camera.
  • An apparatus 101 according to the invention is connected to an active sonar 181.
  • the device 101 comprises a 3D screen 103 and a stereo camera 105.
  • the stereo camera 105 has two mutually offset camera lenses 107.
  • the 3D screen 103 is divided into a display area 109 and a toolbar 111.
  • three-dimensional sonar data 113 are shown on the 3D screen 103.
  • a virtual joystick 117 and a virtual hand 115 are shown in the display area 109.
  • a virtual mouse 119, a virtual scissors 121, a virtual knob 123, a virtual knife 125 and a virtual brush 127 are shown in the tool list 111.
  • the sonar data 113 are manipulated.
  • the sonar data 113 are manipulated.
  • the representation 115 of the hand traces all movements of the real hand 155.
  • the virtual hand 115 in the screen is also moved to the left.
  • the fingers of the real hand 155 are slightly bent as if they were embracing something, this is also shown on the 3D screen 103 by the virtual hand 115.
  • the virtual hand 115 and the virtual joystick 117 are superimposed in the virtual environment, the virtual hand 115 impresses movements of the real hand 155 to the virtual joystick 117.
  • the 3D sonar data 113 can be rotated or tilted by the joystick, or the 3D data 113 can be penetrated.
  • the virtual hand may "grab" the virtual knife 125 and virtually cut the data 113 to place certain planes or slices through the data 113, which may then be displayed two-dimensionally, for example, or unfolded can be.
  • objects in the 3D data 113 become more apparent to a viewer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung betrifft eine Vorrichtung zum Anzeigen einer virtuellen Realität, wobei die Vorrichtung eine Gestenerkennungseinrichtung zum Ermitteln einer Bewegung einer Hand und eine Anzeigeeinrichtung aufweist, wobei die Anzeigeeinrichtung eine Repräsentanz der Hand abbildet und ein virtuelles Bedienelement aufweist, welches durch die Hand mittels der Repräsentanz der Hand betätigbar ist, wobei die Anzeigeeinrichtung insbesondere weitere virtuelle Bedienelemente bereitstellt, welche durch die Hand mittels der Repräsentanz der Hand auswählbar sind.

Description

Vorrichtung zum Anzeigen einer virtuellen Realität sowie
Messgerät
[Ol] Die Erfindung betrifft eine Vorrichtung zum Anzeigen einer virtuellen Realität, wobei die Vorrichtung eine Gestenerkennungseinrichtung zum Ermitteln einer Bewegung einer Hand und eine Anzeigeeinrichtung aufweist sowie ein Messgerät .
[02] Die Handhabung gemessener dreidimensionaler Daten fällt insbesondere im Bereich der Sonardaten sehr schwer. Zum einen sind die Signale sehr schwach und zum anderen sind die Signale sehr verrauscht. Besondere Schwierigkeiten bereiten dreidimensionale Sonardaten, da es insbesondere Schwierigkeiten bereitet in unterschiedlichen Höhen detektierte Objekte einem Benutzer sichtbar zu machen.
[03] Üblicherweise werden in derartige 3D-Daten Schnitte gelegt, welche dann einem Bediener auf einem zweidimensionalen Bildschirm angezeigt werden. Im Allgemeinen erhält der Bediener oder entsprechend der Benutzer die Möglichkeit die Schnitte im Winkel und in der Ausrichtung zu verändern, um sich über eine gegebene Situation ein besseres Bild verschaffen zu können.
[04] Aufgabe der Erfindung ist es den Stand der Technik zu verbessern .
[05] Gelöst wird die Aufgabe durch eine Vorrichtung zum Anzeigen einer virtuellen Realität, wobei die Vorrichtung eine Gestenerkennungseinrichtung zum Ermitteln einer Bewegung einer Hand und einer Anzeigeeinrichtung aufweist, wobei die Anzeigeeinrichtung eine Repräsentanz der Hand abbildet und ein virtuelles Bedienelement aufweist, welches durch die Hand mittels der Repräsentanz der Hand betätigbar ist, wobei die Anzeigeeinrichtung insbesondere weitere virtuelle Bedienelemente bereitstellt, welche durch die Hand mittels der Repräsentanz der Hand auswählbar sind.
[06] Somit kann ein Eingabemittel und eine Anzeige bereitgestellt werden, welche es einem Bediener ermöglicht mit einer gegebenen Datenmenge virtuell zu arbeiten. Insbesondere durch die Auswahl der einzelnen virtuellen Bedienelemente können die gegebenen Daten manipuliert werden. Beispielsweise können nicht nur horizontale und vertikale Schnitte, sondern auch beispielsweise durch ein Messer dargestellter flächiger schnittbeliebiger Form in die Datenmenge hineingelegt werden, um sich bestimmte Dinge anzeigen zu lassen. Zudem kann die Vorrichtung sowohl für Online- als auch für Offlinedaten eingesetzt werden.
[07] Dadurch, dass die Repräsentanz der Hand, im Weiteren auch virtuelle Hand genannt, welche virtuelle Bedienelement betätigen kann, ist für einen Bediener ein sehr intuitives Bedienkonzept gegeben, in dem er sich quasi in einer virtuellen Umgebung mittels seiner Hand „bewegt", um die Daten besser auswerten zu können.
[08] Folgendes Begriffliche sei erläutert:
[09] Bei der „virtuellen Realität" handelt es sich insbesondere um eine dreidimensionale optische Darstellung, welche dem Bediener den Eindruck vermittelt, dass dieser in den Daten selbst befindlich ist.
[10] Insbesondere wird dazu eine „Anzeigeeinrichtung" eingesetzt, welche in der Lage ist dem menschlichen Auge oder den menschlichen Augen einen derartigen Eindruck zu vermitteln, dass ein dreidimensionaler Raum für den Bediener geschaffen ist. Bei der Anzeigeeinrichtung kann es sich sowohl um einen dreidimensionalen Bildschirm als auch um eine dreidimensionale Brille handeln. Zudem können dem Auge auch direkt Lichtsignale aufgeprägt werden oder es können reflektierte Signale erzeugt werden, welche dem Auge ein dreidimensionales Bild vermitteln. Auch eine Kombination aus Bildschirm und Shutter-Brille kann die Anzeigeeinrichtung realisieren.
[11] Die „Gestenerkennungseinrichtung" erkennt mittels zugehöriger Sensoren bestimmte gewollte Bewegungen des Bedieners. Insbesondere können diese Bewegungen Handbewegungen sein. Vorteilhafterweise basiert die Gestenerkennungseinrichtung auf optische Eingaben, welche insbesondere durch zwei Kameras aufgenommen und mittels entsprechender Software aufbereitet werden. Auch können beispielsweise an der Hand Sender und/oder Empfänger angeordnet sein, welche entsprechende Signale aussenden und/oder empfangen. So kann durch die Signale eine entsprechende Bewegung im Raum festgestellt werden. Insbesondere sei hier erwähnt, dass es sich bei diesen Sendern um Ultraschallsender oder Infrarotsender und die entsprechenden Empfänger handeln kann. [12] Die „Repräsentanz der Hand" ist insbesondere eine virtuelle Hand, welche mittels der Anzeigeeinrichtung dargestellt wird. Dadurch, dass reale Bewegungen der Hand mit der virtuellen Hand im virtuellen Raum nachgebildet werden, kann die reale Hand mittels der virtuellen Hand eines der virtuellen Bedienelemente benutzen. Die virtuelle Hand kann zudem abstrahiert oder skizziert dargestellt werden. Insbesondere kann die Hand durch Punkte (teil- ) repräsentiert werden, welche ggf. an den Gelenken der Finger oder an den einzelnen Gliedern der Finger angeordnet ist. Zudem können Punkte durch Geraden, Flächen, Striche oder Balken verbunden werden, sodass sich eine skizzierte Hand in dreidimensionalen Raum ergibt.
[13] Ein „virtuelles Bedienelement" ist insbesondere ein Bedienelement, welches in der virtuellen Umgebung angezeigt wird, jedoch durch Bewegung der realen Hand über die virtuelle Hand angesteuert wird.
[14] Das virtuelle Bedienelement kann mit einer Bedienanlage oder einem Rechner gekoppelt sein, sodass durch die reale Hand aufprägbare Stellsignale zum Ansteuern der Bedienanlage oder des Rechners verwendet werden. Für den Fall, dass das virtuelle Bedienelement eine Maus ist, kann beispielsweise die reale Hand in der virtuellen Umgebung die Maus mittels der virtuellen Hand umfassen, was in der realen Welt beispielsweise eine Hand ist, welche auf einer Tischplatte einen Hohlraum ausbildet und welche über die Tischplatte bewegt wird. Dabei kann ein Auf und Ab einzelner Finger als Bedienen der einzelnen Maustasten oder das Knicken einzelner Finger als das Bewegen des Rollrads auf einer Maus interpretiert werden, wobei jeweils die Repräsentanz der Hand die einzelnen Aktionen nachbildet. Insbesondere kann somit der Bediener ein Gefühl dafür entwickeln, welche Aktionen in der realen Welt, welche Auswirkungen in der virtuellen Umgebung haben.
[15] Dadurch, dass weitere Bedienelemente bereitgestellt werden, kann insbesondere somit eine Art Werkzeugleiste oder Werkzeugkiste bereitgestellt werden, aus der sich der Bediener entsprechend seiner Bedürfnisse situationsabhängig bedienen kann.
[16] In einer weiteren Ausführungsform wird ein räumlicher Datensatz mittels der Anzeigemittel als räumliches Bild dargestellt und kann das räumliche Bild durch die virtuellen Bedienelemente manipulierbar sein.
[17] Dadurch kann ein Bediener sich sehr schnell einen Überblick über einen räumlichen Datensatz verschaffen.
[18] Bei dem „räumlichen Datensatz" kann es sich insbesondere um 3D-Sonardaten handeln, bei denen aufgrund der geringen Signalstärken und der stark verrauschten Signale automatische Bilderkennungsmechanismen nur eingeschränkt funktionieren und der menschliche Betrachter sich viel schneller einen Überblick über die gegebene Lage machen kann.
[19] Zudem kann der räumliche Datensatz online oder offline bereitgestellt werden. Sofern die Daten online bereitgestellt werden, kann zudem auf die eigentliche Sonaranlage oder die Vorrichtung, welche die 3D-Messdaten vorliegend bereitstellt, eingewirkt werden, um bestimmte Details gegebenenfalls besser herauszuarbeiten.
[20] Im Allgemeinen kann also der räumliche Datensatz online mittels eines Sensors ermittelt werden. Derartige Sensoren können beispielsweise Kameras oder auch Hydrophone sein. Auch alle sonstigen Sensoren, welche einen räumlichen Eindruck vermitteln können, sind vorliegend einsetzbar.
[21] Um einen sehr vorteilhaften Zugang zu den möglichen virtuellen Bedienelementen bereitstellen zu können, können quasi in einer Werkzeugleiste mehrere virtuelle Bedienelemente in einem Menü zusammengefasst werden.
[22] In einer Ausprägungsform ist eines der virtuellen Bedienelemente ein virtueller Joystick, eine virtuelle Maus, ein virtuelles Touch-Pad, eine virtuelle Schere, ein virtuelles Messer, ein virtueller Schieberegler, ein virtueller Drehknopf, ein virtueller Stift, ein virtueller Pinsel, eine virtuelle Feile, ein virtueller Klebestift oder ein virtueller Radiergummi.
[23] Somit können eine Vielzahl von Werkzeugen bereitgestellt werden, mit denen das Aufbereiten und Bearbeiten dreidimensionaler Daten wesentlich schneller und anschaulicher erfolgen kann.
[24] In einer weiteren Ausprägung der Erfindung wird die Aufgabe gelöst durch ein Messgerät, insbesondere Sonar, welches eine zuvor beschriebene Vorrichtung aufweist. [25] Bei dem Sonar kann es sich um ein aktives oder passives Sonar handeln. Zudem kann das Messgerät beispielsweise auch eine Stereokamera sein, welche ein dreidimensionales Bild von einer bestimmten Situation liefert. Insbesondere kann es sich auch hierbei um eine Infrarotkamera handeln, welche insbesondere bei schlechten Sichtbedingungen einen dreidimensionalen Überblick der beobachteten Szenerie liefern kann.
[26] Im Weiteren wird die Erfindung anhand von einem Ausführungsbeispiel näher erläutert. Es zeigt
Figur 1 eine schematische Darstellung einer erfindungsgemäßen Vorrichtung mit einem 3D-Bildschirm und einer Stereokamera.
[27] An ein aktives Sonar 181 ist eine erfindungsgemäße Vorrichtung 101 angeschlossen. Die Vorrichtung 101 umfasst einen 3D-Bildschirm 103 und eine Stereokamera 105. Die Stereokamera 105 weist zwei zueinander versetzte Kameraobjektive 107 auf. Der 3D-Bildschirm 103 ist in einen Anzeigebereich 109 und in eine Werkzeugleiste 111 aufgeteilt. Zudem sind auf dem 3D-Bildschirm 103 dreidimensionale Sonardaten 113 dargestellt.
[28] Im Anzeigebereich 109 sind ein virtueller Joystick 117 und eine virtuelle Hand 115 dargestellt. In der Werkzeugliste 111 sind eine virtuelle Maus 119, eine virtuelle Schere 121, ein virtueller Drehknopf 123, ein virtuelles Messer 125 und ein virtueller Pinsel 127 dargestellt. Mit Hilfe dieser Werkzeuge 119, 121, 123, 125, 127 werden die Sonardaten 113 manipuliert. [29] Setzt sich ein Bediener vor die Vorrichtung 101 wird seine Hand 155 durch die Stereokamera 105 mit den versetzten Kameraobjektiven 107 detektiert. Mittels implementierter Software wird die Hand 155 erkannt und es werden Änderungen der Hand 155 detektiert. Zusätzlich wird eine virtuelle Repräsentanz 115 der Hand in dem SD- Bildschirm 103 dargestellt.
[30] Die Repräsentanz 115 der Hand, im Weiteren auch virtuelle Hand genannt, führt sämtliche Bewegungen der realen Hand 155 nach. Führt die reale Hand 155 eine Bewegung nach links durch, wird die virtuelle Hand 115 im Bildschirm ebenfalls nach links bewegt. Werden weiterhin die Finger der realen Hand 155 leicht gebeugt als würden sie etwas umfassen, wird dies durch die virtuelle Hand 115 ebenfalls auf dem 3D-Bildschirm 103 dargestellt. Sofern die virtuelle Hand 115 und der virtuelle Joystick 117 in der virtuellen Umgebung übereinander gebracht werden, so prägt die virtuelle Hand 115 Bewegungen der realen Hand 155 dem virtuellen Joystick 117 auf.
[31] Durch den Joystick können beispielsweise die 3D- Sonardaten 113 gedreht oder gekippt werden oder es kann in die 3D-Daten 113 eingedrungen werden.
[32] Weiterhin kann die virtuelle Hand beispielsweise das virtuelle Messer 125 „ergreifen" und die Daten 113 virtuell durchschneiden, um bestimmte Ebenen oder Schnitte durch die Daten 113 zu legen, welche beispielsweise dann zweidimensional dargestellt werden oder auch aufgeklappt werden können. Somit werden Objekte in den 3D-Daten 113 besser für einen Betrachter erkennbar.
Bezugs zeichenliste
101 Eingabegerät
103 Bildschirm
105 Stereokamera
107 versetzte Kameraobjekt
109 Anzeigebereich
111 Werkzeugleiste
113 Sonardaten
115 virtuelle Hand
117 Joystick
119 Maus
121 Schere
123 Drehknopf
125 Messer
127 Pinsel
155 Hand
181 Sonar

Claims

Patentansprüche :
1. Vorrichtung (101) zum Anzeigen einer virtuellen Realität, wobei die Vorrichtung eine Gestenerkennungseinrichtung (105) zum Ermitteln einer Bewegung einer Hand (155) und eine Anzeigeeinrichtung (103) aufweist, wobei die Anzeigeeinrichtung eine Repräsentanz (115) der Hand abbildet und ein virtuelles Bedienelement (117) aufweist, welches durch die Hand mittels der Repräsentanz der Hand betätigbar ist, dadurch gekennzeichnet, dass die Anzeigeeinrichtung insbesondere weitere virtuelle Bedienelemente bereitstellt, welche durch die Hand mittels der Repräsentanz der Hand auswählbar sind.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass ein räumlicher Datensatz (113) mittels der Anzeigemittel als räumliches Bild darstellbar ist und dass das räumliche Bild durch die virtuellen Bedienelemente manipulierbar ist.
3. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, dass der räumliche Datensatz online bereitgestellt ist und insbesondere anhand eines Sensors (181) ermittelt wird.
4. Vorrichtung nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass mehrere virtuelle Bedienelemente in einem Menü (111) zusammengefasst sind.
5. Vorrichtung nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass eines der virtuellen Bedienelemente ein virtueller Joystick (117), eine virtuelle Maus (119), ein virtuelles Touch-Pad, eine virtuelle Schere (121), ein virtuelles Messer (125), ein virtueller Schieberegler, ein virtueller Drehknopf (123), ein virtueller Stift, ein virtueller Pinsel (127), eine virtuelle Feile, ein virtueller Klebestift oder ein virtueller Radiergummi ist.
6. Messgerät (181), insbesondere Sonar, welches eine Vorrichtung nach einem der vorherigen Ansprüche aufweist.
EP15732516.8A 2014-05-22 2015-04-10 Vorrichtung zum anzeigen einer virtuellen realität sowie messgerät Withdrawn EP3146411A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102014107211.1A DE102014107211A1 (de) 2014-05-22 2014-05-22 Vorrichtung zum Anzeigen einer virtuellen Realität sowie Messgerät
PCT/DE2015/100153 WO2015176708A1 (de) 2014-05-22 2015-04-10 Vorrichtung zum anzeigen einer virtuellen realität sowie messgerät

Publications (1)

Publication Number Publication Date
EP3146411A1 true EP3146411A1 (de) 2017-03-29

Family

ID=53496346

Family Applications (1)

Application Number Title Priority Date Filing Date
EP15732516.8A Withdrawn EP3146411A1 (de) 2014-05-22 2015-04-10 Vorrichtung zum anzeigen einer virtuellen realität sowie messgerät

Country Status (3)

Country Link
EP (1) EP3146411A1 (de)
DE (1) DE102014107211A1 (de)
WO (1) WO2015176708A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017114914A1 (de) * 2017-07-04 2019-01-10 Atlas Elektronik Gmbh Visuelles Ausgabegerät und Bediensystem
DE102017114905A1 (de) * 2017-07-04 2019-01-10 Atlas Elektronik Gmbh Kommunikationsvorrichtung und Bediensystem
EP3649539A1 (de) 2017-07-04 2020-05-13 ATLAS ELEKTRONIK GmbH Visuelles ausgabegerät mit einer kamera und präsentations-verfahren
DE102017215074A1 (de) * 2017-08-29 2019-02-28 Siemens Healthcare Gmbh Verfahren und Auswahleinheit zum Auswählen eines virtuellen Objekts oder eines Bildparameterwerts
IT202000019282A1 (it) * 2020-08-05 2022-02-05 Swhard S R L Sistema di realtà virtuale e metodo di scrittura in realtà virtuale

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100144436A1 (en) * 2008-12-05 2010-06-10 Sony Computer Entertainment Inc. Control Device for Communicating Visual Information

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8018579B1 (en) * 2005-10-21 2011-09-13 Apple Inc. Three-dimensional imaging and display system
AU2008299883B2 (en) * 2007-09-14 2012-03-15 Facebook, Inc. Processing of gesture-based user interactions
KR101079598B1 (ko) * 2007-12-18 2011-11-03 삼성전자주식회사 디스플레이장치 및 그 제어방법
US8482859B2 (en) * 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US20130100008A1 (en) * 2011-10-19 2013-04-25 Stefan J. Marti Haptic Response Module
PT2777024T (pt) * 2011-11-09 2021-11-08 Abyssal S A Sistema e procedimento de operação para veículos telecomandados, comportando conjuntos de imagens 3d sobrepostas
US9575565B2 (en) * 2012-07-13 2017-02-21 Juice Design Co., Ltd. Element selection device, element selection method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100144436A1 (en) * 2008-12-05 2010-06-10 Sony Computer Entertainment Inc. Control Device for Communicating Visual Information

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of WO2015176708A1 *

Also Published As

Publication number Publication date
WO2015176708A1 (de) 2015-11-26
DE102014107211A1 (de) 2015-11-26

Similar Documents

Publication Publication Date Title
DE102019002898A1 (de) Robotorsimulationsvorrichtung
DE102018109463B3 (de) Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung
EP3067874A1 (de) Verfahren und vorrichtung zum testen eines in einem luftfahrzeug zu bedienenden geräts
WO2015176708A1 (de) Vorrichtung zum anzeigen einer virtuellen realität sowie messgerät
EP3458939B1 (de) Interaktionssystem und -verfahren
DE102009023875A1 (de) Gestenerkennungsschittstellensystem mit vertikaler Anzeigefläche
DE29720443U1 (de) Kalibration einer Handstellung und Auswahl eines virtuellen Bildes für einen Virtual-Reality-Fahrzeugsimulator
DE202008014481U1 (de) Tragbares Roboterkontrollgerät zum Kontrollieren einer Bewegung eines Roboters
DE102014015871B4 (de) Anzeigesystem für einen Kraftwagen, Kraftwagen mit einem Anzeigesystem und Verfahren zum Betreiben eines Anzeigesystems
DE102011119012A1 (de) Vereinfachtes Koordinatenmesssystem für Schulungszwecke
DE102015102238A1 (de) Verfahren und Anordnung zum Überprüfen einer Fläche
DE102016224774B3 (de) Verfahren zur Programmierung eines Messroboters und Programmiersystem
DE102015210302A1 (de) Verfahren zum Steuern der Bewegung einer Koordinatenmessmaschine
WO2010083821A1 (de) Verfahren zur steuerung eines auf einem bildschirm dargestellten auswahlobjekts
DE102019219485A1 (de) System und verfahren für standardisierte evaluation einer aktivitätssequenz
DE102014115363A1 (de) Virtuelles Zeichen in realer Umgebung
WO2017054894A1 (de) Interaktives bediensystem und verfahren zum durchführen einer bedienhandlung bei einem interaktiven bediensystem
WO2013034133A1 (de) Interaktion mit einem dreidimensionalen virtuellen szenario
EP1665023B1 (de) Verfahren und vorrichtung zur steuerung eines graphiksystems der virtuellen realität mittels interaktionen
EP3534240A1 (de) Verfahren und vorrichtung zur daten-annotation
DE102015012732A1 (de) System und Verfahren zum Steuern, insbesondere zum Inbetriebnehmen, einer Produktionsanlage
DE112020005401T5 (de) Brückenkransimulationssystem mit erweiterter virtueller Realität
DE102010036904A1 (de) Haptische Messvorrichtung und Messverfahren
DE102013211046A1 (de) Verfahren und Vorrichtung zum Gewinnen eines Stellsignals aus einer Bediengeste
DE102015003883B4 (de) Kraftfahrzeugsimulationsanordnung zur Simulation einer virtuellen Umgebung mit einem virtuellen Kraftfahrzeug und Verfahren zur Simulation einer virtuellen Umgebung

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20161222

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: ATLAS ELEKTRONIK GMBH

17Q First examination report despatched

Effective date: 20180806

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20190625