WO2019007934A1 - Anordnung und verfahren zur kommunikation mittels zweier visueller ausgabegeräte - Google Patents

Anordnung und verfahren zur kommunikation mittels zweier visueller ausgabegeräte Download PDF

Info

Publication number
WO2019007934A1
WO2019007934A1 PCT/EP2018/067892 EP2018067892W WO2019007934A1 WO 2019007934 A1 WO2019007934 A1 WO 2019007934A1 EP 2018067892 W EP2018067892 W EP 2018067892W WO 2019007934 A1 WO2019007934 A1 WO 2019007934A1
Authority
WO
WIPO (PCT)
Prior art keywords
output device
visual output
image
human
camera
Prior art date
Application number
PCT/EP2018/067892
Other languages
English (en)
French (fr)
Inventor
Thomas Oberhofer
Jeronimo DZAACK
Original Assignee
Atlas Elektronik Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE102017114914.7A external-priority patent/DE102017114914A1/de
Priority claimed from DE102017114905.8A external-priority patent/DE102017114905A1/de
Application filed by Atlas Elektronik Gmbh filed Critical Atlas Elektronik Gmbh
Priority to EP18736891.5A priority Critical patent/EP3649538A1/de
Publication of WO2019007934A1 publication Critical patent/WO2019007934A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/56Display arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/56Display arrangements
    • G01S7/62Cathode-ray tube displays
    • G01S7/6245Stereoscopic displays; Three-dimensional displays; Pseudo-three dimensional displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/56Display arrangements
    • G01S7/62Cathode-ray tube displays
    • G01S7/6281Composite displays, e.g. split-screen, multiple images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/46Indirect determination of position data
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images

Definitions

  • the invention relates to an arrangement and a method which facilitates the communication between two people using two visual output devices.
  • the communication server 12 and a network 14, which supports a person in need of removal from the distance.
  • the communication server 12 has a first receiving device 18.
  • the person in need of assistance wears spectacles 28, to which a stereo camera 30 and a lamp 34 are attached and which a second
  • Acceleration sensor 46 has.
  • an optical output device is arranged.
  • the images from the camera 30 in the glasses 28 are on the
  • the communication system 10 may further include a mobile terminal 48 and a stationary computer 52.
  • the user of the computer 52 or the user of the smartphone 48 can then see what the wearer of the glasses 28 sees and what is picked up by the camera 30 and transmitted to the server 12.
  • the user of the computer 52 or the user of the smartphone 48 can acoustically and visually (video phone ie) give the wearer of the glasses 28 a support. In one embodiment evaluates a
  • Image evaluation unit 20 of the communication system 10 Images of the camera 30
  • Deformation sensors for detecting the movement of the upper half of the face of the wearer are disclosed, wherein on the head-mounted display a camera, for example by means of a curved support, is fixed such that the camera is aligned on the lower half of the face, which is not covered by the head-mounted display, to also detect the movements of the lower half of the face.
  • DE 102014018056 A1 is a virtual reality glasses with a display device as near-eye display for displaying a virtual reality and a
  • Detecting means for detecting a predetermined head movement of the wearer of the virtual reality glasses in which a captured by a camera system camera image of the environment of the wearer is displayed on the display device.
  • the camera system is arranged directly on the virtual reality glasses in the direction of the wearer. After the head has moved, the camera image can also be partially overlaid by the real environment of the virtual environment.
  • a disadvantage of this virtual reality glasses is that an indication of the real environment in each case only after carrying out the predetermined head movement, such as a pitching motion, carried by the wearer. Thus, another person can not tell if this pitching movement is being executed as approval in a communication or to activate the display.
  • DE 10201410721 A1 describes a display device, for example a three-dimensional screen or a three-dimensional spectacle, for displaying a virtual reality with a gesture recognition device with two integrated cameras for determining a movement of a hand and a display device, wherein the display device displays a representation of the hand.
  • DE 202009010719 U1 describes a communication system with a person operating a transmitting station and a person operating a receiving station, wherein the person operating the transmitting station instructs the person operating the receiving station via executable instructions such that the latter uses images of an object recorded with a camera Supporting station supporting, for example, in their purchase decision by transferring the images.
  • DE 202016008297 U1 discloses a computer-based storage medium for
  • the object of the invention is to provide an arrangement and a method which facilitate the exchange of messages between two people.
  • the arrangement according to the invention comprises
  • the first visual output device comprises a first presentation device.
  • the second visual output device comprises a second presentation device. Both the first and the second visual output device can be carried by one human each.
  • Each camera system is capable of producing an image of the real environment of the camera system.
  • the first camera system is positioned or can be positioned so that the image generated by the first camera system completely or at least partially shows a human wearing the first visual output device.
  • the second camera system is positioned or can be positioned so that the image generated by the second camera system completely or at least partially shows a person wearing the second visual output device.
  • the image transmission device is capable of transmitting an image, which has generated the first camera system, to the second visual output device. Accordingly, the image transmission device is capable of transmitting an image, which has generated the second camera system, to the first visual output device.
  • the respective display device of a visual output device is able to present a representation comprising an image which has been transmitted to this visual output device.
  • the presentation device presents this representation in a form in which a person wearing this visual output device can visually perceive them.
  • the image transmission device is capable of transmitting images of the real environment that the first camera system has generated to the second visual output device. It is able to transmit images of the real environment which the second camera system has generated to the first visual output device.
  • the method according to the invention determines how messages are exchanged between a first person and a second person, and is carried out using a solution according to the invention.
  • the solution according to the invention can be used in a situation in which two people have to exchange messages with each other in order to work together
  • Task to solve, for example, together to control a technical system or to regulate or monitor or to jointly assess an environmental condition.
  • the two people talk to each other.
  • the two people are in different rooms, and an acoustic barrier, such as a sound-proof wall, may be present between the two people his. Or the ambient sounds superimpose spoken words. Or the two people do not speak a common language.
  • the solution according to the arrangement and the method according to the solution improve the exchange of messages, especially in this situation.
  • the solution according to the arrangement and the method according to the solution can be used in combination with acoustic message transmission, for example by means of a microphone and headphones, or instead of an acoustic communication.
  • the solution according to the arrangement and the method according to the solution enable the following type of message exchange:
  • the first camera system generates at least one image that shows the first human
  • the second camera system generates at least one image that shows the second human.
  • the images from the first camera system are transmitted to the second visual output device, and the images from the second camera system are transmitted to the first visual output device.
  • the first person thus sees images of the second person, and conversely, the second person sees images of the first human being.
  • One person sees the gestures and facial expressions of the other person. These gestures and facial expressions can complement spoken words. It is well known that the risk of misunderstandings between two people is reduced if gestures and facial expressions are added to verbal communication.
  • gestures and facial expressions can also take the place of spoken words, for example if the two people do not speak a common language. Thanks Of the two visual output devices and the two camera systems, the two people need not be able to see each other visually
  • the first camera system is capable of producing an image of a human wearing the first visual output device.
  • the first camera system and the first output device can be designed such that the first output device can be moved freely relative to the first camera system and in particular the distance and the orientation between the first output device and the first camera system can be changed freely. This becomes a human being who is the first visual
  • Output device or at least components of this carries on its head, not restricted in its movements by the first camera system.
  • this person it is not necessary for this person to carry a camera of the first camera system on his body in addition to the first visual output device.
  • the first display device is capable of generating a first virtual object.
  • the second presentation device is capable of generating a second virtual object.
  • These two generated virtual objects represent the same information, in a form visually perceivable by a human.
  • the first presentation device is able to present a common representation that a person wearing the first visual output device can visually perceive.
  • This common representation includes an image transmitted to the first visual output device and the first virtual object.
  • the second presentation device is able to present a common representation which a person wearing the second visual output device can visually perceive.
  • This shared representation includes an image transmitted to the second visual output device and the second virtual object.
  • the two virtual objects may be the same or different. Even with different virtual objects they represent the same information.
  • each presentation device generates at least one virtual object in each case and rewards this virtual object together with an image which has been transmitted via the image transmission device to the visual output device. It is possible that at least one presentation device generates a plurality of virtual objects and displays this plurality of virtual objects together with the received image.
  • the visual output device is able to output information in a form visually perceptible by a human and thus to represent a virtual reality.
  • a variety of information can be displayed.
  • the presentation device represents this virtual reality virtually on a screen or on the retina of a human eye. Because of this
  • Screen is part of the head-worn visual output device, this screen moves with, when the human moves his head. This feature ensures that the human always has the presented virtual reality in mind.
  • a visual output device with its own output device camera eliminates the need to switch between a representation of the real environment and a representation of a virtual reality. Such switching may confuse a person carrying the visual output device, particularly when the switching is abrupt or when the human is moving relative to the depicted real environment, but not the virtual reality depicted.
  • the first visual object showing the first one
  • Displaying means, and the second visual object displaying the second displaying means displays the same information in a human-visually perceptible form. If two people are the two visual
  • the solution according to the arrangement additionally comprises a signal transmission device.
  • This signal transmission device is able to transmit a first signal to the first visual output device. It can transmit a second signal to the second visual output device. Both signals contain the information, which is therefore covered by both signals.
  • the first display device is capable of generating the first virtual object depending on the first signal.
  • the second display device is capable of generating the second virtual object depending on the second signal.
  • This embodiment ensures that the two visual objects are based on the same signal and thus in fact the same information is displayed on both visual output devices.
  • the arrangement comprises a sensor.
  • the arrangement is in data connection to a sensor.
  • the sensor is capable of measuring a value of a variable magnitude.
  • the sensor is able to generate a signal which depends on the measured value.
  • the signal transmission device is capable of transmitting the generated signal to both visual output devices, preferably at the same time.
  • the measured value which the sensor has measured is transmitted to both visual output devices.
  • Each display device generates a virtual object depending on the received signals. This virtual object shows the same measured value.
  • two people carrying the two visual output devices can exchange messages about this reading. It is not necessary for one of the two people to view the sensor or a physical output device that displays the measured reading and read the reading. This is especially important if the sensor is located in a difficult to reach or dangerous area for people.
  • each virtual object is a virtually replica of the
  • the sensor whose signal is transmitted to both visual output devices, is for example an active sonar system, a passive sonar system, a
  • Towed antenna a radar system, a geoposition receiver, a
  • Speedometer and / or a wind direction or wind speed gauge in particular on board a watercraft.
  • the arrangement comprises a first camera system and a second camera system.
  • the first visual output device comprises a first output device camera.
  • the second visual output device includes a second output device camera.
  • the first output device camera is capable of producing an image of the real environment of the first visual output device.
  • the second output device camera is capable of producing an image of the real environment of the second visual output device.
  • the first output device camera can be attached to the head of a person, who carries the first visual output device.
  • the second output device camera can be attached to the head of a person, who carries the second visual output device.
  • each visual output device has an output device camera.
  • This output device camera is capable of producing an image of the real environment.
  • the output device camera of a visual output device shows what a human wearing this output device on his head would see if he did not wear the output device.
  • An image of the output device camera can be displayed to the person carrying this output device camera on his head, or to the person carrying the other visual output device of the arrangement on his head.
  • the image transmission device is additionally able to transmit images from the real environment which the first output device camera has generated to the second visual output device. It is additionally capable of transmitting images of the real environment which the second output device camera has generated to the first visual output device.
  • the first presentation device is able to present a representation which comprises an image which was generated by the first output device camera. This representation can be visually perceived by a person wearing the first visual output device.
  • the second display device is able to present a representation with an image which has generated the second output device camera. This representation can be visually perceived by a person wearing the second visual output device.
  • an image that has created an output device camera is presented to a human who uses the visual output device with this output device. Camera wears.
  • the presentation device presents this image to a human wearing the visual output device with this display device on its head. Because the human carries the visual output device on his head, the output device moves when the human moves his head together with the output device and thus the presentation device. It is prevented that the different sense organs of this person provide contradictory information, namely, on the one hand, the eyes, which see the image shown, and on the other hand further sense organs that perceive the spatial position, orientation and movement of people in the room.
  • the presentation device is capable of displaying an image of the real environment that a human wearing the output device would see if he did not wear the output device.
  • This image of the real environment is generated by the output device camera and follows a head movement of the camera
  • a visual output device with an output device camera allows one
  • Output device camera displays this machine or system or system.
  • Presentation device of this visual output device shows this image. It is possible to additionally display a virtual object which displays information in a human perceptible form.
  • the first display device can be switched between at least two different modes.
  • the Representation presenting the first display device, an image, which has been transmitted from the image transmission device and was generated for example by the second camera system.
  • this presentation includes an image created by the first output device camera. Accordingly, the second display device can be switched between two different modes.
  • the viewing direction of the first output device camera coincides with the standard viewing direction of a human carrying the first visual output device with the first output device camera.
  • the viewing direction of the second output device camera coincides with the standard viewing direction of a person carrying the second visual output device with the second output device camera.
  • the viewing direction of at least one output device camera coincides with the standard viewing direction of a person wearing the visual output device.
  • the visual output device includes a carrier on which the display device and the output device camera are mounted.
  • the output device camera is mounted on the carrier so that it faces away from the human face and faces outward in the standard viewing direction into the real environment.
  • the images provided by the output device camera thus arranged will show the real environment from the same viewing direction from which the human would perceive the real environment if he did not wear the visual output device.
  • the displayed images from the output device camera even better match the spatial position and movement of the human head. Contradictory information from different sensory organs of humans are prevented with even greater certainty. Prevented is the often perceived as unpleasant impression that a human, the visual
  • the image transmission device and / or at least one visual output device comprises an image intensifier.
  • This image intensifier is capable of amplifying an image produced by a camera system or an output device camera.
  • the respective presentation device is able to present an image which has been amplified by the image intensifier.
  • the image transmission device and / or at least one visual output device comprises a conversion device.
  • This conversion device is capable of converting an image in the infrared light region into an image in the visible light region.
  • the respective presentation device is able to present an image that has been converted by the conversion device.
  • the arrangement comprises at least one input device.
  • the first visual output device and / or the second visual output device is in data communication with the or an input device. It is possible that each visual output device is in data connection with one input device each.
  • the or each input device is capable of detecting an input of a human, in particular a human, who is wearing a visual output device of the device.
  • the presentation device of a visual output device is capable of altering the presentation presented in response to an input acquired with the associated input device. For example, the appearance of a virtual object is changed.
  • Input device can change a presented presentation with an image, without having to serve the visual output device.
  • the human being can increase or decrease the imaging scale or the brightness of the image
  • the input device comprises a
  • Remote control for the first camera system and / or the second camera system can change the images that the second camera system generates and which ones to the first visual one Output device and presented by the first display device. Accordingly, a person wearing the second visual output device can change the images from the first camera system.
  • the input device may comprise, for example, a mouse or a joy stick or a switch or a touchpad.
  • the input device may be configured to detect a head movement of the person, for example by means of a
  • the input device may also include a visual evaluation unit, which detects a human gesture and derives therefrom a user input of this person, for example by pattern recognition.
  • actuation of the input device causes both
  • This embodiment with the input device allows the two people to communicate acoustically as well as visually without the two humans needing to be within earshot or sight.
  • the arrangement comprises a voice recognition device.
  • This speech recognition device recognizes a speech input of a human wearing a visual output device having a speech input unit.
  • the arrangement generates information from the recognized voice input.
  • Display devices each generate a virtual object containing these
  • Each presentation device presents the visual object for voice input along with an image of one Camera system or an output device camera. It is also possible that the voice recognition device recognizes a voice input that was made with the one visual output device.
  • the presentation device of the other visual output device generates a virtual object which depends on the recognized speech input and presents this virtual object together with an image. Both embodiments make it possible to visually represent spoken words, for example a verbal statement or a verbal reference, additionally on the visual output device.
  • the first visual output device and / or the second visual output device belong to a communication device.
  • at least one component each of the first visual output device and / or the second visual output device belong to a communication device.
  • This communication device can be carried by a human at his head, which person carries a visual output device of the arrangement.
  • the communication device further comprises a voice input unit, in particular a microphone, and a voice output unit, in particular a headphone.
  • the first visual output device encloses an optically dense space in front of the eyes of a human wearing the first visual output device.
  • the second visual output device encloses a visually dense space in front of the eyes of a person wearing the second visual output device. It is possible that both visual output devices of the arrangement each enclose a visually dense space in front of the eyes of a human. The or each optically dense space prevents light from penetrating the real environment into the optically dense space.
  • At least one visual visual output device encloses an optically dense space in front of the eyes of a human wearing the dispenser.
  • the visual output device prevents light from entering the optically dense space from the real environment. Because an optically dense space is provided, the representation presented is the only visual information for a human being who is the subject carries visual output device.
  • the visual output device prevents light impressions from the outside from superimposing on the presentation presented. These light impressions can cause the person to become confused or not recognize certain segments of the presented presentation at all or only badly, or that the eyes become overloaded and fatigue quickly. This unwanted effect can occur, in particular, when the impressions vary greatly or rapidly over time due to changing ambient brightnesses.
  • a presentation device can be designed in such a way that it displays pictures of differing brightness differently.
  • a visual output device presents an image from a camera system and / or from an output device camera together with at least one virtual object.
  • at least one virtual object and thus a virtual reality is overlaid with an image of the real environment.
  • the real environment is rendered weaker or more powerful than the virtual reality information. Allows that one
  • Man who wears the visual output device, perceives a partially transparent overlay of the virtual reality with the illustrated real environment.
  • At least one screen is adjacent to the optically dense space provided by a visual output device in front of the eyes of a human wearing this output device.
  • the or each screen is located in front of at least one eye of a human wearing this visual output device.
  • the presentation device is able to present the representation with the transmitted image from a camera system and / or from an output device camera on this screen.
  • At least one visual output device presents a
  • the visual output device includes a single screen adjacent to the optically dense space and simultaneously positioned in front of both eyes of a human carrying the output device.
  • the output device comprises two screens. Each screen adjoins the optically dense space and is positioned in front of each human eye.
  • At least one display device comprises a so-called retina projector.
  • This retina projector projects the image with the image onto the retina of at least one eye of a human wearing the visual output device.
  • the presentation device functions as a so-called retinal projector.
  • This retina projector imprints the image with the image of the real environment directly on the retina of a human eye wearing the visual output device.
  • the arrangement comprises a first camera system and a second camera system.
  • the first camera system is capable of producing at least one image of a human wearing the first visual output device.
  • the second camera system is capable of producing at least one image of a human carrying the second visual output device.
  • the first person with the first visual output device can move freely relative to the first camera system, the second person with the second visual output device freely relative to the second camera system.
  • the arrangement comprises at least one localization device which corresponds to the first camera system and / or to the second camera system. It is possible that each camera system is assigned a localization device.
  • the associated camera system includes a camera and an actuator for this camera.
  • the localization device is able to determine the position of a visual output device in the room.
  • the associated camera system generates images of the person carrying this visual output device.
  • the actuator is capable of moving the camera of this associated camera system, depending on localization device signals that locate the visual output device.
  • At least one camera system comprises an actuator, and the arrangement comprises a location device.
  • the locator device can detect the location of a human, especially a human, who carries a visual output device of the device. It is possible that a visual
  • Output device is mechanically connected to a position transmitter and the
  • Locating device receives and evaluates signals from this position transmitter.
  • the actuator is capable of moving at least one camera of the camera system, depending on localization device signals. This allows the moving camera to follow the movements of a person carrying the visual output device
  • corresponding markings are arranged on the visual output device or on the human body.
  • the localization device comprises an image recognition unit which displays these markings
  • That visual output device whose position is to be determined in space is mechanically connected to a position transmitter.
  • the location facility includes this location transmitter and a receiver.
  • the position transmitter on the visual output device is capable of transmitting a position signal.
  • the receiver of the localization device is able to receive this position signal.
  • the Localization device can continue to drive the actuator depending on a received position signal.
  • the visual output device comprises a transmitter, which transmits a position signal to the localization device.
  • Output device can emit ultrasonic signals, for example.
  • the design with a transmitter and a receiver makes it possible in many applications reliably to determine the current position of a person who carries a visual output device with the transmitter, in particular when an image, which generates a camera system, in addition to the human with the visual output device shows another human and or if bad
  • the position signal comprises an identifier of the visual output device, so that the localization device is able to reliably distinguish the received position signal from the visual output device from other signals.
  • the arrangement comprises an image evaluation unit.
  • This image evaluation unit can automatically evaluate an image which was generated by a camera system of the arrangement. By evaluating the image, the image evaluation unit can automatically determine optically detectable attributes of a human being, with this human being being shown in this image.
  • the image evaluation unit is furthermore able to identify a data record for a human, namely in a data memory among a predefined set of data records with information about different people. This data record identifies the image evaluation unit as a function of the ascertained optically detectable attributes. Or the image evaluation unit automatically determines that no record belongs to the person shown in the image.
  • at least one camera system comprises one
  • Pattern recognition device or an image recognition device which is preferably realized with software. This device determines from at least one image, preferably a plurality of images, from the camera system information about a human, which is shown in the images. If the images of the first
  • Camera system they show the first human wearing the first visual output device. If they come from the second camera system, they show the second person wearing the second visual output device. In some applications, this person is difficult to recognize, especially in low light conditions. The information obtained is presented to the other person. This reduces the risk that one person will not know with whom he or she is exchanging messages or with another unauthorized person
  • this information about a person shown in the images is transmitted with visually ascertainable information
  • This information about different people is stored in a database.
  • the different people are
  • a unique identification of the human and / or a portrait of the human being without a visual output device is stored in the database.
  • Marking and / or this portrait is presented to the person who carries the other output device to which the images are transmitted that show the person with the visual output device.
  • the arrangement comprises a third visual output device with a third display device and a third camera system.
  • the camera system is positioned to produce an image of a human wearing the third visual output device.
  • the image transfer device is capable of transferring images to any visual output device. This can be three People who carry the three visual output devices, exchange messages with each other.
  • the image transmission facility may provide a direct wireless transmission channel between the two visual output devices. It is also possible that the image transmission device comprises a relay station, for example in the form of a computer or server. Between the first visual output device and the relay station a first wireless transmission channel is provided, between the second visual output device and the relay station a second transmission channel.
  • a wireless transmission channel for example, electromagnetic waves, mobile radio, Bluetooth, WLAN, near-field communication and / or optical directional radio can be used.
  • the provided transmission channel between the two output devices consists of a wired transmission link and in each case a wireless transmission link for each visual output device. If the solution according to the invention is used on board a watercraft, then the electrical system of the vessel can be used to make up part of the watercraft
  • each visual output device comprises a virtual reality glasses (VR glasses).
  • VR glasses are also called video glasses, helmet displays or VR helmets.
  • the visual output device can also be designed as augmented reality glasses (AR glasses).
  • AR glasses augmented reality glasses
  • Each camera system may include a single camera or multiple cameras. If a camera system includes several cameras, they have one
  • Cameras of a camera system prefer different viewing directions and / or different viewing angles.
  • each camera is capable of producing static or moving optical images of the real environment, in particular a video sequence.
  • each camera repeatedly generates images, for example at a predetermined sampling rate or sampling frequency.
  • the or each camera is configured as a digital camera with a CCD chip.
  • a lens system guides light on this CCD chip.
  • the presentation device uses data on this CCD chip and in the common representation to represent the image of the real environment.
  • At least one camera may be configured as a 3D camera, which comprises spaced-apart lenses or similar optical imaging units.
  • each camera system comprises a fixed camera
  • each camera system comprises a mobile camera.
  • the cameras of the camera systems are spatially separate from the visual output device.
  • the first camera system generates an image of a first person who carries the first visual output device. This image is sent to the second visual output device
  • the first presentation device presents an image that was generated by the second camera system.
  • the first display device may optionally present an image from the second camera system or an image from the first camera system. Thanks to this configuration, a first person wearing the first visual output device can selectively see the second person carrying the second output device, or himself. This embodiment allows the first person to see and check his own gestures and facial expressions. It is also possible that a display device simultaneously presents images of both camera systems, in one embodiment additionally with virtual objects.
  • FIG. 1 shows a first person who carries a solution-based visual output device in the form of a first VR glasses and an input device; two digital cameras, an evaluation computer and a localization facility
  • FIG. 2 shows a schematic representation of what the VR glasses present to the first person wearing the first VR glasses on the screen.
  • the invention is used on board a manned watercraft, wherein the watercraft may be an overwater vehicle or an underwater vehicle.
  • the watercraft may be an overwater vehicle or an underwater vehicle.
  • Two crew members of the watercraft use two solution-based visual output devices of a solution according to the invention.
  • each visual output device has the form of a virtual reality glasses (VR glasses).
  • VR glasses virtual reality glasses
  • Oculus Rift® is used as VR glasses, which is extended in accordance with the solution.
  • a first person M.1 wears a first VR glasses 101.
  • These VR glasses 101 comprise a carrier which comprises a preferably elastic and variable in length tension belt 107 and a frame 106.
  • the tension belt 107 is guided around the head K.1 of the person M.1 and carries the frame 106.
  • the tension belt 107 ensures a secure fit of the VR glasses 101.
  • the frame 106 carries a plate-shaped and preferably flexible holding element 105.
  • two camera lenses 103 are embedded, which belong to two digital cameras of the first VR glasses 101.
  • Each digital camera is capable of producing an image of the real environment of VR glasses 101.
  • the viewing direction of each digital camera preferably coincides with the standard viewing direction of the person M.1 who wears the VR glasses 101.
  • the two digital cameras with the lenses 103 form virtually the human's "eyes of reality" and act as the first output device camera of the embodiment.
  • the signals from the camera lenses 103 are recorded on CCD chips. As a result, optical images which generate the camera lenses 103 can be recorded.
  • a computer 1 15 of a display device is mounted on the frame 106 The computer 1 15 evaluates the signals from the camera lenses 103 and generates an image of the real environment.
  • a screen 21 1 is provided on the inside of the holding element 105, that is to say on the surface of the holding element 105 facing the human M.1, a screen 21 1 is provided on the inside of the holding element 105, that is to say on the surface of the holding element 105 facing the human M.1, a screen 21 1 is provided on the inside of the holding element 105, that is to say on the surface of the holding element 105 facing the human M.1, a screen 21 1 is provided on the inside of the holding element 105, that is to say on the surface of the holding element 105 facing the human M.1, a screen 21 1 is provided on the inside of the holding element 105, that is to say on the surface of the holding element 105 facing the human
  • the signals from the camera lenses 103 are recorded on CCD chips. As a result, optical images which generate the camera lenses 103 can be recorded.
  • a computer 1 15 of the display device is mounted on the frame 106 The computer 1 15 evaluates the signals from the camera lenses 103 and generates an image of the real environment. The computer 1 15 automatically causes this image to be presented on the or each screen 21 1.
  • the computer 1 15 generates a stereoscopic representation of the real environment in front of the person M.1 who wears the first VR glasses 101, and uses signals from both digital cameras 103 for this purpose. This stereoscopic representation is presented on the screen 21 1 ,
  • FIG. 2 shows by way of example an image 215 presented on a screen 21 1.
  • the person M.1 who wears the VR glasses 101 looks at another one People M.2, for example, another crew member of the vessel.
  • the image 215 shows an image with the head K.2 and the upper body of this other human M.2.
  • the other person M.2 wears a second VR glasses 301, which is the same as the first VR glasses 101.
  • the person M.1 who wears the VR glasses 101 can perceive gestures and the facial expressions of the other person M.2 without having to set down the first VR glasses 101. This allows the two people M.1 and M.2 communicate visually with each other. This visual communication can complement or even replace acoustic communication when acoustic communication is not possible.
  • the first VR-goggle 101 is opaque, i. it encloses a visually dense space in front of the eyes of the person M.1, who wears the VR glasses 101.
  • This optically dense space is bounded by the holding element 105, in the frame 106 and the head K.1 of the human M.1.
  • the holding element 105 is configured with the two camera lenses 103 completely opaque.
  • the first VR glasses 101 prevents light from the real environment from entering the optically dense space in front of the head K.1 of the first human M.1.
  • a receiving device 1 17 is arranged on the frame 106 or on the holding element 105 of the first VR glasses 101. This receiving device is able to receive signals wirelessly. The computer 1 15 of the display device generates images from these signals, which are then presented on the screen 21 1
  • Two digital cameras 123 continuously take images of the first human M.1, preferably at a predetermined sampling rate.
  • the two cameras belong to the first camera system 121 of the embodiment.
  • Two actuators 132 are capable of moving the stationary cameras 123. Thanks to these actuators 132, the digital cameras 123 follow a movement of the first human M.1 in space, so that the images from the cameras 123 show the human M.1.
  • a controller 134 controls these actuators 132.
  • an evaluation unit not shown, evaluates the images that generate the cameras 123, and thereby determines a movement of the first human M.1.
  • a transmitter 128 is mounted on the frame 106 of the first VR glasses 101. This transmitter 128 continuously transmits position signal.
  • the transmitter 128 sends a signal which distinguishes the first VR-goggles 101 from all other devices on board the vessel, which also emit signals.
  • a receiver 130 receives the position signals from the transmitter 128.
  • a transmission unit 124 transmits the received position signals to the controller 134.
  • the controller 134 evaluates the received signals and controls the actuator 132 based on the received and evaluated signals.
  • the first human M.1 visually exchanges messages with a second human M.2.
  • the second person M.2 carries at his head K.2 a second visual output device in the form of a second VR glasses 301.
  • the second VR glasses 301 is constructed the same as the first VR glasses 101.
  • FIG. 2 shows these second VR glasses 301 from the front-more precisely, an image of the second VR glasses 301 in the image 215, which is presented on the screen 21 1.
  • This standard viewing direction of the second human M.2 and thus the viewing directions of the two digital cameras of the second VR glasses 301 are directed at the viewer.
  • the following components of the second VR glasses 301 can be seen in FIG. 2:
  • a transmitter 328 which transmits position signals
  • a receiving device 317 which corresponds to the receiving device 1 17 of the first VR glasses 101.
  • two stationary digital cameras 123 generate images of the first human M.1 carrying the first VR glasses 101. Thanks to the actuated actuators 132 for the two stationary digital cameras 123 to follow the movements of the first human M.1.
  • An evaluation computer 125 receives signals from the two cameras 123 and generates processed images of the first human M.1. For example, the evaluation computer 125 automatically illuminates or darkens the images to compensate for excessive variations in the brightness of the images.
  • a transmitter 127 automatically transmits these processed images.
  • a transmitter (not shown) transmits the processed images, which the first camera system 121 has produced, directly and wirelessly to the second VR glasses 301, which the second person M.2 carries.
  • the evaluation computer 125 transmits the processed images to a central computer 220, preferably wired via the electrical system of the watercraft.
  • the central computer 220 is connected to a transmitter 127.
  • This transmitter 127 then transmits the images wirelessly to the second VR glasses 301.
  • the receiving device 317 of the second VR glasses 301 receives the transmitted signals with the processed images from the first human M.1.
  • the second human M.2 carrying the second VR glasses 301 is shown the rendered images from the cameras 123 showing the first human M.1.
  • the second human M.2 is enabled to perceive gestures and facial expressions of the first human M.1 without having to discard the second VR glasses 301.
  • Fig. 2 shows schematically how the first human M.1 on a screen 21 1 sees the second human M.2.
  • a sonar system with an underwater antenna (not shown) is arranged on board the vessel.
  • This sonar system aims at a sound source that emits sound waves under water, and in particular determines the direction and / or the distance from the vessel to this sound source.
  • This sonar system generates signals depending on the measured values (e.g., direction and distance, and sound intensity as a function of time and / or frequency). These signals are transmitted via the wired electrical system of the vessel to the central computer 220. With the aid of the transmitter 127, the central computer 220 transmits these signals with measured values of the sonar system at the same time to the two receiving devices 17 and 317 of the two VR glasses 101 and 301, for example with local radio.
  • the receiving device 1 17 receives the signals at a fixed frequency.
  • the computer 1 15 of the first display device evaluates the received signals and generates virtual objects in the form of virtual instruments 213.
  • the computer 1 15 of the first display device generates a common representation, which simultaneously the image 215 of the real environment, which shows humans M.2, and presents several virtual objects in the form of virtual instruments 213.
  • the receiving device 317 of the second VR glasses 301 receives the same signals at the same frequency.
  • the computer 315 of the second display device evaluates the received signals and also generates virtual objects in the form of virtual instruments.
  • the virtual instruments shown on the screen 21 1 of the first VR glasses 101 show the same information as the virtual instruments on the screen of the second VR glasses 301, and can be graphically constructed the same or constructed graphically different his. It is possible that a person M.1, M.2 changes the virtual instruments shown, for example enlarged or reduced.
  • the computer 1 15 updates the virtual instruments 213 at the frequency at which the receiving devices 17 and 317 receive the signals.
  • the or at least some signals contain presentation information. If a measured value is outside a predetermined range, for example, if the distance to a sound source falls below a predetermined barrier, then the corresponding virtual instrument 213 on the screen 21 1 of the first VR glasses 101 and the corresponding virtual instrument on the screen of the second VR glasses 301 highlighted. As a result, the attention of the human M.1 is directed to this virtual instrument 213 for a relevant measurement. The same goes for the second person M.2.
  • the person M.1 uses the human M.2, for example, because the crew member M.2 has previously addressed the crew member M.1.
  • the human M.1 sees on the screen 21 1 on the one hand an image 215 which shows the human M.2, and on the other hand the virtual instruments 213, cf. 2.
  • the human M.1 can thereby perceive the measured values from the sonar system, which are displayed with the aid of the virtual instruments 213, and at the same time communicate visually with the human M.2.
  • the two humans M.1 and M.2 see the same information (the same measurements from the sonar system), represented by virtual instruments.
  • the virtual instruments are presented to the two humans M.1 and M.2, each in a common representation together with an image of the other human M.2 or M.1.
  • the common presentation which is presented to the human M.1, shows the virtual instruments 213 and an image of the second human M.2, cf. Fig. 2.
  • the common representation presented to the human M.2 shows the virtual instruments for the same measurements and an image of the first one People M.1. Both the images of the humans M.2, M.1 and the virtual instruments are constantly updated.
  • the first human M.1 carries an input device 109 in his left hand.
  • the second human M.2 carries a corresponding input device (not shown).
  • the human M.1 operates a button or button or a touch-sensitive panel on the input device 109.
  • the input device 109 has a motion sensor or an acceleration sensor that registers a certain left-hand movement.
  • the first human can select a virtual instrument 213 in the common representation on the screen 21 1.
  • This selection is transmitted by a transmitter 136 of the first VR glasses 101 to a receiver (not shown) of the central computer 220.
  • the transmitter 136 is mounted on the input device 109.
  • This selection and highlighting are communicated to the second VR glasses 301.
  • the second human M.2 also sees in the common representation the virtual instrument 213 highlighted, which the first human M.1 has selected with the aid of the input device 109.
  • the first human M.1 can visually give explanations of the emphasis, for example, with gestures that the second human M.2 sees on the screen of the second VR goggles 301.
  • the two people M.1, M.2 additionally each carry a voice input unit, for example a microphone, and a voice output unit (not shown).
  • the voice output unit that the first human M.1 uses may be integrated into the frame 106 or the straps 107 of the first VR glasses 101. Accordingly, the voice output unit using the second human M.2 may be integrated with the second VR glasses 301. Thanks to the speech input units and the speech output units, the two people M.1 and M.2 can additionally communicate acoustically with one another, even if considerable ambient noise makes acoustical communication without aids difficult. In particular, a Human verbal information on the virtual object just that he or she has previously selected.
  • the first human M.1 can select a virtual instrument 213 with the aid of the input device 109 and point the second human M.2 to the displayed sensor value.
  • the first person M.1 can instruct the second human M.2 to perform a certain action.
  • two camera lenses 103 of two digital cameras are embedded in the holding element 105 of the first VR glasses 101.
  • two camera lenses 303 are embedded in the holding member 305 of the second VR glasses 301.
  • the viewing direction of each digital camera preferably coincides with the standard viewing direction of the person M.1 who wears the VR glasses 101.
  • the two digital cameras with the lenses 103 virtually form the "eyes of the reality" of the human being.
  • These two cameras with the lenses 103 virtually form the "eyes of the reality” of the human being.
  • the first human M.1 can switch between two different representations, which are optionally presented:
  • the first person M.1 can choose the representation with the real environment in front of the first person M.1 himself, if he does not communicate with a second person M.2, or if he wants to move and make sure that he is not against an obstacle running.
  • the virtual instruments 213 are displayed, so that the first person on the screen 21 1 always a common representation.
  • the second human M.2, who wears the second VR glasses 301 can choose between the following two representations:
  • FIG. 2 a representation produced by the stationary cameras 123 and showing the first human M.1 and constructed according to the representation which is shown schematically in FIG. 2, and FIG.
  • the first VR glasses 101 can transmit to the central computer 220 the images of the real environment which the two cameras have produced with the lenses 103.
  • the central computer 220 transmits these images via the transmitter 127 to the second VR glasses 301.
  • the second human M.2 can therefore choose between three representations:
  • the first human M.1 can thus show the second human M.2 something that is in front of the first human M.1, for example a machine or a facility aboard the watercraft. Accordingly, in one embodiment, the first human M.1 can likewise select between three representations. In all three representations, the virtual instruments 213 are preferably faded in each case.
  • a person M.1, M.2 may consider it disadvantageous that he sees in the image the other human M.2, M.1 only with VR glasses 101, 301 in front of his eyes.
  • the following embodiment offers a possible remedy for this Problem.
  • a set of data records is stored in a database.
  • Each record relates to each crew member of the vessel and preferably includes an identifier, a portrait, and a plurality of optically recordable attributes of that crew member, the portrait showing the crew member without a visual output device.
  • An image evaluation unit automatically searches in the images of a human M.1, M.2, which were generated by the first or second camera system for optically detectable attributes of this person the image evaluation unit searches in the database for a record, the appropriate optical detectable attributes and thereby determines the crew member shown in the images.
  • the image evaluation unit determines the portrait of this crew member and transmits this portrait to the visual output device, which is worn by the other person. On one screen, the display device of this other visual output device displays the portrait. It is also possible that the image evaluation unit determines that no data record contains suitable optically detectable attributes.
  • 101 first VR glasses acts as the first visual output device, includes the
  • first camera system includes the two cameras 123, the actuators
  • evaluation computer receives signals from the digital cameras 123, transmits evaluated images to the central computer 220
  • Locating device receiver receives position signals from
  • Transmitter 128 on the first VR glasses 101 132 localization device actuators move the digital cameras 123 in response to position signals
  • Control device of the locator receives position signals from the receiver 130, drives the actuators 132 in response to the received position signals
  • 21 1 screen of the first VR glasses 101 is held by the holding member 105, belongs to the display device, generates the common representation with the image 215 and the virtual instruments 213th
  • 220 central computer, connected to the transmitter 127, transmits images of the cameras 123, the second VR glasses 301 and images of the human M.2 to the first VR glasses 101 and signals from the sonar system to both VR glasses 101 and 301
  • 301 second VR glasses acts as the second visual output device, includes the

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die vorliegende Erfindung betrifft eine Anordnung und ein Verfahren, welche die Kommunikation zwischen zwei Menschen (M.1, M.2) erleichtert. Die Anordnung umfasst zwei visuelle Ausgabegeräte (101) mit zwei Darstellungs-Einrichtungen (115), eine Abbild-Übertragungs-Einrichtung (125, 127, 220) und zwei Kamerasysteme (121). Jedes Kamerasystem (121) erzeugt ein Abbild von einem Menschen (M.1), der ein Ausgabegerät (101) der Anordnung trägt. Die Abbild-Übertragungs-Einrichtung (125, 27, 220) überträgt ein Abbild vom ersten Kamerasystem (101) an das zweite visuelle Ausgabegerät und ein Abbild vom zweiten Kamerasystem an das erste visuelle Ausgabegerät (101). Jede Darstellungs-Einrichtung (115) präsentiert eine visuell wahrnehmbare Darstellung mit einem übertragenen Abbild.

Description

Anordnung und Verfahren zur Kommunikation mittels zweier visueller Ausgabegeräte
Die Erfindung betrifft eine Anordnung und ein Verfahren, welche die Konnnnunikation zwischen zwei Menschen erleichtert, wobei zwei visuelle Ausgabegeräte verwendet werden.
DE 202016000449 U1 zeigt ein Kommunikationssystem 10 mit einem
Kommunikationsserver 12 und einem Netzwerk 14, welches aus der Entfernung eine hilfsbedürftige Personen unterstützt. Der Kommunikationsserver 12 besitzt eine erste Empfangseinrichtung 18. Die hilfsbedürftige Person trägt eine Brille 28, an der eine Stereokamera 30 und eine Lampe 34 befestigt sind und die eine zweite
Empfangseinrichtung 40, eine zweite Sendeeinrichtung 42 und einen
Beschleunigungssensor 46 aufweist. In der Brille 28 ist ein optisches Ausgabegerät angeordnet. Die Bilder von der Kamera 30 in der Brille 28 werden über die
Sendeeinrichtung 42 in der Brille 28 und der Empfangseinrichtung 18 an den
Kommunikationsservers 12 übermittelt. Zum Kommunikationssystem 10 können weiterhin ein mobiles Endgerät 48 sowie ein stationärer Rechner 52 gehören. Der Benutzer des Rechners 52 oder der Nutzer des Smartphones 48 kann dann das sehen, was der Träger der Brille 28 sieht und was von der Kamera 30 aufgenommen und an den Server 12 übermittelt wird. Der Der Benutzer des Rechners 52 oder der Nutzer des Smartphones 48 kann akustisch und auch optisch (Videotelefon ie) dem Träger der Brille 28 eine Unterstützung geben. In einer Ausgestaltung wertet eine
Bildauswerteeinheit 20 des Kommunikationssystems 10 Bilder der Kamera 30
automatisch aus erkennt beispielsweise automatisch Schrift oder übersetzt Bedieninformationen in eine andere Sprache. Möglich ist, in ein Brillenglas ein
Auswertungsergebnis einzublenden.
In US 2016/0216760 A1 wird eine Head-Mounted Display mit mehreren
Deformationssensoren zum Erfassen der Bewegung der oberen Gesichtshälfte des Trägers offenbart, wobei an dem Head-Mounted Display eine Kamera, beispielsweise mittels einer gebogenen Halterung, derart befestigt ist, dass die Kamera auf die untere Gesichtshälfte ausgerichtet ist, welche nicht vom Head-Mounted Display bedeckt ist, um auch die Bewegungen der unteren Gesichtshälfte zu erfassen.
In DE 102014018056 A1 ist eine Virtual-Reality-Brille mit einer Anzeigeeinrichtung als augennahes Display zum Anzeigen einer virtuellen Realität und einer
Erfassungseinrichtung zum Erfassen einer vorgegebenen Kopfbewegung des Trägers der Virtual-Reality-Brille offenbart, bei welcher ein durch ein Kamerasystem erfasstes Kamerabild der Umgebung des Trägers auf der Anzeigeeinrichtung angezeigt wird. Hierzu ist das Kamerasystem direkt an der Virtual-Reality-Brille in Blickrichtung des Trägers angeordnet. Nach erfolgter Kopfbewegung kann auch das Kamerabild von der realen Umgebung der virtuellen Umgebung teiltransparent überlagert werden.
Nachteilig bei dieser Virtual-Reality-Brille ist, dass eine Anzeige der realen Umgebung in jedem Fall erst nach Ausführen der vorgegebenen Kopfbewegung, beispielsweise einer Nickbewegung, durch den Träger erfolgt. Somit kann eine weitere Person nicht erkennen, ob diese Nickbewegung als Zustimmung in einer Kommunikation oder zum Aktivieren der Anzeige ausgeführt wird.
DE 10201410721 1 A1 beschreibt eine Anzeigeeinrichtung, beispielsweise einen dreidimensionalen Bildschirm oder eine dreidimensionale Brille, zum Anzeigen einer virtuellen Realität mit einer Gestenerkennungseinrichtung mit zwei integrierten Kameras zum Ermitteln einer Bewegung einer Hand und einer Anzeigeeinrichtung, wobei die Anzeigeeinrichtung eine Repräsentanz der Hand abbildet.
In DE 202009010719 U1 wird ein Kommunikationssystem mit einer eine Sendestation bedienenden Person und einer eine Empfangsstation bedienenden Person beschrieben, wobei die die Sendestation bedienende Person über ausführbare Anweisungen die die Empfangsstation bedienende Person derart anweist, dass letztere mittels mit einer Kamera aufgenommenen Bildern eines Gegenstandes die die Sendestation bedienende Person beispielsweise in ihrer Kaufentscheidung durch Übertragung der Bilder unterstützt. Die DE 202016008297 U1 offenbart ein computerbasiertes Speichermedium zur
Veränderung eines dreidimensionalen virtuellen Objekte innerhalb einer in einer Head- Mounted-Display-Vorrichtung bereitgestellten Nutzerschnittstelle.
Aufgabe der Erfindung ist es, eine Anordnung und ein Verfahren bereitzustellen, welche den Austausch von Nachrichten zwischen zwei Menschen erleichtern.
Gelöst wird diese Aufgabe durch eine Anordnung mit den in Anspruch 1 angegebenen Merkmalen und ein Verfahren mit den in Anspruch 24 angegebenen Merkmalen. Vorteilhafte Weiterbildungen ergeben sich aus den Unteransprüchen, der nachfolgenden Beschreibung sowie den Zeichnungen.
Die erfindungsgemäße Anordnung umfasst
- ein erstes visuelles Ausgabegerät und ein zweites visuelles Ausgabegerät,
- eine Abbild-Übertragungs-Einrichtung und
- ein erstes Kamerasystem und ein zweites Kamerasystem.
Das erste visuelle Ausgabegerät umfasst eine erste Darstellungs-Einrichtung. Das zweite visuelle Ausgabegerät umfasst eine zweite Darstellungs-Einrichtung. Sowohl das erste als auch das zweite visuelle Ausgabegerät lässt sich von jeweils einem Menschen tragen.
Jedes Kamerasystem vermag ein Abbild von der realen Umgebung des Kamerasystems zu erzeugen. Das erste Kamerasystem ist so positioniert oder lässt sich so positionieren, dass das vom ersten Kamerasystem erzeugte Abbild vollständig oder wenigstens teilweise einen Menschen zeigt, der das erste visuelle Ausgabegerät trägt. Entsprechend ist das zweite Kamerasystem so positioniert oder lässt sich so positionieren, dass das vom zweiten Kamerasystem erzeugte Abbild vollständig oder wenigstens teilweise einen Menschen zeigt, der das zweite visuelle Ausgabegerät trägt. Die Abbild-Übertragungs-Einrichtung vermag ein Abbild, welches das erste Kamerasystem erzeugt hat, an das zweite visuelle Ausgabegerät zu übertragen. Entsprechend vermag die Abbild-Übertragungs-Einrichtung ein Abbild, welches das zweite Kamerasystem erzeugt hat, an das erste visuelle Ausgabegerät zu übertragen.
Die jeweilige Darstellungs-Einrichtung eines visuellen Ausgabegeräts vermag eine Darstellung zu präsentieren, die ein Abbild umfasst, welches an dieses visuelle Ausgabegerät übermittelt wurde. Die Darstellungs-Einrichtung präsentiert diese Darstellung in einer Form, in der ein Mensch, welcher dieses visuelle Ausgabegerät trägt, diese visuell wahrnehmen kann.
Lösungsgemäß vermag die Abbild-Übertragungs-Einrichtung Abbilder von der realen Umgebung, welche das erste Kamerasystem erzeugt hat, an das zweite visuelle Ausgabegerät zu übermitteln. Sie vermag Abbilder von der realen Umgebung, welche das zweite Kamerasystem erzeugt hat, an das erste visuelle Ausgabegerät zu übermitteln.
Das lösungsgemäße Verfahren legt fest, wie Nachrichten zwischen einem ersten Menschen und einem zweiten Menschen ausgetauscht werden, und wird unter Verwendung einer lösungsgemäßen Anordnung durchgeführt.
Die lösungsgemäße Anordnung lässt sich in einer Situation verwenden, in der zwei Menschen Nachrichten miteinander austauschen müssen, um gemeinsam eine
Aufgabe zu lösen, beispielsweise um gemeinsam ein technisches System zu steuern oder zu regeln oder zu überwachen oder um gemeinsam eine Umgebungsbedingung zu bewerten.
In manchen Situationen ist es nicht oder nicht mit ausreichender Sicherheit möglich, dass die beiden Menschen miteinander sprechen. Die beiden Menschen befinden sich beispielsweise in unterschiedlichen Räumen, und zwischen den beiden Menschen kann ein akustisches Hindernis, beispielsweise eine schallundurchlässige Wand, vorhanden sein. Oder die Umgebungsgeräusche überlagern gesprochene Worte. Oder die beiden Menschen sprechen keine gemeinsame Sprache.
Auch wenn eine direkte akustische Kommunikation möglich ist oder jeder Mensch einen Kopfhörer und ein Mikrofon trägt und auf diese Weise miteinander sprechen können, reichen gesprochene Worte häufig nicht aus, um einen Sachverhalt ausreichend zu beschreiben, über den die beiden Menschen Nachrichten miteinander austauschen müssen. Eine solche Situation tritt beispielsweise an Bord eines Überwasserschiffs oder eines Unterwasserschiffs auf.
Die lösungsgemäße Anordnung und das lösungsgemäße Verfahren verbessern den Austausch von Nachrichten insbesondere in dieser Situation. Die lösungsgemäße Anordnung und das lösungsgemäße Verfahren lassen sich in Kombination mit akustischer Nachrichtenübermittlung, beispielsweise mittels Mikrofon und Kopfhörer, oder anstelle einer akustischen Kommunikation verwenden.
Die lösungsgemäße Anordnung und das lösungsgemäße Verfahren ermöglichen folgende Art des Nachrichtenaustauschs: Das erste Kamerasystem erzeugt mindestens ein Abbild, das den ersten Menschen zeigt, und das zweite Kamerasystem erzeugt mindestens ein Abbild, das den zweiten Menschen zeigt. Die Abbilder vom ersten Kamerasystem werden an das zweite visuelle Ausgabegerät übertragen, und die Abbilder vom zweiten Kamerasystem werden an das erste visuelle Ausgabegerät übertragen. Der erste Mensch sieht somit Abbilder des zweiten Menschen, und umgekehrt sieht der zweite Mensch Abbilder des ersten Menschen. Der eine Mensch sieht die Gestik und Mimik des anderen Menschen. Diese Gestik und Mimik können gesprochene Worte ergänzen. Bekanntlich wird die Gefahr von Missverständnissen zwischen zwei Menschen reduziert, wenn zu der verbalen Kommunikation Gestik und Mimik treten.
Diese Gestik und Mimik können auch an die Stelle von gesprochenen Worten treten, beispielsweise wenn die beiden Menschen keine gemeinsame Sprache sprechen. Dank der beiden visuellen Ausgabegeräte und der beiden Kamerasystemen müssen brauchen die beiden Menschen sich nicht direkt sehen zu können, um visuell
Nachrichten austauschen zu können.
Das erste Kamerasystem vermag ein Abbild von einem Menschen zu erzeugen, welcher das erste visuelle Ausgabegerät trägt. Das erste Kamerasystem und das erste Ausgabegerät lassen sich so ausgestalten, dass das erste Ausgabegerät relativ zu dem ersten Kamerasystem frei bewegt werden kann und insbesondere der Abstand und die Orientierung zwischen dem ersten Ausgabegerät und dem ersten Kamerasystem frei verändert werden können. Dadurch wird ein Mensch, der das erste visuelle
Ausgabegerät oder wenigstens Bestandteile von diesem an seinem Kopf trägt, durch das erste Kamerasystem nicht in seinen Bewegungen eingeschränkt. Insbesondere ist es nicht erforderlich, dass dieser Mensch zusätzlich zum ersten visuellen Ausgabegerät eine Kamera des ersten Kamerasystems an seinem Körper trägt.
In einer Ausführungsform der Erfindung vermag die erste Darstellungs-Einrichtung ein erstes virtuelles Objekt zu erzeugen. Die zweite Darstellungs-Einrichtung vermag ein zweites virtuelles Objekt zu erzeugen. Diese beiden erzeugten virtuellen Objekte stellen die gleiche Information dar, und zwar in einer von einem Menschen visuell wahrnehmbaren Form. Die erste Darstellungs-Einrichtung vermag eine gemeinsame Darstellung zu präsentieren, welche ein Mensch, der das erste visuelle Ausgabegerät trägt, visuell wahrzunehmen vermag. Diese gemeinsame Darstellung umfasst ein Abbild, welches an das erste visuelle Ausgabegerät übermittelt wurde, sowie das erste virtuelle Objekt. Entsprechend vermag die zweite Darstellungs-Einrichtung eine gemeinsame Darstellung zu präsentieren, welche ein Mensch, der das zweite visuelle Ausgabegerät trägt, visuell wahrzunehmen vermag. Diese gemeinsame Darstellung umfasst ein Abbild, welches an das zweite visuelle Ausgabegerät übermittelt wurde, sowie das zweite virtuelle Objekt. Die beiden virtuellen Objekte können übereinstimmen oder sich unterscheiden. Auch bei unterschiedlichen virtuellen Objekten stellen diese die gleiche Information dar. In einer Ausgestaltung erzeugt jede Darstellungs-Einrichtung jeweils mindestens ein virtuelles Objekt und rentiert dieses virtuelle Objekt gemeinsam mit einem Abbild, welches über die Abbild-Übertragungs-Einrichtung an das visuelle Ausgabegerät übermittelt wurde. Möglich ist, dass mindestens eine Darstellungs-Einrichtung mehrere virtuelle Objekte erzeugt und diese Mehrzahl von virtuellen Objekten gemeinsam mit dem empfangenen Abbild darstellt.
Indem die Darstellungs-Einrichtung mindestens ein virtuelles Objekt anzeigt, vermag das visuelle Ausgabegerät eine Information in einer von einem Menschen visuell wahrnehmbaren Form auszugeben und damit eine virtuelle Realität darzustellen. In der dargestellten virtuellen Realität können eine Vielzahl von Informationen angezeigt werden. Die Darstellungs-Einrichtung stellt diese virtuelle Realität quasi auf einem Bildschirm oder auf der Netzhaut eines Auges des Menschen dar. Weil dieser
Bildschirm ein Bestandteil des am Kopf getragenen visuellen Ausgabegerät ist, wandert dieser Bildschirm mit, wenn der Mensch seinen Kopf bewegt. Dieses Merkmal gewährleistet, dass der Mensch die dargestellte virtuelle Realität stets vor Augen hat.
Ein visuelles Ausgabegerät mit einer eigenen Ausgabegerät-Kamera verhindert die Notwendigkeit, zwischen einer Darstellung der realen Umgebung und einer Darstellung einer virtuellen Realität umschalten zu müssen. Ein solches Umschalten kann einen Menschen, der das visuelle Ausgabegerät trägt, verwirren, insbesondere wenn das Umschalten abrupt erfolgt oder wenn der Mensch sich zwar relativ zur dargestellten realen Umgebung bewegt, aber nicht zu der dargestellten virtuellen Realität.
Gemäß der Ausgestaltung zeigen das erste visuelle Objekt, welches die erste
Darstellungs-Einrichtung anzeigt, und das zweite visuelle Objekt, welches die zweite Darstellungs-Einrichtung anzeigt, die gleiche Information in einer von einem Menschen visuell wahrnehmbaren Form. Wenn zwei Menschen die beiden visuellen
Ausgabegeräte an ihren Köpfen tragen, so können die beiden Menschen visuell miteinander kommunizieren, nämlich mit Hilfe der Abbilder von den beiden Kamerasystemen. Gleichzeitig sehen die beiden Menschen die beiden visuellen
Objekte und dadurch die gleiche Information.
In einer Fortbildung dieser Ausgestaltung umfasst die lösungsgemäße Anordnung zusätzlich eine Signal-Übertragungs-Einrichtung. Diese Signal-Übertragungs- Einrichtung vermag ein erstes Signal an das erste visuelle Ausgabegerät zu übertragen. Sie vermag ein zweites Signal an das zweite visuelle Ausgabegerät zu übertragen. Beide Signale enthalten die Information, die daher von beiden Signalen umfasst wird. Die erste Darstellungs-Einrichtung vermag das erste virtuelle Objekt abhängig vom ersten Signal zu erzeugen. Die zweite Darstellungs-Einrichtung vermag das zweite virtuelle Objekt abhängig vom zweiten Signal zu erzeugen.
Diese Ausgestaltung stellt sicher, dass die beiden visuellen Objekte auf demselben Signal beruhen und damit tatsächlich auf beiden visuellen Ausgabegeräten die gleiche Information angezeigt wird.
In einer Ausführungsform dieser Fortbildung umfasst die Anordnung einen Sensor. Oder die Anordnung steht in Datenverbindung zu einem Sensor. Der Sensor vermag einen Wert einer veränderlichen Größe zu messen. Weiterhin vermag der Sensor, ein Signal zu erzeugen, welches von dem gemessenen Wert abhängt. Die Signal- Übertragungs-Einrichtung vermag das erzeugte Signal an beide visuellen Ausgabegeräte zu übertragen, und zwar bevorzugt zeitgleich.
Gemäß dieser Ausgestaltung wird der Messwert, den der Sensor gemessen hat, an beide visuellen Ausgabegeräte übertragen. Jede Darstellungs-Einrichtung erzeugt abhängig von den erhaltenen Signalen jeweils ein virtuelles Objekt. Dieses virtuelle Objekt zeigt den gleichen gemessenen Messwert. Mit Hilfe der lösungsgemäßen
Anordnung können zwei Menschen, die die beiden visuellen Ausgabegeräte tragen, Nachrichten über diesen Messwert austauschen. Nicht erforderlich ist, dass einer der beiden Menschen den Sensor oder ein physikalisches Ausgabegerät, welches den gemessenen Messwert anzeigt, betrachtet und den Messwert abliest. Dies ist insbesondere dann wichtig, wenn der Sensor sich in einem für Menschen schwer zugänglichen oder gefährlichen Gebiet befindet.
Jedes virtuelle Objekt ist beispielsweise eine virtuell nachgebildete Anzeige des
Messwerts. Möglich ist, dass die Darstellung des virtuellen Objekts nur dann
durchgeführt oder verändert wird, wenn der Messwert außerhalb eines vorgegebenen Bereichs liegt. Dadurch wird ermöglicht, eine außergewöhnliche Betriebssituation, insbesondere eine Gefahr-Situation, frühzeitig visuell anzuzeigen. Diese Situation wird auf beiden visuellen Ausgabegeräten der Anordnung präsentiert. Die Menschen, die diese beiden visuellen Ausgabegeräte tragen, werden über die Situation auch dann informiert, wenn eine akustische Warnmeldung nicht wahrgenommen werden kann.
Der Sensor, dessen Signal an beide visuellen Ausgabegeräte übertragen wird, ist beispielsweise eine aktive Sonar-Anlage, eine passive Sonaranlage, eine
Schleppantenne, eine Radaranlage, ein Geopositions-Empfänger, ein
Geschwindigkeitsmessgerät und/oder ein Messgerät für die Windrichtung oder die Windgeschwindigkeit, insbesondere an Bord eines Wasserfahrzeugs.
Lösungsgemäß umfasst die Anordnung ein erstes Kamerasystem und ein zweites Kamerasystem. In einer Ausgestaltung umfasst das erste visuelle Ausgabegerät eine erste Ausgabegerät-Kamera. Das zweite visuelle Ausgabegerät umfasst eine zweite Ausgabegerät-Kamera. Die erste Ausgabegerät-Kamera vermag ein Abbild von der realen Umgebung des ersten visuellen Ausgabegeräts zu erzeugen. Die zweite Ausgabegerät-Kamera vermag ein Abbild von der realen Umgebung des zweiten visuellen Ausgabegeräts zu erzeugen. Die erste Ausgabegerät-Kamera lässt sich am Kopf eines Menschen befestigen, wobei dieser Mensch das erste visuelle Ausgabegerät trägt. Die zweite Ausgabegerät-Kamera lässt sich am Kopf eines Menschen befestigen, wobei dieser Mensch das zweite visuelle Ausgabegerät trägt.
Dank dieser Ausgestaltung wird die Ausgabegerät-Kamera mitbewegt, wenn der Mensch sich bewegt oder wenn er seinen Kopf relativ zu seinem Rumpf bewegt. In einer Ausgestaltung besitzt jedes visuelle Ausgabegerät eine Ausgabegerät-Kamera. Diese Ausgabegerät-Kamera vermag jeweils ein Abbild von der realen Umgebung zu erzeugen. Die Ausgabegerät-Kamera eines visuellen Ausgabegeräts zeigt, was ein Mensch, der dieses Ausgabegerät an seinem Kopf trägt, sehen würde, wenn er das Ausgabegerät nicht tragen würde. Ein Abbild von der Ausgabegerät-Kamera kann demjenigen Menschen dargestellt werden, der diese Ausgabegerät-Kamera an seinem Kopf trägt, oder aber demjenigen Menschen, der das andere visuelle Ausgabegerät der Anordnung an seinem Kopf trägt. Diese beiden Ausgestaltungen lassen sich
kombinieren. Der Austausch von Nachrichten zwischen den beiden Menschen wird weiter verbessert, wenn sowohl Abbilder von den beiden Kamerasystemen als auch Abbilder von den beiden Ausgabegerät-Kameras dargestellt und für den Austausch von Nachrichten verwendet werden können.
In einer Fortbildung dieser Ausgestaltung vermag die Abbild-Übertragungs-Einrichtung zusätzlich Abbilder von der realen Umgebung, welche die erste Ausgabegerät-Kamera erzeugt hat, an das zweite visuelle Ausgabegerät zu übermitteln. Sie vermag zusätzlich Abbilder von der realen Umgebung, welche die zweite Ausgabegerät-Kamera erzeugt hat, an das erste visuelle Ausgabegerät zu übermitteln.
In einer weiteren Fortbildung dieser Ausgestaltung vermag die erste Darstellungs- Einrichtung eine Darstellung zu präsentieren, die ein Abbild umfasst, welches von der ersten Ausgabegerät-Kamera erzeugt wurde. Diese Darstellung lässt sich von einem Menschen, der das erste visuelle Ausgabegerät trägt, visuell wahrnehmen. Entsprechend vermag die zweite Darstellungs-Einrichtung eine Darstellung mit einem Abbild, welche die zweite Ausgabegerät Kamera erzeugt hat, zu präsentieren. Diese Darstellung lässt sich von einem Menschen, der das zweite visuelle Ausgabegerät trägt, visuell wahrnehmen.
In einer Ausgestaltung wird ein Abbild, welches eine Ausgabegerät-Kamera erzeugt hat, einem Menschen präsentiert, der das visuelle Ausgabegerät mit dieser Ausgabegerät- Kamera trägt. Die Darstellungs-Einrichtung präsentiert dieses Abbild einem Menschen, der das visuelle Ausgabegerät mit dieser Darstellungs-Einrichtung an seinem Kopf trägt. Weil der Mensch das visuelle Ausgabegerät an seinem Kopf trägt, bewegt das Ausgabegerät sich mit, wenn der Mensch seinen Kopf mitsamt dem Ausgabegerät und damit der Darstellungs-Einrichtung bewegt. Verhindert wird, dass die unterschiedlichen Sinnesorgane dieses Menschen widersprüchliche Informationen liefern, nämlich einerseits die Augen, die das dargestellte Abbild sehen, und andererseits weiteres Sinnesorgane, die die räumliche Lage, Orientierung und Bewegung des Menschen im Raum wahrnehmen.
In dieser Ausgestaltung vermag die Darstellungs-Einrichtung ein Abbild von der realen Umgebung darzustellen, welche ein Mensch, der das Ausgabegerät trägt, sehen würde, wenn er das Ausgabegerät nicht tragen würde. Dieses Abbild von der realen Umgebung wird von der Ausgabegerät-Kamera erzeugt und folgt einer Kopfbewegung des
Menschen, der das Ausgabegerät trägt. Dadurch wird das Risiko verhindert, dass der Mensch eine Reisekrankheit oder so genannte VR-Krankheit (Virtual Reality Sickness, Simulator-Krankheit) erleidet, die insbesondere dann auftreten kann, wenn der Mensch sich in einer bewegten realen Umgebung bewegt oder ihn ihr steht. Dies kann insbesondere an Bord eines Wasserfahrzeugs auftreten und eine Form ähnlich einer Seekrankheit annehmen.
Ein visuelles Ausgabegerät mit einer Ausgabegerät-Kamera ermöglicht einem
Menschen, der dieses Ausgabegerät trägt, Benutzereingaben oder Stelleingriffe an einer Maschine oder Anlage oder System vorzunehmen. Ein Abbild von der
Ausgabegerät-Kamera zeigt diese Maschine oder Anlage oder System. Die
Darstellungs-Einrichtung dieses visuellen Ausgabegeräts zeigt dieses Abbild. Möglich ist, zusätzlich ein virtuelles Objekt anzuzeigen, welches eine Information in einer von einem Menschen wahrnehmbaren Form zeigt.
In einer Ausgestaltung lässt sich die erste Darstellungs-Einrichtung zwischen mindestens zwei verschiedenen Modi umschalten. In dem einen Modus umfasst die Darstellung, welche die erste Darstellungs-Einrichtung präsentiert, ein Abbild, welches von der Abbild-Übertragungs-Einrichtung übertragen wurde und beispielsweise vom zweiten Kamerasystem erzeugt wurde. In dem anderen Modus umfasst diese Präsentation ein Abbild, welche von der ersten Ausgabegerät-Kamera erzeugt wurde. Entsprechend lässt sich die zweite Darstellungs-Einrichtung zwischen zwei verschiedenen Modi umschalten.
Vorzugsweise stimmt die Blickrichtung der ersten Ausgabegerät-Kamera mit der Standard-Blickrichtung eines Menschen, der das erste visuelle Ausgabegerät mit der ersten Ausgabegerät-Kamera trägt, überein. Vorzugsweise stimmt die Blickrichtung der zweiten Ausgabegerät-Kamera mit der Standard-Blickrichtung eines Menschen, der das zweite visuelle Ausgabegerät mit der zweiten Ausgabegerät-Kamera trägt, überein.
In einer Ausgestaltung stimmt die Blickrichtung mindestens einer Ausgabegerät-Kamera mit der Standard-Blickrichtung eines Menschen, der das visuelle Ausgabegerät trägt, überein. Beispielsweise umfasst das visuelle Ausgabegerät einen Träger, an dem die Darstellungs-Einrichtung und die Ausgabegerät-Kamera montiert sind. Die
Ausgabegerät-Kamera ist so am Träger montiert, dass sie vom Gesicht des Menschen abgewandt ist und nach außen in der Standard-Blickrichtung in die reale Umgebung ausgerichtet ist. Die Abbilder, welche die dergestalt angeordnete Ausgabegerät-Kamera liefert, zeigen die reale Umgebung aus der gleichen Blickrichtung, aus welcher der Mensch die reale Umgebung wahrnehmen würde, wenn er das visuelle Ausgabegerät nicht tragen würde. Dadurch stimmen die dargestellten Abbilder von der Ausgabegerät- Kamera mit der räumlichen Lage und Bewegung des Kopfes des Menschen noch besser überein. Widersprüchliche Informationen von unterschiedlichen Sinnesorganen des Menschen werden mit noch größerer Sicherheit verhindert. Verhindert wird der oft als unangenehm empfundene Eindruck, dass ein Mensch, der das visuelle
Ausgabegerät trägt, nicht sehen kann, was sich vor ihm befindet. Insbesondere wird sichergestellt, dass der Mensch die Sicherheit hat, bei einer Bewegung in die Standard- Blickrichtung ein Hindernis zu erkennen. In einer Ausgestaltung umfasst die Abbild-Übertragungs-Einrichtung und / oder mindestens ein visuelles Ausgabegerät einen Bildverstärker. Dieser Bildverstärker vermag ein Abbild zu verstärken, welches von einem Kamerasystem oder einer Ausgabegerät Kamera erzeugt wurde. Die jeweilige Darstellungs-Einrichtung vermag ein Abbild zu präsentieren, welches vom Bildverstärker verstärkt wurde.
In einer Ausgestaltung umfasst die Abbild-Übertragungs-Einrichtung und / oder mindestens ein visuelles Ausgabegerät eine Umwandlungs-Einrichtung. Diese Umwandlungs-Einrichtung vermag ein Abbild im Infrarot Lichtbereich in ein Abbild im sichtbaren Lichtbereich umzuwandeln. Die jeweilige Darstellungs-Einrichtung vermag ein Abbild zu präsentieren, welches von der Umwandlungs-Einrichtung umgewandelt wurde.
In einer Ausgestaltung umfasst die Anordnung mindestens ein Eingabegerät. Das erste visuelle Ausgabegerät und / oder das zweite visuelle Ausgabegerät steht in Datenverbindung mit dem oder einem Eingabegerät. Möglich ist, dass jedes visuelle Ausgabegerät mit jeweils einem Eingabegerät in Datenverbindung steht. Das oder jedes Eingabegerät vermag eine Eingabe eines Menschen zu erfassen, insbesondere eines Menschen, der ein visuelles Ausgabegerät der Anordnung trägt. Die Darstellungs- Einrichtung eines visuellen Ausgabegeräts vermag als Reaktion auf eine Eingabe, die mit dem zugeordneten Eingabegerät erfasst wurde, die präsentierte Darstellung zu verändern. Beispielsweise wird die Darstellung eines virtuellen Objekts verändert.
Ein Mensch, der das erste oder das zweite visuelle Ausgabegerät trägt und das
Eingabegerät benutzt, kann eine präsentierte Darstellung mit einem Abbild verändern, ohne das visuelle Ausgabegerät absitzen zu müssen. Insbesondere kann der Mensch den Abbildungs-Maßstab vergrößern oder verkleinern oder die Helligkeit der
Darstellung verändern. In einer Ausgestaltung umfasst die Eingabegerät eine
Fernbedienung für das erste Kamerasystem und / oder das zweite Kamerasystem. Dadurch kann ein Mensch, der das erste visuelle Ausgabegerät trägt, die Abbilder verändern, welche das zweite Kamerasystem erzeugt und welche an das erste visuelle Ausgabegerät übertragen und von der ersten Darstellungs-Einrichtung präsentiert werden. Entsprechend kann ein Mensch, der das zweite visuelle Ausgabegerät trägt, die Abbilder vom ersten Kamerasystem verändern.
Das Eingabegerät kann beispielsweise eine Maus oder ein Joy Stick oder ein Schalter oder ein Berührungsfeld umfassen. Das Eingabegerät kann dazu ausgestaltet sein, eine Kopfbewegung des Menschen zu erfassen, beispielsweise mit Hilfe eines
Lokalisierungs-Sensors, Bewegungs-Sensors oder Beschleunigungs-Sensors. Das Eingabegerät kann auch eine visuelle Auswerteeinheit umfassen, welche eine Geste des Menschen erfasst und hieraus eine Benutzereingabe dieses Menschen ableitet, beispielsweise per Mustererkennung.
In einer Ausgestaltung bewirkt eine Betätigung des Eingabegeräts, dass beide
Darstellungs-Einrichtungen in der jeweils präsentierten Darstellung die gleiche
Veränderung vornehmen, beispielsweise jeweils ein virtuelles Objekt für die gleiche Information hervorgehoben oder auf andere Weise verändert darstellen. Auf diese Weise kann ein Mensch, der ein visuelles Ausgabegerät trägt, den Menschen, der das andere visuelle Ausgabegerät trägt, auf eine bestimmte Information hinweisen.
Diese Ausgestaltung mit dem Eingabegerät ermöglicht es den beiden Menschen, sowohl akustisch als auch optisch miteinander zu kommunizieren, ohne dass die beiden Menschen in Hörweite oder Sichtweite zu sein brauchen.
In einer Ausgestaltung umfasst die Anordnung einer Spracherkennungs-Einrichtung. Diese Spracherkennungs-Einrichtung erkennt eine Spracheingabe eines Menschen, der ein visuelles Ausgabegerät mit einer Spracheingabeeinheit trägt. Die Anordnung erzeugt aus der erkannten Spracheingabe eine Information. Beide
Darstellungseinrichtungen erzeugen jeweils ein virtuelles Objekt, welche diese
Informationen, also den Gegenstand der Spracheingabe, in einer visuelle
wahrnehmbaren Form dargestellt. Jede Darstellungs-Einrichtung präsentiert das visuelle Objekt für die Spracheingabe gemeinsam mit einem Abbild von einem Kamerasystem oder einer Ausgabegerät-Kamera. Möglich ist auch, dass die Spracherkennungs-Einrichtung eine Spracheingabe erkennt, die mit dem einen visuellen Ausgabegerät vorgenommen wurde. Die Darstellungs-Einrichtung des anderen visuellen Ausgabegeräts erzeugt ein virtuelles Objekt, welches von der erkannten Spracheingabe abhängt, und präsentiert dieses virtuelle Objekt gemeinsam mit einem Bild. Beide Ausgestaltungen ermöglichen es, gesprochenen Worte, beispielsweise eine verbale Anweisung oder einen verbalen Hinweis, zusätzlich auf dem visuellen Ausgabegerät visuell darzustellen.
In einer Ausgestaltung gehört das erste visuelle Ausgabegerät und / oder das zweite visuelle Ausgabegerät zu einer Kommunikations-Einrichtung. Oder wenigstens jeweils ein Bestandteil des ersten visuellen Ausgabegeräts und / oder des zweiten visuellen Ausgabegeräts gehören zu einer Kommunikations-Einrichtung. Diese Kommunikations- Einrichtung lässt sich von einem Menschen an seinem Kopf tragen, wobei dieser Mensch ein visuelles Ausgabegerät der Anordnung trägt. Die Kommunikations- Einrichtung umfasste weiterhin eine Spracheingabeeinheit, insbesondere ein Mikrofon, und eine Sprachausgabeeinheit, insbesondere einen Kopfhörer.
Vorzugsweise umschließt das erste visuelle Ausgabegerät einen optisch dichten Raum vor den Augen eines Menschen, der das erste visuelle Ausgabegerät trägt. Oder das zweite visuelle Ausgabegerät umschließt einen optisch dichten Raum vor den Augen eines Menschen, der das zweite visuelle Ausgabegerät trägt. Möglich ist, dass beide visuellen Ausgabegeräte der Anordnung jeweils einen optisch dichten Raum vor den Augen eines Menschen umschließen. Der oder jeder optisch dichte Raum verhindert, dass Licht von der realen Umgebung in den optisch dichten Raum eindringt.
In einer Ausgestaltung umschließt wenigstens ein visuelles visuelle Ausgabegerät einen optisch dichten Raum vor den Augen eines Menschen, der das Ausgabegerät trägt. Das visuelle Ausgabegerät verhindert, dass Licht von der realen Umgebung in den optisch dichten Raum eindringt. Weil ein optisch dichter Raum bereitgestellt wird, ist die präsentierte Darstellung die einzige optische Information für einen Menschen, der das visuelle Ausgabegerät trägt. Insbesondere verhindert das visuelle Ausgabegerät gemäß dieser Ausgestaltung, dass Lichteindrücke von außen die präsentierte Darstellung überlagern. Diese Lichteindrücke können dazu führen, dass der Mensch verwirrt wird oder bestimmte Segmente der präsentierten Darstellung überhaupt nicht oder nur schlecht erkennen kann oder dass die Augen überlastet werden und schnell ermüden. Dieser ungewollte Effekt kann insbesondere dann eintreten, wenn die Eindrücke aufgrund von wechselnder Helligkeiten in der Umgebung über der Zeit stark oder schnell variieren. Eine Darstellungs-Einrichtung lässt sich so ausgestalten, dass sie unterschiedlich helle Bilder weniger stark unterschiedlich darstellt.
In einer Ausgestaltung präsentiert ein visuelles Ausgabegerät ein Abbild von einem Kamerasystem und / oder von einer Ausgabegerät-Kamera gemeinsam mit mindestens einem virtuellen Objekt. Somit wird in einer gemeinsamen Darstellung mindestens ein virtuelles Objekt und somit eine virtuelle Realität mit einem Abbild der realen Umgebung überlagert. In einer Ausgestaltung wird die reale Umgebung schwächer oder stärker dargestellt als die Informationen der virtuellen Realität. Ermöglicht wird, dass ein
Mensch, der das visuelle Ausgabegerät trägt, eine teiltransparente Überlagerung der virtuellen Realität mit der dargestellten realen Umgebung wahrnimmt.
In einer Ausgestaltung grenzt mindestens ein Bildschirm an den optisch dichten Raum, die ein visuelles Ausgabegerät vor den Augen eines Menschen, der dieses Ausgabegerät trägt, bereitgestellt. Der oder jeder Bildschirm befindet sich vor mindestens einem Auge eines Menschen, der dieses visuelle Ausgabegerät trägt. Die Darstellungs-Einrichtung vermag die Darstellung mit dem übertragenen Abbild von einem Kamerasystem und / oder von einer Ausgabegerät-Kamera auf diesem Bildschirm zu präsentieren.
In einer Ausgestaltung präsentiert mindestens ein visuelles Ausgabegerät eine
Darstellung mit einem Abbild auf einem Bildschirm, welcher an den optisch dichten Raum angrenzt. Diese Art der Darstellung wird häufig von einem Menschen als weniger störend oder bedrohlich empfunden als andere Arten der Darstellung, beispielsweise als eine Projektion auf die Netzhaut. Möglich ist, dass ein Bereich des ersten Bildschirms dafür verwendet wird, ein Abbild der realen Umgebung darzustellen, und ein weiterer Bereich dafür, das virtuelle Objekt oder die virtuellen Objekte darzustellen.
In einer Ausgestaltung umfasst das visuelle Ausgabegerät einen einzigen Bildschirm, der an den optisch dichten Raum angrenzt und gleichzeitig vor beiden Augen eines Menschen, der das Ausgabegerät trägt, positioniert ist. In einer abweichenden
Ausgestaltung umfasst das Ausgabegerät zwei Bildschirme. Jeder Bildschirm grenzt an den optisch dichten Raum an und ist vor jeweils einem Auge des Menschen positioniert.
In einer abweichenden Ausgestaltung umfasst mindestens eine Darstellungs- Einrichtung einen so genannten Netzhaut-Projektor. Dieser Netzhaut-Projektor projiziert die Darstellung mit dem Abbild auf die Netzhaut mindestens eines Auges eines Menschen der das visuelle Ausgabegerät trägt.
Gemäß einer Ausgestaltung fungiert die Darstellungs-Einrichtung als ein sogenannter Netzhaut- Projektor. Dieser Netzhaut-Projektor prägt die Darstellung mit dem Abbild der realen Umgebung direkt auf die Netzhaut eines Auges eines Menschen auf, der das visuelle Ausgabegerät trägt.
Lösungsgemäß umfasst die Anordnung ein erstes Kamerasystem und ein zweites Kamerasystem. Das erste Kamerasystem vermag mindestens ein Abbild eines Menschen, der das erste visuelle Ausgabegerät trägt, zu erzeugen. Das zweite Kamerasystem vermag mindestens ein Abbild eines Menschen, der das zweite visuelle Ausgabegerät trägt, zu erzeugen. Bevorzugt kann der erste Mensch mit dem ersten visuellen Ausgabegerät sich relativ zur ersten Kamerasystem frei bewegen, der zweite Menschen mit dem zweiten visuellen Ausgabegerät frei relativ zum zweiten Kamerasystem. Vorzugsweise umfasst die Anordnung mindestens eine Lokalisierungs- Einrichtung, die dem ersten Kamerasystem und oder dem zweiten Kamerasystem zu. Möglich ist, dass Kamerasystem jeweils eine Lokalisierungs-Einrichtung zugeordnet ist. Das zugeordnete Kamerasystem umfasst eine Kamera sowie einen Stellantrieb für diese Kamera. Die Lokalisierungs-Einrichtung vermag die Position eines visuellen Ausgabegeräts im Raum zu ermitteln. Das zugeordnete Kamerasystem erzeugt Abbilder von demjenigen Menschen, der dieses visuelle Ausgabegerät trägt. Der Stellantrieb vermag die Kamera dieses zugeordneten Kamerasystems zu bewegen, und zwar abhängig von Signalen der Lokalisierungs-Einrichtung, welche das visuelle Ausgabegerät lokalisiert.
In einer Ausgestaltung umfasst mindestens ein Kamerasystem einen Stellantrieb, und die Anordnung umfasst eine Lokalisierungs-Einrichtung. Die Lokalisierungs-Einrichtung vermag den Ort eines Menschen zu ermitteln, insbesondere eines Menschen, der ein visuelles Ausgabegerät der Anordnung trägt. Möglich ist, dass ein visuelles
Ausgabegerät mechanisch mit einem Positions-Sender verbunden ist und die
Lokalisierungs-Einrichtung Signale von diesem Positions-Sender empfängt und auswertet. Der Stellantrieb vermag mindestens eine Kamera des Kamerasystems zu bewegen, und zwar abhängig von Signalen der Lokalisierungs-Einrichtung. Dadurch vermag die bewegte Kamera den Bewegungen eines Menschen, der das visuelle Ausgabegerät trägt, zu folgen
Um die Position eines Menschen, der das erste oder das zweite visuelle Ausgabegerät trägt, zu ermitteln, sind in einer Ausgestaltung entsprechende Markierungen an dem visuellen Ausgabegerät oder am Körper des Menschen angeordnet. Die Lokalisierungs- Einrichtung umfasst eine Bilderkennungseinheit, welche diese Markierungen
automatisch erkennt.
In einer Ausführungsform der Lokalisierungs-Einrichtung ist dasjenige visuelle Ausgabegerät, dessen Position im Raum ermittelt werden soll, mechanisch mit einem Positions-Sender verbunden. Die Lokalisierungs-Einrichtung umfasst diesem Positionssender sowie einen Empfänger. Der Positions-Sender an dem visuellen Ausgabegeräts vermag ein Positions-Signal auszusenden. Der Empfänger der Lokalisierungs-Einrichtung vermag dieses Positions-Signal zu empfangen. Die Lokalisierungs-Einrichtung vermag weiterhin den Stellantrieb abhängig von einem empfangenen Positions-Signal anzusteuern.
In einer Ausgestaltung umfasst das visuelle Ausgabegerät einen Sender, welcher ein Positions-Signal an die Lokalisierungs-Einrichtung übermittelt. Der Sender des
Ausgabegeräts kann beispielsweise Ultraschallsignale aussenden.
Die Ausgestaltung mit einem Sender und einem Empfänger ermöglicht es in vielen Anwendungen zuverlässig, die aktuelle Position eines Menschen zu ermitteln, der ein visuelles Ausgabegerät mit dem Sender trägt, insbesondere daran, wenn ein Abbild, welches ein Kamerasystem erzeugt, zusätzlich zu dem Menschen mit dem visuellen Ausgabegerät einen weiteren Menschen zeigt und oder wenn schlechte
Lichtverhältnisse herrschen und oder wenn der Mensch mit dem visuellen
Ausgabegerät sich rasch bewegt. Möglich ist, dass das Positions-Signal eine Kennung des visuellen Ausgabegeräts umfasst, so dass die Lokalisierungs-Einrichtung das empfangene Positions-Signal von dem visuellen Ausgabegerät zuverlässig von anderen Signalen zu unterscheiden vermag.
In einer Ausführungsform umfasst die Anordnung eine Bildauswerteeinheit. Diese Bildauswerteeinheit vermag automatisch ein Abbild auszuwerten, welches von einem Kamerasystem der Anordnung erzeugt wurde. Durch Auswertung des Abbilds vermag die Bildauswerteeinheit automatisch optisch erfassbare Attribute eines Menschen zu ermitteln, wobei dieser Mensch in diesem Abbild gezeigt wird. Die Bildauswerteeinheit vermag weiterhin einen Datensatz für einen Menschen zu identifizieren, und zwar in einem Datenspeicher unter einer vorgegebenen Menge von Datensätzen mit Informationen über verschiedene Menschen. Diesen Datensatz identifiziert die Bildauswerteeinheit abhängig von den ermittelten optisch erfassbaren Attributen. Oder die Bildauswerteeinheit stellt automatisch fest, dass kein Datensatz zu demjenigen Menschen gehört, der im Abbild gezeigt wird. In einer Ausgestaltung umfasst mindestens ein Kamerasystem eine
Mustererkennungseinrichtung oder eine Bilderkennungseinrichtung, die bevorzugt mit Software realisiert ist. Diese Einrichtung ermittelt aus mindestens einem Abbild, bevorzugt mehreren Abbildern, von dem Kamerasystem Informationen über einen Menschen, der in den Abbildern gezeigt wird. Falls die Abbilder von dem ersten
Kamerasystem stammen, so zeigen sie den ersten Menschen, der das erste visuelle Ausgabegerät trägt. Falls sie von dem zweiten Kamerasystem stammen, so zeigen sie den zweiten Menschen, der das zweite visuelle Ausgabegerät trägt. In manchen Anwendungen ist dieser Mensch schwer zu erkennen, insbesondere bei schlechten Lichtverhältnissen. Die ermittelten Informationen werden dem anderen Menschen präsentiert. Dadurch wird die Gefahr reduziert, dass der eine Mensch nicht weiß, mit wem er oder sie Nachrichten austauscht, oder mit einem unbefugten anderen
Menschen Nachrichten austauscht.
In einer Ausgestaltung werden diese ermittelten Informationen über einen Menschen, der in den Abbildern gezeigt wird, mit visuell erfassbaren Informationen über
verschiedene Menschen verglichen. Diese Informationen über verschiedene Menschen sind in einer Datenbank abgespeichert. Die verschiedenen Menschen sind
beispielsweise mehrere Besatzungsmitglieder eines Wasserfahrzeugs. Bevorzugt ist in der Datenbank weiterhin eine eindeutige Kennzeichnung des Menschen und / oder ein Porträt des Menschen ohne ein visuelles Ausgabegerät abgespeichert. Diese
Kennzeichnung und oder dieses Porträt wird demjenigen Menschen präsentiert, der das andere Ausgabegerät trägt, an den also die Abbilder übermittelt werden, welche den Menschen mit dem visuellen Ausgabegerät zeigen.
In einer Ausgestaltung umfasst die Anordnung ein drittes visuelles Ausgabegerät mit einer dritten Darstellungs-Einrichtung und ein drittes Kamerasystem. Das dritte
Kamerasystem ist so positioniert, dass es ein Abbild von einem Menschen erzeugt, welcher das dritte visuelle Ausgabegerät trägt. Die Abbild-Übertragungs-Einrichtung vermag Abbilder an jedes visuelle Ausgabegerät zu übertragen. Dadurch können drei Menschen, welche die drei visuellen Ausgabegeräte tragen, Nachrichten miteinander austauschen.
Die Abbild-Übertragungs-Einrichtung kann einen direkten drahtlosen Übertragungskanal zwischen den beiden visuellen Ausgabegeräten bereitstellen. Möglich ist auch, dass die Abbild-Übertragungs-Einrichtung eine Relaisstation, beispielsweise in Form eines Rechners oder Servers, umfasst. Zwischen dem ersten visuellen Ausgabegerät und der Relaisstation wird ein erster drahtloser Übertragungskanal bereitgestellt, zwischen dem zweiten visuellen Ausgabegerät und der Relaisstation ein zweiter Übertragungskanal. Als drahtloser Übertragungskanal lassen sich beispielsweise elektromagnetische Wellen, Mobilfunk, Bluetooth, WLAN, Nahfeld-Kommunikation und / oder optischer Richtfunk verwenden.
Möglich ist auch, dass der bereitgestellte Übertragungskanal zwischen den beiden Ausgabegeräten aus einer kabelgebundenen Übertragungsstrecke und jeweils einer drahtlosen Übertragungsstrecke für jedes visuelle Ausgabegerät besteht. Falls die lösungsgemäße Anordnung an Bord eines Wasserfahrzeugs verwendet wird, so lässt sich das Bordnetz des Wasserfahrzeugs dafür verwenden, einen Teil des
kabelgebundenen oder drahtlosen Übertragungskanals bereitzustellen.
In einer Ausgestaltung umfasst jedes visuelle Ausgabegerät eine Virtual-Reality-Brille (VR-Brille). Eine solche VR-Brille wird auch Videobrille, Helmdisplays oder VR Helme genannt. Das visuelle Ausgabegerät kann auch als Augmented-Reality-Brille (AR-Brille) ausgestaltet sein.
Jedes Kamerasystem kann eine einzelne Kamera oder auch mehrere Kameras umfassen. Falls ein Kamerasystem mehrere Kameras umfasst, so haben diese
Kameras eines Kamerasystems bevorzugt unterschiedliche Blickrichtungen und / oder unterschiedliche Blickwinkel. Bevorzugt vermag jede Kamera statische oder bewegte optische Bilder von der realen Umgebung zu erzeugen, insbesondere eine Videosequenz. Vorzugsweise erzeugt jede Kamera wiederholt Abbilder, beispielsweise mit einer vorgegebenen Abtastrate oder Abtastfrequenz. In einer Ausgestaltung ist die oder jede Kamera als eine digitale Kamera mit einem CCD-Chip ausgestaltet. Ein Linsensystem leitet Licht auf diesem CCD-Chip. Die Darstellungs-Einrichtung verwendet Daten auf diesem CCD-Chip und in der gemeinsamen Darstellung das Abbild von der realen Umgebung darzustellen.
Mindestens eine Kamera kann als eine 3D-Kamera ausgestaltet sein, welche zueinander beabstandete Linsen oder ähnliche optische Abbildungseinheiten umfasst.
In einer Ausgestaltung umfasst jedes Kamerasystem eine ortsfeste Kamera,
insbesondere eine Kamera, die an der Wand oder Decke eines Raums befestigt ist. In einer anderen Ausgestaltung umfasst jedes Kamerasystem eine mobile Kamera. In beiden Ausgestaltungen sind die Kameras der Kamerasysteme räumlich getrennt von dem visuellen Ausgabegerät.
Gemäß der lösungsgemäßen Anordnung und dem lösungsgemäßen Verfahren erzeugt das erste Kamerasystem ein Abbild von einem ersten Menschen, der das erste visuelle Ausgabegerät trägt. Dieses Abbild wird an das zweite visuelle Ausgabegerät
übertragen, und die zweite Darstellungs-Einrichtung präsentiert dieses Abbild einem zweiten Menschen, der das zweite Ausgabegerät trägt. Entsprechend präsentiert die erste Darstellungs-Einrichtung ein Abbild, welches von dem zweiten Kamerasystem erzeugt wurde. In einer Ausgestaltung vermag die erste Darstellungs-Einrichtung wahlweise ein Abbild von dem zweiten Kamerasystem oder ein Abbild von dem ersten Kamerasystem zu präsentieren. Dank dieser Ausgestaltung vermag ein erster Mensch, der das erste visuelle Ausgabegerät trägt, wahlweise den zweiten Menschen zu sehen, der das zweite Ausgabegerät trägt, oder sich selber. Diese Ausgestaltung ermöglicht es dem ersten Menschen, seine eigene Gestik und Mimik zu sehen und zu überprüfen. Möglich ist auch, dass eine Darstellungs-Einrichtung gleichzeitig Abbilder von beiden Kamerasystemen präsentiert, in einer Ausgestaltung zusätzlich mit virtuellen Objekten. Nachfolgend wird die erfindungsgemäße Anordnung anhand eines in den Zeichnungen dargestellten Ausführungsbeispiels näher erläutert. Hierbei zeigen:
Fig. 1 einen ersten Menschen, der ein lösungsgemäßes visuelles Ausgabegerät in Form einer ersten VR-Brille sowie ein Eingabegerät trägt; zwei digitalen Kameras, einen Auswerterechner und eine Lokalisierungs-Einrichtung
Fig. 2 in einer schematischen Darstellung, was die VR-Brille dem ersten Menschen, der die erste VR-Brille trägt, auf dem Bildschirm präsentiert.
Im Ausführungsbeispiel wird die Erfindung an Bord eines bemannten Wasserfahrzeugs eingesetzt, wobei das Wasserfahrzeug ein Überwasserfahrzeug oder ein Unterwasserfahrzeug sein kann. Zwei Besatzungsmitglieder des Wasserfahrzeugs verwenden zwei lösungsgemäße visuelle Ausgabegeräte einer lösungsgemäßen Anordnung. Im Ausführungsbeispiel hat jedes visuelle Ausgabegerät die Form einer Virtual-Reality-Brille (VR-Brille). In einer Ausgestaltung wird als VR-Brille eine Oculus Rift® verwendet, welche lösungsgemäß erweitert ist.
In Fig. 1 trägt ein erster Mensch M.1 eine erste VR-Brille 101 . Diese VR-Brille 101 umfasst einen Träger, der einen bevorzugt elastischen und in der Länge veränderlichen Spanngurt 107 sowie einen Rahmen 106 umfasst. Der Spanngurt 107 ist um den Kopf K.1 des Menschen M.1 herum geführt und trägt den Rahmen 106. Der Spanngurt 107 gewährleistet einen sicheren Sitz der VR-Brille 101 . Der Rahmen 106 trägt ein plattenförmiges und vorzugsweise flexibles Halteelement 105. In dieses Halteelement 105 sind zwei Kameraobjektive 103 eingelassen, welche zu zwei digitalen Kameras der ersten VR-Brille 101 gehören. Jede digitale Kamera vermag ein Abbild der realen Umgebung der VR-Brille 101 zu erzeugen. Bevorzugt stimmt die Blickrichtung jeder digitalen Kamera mit der Standard-Blickrichtung des Menschen M.1 , der die VR-Brille 101 trägt, überein. Die beiden digitalen Kameras mit den Objektiven 103 bilden quasi die „Augen der Realität" des Menschen und fungieren als die erste Ausgabegerät- Kamera des Ausführungsbeispiels.
Die Signale von den Kameraobjektiven 103 werden auf CCD-Chips aufgezeichnet. Dadurch lassen sich optische Bilder, welche die Kameraobjektive 103 erzeugen, aufzeichnen. Ein Rechner 1 15 einer Darstellungs-Einrichtung ist an dem Rahmen 106 montiert Der Rechner 1 15 wertet die Signale von den Kameraobjektiven 103 aus und erzeugt ein Abbild von der realen Umgebung. Auf der Innenseite des Halteelements 105, also auf der zum Menschen M.1 zeigenden Oberfläche des Halteelements 105, wird ein Bildschirm 21 1 bereitgestellt. Fig. 2 zeigt schematisch diesen Bildschirm 21 1 in der Blickrichtung, in welcher der Mensch M.1 , der die erste VR-Brille 101 trägt, auf das Halteelement 105 und damit auf den Bildschirm 21 1 schaut. In einer Ausgestaltung werden zwei Bildschirme 21 1 bereitgestellt, nämlich jeweils ein Bildschirm vor jedem Auge des Menschen M.1 . Eine im folgende beschrieben Darstellungs-Einrichtung vermag Bilder zu erzeugen und diese dem ersten Menschen M.1 auf diesen beiden Bildschirmen 21 1 zu präsentieren. Die Bildschirme 21 1 gehören zur Darstellungs- Einrichtung der ersten VR-Brille 101 .
Die Signale von den Kameraobjektiven 103 werden auf CCD-Chips aufgezeichnet. Dadurch lassen sich optische Bilder, welche die Kameraobjektive 103 erzeugen, aufzeichnen. Ein Rechner 1 15 der Darstellungs-Einrichtung ist an dem Rahmen 106 montiert Der Rechner 1 15 wertet die Signale von den Kameraobjektiven 103 aus und erzeugt ein Abbild von der realen Umgebung. Der Rechner 1 15 veranlasst automatisch, dass dieses Abbild auf dem oder jedem Bildschirm 21 1 präsentiert wird. In einer Ausgestaltung erzeugt der Rechner 1 15 eine stereoskopische Darstellung der realen Umgebung vor dem Menschen M.1 , der die erste VR-Brille 101 trägt, und verwendet hierfür Signale von beiden digitalen Kameras 103. Diese stereoskopische Darstellung wird auf dem Bildschirm 21 1 präsentiert.
Fig. 2 zeigt beispielhaft ein auf einem Bildschirm 21 1 präsentiertes Abbild 215. In diesem Beispiel schaut der Mensch M.1 , der die VR-Brille 101 trägt, einen anderen Menschen M.2 an, beispielsweise ein anderes Besatzungsmitglied des Wasserfahrzeugs. Das Abbild 215 zeigt ein Abbild mit dem Kopf K.2 und den Oberkörper dieses anderen Menschen M.2. Der andere Mensch M.2 trägt eine zweite VR Brille 301 , die genauso wie die erste VR Brille 101 aufgebaut ist.
Der Mensch M.1 , der die VR-Brille 101 trägt, kann Gesten und die Mimik des anderen Menschen M.2 wahrnehmen, ohne die erste VR-Brille 101 absetzen zu müssen. Dadurch können die beiden Menschen M.1 und M.2 visuell miteinander kommunizieren. Diese visuelle Kommunikation kann eine akustische Kommunikation ergänzen oder auch ersetzen, wenn die akustische Kommunikation nicht möglich ist.
Die erste VR-Brille 101 ist blickdicht, d.h. sie umschließt einen optisch dichten Raum vor den Augen des Menschen M.1 , welcher die VR-Brille 101 trägt. Dieser optisch dichte Raum wird von dem Halteelement 105, im Rahmen 106 und dem Kopf K.1 des Menschen M.1 begrenzt. Insbesondere ist das Halteelement 105 mit den beiden Kameraobjektiven 103 vollständig lichtundurchlässig ausgestaltet. Die erste VR-Brille 101 verhindert, dass Licht aus der realen Umgebung in den optisch dichten Raum vor dem Kopf K.1 des ersten Menschen M.1 eindringt.
An dem Rahmen 106 oder an dem Halteelement 105 der ersten VR Brille 101 ist eine Empfangs-Einrichtung 1 17 angeordnet. Diese Empfangseinrichtung vermag drahtlos Signale zu empfangen. Der Rechner 1 15 der Darstellungs-Einrichtung erzeugt aus diesen Signalen Abbilder, welche dann auf dem Bildschirm 21 1 präsentiert werden
Zwei digitale Kameras 123 nehmen fortlaufend Abbilder vom ersten Menschen M.1 auf, bevorzugt mit einer vorgegebenen Abtastrate. Die beiden Kameras gehören zum ersten Kamerasystem 121 des Ausführungsbeispiels. Zwei Stellglieder 132 vermögen die ortsfesten Kameras 123 zu bewegen. Dank dieser Stellglieder 132 folgen die Digitalkameras 123 einer Bewegung des ersten Menschen M.1 im Raum, so dass die Abbilder von den Kameras 123 den Menschen M.1 zeigen. Ein Steuergerät 134 steuert diese Stellantriebe 132 an. In einer Ausgestaltung wertet eine nicht gezeigte Auswerteeinheit die Abbilder aus, welche die Kameras 123 erzeugen, und ermittelt dadurch eine Bewegung des ersten Menschen M.1 . Im Ausführungsbeispiel, der in Fig. 1 gezeigt wird, ist hingegen ein Sender 128 an dem Rahmen 106 der ersten VR-Brille 101 montiert. Dieser Sender 128 sendet fortlaufend Positions-Signal. Im einfachsten Fall sendet der Sender 128 ein Signal, welches die erste VR-Brille 101 von allen anderen Geräten an Bord des Wasserfahrzeugs unterscheidet, welche ebenfalls Signale auszusenden. Ein Empfänger 130 empfängt die Positionssignale von dem Sender 128. Eine Übertragungseinheit 124 übermittelt die empfangenen Positions-Signale an das Steuergerät 134. Das Steuergerät 134 wertet die empfangenen Signale aus und steuert abhängig von den empfangenen und ausgewerteten Signalen die Stellantrieb 132 aus. Diese Ausgestaltung ermöglicht in vielen Fällen mit größerer Sicherheit, dass die Kameras 123 den Bewegungen des ersten Menschen M.1 folgen, auch wenn sich weitere Menschen in der Nähe des ersten Menschen M.1 bewegen.
Der erste Mensch M.1 tauscht visuell Nachrichten mit einem zweiten Menschen M.2 aus. Der zweite Mensch M.2 trägt an seinem Kopf K.2 ein zweites visuelles Ausgabegerät in Form einer zweiten VR-Brille 301 . Im Ausführungsbeispiel ist die zweite VR-Brille 301 genauso wie die erste VR-Brille 101 aufgebaut. Fig. 2 zeigt diese zweite VR-Brille 301 von vorne - genauer: ein Abbild der zweiten VR-Brille 301 im Abbild 215, das auf dem Bildschirm 21 1 präsentiert wird. Dies Standard-Blickrichtung des zweiten Menschen M.2 und damit die Blickrichtungen der beiden digitalen Kameras der zweiten VR-Brille 301 sind auf den Betrachter gerichtet. Folgende Bestandteile der zweiten VR-Brille 301 sind in Fig. 2 zu sehen:
- zwei Kameraobjektive 303, welche zu zwei digitalen Kameras der zweiten VR-Brille 301 gehören,
- der Rechner 315 der Darstellungs-Einrichtung der zweiten VR Brille 301 ,
- ein Sender 328, der Positions-Signale aussendet,
- eine Empfangs-Einrichtung 317, die der Empfangs-Einrichtung 1 17 der ersten VR- Brille 101 entspricht. Wie in Fig. 1 zu sehen ist, erzeugen zwei ortsfeste digitale Kameras 123 Abbilder von dem ersten Menschen M.1 , welcher die erste VR-Brille 101 trägt. Dank der angesteuerten Stellantriebe 132 für die beiden ortsfesten digitalen Kameras 123 den Bewegungen des ersten Menschen M.1 zu folgen. Ein Auswerterechner 125 erhält Signale von den beiden Kameras 123 und erzeugt daraus aufbereitete Abbilder von dem ersten Menschen M.1 . Beispielsweise hellt der Auswerterechner 125 automatisch die Abbilder auf oder dunkelt sie ab, um zu starke Schwankungen in der Helligkeit der Darstellungen zu kompensieren. Ein Sender 127 sendet diese aufbereiteten Abbilder automatisch aus.
In einer Ausgestaltung übermittelt ein nicht gezeigter Sender die aufbereiteten Abbilder, die das erste Kamerasystem 121 erzeugt hat, direkt und drahtlos an die zweite VR- Brille 301 , welche der zweite Mensch M.2 trägt. In einer anderen Ausgestaltung übermittelt der Auswerterechner 125 die aufbereiteten Abbilder an einen zentralen Rechner 220, und zwar bevorzugt kabelgebundenen über das Bordnetz des Wasserfahrzeugs. Der zentrale Rechner 220 ist mit einem Sender 127 verbunden. Dieser Sender 127 übermittelt die Abbilder dann drahtlos an die zweite VR-Brille 301 . In beiden Ausgestaltungen empfängt die Empfangs-Einrichtung 317 der zweiten VR-Brille 301 die übermittelten Signale mit den aufbereiteten Abbildern vom ersten Menschen M.1 .
Umgekehrt werden dem zweiten Menschen M.2, welcher die zweite VR-Brille 301 trägt, die aufbereiteten Abbilder von den Kameras 123 gezeigt, welche den ersten Menschen M.1 zeigen. Dadurch wird der zweite Mensch M.2 in die Lage versetzt, Gesten und Mimik des ersten Menschen M.1 wahrzunehmen, ohne die zweite VR-Brille 301 absetzen zu müssen.
Umgekehrt folgen mehrere ortsfeste digitale Kameras (nicht gezeigt) den Bewegungen des zweiten Menschen M.2. Diese Abbilder von den digitalen Kameras zeigen den zweiten Menschen M.2 und werden direkt oder über den zentralen Rechner 220 an die erste Frau 101 übermittelt. Die Empfangs-Einrichtung 1 17 der ersten VR-Brille 101 empfängt diese aufbereiteten Abbilder. Die erste Darstellungs-Einrichtung mit dem Rechner 1 15 präsentiert die empfangenen Abbilder auf dem einen Bildschirm oder den beiden Bildschirmen 21 1 . Fig. 2 zeigt schematisch, wie der erste Mensch M.1 auf einem Bildschirm 21 1 den zweiten Menschen M.2 sieht.
An Bord des Wasserfahrzeugs ist eine Sonaranlage mit einer Unterwasserantenne (nicht gezeigt) angeordnet. Diese Sonaranlage peilt eine Schallquelle, die unter Wasser Schallwellen absenden, und ermittelt insbesondere die Richtung und / oder die Entfernung von dem Wasserfahrzeug zu dieser Schallquelle. Diese Sonaranlage erzeugt abhängig von den Messwerten (z.B. Richtung und Entfernung sowie Schallintensität abhängig von der Zeit und / oder der Frequenz) Signale. Diese Signale werden über das kabelgebundene Bordnetz des Wasserfahrzeugs an den zentralen Rechner 220 übermittelt. Mit Hilfe des Senders 127 übermittelt der zentrale Rechner 220 diese Signale mit Messwerten der Sonaranlage zeitgleich an die beiden Empfangs- Einrichtungen 1 17 und 317 der beiden VR-Brillen 101 und 301 , beispielsweise mit Nahfunk.
Vorzugsweise erhält die Empfangs-Einrichtung 1 17 die Signale mit einer festen Frequenz. Der Rechner 1 15 der ersten Darstellungs-Einrichtung wertet die empfangenen Signale aus und erzeugt virtuelle Objekte in Form von virtuellen Instrumenten 213. Der Rechner 1 15 der ersten Darstellungs-Einrichtung erzeugt eine gemeinsame Darstellung, welche gleichzeitig das Abbild 215 von der realen Umgebung, welches den Menschen M.2 zeigt, und mehrere virtuelle Objekte in Form von virtuellen Instrumenten 213 präsentiert. Die Empfangs-Einrichtung 317 der zweiten VR-Brille 301 erhält die gleichen Signale mit derselben Frequenz. Der Rechner 315 der zweiten Darstellungs-Einrichtung wertet die empfangenen Signale aus und erzeugt ebenfalls virtuelle Objekte in Form von virtuellen Instrumenten. Die virtuellen Instrumente, die auf dem Bildschirm 21 1 der ersten VR-Brille 101 gezeigt werden, zeigen die gleichen Informationen wie die virtuellen Instrumente auf dem Bildschirm der zweiten VR-Brille 301 und können grafisch genauso aufgebaut sein oder grafisch abweichend aufgebaut sein. Möglich ist, dass ein Mensch M.1 , M.2 die gezeigten virtuellen Instrumente verändert, beispielsweise vergrößert oder verkleinert.
Vorzugsweise aktualisiert der Rechner 1 15 die virtuellen Instrumente 213 mit der Frequenz, mit der die Empfangs-Einrichtungen 1 17 und 317die Signale empfangen. In einer Ausgestaltung enthalten die oder wenigstens einige Signale eine Darstellungs- Information. Falls ein Messwert außerhalb eines vorgegebenen Bereichs liegt, falls beispielsweise die Entfernung zu einer Schallquelle unterhalb einer vorgegebenen Schranke fällt, so werden das entsprechende virtuelle Instrument 213 auf den Bildschirm 21 1 der ersten VR-Brille 101 und das entsprechende virtuelle Instrument auf dem Bildschirm der zweiten VR-Brille 301 hervorgehoben dargestellt. Dadurch wird die Aufmerksamkeit des Menschen M.1 auf dieses virtuelle Instrument 213 für einen relevanten Messwert gelenkt. Das gleiche gilt für den zweiten Menschen M.2.
Im Ausführungsbeispiel wendet der Mensch M.1 sich dem Menschen M.2 zu, beispielsweise weil das Besatzungsmitglied M.2 zuvor das Besatzungsmitglied M.1 angesprochen hat. Der Mensch M.1 sieht auf dem Bildschirm 21 1 einerseits ein Abbild 215, welches den Menschen M.2 zeigt, und andererseits die virtuellen Instrumente 213, vgl. Fig. 2. Der Mensch M.1 kann dadurch die Messwerte von der Sonar-Anlage, die mit Hilfe der virtuellen Instrumente 213 dargestellt werden, wahrnehmen und zugleich mit dem Menschen M.2 visuell kommunizieren.
Die beiden Menschen M.1 und M.2 sehen die gleiche Information (die gleichen Messwerte von der Sonar-Anlage), dargestellt durch virtuelle Instrumente. Die virtuellen Instrumente werden den beiden Menschen M.1 und M.2 in jeweils einer gemeinsamen Darstellung zusammen mit einem Abbild des jeweils anderen Menschen M.2 bzw. M.1 präsentiert. Die gemeinsame Darstellung, die den Menschen M.1 präsentiert wird, zeigt die virtuellen Instrumente 213 und ein Abbild des zweiten Menschen M.2, vgl. Fig. 2. Umgekehrt zeigt die gemeinsame Darstellung, die dem Menschen M.2 präsentiert wird, die virtuellen Instrumente für dieselben Messwerte sowie ein Abbild des ersten Menschen M.1 . Sowohl die Abbilder der Menschen M.2, M.1 als auch die virtuellen Instrumente werden laufend aktualisiert.
Wie versehen ist, trägt der erste Mensch M.1 in seiner linken Hand ein Eingabegerät 109. Der zweite Mensch M.2 trägt ein entsprechendes Eingabegerät (nicht gezeigt). Beispielsweise betätigt der Mensch M.1 eine Taste oder einen Knopf oder ein berührungssensitives Feld auf dem Eingabegerät 109. Oder das Eingabegerät 109 besitzt einen Bewegungssensor oder einen Beschleunigungssensor, der eine bestimmte Bewegung der linken Hand registriert.
Mit Hilfe des Eingabegeräts 109 kann der erste Mensch ein virtuelles Instrument 213 in der gemeinsamen Darstellung auf dem Bildschirm 21 1 auswählen. Diese Auswahl wird von einem Sender 136 der ersten VR-Brille 101 an einen nicht gezeigten Empfänger des zentralen Rechners 220 übermittelt. In einem Ausführungsbeispiel ist der Sender 136 am Eingabegerät 109 montiert. Diese Auswahl und diese Hervorhebung werden an die zweite VR-Brille 301 übermittelt. Der zweite Mensch M.2 sieht in der gemeinsamen Darstellung ebenfalls dasjenige virtuelle Instrument 213 hervorgehoben dargestellt, welches der erste Mensch M.1 mit Hilfe des Eingabegeräts 109 ausgewählt hat. Der erste Mensch M.1 kann Erläuterungen zu der Hervorhebung visuell geben, beispielsweise mit Gesten, die der zweite Mensch M.2 auf dem Bildschirm der zweiten VR Brille 301 sieht.
Möglich ist, dass die beiden Menschen M.1 , M.2 zusätzlich jeweils eine Spracheingabeeinheit, beispielsweise ein Mikrofon, und eine Sprachausgabeeinheit tragen (nicht gezeigt). Die Sprachausgabeeinheit, die der erste Mensch M.1 benutzt, kann in den Rahmen 106 oder den Spanngurt 107 der ersten VR-Brille 101 integriert sein. Entsprechend kann die Sprachausgabeeinheit, die der zweite Mensch M.2 benutzt, in die zweite VR-Brille 301 integriert sein. Dank der Spracheingabeeinheiten und der Sprachausgabeeinheiten können die beiden Menschen M.1 und M.2 zusätzlich akustisch miteinander kommunizieren, auch wenn beträchtliche Umgebungsgeräusche eine akustische Kommunikation ohne Hilfsmittel erschweren. Insbesondere kann ein Mensch verbale Infornnationen zu dem virtuellen Objekt eben, dass er oder sie zuvor ausgewählt hat.
Beispielsweise kann der erste Mensch M.1 mit Hilfe des Eingabegeräts 109 ein virtuelles Instrument 213 auswählen und den zweiten Menschen M.2 auf den dargestellten Sensorwert hinweisen. Durch Gesten und / oder durch eine akustische Anweisung kann der erste Mensch M.1 den zweiten Menschen M.2 anweisen, eine bestimmte Handlung vorzunehmen.
Wie oben bereits dargelegt, sind in das Halteelement 105 der ersten VR Brille 101 zwei Kameraobjektive 103 von zwei digitalen Kameras eingelassen. In das Halteelement 305 der zweiten VR-Brille 301 sind zwei Kameraobjektive 303 eingelassen. Bevorzugt stimmt die Blickrichtung jeder digitalen Kamera mit der Standard-Blickrichtung des Menschen M.1 , der die VR-Brille 101 trägt, überein. Die beiden digitalen Kameras mit den Objektiven 103 bilden quasi die„Augen der Realität" des Menschen. Diese beiden Kameras mit den Objektiven 103 bilden quasi die„Augen der Realität" des Menschen. Sie zeigen nämlich die reale Umgebung des ersten Menschen M.1 . der erste Mensch M.1 kann in einer Ausgestaltung zwischen zwei verschiedenen Darstellungen umschalten, die im wahlweise präsentiert werden:
- eine Darstellung, die den zweiten Menschen M.2 zeigt und so aufgebaut ist wie es schematisch in Fig. 2 gezeigt wird, und
- eine Darstellung, die die reale Umgebung des ersten Menschen M.1 zeigt, also das, was der erste Mensch M.1 in einem Bereich vor sich selbst sehen würde, wenn er nicht die erste VR-Brille 101 tragen würde.
Der erste Mensch M.1 kann die Darstellung mit der realen Umgebung vor dem ersten Menschen M.1 selber wählen, wenn er nicht mit einem zweiten Menschen M.2 kommuniziert, oder wenn er sich bewegt und sicherstellen will, dass er nicht gegen ein Hindernis läuft. In diese beiden Darstellungen werden die virtuellen Instrumente 213 eingeblendet, so dass der erste Mensch auf dem Bildschirm 21 1 stets eine gemeinsame Darstellung. Entsprechend kann der zweite Mensch M.2, der die zweite VR-Brille 301 trägt, zwischen folgenden beiden Darstellungen wählen:
- eine Darstellung, die von den ortsfesten Kameras 123 erzeugt wurde und den ersten Menschen M.1 zeigt und entsprechend derjenigen Darstellung aufgebaut ist, die es schematisch in Fig. 2 gezeigt wird, und
- eine Darstellung, die die reale Umgebung des zweiten Menschen M.2 zeigt, also das, was der zweite Mensch M.2 in einem Bereich vor sich selbst sehen würde, wenn er nicht die zweite VR-Brille 301 tragen würde.
In einer Ausgestaltung vermag die erste VR-Brille 101 die Bilder von der realen Umgebung, welche die beiden Kameras mit den Objektiven 103 erzeugt haben, an den zentralen Rechner 220 zu übermitteln. Der zentrale Rechner 220 übermittelt diese Abbilder über den Sender 127 an die zweite VR-Brille 301 . Der zweite Mensch M.2 kann daher zwischen drei Darstellungen wählen:
- eine Darstellung, die von den ortsfesten Kameras 123 erzeugt wurde und den ersten Menschen M.1 zeigt,
- eine Darstellung, die die reale Umgebung des zweiten Menschen M.2 zeigt, also das, was der zweite Mensch M.2 in einem Bereich vor sich selbst sehen würde, wenn er nicht die zweite VR-Brille 301 tragen würde, und
- eine Darstellung, die die reale Umgebung des ersten Menschen M.1 zeigt, also das, was der erste Mensch M.1 in einem Bereich vor sich selbst sehen würde, wenn er nicht die erste VR-Brille 101 tragen würde.
Der erste Mensch M.1 kann somit dem zweiten Menschen M.2 etwas zeigen, was sich vor dem ersten Menschen M.1 befindet, beispielsweise eine Maschine oder eine Anlage an Bord des Wasserfahrzeugs. Entsprechend kann der erste Mensch M.1 in einer Ausgestaltung ebenfalls zwischen drei Darstellungen auswählen. In allen drei Darstellungen werden bevorzugt jeweils die virtuellen Instrumente 213 eingeblendet.
In manchen Situationen kann es der eine Mensch M.1 , M.2 als nachteilig ansehen, dass er in dem Abbild den anderen Menschen M.2, M.1 nur mit einer VR Brille 101 , 301 vor den Augen sieht. Die folgende Ausgestaltung bietet eine mögliche Abhilfe für dieses Problem. In einer Ausgestaltung ist in einer Datenbank eine Menge von Datensätzen abgespeichert. Jeder Datensatz bezieht sich auf jeweils Besatzungsmitglied des Wasserfahrzeugs und umfasst bevorzugt eine Kennung, ein Porträt sowie mehrere optisch erfassbar Attribute dieses Besatzungsmitglieds, wobei das Porträt das Besatzungsmitglied ohne ein visuelles Ausgabegerät zeigt. Eine Bildauswerteeinheit sucht in den Abbilder von einem Menschen M.1 , M.2, welche von dem ersten bzw. zweiten Kamerasystem erzeugt wurden, automatisch nach optisch erfassbaren Attributen dieses Menschen die Bildauswerteeinheit sucht in der Datenbank nach einem Datensatz, der passende optische erfassbare Attribute umfasst, und ermittelt dadurch dasjenige Besatzungsmitglied, welches in den Abbildern gezeigt wird. Die Bildauswerteeinheit ermittelt das Porträt dieses Besatzungsmitglieds und übermittelt dieses Porträt an das visuelle Ausgabegerät, welches von dem anderen Menschen getragen wird. Auf einem Bildschirm stellt die Darstellungs-Einrichtung dieses anderen visuellen Ausgabegeräts das Porträt dar. Möglich ist auch, dass die Bildauswerteeinheit feststellt, dass kein Datensatz passende optisch erfassbare Attribute enthält.
Bezugszeichen
101 erste VR-Brille, fungiert als erstes visuelles Ausgabegerät, umfasst den
Spanngurt 107, den Rahmen 106, das Halteelement 105, die Kameraobjektive 103, die Darstellungs-Einrichtung 1 15, die Empfangs- Einrichtung 1 17 und den Bildschirm 21 1 , von dem ersten Menschen M.1 getragen
103 Kameraobjektive der beiden digitalen Kameras der ersten VR-Brille 101 , in das Halteelement 105 eingelassen
105 lichtundurchlässiges flächiges Halteelement der ersten VR-Brille 101 , trägt die beiden Kameraobjektive 103
106 Rahmen der ersten VR-Brille 101 , vom Spanngurt 107 gehalten, trägt das
Halteelement 105
107 Spanngurt der ersten VR-Brille 101 , trägt den Rahmen 106
109 Eingabegerät, ermöglicht es dem ersten Menschen M.1 , ein virtuelles
Instrument 213 auf dem Bildschirm 21 1 hervorzuheben, trägt den Sinn der
1 15 Rechner der Darstellungs-Einrichtung der ersten VR-Brille 101 , am Rahmen
106 angeordnet
1 17 Empfangs-Einrichtung der ersten VR-Brille 101 , am Rahmen 106 angeordnet
121 erstes Kamerasystem, umfasst die beiden Kameras 123, die Stellantriebe
132 für die Kameras 123 und das Steuergerät 134
123 ortsfeste digitale Kameras, erzeugen Abbilder von dem ersten Menschen.
M.1 , der die erste VR-Brille 101 trägt
125 Auswerterechner, empfängt Signale von den digitalen Kameras 123, übermittelt ausgewertete Abbilder an den zentralen Rechner 220
127 Sender am zentralen Rechner 220, übermittelt Abbilder von dem ersten
Menschen M.1 an die zweite VR-Brille 301 und Abbilder von dem zweiten Menschen M.2 an die erste VR-Brille 301
128 Sender an der ersten VR-Brille 101 , überträgt Positions-Signale
130 Empfänger der Lokalisierungs-Einrichtung, empfängt Positions-Signale vom
Sender 128 an der ersten VR-Brille 101 132 Stellantriebe der Lokalisierungs-Einrichtung, bewegen die digitalen Kameras 123 abhängig von Positions-Signalen
134 Steuergerät der Lokalisierungs-Einrichtung, empfängt Positions-Signale von dem Empfänger 130, steuert abhängig von den empfangenen Positions- Signalen die Stellantriebe 132 an
136 Sender am Eingabegerät 109, überträgt eine Hervorhebung virtuellen
Instruments 213 an den zentralen Rechner 22
21 1 Bildschirm der ersten VR-Brille 101 , wird vom Halteelement 105 gehalten, gehört zur Darstellungs-Einrichtung, erzeugt die gemeinsame Darstellung mit dem Abbild 215 und den virtuellen Instrumenten 213
213 virtuelle Objekte in Form von virtuellen Instrumenten, auf dem Bildschirm
21 1 dargestellt
215 Abbild von dem zweiten Menschen M.2, der der zweite VR-Brille 301 trägt, wird auf dem Bildschirm 21 1 gemeinsam mit den virtuellen Instrumenten 213 präsentiert
220 zentraler Rechner, mit dem Sender 127 verbunden, übermittelt Abbilder von den Kameras 123 die zweite VR-Brille 301 und Abbilder vom Menschen M.2 an die erste VR-Brille 101 sowie Signale von der Sonaranlage an beide VR- Brillen 101 und 301
301 zweite VR Brille, fungiert als zweites visuelles Ausgabegerät, umfasst den
Rahmen 306, die Kameraobjektive 303, die Darstellungs-Einrichtung mit dem Rechner 315 und die Empfangs-Einrichtung 317, von dem zweiten Menschen M.2 getragen
306 Rahmen der zweiten VR-Brille 301 , trägt den Rechner 315 und die
Empfangs-Einrichtung 317
315 Rechner der Darstellungs-Einrichtung der zweiten VR-Brille 301
317 Empfangs-Einrichtung der zweiten VR-Brille 301 , am Rahmen 306 montiert
328 Sender an der zweiten VR-Brille 301 , überträgt Positions-Signale
K.1 Kopf des ersten Menschen M.1
K.2 Kopf des zweiten Menschen M.2
M.1 erster Mensch, trägt die erste VR-Brille 101 M.2 zweiter Mensch, trägt die zweite VR-Brille 301 , im Abbild 215 dargestellt

Claims

Patentansprüche
1 . Anordnung mit
- einem ersten und einem zweiten visuellen Ausgabegerät (101 , 301 ),
- einer Abbild-Übertragungs-Einrichtung (125, 127, 220) und
- einem ersten und einem zweiten Kamerasystem (121 ), wobei das erste visuelle Ausgabegerät (101 ) eine erste Darstellungs-Einrichtung (1 15, 21 1 ) und das zweite visuelle Ausgabegerät (301 ) eine zweite Darstellungs- Einrichtung (315) umfasst,
wobei jedes visuelle Ausgabegerät (101 , 301 ) dazu ausgestaltet ist, von einem Menschen (M.1 , M.2) getragen zu werden,
wobei jedes Kamerasystem dazu ausgestaltet ist, ein Abbild von der Umgebung des Kamerasystems zu erzeugen,
wobei das erste Kamerasystem (121 ) so positioniert oder positionierbar ist, dass das erzeugte Abbild wenigstens teilweise einen Menschen zeigt (M.1 ), der das erste visuelle Ausgabegerät (101 ) trägt,
wobei das zweite Kamerasystem so positioniert oder positionierbar ist, dass das erzeugte Abbild wenigstens teilweise einen Menschen (M.2) zeigt, der das zweite visuelle Ausgabegerät (301 ) trägt,
wobei die Abbild-Übertragungs-Einrichtung (125, 127, 220) dazu ausgestaltet ist,
- ein vom ersten Kamerasystem (121 ) erzeugtes Abbild an das zweite visuelle Ausgabegerät (301 ) zu übertragen und
- ein vom zweiten Kamerasystem erzeugtes Abbild an das erste visuelle
Ausgabegerät (101 ) zu übertragen, und wobei jede Darstellungs-Einrichtung (1 15, 21 1 , 315) dazu ausgestaltet ist, in einer von einem Menschen visuell wahrnehmbaren Form eine Darstellung (215) zu präsentieren, die ein übertragenes Abbild umfasst.
2. Anordnung nach Anspruch 1 ,
dadurch gekennzeichnet, dass die erste Darstellungs-Einrichtung (1 15, 21 1 ) dazu ausgestaltet ist, ein erstes virtuelles Objekt (213) zu erzeugen,
die zweite Darstellungs-Einrichtung (315) dazu ausgestaltet ist, ein zweites virtuelles Objekt zu erzeugen,
wobei beide virtuellen Objekte die gleiche Infornnation in einer von einem Menschen visuell wahrnehmbaren Form darstellen und
wobei die erste Darstellungs-Einrichtung (1 15, 21 1 ) dazu ausgestaltet ist, in einer visuell wahrnehmbaren gemeinsamen Darstellung (215) ein übertragenes Abbild und das erste virtuelle Objekt (213) zu präsentieren und
wobei die zweite Darstellungs-Einrichtung (315) dazu ausgestaltet ist, in einer gemeinsamen visuell wahrnehmbaren Darstellung ein übertragenes Abbild und das zweite virtuelle Objekt zu präsentieren.
3. Anordnung nach Anspruch 2,
dadurch gekennzeichnet, dass
die Anordnung eine Signal-Übertragungs-Einrichtung (127) umfasst, welche dazu ausgestaltet ist, ein erstes Signal an das erste visuelle Ausgabegerät (101 ) und ein zweites Signal an das zweite visuelle Ausgabegerät zu übertragen,
wobei beide Signale die Information enthalten,
wobei die erste Darstellungs-Einrichtung (1 15, 21 1 ) dazu ausgestaltet ist, das erste virtuelle Objekt (213) abhängig vom ersten Signal zu erzeugen, und
wobei die zweite Darstellungs-Einrichtung (315) dazu ausgestaltet ist, das zweite virtuelle Objekt abhängig vom zweiten Signal zu erzeugen.
4. Anordnung nach Anspruch 3,
dadurch gekennzeichnet, dass
die Anordnung einen Sensor umfasst oder in Datenverbindung zu einem Sensor steht,
wobei der Sensor dazu ausgestaltet ist, einen Wert einer veränderlichen Größe zu messen und ein vom Messwert abhängiges Signal zu erzeugen, und die Signal-Übertragungs-Einrichtung (127) dazu ausgestaltet ist, das erzeugte Signal an beide visuellen Ausgabegeräte (101 , 301 ) zu übertragen.
5. Anordnung nach einem der vorstehenden Ansprüche,
dadurch gekennzeichnet, dass
das erste visuelle Ausgabegerät (101 ) eine erste Ausgabegerät-Kamera (103) umfasst und
das zweite visuelle Ausgabegerät (301 ) eine zweite Ausgabegerät-Kamera (303) umfasst,
wobei die erste Ausgabegerät-Kamera (103) dazu ausgestaltet ist,
- als Teil des ersten visuellen Ausgabegeräts (101 ) am Kopf eines Menschen (M.1 ) getragen zu werden und
- ein Abbild von der Umgebung des ersten visuellen Ausgabegeräts (101 ) zu erzeugen, und wobei die zweite Ausgabegerät-Kamera (303) dazu ausgestaltet ist,
- als Teil des zweiten visuellen Ausgabegeräts (301 ) am Kopf eines Menschen (M.2) getragen zu werden und
- ein Abbild von der Umgebung des zweiten visuellen Ausgabegeräts (301 ) zu erzeugen.
6. Anordnung nach Anspruch 5,
dadurch gekennzeichnet, dass
die Abbild-Übertragungs-Einrichtung (125, 127, 220) dazu ausgestaltet ist, ein von der ersten Ausgabegerät-Kamera (103) erzeugtes Abbild an das zweite visuelle Ausgabegerät (301 ) zu übertragen und
ein von der zweiten Ausgabegerät-Kamera (303) erzeugtes Abbild an das erste visuelle Ausgabegerät (101 ) zu übertragen.
7. Anordnung nach Anspruch 5 oder Anspruch 6,
dadurch gekennzeichnet, dass die erste Darstellungs-Einrichtung (1 15, 21 1 ) dazu ausgestaltet ist, in einer von einem Menschen visuell wahrnehmbaren Form eine Darstellung zu präsentieren, die ein von der ersten Ausgabegerät-Kamera (103) erzeugtes Abbild umfasst, und die zweite Darstellungs-Einrichtung (315) dazu ausgestaltet ist, in einer von einem Menschen visuell wahrnehmbaren Form eine Darstellung zu präsentieren, die ein von der zweiten Ausgabegerät-Kamera (303) erzeugtes Abbild umfasst
8. Anordnung nach Anspruch 7,
dadurch gekennzeichnet, dass
die erste Darstellungs-Einrichtung (1 15, 21 1 ) dazu ausgestaltet ist, wahlweise
- ein von der Abbild-Übertragungs-Einrichtung (125, 127, 220) übertragenes Abbild oder
- ein von der ersten Ausgabegerät-Kamera (103) erzeugtes Abbild darzustellen, und
die zweite Darstellungs-Einrichtung (315) dazu ausgestaltet ist, wahlweise
- ein von der Abbild-Übertragungs-Einrichtung (125, 127, 220) übertragenes Abbild oder
- ein von der zweiten Ausgabegerät-Kamera (303) erzeugtes Abbild darzustellen.
9. Anordnung nach einem der Ansprüche 5 bis 8,
dadurch gekennzeichnet, dass
die Blickrichtung der ersten Ausgabegerät-Kamera (103) mit der Standard- Blickrichtung eines Menschen (M.1 ), der das erste visuelle Ausgabegerät (101 ) trägt, übereinstimmt, und / oder
die Blickrichtung der zweiten Ausgabegerät-Kamera (303) mit der Standard- Blickrichtung eines Menschen (M.2), der das zweite visuelle Ausgabegerät (301 ) trägt, übereinstimmt.
10.Anordnung nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass
die Abbild-Übertragungs-Einrichtung (125, 127, 220) und / oder das erste visuelle Ausgabegerät (101 ) und / oder das zweite visuelle Ausgabegerät (301 ) einen Bildverstärker umfasst,
welcher dazu ausgestaltet ist, ein Abbild zu verstärken,
wobei die jeweilige Darstellungs-Einrichtung (1 15, 21 1 , 315) dazu ausgestaltet ist, ein vom Bildverstärker verstärktes Abbild zu präsentieren.
1 1 .Anordnung nach einem der vorstehenden Ansprüche,
dadurch gekennzeichnet, dass
die Abbild-Übertragungs-Einrichtung (125, 127, 220) und / oder das erste visuelle Ausgabegerät (101 ) und / oder das zweite visuelle Ausgabegerät (301 ) eine
Umwandlungs-Einrichtung umfasst,
welche dazu ausgestaltet ist, ein Abbild im Infrarot-Lichtbereich in ein Abbild im sichtbaren Lichtbereich umzuwandeln,
wobei die jeweilige Darstellungs-Einrichtung (1 15, 21 1 , 315) dazu ausgestaltet ist, ein von der Umwandlungs-Einrichtung umgewandeltes Abbild zu präsentieren.
12. Anordnung nach einem der vorstehenden Ansprüche,
dadurch gekennzeichnet, dass
die Anordnung mindestens ein Eingabegerät (109) umfasst,
wobei das erste visuelle Ausgabegerät (101 ) und / oder das zweite visuelle
Ausgabegerät (301 ) in Datenverbindung mit dem Eingabegerät (109) steht, wobei das Eingabegerät (109) dazu ausgestaltet ist, mindestens eine Eingabe eines
Menschen (M.1 ) zu erfassen, und
wobei die jeweilige Darstellungs-Einrichtung (1 15, 21 1 , 315) dazu ausgestaltet ist, als Reaktion auf eine entsprechende erfasste Eingabe die präsentierte Darstellung (215) zu verändern.
13. Anordnung nach einem der vorstehenden Ansprüche,
dadurch gekennzeichnet, dass das erste visuelle Ausgabegerät (101 ) und / oder das zweite visuelle Ausgabegerät (301 ) ein Bestandteil einer Kommunikations-Einrichtung ist, welche dazu
ausgestaltet ist, von einem Menschen (M.1 , M.2) an seinem Kopf getragen zu werden,
wobei die Kommunikations-Einrichtung weiterhin
- eine Spracheingabeeinheit, insbesondere ein Mikrofon, und
- eine Sprachausgabeeinheit, insbesondere einen Kopfhörer, umfasst.
14. Anordnung nach einem der vorstehenden Ansprüche,
dadurch gekennzeichnet, dass
das erste visuelle Ausgabegerät (101 ) und / oder das zweite visuelle Ausgabegerät (301 )
- einen optisch dichten Raum vor den Augen eines Menschen (M.1 , M.2), der das jeweilige visuelle Ausgabegerät (101 , 301 ) trägt, umschließt und
- das Eindringen von Licht von der realen Umgebung in den optisch dichten Raum verhindert.
15. Anordnung nach Anspruch 14,
dadurch gekennzeichnet, dass
das erste visuelle Ausgabegerät (101 ) und / oder das zweite visuelle Ausgabegerät (301 ) einen Bildschirm (21 1 ) umfasst, welcher an den optisch dichten Raum angrenzt,
wobei der Bildschirm (21 1 ) sich vor mindestens einem Auge eines Menschen, der das jeweilige visuelle Ausgabegerät (101 , 301 ) trägt, befindet,
wobei die jeweilige Darstellungs-Einrichtung (1 15, 21 1 , 315) dazu ausgestaltet ist, die Darstellung (215) mit dem übertragenen Abbild auf dem Bildschirm (21 1 ) zu präsentieren.
16. Anordnung nach Anspruch 14 oder Anspruch 15,
dadurch gekennzeichnet, dass die erste und / oder die zweite Darstellungs-Einrichtung (1 15, 21 1 , 315) dazu ausgestaltet ist, einem Menschen (M.1 , M.2), der das erste bzw. zweite visuelle Ausgabegerät (101 , 301 ) trägt,
die Darstellung (215) mit dem übertragenen Abbild auf die Netzhaut mindestens eines Auges zu projizieren.
17. Anordnung nach einem der vorstehenden Ansprüche,
dadurch gekennzeichnet, dass
die Anordnung eine Lokalisierungs-Einrichtung (124, 130, 128) umfasst und das erste und / oder das zweite Kamerasystem (121 ) eine Kamera (123) und einen
Stellantrieb (132) für diese Kamera (123) umfasst,
wobei die Lokalisierungs-Einrichtung (124, 130, 128) dazu ausgestaltet ist, die Position eines visuellen Ausgabegeräts (101 , 301 ) im Raum zu ermitteln, und wobei der Stellantrieb (132) dazu ausgestaltet ist, die zugeordnete Kamera (123) abhängig von Signalen der Lokalisierungs-Einrichtung (124, 130, 128) zu bewegen.
18. Anordnung nach Anspruch 17,
dadurch gekennzeichnet, dass
die Lokalisierungs-Einrichtung (124, 130, 128) einen Positions-Sender (128) und einen Empfänger (130) umfasst,
wobei der Positions-Sender (128) mit einem visuellen Ausgabegerät (101 )
mechanisch verbunden ist,
wobei der Positions-Sender (128) dazu ausgestaltet ist, ein Positions-Signal auszusenden,
wobei die Lokalisierungs-Einrichtung (124, 130, 128) dazu ausgestaltet ist,
- mit Hilfe des Empfängers (130) das Positions-Signal zu empfangen und
- den Stellantrieb (132) abhängig vom empfangenen Positions-Signal anzusteuern.
19. Anordnung nach einem der vorstehenden Ansprüche,
dadurch gekennzeichnet, dass die Anordnung weiterhin eine Bildauswerteeinheit umfasst, welche dazu ausgestaltet ist,
- durch Auswertung eines Abbilds (215) von einem Kamerasystem (121 ) optisch erfassbare Attribute eines Menschen (M.2), der in diesem Abbild (215) gezeigt ist, zu ermitteln, und
- abhängig von den ermittelten Attributen in einer vorgegebenen Menge von
Datensätzen mit Informationen über Menschen einen Datensatz für einen
Menschen (M.2) zu identifizieren oder festzustellen, dass kein Datensatz zur demjenigen Menschen gehört, der im Abbild (215) gezeigt wird.
20. Verwendung einer Anordnung nach einem der Ansprüche 1 bis 19
zum Austausch von Nachrichten zwischen einem ersten Menschen (M.1 ) und einem zweiten Menschen (M.2),
wobei der erste Mensch (M.1 ) das erste visuelle Ausgabegerät (101 ) trägt und der zweite Mensch (M.2) das zweite visuelle Ausgabegerät trägt und
wobei das von dem ersten Kamerasystem (121 ) erzeugte Abbild wenigstens teilweise den ersten Menschen (M.1 ) zeigt, während der erste Mensch (M.1 ) das erste visuelle Ausgabegerät (101 ) trägt, und
wobei das von dem zweiten Kamerasystem erzeugte Abbild wenigstens teilweise den zweiten Menschen (M.2) zeigt, während der zweite Mensch (M.2) das zweite visuelle Ausgabegerät (301 ) trägt.
21 .Verwendung einer Anordnung nach einem der Ansprüche 1 bis 19
an Bord eines Wasserfahrzeugs.
22. Verwendung einer Anordnung nach einem der Ansprüche 1 bis 19
zur Steuerung oder Überwachung einer Maschine oder Anlage.
23. Verwendung einer Anordnung nach Anspruch 4
zum Übertragen von Signalen einer Sonar-Anlage eines Wasserfahrzeugs.
24. Verfahren zum Austausch von Nachrichten zwischen einem ersten Menschen (M.1 ) und einem zweiten Menschen (M.2)
unter Verwendung einer Anordnung mit
- einem ersten und einem zweiten visuellen Ausgabegerät (101 , 301 ),
- einer Abbild-Übertragungs-Einrichtung (125, 127, 220) und
- einem ersten und einem zweiten Kamerasystem (121 ), wobei das erste visuelle Ausgabegerät (101 ) eine erste Darstellungs-Einrichtung (1 15, 21 1 ) und das zweite visuelle Ausgabegerät (301 ) eine zweite Darstellungs- Einrichtung (315) umfasst,
wobei das Verfahren die Schritte umfasst, dass
der erste Mensch (M.1 ) wenigstens zeitweise das erste visuelle Ausgabegerät (101 ) trägt und der zweite Mensch (M.2) wenigstens zeitweise das zweite visuelle
Ausgabegerät (301 ) trägt,
jedes Kamerasystem (121 ) jeweils mindestens ein Abbild von der Umgebung des Kamerasystems erzeugt,
wobei das von dem ersten Kamerasystem (121 ) erzeugte Abbild wenigstens teilweise den ersten Menschen (M.1 ) zeigt, während der erste Mensch (M.1 ) das erste visuelle Ausgabegerät (101 ) trägt,
wobei das von dem zweiten Kamerasystem erzeugte Abbild wenigstens teilweise den zweiten Menschen (M.2) zeigt, während der zweite Mensch (M.2) das zweite visuelle Ausgabegerät (301 ) trägt,
die Abbild-Übertragungs-Einrichtung (125, 127, 220)
- das vom ersten Kamerasystem (121 ) erzeugtes Abbild an das zweite visuelle Ausgabegerät (301 ) überträgt und
- das vom zweiten Kamerasystem erzeugtes Abbild an das erste visuelle
Ausgabegerät (101 ) überträgt, die erste Darstellungs-Einrichtung (1 15, 21 1 ) dem ersten Menschen (M.1 ) eine Darstellung (215) präsentiert, welche das an das erste visuelle Ausgabegerät (101 ) übertragene Abbild umfasst, während der erste Mensch (M.1 ) das erste visuelle Ausgabegerät (101 ) trägt, und die zweite Darstellungs-Einrichtung (315) dem zweiten Menschen (M.2) eine Darstellung präsentiert, welche das an das zweite visuelle Ausgabegerät (301 ) übertragene Abbild umfasst, während der zweite Mensch (M.2) das zweite visuelle Ausgabegerät (301 ) trägt.
25. Verfahren nach Anspruch 24,
dadurch gekennzeichnet, dass
das Verfahren die zusätzlichen Schritte umfasst, dass
- eine Information erzeugt wird,
- die erste Darstellungs-Einrichtung (1 15, 21 1 ) ein erstes virtuelles Objekt (213) erzeugt und die zweite Darstellung ein zweites virtuelles Objekt erzeugt,
- wobei beide virtuellen Objekte die erzeugte Information in einer von einem
Menschen visuell wahrnehmbaren Form darstellen,
- die erste Darstellungs-Einrichtung (1 15, 21 1 ) in einer visuell wahrnehmbaren gemeinsamen Darstellung (215) ein übertragenes Abbild und das erste virtuelle Objekt präsentiert und
- die zweite Darstellungs-Einrichtung (315) in einer visuell wahrnehmbaren
gemeinsamen Darstellung ein übertragenes Abbild und das zweite virtuelle Objekt präsentiert.
PCT/EP2018/067892 2017-07-04 2018-07-03 Anordnung und verfahren zur kommunikation mittels zweier visueller ausgabegeräte WO2019007934A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP18736891.5A EP3649538A1 (de) 2017-07-04 2018-07-03 Anordnung und verfahren zur kommunikation mittels zweier visueller ausgabegeräte

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE102017114914.7A DE102017114914A1 (de) 2017-07-04 2017-07-04 Visuelles Ausgabegerät und Bediensystem
DE102017114905.8A DE102017114905A1 (de) 2017-07-04 2017-07-04 Kommunikationsvorrichtung und Bediensystem
DE102017114905.8 2017-07-04
DE102017114914.7 2017-07-04

Publications (1)

Publication Number Publication Date
WO2019007934A1 true WO2019007934A1 (de) 2019-01-10

Family

ID=64950631

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/EP2018/067894 WO2019007936A1 (de) 2017-07-04 2018-07-03 Visuelles ausgabegerät mit einer kamera und präsentations-verfahren
PCT/EP2018/067892 WO2019007934A1 (de) 2017-07-04 2018-07-03 Anordnung und verfahren zur kommunikation mittels zweier visueller ausgabegeräte

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/EP2018/067894 WO2019007936A1 (de) 2017-07-04 2018-07-03 Visuelles ausgabegerät mit einer kamera und präsentations-verfahren

Country Status (2)

Country Link
EP (2) EP3649539A1 (de)
WO (2) WO2019007936A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111031292A (zh) * 2019-12-26 2020-04-17 北京中煤矿山工程有限公司 一种基于vr技术的煤矿安全生产实时监测系统

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020080094A1 (en) * 2000-12-22 2002-06-27 Frank Biocca Teleportal face-to-face system
WO2005103744A2 (de) * 2004-04-23 2005-11-03 Siemens Aktiengesellschaft Anordnung sowie verfahren zur durchführung von videokonferenzen
US20070030211A1 (en) * 2005-06-02 2007-02-08 Honeywell International Inc. Wearable marine heads-up display system
DE202009010719U1 (de) 2009-08-07 2009-10-15 Eckardt, Manuel Kommunikationssystem
EP2611152A2 (de) * 2011-12-28 2013-07-03 Samsung Electronics Co., Ltd. Anzeigevorrichtung, Bildverarbeitungssystem, Anzeigeverfahren und Bildverarbeitung dafür
US20150301592A1 (en) * 2014-04-18 2015-10-22 Magic Leap, Inc. Utilizing totems for augmented or virtual reality systems
DE102014107211A1 (de) 2014-05-22 2015-11-26 Atlas Elektronik Gmbh Vorrichtung zum Anzeigen einer virtuellen Realität sowie Messgerät
DE202016000449U1 (de) 2016-01-26 2016-03-08 Johannes Schlemmer Kommunikationssystem zur entfernten Unterstützung von Senioren
DE102014018056A1 (de) 2014-12-05 2016-06-09 Audi Ag Verfahren zum Betreiben einer Virtual-Reality-Brille und Virtual-Reality-Brille
US20160216760A1 (en) 2015-01-23 2016-07-28 Oculus Vr, Llc Headset with strain gauge expression recognition system
EP3096208A1 (de) * 2015-05-18 2016-11-23 Samsung Electronics Co., Ltd. Bildverarbeitung für kopfmontierte anzeigevorrichtungen
DE202016008297U1 (de) 2016-05-10 2017-06-30 Google Inc. Zweihändige Objektmanipulationen in der virtuellen Realität

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9390561B2 (en) * 2013-04-12 2016-07-12 Microsoft Technology Licensing, Llc Personal holographic billboard
US20160054791A1 (en) * 2014-08-25 2016-02-25 Daqri, Llc Navigating augmented reality content with a watch
US10032388B2 (en) * 2014-12-05 2018-07-24 Illinois Tool Works Inc. Augmented and mediated reality welding helmet systems
DE102015006612B4 (de) 2015-05-21 2020-01-23 Audi Ag Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug und System mit einer Datenbrille

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020080094A1 (en) * 2000-12-22 2002-06-27 Frank Biocca Teleportal face-to-face system
WO2005103744A2 (de) * 2004-04-23 2005-11-03 Siemens Aktiengesellschaft Anordnung sowie verfahren zur durchführung von videokonferenzen
US20070030211A1 (en) * 2005-06-02 2007-02-08 Honeywell International Inc. Wearable marine heads-up display system
DE202009010719U1 (de) 2009-08-07 2009-10-15 Eckardt, Manuel Kommunikationssystem
EP2611152A2 (de) * 2011-12-28 2013-07-03 Samsung Electronics Co., Ltd. Anzeigevorrichtung, Bildverarbeitungssystem, Anzeigeverfahren und Bildverarbeitung dafür
US20150301592A1 (en) * 2014-04-18 2015-10-22 Magic Leap, Inc. Utilizing totems for augmented or virtual reality systems
DE102014107211A1 (de) 2014-05-22 2015-11-26 Atlas Elektronik Gmbh Vorrichtung zum Anzeigen einer virtuellen Realität sowie Messgerät
DE102014018056A1 (de) 2014-12-05 2016-06-09 Audi Ag Verfahren zum Betreiben einer Virtual-Reality-Brille und Virtual-Reality-Brille
US20160216760A1 (en) 2015-01-23 2016-07-28 Oculus Vr, Llc Headset with strain gauge expression recognition system
EP3096208A1 (de) * 2015-05-18 2016-11-23 Samsung Electronics Co., Ltd. Bildverarbeitung für kopfmontierte anzeigevorrichtungen
DE202016000449U1 (de) 2016-01-26 2016-03-08 Johannes Schlemmer Kommunikationssystem zur entfernten Unterstützung von Senioren
DE202016008297U1 (de) 2016-05-10 2017-06-30 Google Inc. Zweihändige Objektmanipulationen in der virtuellen Realität

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111031292A (zh) * 2019-12-26 2020-04-17 北京中煤矿山工程有限公司 一种基于vr技术的煤矿安全生产实时监测系统

Also Published As

Publication number Publication date
EP3649538A1 (de) 2020-05-13
EP3649539A1 (de) 2020-05-13
WO2019007936A1 (de) 2019-01-10

Similar Documents

Publication Publication Date Title
EP3286532B1 (de) Verfahren zum erfassen von vibrationen einer vorrichtung und vibrationserfassungssystem
DE102017110283A1 (de) Steuern von funktionen und ausgaben von autonomen fahrzeugen auf der grundlage einer position und aufmerksamkeit von insassen
EP3286614B1 (de) Bediensystem für eine maschine der lebensmittelindustrie
DE102014109079A1 (de) Vorrichtung und verfahren zur erfassung des interesses eines fahrers an einer werbeanzeige durch die verfolgung der blickrichtung des fahrers
DE102010038341A1 (de) Videoüberwachungssystem sowie Verfahren zur Konfiguration eines Videoüberwachungssystems
WO2011051009A1 (de) System zur notifikation verorteter information
DE102014006732A1 (de) Bildüberlagerung von virtuellen Objekten in ein Kamerabild
DE102014213021A1 (de) Lokalisierung eines HMD im Fahrzeug
DE112015006809T5 (de) Tragbare fahrzeuginterne blickdetektion
WO2015135786A1 (de) Assistenzsystem für eine landwirtschaftliche arbeitsmaschine und verfahren zur unterstützung einer bedienperson
DE102014222355A1 (de) Müdigkeitserkennung mit Sensoren einer Datenbrille
DE102005045973A1 (de) Vorrichtung, System und Verfahren für ein kamerabasiertes Tracking
EP3649538A1 (de) Anordnung und verfahren zur kommunikation mittels zweier visueller ausgabegeräte
DE102019103360A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE112019003962T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und informationsverarbeitungssystem
DE202018006462U1 (de) Von einem Tier zu tragendes, am Kopf anzubringendes Anzeigesystem
DE102019003624A1 (de) Verfahren zum Übermitteln eines akustischen Signals an eine Person
DE102017211555A1 (de) Verfahren zur Überwachung mindestens eines Insassen eines Kraftfahrzeugs, wobei das Verfahren insbesondere zur Überwachung und Erkennung möglicher Gefahrensituationen für mindestens einen Insassen dient
DE102020107815A1 (de) Ortungsvorrichtung
DE102019131640A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102015225844A1 (de) Verfahren und Vorrichtung zum Betreiben einer Datenbrille sowie Datenbrille
DE102009043252A1 (de) Vorrichtung und Verfahren zur Assistenz für sehbehinderte Personen mit dreidimensional ortsaufgelöster Objekterfassung
DE112021003465T5 (de) Informationsprozessor, informationsverarbeitungsverfahren und speichermedium
DE102017200337A1 (de) Kraftfahrzeug
DE102020129068A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Einbaupose einer Inertialsensorik in einer Datenbrille sowie eine Datenbrille

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18736891

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018736891

Country of ref document: EP

Effective date: 20200204