DE29719995U1 - System for converting visually recorded room data into tangible and tactile information - Google Patents
System for converting visually recorded room data into tangible and tactile informationInfo
- Publication number
- DE29719995U1 DE29719995U1 DE29719995U DE29719995U DE29719995U1 DE 29719995 U1 DE29719995 U1 DE 29719995U1 DE 29719995 U DE29719995 U DE 29719995U DE 29719995 U DE29719995 U DE 29719995U DE 29719995 U1 DE29719995 U1 DE 29719995U1
- Authority
- DE
- Germany
- Prior art keywords
- instruments
- user
- information
- sensors
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000012545 processing Methods 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 10
- 230000003287 optical effect Effects 0.000 claims description 4
- 210000005036 nerve Anatomy 0.000 claims 1
- 239000007787 solid Substances 0.000 description 5
- 230000001953 sensory effect Effects 0.000 description 3
- 238000002604 ultrasonography Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000000034 method Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 235000019615 sensations Nutrition 0.000 description 1
- 230000021317 sensory perception Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 235000019586 texture sensation Nutrition 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/08—Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
- G09B21/003—Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Educational Administration (AREA)
- Business, Economics & Management (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Educational Technology (AREA)
- Vascular Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Eye Examination Apparatus (AREA)
Description
t« *tt« *t
Beschreibung: System zur Umwandlung von visuell aufgenommenen Daten in erfühl - und ertastbare InformationenDescription: System for converting visually recorded data into tangible and palpable information
Oben beschriebenes System dient zur Umwandlung von visuell aufgenommenen Daten in durch einen menschlichen Benutzer erfühl - und ertastbare Informationen. Beim Einsatz des System ist es einem menschlichen Benutzer möglich, sich in einem Raum zu orientieren, ohne dabei auf eigene visuelle Informationen angewiesen zu sein. Ein potentielles Einsatzgebiet liegt damit vor allem im Bereich der Rehabilitationstechnik: mit vorgestelltem System kann eine blinde Person, der keine eigenen visuellen Daten mehr zugänglich sind, sich in ihrer Umwelt orientieren, indem sie die für das System erforderliche Sensorik und Aktorik trägt und die verarbeitende Elektronik angeschlossen ist. Die optischen Sensoren, vorzugsweise Kameras, erfassen das Bild des Raumes. Zur Erfassung von Texturen und Farben genügt eine Kamera. Soll das Relief des Raumes, die dreidimensionale Struktur, erfaßt werden, so muß eine zweite Kamera, die aus einer anderen Position den Raum aufnimmt, hinzugefügt werden. Ebenso kann letzere Erfassung mit Sensorik zur Entfernungsmessung durchgeführt werden.The system described above is used to convert visually recorded data into information that can be felt and touched by a human user. When using the system, a human user is able to orient themselves in a room without having to rely on their own visual information. One potential area of application is therefore primarily in the field of rehabilitation technology: with the system presented, a blind person who no longer has access to their own visual data can orient themselves in their environment by wearing the sensors and actuators required for the system and by connecting the processing electronics. The optical sensors, preferably cameras, capture the image of the room. One camera is sufficient to capture textures and colors. If the relief of the room, the three-dimensional structure, is to be captured, a second camera must be added that captures the room from a different position. The latter capture can also be carried out using sensors for distance measurement.
Die so aufgenommenen Daten werden vom verarbeitenden Computer - oder Elektroniksystem zunächst umgewandelt in eine als Daten vorliegenden dreidimensionale Struktur. Der Computer bildet diese Struktur nun für den Benutzer ab, indem er sie in Signale umsetzt, die die Person durch bestimmte Kontakte, die er an einem Körperteil trägt, fühlen kann. Sind diese Kontakte beispielsweise in den Fingerkuppen eines Handschuhs untergebracht, so kann der Benutzer diesen Handschuh anziehen und bewegen. Bewegt er seine Hand in einem vor ihm befindlichen virtuellen Würfel mit der Kantenlänge von einem Meter, so überträgt der Computer die dreidimensionalen Daten der entsprechenden Stelle des aufgenommenen Raumes auf den Handschuh des Benutzers. Der Benutzer kann also spüren, wenn er im verkleinerten, virtuellen Raum (dem der virtuelle Würfel entspricht) auf einThe data recorded in this way is first converted by the processing computer or electronic system into a three-dimensional structure in the form of data. The computer then displays this structure for the user by converting it into signals that the person can feel through certain contacts that he or she wears on a part of his or her body. If these contacts are located in the fingertips of a glove, for example, the user can put on and move the glove. If he or she moves his or her hand in a virtual cube in front of him or her with an edge length of one meter, the computer transfers the three-dimensional data of the corresponding point in the recorded space to the user's glove. The user can therefore feel when he or she touches a part of the reduced, virtual space (which the virtual cube corresponds to).
massives Objekt trifft, das sich im realen Raum an äquivalenter Position befindet. Befindet sich gegenüber des Benutzers beispielsweise eine offene Tür, so erkennt der Computer an dieser Stelle beispielsweise ein „Loch" in einem massiven Objekt, nämlich der Wand. Bewegt der Benutzer nun seinen Handschuh (relativ zu seinem Brustkorb) einen Meter nach vorne, so durchfahrt er mit dieser Bewegung den ganzen realen Raum längs; er spürt dabei alle vorkommenden massiven Objekte oder Kanten. Kommt er am Ende des virtuellen Würfels an, so spürt er die massive Wand; durch eine Bewegung zur Seite, senkrecht zur vorigen Bewegungsrichtung seines Arms bzw. seiner Hand, fühlt er, daß in dieser Wand jedoch ein Loch ist; dieses wird er aufgrund der Form als Tür identifizieren können. Befinden sich im Handschuh Kontakte, die (z.B. durch Kontraktion) Druck auf die Fingerkuppen des Benutzers ausüben können, so entspricht ein massives Objekt erhöhtem Druck, während freier Raum keinem Druck entspricht.solid object that is in an equivalent position in real space. If, for example, there is an open door opposite the user, the computer will recognize a "hole" in a solid object, namely the wall, at this point. If the user now moves his glove one meter forward (relative to his chest), he will travel through the entire real space lengthways with this movement; he will feel all of the solid objects or edges that are present. If he reaches the end of the virtual cube, he will feel the solid wall; by moving to the side, perpendicular to the previous direction of movement of his arm or hand, he will feel that there is a hole in this wall; he will be able to identify this as a door based on its shape. If there are contacts in the glove that can exert pressure on the user's fingertips (e.g. through contraction), a solid object corresponds to increased pressure, while free space corresponds to no pressure.
Auch im Bereich der virtuellen Realität und der Bewegung in virtuellen Räumen sind Anwendungen denkbar - die Illusion einer realen Welt wird durch ein zusätzliches Sinnesmoment Defekter.Applications are also conceivable in the field of virtual reality and movement in virtual spaces - the illusion of a real world is enhanced by an additional sensory moment.
Gegenüber anderen Methoden, visuelle Daten aufzubereiten und zu transformieren in eine andere Sinnesdarstellung, wie beispielsweise der Orientierung in einem Raum durch Tonsignale, ergeben sich bei obigem System einige Vorteile. So bieten sich als Ansatzpunkt für das „gefühlgebende" Instrumentarium viele Körperteile, an denen ein Mensch über sehr feinfühlige Sinneswahrnehmung verfügt. Damit können viele unterschiedliche Informationen, so auch Färb - und Texturinformationen, „fühlbar" gemacht werden. In der Version, die speziell für Blinde konzipiert ist, kann der Benutzer das System einsetzen als elektronischen Ersatz für einen Blindenstock. Im Gegensatz zu diesem bietet das System weit mehr Ausbaumöglichkeiten - so ist auch ein Umschalten zwischen Färb - und Texturerfuhlung sowie Relieferfühlung denkbar. Zudem kann der Blinde einen Raum von einem Standort aus erfassen.Compared to other methods of processing visual data and transforming it into another sensory representation, such as orientation in a room using sound signals, the above system has a number of advantages. Many parts of the body where a person has very sensitive sensory perception are a starting point for the "feeling" instrumentation. This means that many different pieces of information, including color and texture information, can be made "tangible". In the version that is specially designed for the blind, the user can use the system as an electronic replacement for a cane. In contrast to this, the system offers far more expansion options - switching between color and texture sensations as well as relief sensations is also conceivable. In addition, the blind person can perceive a room from one location.
Den Zeitpunkt der Erfassung des Raumes aus durch die optischen Sensoren betreffend gibt es mehrere Verfahrensmöglichkeiten: bei genügend großer Rechenleistung durch das verarbeitende Computersystem kann eine Erfassung mehrmalig pro Sekunde erfolgen. Alternativ ist auch eine Erfassung auf Kommando des Benutzers hin möglich; dieses erfolgt, wenn der Benutzer einen neuen Raum bzw. eine neue Umgebung betritt. In der aktuellen Ausführung trägt der Benutzer zwei kleine Kameras (4) auf dem Kopf, die beide geradeaus filmen. Aus den beiden Bildern setzt der Computer ein dreidimensionalesThere are several possible ways of determining the time at which the optical sensors capture the room: if the processing computer system has sufficient computing power, capture can occur several times per second. Alternatively, capture can be performed on the user's command; this occurs when the user enters a new room or a new environment. In the current version, the user wears two small cameras (4) on their head, both of which film straight ahead. The computer creates a three-dimensional image from the two images.
Kantenbild zusammen; dazu extrahiert eine Bildverarbeitungssoftware Kanten und Texturen und bestimmt aus deren Positionen auf beiden Bildern deren Lage im Raum (1). Die aktuell bestehende Ausfertigung des Systems ist mit Hilfe der Zeichnungen grafisch vereinfacht dargestellt. Bild 1 zeigt eine Ansicht von oben. Bild 2 zeigt eine Ansicht von der Seite. Bild 3 zeigt ein stark vereinfachtes Modell des Handschuhs, den der Benutzer trägt. Der Benutzer (3) trägt oben beschriebenen Handschuh ((6); ebenso Bild 3). In dessen Fingerkuppen sind Instrumente angebracht, die Druck ausüben können auf die Fingerkuppen des Benutzers; diese Instrumente sind fingerhutähnlich, sie lassen sich jedoch zusätzlich über Anlegen von geringer Spannung kontrahieren, um ein Druckgefühl zu erzeugen (7). Am Handschuh sind zudem Ultraschallgeber angebracht (8). Über das Auffangen von deren gepulsten Signalen durch Mikrofone, die der Benutzer am Körper trägt, lassen sich die Positionen der Ultraschallgeber und damit der markanten Stellen des Handschuhs im Raum bestimmen. Das verarbeitende Computersystem besteht aus dem Board eines Pentiumcomputers, auf dem die verarbeitende Software läuft. Der Computer digitalisiert die Bilder beider Kameras, extrahiert ein dreidimensionales Bild und steuert dann die Instrumente des Handschuhs an: nachdem er die Position des Handschuhs erfaßt hat, prüft er, ob der Benutzer im verkleinerten „virtuellen" Raum (5) mit den Fingerkuppen ein Objekt (2) berührt bzw. sich in einem Objekt befindet. Ist dies der Fall, so gibt der Computer entsprechenden Druck auf die Fingerkuppen, indem er geringe Spannung an die entsprechenden Instrumente im Handschuh legt ((7), Datenleitungen zum Computer idealisiert bei (9)). Die Überprüfung der Position des Handschuhs und die Ansteuerung der Instrumente findet mehrmals in der Sekunde statt; die Erfassung des Raumes erfolgt auf Kommando des Benutzers, der hierzu einen an den Mausport des Computers angeschlossenen Taster trägt.Edge image; image processing software extracts edges and textures and uses their positions in both images to determine their position in space (1). The current version of the system is shown in a simplified graphical form using the drawings. Figure 1 shows a view from above. Figure 2 shows a view from the side. Figure 3 shows a highly simplified model of the glove that the user is wearing. The user (3) is wearing the glove described above ((6); also Figure 3). Instruments are attached to the fingertips of the glove that can exert pressure on the user's fingertips; these instruments are thimble-like, but they can also be contracted by applying a small voltage to create a feeling of pressure (7). Ultrasound transmitters are also attached to the glove (8). By picking up their pulsed signals using microphones that the user wears on his body, the positions of the ultrasound transmitters and thus of the prominent points on the glove in space can be determined. The processing computer system consists of the board of a Pentium computer on which the processing software runs. The computer digitizes the images from both cameras, extracts a three-dimensional image and then controls the instruments in the glove: after it has detected the position of the glove, it checks whether the user is touching an object (2) with his fingertips in the reduced "virtual" space (5) or is located in an object. If this is the case, the computer applies appropriate pressure to the fingertips by applying a low voltage to the corresponding instruments in the glove ((7), data lines to the computer idealized at (9)). The position of the glove is checked and the instruments are controlled several times per second; the space is detected on command from the user, who wears a button connected to the computer's mouse port for this purpose.
Bei der unten grafisch dargestellten Form des Systems wird, zwecks Vereinfachung und Übersichtlichkeit, idealisiert davon ausgegangen, daß der Benutzer seine Hand während der korrekten Benutzung des Systems ausstreckt sowie die Finger aneinanderlegt. Notwendig ist dies, da bei der in der Zeichnung gewählten Konstruktion der verarbeitende Computer keine Möglichkeit hat, abhängig von der Position des Handschuhs noch über die Position der einzelnen Fingerkuppen Informationen zu erlangen. Dieses Problem wird in der Praxis umgangen mit Streifen, die von den Fingerkuppen bis an den Handballen reichen; deren Zug, der sich bei gebogenen Fingern vergrößert, wird wiederum von einer Elektronik demIn the form of the system shown graphically below, it is ideally assumed, for the sake of simplicity and clarity, that the user stretches out his hand and puts his fingers together when using the system correctly. This is necessary because, with the design chosen in the drawing, the processing computer has no way of obtaining information about the position of the individual fingertips, depending on the position of the glove. In practice, this problem is avoided with strips that extend from the fingertips to the ball of the hand; the tension of these strips, which increases when the fingers are bent, is in turn transmitted to the
• · ··· CDI· ··· CDI
datenverarbeitenden Computer als zusätzliche Parameter geliefert. Damit können sich die Finger der Hand unabhängig voneinander bewegen, ohne daß das System falsche Daten an den Benutzer transportiert.data processing computer as additional parameters. This allows the fingers of the hand to move independently of each other without the system transmitting incorrect data to the user.
Kommerziell plazieren läßt sich das System mit Sicherheit im Rehabilitationsbereich. Auch in der Virtual Reality sind Systeme, die möglichst viele Sinneseindrücke zur Simulation einer artifiziellen Welt leisten können, sehr begehrt.The system can certainly be placed commercially in the rehabilitation sector. In virtual reality, too, systems that can provide as many sensory impressions as possible to simulate an artificial world are very popular.
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE29719995U DE29719995U1 (en) | 1997-11-11 | 1997-11-11 | System for converting visually recorded room data into tangible and tactile information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE29719995U DE29719995U1 (en) | 1997-11-11 | 1997-11-11 | System for converting visually recorded room data into tangible and tactile information |
Publications (1)
Publication Number | Publication Date |
---|---|
DE29719995U1 true DE29719995U1 (en) | 1998-02-19 |
Family
ID=8048463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE29719995U Expired - Lifetime DE29719995U1 (en) | 1997-11-11 | 1997-11-11 | System for converting visually recorded room data into tangible and tactile information |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE29719995U1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19815073A1 (en) * | 1998-04-05 | 1999-10-14 | Gfal Sachsen Ev | PC audio tactile information system for the blind and those with vision problems |
DE19853915A1 (en) * | 1998-11-23 | 2000-05-31 | Jurca Optoelektronik Gmbh | Detecting three-dimensional structure and displaying to blind or visually impaired person by converting optically detected structure into tactile relief |
DE19855375A1 (en) * | 1998-12-01 | 2000-06-08 | Faks Forschungs Und Entwicklun | Method to display physical quantity; involves converting quantity using transformation relation into display value that is displayed as temperature of tactile surface |
DE102005011432A1 (en) * | 2005-03-12 | 2006-09-14 | Volkswagen Ag | Data glove for virtual-reality-system, has reference body comprising hand reference points identified as reference points by infrared camera, and retaining unit retaining person`s finger tip and comprising finger reference points |
-
1997
- 1997-11-11 DE DE29719995U patent/DE29719995U1/en not_active Expired - Lifetime
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19815073A1 (en) * | 1998-04-05 | 1999-10-14 | Gfal Sachsen Ev | PC audio tactile information system for the blind and those with vision problems |
DE19815073C2 (en) * | 1998-04-05 | 2000-04-27 | Gfal Sachsen Ev Innovative Tec | Information system, especially for the blind |
DE19853915A1 (en) * | 1998-11-23 | 2000-05-31 | Jurca Optoelektronik Gmbh | Detecting three-dimensional structure and displaying to blind or visually impaired person by converting optically detected structure into tactile relief |
DE19855375A1 (en) * | 1998-12-01 | 2000-06-08 | Faks Forschungs Und Entwicklun | Method to display physical quantity; involves converting quantity using transformation relation into display value that is displayed as temperature of tactile surface |
DE102005011432A1 (en) * | 2005-03-12 | 2006-09-14 | Volkswagen Ag | Data glove for virtual-reality-system, has reference body comprising hand reference points identified as reference points by infrared camera, and retaining unit retaining person`s finger tip and comprising finger reference points |
DE102005011432B4 (en) | 2005-03-12 | 2019-03-21 | Volkswagen Ag | Data glove |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Noel et al. | Full body action remapping of peripersonal space: the case of walking | |
DE69738073T2 (en) | SYSTEM FOR THE TRAINING OF PERSONS FOR THE PERFORMANCE OF MINIMALLY INVASIVE SURGICAL PROCEDURES | |
EP3143478B1 (en) | Method for displaying a virtual interaction on at least one screen and input device | |
DE112018005530T5 (en) | IMU-based glove | |
Noë | On what we see | |
EP3067874A1 (en) | Method and device for testing a device operated in an aircraft | |
EP3709133B1 (en) | Virtual object haptic interaction system for virtual reality applications | |
DE102015206110A1 (en) | SYSTEM AND METHOD FOR PRODUCING COMPUTER CONTROL SIGNALS FROM ATATOR ATTRIBUTES | |
DE112018001457T5 (en) | SENSOR CONTROL | |
Bach-y-Rita | Sensory substitution and qualia | |
DE2264123B2 (en) | Method for the computer-aided generation of trick sequence projection images of multi-dimensional objects | |
Hirano et al. | Psychophysical influence of mixed-reality visual stimulation on sense of hardness | |
DE102013226244A1 (en) | Medical control | |
DE60213769T2 (en) | METHOD AND SYSTEM FOR REMOTE CONTROLLED AREA RECONSTRUCTION | |
DE112017004242T5 (en) | TOUCH-SENSITIVE OBJECTS | |
White | Perceptual findings with the vision-substitution system | |
Sheridan | Human and machine haptics in historical perspective | |
EP2827224A1 (en) | Method and device for tactile interaction with visualised data | |
Yeh et al. | An integrated system: virtual reality, haptics and modern sensing technique (VHS) for post-stroke rehabilitation | |
DE10138537B4 (en) | Tactile feedback to visualize tissue elasticity | |
Doxon et al. | Human detection and discrimination of tactile repeatability, mechanical backlash, and temporal delay in a combined tactile-kinesthetic haptic display system | |
DE29719995U1 (en) | System for converting visually recorded room data into tangible and tactile information | |
DE10258952A1 (en) | Input device, especially for training operators in the use of medical ultrasonic imaging technology, whereby a mouse-type device is used that is moved over a surface and its position reproduced on a computer monitor | |
DE102018100122A1 (en) | Finger gesture recognition control unit and method for detecting a finger gesture | |
AT520385B1 (en) | Device with a detection unit for the position and posture of a first limb of a user |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R086 | Non-binding declaration of licensing interest | ||
R207 | Utility model specification |
Effective date: 19980402 |
|
R156 | Lapse of ip right after 3 years |
Effective date: 20010801 |