WO2006081948A1 - Elektronische konstruktionsvorrichtung - Google Patents

Elektronische konstruktionsvorrichtung Download PDF

Info

Publication number
WO2006081948A1
WO2006081948A1 PCT/EP2006/000441 EP2006000441W WO2006081948A1 WO 2006081948 A1 WO2006081948 A1 WO 2006081948A1 EP 2006000441 W EP2006000441 W EP 2006000441W WO 2006081948 A1 WO2006081948 A1 WO 2006081948A1
Authority
WO
WIPO (PCT)
Prior art keywords
representation
display device
relative
viewing
designed
Prior art date
Application number
PCT/EP2006/000441
Other languages
English (en)
French (fr)
Inventor
Ralph Schönfelder
Frank Spenling
Original Assignee
Daimlerchrysler Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimlerchrysler Ag filed Critical Daimlerchrysler Ag
Publication of WO2006081948A1 publication Critical patent/WO2006081948A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1601Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays

Definitions

  • the invention relates to a device for displaying and changing a representation of an object.
  • the display device is a touch-sensitive liquid crystal display panel ("LCD Touch Panel") mounted on a stationary fixture. On the display device, a representation of an object is displayed.
  • LCD Touch Panel liquid crystal display panel
  • a device for interactive presentation of an object is known.
  • the display device is a moveable screen.
  • a sensor of the device detects the location, location, orientation, movement of the screen.
  • a sensor detects movement of the screen or forces exerted on the screen.
  • An arithmetic unit determines the viewing direction of the object from the measured values of the sensor and generates a representation of the object. This representation is displayed on the screen.
  • WO 01/27735 A1 WO 01/88679 A2 and US Pat. No. 6,798,429 B1 also disclose devices for the interactive presentation of an article. These devices have no holding device, but are carried by a user in the hand.
  • the apparatus alters the viewing direction and / or the viewing position of the displayed image depending on how the user moves the device.
  • Corresponding sensors measure, for example, accelerations acting on the device or the orientation of the device in space.
  • the invention has for its object to provide an apparatus with the features of the preamble of claim 1, which allows a simple way of supplementing the representation by a geometric obj ect and the positioning of the geometric obj ect relative to the representation.
  • the device for presenting a physical object comprises a display device, a holding device, a computing unit and at least one sensor.
  • the holding device is designed to hold the display device and includes a chassis.
  • This chassis is designed so that the device is on a floor by means of the chassis and can be moved over the floor.
  • the sensor is designed to measure movements of the holding device relative to the floor.
  • the arithmetic unit is coupled to the at least one sensor and configured to generate a representation that shows the object from a viewing direction and from a viewing position.
  • the arithmetic unit is further designed to change the representation by changing the viewing direction and / or the viewing position of the display as a function of a movement of the holding device relative to the floor.
  • the device is designed to display the display on the display device.
  • the display device is connected to a holding device, the movements of the display device and thus the viewing direction and viewing position of the display can be controlled considerably more easily than in the case of display devices without a holding device.
  • the display device can be made heavier than a device to be worn by the user and thus have a better resolution and a larger display area.
  • the device includes a landing gear and can be moved over a floor, its mobility is much less limited than in devices with a stationary holding device, for. B. those whose screen device is movably connected to a holding device mounted on a wall.
  • the device allows a mode of operation that is closer to the usual operation of a designer or designer on the drawing board or on the table closer than the known operations with a DV mouse. The user always knows and sees where a geometric object is inserted in the presentation.
  • Fig. 1 the structure of the device according to the embodiment
  • Fig. 2. a view from the rear of the movable attachment of the display device 2 on the connecting element 3;
  • Fig. 3 the position calculation of the holding device relative to the floor by means of two position measuring
  • Fig. 4. By a block diagram, the interconnection of the device.
  • Fig. 1 shows the structure of the device according to the embodiment.
  • the device comprises in this example
  • a stand 4 a telescopic mechanism 5 a frame 6
  • an input device in the form of a pen 10.
  • the wheels 7.1, 7.2 and 7.3, the suspension 8.1, 8.2 and 8.3 and the frame 6 together form a chassis 13.
  • the device can stand by means of the chassis 13 on a floor and can be moved over ' this floor.
  • the wheel 7.1 is rotatably mounted in the suspension 8.1
  • the wheel 7.2 rotatably mounted in the wheel suspension 8.2 and 7.3 wheel in the wheel 8.3.
  • the axes of rotation of the wheels 7.1, 7.2 and 7.3 are arranged horizontally.
  • Each of the wheel suspensions 8.1, 8.2 and 8.3 is rotatably connected to the frame 6. These axes of rotation of the wheel suspensions 8.1, 8.2 and 8.3 are arranged vertically.
  • both the wheels 7.1, 7.2 and 7.3 are rotatably mounted in the wheel suspensions 8.1, 8.2 and 8.3 and the suspension 8.1, 8.2 and 8.3 in the frame 6, the device can be moved over a floor in j eder horizontal direction.
  • the device stands on three wheels. Because the device is on three wheels, it can not wobble and wobble. It is also possible that the suspension z. B. has four wheels. Then, the area spanned by the points of contact of the wheels with the floor is larger, and the device is more likely to tip over.
  • the frame 6 of the chassis 13 is rigidly connected to the stator 4.
  • the stand 4 and the chassis 13 together form the holding device in this embodiment.
  • the arithmetic unit 1 is connected via an electrical connection, which runs in the interior of the stator 4, the telescopic mechanism 5 and the connecting element 3 and in FIG. 1 is not shown, connected to the display device 2.
  • the arithmetic unit 1 comprises a central processing unit (CPU) of a PC, USB interfaces, a data memory 33 and a self-sufficient power supply.
  • the power supply is realized by rechargeable batteries. This ensures that the freedom of movement of the device is not affected by a power cable.
  • a design model 31 described below is stored in the data memory 33.
  • the geometric objects which are generated as described below based on user inputs, are stored in this data memory 33.
  • the arithmetic unit 1 can be connected by a network cable with a central computer and thus with a model data memory 30 and with a central object data memory 32 to synchronize the data in the data memory 33.
  • a design model 31 is loaded from the model data memory 30 into the data memory 33, where it overwrites an older design model.
  • Computer-available descriptions of the inserted geometric objects are transmitted from the data memory 33 into the central object data memory 32.
  • the arithmetic unit 1 has no such data memory 33. Rather, the device is permanently connected via a network cable to a computer network. The arithmetic unit 1 accesses the model data memory 30 with the construction model 31 via the computer network and stores descriptions of geometric objects in the central object data memory 32.
  • the device is integrated into the computer network via a wireless data link ("wireless local-area network”) .
  • a wireless data link (“wireless local-area network”) .
  • Parameters are preferably transmitted by radio between the device and the central data memories 30 and 32. This embodiment avoids the freedom of movement of the Device is temporarily or even permanently limited by a network cable, and yet ensures that the device always has access to the current version of the design model 31.
  • the device reads the design model 31 from a mobile data storage, e.g. B. a CD-ROM or a DVD, via a corresponding reader and stores the descriptions of the generated geometric objects on a suitable mobile data carrier.
  • a mobile data storage e.g. B. a CD-ROM or a DVD
  • the arithmetic unit 1 is attached to the stand 4.
  • the stand 4 with an open-topped container of a rigid material, for. B. Steel, connected.
  • the arithmetic unit 1 is inserted in this container.
  • the container has openings in its walls through which network cables and power cables are routed. Because the container is opened upwards, the arithmetic unit 1 is cooled and can easily be exchanged for another arithmetic unit.
  • the display device 2 is preferably designed as a liquid crystal display device and is therefore flat. In one embodiment, it weighs about 6 kg.
  • the display device 2 comprises a touch-sensitive display surface 9.
  • the pen 10 cooperates with this display surface 9 in such a way that touches of the display surface 9 with the pen 10 trigger actions that depend on the touched point. For example, a user touches keys of a virtual keyboard displayed on the display surface 9. The user is able to draw with the pen 10 lines and curves on the display surface 9 and to mark surfaces and to hatch.
  • a physical keyboard 12 have outside the display area 9. So that the screen device 2 can be moved more easily, it can be equipped with side handles. It is also possible that the screen device 2 is designed so that touches of buttons with a finger already trigger actions. In this case, no pen 10 is needed.
  • the display device 2 is characterized by a in Fig. 1 not shown hinge 11 rotatably connected to the connecting element 3.
  • the connecting element is slightly inclined relative to the horizontal.
  • a standing viewer can look ergonomically at screen device 2 at a favorable distance from screen device 2.
  • the joint makes it possible that the screen device 2 is movable relative to the connecting element 3 and thus relative to the holding device by rotational movements about the following two axes of rotation:
  • the axis of rotation 21.1 preferably runs horizontally and is perpendicular to the longitudinal axis of the connecting element 3.
  • the axis of rotation 21.2 preferably runs parallel to the longitudinal axis of the connecting element 3. Therefore, the two axes of rotation 21.1 and 21.2 are perpendicular to each other.
  • the display device 2 is connected to the connecting element 3, that the screen device 2 can be replaced by another screen device without having to disassemble the rest of the device.
  • the easy substitution makes it possible to quickly replace a defective screen device against an intact or quickly install a screen device 2, the j ehog ambient conditions, in particular the Light conditions, the humidity and the desired size of the display panel 9, adapted.
  • the display unit 2 can be locked against the connecting element 3 and unlock again. So has a user by rotating the screen device 2 in a desired position relative to the connecting element 3 and thus brought to the holding device, it actuates z. B. a lever in the vicinity of the joint 11 and thus locks the screen device 2. Further rotational movements of the screen device 2 are thus prevented. By further actuation of this lever, the user lifts the lock again and unlocks the screen device 2 again.
  • This intermittent locking allows a user with the help of the pen 10 can make entries in the screen device 2, without having to hold the screen device 2.
  • a user may simultaneously use the pen 10 and the physical keyboard 12 of the display device 2.
  • the stand 4 is movably connected to a telescopic mechanism 5, the upper part of which is shown in FIG. 1 is shown.
  • a telescopic mechanism 5 Through this telescopic mechanism 5, the screen device 2 and the connecting element 3 can be pulled out of the stand 4 and pushed into the stand 4.
  • the telescopic mechanism 5 causes the connecting element 3 and thus the screen device 2 by translation movements along a longitudinal axis 20 relative to the stator 4 is displaceable.
  • the arithmetic unit 1 is movably connected to the stator 4.
  • a movement of the connecting element 3 relative to the stator 4 along the longitudinal axis 20 causes the computing unit 1 also moves relative to the stator 4, also along the longitudinal axis 20 in the opposite direction and by the same distance.
  • This embodiment facilitates the design of the connection cable 18, which connects the display device 2 with the computing unit 1.
  • This connection cable 18 is guided between the rods of the telescopic mechanism 5 and hangs movably in the inside hollow stand 4, and its lower part is always at the same height above the floor after each translation movement. This avoids that a hanging down part of the connecting cable 18 is damaged in the movement of the device or the freedom of movement of the display device 2 is limited by a too short connection cable 18.
  • the stand 4, the telescopic mechanism 5 and the longitudinal axis 20 are inclined relative to the vertical.
  • This embodiment facilitates that a seated user can more conveniently and ergonomically use the device than if the stand 4, the telescoping mechanism 5, and the longitudinal axis 20 were vertically oriented.
  • the arithmetic unit 1 is connected to the stand 4 on the side opposite to the screen device 2. This avoids the weight of the arithmetic unit 1 that the device tilts. It is possible to mount additional weights on the stand 4 or the frame 6 in order to ensure that the center of gravity of the device is within the triangle which passes through the three points at which the three wheels 7.1, 7.2 and 7.3 touch the floor. is spanned.
  • the frame 6 is formed in the shape of a Y.
  • the two legs are so far apart that a user has enough legroom. A standing user can rest one foot on the rack. If the frame 6 is connected to four wheels, then it is preferably X-shaped.
  • the screen device 2 is thus connected via the joint 11, the connecting element 3 and the telescopic mechanism 5 with the holding device.
  • FIG. 2 shows a view from the rear of the movable mounting of the VDU 2 on the connecting element 3.
  • the connecting element 3 is only indicated.
  • the screen device 2 is tilted about the axis of rotation 21.2.
  • the connecting element 3 has circular receiving elements, in which the shaft 54 is rotatably mounted.
  • the receiving elements, not shown in FIG. 2, as well as the shaft 54 together form a joint 11.
  • This joint 11 causes the screen device 2 to be rotatably mounted about the axis of rotation 21. 1 relative to the connecting element 3.
  • a rotary potentiometer 16 measures rotational movements of the VDU 2 about the axis of rotation 21.1.
  • the shaft 54 is rigidly connected to a circular disk 52 via two connection components 50.1 and 50.2.
  • the display device 2 is connected to the disc 52 so that the display device 2 is rotatable relative to the disc 52 about the axis of rotation 21.2.
  • a circular rail 53 is rigidly connected.
  • An optical mouse 17 is rigidly connected to the disc 52 and measures the relative movements of the mouse 17 relative to the rail 53 and thus the rotational movements of the VDU 2 relative to the connecting element 3 about the axis of rotation 21.2.
  • connection components 51.1 and 51.2 are rigidly connected to two other connection components 51.1 and 51.2. These connection components 51.1 and 51.2 are in turn rigidly connected to the disc 52 and rotatably connected to the shaft 54.
  • the levers 54.1 and 54.2 make it possible to rotate the VDU 2 both about the rotation axis 21.1 and about the rotation axis 21.2 without touching it.
  • connection cable 18 is led out from the back of the screen device 2 and opens into a recess in the connecting element. 3
  • the device comprises a sensor designed to measure movements of the device relative to the floor.
  • this sensor comprises two position measuring devices 14.1 and 14.2. These two position measuring 14.1 and 14.2 are rigid with the frame. 6 connected and have a predefined and when moving the device is not variable distance from each other.
  • the two position measuring devices 14.1 and 14.2 measure incremental movements of the device over the floor. They provide electrical signals that are a measure of the incremental movements.
  • An evaluation unit calculates the two trajectories of the two position measuring devices 14.1 and 14.2 from the measured movements. From the two trajectories and the two starting positions of the two position measuring 14.1 and 14.2 the evaluation calculates the two new positions of the position measuring 14.1 and 14.2.
  • the two position measuring devices are designed so that they touch the floor during measurement.
  • a ball is rotatably mounted in each position measuring device j e. Movements of the ball over the ground are converted into electrical signals as in a DV mouse. These electrical signals are a measure of the incremental movements of the position gauges over the floor.
  • the two position measuring devices 14.1 and 14.2 are designed as optical position measuring devices. They work without contact, without touching the floor. This reduces the risk that the Positionmeßtechnik 14.1 and 14.2 when the device is moved over the floor, dirty or z. B. be damaged by bumps.
  • the device can be z. B. also use on a carpet floor.
  • each of the position measuring devices 14.1 and 14.2 is mounted so that there is a distance of about 3 cm to 4 cm between the lower end of the device and the floor.
  • each of the position measuring devices 14.1 and 14.2 is constructed in the manner of an optical mouse.
  • Each position measuring device comprises a transmitter for emitting a Beam in the direction of the floor and a receiver for receiving the light beam reflected from the floor.
  • the transmitter consists, for example, of an arrangement of diodes which emit white light ("white light emitting diode array, white LED array”) .
  • the receiver is designed, for example, as a charge coupled device sensor ("CCD sensor").
  • the transmitter emits visible or infrared light.
  • the position measuring device comprises a converging lens which focuses the emitted light beam.
  • the condenser lens forms the lower end of the mounted position measuring device.
  • the focal length of the converging lens is equal to the distance of the converging lens from the floor.
  • the temporal sampling and the spatial resolution of the two position measuring devices 14.1 and 14.2 coincide with those of an optical mouse.
  • the two converging lenses have a larger focal length than that of an optical mouse. This enables the two
  • Position measuring 14.1 and 14.2 scan a significantly larger area than an optical mouse, albeit with coarser resolution. It is possible to manufacture the position measuring devices 14.1 and 14.2 from two commercial optical mice by incorporating other converging lenses. This makes it possible to use an inexpensive bulk, which reduces the cost.
  • Fig. 3 illustrates the position calculation of the holding device relative to the floor by means of the two position measuring devices 14.1 and 14.2. The calculation of the position and the orientation is performed in a global two-dimensional coordinate system.
  • Fig. 3 shows the origin O as well as the x-axis and the z-axis of this rectangular coordinate system.
  • Each position measuring device 14.1, 14.2 has its own local coordinate system.
  • Fig. 3 the origin Ml and the x-axis (xl) and the z-axis (zl) of the local coordinate system of the position measuring 14.1 are shown, also the origin M2 and the x-axis (x2) and the z-axis (z2) of local coordinate system of the Position measuring device 14.2.
  • the position measuring device 14.1 always assumes a fixed position in its local coordinate system.
  • the center of gravity is always at the origin M1
  • the longitudinal axis of the housing is on the x-axis xl. Accordingly, the position measuring device 14.2 always assumes a fixed position in its local coordinate system.
  • a calibration phase the initial positions and orientations of the two position measuring devices 14.1 and 14.2 in the global coordinate system are determined once only in advance.
  • This initial calibration provides, on the one hand, the position vectors ml and m2 of the initial origins M1 and M2 of the local coordinate systems and, on the other hand, the angles cel and o2 of the x-axes of the local coordinate system relative to the x-axis of the global coordinate system.
  • the position measuring device 14.1 measures a movement of the floor relative to its local coordinate system and determines a motion vector ⁇ l from M1 to M1 'in its local coordinate system. By eliminating the previously determined angle ⁇ l, the motion vector ⁇ l in the global coordinate system is calculated.
  • the location vector ml 'of the point Ml' is calculated as the sum of ml and ⁇ l. Accordingly, the location vector m2 'is calculated.
  • the translational movement of the device relative to the floor is preferably calculated by calculating the relative movement of a reference point.
  • this reference point lies on the middle between the centers of gravity of the position measuring devices 14.1 and 14.2.
  • the position Ref of this reference point is fixed, its position vector is equal to - * [ml + m2].
  • the vector v is calculated from Ml to M2 as difference m2 - ml. Furthermore, the vector v 'from Ml' to M2 'becomes the difference m2' - ml '.
  • the angle j ⁇ between v 1 and v is equal to the rotational movement of the device relative to the floor.
  • the angle between two vectors v 1 and v is preferably calculated using the scalar product, namely according to the calculation rule
  • v 'and v have the same length.
  • the global coordinate system is parameterized such that
  • 1 applies.
  • the translation and rotational movement of the device relative to the floor are again calculated.
  • the previous translational and rotational movements are aggregated.
  • a first additional sensor 15 in the form of a potentiometer is connected to the telescopic mechanism 5 and measures translational movements of the connecting element 3 relative to the stator 4 along the longitudinal axis 20.
  • a second additional sensor 16 which is also designed as a potentiometer, measures rotational movements of the VDU 2 relative to Connecting element about the horizontal axis of rotation 21.1, so measures rotational movements that change the inclination of the screen device 2 with respect to the vertical.
  • a third additional sensor 17 is preferably designed as an optical sensor and measures rotational movements without contact of the VDU 2 relative to the connecting element about the axis of rotation 21.2, which extends in extension of the longitudinal axis of the connecting element 3. This sensor thus measures tilting of the screen device 2 with respect to the horizontal.
  • All sensors are coupled to the arithmetic unit 1.
  • the two potentiometers are coupled via a USB input interface, the two
  • the evaluation unit comprises device drivers which convert the electrical signals of the sensors into a processable form.
  • the arithmetic unit 1 calculates a computer-accessible representation 40 of an object and transmits it to the screen device 2. For example, the arithmetic unit 1 generates this representation 40 using a three-dimensional computer-available design model 31, which is stored in the model data memory 30.
  • the object need not yet be present in physical form, but only the design model 31. Because the representation 40 shows only the surface of the object, the design model 31 needs to describe only the surface of the object, but not his "inner life For example, the design model 31 is made up of surface elements.
  • the object is already present in physical form. This item is scanned. Thereby, the design model 31 is generated.
  • the object is also already present in physical form, for. B. in the form of a clay model of the object.
  • the arithmetic unit 1 is connected to one or more cameras 34, which generate images of the object. For each image, it is determined from which viewing direction and which viewing position from this image shows the recorded object. For example, the viewing distance is determined and the viewing position determined therefrom and from the viewing direction. Preferably, the viewing distance is related to a reference point of the article.
  • the arithmetic unit 1 uses these images to generate the representation 40.
  • Fig. 4 shows in simplified form a block diagram of the interconnection of the device. Arrows represent data or information flows.
  • the sensors 14.1, 14.2, 15, 16 and 17 deliver their electrical signals to the evaluation unit of the computing unit 1.
  • the user takes with the help of the pen 10 inputs on the display surface 9 of the display device 2 before.
  • the arithmetic unit generates a representation 40 of the object. For this purpose, it accesses the design model 31 in the model data memory 30 and / or utilizes images of the object which are supplied by at least one camera 34.
  • the arithmetic unit 1 also generates geometric objects and inserts representations 41 of these objects into the representation 40 of the object at defined positions. Computer-available descriptions 42 of these geometric objects are stored in the central object data memory 32.
  • the generated representation 40 depicts the object from a particular viewing direction and from a particular viewing position.
  • the viewing direction is preferably perpendicular to the particular plane defined by the display surface 9 of the display device 2.
  • the viewing position is, for example, in the center of the display surface 9.
  • a reference viewing direction and a reference viewing position of the display 40 are predetermined.
  • the reference viewing direction and the reference Viewing position of the display 40 are linked to a reference position and a reference orientation of the VDU 2. If the video display device 2 is at the predetermined reference position in the predetermined reference orientation, the arithmetic unit 1 generates a representation 40 which shows the object from the predetermined reference viewing direction and from the predetermined reference viewing position.
  • the following sequence is preferably performed once when the device is turned on and generates a representation 40 of the article for the first time after power up.
  • the arithmetic unit 1 determines the difference between the current position and the reference position and the difference between the current orientation and the reference orientation of the video display device 2 Arithmetic unit 1, the stored reference position, the also stored reference orientation and the measured values supplied by the sensors.
  • the position difference is preferably calculated in the form of a vector from the reference position to the current position.
  • the orientation difference is preferably calculated by the arithmetic unit 1 in the form of a three-dimensional matrix which describes the rotation of the VDU 2.
  • the arithmetic unit 1 calculates a difference between the reference viewing direction and a current viewing direction of the display 40. It further calculates a difference between the reference viewing position and a current viewing position of the display 40. Difference is preferably in the form of a three-dimensional matrix describing the transition from the reference viewing direction to the current viewing direction.
  • the viewing position difference is preferably in the form of a direction vector from the reference viewing position to the current bias position.
  • the arithmetic unit 1 further calculates a current viewing direction by applying the matrix of the viewing direction difference to the vector of the reference viewing direction.
  • the arithmetic unit 1 calculates the current viewing position as the sum of the reference viewing position and the viewing position difference. It generates a representation 40 that shows the object from the current viewing direction and from the current viewing position.
  • This process is performed when a display 40 is calculated and displayed for the first time after the device is turned on.
  • This representation 40 is then changed repeatedly depending on movements that the display device 2 performs.
  • a representation 40 is calculated from a new viewing direction and from a new viewing position.
  • the old viewing direction and the old viewing position are temporarily stored in a data memory of the arithmetic unit 1.
  • the associated old position and the old orientation of the display device 2 are also temporarily stored.
  • the sensors measure a new position and a new orientation of the screen device 2.
  • the computing unit 1 calculates a position difference as a vector from the old to the new position and an orientation difference as a matrix, the transition from the old to the new orientation of the display device 2 describes. It is of course possible that the old coincides with the new position and / or the old with the new orientation.
  • the arithmetic unit 1 calculates a difference between the stored old and a new viewing direction and a difference between the stored old and a new viewing position.
  • the viewing direction difference is preferably in the form of a matrix. This one will applied to the old viewing direction, ' which provides the new viewing direction.
  • the viewing position difference is preferably in the form of a vector. This is added to the location vector of the old viewing direction, yielding the location vector of the new viewing position.
  • the arithmetic unit 1 generates a modified representation 40, which shows the object from the new viewing direction and from the new viewing position.
  • the arithmetic unit 1 generates an interaction level for inputting and positioning of geometric objects.
  • This interaction plane is generated in a fixed position relative to the viewing position and viewing direction of the currently displayed display 40.
  • the interaction plane is perpendicular to the viewing direction.
  • the viewing position is, for example, in the interaction level or is a predefined distance away from the interaction level.
  • the entire display surface 9 is available as an input surface, so that the interaction level occupies the maximum possible size. But it is also possible that only a part of the display surface 9 is available as an input surface for the interaction level.
  • the position and orientation of the interaction level remains unchanged as long as the position and orientation of the display device 2 remains unchanged.
  • the arithmetic unit 1 calculates a new viewing direction and a new viewing position as described above and generates a new display 40.
  • the position and orientation of the interaction plane is at the current viewing direction and viewing position coupled and thus also changed.
  • the user can use the pen 10 to cause the generation of geometric objects.
  • the user sets one using the pen 10 Insertion position in the interaction layer.
  • the device creates a virtual keyboard on the display surface 9.
  • the user touches with the pen 10 keys that are displayed to him and thereby inserts a sequence of characters beginning at the insertion position into the interaction level.
  • the characters are therefore in the interaction level.
  • the user provides, for example, certain areas of the display 40 shown on the display area 9 with textual comments.
  • the user describes with the help of the stylus 10 lines and curves on the display surface 9.
  • the device translates these lines and curves into computer-available lines and curves.
  • the computer-available lines and curves are in the interaction level.
  • the device projects the lines and curves onto the representation 40 of the article. This illustration 40 shows the generally curved surface of the illustrated article. The device preferably executes the projection in a projection direction which is perpendicular to the interaction plane. It is also possible that the device textual comments on the presentation 40 proj ized.
  • the device has read access to an electronic library, which is stored for example in the data memory 30.
  • this library computer-accessible design models of other objects are stored.
  • the object is a motor vehicle, and in the library design models of components of this motor vehicle are stored, for. B. from a bumper or a door handle.
  • the device generates a selection menu and displays this on the display surface 9. For example, that represents Selection menu j eden the other objects using a pictogram. The user selects another item by clicking with the pen 10 on the icon of this item.
  • the device generates, with the aid of the respective design model, a representation of the further object selected in this way and automatically inserts this representation into the representation 40 of the object, namely in a predetermined position and orientation relative to the interaction plane.
  • the interaction level intersects the representation of the further object.
  • the user can use the stylus to change the position and / or orientation of the inserted representation 40 relative to the interaction plane.
  • At least one geometric object is inserted into a specific position and orientation relative to the interaction plane in the representation 40, and a representation 41 of this object is displayed on the display surface 9. Because the interaction plane has a fixed position and orientation relative to the current viewing direction and viewing position of the representation 40, the inserted geometric object thus obtains a specific position and orientation relative to the representation 40 of the object. Now, if the device changes the position and orientation of the interaction plane, the position and orientation of the geometric object remain unchanged relative to the representation 40, namely in the position and orientation given by the "old" interaction plane By moving and holding the holding device and / or the display device 2, the user thus determines where additional geometric objects are to be inserted into the representation 40.
  • the device according to the invention makes it possible, indeed requires but not the position and orientation of a geometric one to be inserted Obj ekts with special input devices, eg. B. define a three-dimensional DV mouse ("space ball") or a "track ball”.
  • the representation 40 is generated by means of images of the object taken by cameras 34.
  • the positions and orientations of geometric objects are set relative to the representation 40 and thus relative to the depicted subject matter and stored in the object data memory 32.
  • the device according to the invention makes it possible to superimpose a real object with computer-accessible representations of geometric objects.
  • the device generates a plane screen shot of the display and the geometrically created, positioned and inserted obj ects at the push of a button.
  • This screen image is inserted into the interaction layer; for example, the screenprint fills the entire available one
  • the screenprint is positioned relative to the representation 40. If the viewing direction and / or viewing position of the representation 40 is changed, the position and orientation of the plane screenprint is also changed.
  • the representation 40 is due solely to movements of the holding device with the stand 4 and the chassis 13 relative to the floor and of movements of the
  • Screen device 2 changed relative to the holding device.
  • the representation is due to movements of the holding device relative to the floor as well as changes in the direction and the distance from which a viewer on the display device looks, changes. It is possible that the representation 40 is additionally changed due to movements of the screen device 2 relative to the holding device.
  • the device includes a viewing sensor for measuring the direction and distance from which a user looks at the display device 2.
  • This viewing sensor is designed, for example, as a "headset" device, a camera 34 generates images of the object to be displayed, the camera 34 tracks the movements of the head of the user, thereby the viewing direction and the viewing position of the image 40 become visible
  • the viewing sensor includes a camera that captures the head movements of the user, and the device calculates the direction and the distance the user looks at the display device 2 from the images of that camera.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)

Abstract

Die Erfindung betrifft eine Vorrichtung zum Anzeigen und Verändern einer Darstellung (40) eines Gegenstandes. Diese Vorrichtung umfaßt ein Anzeigegerät (2) , eine Haltevorrichtung, eine Recheneinheit (1) und mindestens einen Sensor (14.1, 14.2) . Die Haltevorrichtung zum Halten des Anzeigegeräts (2) umfaßt ein Fahrwerk (13) . Dieses Fahrwerk (13) ist so ausgestaltet, daß die Vorrichtung mittels des Fahrwerks (13) auf einem Fußboden steht und sich über den Fußboden verschieben läßt. Der Sensor (14.1, 14.2) ist zum Messen von Bewegungen der Haltevorrichtung (4,13) relativ zum Fußboden ausgestaltet. Die Recheneinheit (1) ist mit dem mindestens einen Sensor (14.1, 14.2) gekoppelt und erzeugt eine Darstellung (40) , die den Gegenstand aus einer Betrachtungsrichtung und von einer Betrachtungsposition aus zeigt. Die Recheneinheit (1) ist weiterhin zum Verändern der Darstellung (40) durch Verändern der Betrachtungsrichtung und/oder der Betrachtungsposition der Darstellung (40) in Abhängigkeit von einer Bewegung der Haltevorrichtung (4,13) relativ zum Fußboden ausgestaltet. Die Vorrichtung zeigt die Darstellung (40) auf dem Anzeigegerät (2) an.

Description

Elektronische Konstruktionsvorrichtung
Die Erfindung betrifft eine Vorrichtung zum Anzeigen und Verändern einer Darstellung eines Gegenstandes .
Eine Vorrichtung mit den Merkmalen des Oberbegriffs des Anspruchs 1 ist aus M. Tsang, G. W . Fitzmaurice, G . Kurtenbach, A. Khan, B . Buxton: „Boom Chameleon: Simultaneous capture of 3D viewpoint , voice and gesture annotations on a spatialIy-aware display" , Proceed . 15th Annual ACM Symp . User Interface Software and Technology (UIST , 02 ) , Paris , 27. -30. Oktober 2002 , CHI Letters Vol . 4 No . 2 , pp . 111 - 120 bekannt . Als Anzeigegerät fungiert ein berührungssensitiver Flüssigkristall-Bildschirm („LCD Touch Panel ") , das auf einer ortsfesten Haltevorrichtung montiert ist . Auf dem Anzeigegerät wird eine Darstellung eines Gegenstandes dargestellt . Sobald der Benutzer das Anzeigegerät relativ zur Haltevorrichtung bewegt , werden die Betrachtungsrichtung und/oder die Betrachtungsposition der Darstellung geändert . Der Benutzer kann weiterhin Anmerkungen in textlicher oder graphischer Form einbringen. Hierfür legt er eine bestimmte Betrachtungsrichtung fest und kann die Anmerkungen in eine Darstellung aus dieser Betrachtungsrichtung einfügen. Aus DE 19719038 Al ist eine Vorrichtung zum interaktiven Darstellen eines Gegenstandes bekannt . Als Anzeigegerät fungiert ein beweglich montierter Bildschirm. In einer Ausgestaltung erfaßt ein Sensor der Vorrichtung den Standort , die Lage , die Orientierung, die Bewegung des Bildschirms . In einer weiteren Ausgestaltung erfaßt ein Sensor die Bewegung des Bildschirms oder Kräfte , die auf den Bildschirm ausgeübt werden. Eine Recheneinheit bestimmt aus den Meßwerten des Sensors die Blickrichtung auf den Gegenstand und erzeugt eine Darstellung des Gegenstandes . Diese Darstellung wird auf dem Bildschirm angezeigt .
Auch aus WO 01/27735 Al , WO 01/88679 A2 und US 6 , 798 , 429 Bl sind Vorrichtungen zum interaktiven Darstellen eines Gegenstandes bekannt . Diese Vorrichtungen weisen keine Haltevorrichtung auf , sondern werden von einem Benutzer in der Hand getragen. Die Vorrichtung verändert die Betrachtungsrichtung und/oder die Betrachtungsposition der angezeigten Darstellung abhängig davon, wie der Benutzer die Vorrichtung bewegt . Entsprechende Sensoren messen beispielsweise auf die Vorrichtung einwirkende Beschleunigungen oder die Orientierung der Vorrichtung im Raum.
Der Erfindung liegt die Aufgabe zugrunde, eine Vorrichtung mit den Merkmalen des Oberbegriffs von Anspruch 1 bereitzustellen, die ein einfacher Weise das Ergänzen der Darstellung um ein geometrisches Obj ekt und das Positionieren des geometrischen Obj ekts relativ zur Darstellung ermöglicht .
Die Aufgabe wird durch eine Vorrichtung mit den Merkmalen des Anspruchs 1 gelöst . Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.
Die Vorrichtung zum Darstellen eines physikalischen Gegenstandes umfaßt ein Anzeigegerät , eine Haltevorrichtung, eine Recheneinheit und mindestens einen Sensor .
Die Haltevorrichtung ist zum Halten des Anzeigegeräts ausgestaltet und umfaßt ein Fahrwerk. Dieses Fahrwerk ist so ausgestaltet , daß die Vorrichtung mittels des Fahrwerks auf einem Fußboden steht und sich über den Fußboden verschieben läßt .
Der Sensor ist zum Messen von Bewegungen der Haltevorrichtung relativ zum Fußboden ausgestaltet .
Die Recheneinheit ist mit dem mindestens einen Sensor gekoppelt und zum Erzeugen einer Darstellung, die den Gegenstand aus einer Betrachtungsrichtung und von einer Betrachtungsposition aus zeigt , ausgestaltet . Die Recheneinheit ist weiterhin zum Verändern der Darstellung durch Verändern der Betrachtungsrichtung und/oder der Betrachtungsposition der Darstellung in Abhängigkeit von einer Bewegung der Haltevorrichtung relativ zum Fußboden ausgestaltet . Die Vorrichtung ist zum Anzeigen der Darstellung auf dem Anzeigegerät ausgestaltet .
Weil das Anzeigegerät mit einer Haltevorrichtung verbunden ist , lassen sich die Bewegungen des Anzeigegeräts und damit die Betrachtungsrichtung und Betrachtungsposition der Darstellung wesentlich leichter steuern als bei Anzeigegeräten ohne eine Haltevorrichtung . Das Anzeigegerät kann schwerer ausgestaltet sein als bei einem vom Benutzer zu tragenden Gerät und damit ein besseres Auflösungsvermögen und eine größere Anzeigefläche aufweisen. Weil die Vorrichtung ein Fahrwerk umfaßt und über einen Fußboden bewegt werden kann, ist ihre Beweglichkeit wesentlich geringer eingeschränkt als bei Vorrichtungen mit einer ortsfesten Haltevorrichtung, z . B . solchen, deren Bildschirmgerät beweglich mit einer an einer Wand montierten Haltevorrichtung verbunden ist . Die Vorrichtung ermöglicht eine Arbeitsweise, die der gewohnten Arbeitsweise eines Konstrukteurs oder Designers am Zeichenbrett oder auf dem Tisch näher als die bekannten Arbeitsweisen mit einer DV-Maus . Der Benutzer weiß und sieht stets, wo ein geometrisches Objekt in die Darstellung eingefügt wird .
Im Folgenden wird ein Ausführungsbeispiel der Erfindung anhand der beiliegenden Figuren näher beschrieben. Dabei zeigen:
Fig . 1. den Aufbau der Vorrichtung gemäß des Ausführungsbeispiels ;
Fig . 2. eine Sicht von hinten auf die bewegliche Befestigung des Bildschirmgeräts 2 am Verbindungselement 3 ;
Fig . 3. die Positionsberechnung der Haltevorrichtung relativ zum Fußboden mittels zweier Positionsmeßgeräte;
Fig . 4. durch ein Blockdiagramm die Verschaltung der Vorrichtung .
Fig. 1 zeigt den Aufbau der Vorrichtung gemäß dem Ausführungsbeispiel . Die Vorrichtung umfaßt in diesem Beispiel
- eine Recheneinheit 1 zur Durchführung von Berechnungen,
- ein berührungssensitives Flüssigkristall-Bildschirmgerät 2 ,
- ein Verbindungselement 3 ,
- einen Ständer 4 , einen Teleskopmechanismus 5 , ein Gestell 6 ,
- drei Räder 7.1 , 7.2 und 7.3 ,
- drei Radaufhängungen 8.1 , 8.2 und 8.3 ,
- ein Eingabegerät in Form eines Schreibstifts 10.
Die Räder 7.1 , 7.2 und 7.3 , die Radaufhängungen 8.1, 8.2 und 8.3 und das Gestell 6 bilden zusammen ein Fahrwerk 13. Die Vorrichtung vermag mittels des Fahrwerks 13 auf einem Fußboden zu stehen und läßt sich über' diesen Fußboden verschieben . Das Rad 7.1 ist drehbar in der Radaufhängung 8.1 gelagert , das Rad 7.2 drehbar in der Radaufhängung 8.2 und Rad 7.3 drehbar in der Radaufhängung 8.3. Die Drehachsen der Räder 7.1 , 7.2 und 7.3 sind horizontal angeordnet . Jede der Radaufhängungen 8.1 , 8.2 und 8.3 ist drehbar mit dem Gestell 6 verbunden. Diese Drehachsen der Radaufhängungen 8.1 , 8.2 und 8.3 sind vertikal angeordnet . Weil sowohl die Räder 7.1 , 7.2 und 7.3 in den Radaufhängungen 8.1 , 8.2 und 8.3 als auch die Radaufhängungen 8.1 , 8.2 und 8.3 im Gestell 6 drehbar gelagert sind, läßt sich die Vorrichtung über einen Fußboden in j eder horizontalen Richtung verschieben .
In diesem Beispiel steht die Vorrichtung auf drei Rädern . Weil die Vorrichtung auf drei Rädern steht , kann sie nicht kippeln und wackeln. Möglich ist auch, daß das Fahrwerk z . B . vier Räder aufweist . Dann ist die Fläche, die durch die Berührungspunkte der Räder mit dem Fußboden aufgespannt wird, größer, und die Vorrichtung kann schwerer umkippen.
Das Gestell 6 des Fahrwerks 13 ist starr mit dem Ständer 4 verbunden. Der Ständer 4 und das Fahrwerk 13 bilden in diesem Ausführungsbeispiel zusammen die Haltevorrichtung .
Die Recheneinheit 1 ist über eine elektrische Verbindung, die im Inneren des Ständers 4 , des Teleskopmechanismus 5 und des Verbindungselements 3 verläuft und in Fig . 1 nicht gezeigt ist , mit dem Bildschirmgerät 2 verbunden. Vorzugsweise umfaßt die Recheneinheit 1 eine Zentraleinheit (CPU) eines PCs, USB-Schnittstellen, einen Datenspeicher 33 sowie eine autarke Stromversorgung. Die Stromversorgung wird durch wiederaufladbare Batterien realisiert . Dadurch wird erreicht , daß die Bewegungsfreiheit der Vorrichtung nicht durch ein Stromkabel beeinträchtigt wird. In den Datenspeicher 33 der Recheneinheit 1 wird ein weiter unten beschriebenes Konstruktionsmodell 31 abgespeichert . Außerdem werden die geometrischen Obj ekte, die wie unten beschrieben aufgrund von Benutzer-Eingaben erzeugt werden, in diesem Datenspeicher 33 abgespeichert . Dadurch wird erreicht , daß die Bewegungsfreiheit der Vorrichtung auch nicht durch ein Netzwerkkabel beeinträchtigt wird . Die Recheneinheit 1 läßt sich durch ein Netzwerkkabel mit einem zentralen Rechner und damit mit einem Modell-Datenspeicher 30 sowie mit einem zentralen Objekt-Datenspeicher 32 verbinden, um die Daten im Datenspeicher 33 zu synchronisieren. Hierbei wird ein Konstruktionsmodell 31 vom Modell-Datenspeicher 30 in den Datenspeicher 33 geladen und überschreibt dort ein älteres Konstruktionsmodell . Rechnerverfügbare Beschreibungen der eingefügten geometrischen Objekte werden vom Datenspeicher 33 in den zentralen Obj ekt-Datenspeicher 32 übermittelt .
In einer alternativen Ausgestaltung besitzt die Recheneinheit 1 keinen solchen Datenspeicher 33. Vielmehr ist die Vorrichtung dauerhaft über ein Netzwerkkabel mit einem Rechnernetz verbunden. Die Recheneinheit 1 greift über das Rechnernetz auf den Modell-Datenspeicher 30 mit dem Konstruktionsmodell 31 zu und speichert Beschreibungen geometrischer Obj ekte im zentralen Obj ekt-Datenspeicher 32 ab .
In einer weiteren alternativen Ausgestaltung ist die Vorrichtung über eine drahtlose Datenverbindung („wireless local-area network") in das Rechnernetz eingebunden. Daten werden vorzugsweise per Funk zwischen der Vorrichtung und den zentralen Datenspeichern 30 und 32 übertragen . Diese Ausführungsform vermeidet , daß die Bewegungsfreiheit der Vorrichtung zeitweise oder gar dauerhaft durch ein Netzwerkkabel eingeschränkt wird, und gewährleistet dennoch, daß die Vorrichtung stets Zugriff auf die aktuelle Version des Konstruktionsmodells 31 besitzt .
In einer weiteren alternativen Ausgestaltung liest die Vorrichtung das Konstruktionsmodell 31 von einem mobilen Datenspeicher, z . B . einer CD-ROM oder einer DVD, über ein entsprechendes Lesegerät ein und speichert die Beschreibungen der erzeugten geometrischen Obj ekte auf einem geeigneten mobilen Datenträger.
Die Recheneinheit 1 ist am Ständer 4 befestigt . Beispielsweise ist der Ständer 4 mit einem nach oben offenen Behälter aus einem starren Material , z . B . Stahl , verbunden. Die Recheneinheit 1 ist in diesen Behälter eingelegt . Der Behälter besitzt Öffnungen in seinen Wänden, durch die Netzwerkkabel und Stromkabel durchgeführt sind . Weil der Behälter nach oben geöffnet wird, wird die Recheneinheit 1 gekühlt und läßt sich leicht gegen eine andere Recheneinheit austauschen.
Das Bildschirmgerät 2 ist bevorzugt als Flüssigkristall- Bildschirmgerät ausgebildet und ist daher flach. In einer Ausgestaltung wiegt er etwa 6 kg . Das Bildschirmgerät 2 umfaßt eine berührungssensitive Anzeigefläche 9. Der Schreibstift 10 wirkt mit dieser Anzeigefläche 9 dergestalt zusammen, daß Berührungen der Anzeigefläche 9 mit dem Schreibstift 10 Aktionen auslösen, die von der berührten Stelle abhängen. Beispielsweise berührt ein Benutzer Tasten einer virtuellen Tastatur, die auf der Anzeigefläche 9 angezeigt werden. Der Benutzer vermag mit dem Schreibstift 10 Linien und Kurven auf die Anzeigefläche 9 zu zeichnen sowie Flächen zu markieren und zu schraffieren. Darüber hinaus weist das Bildschirmgerät 2 in diesem Ausführungsbeispiel eine physikalische Tastatur 12 außerhalb der Anzeigefläche 9 aufweisen . Damit das Bildschirmgerät 2 leichter bewegt werden kann, kann es mit seitlichen Griffen ausgestattet sein . Möglich ist auch, daß das Bildschirmgerät 2 so ausgestaltet ist , daß Berührungen von Tasten mit einem Finger bereits Aktionen auslösen. In diesem Falle wird kein Schreibstift 10 benötigt .
Das Bildschirmgerät 2 ist durch ein in Fig . 1 nicht gezeigtes Gelenk 11 drehbar mit dem Verbindungselement 3 verbunden. Das Verbindungselement ist leicht gegenüber der Horizontalen geneigt . Dadurch kann ein stehender Betrachter in einem günstigen Abstand zum Bildschirmgerät 2 ergonomisch auf das Bildschirmgerät 2 blicken. Das Gelenk ermöglicht es, daß das Bildschirmgerät 2 durch Rotationsbewegungen um folgende beiden Drehachsen relativ zum Verbindungselement 3 und damit relativ zur Haltevorrichtung bewegbar ist :
- um eine horizontale Drehachse 21.1 und um eine weitere Drehachse 21.2
Die Drehachse 21.1 verläuft vorzugsweise horizontal und steht senkrecht auf der Längsachse des Verbindungselements 3. Die Drehachse 21.2 verläuft vorzugsweise parallel zur Längsachse des Verbindungselements 3. Daher stehen die beiden Drehachsen 21.1 und 21.2 senkrecht aufeinander . Durch eine Rotationsbewegung um die Drehachse 21.1 läßt sich der Neigungswinkel des Bildschirmgeräts 2 gegenüber der Vertikalen verändern. Durch eine Rotationsbewegung um die weitere Drehachse 21.2 läßt sich die Längsachse des rechteckigen Bildschirmgeräts 2 gegenüber der Horizontalen neigen, das Bildschirmgerät 2 also kippen.
Vorzugsweise ist das Bildschirmgerät 2 so mit dem Verbindungselement 3 verbunden, daß sich das Bildschirmgerät 2 durch ein anderes Bildschirmgerät ersetzen läßt , ohne die übrige Vorrichtung demontieren zu müssen. Die leichte Ersetzbarkeit ermöglicht es , schnell ein defektes Bildschirmgerät gegen ein intaktes auszutauschen oder aber schnell ein Bildschirmgerät 2 einzubauen, das an die j eweiligen Umgebungsbedingungen, insbesondere die Lichtverhältnisse , die Feuchtigkeit sowie die gewünschte Größe des Anzeigefeldes 9 , angepaßt ist .
Vorzugsweise läßt sich das Bildschirmgerät 2 gegenüber dem Verbindungselement 3 arretieren und wieder entriegeln . Hat also ein Benutzer durch Drehbewegungen das Bildschirmgerät 2 in eine gewünschte Position relativ zum Verbindungselement 3 und damit zur Haltevorrichtung gebracht , so betätigt er z . B . einen Hebel in der Nähe des Gelenks 11 und verriegelt damit das Bildschirmgerät 2. Weitere Drehbewegungen des Bildschirmgeräts 2 sind damit unterbunden. Durch eine weitere Betätigung dieses Hebels hebt der Benutzer die Arretierung wieder auf und entriegelt das Bildschirmgerät 2 wieder . Diese zeitweise Arretierung ermöglicht es, daß ein Benutzer mit Hilfe des Schreibstifts 10 Eingaben in das Bildschirmgerät 2 vornehmen kann, ohne hierbei das Bildschirmgerät 2 festhalten zu müssen. Somit kann ein Benutzer beispielsweise gleichzeitig den Schreibstift 10 und die physikalische Tastatur 12 des Bildschirmgeräts 2 benutzen.
Der Ständer 4 ist beweglich mit einem Teleskopmechanismus 5 verbunden, dessen oberer Teil in Fig . 1 gezeigt wird . Durch diesen Teleskopmechanismus 5 lassen sich das Bildschirmgerät 2 und das Verbindungselement 3 aus dem Ständer 4 herausziehen und in den Ständer 4 hineinschieben. Der Teleskopmechanismus 5 bewirkt , daß das Verbindungselement 3 und damit das Bildschirmgerät 2 durch Translationsbewegungen entlang einer Längsachse 20 relativ zum Ständer 4 verschiebbar ist .
Vorzugsweise ist die Recheneinheit 1 beweglich mit dem Ständer 4 verbunden. Eine Bewegung des Verbindungselements 3 relativ zum Ständer 4 entlang der Längsachse 20 bewirkt, daß die Recheneinheit 1 sich ebenfalls relativ zum Ständer 4 bewegt, und zwar ebenfalls entlang der Längsachse 20 in entgegengesetzter Richtung und um die gleiche Entfernung . Diese Ausgestaltung erleichtert die Auslegung des Verbindungskabels 18 , das das Bildschirmgerät 2 mit der Recheneinheit 1 verbindet . Diese Verbindungskabel 18 ist zwischen den Stangen des Teleskopmechanismus 5 geführt und hängt beweglich im innen hohlen Ständer 4 , und sein unterster Teil befindet sich nach j eder Translationsbewegung stets in gleicher Höhe über dem Fußboden. Dies vermeidet , daß ein unten heraushängender Teil des Verbindungskabels 18 bei der Bewegung der Vorrichtung beschädigt wird oder aber die Bewegungsfreiheit des Bildschirmgeräts 2 durch ein zu kurzes Verbindungskabel 18 eingeschränkt wird.
In dieser Ausgestaltung sind der Ständer 4 , der Teleskopmechanismus 5 und die Längsachse 20 gegenüber der Vertikalen geneigt . Diese Ausführungsform erleichtert es , daß ein sitzender Benutzer bequemer und ergonomischer die Vorrichtung benutzen kann, als wenn der Ständer 4 , der Teleskopmeσhanismus 5 und die Längsachse 20 vertikal orientiert wären . Die Recheneinheit 1 ist auf der Seite , die dem Bildschirmgerät 2 gegenüberliegt , mit dem Ständer 4 verbunden. Damit vermeidet das Gewicht der Recheneinheit 1 , daß die Vorrichtung umkippt . Möglich ist , zusätzliche Gewichte an dem Ständer 4 oder dem Gestell 6 zu montieren, um zu erreichen, daß der Schwerpunkt der Vorrichtung innerhalb des Dreiecks liegt , das durch die drei Punkte, an denen die drei Räder 7.1 , 7.2 und 7.3 den Fußboden berühren, aufgespannt wird .
Vorzugsweise ist das Gestell 6 in Form eines Y ausgebildet . Die beiden Schenkel stehen so weit auseinander, daß ein Benutzer genügend Beinfreiheit hat . Ein stehender Benutzer kann einen Fuß auf dem Gestell abstützen . Falls das Gestell 6 mit vier Rädern verbunden ist , so ist es vorzugsweise X- förmig ausgebildet .
Insgesamt ist das Bildschirmgerät 2 somit über das Gelenk 11 , das Verbindungselement 3 und dem Teleskopmechanismus 5 mit der Haltevorrichtung verbunden.
In Fig . 2 ist eine Sicht von hinten auf die bewegliche Befestigung des Bildschirmgeräts 2 am Verbindungselement 3 gezeigt . Das Verbindungselement 3 ist nur angedeutet . In dieser Darstellung ist das Bildschirmgerät 2 um die Drehachse 21.2 gekippt . Das Verbindungselement 3 weist kreisförmige Aufnahmeelemente auf , in die die Welle 54 drehbar gelagert ist . Die in Fig. 2 nicht gezeigten Aufnahmeelemente sowie die Welle 54 bilden zusammen ein Gelenk 11. Dieses Gelenk 11 bewirkt , daß das Bildschirmgerät 2 um die Drehachse 21.1 relativ zum Verbindungselement 3 drehbar gelagert ist . Ein Drehpotentiometer 16 mißt Drehbewegungen des Bildschirmgeräts 2 um die Drehachse 21.1.
Die Welle 54 ist über zwei Verbindungskomponenten 50.1 und 50.2 starr mit einer kreisförmigen Scheibe 52 verbunden. Das Bildschirmgerät 2 ist so mit der Scheibe 52 verbunden, daß das Bildschirmgerät 2 relativ zur Scheibe 52 um die Drehachse 21.2 drehbar ist . Mit dem Bildschirmgerät 2 ist eine kreisförmige Schiene 53 starr verbunden. Eine optische Maus 17 ist starr mit der Scheibe 52 verbunden und mißt die Relativbewegungen der Maus 17 relativ zur Schiene 53 und damit die Drehbewegungen des Bildschirmgeräts 2 relativ zum Verbindungselement 3 um die Drehachse 21.2.
Zwei Hebel 54.1 und 54.2 sind starr mit zwei weiteren Verbindungskomponenten 51.1 und 51.2 verbunden . Diese Verbindungskomponenten 51.1 und 51.2 sind wiederum starr mit der Scheibe 52 und drehbar mit der Welle 54 verbunden . Die Hebel 54.1 und 54.2 ermöglichen es , das Bildschirmgerät 2 sowohl um die Drehachse 21.1 als auch um die Drehachse 21.2 zu drehen, ohne es zu berühren.
Das Verbindungskabel 18 ist von hinten aus dem Bildschirmgerät 2 hinausgeführt und mündet in eine Aussparung im Verbindungselement 3.
Die Vorrichtung umfaßt einen Sensor, der zum Messen von ■ Bewegungen der Vorrichtung relativ zum Fußboden ausgestaltet ist . Vorzugsweise umfaßt dieser Sensor zwei Positionsmeßgeräte 14.1 und 14.2. Diese beiden Positionsmeßgeräte 14.1 und 14.2 sind starr mit dem Gestell 6 verbunden und weisen einen vordefinierten und beim Bewegen der Vorrichtung nicht veränderlichen Abstand zueinander auf .
Die beiden Positionsmeßgeräte 14.1 und 14.2 messen inkrementelle Bewegungen der Vorrichtung über den Fußboden . Sie liefern elektrische Signale, die ein Maß für die inkrementellen Bewegungen sind. Eine Auswerteeinheit berechnet aus den gemessenen Bewegungen die beiden Bewegungsbahnen der beiden Positionsmeßgeräte 14.1 und 14.2. Aus den beiden Bewegungsbahnen sowie den beiden Ausgangspositionen der beiden Positionsmeßgeräte 14.1 und 14.2 berechnet die Auswerteeinheit die beiden neuen Positionen der Positionsmeßgeräte 14.1 und 14.2.
In einer Ausführungsform sind die beiden Positionsmeßgeräte so ausgestaltet , daß sie beim Messen den Fußboden berühren. Beispielsweise ist in j edes Positionsmeßgerät j e eine Kugel drehbar eingebaut . Bewegungen der Kugel über den Boden werden so wie in einer DV-Maus in elektrische Signale umgesetzt . Diese elektrischen Signale sind ein Maß für die inkrementellen Bewegungen der Positionsmeßgeräte über dem Fußboden sind.
In einer bevorzugten Ausführungsform sind die beiden Positionsmeßgeräte 14.1 und 14.2 hingegen als optische Positionsmeßgeräte ausgestaltet . Sie arbeiten berührungslos, also ohne den Fußboden zu berühren. Dadurch wird die Gefahr verringert , daß die Positionsmeßgeräte 14.1 und 14.2 dann, wenn die Vorrichtung über den Fußboden bewegt wird, verschmutzt oder z . B . durch Unebenheiten beschädigt werden. Die Vorrichtung läßt sich z . B . auch auf einem Teppichboden einsetzen. Vorzugsweise wird jedes der Positionsmeßgeräte 14.1 und 14.2 so montiert , daß sich zwischen dem unteren Ende des Geräts und dem Fußboden ein Abstand von ungefähr 3 cm bis 4 cm befindet .
Vorzugsweise ist j edes der Positionsmeßgeräte 14.1 und 14.2 nach Art einer optischen Maus aufgebaut . Jedes Positionsmeßgerät umfaßt einen Sender zum Aussenden eines Lichtstrahls in Richtung des Fußbodens sowie einen Empfänger zum Empfangen des vom Fußboden reflektierten Lichtstrahls . Der Sender besteht beispielsweise aus einer Anordnung von Dioden, die weißes Licht emittieren („white light emitting diode array, white LED array") . Der Empfänger ist beispielsweise als ladungsgekoppelter Sensor („Charge coupled device sensor, CCD-Sensor") ausgestaltet . Der Sender sendet sichtbares oder Infrarotlicht aus . Das Positionsmeßgerät umfaßt eine Sammellinse, die den ausgesandten Lichtstrahl fokussiert . Die Sammellinse bildet das untere Ende des montierten Positionsmeßgeräts . Beispielsweise ist die Brennweite der Sammellinse gleich dem Abstand der Sammellinse vom Fußboden. Die zeitliche Abtastung und die örtliche Auflösung der beiden Positionsmeßgeräte 14.1 und 14.2 stimmt mit denen einer optischen Maus überein. Die beiden Sammellinsen weisen eine größere Brennweite auf als die einer optischen Maus . Dadurch vermögen die beiden
Positionsmeßgeräte 14.1 und 14.2 eine deutlich größere Fläche als eine optische Maus abzutasten, wenn auch mit gröberer Auflösung . Möglich ist , die Positionsmeßgeräte 14.1 und 14.2 aus zwei handelsüblichen optischen Mäusen herzustellen, indem andere Sammellinsen eingebaut werden. Dadurch läßt sich ein preiswertes Massengut verwenden, was die Kosten senkt .
Fig . 3 veranschaulicht die Positionsberechnung der Haltevorrichtung relativ zum Fußboden mittels der beiden Positionsmeßgeräte 14.1 und 14.2. Die Berechnung der Position und der Orientierung wird in einem globalen zweidimensionalen Koordinatensystem durchgeführt . In Fig . 3 sind der Ursprung O sowie die x-Achse und die z-Achse dieses rechtwinkligen Koordinatensystems dargestellt .
Jedes Positionsmeßgerät 14.1 , 14.2 besitzt ein eigenes lokales Koordinatensystem. In Fig . 3 sind der Ursprung Ml sowie die x-Achse (xl) und die z-Achse (zl) des lokalen Koordinatensystems des Positionsmeßgeräts 14.1 dargestellt , außerdem der Ursprung M2 sowie die x-Achse (x2 ) und die z- Achse (z2) des lokalen Koordinatensystems des Positionsmeßgeräts 14.2. Das Positionsmeßgerät 14.1 nimmt stets eine feste Position in seinem lokalen Koordinatensystem ein. Beispielsweise befindet sich der Schwerpunkt stets im Ursprung Ml , und die Längsachse des Gehäuses liegt auf der x- Achse xl . Entsprechend nimmt das Positionsmeßgerät 14.2 stets eine feste Position in seinem lokalen Koordinatensystem ein.
In einer Kalibrierungsphase werden einmalig vorab die Anfangs-Positionen und -Orientierungen der beiden Positionsmeßgeräte 14.1 und 14.2 im globalen Koordinatensystem ermittelt . Diese anfängliche Kalibrierung liefert zum einen die Ortsvektoren ml und m2 der Anfangs- Ursprünge Ml und M2 der lokalen Koordinatensysteme, zum anderen die Winkel cel und oι2 der x-Achsen des lokalen Koordinatensystems relativ zur x-Achse des globalen Koordinatensystems .
Im Beispiel der Fig . 3 wird die Vorrichtung anschließend über den Fußboden bewegt . Das Positionsmeßgerät 14.1 mißt hierbei eine Bewegung des Fußbodens relativ zu seinem lokalen Koordinatensystem und ermittelt einen Bewegungsvektor Δl von Ml nach Ml ' in seinem lokalen Koordinatensystem. Indem der zuvor bestimmte Winkel αl herausgerechnet wird, wird der Bewegungsvektor Δl im globalen Koordinatensystem berechnet . Der Ortsvektor ml' des Punkts Ml ' wird als Summe von ml und Δl berechnet . Entsprechend wird der Ortsvektor m2' berechnet .
Die Translationsbewegung der Vorrichtung relativ zum Fußboden wird vorzugsweise berechnet , indem die Relativbewegung eines Referenzpunkts berechnet wird. Im Beispiel der Fig . 3 liegt dieser Referenzpunkt auf der Mitte zwischen den Schwerpunkten der Positionsmeßgeräte 14.1 und 14.2. Nach der Kalibrierungsphase und vor der ersten Bewegung steht die Position Ref dieses Referenzpunkts fest , sein Ortsvektor ist gleich —*[ml+m2] . Nach der ersten Bewegung wird der
Referenzpunkt in die Position Ref im globalen Koordinatensystem verschoben. Sein Ortsvektor ist dann gleich 1 „ ,.
—*[mr+m2'] . Der Vektor von Ref nach Ref ist gleich der
Translationsbewegung der Vorrichtung .
Berechnet wird der Vektor v von Ml nach M2 als Differenz m2 - ml . Weiterhin wird der Vektor v' von Ml ' nach M2 ' als Differenz m2' - ml' . Der Winkel jδ zwischen v1 und v ist gleich der Rotationsbewegung der Vorrichtung relativ zum Fußboden. Der Winkel zwischen zwei Vektoren v1 und v wird vorzugsweise mit Hilfe des Skalarprodukts berechnet , nämlich gemäß der Rechenvorschrift
, _. v'*v cos (ß) = __,- .
!MI*||v||
Der Abstand zwischen Ml und M2 ist gleich dem Abstand zwischen Ml ' und M2 ' , denn die beiden Positionsmeßgeräte 14.1 und 14.2 sind fest mit dem Gestell 6 verbunden. Daher haben v' und v die gleiche Länge . Vorzugsweise wird das globale Koordinatensystem so parametriert , daß || v'|| = || v|| = 1 gilt .
Dann vereinfacht sich die obige Berechnungsvorschrift zu cos (ß) = v'*v .
Nach j eder weiteren Bewegung werden erneut die Translationsund die Rotationsbewegung der Vorrichtung relativ zum Fußboden berechnet . Hierfür werden die bisherigen Translations- und Rotationsbewegungen aggregiert .
Ein erster zusätzlicher Sensor 15 in Form eines Potentiometers ist mit dem Teleskopmechanismus 5 verbunden und mißt Translationsbewegungen des Verbindungselements 3 relativ zum Ständer 4 entlang der Längsachse 20. Ein zweiter zusätzlicher Sensor 16, der ebenfalls als Potentiometer ausgelegt ist , mißt Rotationsbewegungen des Bildschirmgeräts 2 relativ zum Verbindungselement um die horizontale Drehachse 21.1 , mißt also Drehbewegungen, die die Neigung des Bildschirmgeräts 2 gegenüber der Vertikalen verändern. Ein dritter zusätzlicher Sensor 17 ist bevorzugt als optischer Sensor ausgelegt und mißt berührungslos Rotationsbewegungen des Bildschirmgeräts 2 relativ zum Verbindungselement um die Drehachse 21.2 , die sich in Verlängerung der Längsachse des Verbindungselements 3 erstreckt . Dieser Sensor mißt also Verkantungen des Bildschirmgeräts 2 gegenüber der Horizontalen .
Alle Sensoren sind mit der Recheneinheit 1 gekoppelt . Vorzugsweise sind die beiden Potentiometer über eine USB- Eingangs-Schnittstelle gekoppelt , die beiden
Positionsmeßgeräte 14.1 , 14.2 sowie die optische Maus 17 über eine USB-Schnittstelle . Die Auswerteeinheit umfaßt Gerätetreiber, die die elektrischen Signale der Sensoren in eine verarbeitbare Form umsetzen.
Die Recheneinheit 1 berechnet eine rechnerverfügbare Darstellung 40 eines Gegenstandes und übermittelt diese an das Bildschirmgerät 2. Beispielsweise erzeugt die Recheneinheit 1 diese Darstellung 40 unter Verwendung eines dreidimensionalen rechnerverfügbaren Konstruktionsmodells 31 , das in dem Modell-Datenspeicher 30 abgespeichert ist . Bei dieser Ausgestaltung braucht der Gegenstand noch nicht in physikalischer Form vorhanden zu sein, sondern lediglich das Konstruktionsmodell 31. Weil die Darstellung 40 nur die Oberfläche des Gegenstandes zeigt , braucht das Konstruktionsmodell 31 auch nur die Oberfläche des Gegenstandes zu beschreiben, aber nicht sein „ Innenleben" . Beispielsweise besteht das Konstruktionsmodell 31 aus Flächenelementen.
In einer anderen Ausgestaltung ist der Gegenstand bereits in physikalischer Form vorhanden. Dieser Gegenstand wird abgetastet . Dadurch wird das Konstruktionsmodell 31 erzeugt .
In einer weiteren Ausgestaltung ist der Gegenstand ebenfalls bereits in physikalischer Form vorhanden, z . B . in Form eines Tonmodells des Gegenstandes . Die Recheneinheit 1 ist mit einer oder mehreren Kameras 34 verbunden, die Abbildungen des Gegenstandes erzeugen. Für j edes Abbild wird ermittelt , aus welcher Betrachtungsrichtung und welcher Betrachtungsposition aus dieses Abbild den aufgenommenen Gegenstand zeigt . Beispielsweise wird der Betrachtungsabstand ermittelt und hieraus sowie aus der Betrachtungsrichtung die Betrachtungsposition ermittelt . Vorzugsweise wird der Betrachtungsabstand auf einen Referenzpunkt des Gegenstandes bezogen. Die Recheneinheit 1 verwendet diese Abbilder, um die Darstellung 40 zu erzeugen.
Fig . 4 zeigt vereinfacht durch ein Blockdiagramm die Verschaltung der Vorrichtung . Pfeile stehen für Daten- oder Informationsflüsse . Die Sensoren 14.1 , 14.2 , 15 , 16 und 17 liefern ihre elektrischen Signale an die Auswerteeinheit der Recheneinheit 1. Der Benutzer nimmt mit Hilfe des Schreibstifts 10 Eingaben auf der Anzeigefläche 9 des Bildschirmgeräts 2 vor . Die Recheneinheit erzeugt eine Darstellung 40 des Gegenstandes . Hierzu greift sie lesend auf das Konstruktionsmodell 31 im Modell-Datenspeicher 30 zu und/oder verwertet Bilder des Gegenstandes , die von mindestens einer Kamera 34 geliefert werden. Abhängig von Benutzereingaben mittels des Schreibstifts 10 erzeugt die Recheneinheit 1 außerdem geometrische Obj ekte und fügt Darstellungen 41 dieser Obj ekte an definierten Positionen in die Darstellung 40 des Gegenstandes ein. Rechnerverfügbaren Beschreibungen 42 dieser geometrischen Obj ekte werden im zentralen Obj ekt-Datenspeicher 32 abgespeichert .
In j eder dieser Ausgestaltungen zeigt die erzeugte Darstellung 40 den Gegenstand aus einer bestimmten Betrachtungsrichtung und von einer bestimmten Betrachtungsposition aus . Die Betrachtungsrichtung steht vorzugsweise senkrecht auf derj enigen Ebene, die durch die Anzeigefläche 9 des Bildschirmgeräts 2 definiert wird. Die Betrachtungsposition liegt beispielsweise in der Mitte der Anzeigefläche 9.
Vorzugsweise sind eine Referenz-Betrachtungsrichtung und eine Referenz-Betrachtungsposition der Darstellung 40 vorgegeben. Die Referenz-Betrachtungsrichtung und die Referenz- Betrachtungsposition der Darstellung 40 sind mit einer Referenz-Position und einer Referenz-Orientierung des Bildschirmgeräts 2 verknüpft . Falls sich das Bildschirmgerät 2 an der vorgegebenen Referenz-Position in der vorgegebenen Referenz-Orientierung befindet , so erzeugt die Recheneinheit 1 eine Darstellung 40 , die den Gegenstand aus der vorgegebenen Referenz-Betrachtungsrichtung und von der vorgegebenen Referenz-Betrachtungsposition aus zeigt .
Die folgende Abfolge wird vorzugsweise dann einmal ausgeführt , wenn die Vorrichtung eingeschaltet wird und zum ersten Mal nach dem Einschalten eine Darstellung 40 des Gegenstandes erzeugt . Befindet sich das Bildschirmgerät 2 an einer anderen Position oder in einer anderen Orientierung, so ermittelt die Recheneinheit 1 die Differenz zwischen der aktuellen Position und der Referenz-Position sowie die Differenz zwischen der aktuellen Orientierung und der Referenz-Orientierung des Bildschirmgeräts 2. Hierfür verwendet die Recheneinheit 1 die abgespeicherte Referenz- Position, die ebenfalls abgespeicherte Referenz-Orientierung sowie die von den Sensoren gelieferten Meßwerte . Die Positions-Differenz wird vorzugsweise in Form eines Vektors von der Referenz-Position zur aktuellen Position berechnet . Die Orientierungs-Differenz berechnet die Recheneinheit 1 vorzugsweise in Form einer dreidimensionalen Matrix, die die Rotation des Bildschirmgeräts 2 beschreibt .
Aus der Positions-Differenz und der Orientierungs-Differenz berechnet die Recheneinheit 1 eine Differenz zwischen der Referenz-Betrachtungsrichtung und einer aktuellen Betrachtungsrichtung der Darstellung 40. Weiterhin berechnet sie eine Differenz zwischen der Referenz-Betrachtungsposition und einer aktuellen Betrachtungsposition der Darstellung 40. Die Betrachtungsrichtungs-Differenz hat vorzugsweise die Form einer dreidimensionalen Matrix, die den Übergang von der Referenz-Betrachtungsrichtung zur aktuellen Betrachtungsrichtung beschreibt . Die Betrachtungspositions- Differenz hat vorzugsweise die Form eines Richtungsvektors von der Referenz-Betrachtungsposition zur aktuellen Beträchtungsposition . Die Recheneinheit 1 berechnet weiterhin eine aktuelle Betrachtungsrichtung, indem die Matrix der Betrachtungsrichtungs-Differenz auf den Vektor der Referenz- Betrachtungsrichtung angewendet wird. Die Recheneinheit 1 berechnet die aktuelle Betrachtungsposition als Summe aus Referenz-Betrachtungsposition und Betrachtungspositions- Differenz . Sie erzeugt eine Darstellung 40 , die den Gegenstand aus der aktuellen Betrachtungsrichtung und von der aktuellen Betrachtungsposition aus zeigt .
Dieser Ablauf wird durchgeführt , wenn nach dem Einschalten der Vorrichtung zum ersten Mal eine Darstellung 40 berechnet und angezeigt wird. Diese Darstellung 40 wird anschließend abhängig von Bewegungen, die das Bildschirmgerät 2 ausführt , wiederholt verändert . Bei jeder Veränderung wird eine Darstellung 40 aus einer neuen Betrachtungsrichtung und von einer neuen Betrachtungsposition aus berechnet . Die alte Betrachtungsrichtung und die alte Betrachtungsposition werden temporär in einem Datenspeicher der Recheneinheit 1 abgespeichert . Außerdem werden die hierzu gehörende alte Position und die alte Orientierung des Bildschirmgeräts 2 ebenfalls temporär abgespeichert .
Die Sensoren messen eine neue Position und eine neue Orientierung des Bildschirmgeräts 2. Die Recheneinheit 1 berechnet eine Positions-Differenz als Vektor von der alten zu der neuen Position sowie eine Orientierungs-Differenz als Matrix, die den Übergang von der alten zur neuen Orientierung des Bildschirmgeräts 2 beschreibt . Möglich ist natürlich, daß die alte mit der neuen Position und/oder die alte mit der neuen Orientierung übereinstimmt . In Abhängigkeit von der Positions-Differenz und der Orientierungs-Differenz berechnet die Recheneinheit 1 eine Differenz zwischen der abgespeicherten alten und einer neuen Betrachtungsrichtung sowie eine Differenz zwischen der abgespeicherten alten und einer neuen Betrachtungsposition. Die Betrachtungsrichtungs- Differenz hat vorzugsweise die Form einer Matrix. Diese wird auf die alte Betrachtungsrichtung angewendet , ' was die neue Betrachtungsrichtung liefert . Die Betrachtungspositions- Differenz hat vorzugsweise die Form eines Vektors . Dieser wird zum Ortsvektor der alten Betrachtungsrichtung addiert , was den Ortsvektor der neuen Betrachtungsposition liefert . Die Recheneinheit 1 erzeugt eine veränderte Darstellung 40 , die den Gegenstand aus der neuen Betrachtungsrichtung und von der neuen Betrachtungsposition aus zeigt .
Vorzugsweise erzeugt die Recheneinheit 1 eine Interaktionsebene zum Eingeben und Positionieren von geometrischen Obj ekten. Diese Interaktionsebene wird in einer festen Position relativ zur Betrachtungsposition und Betrachtungsrichtung der aktuell angezeigten Darstellung 40 erzeugt . Vorzugsweise steht die Interaktionsebene senkrecht auf der Betrachtungsrichtung . Die Betrachtungsposition liegt beispielsweise in der Interaktionsebene oder ist eine vordefinierte Strecke von der Interaktionsebene entfernt . Vorzugsweise steht die ganze Anzeigefläche 9 als Eingabefläche zur Verfügung, so daß die Interaktionsebene die maximal mögliche Größe einnimmt . Möglich ist aber auch, daß nur ein Teil der Anzeigefläche 9 als Eingabefläche für die Interaktionsebene zur Verfügung steht .
Die Position und Orientierung der Interaktionsebene bleibt so lange unverändert , wie die Position und Orientierung des Bildschirmgeräts 2 unverändert bleibt . Werden die Position und/oder die Orientierung des Bildschirmgeräts 2 hingegen verändert , so berechnet die Recheneinheit 1 so wie oben beschrieben eine neue Betrachtungsrichtung und eine neue Betrachtungsposition und erzeugt eine neue Darstellung 40. Die Position und Orientierung der Interaktionsebene ist an die aktuelle Betrachtungsrichtung und Betrachtungsposition gekoppelt und wird somit ebenfalls verändert .
Der Benutzer kann mit Hilfe des Schreibstifts 10 die Erzeugung geometrischer Obj ekte veranlassen. Beispielsweise legt der Benutzer mit Hilfe des Schreibstifts 10 eine Einfügeposition in der Interaktionsebene fest . Die Vorrichtung erzeugt eine virtuelle Tastatur auf der Anzeigefläche 9. Der Benutzer berührt mit dem Schreibstift 10 Tasten, die ihm angezeigt werden, und fügt dadurch eine Abfolge von Zeichen beginnend bei der Einfügeposition in die Interaktionsebene ein. Die Zeichen liegen also in der Interaktionsebene . Dadurch versieht der Benutzer beispielsweise bestimmte Bereiche der Darstellung 40 , die auf der Anzeigefläche 9 gezeigt wird, mit textlichen Anmerkungen.
Oder der Benutzer beschreibt mit Hilfe des Schreibstifts 10 Linien und Kurven auf der Anzeigefläche 9. Hiermit markiert der Benutzer beispielsweise bestimmte Bereiche der Darstellung 40 , die das Bildschirmgerät 2 in der Anzeigefläche 9 anzeigt . Die Vorrichtung setzt diese Linien und Kurven in rechnerverfügbare Linien und Kurven um.
In einer Ausführungsform liegen die rechnerverfügbare Linien und Kurven in der Interaktionsebene . In einer alternativen Ausführungsform proj iziert die Vorrichtung die Linien und Kurven auf die Darstellung 40 des Gegenstandes . Diese Darstellung 40 zeigt die in der Regel gewölbte Oberfläche des dargestellten Gegenstandes . Vorzugsweise führt die Vorrichtung die Projektion in einer Projektionsrichtung, die senkrecht auf der Interaktionsebene steht , aus . Möglich ist auch, daß die Vorrichtung textliche Anmerkungen auf die Darstellung 40 proj iziert .
In einer weiteren Ausgestaltung hat die Vorrichtung Lesezugriff auf eine elektronische Bibliothek, die beispielsweise im Datenspeicher 30 abgespeichert ist . In dieser Bibliothek sind rechnerverfügbare Konstruktionsmodelle von weiteren Gegenständen abgespeichert . Beispielsweise ist der Gegenstand ein Kraftfahrzeug, und in der Bibliothek sind Konstruktionsmodelle von Bestandteilen dieses Kraftfahrzeugs abgespeichert, z . B . von einer Stoßstange oder einem Türgriff . Die Vorrichtung erzeugt ein Auswahlmenü und zeigt dieses auf der Anzeigefläche 9 an. Beispielsweise stellt das Auswahlmenü j eden der weiteren Gegenstände mit Hilfe eines Piktogramms dar. Der Benutzer wählt einen weiteren Gegenstand aus , indem er mit dem Schreibstift 10 auf das Piktogramm dieses Gegenstandes klickt . Die Vorrichtung erzeugt mit Hilfe des j eweiligen Konstruktionsmodells eine Darstellung des dergestalt ausgewählten weiteren Gegenstandes und fügt diese Darstellung automatisch in die Darstellung 40 des Gegenstandes ein, und zwar in einer vorgegebenen Position und Orientierung relativ zur Interaktionsebene . Beispielsweise schneidet die Interaktionsebene die Darstellung des weiteren Gegenstandes . Oder Der Benutzer kann mit Hilfe des Schreibstiftes die Position und/oder Orientierung der eingefügten Darstellung 40 relativ zur Interaktionsebene verändern.
In allen diesen Ausgestaltungen wird mindestens ein geometrisches Obj ekt in eine bestimmte Position und Orientierung relativ zur Interaktionsebene in die Darstellung 40 eingefügt und eine Darstellung 41 dieses Obj ekts auf der Anzeigefläche 9 angezeigt . Weil die Interaktionsebene eine festgelegte Position und Orientierung relativ zur aktuellen Betrachtungsrichtung und Betrachtungsposition der Darstellung 40 besitzt , erhält damit das eingefügte geometrische Obj ekt eine bestimmte Position und Orientierung relativ zur Darstellung 40 des Gegenstandes . Falls nun die Vorrichtung die Position und Orientierung der Interaktionsebene ändert , so bleiben die Position und Orientierung des geometrischen Obj ekts relativ zur Darstellung 40 unverändert , nämlich in der durch die „alte" Interaktionsebene vorgegebene Position und Orientierung . Der Benutzer kann in der neuen, veränderten Interaktionsebene ein weiteres geometrisches Obj ekt erzeugen lassen und positionieren. Indem der Benutzer die Haltevorrichtung und/oder das Bildschirmgerät 2 bewegt , legt er somit fest , wo zusätzliche geometrische Obj ekte in die Darstellung 40 eingefügt werden sollen. Die erfindungsgemäße Vorrichtung ermöglicht es zwar, erfordert es aber nicht , die Position und Orientierung eines einzufügenden geometrischen Obj ekts mit speziellen Eingabegeräten, z . B . eine dreidimensionale DV-Maus („space ball ") oder einem „track ball " festzulegen.
In einer Ausführungsform wird die Darstellung 40 mit Hilfe von Abbildern des Gegenstandes , die von Kameras 34 aufgenommen werden, erzeugt . In dieser Ausführungsform werden die Positionen und Orientierungen von geometrischen Obj ekten relativ zu der Darstellung 40 und somit relativ zum dargestellten Gegenstand festgelegt und im Obj ekt- Datenspeicher 32 abgespeichert . Die erfindungsgemäße Vorrichtung ermöglicht es , einen realen Gegenstand mit rechnerverfügbaren Darstellungen geometrischer Obj ekte zu überlagern.
In einer weiteren Ausgestaltung erzeugt die Vorrichtung auf Knopfdruck des Benutzers einen ebenen Bildschirmabzug („screen shot") von der Darstellung und den bislang erzeugten, positionierten und eingefügten geometrischen Obj ekten. Dieser Bildschirmabzug wird in die Interaktionsebene eingefügt , beispielsweise füllt der Bildschirmabzug die gesamte verfügbare Anzeigefläche 9 und damit Interaktionsebene aus . Durch das Einfügen in die Interaktionsebene wird der Bildschirmabzug relativ zur Darstellung 40 positioniert . Falls die Betrachtungsrichtung und/oder Betrachtungsposition der Darstellung 40 verändert wird, wird die Position und Orientierung des ebenen Bildschirmabzugs mit verändert .
In den bislang beschriebenen Ausführungsformen wird die Darstellung 40 ausschließlich aufgrund von Bewegungen der Haltevorrichtung mit dem Ständer 4 und dem Fahrwerk 13 relativ zum Fußboden sowie von Bewegungen des
Bildschirmgeräts 2 relativ zur Haltevorrichtung verändert . In einer alternativen Ausführungsform wird die Darstellung aufgrund von Bewegungen der Haltevorrichtung relativ zum Fußboden sowie von Veränderungen des Richtung und des Abstandes , aus der ein Betrachter auf das Bildschirmgerät schaut , verändert . Möglich ist , daß die Darstellung 40 zusätzlich aufgrund von Bewegungen des Bildschirmgeräts 2 relativ zur Haltevorrichtung verändert wird.
In dieser alternativen Ausführungsform umfaßt die Vorrichtung einen Betrachtungssensor zur Messung der Richtung und des Abstandes , aus der ein Benutzer auf das Bildschirmgerät 2 schaut . Dieser Betrachtungssensor ist beispielsweise als auf dem Kopf zu tragende Vorrichtung („head set") ausgestaltet . Eine Kamera 34 erzeugt Abbilder des darzustellenden Gegenstandes . Die Kamera 34 wird den Kopfbewegungen des Benutzers nachgeführt , dadurch werden die Betrachtungsrichtung und die Betrachtungsposition der Darstellung 40 an dessen Kopfposition und -abstand angepaßt . In einer Abwandlung umfaßt der Betrachtungssensor eine Kamera, die die Kopfbewegungen des Benutzers aufnimmt . Die Vorrichtung berechnet aus den Aufnahmen dieser Kamera die Richtung und den Abstand, mit der der Benutzer auf das Bildschirmgerät 2 schaut .
Liste der verwendeten Bezugszeichen und Symbole
Zeichen Bedeutung
1 Recheneinheit zum Erzeugen und Verändern der Darstellung 40
2 Bildschirmgerät
3 Verbindungselement zwischen Bildschirmgerät 2 und Teleskopmechanismus 5
4 Ständer
5 Teleskopmechanismus
6 Gestell des Fahrwerks 13
7.1 , 7.2 , 7.3 Räder des Fahrwerks 13
Figure imgf000027_0001
Figure imgf000028_0001
Figure imgf000029_0001

Claims

Patentansprüche
1. Vorrichtung zum Darstellen eines physikalischen Gegenstandes ,
wobei die Vorrichtung ein Anzeigegerät (2 ) , eine Haltevorrichtung (4 , 13 ) zum Halten des Anzeigegeräts (2) , eine Recheneinheit (1) und mindestens einen Sensor (14.1 , 14.2 ) umfaßt , wobei die Recheneinheit (1)
- mit dem mindestens einen Sensor (14.1 , 14.2 ) gekoppelt ist und zum Erzeugen einer Darstellung (40) , die den Gegenstand aus einer Betrachtungsrichtung und von einer Betrachtungsposition aus zeigt , ausgestaltet ist , und die Vorrichtung zum Anzeigen der Darstellung (40) auf dem Anzeigegerät (2 ) ausgestaltet ist , dadurch gekennzeichnet , daß die Haltevorrichtung (4 , 13 ) ein Fahrwerk (13 ) umfaßt ,
- das so ausgestaltet ist ,
- daß die Vorrichtung mittels des Fahrwerks (13 ) auf einem Fußboden steht und sich über den Fußboden verschieben läßt , der Sensor (14.1 , 14.2) zum Messen von Bewegungen der Haltevorrichtung (4 , 13 ) relativ zum Fußboden ausgestaltet ist und die Recheneinheit (1) zum Verändern der Darstellung (40) durch Verändern der Betrachtungsrichtung und/oder der Betrachtungsposition der Darstellung (40) in Abhängigkeit von einer Bewegung der Haltevorrichtung (4 , 13 ) relativ zum Fußboden ausgestaltet ist .
2. Vorrichtung nach Anspruch 1 ,
dadurch gekennzeichnet , daß der Sensor zwei Positionsmeßgeräte (14.1 , 14.2) umfaßt , die fest mit der Haltevorrichtung (4 , 13 ) verbunden sind, wobei j edes der beiden Positionsmeßgerät (14.1 , 14.2 ) zum Messen von Bewegungen des Positionsmeßgeräts relativ zum Fußboden ausgestaltet ist , und die Recheneinheit (1)
- eine Auswerteeinheit zum Ermitteln der
Bewegungsbahnen der beiden Positionsmeßgeräte (14.1 , 14.2 ) umfaßt und zum Berechnen einer Bewegung der Vorrichtung relativ zum Fußboden in Abhängigkeit von den ermittelten Bewegungsbahnen der beiden Positionsmeßgeräte (14.1 , 14.2 ) ausgestaltet ist .
3. Vorrichtung nach Anspruch 2 ,
dadurch gekennzeichnet , daß j edes Positionsmeßgerät (14.1 , 14.2 ) einen Sender zum Aussenden eines Lichtstrahls in Richtung des Fußbodens und einen Empfänger zum Empfangen des vom Fußboden reflektierten Lichtstrahls umfaßt .
4. Vorrichtung nach Anspruch 3 ,
dadurch gekennzeichnet , daß j edes Positionsmeßgerät (14.1 , 14.2) eine Sammellinse zum Fokussieren eines ausgesandten Lichtstrahls auf den Fußboden umfaßt .
5. Vorrichtung nach Anspruch 4 ,
dadurch gekennzeichnet , daß die Brennweite der Sammellinse gleich dem Abstand zwischen der Sammellinse und dem Fußboden ist .
6. Vorrichtung nach einem der Ansprüche 1 bis 5 ,
dadurch gekennzeichnet , daß das Fahrwerk (13 )
- drei Räder (7.1 , 7.2 , 7.3) ,
- drei Radaufhängungen (8.1 , 8.2 , 8.3 ) und ein Gestell (6) umfaßt , wobei jedes Rad drehbar in j e einer Radaufhängung gelagert ist und j ede Radaufhängung drehbar mit dem Gestell (6) verbunden ist .
7. Vorrichtung nach Anspruch 6 ,
dadurch gekennzeichnet , daß die Haltevorrichtung (4 , 13 ) Ausgleichsgewichte umfaßt , die so ausgestaltet sind, daß der Schwerpunkt der Vorrichtung innerhalb desj enigen Dreiecks liegt , das durch die drei Punkte, an denen die drei Räder (7.1 , 7.2 , 7.3 ) den Fußboden berühren, aufgespannt wird .
8. Vorrichtung nach einem der Ansprüche 1 bis 7 ,
dadurch gekennzeichnet , daß die Vorrichtung ein Eingabegerät (10 , 12 ) umfaßt und zum Erzeugen eines rechnerverfügbaren geometrischen Obj ekts , zum Positionieren des geometrischen Obj ekts mit Hilfe des Eingabegeräts (10 , 12 ) und zum Anzeigen des um das positionierte geometrische Obj ekt ergänzten Darstellung (40) auf dem Anzeigegerät (2) ausgestaltet ist .
9. Vorrichtung nach Anspruch 8 ,
dadurch gekennzeichnet , daß die Vorrichtung zum Erzeugen des geometrischen Obj ekts in einer Interaktionsebene ausgestaltet ist , wobei die Interaktionsebene eine vorgegebene Position relativ zur Betrachtungsrichtung und zur Betrachtungsposition der Darstellung (40) aufweist .
10. Vorrichtung nach Anspruch 9 ,
dadurch gekennzeichnet , daß die Interaktionsebene senkrecht auf der Betrachtungsrichtung steht und sich in einem vorgegebenen Abstand zur Betrachtungsposition befindet .
11. Vorrichtung nach Anspruch 9 oder Anspruch 10 ,
dadurch gekennzeichnet , daß das Eingabegerät (10 , 12) zum Eingeben und Positionieren von Zeichen in der Interaktionsebene ausgestaltet ist .
12. Vorrichtung nach einem der Ansprüche 9 bis 11 ,
dadurch gekennzeichnet , daß das Eingabegerät (10 , 12) zum Erzeugen und Positionieren eines rechnerverfügbaren Streckenzuges in der Interaktionsebene ausgestaltet ist .
13. Vorrichtung nach einem der Ansprüche 9 bis 12 ,
dadurch gekennzeichnet , daß die Interaktionsebene so positioniert ist , daß sie durch die erzeugte Darstellung (40) verläuft .
14. Vorrichtung nach einem der Ansprüche 9 bis 13 ,
dadurch gekennzeichnet , daß die Vorrichtung zum Erzeugen eines Bildschirmabzugs vom Anzeigegerät (2) und zum Einfügen des Bildschirmabzugs in der Interaktionsebene ausgestaltet ist .
15. Vorrichtung nach einem der Ansprüche 8 bis 14 ,
dadurch gekennzeichnet , daß die Vorrichtung zum Proj izieren eines erzeugten und positionierten geometrischen Obj ekts auf die Darstellung ausgestaltet ist .
16. Vorrichtung nach einem der Ansprüche 8 bis 15 ,
dadurch gekennzeichnet , daß die Vorrichtung zum Erzeugen eines rechnerverfügbaren dreidimensionalen geometrischen Objekts ausgestaltet ist und das Eingabegerät (10 , 12) zum Positionieren des dreidimensionalen Obj ekts relativ zur Darstellung (40) ausgestaltet ist .
17. Vorrichtung nach Anspruch 16 ,
dadurch gekennzeichnet , daß die Vorrichtung zum Erzeugen des dreidimensionalen Obj ekts in einer Interaktionsebene ausgestaltet ist , wobei die Interaktionsebene eine vorgegebene Position relativ zur Betrachtungsrichtung und zur Betrachtungsposition der Darstellung (40) aufweist , und die Vorrichtung so ausgestaltet ist , daß sie das dreidimensionale Obj ekt mit einer vorgegebenen Orientierung und einem vorgegebenen Abstand zur Interaktionsebene positioniert .
18. Vorrichtung nach Anspruch 16 oder Anspruch 17 ,
dadurch gekennzeichnet , daß die Vorrichtung so ausgestaltet ist , daß sie das dreidimensionale Obj ekt so positioniert , daß die Interaktionsebene das Obj ekt schneidet .
19. Vorrichtung nach einem der Ansprüche 8 bis 18 ,
dadurch gekennzeichnet, daß die Recheneinheit (1)
Schreibzugriff auf einen Obj ekt-Datenspeicher (32) besitzt und zum Abspeichern einer rechnerverfügbaren Beschreibung (42 ) des geometrischen Obj ekts und seiner Position relativ zur Darstellung (40) im Obj ekt-Datenspeicher (32) ausgestaltet ist .
20. Vorrichtung nach Anspruch 19 ,
dadurch gekennzeichnet, daß die Recheneinheit (1) Lesezugriff auf den Obj ekt- Datenspeicher besitzt und zum Einfügen einer Darstellung (41) des geometrischen Obj ekts in. die Darstellung (40) des Gegenstandes unter Verwendung der Beschreibung des Obj ekts und seiner Relativposition ausgestaltet ist .
21. Vorrichtung nach einem der Ansprüche 1 bis 20 ,
dadurch gekennzeichnet , daß die Vorrichtung einen Betrachtungssensor zur Messung der Richtung, aus der ein Benutzer auf das Anzeigegerät (2 ) schaut , umfaßt und die Recheneinheit (1) zur Veränderung der
Betrachtungsrichtung der Darstellung (40) in Abhängigkeit von einer gemessenen Richtung, aus der der Benutzer auf das Anzeigegerät (2 ) schaut , ausgestaltet ist .
22. Vorrichtung nach Anspruch 21 ,
dadurch gekennzeichnet , daß der Betrachtungssensor zusätzlich zur Messung der Abstandes , aus der ein Benutzer auf das Anzeigegerät (2 ) schaut , ausgestaltet ist , und die Recheneinheit (1) zur Veränderung der
Betrachtungsposition der Darstellung (40) in Abhängigkeit von einer gemessenen Richtung und einem gemessenen Abstand, aus der der Benutzer auf das Anzeigegerät (2 ) schaut , ausgestaltet ist .
23. Vorrichtung nach einem der Ansprüche 1 bis 22 ,
dadurch gekennzeichnet , daß das Anzeigegerät (2 ) beweglich mit der Haltevorrichtung (4 , 13 ) verbunden ist ,
- die Vorrichtung mindestens einen weiteren Sensor (15 , 16 , 17) umfaßt , der zur Messung von Relativbewegungen des Anzeigegeräts (2 ) relativ zur Haltevorrichtung (4 , 13) ausgestaltet ist ,
- die Recheneinheit (1) mit dem weiteren Sensor (15 , 16 , 17) gekoppelt ist und die Recheneinheit (1) zum Verändern der Darstellung (40) durch Veränderung der Betrachtungsrichtung und/oder der Betrachtungsposition der Darstellung (40 ) in Abhängigkeit von einer Positionsveränderung des Anzeigegeräts (2) relativ zur Haltevorrichtung (4 , 13 ) ausgestaltet ist .
24. Vorrichtung nach Anspruch 23 ,
dadurch gekennzeichnet , daß die bewegliche Verbindung zwischen dem Anzeigegerät (2 ) und der Haltevorrichtung (4 , 13 ) dergestalt ausgestaltet ist , daß das Anzeigegerät (2) in j eder erreichbaren Position relativ zur Haltevorrichtung (4 , 13 ) arretierbar ist .
25. Vorrichtung nach Anspruch 23 oder Anspruch 24 ,
dadurch gekennzeichnet , daß das Anzeigegerät (2 ) dergestalt beweglich mit der Haltevorrichtung (4 , 13 ) verbunden ist , daß die Position des Anzeigegeräts (2 ) relativ zur Haltevorrichtung (4 , 13 ) durch Translationsbewegungen entlang einer vorgegebenen Längsachse (20) und durch Rotationsbewegungen um mindestens eine vorgegebene Drehachse (21.1) veränderbar ist , der weitere Sensor (15 , 16 , 17) zum Messen von Translationsbewegungen entlang der Längsachse (20) und zum Messen von Rotationsbewegungen um die Drehachse (21.1) ausgebildet ist und die Recheneinheit (1) zum Verändern der Darstellung (40) durch Verändern der Betrachtungsrichtung und/oder der Betrachtungsposition der Darstellung (40) in Abhängigkeit von einer Translationsbewegung und/oder einer Rotationsbewegung des Anzeigegeräts (2) relativ zur Haltevorrichtung (4 , 13 ) ausgestaltet ist .
26. Vorrichtung nach Anspruch 25 ,
dadurch gekennzeichnet , daß die Position des Anzeigegeräts (2 ) relativ zur Haltevorrichtung (4 , 13 ) durch Rotationsbewegungen um eine weitere vorgegebene Drehachse (21.2 ) veränderbar ist , der weitere Sensor (15 , 16 , 17) zum Messen von Rotationsbewegungen um die weitere Drehachse (21.2 ) ausgebildet ist und die Recheneinheit (1) zum Verändern der Darstellung (40) durch Verändern der Betrachtungsrichtung und/oder der Betrachtungsposition der Darstellung (40) in Abhängigkeit von einer Rotationsbewegung des Anzeigegeräts (2 ) relativ zur Haltevorrichtung (4 , 13 ) um die weitere Drehachse (21.2 ) ausgestaltet ist .
27. Vorrichtung nach Anspruch 26,
dadurch gekennzeichnet , daß die weitere Drehachse (21.2 ) senkrecht auf der Drehachse (21.1) steht .
28. Vorrichtung nach einem der Ansprüche 25 bis 27 ,
dadurch gekennzeichnet, daß das Anzeigegerät (2 ) durch einen Teleskopmechanismus (5) so mit der Haltevorrichtung (4 , 13 ) verbunden ist , daß die Position des Anzeigegeräts (2) relativ zur Haltevorrichtung (4 , 13) entlang der Längsachse (20) veränderbar ist ,
29. Vorrichtung nach einem der Ansprüche 25 bis 28 ,
dadurch gekennzeichnet, daß das Anzeigegerät (2) durch ein Gelenk so mit der Haltevorrichtung (4 , 13) verbunden ist , daß das Anzeigegerät (2) durch Rotationsbewegungen um die Drehachse relativ zur Haltevorrichtung (4 , 13 ) veränderbar ist .
30. Vorrichtung nach einem der Ansprüche 25 bis 29 ,
dadurch gekennzeichnet , daß die Recheneinheit (1) dergestalt beweglich mit der Haltevorrichtung (4 , 13) verbunden ist , daß eine Translationsbewegung des Anzeigegeräts (2 ) relativ zur Haltevorrichtung (4 , 13) entlang der Längsachse eine entgegengesetzte Translationsbewegung der Recheneinheit (1) relativ zur Haltevorrichtung (4 , 13 ) entlang der Längsachse bewirkt .
31. Vorrichtung nach einem der Ansprüche 23 bis 30 ,
dadurch gekennzeichnet, daß das Anzeigegerät (2) einen Hebel (54.1, 54.2) zum Verändern der Position des Anzeigegeräts (2 ) relativ zur Haltevorrichtung (4 , 13) umfaßt .
32. Vorrichtung nach einem der Ansprüche 1 bis 31 , dadurch gekennzeichnet , daß das Anzeigegerät (2 ) ein berührungssensitives Bildschirmgerät umfaßt und das Eingabegerät (10 , 12 ) einen mit dem Bildschirmgerät zusammenwirkenden Schreibstift (10 ) umfaßt .
33. Vorrichtung nach einem der Ansprüche 1 bis 32 ,
dadurch gekennzeichnet , daß das Anzeigegerät (2 ) ein Flüssigkristall-Bildschirmgerät umfaßt .
34. Vorrichtung nach einem der Ansprüche 1 bis 33 ,
dadurch gekennzeichnet, daß die Recheneinheit (1) Lesezugriff auf einen Modell- Datenspeicher (30) besitzt , in dem ein rechnerverfügbares Konstruktionsmodell (31) des Gegenstandes abgespeichert ist oder abspeicherbar ist , und die Recheneinheit (1) zum Erzeugen der Darstellung (40) unter Verwendung des Konstruktionsmodells (31) ausgestaltet ist .
35. Vorrichtung nach Anspruch 34 ,
dadurch gekennzeichnet , daß der Lesezugriff unter Verwendung einer drahtlos arbeitenden Datenübermittlungseinrichtung realisiert ist ,
36. Vorrichtung nach einem der Ansprüche 1 bis 35 ,
dadurch gekennzeichnet , daß die Recheneinheit (1) mit mindestens einer Kamera (34) gekoppelt ist , die Kamera (34 ) zum Erzeugen eines Abbildes des Gegenstandes ausgestaltet ist und die Recheneinheit (1) zum Erzeugen der Darstellung (40) unter Verwendung des Abbildes ausgestaltet ist .
37. Vorrichtung nach einem der Ansprüche 1 bis 36 ,
dadurch gekennzeichnet , daß die Recheneinheit (1) zum Erzeugen einer Ausgangs-Darstellung (40) , die den Gegenstand aus einer vorgegebenen Ausgangs- Betrachtungsrichtung und von einer vorgegebenen Ausgangs-Betrachtungsposition aus zeigt, zum Berechnen einer gegenüber der Ausgangs- Betrachtungsrichtung veränderten Betrachtungsrichtung in Abhängigkeit von einer Positionsveränderung des Anzeigegeräts (2) relativ zur Haltevorrichtung (4 , 13 ) , zum Berechnen einer gegenüber der Ausgangs- Betrachtungsposition veränderten Betrachtungsposition in Abhängigkeit von einer Positionsveränderung des Anzeigegeräts (2 ) relativ zur Haltevorrichtung (4 , 13 ) , zum Erzeugen einer veränderten Darstellung (40) , die den Gegenstand aus der veränderten Betrachtungsrichtung und aus der veränderten Betrachtungsposition heraus zeigt, ausgestaltet ist .
PCT/EP2006/000441 2005-02-01 2006-01-19 Elektronische konstruktionsvorrichtung WO2006081948A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE200510004448 DE102005004448A1 (de) 2005-02-01 2005-02-01 Elektronische Konstruktionsvorrichtung
DE102005004448.4 2005-02-01

Publications (1)

Publication Number Publication Date
WO2006081948A1 true WO2006081948A1 (de) 2006-08-10

Family

ID=35871256

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2006/000441 WO2006081948A1 (de) 2005-02-01 2006-01-19 Elektronische konstruktionsvorrichtung

Country Status (2)

Country Link
DE (1) DE102005004448A1 (de)
WO (1) WO2006081948A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11372408B1 (en) * 2018-08-08 2022-06-28 Amazon Technologies, Inc. Dynamic trajectory-based orientation of autonomous mobile device component

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202006008325U1 (de) * 2006-05-05 2006-08-10 Stumm-Tippe, Karin Vorrichtung zur Darstellung von Bildinformation
DE102007057887A1 (de) 2007-11-29 2009-06-04 Daimler Ag Verfahren und Vorrichtung zum Anzeigen und Verändern einer Darstellung eines mehrdimensionalen Raums und/oder Objekts
DE102010011297A1 (de) 2009-09-17 2010-10-21 Daimler Ag Verfahren und Vorrichtung zum Anzeigen und Verändern einer Darstellung eines mehrdimensionalen Raums und/oder Objekts
DE102015014119A1 (de) 2015-11-04 2017-05-18 Thomas Tennagels Adaptives Visualisierungssystem und Visualisierungsverfahren

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5515078A (en) * 1992-06-12 1996-05-07 The Computer Museum, Inc. Virtual-reality positional input and display system
DE19734409A1 (de) * 1997-08-08 1998-08-27 Jeffrey Shaw Orientierungsvorrichtung
DE19719038A1 (de) * 1997-04-30 1998-11-05 Art & Com Medientechnologie Un Vorrichtung und Verfahren zur interaktiven Darstellung
US20020140666A1 (en) * 2001-03-29 2002-10-03 Bradski Gary R. Intuitive mobile device interface to virtual spaces

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5515078A (en) * 1992-06-12 1996-05-07 The Computer Museum, Inc. Virtual-reality positional input and display system
DE19719038A1 (de) * 1997-04-30 1998-11-05 Art & Com Medientechnologie Un Vorrichtung und Verfahren zur interaktiven Darstellung
DE19734409A1 (de) * 1997-08-08 1998-08-27 Jeffrey Shaw Orientierungsvorrichtung
US20020140666A1 (en) * 2001-03-29 2002-10-03 Bradski Gary R. Intuitive mobile device interface to virtual spaces

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TSANG M ET AL: "BOOM CHAMELEON: SIMULTANEOUS CAPTURE OF 3D VIEWPOINT, VOICE AND GESTURE ANNOTATIONS ON A SPATIALLY-AWARE DISPLAY", UIST 02. PROCEEDINGS OF THE 15TH. ANNUAL ACM SYMPOSIUM ON USER INTERFACE SOFTWARE AND TECHNOLOGY. PARIS, FRANCE, OCT. 27 - 30, 2002, ACM SYMPOSIUM ON USER INTERFACE SOFTWARE AND TECHNOLOGY, NEW YORK, NY : ACM, US, vol. CONF. 15, 27 October 2002 (2002-10-27), pages 111 - 120, XP001171573, ISBN: 1-58113-488-6 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11372408B1 (en) * 2018-08-08 2022-06-28 Amazon Technologies, Inc. Dynamic trajectory-based orientation of autonomous mobile device component

Also Published As

Publication number Publication date
DE102005004448A1 (de) 2006-04-06

Similar Documents

Publication Publication Date Title
DE69434851T2 (de) Am Kopf montierte Bildanzeigevorrichtung und diese enthaltendes Datenverarbeitungsgerät
EP3781364A1 (de) Verfahren zur benutzung einer mehrgliedrigen aktuierten kinematik, vorzugsweise eines roboters, besonders vorzugsweise eines knickarmroboters, durch einen benutzer mittels einer mobilen anzeigevorrichtung
DE102016105858A1 (de) Mobiles dreidimensionales Messinstrument
EP2563224B1 (de) Röntgensystem und verfahren zur generierung von 3d-bilddaten
WO2006081948A1 (de) Elektronische konstruktionsvorrichtung
DE102014225694A1 (de) Fahrzeugsteuervorrichtung und Fahrzeug
CN101443729A (zh) 调整3d空间中3d断面平面的操纵杆样图形用户界面
DE112012005897T5 (de) Multifunktionales Laser-Nivelliergerät
WO2010012441A1 (de) Röntgenbild-aufnahmesystem und röntgenbild-aufnahmeverfahren zur aufnahme von bilddaten mit röntgengeräten für eine volumenrekonstruktion
DE202009019014U1 (de) Computertomographische Werkstückmessvorrichtung
WO2014118391A2 (de) Inspektionskameraeinheit, verfahren zur inspektion von innenräumen sowie sensoreinheit
US20200003546A1 (en) Three-coordinate mapper and mapping method
KR102195537B1 (ko) 현지조사자료를 획득하여 지형의 변화를 신속하게 반영할 수 있는 수치지도 제작시스템
DE10238579A1 (de) Bildbasiertes Untersuchungssystem, das eine Positionierungskompensation für nichtplanare Ziele umfaßt
EP1196891B1 (de) Vorrichtung zum bildhaften erfassen dreidimensionaler objekte
DE102013216152A1 (de) Ultraschallkopf mit Steuerungseinrichtung sowie Verfahren zur Steuerung eines Ultraschallgeräts
DE102018108141A1 (de) Mobile Vorrichtung und Verfahren zum Erfassen eines Objektraums
FR2674048A1 (fr) Dispositif de generation des donnees definissant une figure tridimensionnelle.
DE102017208343B4 (de) Anzeigesystem für ein Fahrzeug und Fahrzeug
DE102019201134A1 (de) Einmessung einer Augmented-Reality-Brille zur Verwendung in einem Kraftfahrzeug
DE4211189A1 (de) 3D-Computermaus
CN108955562A (zh) 基于计算机显微视觉断层扫描技术的显微视觉系统显微景深数字化扩展方法及系统
DE10018107A1 (de) Vorrichtung und Verfahren zum dreidimensionalen Vermessen von Objekten
DE19719038C2 (de) Vorrichtung und Verfahren und ihre Verwendung zur veränderbaren Darstellung
KR102616798B1 (ko) 지형정보의 변화를 반영하는 정밀 공간영상 도화시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06706298

Country of ref document: EP

Kind code of ref document: A1

WWW Wipo information: withdrawn in national office

Ref document number: 6706298

Country of ref document: EP