EP3776490A1 - Verfahren und system zum darstellen eines 3d-modells - Google Patents

Verfahren und system zum darstellen eines 3d-modells

Info

Publication number
EP3776490A1
EP3776490A1 EP19727840.1A EP19727840A EP3776490A1 EP 3776490 A1 EP3776490 A1 EP 3776490A1 EP 19727840 A EP19727840 A EP 19727840A EP 3776490 A1 EP3776490 A1 EP 3776490A1
Authority
EP
European Patent Office
Prior art keywords
parts
model
control device
user
selected area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP19727840.1A
Other languages
English (en)
French (fr)
Inventor
Rebecca Johnson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of EP3776490A1 publication Critical patent/EP3776490A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41805Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by assembly
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41885Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by modeling, simulation of the manufacturing system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/016Exploded view

Definitions

  • the present invention relates to a method for representing a 3D model of an object and a system for displaying such a 3D model of an object.
  • an item in virtual reality environments and / or augmented reality environments, can be represented as a 3D model. It may be desirable for a user to view the individual parts of the article in the 3D model, for example, to understand how the parts are assembled. For this purpose, it is desirable to display the 3D model in such a way that a visualization of the individual parts of the illustrated object is simplified.
  • an object of the present invention is to provide an improved representation of a 3D model of an object.
  • a method for displaying a 3D model of an article comprising a plurality of parts arranged at original positions comprises:
  • the representation of the 3D model can be changed dynamically and in tereptept by operating the control device by a user. A representation of the 3D model can thus be improved.
  • This improved rendering of the 3D model may allow the user to better locate a particular portion of the object, such as a particular screw.
  • the user can also better localize a machine in a 3D model of a complex industrial plant. The user can thus "look" in particular at the subject, and the user can know better how the selected parts are assembled, for example, allowing the user to better understand how the object works.
  • the article may include a device of an industrial plant, for example, an electric motor.
  • the article may be both an electronic device and a mechanical object.
  • the object may also be an industrial plant with several machines.
  • the 3D model is in particular a 3D representation of the object.
  • the 3D model can form a realistic representation of the object.
  • the 3D model may be a CAD model.
  • the plurality of parts is in particular so set together that they form the object or a part of the subject.
  • the parts are for example screws, Zylin of, housing parts, valves, pistons or the like.
  • the parts may also be entire machines, for example motors or machines of an industrial plant.
  • the original positions of the parts may be positions in which the parts are assembled to form the article or a part thereof.
  • the representation of the object with its parts in the original positions corresponds in particular to a truthful and / or realistic representation of the subject.
  • the control device is actuated, for example, by the user moving the control device and / or actuating a button of the control device.
  • the control device may also detect movements of the user and thereby be actuated.
  • the Steuereinrich device may be formed as a motion sensor.
  • the selected area of the 3D model is, for example, a 3D area of the 3D model.
  • the selected area is the area of the object that the user wants to visualize in detail.
  • the selected area is, for example, spherical or cuboid.
  • the parts of the object that are in the selected area form the selected parts.
  • the selection of the selected area leads in particular to the fact that the selected parts are displayed in end positions instead of their original positions.
  • the end positions of the selected parts differ in particular from their origin positions. In the end positions, the selected parts can be displayed in such a way that distances between the selected parts increase. The distances between tween the selected parts are in particular larger when the parts are in the end positions, as if they are jump positions in the origin.
  • the selected parts are in particular special represented in a 3D exploded view.
  • the 3D model is presented in such a way that the parts of the object that are outside the selected area are displayed in their original positions.
  • the selected parts are displayed in original positions.
  • the selected parts can be thus be highlighted against the non-selected parts outside the selected area.
  • the presentation of the 3D model can be further improved.
  • the selected parts are moved away from their origin positions such that spacings of the selected parts increase to a reference point within the selected range.
  • the reference point is located in particular in the middle of the selected area.
  • the extent to which the distance of a selected part to the reference point is increased is, in particular, proportional to the distance between the reference point and the selected part in its original position.
  • the selected parts, which are in their original positions near the reference point, are thus in particular less moved than the parts selected which are located further away from the reference point in their original positions.
  • the 3D model is displayed in a virtual reality environment (VR environment) and / or in an augmented reality environment (AR environment).
  • VR environment virtual reality environment
  • AR environment augmented reality environment
  • the 3D model is presented in an environment in which it is displayed along with additional information, such as a predetermined text or a predetermined image.
  • the 3D model can also be displayed on a 3D screen. This can be a 3D screen of a headset, in particular a VR headset or an AR headset.
  • the control device emits virtual beams such that they are only visible in the VR environment and / or in the AR environment and serve to select the selected area when the control device is moved.
  • the virtual beams are, in particular, beams that are visible only in the VR and / or in the AR environment. They are visible only by a user with a corre sponding headset, for example.
  • the virtual rays may resemble the light rays of a flashlight.
  • the user in selecting the selected area, the user directs the virtual rays toward the area of the object that he wishes to select.
  • the user In selecting the selected area, the user directs the virtual beams, in particular, to the 3D model representation of the subject.
  • the virtual beams in the VR environment and / or the AR environment are frusto-conically emitted by the controller, and a portion of the object cut by the virtual beams forms the selected area.
  • the reference point is arranged on a central axis of a truncated cone formed by the frustoconical Strah len.
  • the Steuereinrich device is actuated such that:
  • a position of the reference point is selected
  • a distance of the control means is selected from the reference point
  • a size of the selected area is determined.
  • the position of the reference point can be selected by moving the control device.
  • the distance of the Steuerein direction to the reference point is selected in particular characterized in that a setting is made on the control device be.
  • the extent of increasing the intervals between the selected parts can be selected based on a further setting unit on the control device.
  • the size of the selected area can be changed for example by determining an opening angle of the truncated cone.
  • the method further comprises:
  • the selection of the selected area is overridden by the user re-engaging the controller, for example by moving it away from the selected area.
  • the user upon actuation and / or movement of the controller, the user selects a new selected area.
  • the newly selected portions of the newly selected range may then be presented in end positions in which they are moved away from their original positions such that distances between the newly selected portions increase.
  • the method further comprises:
  • the user may select one of the selected parts and view it more closely, for example.
  • the user can also obtain properties about the predetermined part.
  • the selection of the predetermined part can follow without the user knowing the name of the part or the hierarchy.
  • the 3D model of the art is shown that a transparency of at least some of the parts of the article, in particular the Vietnamese Selected th parts, is increased.
  • the remaining parts can be better visualized. If the transparency of the non-selected parts is increased, the selected parts can be better viewed without the unselected parts hiding the selected parts.
  • a computer program product such as a computer program means may, for example, be used as a storage medium, e.g.
  • the system includes:
  • a controller configured to be actuated by a user to select a selected portion of the 3D model, the portions of the item located in the selected region forming selected portions;
  • a display device for displaying the 3D model in such a way that the selected parts are presented in final positions in which they are so different from their original position. moved away, that distances between the selected parts increase.
  • the respective device for example the control device or the display device, can be implemented in terms of hardware and / or software technology.
  • the respective device may be configured as a device or as part of a device, for example as a computer or as a microprocessor or as a controller of a vehicle.
  • the respective device may be designed as a computer program product, as a function, as a routine, as part of a program code or as an executable object.
  • a control device for the system according to the second aspect or according to an embodiment of the second aspect for selecting a selected area of a 3D model of an object upon actuation by a user is proposed.
  • the Steuerein direction is flashlight-shaped and includes:
  • a selection unit for selecting a predetermined part of the selected parts
  • a determination unit for determining a position and / or a size of the selected area.
  • the control device flashlight-shaped form is particularly advantageous because it is thereby tangible by the user and can be operated with a single hand. Furthermore, the actuation of the control device takes place in special similar to operating a flashlight and is therefore intuitive.
  • the extent unit is in particular a slide button.
  • the determination unit may be formed as a rotatable ring on the control device.
  • the unit of measure and the determination unit can also be designed as buttons, for example.
  • the position and / or size of the selected area can also be based on Sensteue tion and / or text input on the determination unit suc conditions.
  • Fig. 1 shows a first illustration of a system for displaying a 3D model
  • Fig. 2 is a second illustration of the system for displaying a 3D model
  • Fig. 3 shows an example of an illustrated subject
  • 4 shows a method for displaying a 3D model according to a first embodiment
  • 5 shows a method of displaying a 3D model according to a second embodiment
  • Fig. 6 shows a control device according to a Ausity
  • the system 20 comprises a control device 10 and a display device 2.
  • the display device 2 is a screen 2 of a VR headset (not shown), the 3D View pictures.
  • a 3D model 1 of an object 3 is displayed on the screen 2.
  • the 3D model 1 is a representation of the object 3.
  • the object 3 is in the present case of a motor of an industrial plant. It comprises a large number of parts 4, for example screws, cylinders and piston.
  • the parts 4 are shown schematically as blocks for the sake of clarity.
  • the object 3 comprises 28 parts 4.
  • the parts 4 are shown in their original position.
  • the controller 10 is flashlight shaped and is made by a user takes it in the hand and moves. The actuation of the control device 10 will be described in more detail below with reference to FIG. 6.
  • the system 20 is adapted to execute a method for representing a 3D model 1.
  • a method for representing a 3D model 1 is shown, for example, in FIG. 4, which illustrates a method of displaying a 3D model 1 according to a first embodiment shows. In the following, the method will be described with reference to FIGS. 1, 2, 3 and 4.
  • a step S1 the controller 10 is operated by a user 7 to select a selected area 5 of the 3D model 1.
  • the user 7 takes the control device 10 into the hand 13 and moves it such that virtual beams 11 emitted by the control device 10 are emitted in the direction of the 3D model 1.
  • the virtual beams 11 are only visible in the VR environment, ie with the VR headset.
  • the user 10 moves the control device 10 in his hand 13 such that the truncated cone emitted virtu ellen rays 11 intersect the object 3.
  • the area of the object 3 within the frusto-conical steel 11 forms the selected area 5. It is an area that the user 7 wants to visualize more precisely.
  • the side surfaces of the selected parts 14 are shown dotted.
  • the selected area comprises eight selected parts 14.
  • a step S2 the 3D model 1 is displayed in such a way that the selected parts 14 are displayed in end positions.
  • Fig. 2 shows how the selected parts 14 are shown in the end positions.
  • the selected parts 14 are moved away from their original positions (FIG. 1) such that distances between the individual selected parts 14 are increased.
  • the selected parts are thereby moved away from a reference point 6, which is in the middle of the selected area 5 Be.
  • the unselected parts 4 are still displayed in their original positions.
  • the user 7 sees the selected parts 14 "fly apart.” This allows the user 7 to better see the selected parts 14. In particular, he also sees the selected parts 14 previously hidden by other parts 4 were.
  • Fig. 3 shows schematically how the selected parts 14 are moved.
  • reference numerals 14u branch the selected parts 14 which are in their original positions.
  • Reference numerals 14e show the selected parts 14 which are in their end positions.
  • the system 20 may alternatively also perform a method of presenting a 3D model 1 according to a second embodiment. Such a method will be described below with reference to FIG. 5.
  • the method steps S1 and S2 are identical to those of the method according to the first embodiment (FIG. 4).
  • a step S3 the user 7 selects a predetermined part from the selected parts 14 on the basis of the control device 10. Properties of the predetermined part are displayed on the screen 2, so that the user 7 receives information about the predetermined part.
  • a step S4 the control device 10 is actuated again by the user 7, so that the selection of the selected area 5 is canceled.
  • the user 7 moves the control device 10 away from the selected area 5, so that the virtual beams 11 no longer intersect the object 3 in the selected area 5.
  • the selected parts 14 are shown in their Endpo positions only as long as the user 7 with the Steuerein direction 10 points to the selected area 5.
  • a step S5 the 3D model 1 is again presented Darge that the previously selected parts 14 again in their Origin positions are displayed.
  • the previously selected parts 14 are again moved together so that a distance between the respective preselected parts 14 and the reference point 6 is reduced again.
  • the steps S1-S5 can be repeated as often as desired. Thereby, the user 7 can sequentially select and explore individual areas of the object 3.
  • the Steuerein device 10 is flashlight-shaped and therefore very intuitive to use.
  • the emitted by the controller 10 beams 11 are truncated frustoconical with an opening angle emit advantage.
  • the opening angle is adjustable by the Benut zer 7 the adjustment ring 16 rotates. By varying the opening angle, a size of the selected area 5 can be changed.
  • the frusto-conical rays 11 are emitted along a central axis MA.
  • the reference point 6 is located on this central axis MA.
  • a distance d between the reference point 6 and the Steuerein direction 10 the user can set 10 based on a slide button 15 of the controller.
  • the slide button 15 and the adjusting ring 16 in particular form a determination unit.
  • a depth h of the selected area 5 can be determined by the user 7 by means of a voice command.
  • the control device 10 is thus operable with a single hand 13. Furthermore, it is possible to provide a haptic input device for adjusting the depth h, such as a slide button. Furthermore, a two-dimensional touchpad can also be used to set both the distance d and the depth h. In addition, the depth h in some embodiments also by turning the control device 10 can be adjusted about its longitudinal axis.
  • control device 10 further comprises an actuating unit for switching on and off the control device 10 and / or an extent unit for selecting egg nes extent of increasing the distances between the selected parts 14th
  • the object 3 may for example also be any machine of an industrial plant or an entire industrial plant.
  • the parts 4 of the Ge object 3 can also be arranged differently than shown in the Fig. 1 within the article 3.
  • the 3D model 1 can alternatively be displayed on a normal 3D screen or in an AR environment. It is also conceivable to represent egg nige of the parts 4, for example, the non-selected parts 4, with an increased transparency.
  • the controller 10 may also be configured in the form of a remote control with a plurality of buttons. Age natively, the controller 10 may also be atecserken tion device, the movements of the user 7 he knows.
  • the described flashlight-shaped Steuerein device 10 can be modified. It may, for example, have various buttons for setting the distance d and / or the opening angle.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Manufacturing & Machinery (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Automation & Control Theory (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es wird ein Verfahren zum Darstellen eines 3D-Modells (1) eines Gegenstands (3), der eine Vielzahl von Teilen (4), die in Ursprungspositionen angeordnet sind, umfasst, vorgeschlagen. Das Verfahren umfasst: Betätigen (S1) einer Steuereinrichtung (10) durch einen Benutzer (7) zum Auswählen eines ausgewählten Bereichs (5) des 3D-Modells (1), wobei die Teile (4) des Gegenstands (3), die sich in dem ausgewählten Bereich (5) befinden, ausgewählte Teile (14) bilden; und Darstellen (S2) des 3D-Modells (1) derart, dass die ausgewählten Teile (14) in Endpositionen dargestellt werden, in denen sie derart von ihren Ursprungspositionen wegbewegt sind, dass sich Abstände zwischen den ausgewählten Teilen (14) erhöhen. Die ausgewählten Teile werden derart dargestellt, dass ein Benutzer die ausgewählten Teile besser sehen kann.

Description

Beschreibung
Verfahren und System zum Darstellen eines 3D-Modells
Die vorliegende Erfindung betrifft ein Verfahren zum Darstel len eines 3D-Modells eines Gegenstands sowie ein System zum Darstellen eines solchen 3D-Modells eines Gegenstands.
In Virtual-Reality-Umgebungen und/oder Augmented-Reality- Umgebungen kann ein Gegenstand beispielsweise als ein 3D- Modell dargestellt werden. Es kann gewünscht sein, dass sich ein Benutzer die einzelnen Teile des Gegenstands in dem 3D- Modell ansieht, um zum Beispiel zu verstehen, wie die Teile zusammengesetzt sind. Hierzu ist es wünschenswert, das 3D- Modell derart darzustellen, dass eine Visualisierung der ein zelnen Teile des dargestellten Gegenstands vereinfacht wird.
Vor diesem Hintergrund besteht eine Aufgabe der vorliegenden Erfindung darin, ein verbessertes Darstellen eines 3D-Modells eines Gegenstands zu schaffen.
Gemäß einem ersten Aspekt wird ein Verfahren zum Darstellen eines 3D-Modells eines Gegenstands, der eine Vielzahl von Teilen, die in Ursprungspositionen angeordnet sind, umfasst, vorgeschlagen. Das Verfahren umfasst:
Betätigen einer Steuereinrichtung durch einen Benutzer zum Auswählen eines ausgewählten Bereichs des 3D-Modells, wo bei die Teile des Gegenstands, die sich in dem ausgewählten Bereich befinden, ausgewählte Teile bilden; und
Darstellen des 3D-Modells derart, dass die ausgewählten Teile in Endpositionen dargestellt werden, in denen sie der art von ihren Ursprungspositionen wegbewegt sind, dass sich Abstände zwischen den ausgewählten Teilen erhöhen.
Durch das Darstellen der ausgewählten Teile in Endpositionen kann eine Visualisierung der ausgewählten Teile vereinfacht werden. Da die Abstände zwischen den ausgewählten Teilen er höht werden, sind die ausgewählten Teile insbesondere besser sichtbar. Die Darstellung des 3D-Modells kann durch Betätigen der Steuereinrichtung durch einen Benutzer dynamisch und in teraktiv verändert werden. Eine Darstellung des 3D-Modells kann somit verbessert werden.
Diese verbesserte Darstellung des 3D-Modells kann dem Benut zer ein besseres Lokalisieren eines bestimmten Teils des Ge genstands, zum Beispiel eine bestimmte Schraube, ermöglichen. Der Benutzer kann anhand der Darstellung auch eine Maschine in einem 3D-Modell einer komplexen Industrieanlage besser lo kalisieren. Der Benutzer kann somit insbesondere in den Ge genstand „hineinsehen". Ferner kann der Benutzer besser er kennen, wie die ausgewählten Teile zusammengesetzt sind. Die ses erlaubt dem Benutzer zum Beispiel, besser zu verstehen, wie der Gegenstand funktioniert.
Der Gegenstand kann ein Gerät einer Industrieanlage, zum Bei spiel ein Elektromotor, umfassen. Bei dem Gegenstand kann es sich sowohl um ein elektronisches Gerät als auch um einen me chanischen Gegenstand handeln. Der Gegenstand kann auch eine Industrieanlage mit mehreren Maschinen sein.
Das 3D-Modell ist insbesondere eine 3D-Darstellung des Gegen stands. Das 3D-Modell kann eine realistische Darstellung des Gegenstands bilden. Es kann sich bei dem 3D-Modell um ein CAD-Modell handeln.
Die Vielzahl von Teilen ist insbesondere derart zusammenge setzt, dass sie den Gegenstand oder einen Teil des Gegen stands bilden. Die Teile sind zum Beispiel Schrauben, Zylin der, Gehäuseteile, Ventile, Kolben oder dergleichen. Es kann sich bei den Teilen aber auch um ganze Maschinen, zum Bei spiel um Motoren oder Maschinen einer Industrieanlage, han deln .
Die Ursprungspositionen der Teile können Positionen sein, in denen die Teile zusammengesetzt sind, um den Gegenstand oder einen Teil davon zu bilden. Die Darstellung des Gegenstands mit dessen Teilen in den Ursprungspositionen entspricht ins besondere einer wahrheitskonformen und/oder realistischen Darstellung des Gegenstands.
Die Steuereinrichtung wird beispielsweise betätigt, indem der Benutzer die Steuereinrichtung bewegt und/oder einen Knopf der Steuereinrichtung betätigt. In Ausführungsformen kann die Steuereinrichtung auch Bewegungen des Benutzers detektieren und dadurch betätigt werden. Hierzu kann die Steuereinrich tung als Bewegungssensor ausgebildet sein.
Der ausgewählte Bereich des 3D-Modells ist zum Beispiel ein 3D-Bereich des 3D-Modells. Bei dem ausgewählten Bereich han delt es sich insbesondere um den Bereich des Gegenstands, den der Benutzer im Detail visualisieren möchte. Der ausgewählte Bereich ist zum Beispiel sphärisch oder quaderförmig. Die Teile des Gegenstands, die sich in dem ausgewählten Bereich befinden, bilden insbesondere die ausgewählten Teile.
Die Auswahl des ausgewählten Bereichs führt insbesondere da zu, dass die ausgewählten Teile in Endpositionen statt in de ren Ursprungspositionen dargestellt werden. Die Endpositionen der ausgewählten Teile weichen insbesondere von deren Ur sprungspositionen ab. In den Endpositionen können die ausge wählten Teile derart dargestellt werden, dass sich Abstände zwischen den ausgewählten Teilen erhöhen. Die Abstände zwi schen den ausgewählten Teilen sind insbesondere größer, wenn die Teile in den Endpositionen sind, als wenn sie in den Ur sprungspositionen sind. Die ausgewählten Teile werden insbe sondere in einer 3D-Explosionsdarstellung dargestellt.
Gemäß einer Ausführungsform wird das 3D-Modell derart darge stellt, dass die Teile des Gegenstands, die sich außerhalb des ausgewählten Bereichs befinden, in ihren Ursprungspositi onen dargestellt werden.
Insbesondere werden ausschließlich die ausgewählten Teile in Ursprungspositionen dargestellt. Die ausgewählten Teile kön- nen somit gegenüber den nicht ausgewählten Teilen außerhalb des ausgewählten Bereichs hervorgehoben werden. Dadurch kann das Darstellen des 3D-Modells weiter verbessert werden.
Gemäß einer weiteren Ausführungsform werden die ausgewählten Teile beim Darstellen des 3D-Modells derart von ihren Ur sprungspositionen wegbewegt, dass sich dabei Abstände der ausgewählten Teile zu einem Bezugspunkt innerhalb des ausge wählten Bereichs vergrößern. Der Bezugspunkt befindet sich insbesondere mittig in dem ausgewählten Bereich.
Das Ausmaß, um das der Abstand eines ausgewählten Teils zu dem Bezugspunkt erhöht wird, ist insbesondere proportional zum Abstand zwischen dem Bezugspunkt und dem ausgewählten Teil in seiner Ursprungsposition. Die ausgewählten Teile, die sich in ihren Ursprungspositionen nahe am Bezugspunkt befin den, werden somit insbesondere weniger bewegt als die ausge wählten Teile, die sich in ihren Ursprungspositionen weiter weg von dem Bezugspunkt befinden.
Gemäß einer weiteren Ausführungsform wird das 3D-Modell in einer Virtual-Reality-Umgebung (VR-Umgebung) und/oder in ei ner Augmented-Reality-Umgebung (AR-Umgebung) dargestellt.
Das 3D-Modell wird insbesondere in einer Umgebung darge stellt, in der es zusammen mit zusätzlicher Information, wie zum Beispiel einem vorbestimmten Text oder einem vorbestimm ten Bild, dargestellt wird. Das 3D-Modell kann auch auf einem 3D-Bildschirm dargestellt werden. Dabei kann es sich um ein 3D-Bildschirm eines Headsets, insbesondere eines VR-Headsets oder eines AR-Headsets, handeln.
Gemäß einer weiteren Ausführungsform emittiert die Steuerein richtung virtuelle Strahlen derart, dass diese lediglich in der VR-Umgebung und/oder in der AR-Umgebung sichtbar sind und beim Bewegen der Steuereinrichtung zur Auswahl des ausgewähl ten Bereichs dienen. Die virtuellen Strahlen sind insbesondere Strahlen, die nur in der VR- und/oder in der AR-Umgebung sichtbar sind. Sie sind zum Beispiel nur durch einen Benutzer mit einem entspre chenden Headset sichtbar. In der VR- und/oder AR-Umgebung können die virtuellen Strahlen den Lichtstrahlen einer Ta schenlampe ähneln.
Beim Auswahlen des ausgewählten Bereichs richtet der Benutzer die virtuellen Strahlen zum Beispiel in Richtung des Bereichs des Gegenstands, den er auswählen möchte. Beim Auswählen des ausgewählten Bereichs richtet der Benutzer die virtuellen Strahlen insbesondere auf die 3D-Modell-Darstellung des Ge genstands .
Gemäß einer weiteren Ausführungsform werden die virtuellen Strahlen in der VR-Umgebung und/oder der AR-Umgebung kegel stumpfförmig von der Steuereinrichtung emittiert und ein Be reich des Gegenstands, der durch die virtuellen Strahlen ge schnitten wird, bildet den ausgewählten Bereich.
Gemäß einer weiteren Ausführungsform ist der Bezugspunkt auf einer Mittelachse eines durch die kegelstumpfförmigen Strah len gebildeten Kegelstumpfs angeordnet.
Gemäß einer weiteren Ausführungsform wird die Steuereinrich tung derart betätigt, dass:
eine Position des Bezugspunkts ausgewählt wird;
ein Abstand der Steuereinrichtung zum Bezugspunkt ausge wählt wird;
ein Ausmaß des Erhöhens der Abstände zwischen den ausge wählten Teilen ausgewählt wird; und/oder
eine Größe des ausgewählten Bereichs bestimmt wird.
Die Position des Bezugspunkts kann ausgewählt werden, indem die Steuereinrichtung bewegt wird. Der Abstand der Steuerein richtung zum Bezugspunkt wird insbesondere dadurch ausge wählt, dass eine Einstelleinheit an der Steuereinrichtung be tätigt wird. Das Ausmaß des Erhöhens der Abstände zwischen den ausgewählten Teilen kann anhand einer weiteren Einstell einheit an der Steuereinrichtung ausgewählt werden. Darüber hinaus kann die Größe des ausgewählten Bereichs kann zum Bei spiel durch Bestimmen eines Öffnungswinkels des Kegelstumpfs verändert werden.
Gemäß einer weiteren Ausführungsform umfasst das Verfahren ferner :
Betätigen der Steuereinrichtung durch den Benutzer der art, dass die Auswahl des ausgewählten Bereichs aufgehoben wird; und
Darstellen des 3D-Modells derart, dass die Teile des zu vor ausgewählten Bereichs in ihren Ursprungspositionen darge stellt werden.
Die Auswahl des ausgewählten Bereichs wird insbesondere auf gehoben, indem der Benutzer die Steuereinrichtung erneut be tätigt, zum Beispiel indem er sie von dem ausgewählten Be reich wegbewegt. In Ausführungsformen wählt der Benutzer beim Betätigen und/oder Bewegen der Steuereinrichtung einen neuen ausgewählten Bereich aus. Die neu ausgewählten Teile des neu en ausgewählten Bereichs können dann in Endpositionen darge stellt werden, in denen sie derart von ihren Ursprungspositi onen wegbewegt sind, dass sich Abstände zwischen den neu aus gewählten Teilen erhöhen.
Gemäß einer weiteren Ausführungsform umfasst das Verfahren ferner :
Auswählen eines vorbestimmten Teils der ausgewählten Tei le anhand der Steuereinrichtung und/oder einer weiteren Steu ereinrichtung .
Der Benutzer kann insbesondere eines der ausgewählten Teile auswählen und dieses zum Beispiel genauer ansehen. Der Benut zer kann auch Eigenschaften über das vorbestimmte Teil erlan gen. Die Auswahl des vorbestimmten Teils kann vorteilhaft er folgen, ohne dass der Benutzer den Namen des Teils oder des sen Hierarchie kennt. Gemäß einer weiteren Ausführungsform wird das 3D-Modell der art dargestellt, dass eine Transparenz von zumindest einigen der Teile des Gegenstands, insbesondere der nicht ausgewähl ten Teile, erhöht wird.
Durch das Erhöhen der Transparenz von einigen Teilen des Ge genstands können die restlichen Teile besser visualisiert werden. Falls die Transparenz der nicht ausgewählten Teile erhöht wird, können die ausgewählten Teile besser betrachtet werden, ohne dass die nicht ausgewählten Teile die ausgewähl ten Teile verstecken.
Weiterhin wird ein Computerprogrammprodukt vorgeschlagen, welches auf einer programmgesteuerten Einrichtung die Durch führung des wie oben erläuterten Verfahrens veranlasst.
Ein Computerprogrammprodukt, wie z.B. ein Computerprogramm- Mittel, kann beispielsweise als Speichermedium, wie z.B.
Speicherkarte, USB-Stick, CD-ROM, DVD, oder auch in Form ei ner herunterladbaren Datei von einem Server in einem Netzwerk bereitgestellt oder geliefert werden. Dies kann zum Beispiel in einem drahtlosen Kommunikationsnetzwerk durch die Übertra gung einer entsprechenden Datei mit dem Computerprogrammpro dukt oder dem Computerprogramm-Mittel erfolgen.
Gemäß einem zweiten Aspekt wird ein System zum Darstellen ei nes 3D-Modells eines Gegenstands, der aus einer Vielzahl von Teilen, die in Ursprungspositionen angeordnet sind, besteht, vorgeschlagen. Das System umfasst:
eine Steuereinrichtung, die eingerichtet ist, derart durch einen Benutzer betätigt zu werden, dass ein ausgewähl ter Bereich des 3D-Modells ausgewählt wird, wobei die Teile des Gegenstands, die sich in dem ausgewählten Bereich befin den, ausgewählte Teile bilden; und
eine Darstelleinrichtung zum Darstellen des 3D-Modells derart, dass die ausgewählten Teile in Endpositionen darge stellt werden, in denen sie derart von ihren Ursprungspositi- onen wegbewegt sind, dass sich Abstände zwischen den ausge wählten Teilen erhöhen.
Die jeweilige Einrichtung, zum Beispiel die Steuereinrichtung oder die Darstelleinrichtung, kann hardwaretechnisch und/oder auch softwaretechnisch implementiert sein. Bei einer hard waretechnischen Implementierung kann die jeweilige Einrich tung als Vorrichtung oder als Teil einer Vorrichtung, zum Beispiel als Computer oder als Mikroprozessor oder als Steu errechner eines Fahrzeuges ausgebildet sein. Bei einer soft waretechnischen Implementierung kann die jeweilige Einrich tung als Computerprogrammprodukt, als eine Funktion, als eine Routine, als Teil eines Programmcodes oder als ausführbares Objekt ausgebildet sein.
Die für das vorgeschlagene Verfahren beschriebenen Ausfüh rungsformen und Merkmale gelten für das vorgeschlagene System entsprechend .
Gemäß einem dritten Aspekt wird eine Steuereinrichtung für das System gemäß dem zweiten Aspekt oder gemäß einer Ausfüh rungsform des zweiten Aspekts zum Auswählen eines ausgewähl ten Bereichs eines 3D-Modells eines Gegenstands bei einer Be tätigung durch einen Benutzer vorgeschlagen. Die Steuerein richtung ist taschenlampenförmig und umfasst:
eine Betätigungseinheit zum Ein- und Ausschalten der Steuereinrichtung;
eine Ausmaßeinheit zum Auswählen eines Ausmaßes des Erhö- hens der Abstände zwischen den ausgewählten Teilen;
eine Auswahleinheit zum Auswählen eines vorbestimmten Teils der ausgewählten Teile; und/oder
eine Bestimmungseinheit zum Bestimmen einer Position und/oder einer Größe des ausgewählten Bereichs.
Die Steuereinrichtung taschenlampenförmig auszubilden ist insbesondere vorteilhaft, weil sie dadurch durch den Benutzer greifbar ist und mit einer einzigen Hand betätigt werden kann. Ferner erfolgt das Betätigen der Steuereinrichtung ins- besondere ähnlich zum Betätigen einer Taschenlampe und ist somit intuitiv.
Bei der Ausmaßeinheit handelt es sich insbesondere um einen Schiebeknopf. Die Bestimmungseinheit kann als ein drehbarer Ring an der Steuereinrichtung ausgebildet sein. Die Ausmaß einheit und die Bestimmungseinheit können aber zum Beispiel auch als Knöpfe ausgebildet sein. Die Position und/oder Größe des ausgewählten Bereichs kann auch anhand von Sprachsteue rung und/oder Texteingabe über die Bestimmungseinheit erfol gen .
Weitere mögliche Implementierungen der Erfindung umfassen auch nicht explizit genannte Kombinationen von zuvor oder im Folgenden bezüglich der Ausführungsbeispiele beschriebenen Merkmale oder Ausführungsformen. Dabei wird der Fachmann auch Einzelaspekte als Verbesserungen oder Ergänzungen zu der je weiligen Grundform der Erfindung hinzufügen.
Weitere vorteilhafte Ausgestaltungen und Aspekte der Erfin dung sind Gegenstand der Unteransprüche sowie der im Folgen den beschriebenen Ausführungsbeispiele der Erfindung. Im Wei teren wird die Erfindung anhand von bevorzugten Ausführungs formen unter Bezugnahme auf die beigelegten Figuren näher er läutert .
Fig. 1 zeigt eine erste Darstellung eines Systems zum Dar stellen eines 3D-Modells;
Fig. 2 zeigt eine zweite Darstellung des Systems zum Dar stellen eines 3D-Modells;
Fig. 3 zeigt ein Beispiel eines dargestellten Gegenstands; Fig. 4 zeigt ein Verfahren zum Darstellen eines 3D-Modells gemäß einer ersten Ausführungsform; Fig. 5 zeigt ein Verfahren zum Darstellen eines 3D-Modells gemäß einer zweiten Ausführungsform; und
Fig. 6 zeigt eine Steuereinrichtung gemäß einem Ausfüh
rungsbeispiel .
In den Figuren sind gleiche oder funktionsgleiche Elemente mit denselben Bezugszeichen versehen worden, sofern nichts anderes angegeben ist.
Die Fig. 1 zeigt ein System 20 zum Darstellen eines 3D- Modells 1. Das System 20 umfasst eine Steuereinrichtung 10 sowie eine Darstelleinrichtung 2. Bei der Darstelleinrichtung 2 handelt es sich um einen Bildschirm 2 eines VR-Headsets (nicht dargestellt), der 3D-Bilder anzeigen kann.
In der Fig. 1 ist auf dem Bildschirm 2 ein 3D-Modell 1 eines Gegenstands 3 angezeigt. Das 3D-Modell 1 ist eine Darstellung des Gegenstands 3. Der Gegenstand 3 ist im vorliegenden Bei spiel ein Motor einer Industrieanlage. Er umfasst eine Viel zahl von Teilen 4, zum Beispiel Schrauben, Zylinder und Kol ben. In der Fig. 1 sind die Teile 4 der Übersicht halber schematisch als Blöcke dargestellt. Zudem sind in der Fig. 1 der Übersicht wegen nur einige der Teile 4 mit Bezugszeichen versehen. Tatsächlich umfasst der Gegenstand 3 aber 28 Teile 4. In der Fig. 1 sind die Teile 4 in ihren Ursprungspositio nen dargestellt.
Die Steuereinrichtung 10 ist taschenlampenförmig und wird be tätigt, indem ein Benutzer sie in die Hand nimmt und bewegt. Das Betätigen der Steuereinrichtung 10 wird im Folgenden in Bezug auf die Fig. 6 noch näher beschrieben.
Das System 20 ist geeignet, ein Verfahren zum Darstellen ei nes 3D-Modells 1 auszuführen. Solch ein Verfahren ist zum Beispiel in der Fig. 4 gezeigt, welche ein Verfahren zum Dar stellen eines 3D-Modells 1 gemäß einer ersten Ausführungsform zeigt. Im Folgenden wird das Verfahren in Bezug auf die Fig. 1, 2, 3 und 4 beschrieben.
In einem Schritt S1 wird die Steuereinrichtung 10 durch einen Benutzer 7 betätigt, um einen ausgewählten Bereich 5 des 3D- Modells 1 auszuwählen. Hierzu nimmt der Benutzer 7 die Steu ereinrichtung 10 in die Hand 13 und bewegt sie derart, dass virtuelle Strahlen 11, die durch die Steuereinrichtung 10 emittiert werden, in Richtung des 3D-Modells 1 emittiert wer den. Die virtuelle Strahlen 11 sind dabei nur in der VR- Umgebung, also mit dem VR-Headset, sichtbar.
Der Benutzer 10 bewegt die Steuereinrichtung 10 in seiner Hand 13 derart, dass die kegelstumpfförmig emittierten virtu ellen Strahlen 11 den Gegenstand 3 schneiden. Der Bereich des Gegenstands 3 innerhalb der kegelstumpfförmigen Stahlen 11 bildet den ausgewählten Bereich 5. Es handelt sich dabei um einen Bereich, den der Benutzer 7 genauer visualisieren möch te .
Die Teile 4 des Gegenstands 3, die sich innerhalb des ausge wählten Bereichs 5 befinden, bilden ausgewählte Teile 14. In der Fig. 1 sind die Seitenflächen der ausgewählten Teile 14 gepunktet dargestellt. Im Beispiel der Fig. 1 umfasst der ausgewählte Bereich acht ausgewählte Teile 14.
In einem Schritt S2 wird das 3D-Modell 1 derart dargestellt, dass die ausgewählten Teile 14 in Endpositionen dargestellt werden. Die Fig. 2 zeigt, wie die ausgewählten Teile 14 in den Endpositionen dargestellt sind. Die ausgewählten Teile 14 sind derart von ihren Ursprungspositionen (Fig. 1) wegbewegt, dass Abstände zwischen den einzelnen ausgewählten Teilen 14 erhöht werden. Die ausgewählten Teile werden dabei von einem Bezugspunkt 6, der sich in der Mitte des ausgewählten Be reichs 5 befindet, wegbewegt. Die nicht ausgewählten Teile 4 werden weiterhin in ihren Ursprungspositionen dargestellt. In seinem VR-Headset 12 sieht der Benutzer 7, wie die ausge wählten Teile 14 „auseinanderfliegen". Dadurch kann der Be nutzer 7 die ausgewählten Teile 14 besser sehen. Er sieht insbesondere auch die ausgewählten Teile 14, die zuvor durch andere Teile 4 verdeckt waren.
Die Fig. 3 zeigt schematisch, wie die ausgewählten Teile 14 bewegt werden. In der Fig. 3 zweigen die Bezugszeichen 14u die ausgewählte Teile 14, die in ihren Ursprungspositionen sind. Die Bezugszeichen 14e zeigen die ausgewählte Teile 14, die in ihren Endpositionen sind.
Das System 20 kann alternativ auch ein Verfahren zum Darstel len eines 3D-Modells 1 gemäß einer zweiten Ausführungsform ausführen. Solch ein Verfahren wird im Folgenden anhand der Fig. 5 beschrieben.
Im Verfahren gemäß der zweiten Ausführungsform (Fig. 5) sind die Verfahrensschritte S1 und S2 identisch zu denen des Ver fahrens gemäß der ersten Ausführungsform (Fig. 4) . In einem Schritt S3 wählt der Benutzer 7 anhand der Steuereinrichtung 10 ein vorbestimmtes Teil aus den ausgewählten Teilen 14 aus. Eigenschaften des vorbestimmten Teils werden auf dem Bild schirm 2 angezeigt, sodass der Benutzer 7 Informationen über das vorbestimmte Teil erhält.
In einem Schritt S4 wird die Steuereinrichtung 10 erneut durch den Benutzer 7 betätigt, sodass die Auswahl des ausge wählten Bereichs 5 aufgehoben wird. Hierzu bewegt der Benut zer 7 die Steuereinrichtung 10 von dem ausgewählten Bereich 5 weg, sodass die virtuellen Strahlen 11 den Gegenstand 3 nicht mehr in dem ausgewählten Bereich 5 schneiden. Insbesondere werden die ausgewählten Teile 14 nur solange in ihren Endpo sitionen dargestellt, wie der Benutzer 7 mit der Steuerein richtung 10 auf den ausgewählten Bereich 5 zeigt.
In einem Schritt S5 wird das 3D-Modell 1 erneut derart darge stellt, dass die zuvor ausgewählten Teile 14 wieder in ihren Ursprungspositionen dargestellt werden. Die zuvor ausgewähl ten Teile 14 werden wieder zusammenbewegt, sodass ein Abstand zwischen den jeweiligen zuvor ausgewählten Teilen 14 und dem Bezugspunkt 6 wieder reduziert wird.
Die Schritte S1 - S5 können beliebig oft wiederholt werden. Dadurch kann der Benutzer 7 einzelne Bereiche des Gegenstands 3 nacheinander auswählen und erkunden.
Die Fig. 6 zeigt eine Steuereinrichtung 10. Die Steuerein richtung 10 ist taschenlampenförmig und deswegen besonders intuitiv bedienbar.
Die durch die Steuereinrichtung 10 emittierte Strahlen 11 werden kegelstumpfförmig mit einem Öffnungswinkel emit tiert. Der Öffnungswinkel ist einstellbar, indem der Benut zer 7 den Einstellring 16 dreht. Durch das Variieren des Öff nungswinkels kann eine Größe des ausgewählten Bereichs 5 verändert werden.
Die kegelstumpfförmige Strahlen 11 werden entlang einer Mit telachse MA emittiert. Der Bezugspunkt 6 befindet sich auf dieser Mittelachse MA.
Einen Abstand d zwischen dem Bezugspunkt 6 und der Steuerein richtung 10 kann der Benutzer anhand eines Schiebeknopfs 15 der Steuereinrichtung 10 einstellen. Der Schiebeknopf 15 und der Einstellring 16 bilden insbesondere eine Bestimmungsein heit.
Eine Tiefe h des ausgewählten Bereichs 5 kann der Benutzer 7 durch einen Sprachbefehl bestimmen. Die Steuereinrichtung 10 ist somit mit einer einzigen Hand 13 bedienbar. Des Weiteren ist es möglich, eine haptische Eingabe-Einrichtung zur Ein stellung der Tiefe h, wie beispielsweise einen Schiebeknopf, vorzusehen. Des Weiteren kann auch ein zweidimensionales Touchpad eingesetzt werden, um sowohl den Abstand d als auch die Tiefe h einzustellen. Darüber hinaus kann die Tiefe h in einigen Ausführungsformen auch durch ein Drehen der Steuer einrichtung 10 um ihre Längsachse eingestellt werden.
In Ausführungsformen umfasst die Steuereinrichtung 10 ferner eine Betätigungseinheit zum Ein- und Ausschalten der Steuer einrichtung 10 und/oder eine Ausmaßeinheit zum Auswählen ei nes Ausmaßes des Erhöhens der Abstände zwischen den ausge wählten Teilen 14.
Obwohl die vorliegende Erfindung anhand von Ausführungsbei spielen beschrieben wurde, ist sie vielfältig modifizierbar. Anstelle des beschriebenen Motors kann der Gegenstand 3 zum Beispiel auch eine beliebige Maschine einer Industrieanlage oder eine gesamte Industrieanlage sein. Die Teile 4 des Ge genstands 3 können innerhalb des Gegenstandes 3 auch anders als in der Fig. 1 gezeigt angeordnet sein. Das 3D-Modell 1 kann alternativ auch auf einem normalen 3D-Bildschirm oder in einer AR-Umgebung angezeigt werden. Es ist auch denkbar, ei nige der Teile 4, zum Beispiel die nicht ausgewählten Teile 4, mit einer erhöhten Transparenz darzustellen.
Die Steuereinrichtung 10 kann auch in Form einer Fernbedie nung mit einer Vielzahl von Knöpfen ausgebildet sein. Alter nativ kann die Steuereinrichtung 10 auch eine Bewegungserken nungseinrichtung sein, die Bewegungen des Benutzers 7 er kennt. Auch die beschriebene taschenlampenförmige Steuerein richtung 10 kann modifiziert werden. Sie kann zum Beispiel diverse Knöpfe zur Einstellung des Abstands d und/oder des Öffnungswinkels aufweisen.

Claims

Patentansprüche
1. Verfahren zum Darstellen eines 3D-Modells (1) eines Ge genstands (3), der eine Vielzahl von Teilen (4), die in Ur sprungspositionen angeordnet sind, umfasst, wobei das Verfah ren umfasst:
Betätigen (Sl) einer Steuereinrichtung (10) durch einen Benutzer (7) zum Auswahlen eines ausgewählten Bereichs (5) des 3D-Modells (1), wobei die Teile (4) des Gegenstands (3), die sich in dem ausgewählten Bereich (5) befinden, ausgewähl te Teile (14) bilden; und
Darstellen (S2) des 3D-Modells (1) derart, dass die aus gewählten Teile (14) in Endpositionen dargestellt werden, in denen sie derart von ihren Ursprungspositionen wegbewegt sind, dass sich Abstände zwischen den ausgewählten Teilen (14) erhöhen.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das 3D-Modell (1) derart dargestellt wird, dass die Teile (4) des Gegenstands (3) , die sich außerhalb des ausgewählten Be reichs (5) befinden, in ihren Ursprungspositionen dargestellt werden .
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die ausgewählten Teile (14) beim Darstellen des 3D- Modells (1) derart von ihren Ursprungspositionen wegbewegt werden, dass sich dabei Abstände der ausgewählten Teile (14) zu einem Bezugspunkt (6) innerhalb des ausgewählten Bereichs (5) vergrößern.
4. Verfahren nach einem der Ansprüche 1 - 3, dadurch gekenn zeichnet, dass das 3D-Modell (1) in einer Virtual-Reality- Umgebung und/oder einer Augmented-Reality-Umgebung darge stellt wird.
5. Verfahren nach einem der Ansprüche 1 - 4, dadurch gekenn zeichnet, dass die Steuereinrichtung (10) virtuelle Strahlen (11) derart emittiert, dass diese lediglich in der VR- Umgebung und/oder in der AR-Umgebung sichtbar sind und beim Bewegen der Steuereinrichtung (10) zur Auswahl des ausgewähl ten Bereichs (5) dienen.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die virtuellen Strahlen (11) in der VR-Umgebung und/oder der AR-Umgebung kegelstumpfförmig von der Steuereinrichtung (10) emittiert werden und ein Bereich des Gegenstands (3) , der durch die virtuellen Strahlen (11) geschnitten wird, den aus gewählten Bereich (5) bildet.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass der Bezugspunkt (6) auf einer Mittelachse (MA) eines durch die kegelstumpfförmigen Strahlen (11) gebildeten Kegelstumpfs angeordnet ist.
8. Verfahren nach einem der Ansprüche 1 - 7, dadurch gekenn zeichnet, dass die Steuereinrichtung (10) derart betätigt wird, dass:
eine Position des Bezugspunkts (6) ausgewählt wird;
ein Abstand der Steuereinrichtung (10) zum Bezugspunkt (6) ausgewählt wird;
ein Ausmaß des Erhöhens der Abstände zwischen den ausge wählten Teilen (14) ausgewählt wird; und/oder
eine Größe des ausgewählten Bereichs (5) bestimmt wird.
9. Verfahren nach einem der Ansprüche 1 - 8, gekennzeichnet durch :
Betätigen (S4) der Steuereinrichtung (10) durch den Be nutzer (7) derart, dass die Auswahl des ausgewählten Bereichs (5) aufgehoben wird; und
Darstellen (S5) des 3D-Modells (1) derart, dass die Teile (4) des zuvor ausgewählten Bereichs (5) in ihren Ursprungspo sitionen dargestellt werden.
10. Verfahren nach einem der Ansprüche 1 - 9, gekennzeichnet durch : Auswahlen (S3) eines vorbestimmten Teils (4) der ausge wählten Teile (14) anhand der Steuereinrichtung (10) und/oder einer weiteren Steuereinrichtung.
11. Verfahren nach einem der Ansprüche 1 - 10, dadurch ge kennzeichnet, dass das 3D-Modell (1) derart dargestellt wird, dass eine Transparenz von zumindest einigen der Teile (4) des Gegenstands (3) , insbesondere der nicht ausgewählten Teile (4), erhöht wird.
12. Computerprogrammprodukt, welches auf einer programmge steuerten Einrichtung die Durchführung des Verfahrens nach einem der Ansprüche 1 - 11 veranlasst.
13. System (20) zum Darstellen eines 3D-Modells (1) eines Ge genstands (3), der aus einer Vielzahl von Teilen (4), die in Ursprungspositionen angeordnet sind, besteht, wobei das Sys tem (20) umfasst:
eine Steuereinrichtung (10), die eingerichtet ist, derart durch einen Benutzer (7) betätigt zu werden, dass ein ausge wählter Bereich (5) des 3D-Modells (1) ausgewählt wird, wobei die Teile (4) des Gegenstands (3), die sich in dem ausgewähl ten Bereich (5) befinden, ausgewählte Teile (14) bilden; und eine Darstelleinrichtung (2) zum Darstellen des 3D- Modells (1) derart, dass die ausgewählten Teile (14) in End positionen dargestellt werden, in denen sie derart von ihren Ursprungspositionen wegbewegt sind, dass sich Abstände zwi schen den ausgewählten Teilen (14) erhöhen.
14 System nach Anspruch 13, welches eingerichtet ist, das Verfahren nach einem der Ansprüche 1 - 11 durchzuführen.
15. Steuereinrichtung (10) für das System (20) nach Anspruch 13 oder 14 zum Auswählen eines ausgewählten Bereichs eines 3D-Modells (1) eines Gegenstands (3) bei einer Betätigung durch einen Benutzer (7), wobei die Steuereinrichtung (10) taschenlampenförmig ist und umfasst: eine Betätigungseinheit zum Ein- und Ausschalten der Steuereinrichtung (10);
eine Ausmaßeinheit zum Auswahlen eines Ausmaßes des Erhö- hens der Abstände zwischen den ausgewählten Teilen (14);
eine Auswahleinheit zum Auswählen eines vorbestimmten
Teils (4) der ausgewählten Teile (14); und/oder
eine Bestimmungseinheit (15, 16) zum Bestimmen einer Po sition und/oder einer Größe des ausgewählten Bereichs (5) .
EP19727840.1A 2018-05-22 2019-05-09 Verfahren und system zum darstellen eines 3d-modells Withdrawn EP3776490A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018207987.0A DE102018207987A1 (de) 2018-05-22 2018-05-22 Verfahren und System zum Darstellen eines 3D-Modells
PCT/EP2019/061889 WO2019224009A1 (de) 2018-05-22 2019-05-09 Verfahren und system zum darstellen eines 3d-modells

Publications (1)

Publication Number Publication Date
EP3776490A1 true EP3776490A1 (de) 2021-02-17

Family

ID=66685565

Family Applications (1)

Application Number Title Priority Date Filing Date
EP19727840.1A Withdrawn EP3776490A1 (de) 2018-05-22 2019-05-09 Verfahren und system zum darstellen eines 3d-modells

Country Status (6)

Country Link
US (1) US20210200192A1 (de)
EP (1) EP3776490A1 (de)
JP (1) JP2021524632A (de)
CN (1) CN112119431A (de)
DE (1) DE102018207987A1 (de)
WO (1) WO2019224009A1 (de)

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3374122B2 (ja) * 2000-05-29 2003-02-04 ウエストユニティス株式会社 物品組立・分解移動表示システム
JP2003076724A (ja) * 2001-09-04 2003-03-14 Toyota Keeramu:Kk 分解図自動作成装置、分解図自動作成方法及びその記録媒体
US7173996B2 (en) * 2004-07-16 2007-02-06 General Electric Company Methods and apparatus for 3D reconstruction in helical cone beam volumetric CT
JP2007018173A (ja) * 2005-07-06 2007-01-25 Canon Inc 画像処理方法、画像処理装置
US8452435B1 (en) * 2006-05-25 2013-05-28 Adobe Systems Incorporated Computer system and method for providing exploded views of an assembly
CN101542420A (zh) * 2006-11-27 2009-09-23 皇家飞利浦电子股份有限公司 通过手持式指向设备进行数据处理的3d控制
WO2011026268A1 (en) * 2009-09-02 2011-03-10 Autodesk, Inc. Automatic explode based on occlusion
US8717360B2 (en) * 2010-01-29 2014-05-06 Zspace, Inc. Presenting a view within a three dimensional scene
JP5300777B2 (ja) * 2010-03-31 2013-09-25 株式会社バンダイナムコゲームス プログラム及び画像生成システム
US9552673B2 (en) * 2012-10-17 2017-01-24 Microsoft Technology Licensing, Llc Grasping virtual objects in augmented reality
US9652115B2 (en) * 2013-02-26 2017-05-16 Google Inc. Vertical floor expansion on an interactive digital map
KR102105637B1 (ko) * 2015-08-04 2020-06-26 구글 엘엘씨 가상 현실에서 오브젝트와 손의 상황 감지형 충돌을 통한 입력
JP6860776B2 (ja) * 2016-06-30 2021-04-21 キヤノンマーケティングジャパン株式会社 仮想空間制御装置、その制御方法、及びプログラム
EP3301652A1 (de) * 2016-09-29 2018-04-04 Dassault Systèmes Computerimplementiertes verfahren zur erzeugung und anzeige einer explosionsgrafik

Also Published As

Publication number Publication date
US20210200192A1 (en) 2021-07-01
JP2021524632A (ja) 2021-09-13
DE102018207987A1 (de) 2019-11-28
CN112119431A (zh) 2020-12-22
WO2019224009A1 (de) 2019-11-28

Similar Documents

Publication Publication Date Title
DE69724416T2 (de) Zeigersteuerung mit benutzerrückführungsmechanismus
DE60319847T2 (de) Joystick mit variabler nachgiebigkeit mit kompensationsalgorithmen
DE69737275T2 (de) Videospielsystem mit vertikaler Matrix aus Cursorbildern
DE102010043412A1 (de) Anzeigesteuervorrichtung für eine Fernsteuervorrichtung
DE102013004692B4 (de) 3D-Eingabegerät mit einem zusätzlichen Drehregler
EP2618316B1 (de) Glücksrad mit Gestensteuerung
DE102010030974A1 (de) Vorrichtung und Verfahren zum Verwalten der Funktionen von Peripheriegeräten
DE10045117A1 (de) Frei spezifizierbare Geometrie- und Klangsteuerung
DE19632223A1 (de) Verfahren zum Modifizieren dreidimensionaler Objekte
DE102004017148A1 (de) Bedienereingabegerät mit Rückmeldung
DE102013011818B4 (de) Simulator für eine Arbeitsmaschine
EP1194005B1 (de) Verfahren zur Einstellung einer Übertragungscharakteristik einer elektronischen Schaltung
EP3832628A1 (de) Landmaschinensimulator
WO2016131452A1 (de) Verfahren und vorrichtung zum verzerrungsfreien anzeigen einer fahrzeugumgebung eines fahrzeuges
DE102007057332A1 (de) Hausgerätanzeigevorrichtung
EP3163358B1 (de) Visualisierungsvorrichtung
DE102014009701B4 (de) Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
EP3776490A1 (de) Verfahren und system zum darstellen eines 3d-modells
DE102014009299A1 (de) Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
WO2017054894A1 (de) Interaktives bediensystem und verfahren zum durchführen einer bedienhandlung bei einem interaktiven bediensystem
EP3716014B1 (de) Übertragen eines zustands zwischen vr-umgebungen
WO2006061185A1 (de) Verfahren zur ableitung von technischen zeichnungen aus 3d modellen mit mindestens zwei kollidierenden 3d körpern
DE3921300A1 (de) Verfahren zum drehen eines objekts in dreidimensionaler darstellung
DE102005028103A1 (de) Verfahren zur Darstellung flexibler längenerstreckter Volumenobjekte
WO2004027641A2 (de) Rechnergestütztes selektionsverfahren für einen teil eines volumens

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20201110

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20221201