DE102018207987A1 - Verfahren und System zum Darstellen eines 3D-Modells - Google Patents

Verfahren und System zum Darstellen eines 3D-Modells Download PDF

Info

Publication number
DE102018207987A1
DE102018207987A1 DE102018207987.0A DE102018207987A DE102018207987A1 DE 102018207987 A1 DE102018207987 A1 DE 102018207987A1 DE 102018207987 A DE102018207987 A DE 102018207987A DE 102018207987 A1 DE102018207987 A1 DE 102018207987A1
Authority
DE
Germany
Prior art keywords
parts
model
control device
displayed
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102018207987.0A
Other languages
English (en)
Inventor
Asa MacWilliams
Rebecca Johnson
Robert Wilde
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102018207987.0A priority Critical patent/DE102018207987A1/de
Priority to EP19727840.1A priority patent/EP3776490A1/de
Priority to JP2020565318A priority patent/JP2021524632A/ja
Priority to PCT/EP2019/061889 priority patent/WO2019224009A1/de
Priority to US17/056,812 priority patent/US20210200192A1/en
Priority to CN201980034020.1A priority patent/CN112119431A/zh
Publication of DE102018207987A1 publication Critical patent/DE102018207987A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • G05B19/41805Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by assembly
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • G05B19/41885Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by modeling, simulation of the manufacturing system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/016Exploded view

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Manufacturing & Machinery (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Automation & Control Theory (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es wird ein Verfahren zum Darstellen eines 3D-Modells (1) eines Gegenstands (3), der eine Vielzahl von Teilen (4), die in Ursprungspositionen angeordnet sind, umfasst, vorgeschlagen. Das Verfahren umfasst:Betätigen (S1) einer Steuereinrichtung (10) durch einen Benutzer (7) zum Auswählen eines ausgewählten Bereichs (5) des 3D-Modells (1), wobei die Teile (4) des Gegenstands (3), die sich in dem ausgewählten Bereich (5) befinden, ausgewählte Teile (14) bilden; undDarstellen (S2) des 3D-Modells (1) derart, dass die ausgewählten Teile (14) in Endpositionen dargestellt werden, in denen sie derart von ihren Ursprungspositionen wegbewegt sind, dass sich Abstände zwischen den ausgewählten Teilen (14) erhöhen.Die ausgewählten Teile werden derart dargestellt, dass ein Benutzer die ausgewählten Teile besser sehen kann.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Darstellen eines 3D-Modells eines Gegenstands sowie ein System zum Darstellen eines solchen 3D-Modells eines Gegenstands.
  • In Virtual-Reality-Umgebungen und/oder Augmented-Reality-Umgebungen kann ein Gegenstand beispielsweise als ein 3D-Modell dargestellt werden. Es kann gewünscht sein, dass sich ein Benutzer die einzelnen Teile des Gegenstands in dem 3D-Modell ansieht, um zum Beispiel zu verstehen, wie die Teile zusammengesetzt sind. Hierzu ist es wünschenswert, das 3D-Modell derart darzustellen, dass eine Visualisierung der einzelnen Teile des dargestellten Gegenstands vereinfacht wird.
  • Vor diesem Hintergrund besteht eine Aufgabe der vorliegenden Erfindung darin, ein verbessertes Darstellen eines 3D-Modells eines Gegenstands zu schaffen.
  • Gemäß einem ersten Aspekt wird ein Verfahren zum Darstellen eines 3D-Modells eines Gegenstands, der eine Vielzahl von Teilen, die in Ursprungspositionen angeordnet sind, umfasst, vorgeschlagen. Das Verfahren umfasst:
    • Betätigen einer Steuereinrichtung durch einen Benutzer zum Auswählen eines ausgewählten Bereichs des 3D-Modells, wobei die Teile des Gegenstands, die sich in dem ausgewählten Bereich befinden, ausgewählte Teile bilden; und
    • Darstellen des 3D-Modells derart, dass die ausgewählten Teile in Endpositionen dargestellt werden, in denen sie derart von ihren Ursprungspositionen wegbewegt sind, dass sich Abstände zwischen den ausgewählten Teilen erhöhen.
  • Durch das Darstellen der ausgewählten Teile in Endpositionen kann eine Visualisierung der ausgewählten Teile vereinfacht werden. Da die Abstände zwischen den ausgewählten Teilen erhöht werden, sind die ausgewählten Teile insbesondere besser sichtbar. Die Darstellung des 3D-Modells kann durch Betätigen der Steuereinrichtung durch einen Benutzer dynamisch und interaktiv verändert werden. Eine Darstellung des 3D-Modells kann somit verbessert werden.
  • Diese verbesserte Darstellung des 3D-Modells kann dem Benutzer ein besseres Lokalisieren eines bestimmten Teils des Gegenstands, zum Beispiel eine bestimmte Schraube, ermöglichen. Der Benutzer kann anhand der Darstellung auch eine Maschine in einem 3D-Modell einer komplexen Industrieanlage besser lokalisieren. Der Benutzer kann somit insbesondere in den Gegenstand „hineinsehen“. Ferner kann der Benutzer besser erkennen, wie die ausgewählten Teile zusammengesetzt sind. Dieses erlaubt dem Benutzer zum Beispiel, besser zu verstehen, wie der Gegenstand funktioniert.
  • Der Gegenstand kann ein Gerät einer Industrieanlage, zum Beispiel ein Elektromotor, umfassen. Bei dem Gegenstand kann es sich sowohl um ein elektronisches Gerät als auch um einen mechanischen Gegenstand handeln. Der Gegenstand kann auch eine Industrieanlage mit mehreren Maschinen sein.
  • Das 3D-Modell ist insbesondere eine 3D-Darstellung des Gegenstands. Das 3D-Modell kann eine realistische Darstellung des Gegenstands bilden. Es kann sich bei dem 3D-Modell um ein CAD-Modell handeln.
  • Die Vielzahl von Teilen ist insbesondere derart zusammengesetzt, dass sie den Gegenstand oder einen Teil des Gegenstands bilden. Die Teile sind zum Beispiel Schrauben, Zylinder, Gehäuseteile, Ventile, Kolben oder dergleichen. Es kann sich bei den Teilen aber auch um ganze Maschinen, zum Beispiel um Motoren oder Maschinen einer Industrieanlage, handeln.
  • Die Ursprungspositionen der Teile können Positionen sein, in denen die Teile zusammengesetzt sind, um den Gegenstand oder einen Teil davon zu bilden. Die Darstellung des Gegenstands mit dessen Teilen in den Ursprungspositionen entspricht insbesondere einer wahrheitskonformen und/oder realistischen Darstellung des Gegenstands.
  • Die Steuereinrichtung wird beispielsweise betätigt, indem der Benutzer die Steuereinrichtung bewegt und/oder einen Knopf der Steuereinrichtung betätigt. In Ausführungsformen kann die Steuereinrichtung auch Bewegungen des Benutzers detektieren und dadurch betätigt werden. Hierzu kann die Steuereinrichtung als Bewegungssensor ausgebildet sein.
  • Der ausgewählte Bereich des 3D-Modells ist zum Beispiel ein 3D-Bereich des 3D-Modells. Bei dem ausgewählten Bereich handelt es sich insbesondere um den Bereich des Gegenstands, den der Benutzer im Detail visualisieren möchte. Der ausgewählte Bereich ist zum Beispiel sphärisch oder quaderförmig. Die Teile des Gegenstands, die sich in dem ausgewählten Bereich befinden, bilden insbesondere die ausgewählten Teile.
  • Die Auswahl des ausgewählten Bereichs führt insbesondere dazu, dass die ausgewählten Teile in Endpositionen statt in deren Ursprungspositionen dargestellt werden. Die Endpositionen der ausgewählten Teile weichen insbesondere von deren Ursprungspositionen ab. In den Endpositionen können die ausgewählten Teile derart dargestellt werden, dass sich Abstände zwischen den ausgewählten Teilen erhöhen. Die Abstände zwischen den ausgewählten Teilen sind insbesondere größer, wenn die Teile in den Endpositionen sind, als wenn sie in den Ursprungspositionen sind. Die ausgewählten Teile werden insbesondere in einer 3D-Explosionsdarstellung dargestellt.
  • Gemäß einer Ausführungsform wird das 3D-Modell derart dargestellt, dass die Teile des Gegenstands, die sich außerhalb des ausgewählten Bereichs befinden, in ihren Ursprungspositionen dargestellt werden.
  • Insbesondere werden ausschließlich die ausgewählten Teile in Ursprungspositionen dargestellt. Die ausgewählten Teile können somit gegenüber den nicht ausgewählten Teilen außerhalb des ausgewählten Bereichs hervorgehoben werden. Dadurch kann das Darstellen des 3D-Modells weiter verbessert werden.
  • Gemäß einer weiteren Ausführungsform werden die ausgewählten Teile beim Darstellen des 3D-Modells derart von ihren Ursprungspositionen wegbewegt, dass sich dabei Abstände der ausgewählten Teile zu einem Bezugspunkt innerhalb des ausgewählten Bereichs vergrößern. Der Bezugspunkt befindet sich insbesondere mittig in dem ausgewählten Bereich.
  • Das Ausmaß, um das der Abstand eines ausgewählten Teils zu dem Bezugspunkt erhöht wird, ist insbesondere proportional zum Abstand zwischen dem Bezugspunkt und dem ausgewählten Teil in seiner Ursprungsposition. Die ausgewählten Teile, die sich in ihren Ursprungspositionen nahe am Bezugspunkt befinden, werden somit insbesondere weniger bewegt als die ausgewählten Teile, die sich in ihren Ursprungspositionen weiter weg von dem Bezugspunkt befinden.
  • Gemäß einer weiteren Ausführungsform wird das 3D-Modell in einer Virtual-Reality-Umgebung (VR-Umgebung) und/oder in einer Augmented-Reality-Umgebung (AR-Umgebung) dargestellt.
  • Das 3D-Modell wird insbesondere in einer Umgebung dargestellt, in der es zusammen mit zusätzlicher Information, wie zum Beispiel einem vorbestimmten Text oder einem vorbestimmten Bild, dargestellt wird. Das 3D-Modell kann auch auf einem 3D-Bildschirm dargestellt werden. Dabei kann es sich um ein 3D-Bildschirm eines Headsets, insbesondere eines VR-Headsets oder eines AR-Headsets, handeln.
  • Gemäß einer weiteren Ausführungsform emittiert die Steuereinrichtung virtuelle Strahlen derart, dass diese lediglich in der VR-Umgebung und/oder in der AR-Umgebung sichtbar sind und beim Bewegen der Steuereinrichtung zur Auswahl des ausgewählten Bereichs dienen.
  • Die virtuellen Strahlen sind insbesondere Strahlen, die nur in der VR- und/oder in der AR-Umgebung sichtbar sind. Sie sind zum Beispiel nur durch einen Benutzer mit einem entsprechenden Headset sichtbar. In der VR- und/oder AR-Umgebung können die virtuellen Strahlen den Lichtstrahlen einer Taschenlampe ähneln.
  • Beim Auswählen des ausgewählten Bereichs richtet der Benutzer die virtuellen Strahlen zum Beispiel in Richtung des Bereichs des Gegenstands, den er auswählen möchte. Beim Auswählen des ausgewählten Bereichs richtet der Benutzer die virtuellen Strahlen insbesondere auf die 3D-Modell-Darstellung des Gegenstands.
  • Gemäß einer weiteren Ausführungsform werden die virtuellen Strahlen in der VR-Umgebung und/oder der AR-Umgebung kegelstumpfförmig von der Steuereinrichtung emittiert und ein Bereich des Gegenstands, der durch die virtuellen Strahlen geschnitten wird, bildet den ausgewählten Bereich.
  • Gemäß einer weiteren Ausführungsform ist der Bezugspunkt auf einer Mittelachse eines durch die kegelstumpfförmigen Strahlen gebildeten Kegelstumpfs angeordnet.
  • Gemäß einer weiteren Ausführungsform wird die Steuereinrichtung derart betätigt, dass:
    • eine Position des Bezugspunkts ausgewählt wird;
    • ein Abstand der Steuereinrichtung zum Bezugspunkt ausgewählt wird;
    • ein Ausmaß des Erhöhens der Abstände zwischen den ausgewählten Teilen ausgewählt wird; und/oder
    • eine Größe des ausgewählten Bereichs bestimmt wird.
  • Die Position des Bezugspunkts kann ausgewählt werden, indem die Steuereinrichtung bewegt wird. Der Abstand der Steuereinrichtung zum Bezugspunkt wird insbesondere dadurch ausgewählt, dass eine Einstelleinheit an der Steuereinrichtung betätigt wird. Das Ausmaß des Erhöhens der Abstände zwischen den ausgewählten Teilen kann anhand einer weiteren Einstelleinheit an der Steuereinrichtung ausgewählt werden. Darüber hinaus kann die Größe des ausgewählten Bereichs kann zum Beispiel durch Bestimmen eines Öffnungswinkels des Kegelstumpfs verändert werden.
  • Gemäß einer weiteren Ausführungsform umfasst das Verfahren ferner:
    • Betätigen der Steuereinrichtung durch den Benutzer derart, dass die Auswahl des ausgewählten Bereichs aufgehoben wird; und
    • Darstellen des 3D-Modells derart, dass die Teile des zuvor ausgewählten Bereichs in ihren Ursprungspositionen dargestellt werden.
  • Die Auswahl des ausgewählten Bereichs wird insbesondere aufgehoben, indem der Benutzer die Steuereinrichtung erneut betätigt, zum Beispiel indem er sie von dem ausgewählten Bereich wegbewegt. In Ausführungsformen wählt der Benutzer beim Betätigen und/oder Bewegen der Steuereinrichtung einen neuen ausgewählten Bereich aus. Die neu ausgewählten Teile des neuen ausgewählten Bereichs können dann in Endpositionen dargestellt werden, in denen sie derart von ihren Ursprungspositionen wegbewegt sind, dass sich Abstände zwischen den neu ausgewählten Teilen erhöhen.
  • Gemäß einer weiteren Ausführungsform umfasst das Verfahren ferner:
    • Auswählen eines vorbestimmten Teils der ausgewählten Teile anhand der Steuereinrichtung und/oder einer weiteren Steuereinrichtung.
  • Der Benutzer kann insbesondere eines der ausgewählten Teile auswählen und dieses zum Beispiel genauer ansehen. Der Benutzer kann auch Eigenschaften über das vorbestimmte Teil erlangen. Die Auswahl des vorbestimmten Teils kann vorteilhaft erfolgen, ohne dass der Benutzer den Namen des Teils oder dessen Hierarchie kennt.
  • Gemäß einer weiteren Ausführungsform wird das 3D-Modell derart dargestellt, dass eine Transparenz von zumindest einigen der Teile des Gegenstands, insbesondere der nicht ausgewählten Teile, erhöht wird.
  • Durch das Erhöhen der Transparenz von einigen Teilen des Gegenstands können die restlichen Teile besser visualisiert werden. Falls die Transparenz der nicht ausgewählten Teile erhöht wird, können die ausgewählten Teile besser betrachtet werden, ohne dass die nicht ausgewählten Teile die ausgewählten Teile verstecken.
  • Weiterhin wird ein Computerprogrammprodukt vorgeschlagen, welches auf einer programmgesteuerten Einrichtung die Durchführung des wie oben erläuterten Verfahrens veranlasst.
  • Ein Computerprogrammprodukt, wie z.B. ein Computerprogramm-Mittel, kann beispielsweise als Speichermedium, wie z.B. Speicherkarte, USB-Stick, CD-ROM, DVD, oder auch in Form einer herunterladbaren Datei von einem Server in einem Netzwerk bereitgestellt oder geliefert werden. Dies kann zum Beispiel in einem drahtlosen Kommunikationsnetzwerk durch die Übertragung einer entsprechenden Datei mit dem Computerprogrammprodukt oder dem Computerprogramm-Mittel erfolgen.
  • Gemäß einem zweiten Aspekt wird ein System zum Darstellen eines 3D-Modells eines Gegenstands, der aus einer Vielzahl von Teilen, die in Ursprungspositionen angeordnet sind, besteht, vorgeschlagen. Das System umfasst:
    • eine Steuereinrichtung, die eingerichtet ist, derart durch einen Benutzer betätigt zu werden, dass ein ausgewählter Bereich des 3D-Modells ausgewählt wird, wobei die Teile des Gegenstands, die sich in dem ausgewählten Bereich befinden, ausgewählte Teile bilden; und
    • eine Darstelleinrichtung zum Darstellen des 3D-Modells derart, dass die ausgewählten Teile in Endpositionen dargestellt werden, in denen sie derart von ihren Ursprungspositionen wegbewegt sind, dass sich Abstände zwischen den ausgewählten Teilen erhöhen.
  • Die jeweilige Einrichtung, zum Beispiel die Steuereinrichtung oder die Darstelleinrichtung, kann hardwaretechnisch und/oder auch softwaretechnisch implementiert sein. Bei einer hardwaretechnischen Implementierung kann die jeweilige Einrichtung als Vorrichtung oder als Teil einer Vorrichtung, zum Beispiel als Computer oder als Mikroprozessor oder als Steuerrechner eines Fahrzeuges ausgebildet sein. Bei einer softwaretechnischen Implementierung kann die jeweilige Einrichtung als Computerprogrammprodukt, als eine Funktion, als eine Routine, als Teil eines Programmcodes oder als ausführbares Objekt ausgebildet sein.
  • Die für das vorgeschlagene Verfahren beschriebenen Ausführungsformen und Merkmale gelten für das vorgeschlagene System entsprechend.
  • Gemäß einem dritten Aspekt wird eine Steuereinrichtung für das System gemäß dem zweiten Aspekt oder gemäß einer Ausführungsform des zweiten Aspekts zum Auswählen eines ausgewählten Bereichs eines 3D-Modells eines Gegenstands bei einer Betätigung durch einen Benutzer vorgeschlagen. Die Steuereinrichtung ist taschenlampenförmig und umfasst:
    • eine Betätigungseinheit zum Ein- und Ausschalten der Steuereinrichtung;
    • eine Ausmaßeinheit zum Auswählen eines Ausmaßes des Erhöhens der Abstände zwischen den ausgewählten Teilen;
    • eine Auswahleinheit zum Auswählen eines vorbestimmten Teils der ausgewählten Teile; und/oder
    • eine Bestimmungseinheit zum Bestimmen einer Position und/oder einer Größe des ausgewählten Bereichs.
  • Die Steuereinrichtung taschenlampenförmig auszubilden ist insbesondere vorteilhaft, weil sie dadurch durch den Benutzer greifbar ist und mit einer einzigen Hand betätigt werden kann. Ferner erfolgt das Betätigen der Steuereinrichtung insbesondere ähnlich zum Betätigen einer Taschenlampe und ist somit intuitiv.
  • Bei der Ausmaßeinheit handelt es sich insbesondere um einen Schiebeknopf. Die Bestimmungseinheit kann als ein drehbarer Ring an der Steuereinrichtung ausgebildet sein. Die Ausmaßeinheit und die Bestimmungseinheit können aber zum Beispiel auch als Knöpfe ausgebildet sein. Die Position und/oder Größe des ausgewählten Bereichs kann auch anhand von Sprachsteuerung und/oder Texteingabe über die Bestimmungseinheit erfolgen.
  • Weitere mögliche Implementierungen der Erfindung umfassen auch nicht explizit genannte Kombinationen von zuvor oder im Folgenden bezüglich der Ausführungsbeispiele beschriebenen Merkmale oder Ausführungsformen. Dabei wird der Fachmann auch Einzelaspekte als Verbesserungen oder Ergänzungen zu der jeweiligen Grundform der Erfindung hinzufügen.
  • Weitere vorteilhafte Ausgestaltungen und Aspekte der Erfindung sind Gegenstand der Unteransprüche sowie der im Folgenden beschriebenen Ausführungsbeispiele der Erfindung. Im Weiteren wird die Erfindung anhand von bevorzugten Ausführungsformen unter Bezugnahme auf die beigelegten Figuren näher erläutert.
    • 1 zeigt eine erste Darstellung eines Systems zum Darstellen eines 3D-Modells;
    • 2 zeigt eine zweite Darstellung des Systems zum Darstellen eines 3D-Modells;
    • 3 zeigt ein Beispiel eines dargestellten Gegenstands;
    • 4 zeigt ein Verfahren zum Darstellen eines 3D-Modells gemäß einer ersten Ausführungsform;
    • 5 zeigt ein Verfahren zum Darstellen eines 3D-Modells gemäß einer zweiten Ausführungsform; und
    • 6 zeigt eine Steuereinrichtung gemäß einem Ausführungsbeispiel.
  • In den Figuren sind gleiche oder funktionsgleiche Elemente mit denselben Bezugszeichen versehen worden, sofern nichts anderes angegeben ist.
  • Die 1 zeigt ein System 20 zum Darstellen eines 3D-Modells 1. Das System 20 umfasst eine Steuereinrichtung 10 sowie eine Darstelleinrichtung 2. Bei der Darstelleinrichtung 2 handelt es sich um einen Bildschirm 2 eines VR-Headsets (nicht dargestellt), der 3D-Bilder anzeigen kann.
  • In der 1 ist auf dem Bildschirm 2 ein 3D-Modell 1 eines Gegenstands 3 angezeigt. Das 3D-Modell 1 ist eine Darstellung des Gegenstands 3. Der Gegenstand 3 ist im vorliegenden Beispiel ein Motor einer Industrieanlage. Er umfasst eine Vielzahl von Teilen 4, zum Beispiel Schrauben, Zylinder und Kolben. In der 1 sind die Teile 4 der Übersicht halber schematisch als Blöcke dargestellt. Zudem sind in der 1 der Übersicht wegen nur einige der Teile 4 mit Bezugszeichen versehen. Tatsächlich umfasst der Gegenstand 3 aber 28 Teile 4. In der 1 sind die Teile 4 in ihren Ursprungspositionen dargestellt.
  • Die Steuereinrichtung 10 ist taschenlampenförmig und wird betätigt, indem ein Benutzer sie in die Hand nimmt und bewegt. Das Betätigen der Steuereinrichtung 10 wird im Folgenden in Bezug auf die 6 noch näher beschrieben.
  • Das System 20 ist geeignet, ein Verfahren zum Darstellen eines 3D-Modells 1 auszuführen. Solch ein Verfahren ist zum Beispiel in der 4 gezeigt, welche ein Verfahren zum Darstellen eines 3D-Modells 1 gemäß einer ersten Ausführungsform zeigt. Im Folgenden wird das Verfahren in Bezug auf die 1, 2, 3 und 4 beschrieben.
  • In einem Schritt S1 wird die Steuereinrichtung 10 durch einen Benutzer 7 betätigt, um einen ausgewählten Bereich 5 des 3D-Modells 1 auszuwählen. Hierzu nimmt der Benutzer 7 die Steuereinrichtung 10 in die Hand 13 und bewegt sie derart, dass virtuelle Strahlen 11, die durch die Steuereinrichtung 10 emittiert werden, in Richtung des 3D-Modells 1 emittiert werden. Die virtuelle Strahlen 11 sind dabei nur in der VR-Umgebung, also mit dem VR-Headset, sichtbar.
  • Der Benutzer 10 bewegt die Steuereinrichtung 10 in seiner Hand 13 derart, dass die kegelstumpfförmig emittierten virtuellen Strahlen 11 den Gegenstand 3 schneiden. Der Bereich des Gegenstands 3 innerhalb der kegelstumpfförmigen Stahlen 11 bildet den ausgewählten Bereich 5. Es handelt sich dabei um einen Bereich, den der Benutzer 7 genauer visualisieren möchte.
  • Die Teile 4 des Gegenstands 3, die sich innerhalb des ausgewählten Bereichs 5 befinden, bilden ausgewählte Teile 14. In der 1 sind die Seitenflächen der ausgewählten Teile 14 gepunktet dargestellt. Im Beispiel der 1 umfasst der ausgewählte Bereich acht ausgewählte Teile 14.
  • In einem Schritt S2 wird das 3D-Modell 1 derart dargestellt, dass die ausgewählten Teile 14 in Endpositionen dargestellt werden. Die 2 zeigt, wie die ausgewählten Teile 14 in den Endpositionen dargestellt sind. Die ausgewählten Teile 14 sind derart von ihren Ursprungspositionen (1) wegbewegt, dass Abstände zwischen den einzelnen ausgewählten Teilen 14 erhöht werden. Die ausgewählten Teile werden dabei von einem Bezugspunkt 6, der sich in der Mitte des ausgewählten Bereichs 5 befindet, wegbewegt. Die nicht ausgewählten Teile 4 werden weiterhin in ihren Ursprungspositionen dargestellt.
  • In seinem VR-Headset 12 sieht der Benutzer 7, wie die ausgewählten Teile 14 „auseinanderfliegen“. Dadurch kann der Benutzer 7 die ausgewählten Teile 14 besser sehen. Er sieht insbesondere auch die ausgewählten Teile 14, die zuvor durch andere Teile 4 verdeckt waren.
  • Die 3 zeigt schematisch, wie die ausgewählten Teile 14 bewegt werden. In der 3 zweigen die Bezugszeichen 14u die ausgewählte Teile 14, die in ihren Ursprungspositionen sind. Die Bezugszeichen 14e zeigen die ausgewählte Teile 14, die in ihren Endpositionen sind.
  • Das System 20 kann alternativ auch ein Verfahren zum Darstellen eines 3D-Modells 1 gemäß einer zweiten Ausführungsform ausführen. Solch ein Verfahren wird im Folgenden anhand der 5 beschrieben.
  • Im Verfahren gemäß der zweiten Ausführungsform (5) sind die Verfahrensschritte S1 und S2 identisch zu denen des Verfahrens gemäß der ersten Ausführungsform (4). In einem Schritt S3 wählt der Benutzer 7 anhand der Steuereinrichtung 10 ein vorbestimmtes Teil aus den ausgewählten Teilen 14 aus. Eigenschaften des vorbestimmten Teils werden auf dem Bildschirm 2 angezeigt, sodass der Benutzer 7 Informationen über das vorbestimmte Teil erhält.
  • In einem Schritt S4 wird die Steuereinrichtung 10 erneut durch den Benutzer 7 betätigt, sodass die Auswahl des ausgewählten Bereichs 5 aufgehoben wird. Hierzu bewegt der Benutzer 7 die Steuereinrichtung 10 von dem ausgewählten Bereich 5 weg, sodass die virtuellen Strahlen 11 den Gegenstand 3 nicht mehr in dem ausgewählten Bereich 5 schneiden. Insbesondere werden die ausgewählten Teile 14 nur solange in ihren Endpositionen dargestellt, wie der Benutzer 7 mit der Steuereinrichtung 10 auf den ausgewählten Bereich 5 zeigt.
  • In einem Schritt S5 wird das 3D-Modell 1 erneut derart dargestellt, dass die zuvor ausgewählten Teile 14 wieder in ihren Ursprungspositionen dargestellt werden. Die zuvor ausgewählten Teile 14 werden wieder zusammenbewegt, sodass ein Abstand zwischen den jeweiligen zuvor ausgewählten Teilen 14 und dem Bezugspunkt 6 wieder reduziert wird.
  • Die Schritte S1 - S5 können beliebig oft wiederholt werden. Dadurch kann der Benutzer 7 einzelne Bereiche des Gegenstands 3 nacheinander auswählen und erkunden.
  • Die 6 zeigt eine Steuereinrichtung 10. Die Steuereinrichtung 10 ist taschenlampenförmig und deswegen besonders intuitiv bedienbar.
  • Die durch die Steuereinrichtung 10 emittierte Strahlen 11 werden kegelstumpfförmig mit einem Öffnungswinkel α emittiert. Der Öffnungswinkel α ist einstellbar, indem der Benutzer 7 den Einstellring 16 dreht. Durch das Variieren des Öffnungswinkels α kann eine Größe des ausgewählten Bereichs 5 verändert werden.
  • Die kegelstumpfförmige Strahlen 11 werden entlang einer Mittelachse MA emittiert. Der Bezugspunkt 6 befindet sich auf dieser Mittelachse MA.
  • Einen Abstand d zwischen dem Bezugspunkt 6 und der Steuereinrichtung 10 kann der Benutzer anhand eines Schiebeknopfs 15 der Steuereinrichtung 10 einstellen. Der Schiebeknopf 15 und der Einstellring 16 bilden insbesondere eine Bestimmungseinheit.
  • Eine Tiefe h des ausgewählten Bereichs 5 kann der Benutzer 7 durch einen Sprachbefehl bestimmen. Die Steuereinrichtung 10 ist somit mit einer einzigen Hand 13 bedienbar. Des Weiteren ist es möglich, eine haptische Eingabe-Einrichtung zur Einstellung der Tiefe h, wie beispielsweise einen Schiebeknopf, vorzusehen. Des Weiteren kann auch ein zweidimensionales Touchpad eingesetzt werden, um sowohl den Abstand d als auch die Tiefe h einzustellen. Darüber hinaus kann die Tiefe h in einigen Ausführungsformen auch durch ein Drehen der Steuereinrichtung 10 um ihre Längsachse eingestellt werden.
  • In Ausführungsformen umfasst die Steuereinrichtung 10 ferner eine Betätigungseinheit zum Ein- und Ausschalten der Steuereinrichtung 10 und/oder eine Ausmaßeinheit zum Auswählen eines Ausmaßes des Erhöhens der Abstände zwischen den ausgewählten Teilen 14.
  • Obwohl die vorliegende Erfindung anhand von Ausführungsbeispielen beschrieben wurde, ist sie vielfältig modifizierbar. Anstelle des beschriebenen Motors kann der Gegenstand 3 zum Beispiel auch eine beliebige Maschine einer Industrieanlage oder eine gesamte Industrieanlage sein. Die Teile 4 des Gegenstands 3 können innerhalb des Gegenstandes 3 auch anders als in der 1 gezeigt angeordnet sein. Das 3D-Modell 1 kann alternativ auch auf einem normalen 3D-Bildschirm oder in einer AR-Umgebung angezeigt werden. Es ist auch denkbar, einige der Teile 4, zum Beispiel die nicht ausgewählten Teile 4, mit einer erhöhten Transparenz darzustellen.
  • Die Steuereinrichtung 10 kann auch in Form einer Fernbedienung mit einer Vielzahl von Knöpfen ausgebildet sein. Alternativ kann die Steuereinrichtung 10 auch eine Bewegungserkennungseinrichtung sein, die Bewegungen des Benutzers 7 erkennt. Auch die beschriebene taschenlampenförmige Steuereinrichtung 10 kann modifiziert werden. Sie kann zum Beispiel diverse Knöpfe zur Einstellung des Abstands d und/oder des Öffnungswinkels α aufweisen.

Claims (15)

  1. Verfahren zum Darstellen eines 3D-Modells (1) eines Gegenstands (3), der eine Vielzahl von Teilen (4), die in Ursprungspositionen angeordnet sind, umfasst, wobei das Verfahren umfasst: Betätigen (S1) einer Steuereinrichtung (10) durch einen Benutzer (7) zum Auswählen eines ausgewählten Bereichs (5) des 3D-Modells (1), wobei die Teile (4) des Gegenstands (3), die sich in dem ausgewählten Bereich (5) befinden, ausgewählte Teile (14) bilden; und Darstellen (S2) des 3D-Modells (1) derart, dass die ausgewählten Teile (14) in Endpositionen dargestellt werden, in denen sie derart von ihren Ursprungspositionen wegbewegt sind, dass sich Abstände zwischen den ausgewählten Teilen (14) erhöhen.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das 3D-Modell (1) derart dargestellt wird, dass die Teile (4) des Gegenstands (3), die sich außerhalb des ausgewählten Bereichs (5) befinden, in ihren Ursprungspositionen dargestellt werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die ausgewählten Teile (14) beim Darstellen des 3D-Modells (1) derart von ihren Ursprungspositionen wegbewegt werden, dass sich dabei Abstände der ausgewählten Teile (14) zu einem Bezugspunkt (6) innerhalb des ausgewählten Bereichs (5) vergrößern.
  4. Verfahren nach einem der Ansprüche 1-3, dadurch gekennzeichnet, dass das 3D-Modell (1) in einer Virtual-Reality-Umgebung und/oder einer Augmented-Reality-Umgebung dargestellt wird.
  5. Verfahren nach einem der Ansprüche 1-4, dadurch gekennzeichnet, dass die Steuereinrichtung (10) virtuelle Strahlen (11) derart emittiert, dass diese lediglich in der VR-Umgebung und/oder in der AR-Umgebung sichtbar sind und beim Bewegen der Steuereinrichtung (10) zur Auswahl des ausgewählten Bereichs (5) dienen.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die virtuellen Strahlen (11) in der VR-Umgebung und/oder der AR-Umgebung kegelstumpfförmig von der Steuereinrichtung (10) emittiert werden und ein Bereich des Gegenstands (3), der durch die virtuellen Strahlen (11) geschnitten wird, den ausgewählten Bereich (5) bildet.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass der Bezugspunkt (6) auf einer Mittelachse (MA) eines durch die kegelstumpfförmigen Strahlen (11) gebildeten Kegelstumpfs angeordnet ist.
  8. Verfahren nach einem der Ansprüche 1-7, dadurch gekennzeichnet, dass die Steuereinrichtung (10) derart betätigt wird, dass: eine Position des Bezugspunkts (6) ausgewählt wird; ein Abstand der Steuereinrichtung (10) zum Bezugspunkt (6) ausgewählt wird; ein Ausmaß des Erhöhens der Abstände zwischen den ausgewählten Teilen (14) ausgewählt wird; und/oder eine Größe des ausgewählten Bereichs (5) bestimmt wird.
  9. Verfahren nach einem der Ansprüche 1-8, gekennzeichnet durch: Betätigen (S4) der Steuereinrichtung (10) durch den Benutzer (7) derart, dass die Auswahl des ausgewählten Bereichs (5) aufgehoben wird; und Darstellen (S5) des 3D-Modells (1) derart, dass die Teile (4) des zuvor ausgewählten Bereichs (5) in ihren Ursprungspositionen dargestellt werden.
  10. Verfahren nach einem der Ansprüche 1-9, gekennzeichnet durch: Auswählen (S3) eines vorbestimmten Teils (4) der ausgewählten Teile (14) anhand der Steuereinrichtung (10) und/oder einer weiteren Steuereinrichtung.
  11. Verfahren nach einem der Ansprüche 1-10, dadurch gekennzeichnet, dass das 3D-Modell (1) derart dargestellt wird, dass eine Transparenz von zumindest einigen der Teile (4) des Gegenstands (3), insbesondere der nicht ausgewählten Teile (4), erhöht wird.
  12. Computerprogrammprodukt, welches auf einer programmgesteuerten Einrichtung die Durchführung des Verfahrens nach einem der Ansprüche 1-11 veranlasst.
  13. System (20) zum Darstellen eines 3D-Modells (1) eines Gegenstands (3), der aus einer Vielzahl von Teilen (4), die in Ursprungspositionen angeordnet sind, besteht, wobei das System (20) umfasst: eine Steuereinrichtung (10), die eingerichtet ist, derart durch einen Benutzer (7) betätigt zu werden, dass ein ausgewählter Bereich (5) des 3D-Modells (1) ausgewählt wird, wobei die Teile (4) des Gegenstands (3), die sich in dem ausgewählten Bereich (5) befinden, ausgewählte Teile (14) bilden; und eine Darstelleinrichtung (2) zum Darstellen des 3D-Modells (1) derart, dass die ausgewählten Teile (14) in Endpositionen dargestellt werden, in denen sie derart von ihren Ursprungspositionen wegbewegt sind, dass sich Abstände zwischen den ausgewählten Teilen (14) erhöhen.
  14. System nach Anspruch 13, welches eingerichtet ist, das Verfahren nach einem der Ansprüche 1-11 durchzuführen.
  15. Steuereinrichtung (10) für das System (20) nach Anspruch 13 oder 14 zum Auswählen eines ausgewählten Bereichs eines 3D-Modells (1) eines Gegenstands (3) bei einer Betätigung durch einen Benutzer (7), wobei die Steuereinrichtung (10) taschenlampenförmig ist und umfasst: eine Betätigungseinheit zum Ein- und Ausschalten der Steuereinrichtung (10); eine Ausmaßeinheit zum Auswählen eines Ausmaßes des Erhöhens der Abstände zwischen den ausgewählten Teilen (14); eine Auswahleinheit zum Auswählen eines vorbestimmten Teils (4) der ausgewählten Teile (14); und/oder eine Bestimmungseinheit (15, 16) zum Bestimmen einer Position und/oder einer Größe des ausgewählten Bereichs (5).
DE102018207987.0A 2018-05-22 2018-05-22 Verfahren und System zum Darstellen eines 3D-Modells Ceased DE102018207987A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102018207987.0A DE102018207987A1 (de) 2018-05-22 2018-05-22 Verfahren und System zum Darstellen eines 3D-Modells
EP19727840.1A EP3776490A1 (de) 2018-05-22 2019-05-09 Verfahren und system zum darstellen eines 3d-modells
JP2020565318A JP2021524632A (ja) 2018-05-22 2019-05-09 3dモデルを表示する方法及びシステム
PCT/EP2019/061889 WO2019224009A1 (de) 2018-05-22 2019-05-09 Verfahren und system zum darstellen eines 3d-modells
US17/056,812 US20210200192A1 (en) 2018-05-22 2019-05-09 Method and system for displaying a 3d model
CN201980034020.1A CN112119431A (zh) 2018-05-22 2019-05-09 用于显示3d模型的方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018207987.0A DE102018207987A1 (de) 2018-05-22 2018-05-22 Verfahren und System zum Darstellen eines 3D-Modells

Publications (1)

Publication Number Publication Date
DE102018207987A1 true DE102018207987A1 (de) 2019-11-28

Family

ID=66685565

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018207987.0A Ceased DE102018207987A1 (de) 2018-05-22 2018-05-22 Verfahren und System zum Darstellen eines 3D-Modells

Country Status (6)

Country Link
US (1) US20210200192A1 (de)
EP (1) EP3776490A1 (de)
JP (1) JP2021524632A (de)
CN (1) CN112119431A (de)
DE (1) DE102018207987A1 (de)
WO (1) WO2019224009A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030043177A1 (en) * 2001-09-04 2003-03-06 Toyota Caelum Incorporated Exploded view automatic creation apparatus, storage media and methods
US20130124157A1 (en) * 2009-09-02 2013-05-16 Autodesk, Inc. Automatic Explode Based on Occlusion
US8452435B1 (en) * 2006-05-25 2013-05-28 Adobe Systems Incorporated Computer system and method for providing exploded views of an assembly
US20140245232A1 (en) * 2013-02-26 2014-08-28 Zhou Bailiang Vertical floor expansion on an interactive digital map
US20180089362A1 (en) * 2016-09-29 2018-03-29 Dassault Systemes Computer-Implemented Method Of Generating And Displaying An Exploded View

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3374122B2 (ja) * 2000-05-29 2003-02-04 ウエストユニティス株式会社 物品組立・分解移動表示システム
US7173996B2 (en) * 2004-07-16 2007-02-06 General Electric Company Methods and apparatus for 3D reconstruction in helical cone beam volumetric CT
JP2007018173A (ja) * 2005-07-06 2007-01-25 Canon Inc 画像処理方法、画像処理装置
EP2097802A2 (de) * 2006-11-27 2009-09-09 Koninklijke Philips Electronics N.V. 3d-steuerung einer datenverarbeitung mithilfe einer tragbaren zeigevorrichtung
US8717360B2 (en) * 2010-01-29 2014-05-06 Zspace, Inc. Presenting a view within a three dimensional scene
JP5300777B2 (ja) * 2010-03-31 2013-09-25 株式会社バンダイナムコゲームス プログラム及び画像生成システム
US9552673B2 (en) * 2012-10-17 2017-01-24 Microsoft Technology Licensing, Llc Grasping virtual objects in augmented reality
CN107533373B (zh) * 2015-08-04 2020-09-08 谷歌有限责任公司 虚拟现实中经由手与对象的场境敏感碰撞的输入
JP6860776B2 (ja) * 2016-06-30 2021-04-21 キヤノンマーケティングジャパン株式会社 仮想空間制御装置、その制御方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030043177A1 (en) * 2001-09-04 2003-03-06 Toyota Caelum Incorporated Exploded view automatic creation apparatus, storage media and methods
US8452435B1 (en) * 2006-05-25 2013-05-28 Adobe Systems Incorporated Computer system and method for providing exploded views of an assembly
US20130124157A1 (en) * 2009-09-02 2013-05-16 Autodesk, Inc. Automatic Explode Based on Occlusion
US20140245232A1 (en) * 2013-02-26 2014-08-28 Zhou Bailiang Vertical floor expansion on an interactive digital map
US20180089362A1 (en) * 2016-09-29 2018-03-29 Dassault Systemes Computer-Implemented Method Of Generating And Displaying An Exploded View

Also Published As

Publication number Publication date
CN112119431A (zh) 2020-12-22
US20210200192A1 (en) 2021-07-01
EP3776490A1 (de) 2021-02-17
WO2019224009A1 (de) 2019-11-28
JP2021524632A (ja) 2021-09-13

Similar Documents

Publication Publication Date Title
EP0824247B1 (de) Verfahren zum Modifizieren dreidimensionaler Objekte
DE69631947T2 (de) Positionierung eines Eingabezeigers
DE102015011830C5 (de) Robotersystem zum Einstellen eines Bewegungsüberwachungsbereichs eines Roboters
DE69737275T2 (de) Videospielsystem mit vertikaler Matrix aus Cursorbildern
DE112005003043T5 (de) Verfahren und Vorrichtung, zum Ermöglichen von Änderungen einer Audiodatei durch einen Benutzer
DE102008021160A1 (de) Fernbedienung
CH694882A5 (de) Verfahren zur Einstellung einer Uebertragungscharakteristik einer elektronischen Schaltung.
EP1425653A2 (de) Desktopmanager
WO2011009748A2 (de) Verfahren und anordnung zur generierung von darstellungen anisotroper eigenschaften sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE102014009701A1 (de) Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
EP2753951A1 (de) Interaktion mit einem dreidimensionalen virtuellen szenario
DE102018207987A1 (de) Verfahren und System zum Darstellen eines 3D-Modells
DE102006009454A1 (de) Vorrichtung zum Erzeugen von Daten zur Endoskopbetrachtung und Endoskopsystem
DE3921300A1 (de) Verfahren zum drehen eines objekts in dreidimensionaler darstellung
EP3418839A1 (de) Verfahren zur steuerung einer automatisierungsanlage
DE102013219145A1 (de) Medizinsystem
DE112004001937T5 (de) Haptisches Eingabegerät zur Erzeugung von Steuerungsinformation
DE10242922A1 (de) Rechnergestütztes Selektionsverfahren für einen Teil eines Volumens
DE102011083635B4 (de) 3D-Visualisierung medizinischer 3D-Bilddaten
DE102014009301A1 (de) Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
DE102009006765A1 (de) Verfahren zur Ansteuerung einer Bildausgabeeinrichtung, Verfahren zur Ermittlung von tangentialen Schnittebenen, Ansteuerungsmodul und Schnittebenenermittlungseinheit
DE69814326T2 (de) Kodierung von mausbefehlen
EP3018633A1 (de) Verfahren zum visuellen Hervorheben von räumlichen Strukturen
EP3584764A2 (de) Verfahren zur ansteuerung einer maschine mittels mindestens einer raumkoordinate als ansteuergrösse sowie ansteuerungssystem einer maschine
DE69233060T2 (de) System zur Anzeige von räumlichen Einschnitten für Festkörpermodellflächen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final