DE102017207995A1 - Verfahren zum Anpassen eines virtuellen Objekts - Google Patents

Verfahren zum Anpassen eines virtuellen Objekts Download PDF

Info

Publication number
DE102017207995A1
DE102017207995A1 DE102017207995.9A DE102017207995A DE102017207995A1 DE 102017207995 A1 DE102017207995 A1 DE 102017207995A1 DE 102017207995 A DE102017207995 A DE 102017207995A DE 102017207995 A1 DE102017207995 A1 DE 102017207995A1
Authority
DE
Germany
Prior art keywords
mobile device
furniture
dimensions
display
adaptation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017207995.9A
Other languages
English (en)
Inventor
David Frick
Andreas Kühne
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Homag GmbH
Original Assignee
Homag GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Homag GmbH filed Critical Homag GmbH
Priority to DE102017207995.9A priority Critical patent/DE102017207995A1/de
Priority to EP18723825.8A priority patent/EP3622467A1/de
Priority to PCT/EP2018/062015 priority patent/WO2018206652A1/de
Publication of DE102017207995A1 publication Critical patent/DE102017207995A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/13Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads

Abstract

Verfahren zum Anpassen eines virtuellen Objekts unter Verwendung einer mobilen Vorrichtung (10), welche mobile Vorrichtung eine Anzeige aufweist, umfassend die Schritte: Ermitteln von Dimensionen (21a, 21b) in einem Raum (20); Anzeigen des Objekts mittels der mobilen Vorrichtung (10) auf Grundlage der Dimensionen vor dem Hintergrund des Raums (20); und Anpassen des angezeigten Objekts.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft ein Verfahren zum Anpassen eines virtuellen Objekts, wie beispielsweise eines Möbelstücks, einer industriellen Anlage, einer Bearbeitungsmaschine, oder Ähnlichem.
  • Stand der Technik
  • Der vorbereitende Entwurf anhand virtueller Objekte wie die Gestaltung eines Möbelstücks oder die Planung einer industriellen Anlage (Fabrikplanung) erfordern neben einem exakten Vorgehen ein gesteigertes Vorstellungsvermögen für den Planer, um beispielsweise vor Ort vorliegende, räumliche Einschränkungen oder Gegebenheiten einzuschätzen und in den Entwurf einfließen zu lassen.
  • Im Bereich des Entwurfs von Möbelstücken sind bereits Plattformen bekannt, bei denen ein Anwender in einer webbasierten Oberfläche Möbelstücke konfigurieren kann. Derartiges wird insbesondere bei eher teuren Produkten angeboten, die für einen Käufer eine nicht unerhebliche Investitionssumme bedeuten.
  • Beispielsweise sind sogenannte Küchenplaner geläufig, mit denen durch Auswahl bestimmter, vorgegebener Module eine Küche geplant werden kann, so dass diese in die entsprechende Räumlichkeit passt. Um mit einem solchen Küchenplaner arbeiten zu können, muss der Anwender zunächst die Raummaße aufnehmen und diese manuell in das Planungsprogramm eingeben. Nachfolgend kann der Anwender aus einer Auswahl bestimmter Module die Küche zusammenstellen.
  • Nach Zusammenstellen der Module besteht die Möglichkeit, die geplante Küche virtuell zu „begehen“, um sich in einer virtuellen Umgebung einen Eindruck des geplanten Gesamtaufbaus und der Wirkung bestimmter Module oder Komponenten, wie Griffe, auf das Gesamtkonzept zu verschaffen.
  • Auch bekannt sind Möbelplanungsprogramme, mit denen beispielsweise Schränke oder Regale individuell nach Maß geplant werden können. Nach Planung des Möbelstücks kann der Anwender den erstellten Datensatz an den Anbieter übermitteln, der das Möbelstück entsprechend dem individuellen Datensatz fertigt.
  • Auch in diesem Fall wird der Anwender zu Beginn der Planungsphase aufgefordert, die entsprechenden Maße aufzunehmen und in das Planungsprogramm zu übernehmen. Anhand der Deckenhöhe oder möglicher Dachschrägen kann ein Möbelstück an den entsprechenden Aufstellungsort eingepasst werden.
  • Die Aufnahme von Messdaten durch Laien birgt allerdings stets die Gefahr, dass das zu erstellende Möbelstück falsch dimensioniert und somit beispielsweise zu groß gefertigt wird. Je nach eingesetzter Messmethode können Abweichungen von Ist-Maßen beträchtlich sein.
  • Auch ist es möglich, dass bei der Planung weitere Details missachtet werden, beispielsweise die Lichtverhältnisse am Aufstellort oder das Erscheinungsbild benachbarter Gegenstände, wie benachbarter Möbel, Gardinen, Fußboden, Wandfarbe oder -struktur, usw. Das Ergebnis der Planung wird der Anwender letztlich erst bewerten können, wenn das Möbelstück geliefert und aufgestellt wurde.
  • Gegenstand der Erfindung
  • Ziel der vorliegenden Erfindung ist es, individuelle Gestaltungsmöglichkeiten weiter voranzutreiben und Planungsfehler zu vermeiden.
  • Die vorliegende Erfindung stellt hierfür ein Verfahren nach Anspruch 1 bereit. Weitere bevorzugte Ausführungsformen sind in den abhängigen Ansprüchen aufgeführt.
  • Die Erfindung betrifft ein Verfahren zum Anpassen eines virtuellen Objekts unter Verwendung einer mobilen Vorrichtung, welche mobile Vorrichtung eine Sensoreinheit und eine Anzeige aufweist, umfassend die Schritte: Ermitteln von Dimensionen in einem Raum mittels der Sensoreinheit der mobilen Vorrichtung; Anzeigen des Objekts mittels der mobilen Vorrichtung auf Grundlage der Dimensionen vor dem Hintergrund des Raums; Anpassen des angezeigten Objekts.
  • Beim genannten Objekt kann es sich um ein Möbelstück handeln, wie einen Tisch, einen Schrank, ein Regal, einen Stuhl oder Ähnlichem, oder einer Kombination hiervon. Allgemein werden als Möbelstücke im Rahmen der Erfindung Einrichtungsgegenstände bezeichnet, die zur Möblierung eines Raums dienen. Beispiele sind Tische, Schränke, Regale, Küchenmodule, Gartenmöbel, Sofas, Sessel, Tische, Sitzgruppen und Ähnliches.
  • Alternativ kann es sich beim Objekt um eine Bearbeitungsmaschine, insbesondere Holzbearbeitungsmaschine, und/oder eine Peripherievorrichtung dieser handeln. Eine Peripherievorrichtung ist beispielsweise eine Druckluftleitung, ein Abluftkanal, ein Schaltschrank, ein Schutzzaun, Trittmatten für eine Sicherheitseinrichtung.
  • Es ist bevorzugt, dass die mobile Vorrichtung eine Smartbrille/Datenbrille ist, wobei die Anzeige zum Anzeigen bevorzugt ein Head-mounted Display ist. Als „Smartbrille“ wird eine Brille bezeichnet, die dem Nutzer zusätzlich zum Sichtfeld weitere Informationen anzeigen kann, insbesondere in einer erweiterten Realität.
  • Eine Smartbrille hat den Vorteil, dass diese vom Nutzer stets mitgeführt werden kann, dabei jedoch die Hände frei verfügbar sind. Die Anzeige kann in einer erweiterten Realität („augmented reality“) dargestellt werden. Somit werden die reale Umgebung und das anzuzeigende virtuelle Objekt in optimaler Weise verknüpft.
  • Das Anpassen des Objekts kann zumindest einen Schritt umfassen, ausgewählt aus: Verschieben und/oder Drehen des Objekts, Ändern der Höhe, Breite und/oder Tiefe des Objekts, Ändern oder Auswählen der Oberflächenfarbe und/oder - struktur, Anbringen oder Ändern von Beschlägen, Einbringen einer Ausnehmung oder Bohrung, und/oder Ändern oder Auswählen eines Materials für Abschnitte des Objekts.
  • Das Anpassen des Objekts kann mittels Gestensteuerung erfolgen. Diese Art der Objekt-Manipulation ist besonders vorteilhaft in Kombination mit einer Smartbrille/Datenbrille einsetzbar.
  • Das Anpassen des Objekts kann beispielsweise ein Entnehmen eines Teilstücks des Objekts und Anpassen des Teilstücks umfassen. Im Falle eines Möbelstücks kann beispielsweise eine Schublade entnommen und deren Beschichtungsmaterial geändert werden. Wird das Verfahren im Rahmen einer Fabrikplanung eingesetzt, so ist es möglich, beispielsweise eine Bearbeitungseinrichtung einer Bearbeitungsmaschine zu entnehmen und deren äußere Abmessungen zu verändern.
  • Es ist bevorzugt, dass, beim Ermitteln von Dimensionen, bei Erreichung eines Schwellwertes einer bestimmten Messgenauigkeit eine visuell oder akustisch wahrnehmbare Freigabe übermittelt wird. Somit kann der Nutzer über den aktuellen Status des Messvorgangs informiert werden. Nach einer Freigabe kann sich der Nutzer neuen Tätigkeiten zuwenden.
  • Gemäß einer bevorzugten Ausführungsform ist es vorgesehen, dass zum Anzeigen eines Objekts auf eine Datenbank, insbesondere einen Cloudserver, zugegriffen wird. Somit sind die hinterlegten Daten geräteunabhängig verfügbar, ggf. für mehrere Personen gleichzeitig.
  • Ferner kann es vorgesehen sein, dass die Dimensionen eine Fläche und Höhe eines Aufstellorts, und/oder eine Dachschräge, Vorsprünge, angrenzende Gegenstände, Veränderungen der Bodenoberfläche, wie Stufen oder Schrägen, umfassen.
  • Nach dem Anpassen des Objekts kann das Arbeitsergebnis gespeichert werden, insbesondere in einem lokalen Speicher der mobilen Vorrichtung oder auf einem Cloudserver.
  • Ferner wird eine Verwendung einer Smartbrille zum Anpassen eines virtuellen Objekts bereitgestellt, insbesondere eines Möbelstücks oder einer Bearbeitungsmaschine, wobei das Objekt mittels der Smartbrille vor dem Hintergrund des realen Raums angezeigt wird und das angezeigte Objekt angepasst wird.
  • Im Rahmen der Verwendung der Smartbrille können die zuvor genannten Aspekte einzeln oder in Kombination zum Einsatz kommen. Entsprechendes gilt für das in Anspruch 14 aufgeführte System.
  • Figurenliste
    • 1 zeigt den Einsatz einer Smartbrille bei der Planung eines Möbelstücks als ein Ausführungsbeispiel.
    • 2 zeigt einen Verfahrensablauf gemäß einer bevorzugten Ausführungsform der Erfindung.
  • Detaillierte Beschreibung der bevorzugten Ausführungsformen
  • Nachfolgend wird anhand der beigefügten Figuren eine bevorzugte Ausführungsform der folgenden Erfindung beschrieben. Die bevorzugte Ausführungsform dient lediglich der Veranschaulichung der vorliegenden Erfindung. Weitere in diesem Zusammenhang genannte Modifikationen bestimmter Merkmale der beschriebenen Ausführungsform können jeweils miteinander kombiniert werden, um weitere Ausführungsformen auszubilden.
  • Die nachfolgend detailliert beschriebene Ausführungsform betrifft den Einsatz einer Smartbrille zur Planung oder Anpassung eines Möbelstücks. Ein weiteres Beispiel zur Anwendung der vorliegenden Erfindung ist die Fabrikplanung oder die Planung einer industriellen Anlage, im Rahmen derer eine Maschine, Fertigungsstraße, Peripheriegeräte usw. an einen vorgegebenen Ort in einer Fabrikhalle platziert werden und deren Konfiguration angepasst oder geändert wird.
  • Ein Aspekt der vorliegenden Ausführungsform ist die Verwendung einer sogenannten Smartbrille 10 als einem bevorzugten Beispiel einer mobilen Vorrichtung, mit der es möglich ist, die reale Umgebung mit einer virtuellen Welt zu verknüpfen (so genannte „mixed reality“ oder „augmented reality“). Dabei wird dem Anwender ein virtuelles Objekt, wie im vorliegenden Ausführungsbeispiel ein Möbelstück, im Blickfeld, und somit in der realen Umgebung, angezeigt. Die Smartbrille 10 verfügt hierzu über ein HMD-Display (head mounted display).
  • Zwar wird im Rahmen der vorliegenden Ausführungsform eine Smartbrille 10 als eine mobile Vorrichtung beschrieben. In anderen Ausführungsformen kann alternativ oder zusätzlich ein Smartphone, ein Laptop oder ein Tablet zum Einsatz kommen.
  • Die Smartbrille 10 ist zusätzlich mit Sensoren ausgestattet. Insbesondere ist eine Sensoreinheit vorgesehen, mit der die konkret beobachtete Umgebung vermessen werden kann. Darüber hinaus ist die Smartbrille 10 in weiteren Ausführungsformen mit einem Positionssensor, einem oder mehreren Beschleunigungssensor(en) und/oder einem oder mehreren Gyrosensor(en) ausgestattet.
  • Mit dem Positionssensor (Triangulationsverfahren über WLAN oder Bluetooth) kann die Position des Nutzers erfasst werden. Die ermittelten Daten können zum Positionstracking verwendet werden. Auf Grundlage der von den Beschleunigungssensoren und Gyrosensoren ermittelten Daten (6 Freiheitsgrade) kann die Ausrichtung der Smartbrille 10, und somit die Ausrichtung des Kopfes des Nutzers, festgestellt werden.
  • Für eine drahtlose Kommunikation verfügt die Smartbrille 10 bevorzugt über eine Funkschnittstelle, beispielsweise ein WLAN-Modul, so dass die ermittelten Informationen zu einer Datenbank übermittelt werden können. Alternativ ist eine Bluetooth-Verbindung oder eine Mobilfunkverbindung gemäß UMTS- oder LTE-Standard einsetzbar.
  • Der Anwender hat zunächst die Möglichkeit, mit der Smartbrille 10 die räumliche Umgebung, in die ein bestimmtes Möbelstück integriert werden soll, zu vermessen (Schritt S1). Hierzu sind in der Smartbrille beispielsweise Laserabstandsensoren integriert, mit denen begrenzende Flächen, wie Wände oder Dachschrägen, erfasst werden können. Basierend auf den ermittelten Daten wird ein virtuelles Abbild des realen Raums 20 erstellt, das maßstabsgetreu dimensioniert ist. Hierzu werden verschiedene Maße 21a, 21b aufgenommen, die in 1 lediglich beispielhaft angedeutet werden.
  • Alternativ ist es möglich, ein externes Messsystem (beispielsweise Lasermesssystem) einzusetzen, welches mit einer Datenschnittstelle der Smartbrille in Verbindung steht oder in Verbindung gebracht werden kann. Die vom externen Messsystem ermittelten Werte können somit an die Smartbrille übertragen und entsprechend genutzt werden.
  • Darüber hinaus besteht, insbesondere bei einem Neubau, die Möglichkeit, dass bereits vorhandene CAD-Daten des entsprechenden Raumes bekannt sind. Diese Daten können ebenfalls zur Ermittlung der Dimensionen verwendet werden.
  • Es besteht die Möglichkeit, in einem Konfigurator eine Vorauswahl beispielsweise bezüglich eines bestimmten Möbelstücks, einer Gruppe von Möbelstücken oder von Teilprofilen eines Möbelstücks zu treffen (Schritt S2). Ein entsprechendes Möbelstück ist beispielsweise für die konkreten Platzbedingungen eine geeignete Variante, die der Anwender aus einer Liste auswählen kann. Die der Vorauswahl zu Grunde liegenden Daten der Möbelstücke wie Abmessungen, Farben, Materialstrukturen etc. können lokal in einem Speicher der Smartbrille 10 oder auf einem Server im lokalen Netzwerk gespeichert sein. Alternativ wird auf eine Datenbank, beispielsweise hinterlegt auf einem Cloudserver, zurückgegriffen.
  • Diese Daten könnten zuvor über ein standardisiertes Interface von einem bestimmten Hersteller oder einer vom Benutzer festgelegten Gruppe von Herstellern abgefragt werden. Anstelle eines standardisierten Interfaces könnten die 3D-Daten der Objekte bei den Herstellern standardisiert zur Verfügung gestellt werden. Alternativ wäre ein Konversionsmodul notwendig, das die verschiedenen Datenmodelle in ein einheitliches Modell umwandelt, wenn Objekte bzw. Möbelstücke von verschiedenen Herstellern in der Datenbank aktualisiert zusammengetragen werden sollen.
  • Das ausgewählte Möbelstück wird nachfolgend vor dem Hintergrund des realen Raumes angezeigt (Schritt S3). Somit ist das Möbelstück virtuell, der Raum jedoch real. Mit anderen Worten erfolgt die Darstellung in einer erweiterten Realität (augmented reality).
  • Die genaue Positionierung oder Anpassung der Dimensionen erfolgt nachfolgend interaktiv in Verknüpfung mit der realen Umgebung (Schritt S4). Dabei erfolgen Änderungen wie eine Anpassung der Maße und/oder eine Umpositionierung des Möbelstücks durch Schieben oder Ziehen mit Gestensteuerung.
  • Dabei erfolgt die Interaktion in Kombination mit der realen Umgebung. Beispielsweise kann das Möbelstück nur bis zu einer bestimmten Wand geschoben oder in Richtung einer Dachschräge oder Ähnlichem vergrößert werden.
  • Beispielsweise ist es möglich, ein Element des vorgeplanten Möbelstücks in der virtuellen Umgebung zu entnehmen, um dieses besser betrachten zu können.
  • Ein konkretes Beispiel ist dabei, aus einem Möbelstück, wie einem Hängeschrank, das obere Deckpaneel zu wählen und virtuell zu entnehmen. Nachfolgend kann in einem Bereich des Deckpaneels eine Öffnung erstellt werden, die später als Rohrdurchlass dienen soll. Alternativ könnte die Datenbrille auch in der Küche einen Wanddurchlass für die Abluft der Dunstabzugshaube erkennen und ausmessen und automatisch eine entsprechende Öffnung in dem Deckpaneel platzieren und dimensionieren. Nach Durchführen der Anpassung des Möbelstücks kann dieses wieder durch Gestensteuerung in der modifizierten Ausführung in das Möbelstück integriert werden.
  • Somit ist es möglich, dass der Nutzer das Produkt entwirft und nachfolgend auch erleben kann. Da die virtuelle Realität mit der realen Welt überlagert wird, können auch Randbedingungen bei der Planung des Möbelstücks einbezogen werden, beispielsweise die konkreten Farben und Strukturen des Bodens, der Wand und der Decke am Aufstellort, oder der Lichteinfall durch ein benachbart angeordnetes Fenster oder eine im Raum verfügbare Beleuchtung. Somit kann der Nutzer das gewünschte Produkt iterativ verbessern und an die konkret vorliegenden Verhältnisse anpassen, wobei die Erfassung mittels der Sensoren eine hohe Planungssicherheit bietet und somit die optimale Kaufentscheidung unterstützt.
  • Ferner kann ein Nutzer mit dem virtuellen Raum interagieren und beispielsweise die ergonomische Gestaltung von Türen, Schubladen usw. testen. Somit kann ausgeschlossen werden, dass bewegliche Elemente, wie Schubladen oder Türen, mit anderen im Raum vorhandenen Gegenständen, Wänden, Dachschrägen, oder ähnlichem kollidieren. Auch kann die richtige Positionierung bestimmter Elemente des Möbelstücks wie Regale, Böden, usw. überprüft werden.
  • Durch das geführte Vermessen des Raums mit der Smartbrille 10 können Messfehler vermieden werden. Beispielsweise wird dem Nutzer angezeigt, dass die für die Planung von der Genauigkeit in der vermessenen Zone erreicht wurde. Um dies dem Nutzer zu visualisieren, können Maßlinien oder eine andere Anzeige in grüner Farbe dargestellt werden. Würde die Genauigkeit nicht erreicht, und muss der Nutzer die Messung gegebenenfalls nochmal vornehmen, erscheint eine in roter Farbe dargestellte Visualisierung. Alternativ zu einer visuellen Anzeige kann die Smartbrille 10 über einen integrierten Lautsprecher ein akustisches Freigabesignal ausgeben.
  • Mittels des integrierten Lautsprechers ist es ferner möglich, dem Nutzer eine Montageanleitung vorzulesen oder telefonisch Kontakt mit einem Berater aufzunehmen. Darüber hinaus ist es möglich, eine Montageanleitung visuell anzuzeigen. Die visuelle Anzeige kann ggf. zusätzlich zur akustischen Mitteilung über den Lautsprecher erfolgen.
  • Nachdem der Nutzer das Möbelstück entsprechend angepasst hat, kann das Arbeitsergebnis in einem lokalen Speicher der Smartbrille 10 oder in einem global verfügbaren Cloudserver gespeichert werden (Schritt S5). Auch Zwischenergebnisse können entsprechend gespeichert werden.
  • Ferner ist es möglich, in verschiedenen Stufen simultan die Fertigungsmöglichkeiten durch den Hersteller zu überprüfen. Dies kann durch eine Abfrage bei einer Datenbank des Herstellers erfolgen. Alternativ ist es möglich, Restriktionen vorzugeben, welche die Manipulationsmöglichkeiten beschränken.
  • Nachfolgend ist es möglich, entweder mittels der Smartbrille oder einem anderem, bevorzugt mobilem, elektronischem Gerät eine Datenübertragung zum Hersteller vorzunehmen (Schritt S6), beispielsweise einen Bestellvorgang beim Hersteller auszulösen. Dies könnte auch über eine Schnittstelle erfolgen, so dass die Verwendung der Smartbrille herstellerunabhängig ist.
  • Darauf aufbauend können Bearbeitungsoperationen wie Bohren, Ausschnitte anfertigen, Beschläge anbringen usw., an Teilen des geplanten Möbelstücks durchgeführt werden, nachdem Daten des fertig geplanten Möbelstücks an den Hersteller übersandt wurden. Hierzu werden die Daten, insbesondere CAD/CAM-Daten, an den Hersteller des Möbelstücks übersandt.
  • Durch die Sensoreinheit der Smartbrille ist es ferner möglich, bestehende Möbelstücke einzuscannen und deren Maße zu ermitteln. Auf diese Weise kann sichergestellt werden, dass ein neu konfiguriertes Möbelstück mindestens dasselbe Fassungsvolumen oder die gleiche Stellfläche besitzt.
  • Ferner können mittels der Smartbrille in einer Wand anzubringende Bohrlöcher angezeigt werden, die der Anwender direkt entsprechend an der Wand markieren kann. Somit können bereits vorbereitende Maßnahmen eingeleitet werden, noch bevor das Möbelstück gefertigt und ausgeliefert ist.
  • Beim Bestellvorgang (Schritt S6) kann dem Nutzer die Bearbeitungszeit der Bestellung und die geplante Auslieferung angezeigt werden. Ferner ist eine Kalkulation und eine Rechnungserstellung im Rahmen des Schritts S6 durchführbar.
  • Die vorliegende Erfindung ist nicht auf eine Anwendung in einem durch Wände oder ähnliches begrenzten räumlichen Bereich begrenzt. Vielmehr ist es möglich, ein Möbelstück in einem vergleichsweise offenen Umfeld zu konfigurieren bzw. einzupassen. Als Beispiel können beispielsweise Gartenmöbel virtuell auf einer Terrasse angeordnet und angepasst werden. In diesem Fall werden bestimmte Eckpunkte des Sichtfeldes, also beispielsweise die Begrenzung der Terrasse auf Grund des Bodenbelags, verwendet, um den Planungsort vorzugeben.
  • Ein weiteres Beispiel zur Anwendung der vorliegenden Erfindung ist die Fabrikplanung oder Planung einer industriellen Anlage, im Rahmen derer eine Maschine, Fertigungsstraße, Peripheriegeräte usw. an einen vorgegebenen Ort in einer Fabrikhalle platziert und deren Konfiguration angepasst oder geändert werden muss. Hierbei ist es möglich, eine Bearbeitungsmaschine zu wählen und in einer erweiterten Realität („augmented reality“) im Fabrikgebäude anzuzeigen. Nachfolgend können Schutzeinrichtungen wie Schutzzäune, Sicherheitsmatten oder ähnliches entsprechend den räumlichen Gegebenheiten platziert und angepasst werden. Ferner ist es möglich, Maschinen und Transfereinrichtungen, wie Förderbänder, miteinander zu verbinden und die Führungspfade der Werkstücke entsprechend auszulegen. Somit ist unmittelbar ein Soll-Ist-Vergleich möglich.

Claims (14)

  1. Verfahren zum Anpassen eines virtuellen Objekts unter Verwendung einer mobilen Vorrichtung (10), welche mobile Vorrichtung eine Anzeige aufweist, umfassend die Schritte: Ermitteln von Dimensionen (21a, 21b) in einem Raum (20); Anzeigen des Objekts mittels der mobilen Vorrichtung (10) auf Grundlage der Dimensionen vor dem Hintergrund des Raums (20); Anpassen des angezeigten Objekts.
  2. Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, dass die mobile Vorrichtung eine Smartbrille ist, wobei die Anzeige zum Anzeigen bevorzugt ein Head-mounted Display (10a) ist.
  3. Verfahren gemäß einer der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass der Raum (20) ein Innenraum eines Gebäudes, insbesondere ein Zimmer oder eine Fabrikhalle, oder ein Außenraum ist.
  4. Verfahren gemäß einer der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass das Objekt ausgewählt ist aus einem Möbelstücks, wie eines Tisch, eines Schranks, eines Regals, eines Küchenmoduls, eines Gartenmöbels, eines Sofas, eines Sessels, einer Sitzgruppen oder ähnlichem, oder einer Bearbeitungsmaschine, insbesondere einer Holzbearbeitungsmaschine, oder einer industriellen Anlage.
  5. Verfahren gemäß einer der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass das Ermitteln der Dimensionen (21a, 21b) mittels einer Sensoreinheit der mobilen Vorrichtung erfolgt, oder die, insbesondere über ein Messsystem, bevorzugt Lasermesssystem, ermittelten Dimensionen (21a, 21b) der mobilen Vorrichtung (10) über eine Schnittstelle bereitgestellt werden.
  6. Verfahren gemäß einer der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass das Anpassen des Objekts zumindest einen Schritt umfasst, ausgewählt aus: Verschieben und/oder Drehen des Objekts, Ändern der Höhe, Breite und/oder Tiefe des Objekts, Ändern oder Auswählen der Oberflächenfarbe und/oder -struktur, Anbringen oder Ändern von Beschlägen, Einbringen einer Ausnehmung oder Bohrung, und/oder Ändern oder Auswählen eines Materials für Abschnitte des Objekts.
  7. Verfahren gemäß einer der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass das Anpassen des Objekts mittels Gestensteuerung erfolgt.
  8. Verfahren gemäß einer der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass das Anpassen des Objekts ein Entnehmen eines Teilstücks des Objekts und Anpassen des Teilstücks umfasst.
  9. Verfahren gemäß einer der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass, beim Ermitteln von Dimensionen (21a, 21b), bei Erreichung eines Schwellwertes einer bestimmten Messgenauigkeit eine visuell oder akustisch wahrnehmbare Freigabe übermittelt wird.
  10. Verfahren gemäß einer der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass zum Anzeigen eines Objekts auf eine Datenbank, insbesondere einen Cloudserver, zugegriffen wird.
  11. Verfahren gemäß einer der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Dimensionen eine Fläche und Höhe eines Aufstellorts, und/oder eine Dachschräge, Vorsprünge, angrenzende Gegenstände, Veränderungen der Bodenoberfläche, wie Stufen oder Schrägen, umfasst.
  12. Verfahren gemäß einer der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass nach dem Anpassen des Objekts das Arbeitsergebnis gespeichert wird, insbesondere in einem lokalen Speicher der mobilen Vorrichtung oder auf einem Cloudserver.
  13. Verwendung einer Smartbrille (10) zum Anpassen eines virtuellen Objekts, insbesondere eines Möbelstücks, einer Bearbeitungsmaschine, oder Teilen hiervon, wobei das Objekt mittels der Smartbrille (10) vor dem Hintergrund des realen Raums angezeigt wird und das angezeigte Objekt angepasst wird.
  14. System unter Verwendung einer mobilen Vorrichtung (10), welche mobile Vorrichtung eine Anzeige zum Anzeigen eines virtuellen Objekts aufweist, wobei: - das System eine Sensoreinheit der mobilen Vorrichtung (10) oder ein mit der mobilen Vorrichtung (10) verbindbares Messsystem aufweist, um Dimensionen (21a, 21b) in einem Raum (20) zu ermitteln, - die Anzeige eingerichtet ist, das Objekt vor dem Hintergrund des Raums (20) anzuzeigen, und - die mobile Vorrichtung für eine Anpassung des Objekts vorgesehen ist.
DE102017207995.9A 2017-05-11 2017-05-11 Verfahren zum Anpassen eines virtuellen Objekts Pending DE102017207995A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102017207995.9A DE102017207995A1 (de) 2017-05-11 2017-05-11 Verfahren zum Anpassen eines virtuellen Objekts
EP18723825.8A EP3622467A1 (de) 2017-05-11 2018-05-09 Verfahren zum anpassen eines virtuellen objekts
PCT/EP2018/062015 WO2018206652A1 (de) 2017-05-11 2018-05-09 Verfahren zum anpassen eines virtuellen objekts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017207995.9A DE102017207995A1 (de) 2017-05-11 2017-05-11 Verfahren zum Anpassen eines virtuellen Objekts

Publications (1)

Publication Number Publication Date
DE102017207995A1 true DE102017207995A1 (de) 2018-11-15

Family

ID=62148384

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017207995.9A Pending DE102017207995A1 (de) 2017-05-11 2017-05-11 Verfahren zum Anpassen eines virtuellen Objekts

Country Status (3)

Country Link
EP (1) EP3622467A1 (de)
DE (1) DE102017207995A1 (de)
WO (1) WO2018206652A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020201375B3 (de) * 2020-02-05 2021-06-24 Magna Steyr Fahrzeugtechnik Ag & Co Kg Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10128015A1 (de) * 2000-06-13 2001-12-20 Volkswagen Ag Verfahren und System zum Planen einer veränderten Produktionsumgebung, insbesondere einer Fertigungsumgebung für Fahrzeugkomponenten
DE10240392A1 (de) * 2002-09-02 2004-03-11 Patron, Günter System und Verfahren zur Bestimmung von Abständen virtueller Objekte zu realen Objekten durch den Einsatz der Augmented Reality Technology
DE102005011126A1 (de) * 2005-03-10 2006-09-14 Siemens Ag Generierung virtueller Welten auf Basis einer realen Umgebung
EP2698600A1 (de) * 2012-08-16 2014-02-19 Leica Geosystems AG Entfernungsmessmodul
WO2014182545A1 (en) * 2013-05-04 2014-11-13 Vupad Partners, Llc Virtual object scaling in augmented reality environment
US20160378887A1 (en) * 2015-06-24 2016-12-29 Juan Elias Maldonado Augmented Reality for Architectural Interior Placement

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160147408A1 (en) * 2014-11-25 2016-05-26 Johnathan Bevis Virtual measurement tool for a wearable visualization device
US9728010B2 (en) * 2014-12-30 2017-08-08 Microsoft Technology Licensing, Llc Virtual representations of real-world objects

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10128015A1 (de) * 2000-06-13 2001-12-20 Volkswagen Ag Verfahren und System zum Planen einer veränderten Produktionsumgebung, insbesondere einer Fertigungsumgebung für Fahrzeugkomponenten
DE10240392A1 (de) * 2002-09-02 2004-03-11 Patron, Günter System und Verfahren zur Bestimmung von Abständen virtueller Objekte zu realen Objekten durch den Einsatz der Augmented Reality Technology
DE102005011126A1 (de) * 2005-03-10 2006-09-14 Siemens Ag Generierung virtueller Welten auf Basis einer realen Umgebung
EP2698600A1 (de) * 2012-08-16 2014-02-19 Leica Geosystems AG Entfernungsmessmodul
WO2014182545A1 (en) * 2013-05-04 2014-11-13 Vupad Partners, Llc Virtual object scaling in augmented reality environment
US20160378887A1 (en) * 2015-06-24 2016-12-29 Juan Elias Maldonado Augmented Reality for Architectural Interior Placement

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020201375B3 (de) * 2020-02-05 2021-06-24 Magna Steyr Fahrzeugtechnik Ag & Co Kg Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters
US11731283B2 (en) 2020-02-05 2023-08-22 Magna Steyr Fahrzeugtechnik Gmbh & Co Kg Method for checking a safety area of a robot

Also Published As

Publication number Publication date
WO2018206652A1 (de) 2018-11-15
EP3622467A1 (de) 2020-03-18

Similar Documents

Publication Publication Date Title
EP3437036B1 (de) Verfahren und vorrichtung zum planen und/oder steuern und/oder simulieren des betriebs einer baumaschine
DE102010036499B4 (de) Werkzeugvektor-Anzeigevorrichtung für eine Werkzeugmaschine mit Drehachse
EP2638358B1 (de) Gerät zum vermessen und markieren von raumpunkten entlang horizontal verlaufender höhenlinien
DE10128015A1 (de) Verfahren und System zum Planen einer veränderten Produktionsumgebung, insbesondere einer Fertigungsumgebung für Fahrzeugkomponenten
DE112019003204T5 (de) Visualisierung und modifizierung von arbeitsrandbereichen unter verwendung von erweiterter realität
EP2561417B1 (de) Verfahren zur eingabe eines räumlichen aufbaus von fertigungseinrichtungen in ein rechnergestütztes planungsprogramm und dessen optimierung
DE102015008735A1 (de) Verfahren zur Herstellung von Spritzpistolen, Spritzpistole, Spritzpistolenkörper und Abdeckung
DE102013113165A1 (de) Kalibrierungsverfahren für Robotersystem
DE102015004483A1 (de) Robotersteuerung und Robotersystem zum Bewegen eines Roboters als Reaktion auf eine Kraft
DE102015107436A1 (de) Lernfähige Bahnsteuerung
EP2979062A1 (de) Verfahren und vorrichtung zur anzeige von objekten und objektdaten eines konstruktionsplans
DE102016224774B3 (de) Verfahren zur Programmierung eines Messroboters und Programmiersystem
DE102012024934B4 (de) Verfahren und Programmiersystem zur erstmaligen Erstellung eines auf einem Messroboter ausführbaren Messprogramms für die Messung eines neuen Messobjekts
EP3622467A1 (de) Verfahren zum anpassen eines virtuellen objekts
DE102015118823A1 (de) Vorrichtung und Verfahren zur automatisierten Herstellung von Maßschuhen
EP2407283B1 (de) Roboterarm, Industrieroboter und Verfahren zum Erstellen eines mathematischen Robotermodells
US11372390B2 (en) System, method, and program for manufacturing computer-designed part members of furniture using machining equipment
DE102014117530A1 (de) Verfahren zum Herstellen eines dreidimensionalen Objekts
EP3385667A2 (de) Markiervorrichtung
EP3132921B1 (de) System und verfahren zur erstellung einer befestigungsanordnung mittels additiven fertigungsverfahren
DE102010026102B4 (de) Verfahren zur Aufzeichnung von Aufbaumarkierungen für eine Fertigungsanlage, insbesondere im Fahrzeugbau
EP3640767A1 (de) Verfahren zum bestimmen mindestens eines bereichs in mindestens einem eingabemodell für mindestens ein zu platzierendes element
DE112018007985T5 (de) Anzeigesystem, 3D-Druckvorrichtung und Fortschrittsanzeigeverfahren
EP2784706A2 (de) Verfahren zur Bereitstellung und Verwendung digitaler Dekordaten
EP3237843B1 (de) Verfahren zum übertragen eines objektes auf eine grenzfläche

Legal Events

Date Code Title Description
R163 Identified publications notified
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0017500000

Ipc: G06F0030000000