DE69735181T2 - Verfahren und Vorrichtung für virtuelle Architektur - Google Patents

Verfahren und Vorrichtung für virtuelle Architektur Download PDF

Info

Publication number
DE69735181T2
DE69735181T2 DE69735181T DE69735181T DE69735181T2 DE 69735181 T2 DE69735181 T2 DE 69735181T2 DE 69735181 T DE69735181 T DE 69735181T DE 69735181 T DE69735181 T DE 69735181T DE 69735181 T2 DE69735181 T2 DE 69735181T2
Authority
DE
Germany
Prior art keywords
data
geometric data
image
dimensional
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69735181T
Other languages
English (en)
Other versions
DE69735181D1 (de
Inventor
Hiroyuki Ohta-ku Yamamoto
Toshikazu Ohta-ku Ohshima
Shinji Ohta-ku Uchiyama
Takashi Ohta-ku Morino
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE69735181D1 publication Critical patent/DE69735181D1/de
Application granted granted Critical
Publication of DE69735181T2 publication Critical patent/DE69735181T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung zum Erzeugen eines virtuellen Raums (virtual space producing method and apparatus), die Bilder mit hoher Realität in Übereinstimmung mit den Anforderungen eines Benutzers bereitstellen können.
  • Als eine Vorrichtung zur Darstellung eines virtuellen Raums (virtual space presentation apparatus), mit der ein Benutzer einen als Daten in einem Computer gespeicherten virtuellen Raum gemäß der Bewegung seiner oder ihrer Blickrichtung, während er oder sie ein reales Objekt beobachtet, sehen kann, sind verschiedene Typen von Vorrichtungen wie beispielsweise EyePhones (von VPL Research Inc. erhältlich) und dergleichen entwickelt worden. Anwendungen einer derartigen Technik auf die Wohnungswirtschaft sind untersucht worden. Beispielsweise ermöglicht es ein durch Matsushita Electric Works Ltd. entwickeltes System "virtuelle Küche" einem Kunden, das Innere eines Raums und eine durch den Hersteller bereitgestellte Systemküche virtuell zu erleben, und wird als ein Instrument der Verkaufsförderung verwendet.
  • Der vorstehend angeführte Stand der Technik berücksichtigt jedoch keinen Rahmen, der einen virtuellen Raum mit hoher Realität leicht erzeugen kann, und das Erzeugen des virtuellen Raums erfordert viel Arbeit. Entsprechend ermöglichen es die vorhandenen Systeme Benutzern nur, durch Informationsbereitsteller bereitgestellte virtuelle Räume zu erleben. Folglich ist es schwierig, einen virtuellen Raum in einer einem Kunden gehörenden vorhandenen Architektur wie bei einer Neubildungssimulation einer Architektur leicht zu erzeugen und es dem Kunden zu ermöglichen, den virtuellen Raum mittels Abbildern (reflections) mit hoher Realität interaktiv zu erleben.
  • Die WO-A-92/09963 offenbart eine Vorrichtung und ein Verfahren zum Erzeugen eines virtuellen Raums, bei dem eine Datenbank eine begrenzte bildhafte Darstellung einer virtuellen Welt zusammen mit einem Satz von Eigenschaften wie beispielsweise Beschränkungen von Bewegung, Farbe, Textur und anderen Merkmalen speichert. Ein Benutzer ist dazu imstande, die bildhafte Darstellung gemäß ausgewählten Eigenschaften zu bearbeiten.
  • Die US-A-4970666 offenbart ein System und ein Verfahren zum Erzeugen von Videobildern unter Verwendung von zum Beispiel CAD-Daten für ein dreidimensionales Modell eines simulierten Objekts. Dieses wird mit einem Videobild einer durch eine Videokamera aufgenommenen Umgebung, das in gerasterter Form gespeichert ist, gemischt. Eine zweidimensionale perspektivische Darstellung des Objekts wird aus den CAD-Daten erzeugt und mit dem gerasterten Videobild gemischt, um die zweidimensionale Darstellung an ihrem passenden Ort in der Umgebung genau zu positionieren.
  • Ein Ziel einer Ausgestaltung der vorliegenden Erfindung besteht darin, ein Verfahren und eine Vorrichtung für virtuelle Architektur bereitzustellen, die die vorstehend angeführten Probleme lösen können und es einem Benutzer ermöglichen, einen virtuellen Raum einer Architektur leicht zu erzeugen und den erzeugten virtuellen Raum virtuell zu erleben.
  • Gemäß einer ersten Ausgestaltung der vorliegenden Erfindung wird ein Verfahren zum Erzeugen eines virtuellen Raums bereitgestellt, mit: einem Eingabeschritt des Eingebens von dreidimensionale geometrische Daten zum Zusammensetzen eines dreidimensionalen Objekts einschließlich einer Vielzahl von Primitiven darstellenden Daten; einem Eingabeschritt des Eingebens von tatsächlich aufgenommenen Bildern des dreidimensionalen Objekts; einem Anzeigeschritt des Veranlassens, dass ein Bild des dreidimensionalen Objekts unter Verwendung der dreidimensionalen geometrischen Daten angezeigt wird; einem interaktiven Bezeichnungsschritt des Bezeichnens einer Abbildung von Merkmalspunkten in den Bildern auf entsprechende Punkte der dreidimensionalen geometrischen Daten im Ansprechen auf Anweisungen einer Bedienungsperson; einem Modifikationsschritt des Modifizierens der geometrischen Daten durch ein Variieren und Anordnen der Vielzahl von Primitiven und ein Abbilden von ein oder mehrere aus den eingegebenen Bildern des dreidimensionalen Objekts erzeugte Oberflächenmuster darstellenden Texturdaten gemäß dem Bezeichnungsschritt im Ansprechen auf Anweisungen einer Bedienungsperson, um Daten des virtuellen Raums eines gewünschten Objekts einschließlich dreidimensionaler geometrischer Daten und Bildabbildungsdaten zu erzeugen; und einem weiteren Anzeigeschritt des Veranlassens, dass ein Bild des gewünschten Objekts angezeigt wird, im Ansprechen auf eine weitere Anweisung der Bedienungsperson.
  • Gemäß einer zweiten Ausgestaltung der vorliegenden Erfindung wird eine Vorrichtung zum Erzeugen eines virtuellen Raums bereitgestellt, mit: einer Eingabeeinrichtung, die zum Eingeben von dreidimensionale geometrische Daten zum Zusammensetzen eines dreidimensionalen Objekts einschließlich einer Vielzahl von Primitiven darstellenden Daten ausgelegt ist; einer Eingabeeinrichtung, die zum Eingeben von tatsächlich aufgenommenen Bildern des dreidimensionalen Objekts ausgelegt ist; einer Einrichtung zum Veranlassen, dass ein Bild des dreidimensionalen Objekts unter Verwendung der dreidimensionalen geometrischen Daten angezeigt wird; einer Einrichtung zum Bezeichnen einer Abbildung von Merkmalspunkten in den Bildern auf entsprechende Punkte der dreidimensionalen geometrischen Daten im Ansprechen auf Anweisungen einer Bedienungsperson; einer Einrichtung zum Modifizieren der geometrischen Daten durch ein Variieren und Anordnen der Vielzahl von Primitiven und ein Abbilden von ein oder mehrere aus den eingegebenen Bildern des dreidimensionalen Objekts erzeugte Oberflächenmuster darstellenden Texturdaten durch die Bezeichnungseinrichtung im Ansprechen auf Anweisungen einer Bedienungsperson, um Daten des virtuellen Raums eines gewünschten Objekts einschließlich dreidimensionaler geometrischer Daten und Bildabbildungsdaten zu erzeugen; und einer Einrichtung zum Veranlassen, dass ein Bild des gewünschten Objekts angezeigt wird, im Ansprechen auf eine weitere Anweisung der Bedienungsperson.
  • Nachstehend werden Ausführungsbeispiele der vorliegenden Erfindung unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, in denen:
  • 1 ein Blockschaltbild zeigt, das den Aufbau einer Vorrichtung zum Erleben einer virtuellen Architektur (virtual architecture experience apparatus) gemäß dem ersten Ausführungsbeispiel der vorliegenden Erfindung darstellt;
  • 2 ein Flussdiagramm zeigt, das die Verarbeitung zur Erzeugung eines virtuellen Raums der Vorrichtung zum Erleben einer virtuellen Architektur des ersten Ausführungsbeispiels darstellt;
  • 3 ein Flussdiagramm zeigt, das die Verarbeitung zur Erzeugung von dreidimensionalen (3D) Informationen der Vorrichtung zum Erleben einer virtuellen Architektur des ersten Ausführungsbeispiels darstellt;
  • 4 ein Flussdiagramm zeigt, das das Format von Daten des virtuellen Raums der Vorrichtung zum Erleben einer virtuellen Architektur des ersten Ausführungsbeispiels darstellt;
  • 5 ein Beispiel für die Bildschirmanzeige der Verarbeitung zur Erzeugung von 3D-Informationen der Vorrichtung zum Erleben einer virtuellen Architektur des ersten Ausführungsbeispiels veranschaulicht;
  • 6 ein Beispiel für die Bildschirmanzeige der Verarbeitung zur Erzeugung von 3D-Informationen der Vorrichtung zum Erleben einer virtuellen Architektur des ersten Ausführungsbeispiels veranschaulicht;
  • 7 ein Beispiel für die Bildschirmanzeige der Verarbeitung zur Erzeugung von 3D-Informationen der Vorrichtung zum Erleben einer virtuellen Architektur des ersten Ausführungsbeispiels veranschaulicht;
  • 8 ein Beispiel für die Bildschirmanzeige der Verarbeitung zur Erzeugung von 3D-Informationen der Vorrichtung zum Erleben einer virtuellen Architektur des ersten Ausführungsbeispiels veranschaulicht;
  • 9 ein Flussdiagramm zeigt, das die Verarbeitung zum Erleben eines virtuellen Raums der Vorrichtung zum Erleben einer virtuellen Architektur des ersten Ausführungsbeispiels darstellt;
  • 10 ein Blockschaltbild zeigt, das den Aufbau einer Vorrichtung zum Erleben einer virtuellen Architektur gemäß dem zweiten Ausführungsbeispiel der vorliegenden Erfindung darstellt; und
  • 11 ein Blockschaltbild zeigt, das den Aufbau einer Vorrichtung zum Erleben einer virtuellen Architektur gemäß dem dritten Ausführungsbeispiel der vorliegenden Erfindung darstellt.
  • (a) Erstes Ausführungsbeispiel
  • In einer Vorrichtung für virtuelle Architektur des ersten Ausführungsbeispiels werden ein Plan bzw. Grundriss einer vorhandenen Architektur, ein Bild bzw. eine Aufnahme des Inneren der Architektur und eine auf der Terrasse aufgenommene Panoramaaufnahme der Landschaft vorbereitet. Die Panoramaaufnahme wird durch eine Bildverarbeitung zum Erfassen eines breiteren Öffnungswinkels als dem durch eine Photovorrichtung bestimmten erhalten und kann durch eine zum Beispiel in der (am 14.08.1996 veröffentlichten) EP 0726543 von der gegenwärtigen Anmelderin beschriebene Technik erzeugt werden. Der Grundriss der Architektur wird daraufhin als ein Bild in die Vorrichtung eingegeben. Ein Benutzer verfolgt zum Beispiel Wände in dem eingegebenen Bild unter Verwendung einer Maus oder eines Tabletts zum Zuweisen von Informationen über die Größen, Höhen, Formen und dergleichen zu ihnen, wodurch dreidimensionale (3D) geometrische Daten der Architektur erzeugt werden. Falls der Grundriss der Architektur nicht verfügbar ist, können durch ein anderes 3D-Modellierungssoftwareprogramm erzeugte geometrische 3D-Daten verwendet werden. Die geometrischen 3D-Daten der Architektur werden in einem zylinderförmigen Raum, der die umliegende Landschaft darstellt, angeordnet. Daraufhin werden das tatsächlich aufgenommene Bild des Inneren der Architektur und das Panoramabild der Landschaft in die Vorrichtung eingegeben. Die eingegebenen Bilder werden nötigenfalls durch ein getrennt vorbereitetes Bildbearbeitungsprogramm (zum Beispiel das von Adobe Systems Inc. erhältliche PhotoShop) einer Wandlung von Farben und Abtönung, einer Korrektur einer geometrischen Verzerrung und dergleichen unterzogen. Eine Abbildung von Merkmalspunkten in den Bildern auf die entsprechenden Scheitelpunkte von geometrischen 3D-Daten wird interaktiv bezeichnet. Bei dieser Abbildungstechnik kann zum Beispiel eine Technik zum Zuordnen der Positionen von auf einem Polygonbild bezeichneten Punkten zu den Positionen von auf einem ursprünglichen Texturbild mit erforderlichen Texturbildern bezeichneten Punkten verwendet werden ( EP 0766206 (am 02.04.1997 veröffentlicht)). Mit dieser Abbildung können die Übereinstimmungen zwischen den Scheitelpunkten in den geometrischen 3D-Daten und den Positionen in jedem Bild bezeichnet werden. Die erzeugten geometrischen 3D-Daten und Bildabbildungsdaten werden als Daten des virtuellen Raums gespeichert.
  • Demgegenüber werden bei einem Erleben des virtuellen Raums die gespeicherten Daten des virtuellen Raums geladen, und ein Abbild des 3D-Raums wird unter Verwendung einer Computergraphiktechnik auf einer Graphikworkstation (zum Beispiel IRIS Crimson mit Reality Engine; von Silicon Graphics Inc. (SGI) erhältlich) dargestellt. Zu dieser Zeit werden zusätzlich zu einer Projektion von geometrischen 3D-Daten auf das Abbild als die Bildabbildungsdaten bezeichnete Bilder als Texturen auf die geometrischen 3D-Daten abgebildet (texturemapped), wodurch das Abbild mit hoher Realität dargestellt wird. Ferner wird ein Bild für eine 3D-Sicht dargestellt, und ein Abbild, das sich im Ansprechen auf interaktive Operationen zum Bewegen des Standpunkts/der Blickrichtung, von Möbeln und dergleichen oder Ändern von zur Texturabbildung verwendeten Bildern durch eine Bedienungsperson in Echtzeit ändert, wird dargestellt, so dass ein virtuelles Erlebnis mit Realität bereitgestellt wird.
  • 1 zeigt ein Blockschaltbild, das den grundlegenden Aufbau der Vorrichtung zum Erleben einer virtuellen Architektur gemäß dem ersten Ausführungsbeispiel der vorliegenden Erfindung darstellt. In 1 speichert ein ROM 101 ein Programm der Verarbeitungsprozedur. Ein RAM 102 speichert zur Verarbeitung erforderliche Informationen und eingegebene/ausgegebene Daten. Eine CPU 103 führt eine Verarbeitung gemäß dem gespeicherten Programm aus. Eine CRT (Kathodenstrahlröhre) 104 zeigt zur Verarbeitung erforderliche Informationen und ein 3D-Bild an. Eine 3D-Sichtbrille (3D vision spectacles) 105 weist eine Blickrichtungsdetektionsfunktion des Detektierens der 3D-Position des Standpunkts eines Beobachters mit Bezug auf die CRT 104 und der Richtung der Blickrichtung auf. Eine Tastatur 106 wird durch einen Benutzer zum Eingeben von Daten und Anweisungen verwendet. Eine Maus 107 wird durch den Benutzer zum Eingeben von Anweisungen auf der CRT 104 verwendet. Bilddaten werden über eine Eingabe-/Ausgabeschnittstelle (E/A-Schnittstelle) 108 von einer Bildabtasteinrichtung 109 abgerufen. Eine Diskette (FD) als ein Speicherträger ist in ein Diskettenlaufwerk (FDD) 110 eingelegt. Es ist zu beachten, dass ein Laufwerk für einen anderen Speicherträger wie beispielsweise eine Festplatte, ein Magnetband oder dergleichen anstelle des FDD 110 verwendet werden kann. Durch eine externe Vorrichtung oder ein anderes Anwendungsprogramm erzeugte Daten (geometrische 3D-Daten, Bilddaten und Daten des virtuellen Raums) können über diese Speicherträger abgerufen werden.
  • Bei dem ersten Ausführungsbeispiel weist die Verarbeitungsprozedur eine Verarbeitung zur Erzeugung eines virtuellen Raums zum interaktiven Erzeugen von Daten des virtuellen Raums einer Architektur auf einem Computer und eine Verarbeitung zum Erleben eines virtuellen Raums zum Ermöglichen eines interaktiven Erlebens des virtuellen Raums für eine Bedienungsperson auf dem Computer unter Verwendung der Computergraphiktechnik mit Bezug auf die in der Erzeugungsverarbeitung erzeugten Daten des virtuellen Raums auf, und das diese Verarbeitungsprozedur beschreibende Programm ist in dem ROM 101 gespeichert.
  • 2 zeigt den Ablauf der Verarbeitung zur Erzeugung eines virtuellen Raums bei dem ersten Ausführungsbeispiel. In 2 geben die Pfeile den Ablauf der Verarbeitung an. Bei dem ersten Ausführungsbeispiel wird unter Verwendung der Bildabtasteinrichtung 109 ein Grundriss einer Architektur als ein Bild in dem RAM 102 gespeichert (Schritt S210). Ferner werden unter Verwendung der Bildabtasteinrichtung 109 eine Aufnahme des Inneren der Architektur und ein Panoramabild der äußeren Landschaft als Bilder in dem RAM 102 gespeichert (Schritt S220). In einem Schritt S230 werden durch interaktive Operationen mit dem Benutzer auf der Grundlage des in dem RAM 102 gespeicherten Bilds des Grundrisses der Architektur geometrische 3D-Daten der Architektur erzeugt. Die Verarbeitung zur Erzeugung von 3D-Informationen wird nachstehend unter Bezugnahme auf 3 beschrieben. In einem Schritt S240 werden durch ein anderes Modellierungssoftwareprogramm erzeugte geometrische Daten von Möbelobjekten und dergleichen von einer FD über das FDD 110 in das RAM 102 abgerufen, und diese Objekte werden in den in dem Schritt S230 erzeugten geometrischen 3D-Daten angeordnet. In einem Schritt S250 wird den jeweiligen Objekten in den in den bisher ausgeführten Schritten erzeugten geometrischen 3D-Daten eine Eigenschaft zugewiesen, die angibt, ob ein Objekt beweglich ist oder nicht. In einem Schritt S260 werden die in den bisher ausgeführten Schritten erzeugten geometrischen 3D-Daten in die Form der Landschaft darstellenden geometrischen 3D-Daten angeordnet. In einem Schritt S270 bezeichnet der Benutzer interaktiv die Übereinstimmungen zwischen Merkmalspunkten des tatsächlich aufgenommenen Bilds des Inneren der Architektur und des Panoramabilds der Landschaft und den Scheitelpunkten in den geometrischen 3D-Daten. Bei dieser Bildabbildungsverarbeitung kann unter Verwendung der Technik zum Zuordnen der Positionen von auf einem Polygonbild bezeichneten Punkten zu den Positionen von auf einem ursprünglichen Texturbild mit erforderlichen Texturbildern bezeichneten Punkten ( EP 0766206 (am 02.04.1997 veröffentlicht)) eine Vielzahl von Bildern auf ein einzelnes Grundelement bzw. Primitiv abgebildet werden. Die geometrischen 3D-Daten und Bildabbildungsdaten werden in dem in 4 gezeigten Format als Daten des virtuellen Raums in dem RAM 102 gespeichert (Schritt S280). Bei dem Abschluss des Schritts S280 endet die Verarbeitung zur Erzeugung eines virtuellen Raums.
  • In den in 4 gezeigten Daten wird ein "Objekt" (zum Beispiel ein "Wohn-Esszimmer" oder dergleichen), das eine Funktion realisiert, durch einige "Primitive" (zum Beispiel einen Abschnitt wie beispielsweise eine durch eine Textur und eine Oberflächeneigenschaft definierte "Ostwand") definiert. Jedes Primitiv wird durch zumindest eine Ebene definiert, und jede Ebene wird durch einen dreieckigen oder rechteckigen Fleck (patch) definiert. Für jeden Fleck beschreiben die geometrischen 3D-Daten 3D-Daten von Scheitelpunkten, die den Fleck definieren, und die Verbindungsbeziehung der Scheitelpunkte. Für ein in der Verarbeitung zur Erzeugung von 3D-Informationen in dem Schritt S230 als ein bewegliches Objekt bezeichnetes Objekt beschreiben die geometrischen 3D-Daten klar einen Zustandsmerker, der angibt, dass es beweglich ist, und die Bedingungen für eine Bewegung. Die Bildabbildungsdaten beschreiben die Namen von Primitiven entsprechenden Bildern und die Übereinstimmungen zwischen den Scheitelpunkten in jedem Primitiv in den geometrischen 3D-Daten und den Positionen auf dem entsprechenden Bild.
  • Die Verarbeitung zur Erzeugung von 3D-Informationen in dem Schritt S230 wird nachstehend unter Bezugnahme auf 3 beschrieben. Bei der Verarbeitung zur Erzeugung von 3D-Informationen wird ein in dem RAM 102 gespeichertes Grundrissbild des Architekturobjekts auf der CRT 104 angezeigt (Schritt S310). Der Benutzer gibt daraufhin den Namen des angezeigten Grundrissobjekts ein (Schritt S320) und bezeichnet den verkleinerten Maßstab einer tatsächlichen Größe unter Verwendung der Tastatur 106 (S330). Mit dieser Operation kann die Übereinstimmung zwischen der Länge eines Segments auf dem Bild und der tatsächlichen Größe erhalten werden. 5 zeigt diesen Zustand. Danach erzeugte geometrische 3D-Daten (Primitive und Flecken) gehören zu diesem Objekt. Der Benutzer gibt den Namen des zu verfolgenden Primitivs unter Verwendung der Tastatur 106 ein (Schritt S341). Daraufhin bezeichnet der Benutzer unter Verwendung der Maus 107 den Scheitelpunkten des Primitivs entsprechende Punkte auf dem Bild, wodurch das auf dem Grundriss erscheinende Primitiv verfolgt wird (Schritt S342). 6 zeigt diesen Zustand. Wie in 7 gezeigt werden Eigenschaften bezüglich der Typen (eine normale Wand, eine Wand mit einer Öffnung für eine Tür und dergleichen) von Wänden für alle Segmente, die die Scheitelpunkte verbinden, eingestellt (Schritt S343). Der Schritt S343 wird wiederholt, bis Eigenschaften für alle die Segmente eingestellt sind (Schritt S344), und die Schritt S341 bis S344 werden wiederholt, bis alle die Primitive verfolgt sind (Schritt S345).
  • Da Primitive unter Verwendung der Segmente auf dem Grundriss bezeichnet werden, werden in den Schritten S341 bis S345 nur die Formen von zu dem Grundriss senkrechten Wänden erzeugt. Anschließend werden dann wieder Boden- und Deckenprimitive parallel zu dem Grundriss erzeugt. Die Namen der zu erzeugenden Boden- und Deckenprimitive werden bezeichnet (Schritt S351). Die auf dem Grundriss erscheinenden vier Ecken des Bodens oder der Decke werden unter Verwendung der Maus 107 auf dem auf der CRT 104 angezeigten Grundriss bezeichnet (Schritt S352). Schließlich werden die Höhen des Bodens und der Decke eingegeben (Schritt S353). 8 zeigt diesen Zustand. Die Schritte S351 bis S353 werden wiederholt, bis alle die Boden- und Deckenbereiche bezeichnet sind (Schritt S354), und Flecken, die geometrische 3D-Daten definieren, werden auf der Grundlage dieser Stücke von Informationen erzeugt (Schritt S360). Diese Verarbeitungsoperationen werden für alle die in der Architektur enthaltenen Objekte wiederholt (Schritt S370). Die Objekte werden interaktiv angeordnet (Schritt S380), um 3D-Daten aller der Objekte durch ein einzelnes Koordinatensystem auszudrücken. Die erzeugten 3D-Informationen werden in dem in 4 gezeigten Format in dem RAM 102 gespeichert (Schritt S390).
  • Demgegenüber zeigt 9 den Ablauf der Verarbeitung zum Erleben eines virtuellen Raums bei dem ersten Ausführungsbeispiel. Wie bei dem Ablauf der Verarbeitung eines normalen Systems zum virtuellen Erleben werden Daten des virtuellen Raums in Übereinstimmung mit Änderungen der Standpunktposition und der Richtung der Blickrichtung gezeichnet, und zu der gleichen Zeit werden die Daten des virtuellen Raums in Übereinstimmung mit einem Ereignis von dem Benutzer geändert und neu gezeichnet. Bei dem ersten Ausführungsbeispiel werden die Standpunktposition und die Richtung, die bei einem Erzeugen eines Abbilds verwendet werden, derart eingestellt, dass sie vorbestimmte Werte sind (Schritt S610). Falls eine Vielzahl von auf die Primitive in den in dem RAM 102 gespeicherten Daten des virtuellen Raums abgebildeten Bildern vorhanden ist, wird ein als erste Daten registriertes Bild als das abzubildende Objekt ausgewählt. Das von der eingestellten Standpunktposition und Richtung zu beobachtende Abbild der Architektur wird unter Verwendung der Computergraphikfunktion der Graphikworkstation auf der Grundlage der in dem RAM 102 gespeicherten Daten des virtuellen Raums erzeugt, und das erzeugte Abbild wird auf der CRT 104 angezeigt (Schritt S620). Es wird daraufhin basierend auf der von der 3D-Sichtbrille 105 erhaltenen Position und Richtung des Kopfs des Benutzers mit Bezug auf die CRT 104, eingegebenen Informationen von der Tastatur 106 und Informationen von der Maus 107 überprüft, ob die Standpunktposition und Richtung sich geändert haben (Schritt S630). Falls in dem Schritt S630 JA zutrifft, werden die Standpunktposition und Richtung neu berechnet (S660), um ein Abbild neu zu erzeugen (Schritt S620). Falls demgegenüber in dem Schritt S630 NEIN zutrifft, rückt der Ablauf zu einem Schritt S640 vor.
  • Wenn bei der Bildabbildungsverarbeitung in dem Schritt S240 eine Vielzahl von abzubildenden Bildern für ein Primitiv der geometrischen 3D-Daten bezeichnet wird, wird es in dem Schritt S640 überprüft, ob der Benutzer durch ein Richten seiner oder ihrer Blickrichtung auf das Primitiv von Interesse auf dem Abbild unter Verwendung der Blickrichtungseingabevorrichtung der 3D-Sichtbrille 105 oder durch ein Bezeichnen des Primitivs von Interesse auf dem Abbild unter Verwendung der Maus 107 ein bei der Texturabbildung zu verwendendes Bild geändert hat. Falls in dem Schritt S640 JA zutrifft, wird das Abbildungsbild zu einem registrierten beliebigen Bild gewechselt (Schritt 670), und ein Abbild wird wieder erzeugt (Schritt S620). Falls demgegenüber in dem Schritt S640 NEIN zutrifft, rückt der Ablauf zu einem Schritt S650 vor. Wenn bei der Verarbeitung zur Erzeugung von 3D-Informationen in dem Schritt S230 ein gegebenes Objekt in den geometrischen 3D-Daten als ein bewegliches Objekt bezeichnet wird, wird es in dem Schritt S650 überprüft, ob der Benutzer das Objekt von Interesse durch ein Richten seiner oder ihrer Blickrichtung auf das Objekt von Interesse auf dem Abbild unter Verwendung der Blickrichtungseingabevorrichtung der 3D-Sichtbrille 105 oder durch ein Bezeichnen des Objekts von Interesse auf dem Abbild unter Verwendung der Maus 107 und daraufhin ein Bezeichnen des Bewegungsausmaßes unter Verwendung der Maus 107 oder der Tastatur 106 bewegt hat. Falls in dem Schritt S650 JA zutrifft, wird die neue Objektanordnung berechnet (Schritt S680), und ein Abbild wird wieder erzeugt (Schritt S620). Durch ein Wiederholen derartiger Verarbeitungsoperationen kann der Benutzer das von einer beliebigen Position beobachtete Abbild sehen und kann es sehen, während Texturen in Übereinstimmung mit Anweisungen von dem Benutzer gewechselt werden.
  • Bei dem ersten Ausführungsbeispiel werden das Bild des Inneren der Architektur und das Panoramabild der äußeren Landschaft in dem Schritt S220 unter Verwendung der Bildabtasteinrichtung 109 abgetastet und in dem RAM 102 gespeichert, und die Übereinstimmungen zwischen den Merkmalspunkten in diesen Bildern und den Scheitelpunkten in den geometrischen 3D-Daten werden in dem Schritt S240 bezeichnet. Zusätzlich zu von der Abtasteinrichtung eingegebenen Bildern kann jedoch eine Bilddatenbank, die häufig verwendete Bilder (zum Beispiel Bilder von allen den Typen von Tapeten in einer Architektur) speichert, im Voraus auf einer in das FDD 110 einzulegenden FD aufgebaut werden, und ein aus den Bildern in der Bilddatenbank ausgewähltes Bild kann verwendet werden. In dieser Art und Weise kann die Prozedur des Eingebens einer Aufnahme beseitigt werden.
  • Bei dem ersten Ausführungsbeispiel kann in dem Schritt S210 ein Bild von einer externen Vorrichtung oder einem anderen Anwendungsprogramm über das FDD 110 eingegeben werden, statt ein Bild unter Verwendung der Bildabtasteinrichtung 109 zu lesen.
  • Bei dem ersten Ausführungsbeispiel kann in dem Schritt S220 ein Bild von einer externen Vorrichtung oder einem anderen Anwendungsprogramm über das FDD 110 eingegeben werden, statt ein Bild unter Verwendung der Bildabtasteinrichtung 109 zu lesen.
  • Bei dem ersten Ausführungsbeispiel können in dem Schritt S230 geometrische 3D-Daten von einer externen Vorrichtung oder einem anderen Anwendungsprogramm über das FDD 110 eingegeben werden, statt geometrische 3D-Daten zu erzeugen.
  • Bei dem ersten Ausführungsbeispiel ist wie in 4 gezeigt ein Objekt in eine Vielzahl von Primitiven (jedes Primitiv ist durch eine Vielzahl von Flecken definiert) aufgeteilt, und Texturen werden in Einheiten von Primitiven abgebildet. Alternativ kann das Konzept der Primitive aufgegeben werden, und Texturen können in Einheiten von Flecken abgebildet werden.
  • Bei dem ersten Ausführungsbeispiel wird wie in 3 gezeigt eine Modellierung von oben nach unten ausgeführt, indem ein Objekt in eine Vielzahl von Primitiven (jedes Primitiv ist durch eine Vielzahl von Flecken definiert) aufgeteilt wird und jedes Primitiv in Flecken aufgeteilt wird. Alternativ kann eine Modellierung von unten nach oben ausgeführt werden. Das heißt, es kann zuerst ein Fleck definiert werden, und eine Vielzahl von Flecken kann als eine Gruppe zum folgenden Definieren eines Primitivs bezeichnet werden, wodurch alle Primitive bezeichnet werden. Anschließend kann eine Vielzahl von Primitiven als eine Gruppe zum folgenden Definieren eines Objekts bezeichnet werden, wodurch alle Objekte definiert werden.
  • (b) Zweites Ausführungsbeispiel
  • 10 zeigt den grundlegenden Aufbau einer Vorrichtung zum Erleben einer virtuellen Architektur gemäß dem zweiten Ausführungsbeispiel der vorliegenden Erfindung. Mit Bezug auf 10 führt ein System 710 eine Verarbeitung zur Erzeugung eines virtuellen Raums durch, und ein System 720 führt eine Verarbeitung zum Erleben eines virtuellen Raums durch. In dem System zur Erzeugung eines virtuellen Raums 710 speichert ein ROM 711 ein die Prozedur der Verarbeitung zur Erzeugung eines virtuellen Raums schreibendes Programm. Ein RAM 712 speichert für die Verarbeitung erforderliche Informationen und eingegebene/ausgegebene Daten. Eine CPU 713 führt eine Verarbeitung gemäß dem in dem ROM 711 gespeicherten Programm aus. Eine CRT 714 zeigt für die Verarbeitung erforderliche Informationen und ein Bild an. Eine Tastatur 715 wird durch einen Benutzer zum Eingeben von Daten und Anweisungen verwendet. Eine Maus 716 wird ebenfalls durch den Benutzer zum Eingeben von Anweisungen auf der CRT 714 verwendet. Über eine E/A-Schnittstelle 717 werden Bilddaten von einer Bildabtasteinrichtung 718 abgerufen. Eine Netzschnittstelle 719 ist über ein Netz 730 wie beispielsweise Ethernet, ISDN, ATM oder dergleichen mit dem System zum Erleben eines virtuellen Raums 720 verbunden. In dem System zum Erleben eines virtuellen Raums 720 speichert ein ROM 721 ein die Prozedur der Verarbeitung zum Erleben eines virtuellen Raums schreibendes Programm. Ein RAM 722 speichert für die Verarbeitung erforderliche Informationen und eingegebene/ausgegebene Daten. Eine CPU 723 führt eine Verarbeitung gemäß dem in dem ROM 721 gespeicherten Programm aus. Eine CRT 724 zeigt für die Verarbeitung erforderliche Informationen und ein 3D-Bild an. Eine Tastatur 725 wird durch einen Benutzer zum Eingeben von Daten und Anweisungen verwendet. Eine Maus 726 wird ebenfalls durch den Benutzer zum Eingeben von Anweisungen auf der CRT 724 verwendet. Eine 3D-Sichtbrille 727 weist eine Blickrichtungseingabefunktion des Detektierens der 3D-Position und der Richtung der Blickrichtung des Standpunkts des Beobachters mit Bezug auf die CRT 724 auf. Eine Netzschnittstelle 728 ist über ein Netz wie beispielsweise Ethernet, ISDN, ATM oder dergleichen mit dem System zur Erzeugung eines virtuellen Raums 710 verbunden.
  • Die Verarbeitungsprozeduren sind die gleichen wie die bei dem ersten Ausführungsbeispiel. Bei dem ersten Ausführungsbeispiel werden jedoch durch die Verarbeitung zur Erzeugung eines virtuellen Raums erzeugte Daten des virtuellen Raums in dem RAM 102 gespeichert und werden durch die Verarbeitung zum Erleben eines virtuellen Raums mit genutzt. Bei dem zweiten Ausführungsbeispiel werden durch die Verarbeitung zur Erzeugung eins virtuellen Raums erzeugte Daten des virtuellen Raums in dem RAM 712 in dem System zur Erzeugung eines virtuellen Raums 710 gespeichert. Die Daten des virtuellen Raums werden vor der Verarbeitung zum Erleben eines virtuellen Raums über die Netzschnittstelle 719, das Netz 730 wie beispielsweise Ethernet, ISDN, ATM oder dergleichen und die Netzschnittstelle 728 zu dem RAM 722 in dem System zum Erleben eines virtuellen Raums 720 übertragen. Danach ermöglicht es die Verarbeitung zum Erleben eines virtuellen Raums der Bedienungsperson, den virtuellen Raum unter Verwendung der in dem RAM 722 in dem System zum Erleben eines virtuellen Raums 720 gespeicherten Daten des virtuellen Raums zu erleben.
  • Mit diesem System kann eine von einer der Verarbeitung zur Erzeugung eines virtuellen Raums zugeteilten Bedienungsperson A entfernte Bedienungsperson B mit lediglich dem Overhead der zum Übertragen von Daten des virtuellen Raums über das Netz erforderlichen Zeit die gleiche virtuelle Architektur wie bei dem ersten Ausführungsbeispiel erleben.
  • (c) Drittes Ausführungsbeispiel
  • 11 zeigt den grundlegenden Aufbau einer Vorrichtung zum Erleben einer virtuellen Architektur gemäß dem dritten Ausführungsbeispiel der vorliegenden Erfindung. Mit Bezug auf 11 führt ein System 810 eine Verarbeitung zur Erzeugung eines virtuellen Raums durch, und ein System 820 führt eine Verarbeitung zum Erleben eines virtuellen Raums durch. In dem System zur Erzeugung eines virtuellen Raums 810 speichert ein ROM 811 ein die Prozedur der Verarbeitung zur Erzeugung eines virtuellen Raums schreibendes Programm. Ein RAM 812 speichert für die Verarbeitung erforderliche Informationen und eingegebene/ausgegebene Daten. Eine CPU 813 führt eine Verarbeitung gemäß dem in dem ROM 811 gespeicherten Programm aus. Eine CRT 814 zeigt für die Verarbeitung erforderliche Informationen und ein Bild an. Eine Tastatur 815 wird durch einen Benutzer zum Eingeben von Daten und Anweisungen verwendet. Eine Maus 816 wird ebenfalls durch den Benutzer zum Eingeben von Anweisungen auf der CRT 814 verwendet. Über eine E/A-Schnittstelle 817 werden Bilddaten von einer Bildabtasteinrichtung 818 abgerufen. Ein FDD 819 ist ein Diskettenlaufwerk. In dem System zum Erleben eines virtuellen Raums 820 speichert ein ROM 821 ein die Prozedur der Verarbeitung zum Erleben eines virtuellen Raums schreibendes Programm. Ein RAM 822 speichert für die Verarbeitung erforderliche Informationen und eingegebene/ausgegebene Daten. Eine CPU 823 führt eine Verarbeitung gemäß dem in dem ROM 821 gespeicherten Programm aus. Eine CRT 824 zeigt für die Verarbeitung erforderliche Informationen und ein 3D-Bild an. Eine Tastatur 825 wird durch einen Benutzer zum Eingeben von Daten und Anweisungen verwendet. Eine Maus 826 wird ebenfalls durch den Benutzer zum Eingeben von Anweisungen auf der CRT 824 verwendet. Eine 3D-Sichtbrille 827 weist eine Blickrichtungseingabefunktion des Detektierens der 3D-Position und der Richtung der Blickrichtung des Standpunkts des Beobachters mit Bezug auf die CRT 824 auf. Ein FDD 828 ist wie bei dem FDD 819 ein Diskettenlaufwerk. Eine FD 830 ist eine Diskette, die über das FDD 819 in dem System zur Erzeugung eines virtuellen Raums 810 oder das FDD 828 in dem System zum Erleben eines virtuellen Raums 820 Daten speichert.
  • Die Verarbeitungsprozeduren sind die gleichen wie die bei dem ersten Ausführungsbeispiel. Bei dem ersten Ausführungsbeispiel werden jedoch durch die Verarbeitung zur Erzeugung eines virtuellen Raums erzeugte Daten des virtuellen Raums in dem RAM 102 gespeichert und werden durch die Verarbeitung zum Erleben eines virtuellen Raums mit genutzt. Bei dem dritten Ausführungsbeispiel werden durch die Verarbeitung zur Erzeugung eines virtuellen Raums erzeugte Daten des virtuellen Raums in dem RAM 812 in dem System zur Erzeugung eines virtuellen Raums 810 gespeichert. Vor der Verarbeitung zum Erleben eines virtuellen Raums werden die Daten des virtuellen Raums über das FDD 819 auf der FD 830 gespeichert. Der Benutzer bringt die FD 830 zu dem Ort des Systems zum Erleben eines virtuellen Raums 820 und speichert die auf der FD 830 gespeicherten Daten des virtuellen Raums über das FDD 828 in dem RAM 822 in dem System zum Erleben eines virtuellen Raums 820. Danach ermöglicht es die Verarbeitung zum Erleben eines virtuellen Raums der Bedienungsperson, den virtuellen Raum unter Verwendung der in dem RAM 822 in dem System zum Erleben eines virtuellen Raums 820 gespeicherten Daten des virtuellen Raums zu erleben.
  • Mit diesem System kann eine von einer der Verarbeitung zur Erzeugung eines virtuellen Raums zugeteilten Bedienungsperson A entfernte Bedienungsperson B die gleiche virtuelle Architektur wie bei dem ersten Ausführungsbeispiel erleben.
  • Wie vorstehend beschrieben kann der Benutzer leicht einen virtuellen Raum einer vorhandenen Architektur erzeugen und kann den erzeugten virtuellen Raum der Architektur virtuell erleben, als ob er oder sie ein tatsächliches Objekt beobachten würde.

Claims (24)

  1. Verfahren zum Erzeugen eines virtuellen Raums, mit: einem Eingabeschritt des Eingebens von dreidimensionale geometrische Daten zum Zusammensetzen eines dreidimensionalen Objekts einschließlich einer Vielzahl von Primitiven darstellenden Daten (S210); einem Eingabeschritt des Eingebens von tatsächlich aufgenommenen Bildern des dreidimensionalen Objekts (S220); einem Anzeigeschritt des Veranlassens, dass ein Bild des dreidimensionalen Objekts unter Verwendung der dreidimensionalen geometrischen Daten angezeigt wird; einem interaktiven Bezeichnungsschritt des Bezeichnens einer Abbildung von Merkmalspunkten in den Bildern auf entsprechende Punkte der dreidimensionalen geometrischen Daten im Ansprechen auf Anweisungen einer Bedienungsperson; einem Modifikationsschritt des Modifizierens der geometrischen Daten (S230, S310 bis S354) durch ein Variieren und Anordnen der Vielzahl von Primitiven und ein Abbilden von ein oder mehrere aus den eingegebenen Bildern des dreidimensionalen Objekts erzeugte Oberflächenmuster darstellenden Texturdaten gemäß dem Bezeichnungsschritt im Ansprechen auf Anweisungen einer Bedienungsperson, um Daten des virtuellen Raums eines gewünschten Objekts einschließlich dreidimensionaler geometrischer Daten und Bildabbildungsdaten zu erzeugen; und einem weiteren Anzeigeschritt des Veranlassens, dass ein Bild des gewünschten Objekts angezeigt wird, im Ansprechen auf eine weitere Anweisung der Bedienungsperson (S310).
  2. Verfahren nach Anspruch 1, mit dem Schritt des Erzeugens von dreidimensionalen geometrischen Daten auf der Grundlage eines Plans des Objekts und von Höheninformationen einschließlich der Höhe einer Decke (S360).
  3. Verfahren nach Anspruch 1, mit dem Schritt des Anordnens der dreidimensionalen geometrischen Daten der Architektur an einem Mittelpunkt eines eine äußere Landschaft des Objekts darstellenden Landschaftsraums (S260).
  4. Verfahren nach Anspruch 1, mit dem Schritt des Lesens und Verwendens von durch ein anderes Anwendungsprogramm erzeugten dreidimensionalen geometrischen Daten des Objekts (S240).
  5. Verfahren nach Anspruch 1, mit dem Schritt des Lesens von durch ein anderes Anwendungsprogramm erzeugten dreidimensionalen geometrischen Daten von inneren Objekten des Objekts und Anordnens der dreidimensionalen geometrischen Daten innerhalb des Objekts (S240).
  6. Verfahren nach Anspruch 1, wobei die tatsächlich aufgenommenen Bilder Aufnahmen eines Inneren des Objekts auf entsprechenden Abschnitten in dreidimensionalen geometrischen Daten sind.
  7. Verfahren nach Anspruch 1, wobei die tatsächlich aufgenommenen Bilder eine Aufnahme eines die äußere Landschaft des Objekts darstellenden Landschaftsraums sind.
  8. Verfahren nach Anspruch 1, mit dem Schritt des Abbildens einer Vielzahl von Texturen auf einen Abschnitt der dreidimensionalen geometrischen Daten.
  9. Verfahren nach Anspruch 1, wobei der weitere Anzeigeschritt den Schritt des Erzeugens eines Abbilds (S620) auf der Grundlage der dreidimensionalen geometrischen Daten und der Bildabbildungsdaten der in dem Schritt der Erzeugung des virtuellen Raums erzeugten Daten des virtuellen Raums und Änderns der angezeigten Inhalte in Übereinstimmung mit einer Bewegung eines Standpunkts und/oder einer Blickrichtung der Bedienungsperson (S660) aufweist.
  10. Verfahren nach Anspruch 1, wobei der weitere Anzeigeschritt den Schritt des Erzeugens eines Abbilds durch ein Wechseln einer Vielzahl von auf einen identischen Abschnitt in den in dem Schritt der Erzeugung des virtuellen Raums erzeugten dreidimensionalen geometrischen Daten abgebildeten Texturen auf der Grundlage einer Anweisung der Bedienungsperson aufweist.
  11. Verfahren nach Anspruch 1, wobei der weitere Anzeigeschritt den Schritt des Erzeugens eines Abbilds durch ein Bewegen von dreidimensionalen geometrischen Daten eines innerhalb der in dem Schritt der Erzeugung des virtuellen Raums erzeugten Architektur angeordneten inneren Objekts im Ansprechen auf eine Anweisung der Bedienungsperson aufweist.
  12. Vorrichtung zum Erzeugen eines virtuellen Raums, mit: einer Eingabeeinrichtung (103, 108, 109, 110), die zum Eingeben von dreidimensionale geometrische Daten zum Zusammensetzen eines dreidimensionalen Objekts einschließlich einer Vielzahl von Primitiven darstellenden Daten ausgelegt ist; einer Eingabeeinrichtung (108, 109), die zum Eingeben von tatsächlich aufgenommenen Bildern des dreidimensionalen Objekts ausgelegt ist; einer Einrichtung zum Veranlassen, dass ein Bild des dreidimensionalen Objekts unter Verwendung der dreidimensionalen geometrischen Daten angezeigt wird; einer Einrichtung zum Bezeichnen einer Abbildung von Merkmalspunkten in den Bildern auf entsprechende Punkte der dreidimensionalen geometrischen Daten im Ansprechen auf Anweisungen einer Bedienungsperson; einer Einrichtung zum Modifizieren der geometrischen Daten (103, 108, 109, 110) durch ein Variieren und Anordnen der Vielzahl von Primitiven und ein Abbilden von ein oder mehrere aus den eingegebenen Bildern des dreidimensionalen Objekts erzeugte Oberflächenmuster darstellenden Texturdaten durch die Bezeichnungseinrichtung im Ansprechen auf Anweisungen einer Bedienungsperson, um Daten des virtuellen Raums eines gewünschten Objekts einschließlich dreidimensionaler geometrischer Daten und Bildabbildungsdaten zu erzeugen; und einer Einrichtung zum Veranlassen, dass ein Bild des gewünschten Objekts angezeigt wird, im Ansprechen auf eine weitere Anweisung der Bedienungsperson.
  13. Vorrichtung nach Anspruch 12, mit einer Einrichtung zum Erzeugen der dreidimensionalen geometrischen Daten auf der Grundlage eines Plans des Objekts und von Höheninformationen einschließlich einer Höhe einer Decke.
  14. Vorrichtung nach Anspruch 12, mit einer Einrichtung zum Anordnen der dreidimensionalen geometrischen Daten der Architektur an einem Mittelpunkt eines eine äußere Landschaft des Objekts darstellenden Landschaftsraums.
  15. Vorrichtung nach Anspruch 12, mit einer Einrichtung zum Lesen und Verwenden von durch ein anderes Anwendungsprogramm erzeugten dreidimensionalen geometrischen Daten des Objekts.
  16. Vorrichtung nach Anspruch 12, mit einer Einrichtung zum Lesen von durch ein anderes Anwendungsprogramm erzeugten dreidimensionalen geometrischen Daten von inneren Objekten der Architektur und Anordnen der dreidimensionalen geometrischen Daten innerhalb des Objekts.
  17. Vorrichtung nach Anspruch 12, wobei die tatsächlich aufgenommenen Bilder tatsächlich aufgenommene Aufnahmen eines Inneren des Objekts sind.
  18. Vorrichtung nach Anspruch 12, wobei die tatsächlich aufgenommenen Bilder eine tatsächlich aufgenommene Aufnahme eines die äußere Landschaft des Objekts darstellenden Landschaftsraums sind.
  19. Vorrichtung nach Anspruch 12, mit einer Einrichtung zum Abbilden einer Vielzahl von Texturen auf einen Abschnitt der dreidimensionalen geometrischen Daten.
  20. Vorrichtung nach Anspruch 12, mit einer Einrichtung zum Erzeugen eines Abbilds auf der Grundlage der dreidimensionalen geometrischen Daten und der modifizierten Daten und Ändern der angezeigten Inhalte in Übereinstimmung mit einer Bewegung eines Standpunkts und/oder einer Blickrichtung der Bedienungsperson.
  21. Vorrichtung nach Anspruch 12, mit einer Einrichtung zum Erzeugen eines Abbilds durch ein Wechseln einer Vielzahl von in den dreidimensionalen geometrischen Daten abgebildeten Texturen auf der Grundlage einer Anweisung der Bedienungsperson.
  22. Vorrichtung nach Anspruch 12, mit einer Einrichtung zum Erzeugen eines Abbilds durch ein Bewegen von dreidimensionalen geometrischen Daten eines innerhalb des gewünschten Objekts angeordneten inneren Objekts auf der Grundlage einer Anweisung der Bedienungsperson.
  23. Computerprogramm zum Veranlassen einer Verarbeitungseinrichtung, derart betreibbar zu werden, dass sie alle die Schritte eines Verfahrens nach einem der Ansprüche 1 bis 11 durchführt.
  24. Speicherträger, der ein Computerprogramm nach Anspruch 23 speichert.
DE69735181T 1996-03-05 1997-03-04 Verfahren und Vorrichtung für virtuelle Architektur Expired - Lifetime DE69735181T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP4724596 1996-03-05
JP4724596A JPH09244522A (ja) 1996-03-05 1996-03-05 仮想建築物体験方法及び装置

Publications (2)

Publication Number Publication Date
DE69735181D1 DE69735181D1 (de) 2006-04-13
DE69735181T2 true DE69735181T2 (de) 2006-10-26

Family

ID=12769862

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69735181T Expired - Lifetime DE69735181T2 (de) 1996-03-05 1997-03-04 Verfahren und Vorrichtung für virtuelle Architektur

Country Status (4)

Country Link
US (1) US6683606B1 (de)
EP (1) EP0794517B1 (de)
JP (1) JPH09244522A (de)
DE (1) DE69735181T2 (de)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2214839C (en) 1995-03-08 2007-07-31 Avril Joy Smith Broadband switching system
GB9707704D0 (en) * 1997-04-16 1997-06-04 British Telecomm Display terminal
US20020154132A1 (en) * 1997-07-30 2002-10-24 Alain M. Dumesny Texture mapping 3d graphic objects
JP4119529B2 (ja) 1998-06-17 2008-07-16 オリンパス株式会社 仮想環境生成方法および装置、並びに仮想環境生成プログラムを記録した記録媒体
GB9927678D0 (en) 1999-11-23 2000-01-19 Canon Kk Image processing apparatus
WO2001039119A2 (en) * 1999-11-23 2001-05-31 Canon Kabushiki Kaisha Image processing apparatus
NL1014386C2 (nl) * 2000-02-15 2001-08-16 Dipro B V Ontwerpinrichting en -werkwijze voor drie dimensionale ruimten.
JP2001297182A (ja) * 2000-04-14 2001-10-26 Matsushita Electric Works Ltd 通信ウエブを利用した住宅向け営業支援システム
GB0013164D0 (en) * 2000-06-01 2000-07-19 Ici Paints Colour visualisation system
US7054794B2 (en) 2000-06-01 2006-05-30 Richard David Brunt Color visualisation system
GB0023681D0 (en) 2000-09-27 2000-11-08 Canon Kk Image processing apparatus
GB2370737B (en) 2000-10-06 2005-03-16 Canon Kk Image processing apparatus
US20060036513A1 (en) * 2001-09-26 2006-02-16 Jerry Whatley System and method for providing property improvements
CA2588964A1 (en) * 2004-11-19 2006-05-26 Edgenet, Inc. Automated method and system for object configuration
US7869981B2 (en) * 2004-11-19 2011-01-11 Edgenet, Inc. Automated method and system for object configuration
WO2007005072A1 (en) * 2005-06-29 2007-01-11 William Parrish Site plan tool
GB2453528B (en) * 2007-09-29 2010-03-03 Articad Ltd Methods and apparatus for creating customisable cad images
JP4226639B1 (ja) * 2007-11-01 2009-02-18 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理方法、ならびに、プログラム
JP2012073667A (ja) * 2010-09-27 2012-04-12 Hiroyuki Miyakami 表示システム
CN104268944A (zh) * 2014-09-09 2015-01-07 北京尔宜居科技有限责任公司 一种装饰瓷砖、大理石铺设方案自动展示方法
JP6727388B1 (ja) * 2019-11-28 2020-07-22 株式会社ドワンゴ 授業システム、視聴端末、情報処理方法およびプログラム
KR102399248B1 (ko) * 2021-10-15 2022-05-19 주식회사 에르사츠 건물 설계도 기반의 디지털 트윈 공간 생성 장치, 방법 및 컴퓨터 판독 가능한 기록 매체

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4645459A (en) 1982-07-30 1987-02-24 Honeywell Inc. Computer generated synthesized imagery
US4970666A (en) 1988-03-30 1990-11-13 Land Development Laboratory, Inc. Computerized video imaging system for creating a realistic depiction of a simulated object in an actual environment
US5467444A (en) 1990-11-07 1995-11-14 Hitachi, Ltd. Method of three-dimensional display of object-oriented figure information and system thereof
WO1992009963A1 (en) 1990-11-30 1992-06-11 Vpl Research, Inc. System for creating a virtual world
US5602564A (en) * 1991-11-14 1997-02-11 Hitachi, Ltd. Graphic data processing system
FR2702291B1 (fr) 1993-03-05 1995-06-02 Guillemin Jean Pierre Procédé de simulation de motifs répétitifs sur une image numérisée, application à la réalisation d'un catalogue vidéo interactif et catalogue résultant.
US5555354A (en) * 1993-03-23 1996-09-10 Silicon Graphics Inc. Method and apparatus for navigation within three-dimensional information landscape
US5590062A (en) 1993-07-02 1996-12-31 Matsushita Electric Industrial Co., Ltd. Simulator for producing various living environments mainly for visual perception

Also Published As

Publication number Publication date
DE69735181D1 (de) 2006-04-13
US6683606B1 (en) 2004-01-27
JPH09244522A (ja) 1997-09-19
EP0794517A2 (de) 1997-09-10
EP0794517A3 (de) 1998-10-21
EP0794517B1 (de) 2006-02-01

Similar Documents

Publication Publication Date Title
DE69735181T2 (de) Verfahren und Vorrichtung für virtuelle Architektur
DE60300788T2 (de) Bild mit Feldtiefe aus Z-Pufferbilddaten und Alphamischung
DE69534751T2 (de) Bilddatenerzeugungsverfahren, Bilddatenverarbeitungsvorrichtung und Aufzeichnungsmedium
US5175806A (en) Method and apparatus for fast surface detail application to an image
DE69632578T2 (de) Computer-grafiksystem zum schaffen und verbessern von texturabbildungssystemen
DE112007002991B4 (de) Computergraphikschattenvolumen unter Verwendung von hierarchischem Okklusions-Culling
DE69333508T2 (de) Vorrichtung und Verfahren zur Verarbeitung von Videosignalen
DE69737780T2 (de) Verfahren und Vorrichtung zur Bildverarbeitung
DE602004008001T2 (de) Bildanzeigeverfahren und Bildanzeigesystem
US5598182A (en) Image synthesis and processing
DE102005035012B4 (de) Hochleistungsschattierung von großen volumetrischen Daten unter Verwendung von partiellen Schirmraumableitungen
EP0137108A1 (de) Rasterabbildungssystem
DE69818888T2 (de) Gerät und Verfahren zur Bildverarbeitung
DE69924699T2 (de) Verfahren zur Schaffung von als Oberflächenelemente dargestellten grafischen Objekten
WO1992021096A1 (en) Image synthesis and processing
DE112005002076T5 (de) Unterteilung von Geometriebildern in Grafikhardware
DE69631718T2 (de) Verfahren und Gerät zur leistungsfähigen Graphikdarstellung dreidimensionaler Szenen
DE19906995A1 (de) Erzeugen von Anpaßdaten für einen virtuellen Szenenaufbau
DE19807053A1 (de) Strahltransformationsverfahren für eine schnelle Volumenaufbereitung für eine perspektivische Betrachtung
DE69732465T2 (de) Bildverarbeitungsgerät und -verfahren
Romney Computer assisted assembly and rendering of solids
EP2528042A1 (de) Verfahren und Vorrichtung zum Re-Meshing von 3D-Polygonmodellen
DE60108564T2 (de) Dreidimensionale Bildverarbeitungseinheit
DE19620263A1 (de) Datensynchronisation zwischen einer Mehrzahl von asynchronen Datenaufbereitungen
DE69831822T2 (de) Verfahren und System zur Bestimmung und/oder Verwendung von Beleuchtungskarten in Herstellung von Bildern

Legal Events

Date Code Title Description
8364 No opposition during term of opposition