JP2018533099A - Data visualization system and method using three-dimensional display - Google Patents

Data visualization system and method using three-dimensional display Download PDF

Info

Publication number
JP2018533099A
JP2018533099A JP2018502734A JP2018502734A JP2018533099A JP 2018533099 A JP2018533099 A JP 2018533099A JP 2018502734 A JP2018502734 A JP 2018502734A JP 2018502734 A JP2018502734 A JP 2018502734A JP 2018533099 A JP2018533099 A JP 2018533099A
Authority
JP
Japan
Prior art keywords
data
visualization
data visualization
objects
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018502734A
Other languages
Japanese (ja)
Inventor
ジー ジョルゴヴスキー スタニスラブ
ジー ジョルゴヴスキー スタニスラブ
ドナレック シロ
ドナレック シロ
ダヴィドフ スコット
ダヴィドフ スコット
エストラダ ヴィセンテ
エストラダ ヴィセンテ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
California Institute of Technology CalTech
Original Assignee
California Institute of Technology CalTech
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by California Institute of Technology CalTech filed Critical California Institute of Technology CalTech
Publication of JP2018533099A publication Critical patent/JP2018533099A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Processing Or Creating Images (AREA)
  • Architecture (AREA)
  • Image Generation (AREA)

Abstract

多次元データ空間の3D可視化像を生成するためのデータ可視化システム及び方法を記載する。1つの好適例では、3Dデータ可視化アプリケーションが:多次元データ点の集合を可視化テーブル内にロードすること;データ点の集合に対応する3Dオブジェクトの集合の表現を作成すること;データ次元を可視化属性にマップするマッピングを受信すること;データ次元を3Dオブジェクトの属性にマップする選択したマッピングに基づいて、3Dオブジェクトの集合の可視化属性を決定すること;データ次元を可視化属性にマップする選択したマッピングに基づいて、複数の3Dオブジェクトの各々について、各3Dオブジェクトの可視性を反映するように、可視化テーブル内の可視化の次元を更新すること;及び受信したユーザ入力に基づいて、定めた視点から見た3Dオブジェクトの3Dデータ可視化像を仮想空間内にレンダリングすることを、処理システムに指示する。A data visualization system and method for generating a 3D visualization of a multidimensional data space is described. In one preferred embodiment, a 3D data visualization application: loads a set of multidimensional data points into a visualization table; creates a representation of a set of 3D objects corresponding to the set of data points; Receiving a mapping that maps to; determining a visualization attribute for a set of 3D objects based on the selected mapping that maps a data dimension to an attribute of the 3D object; to a selected mapping that maps the data dimension to a visualization attribute Based on each of a plurality of 3D objects, update the visualization dimension in the visualization table to reflect the visibility of each 3D object; and from a defined viewpoint based on the received user input Render 3D data visualization image of 3D object in virtual space That graying, instructs the processing system.

Description

連邦政府支援の声明
本発明は、全米科学財団によって授与された認可番号第HCC0917814号の下での政府支援によりなされたものである。米国政府は本発明における特定の権利を有する。本明細書に記載する本発明は、NASA(National Aeronautics and Space Administration:米航空宇宙局)の契約第NNN12AA01C号の下での作業の履行によりなされたものであり、契約者が発明の名称を保有するために選択した公法第96−517号(35 USC 202)の条項の支配下にある。
STATEMENT FEDERALLY SUPPORT STATEMENT This invention was made with government support under grant number HCC0917814 awarded by the National Science Foundation. The US government has certain rights in this invention. The present invention described in the present specification was made by performing work under NASA (National Aeronautics and Space Administration) contract No. NNN12AA01C, and the contractor has the title of the invention. It is under the control of the provisions of Public Law No. 96-517 (35 USC 202) selected to do so.

発明の分野
本発明は、一般に可視化に関するものであり、より具体的には、仮想現実感(VR:virtual reality)ディスプレイ、複合現実感(MR:mixed reality)ディスプレイ、及び拡張現実感(AR:augmented reality)ディスプレイを含む(がそれらに限定されない)三次元表示技術を用いた複合、多次元データの可視化に関するものである。
The present invention relates generally to visualization, and more specifically to virtual reality (VR) displays, mixed reality (MR) displays, and augmented reality (AR). reality) relates to the visualization of complex, multidimensional data using 3D display technology including (but not limited to) displays.

データ可視化は、一般に、データまたは情報を、コンピュータにより表示することができる視覚的オブジェクトに符号化することによって伝達するために利用される技術を参照する。可視化は、あらゆるデータ分析及び/またはデータマイニング(大量データからの知識取り出し)プロセスの不可欠な構成要素である。多数の例では、幾何学的形状のグラフィック(図式的)表現及びデータ分散の技術が、さらなる見識、及び結果の解釈を示す適切な分析ツールの選択を可能にすることができる。「ビッグデータ」の時代には、高次元のデータ集合からすぐに利用可能な知識を抽出することにおける主要な隘路(ボトルネック)は、ユーザが4次元以上のパターンを可視化する能力(がないこと)であることが多い。   Data visualization generally refers to techniques used to communicate data or information by encoding it into a visual object that can be displayed by a computer. Visualization is an essential component of any data analysis and / or data mining process. In many instances, geometrical (graphical) representations of geometry and data distribution techniques can allow for further insight and selection of appropriate analysis tools that show interpretation of the results. In the “big data” era, the main bottleneck in extracting ready-to-use knowledge from high-dimensional data sets is the lack of the ability for users to visualize patterns in four or more dimensions ) In many cases.

コンピュータ・ディスプレイは、一般に情報を二次元(2D:two-dimensions)で表示する。しかし、立体視を含む多数の異なる視覚的効果により深さをシミュレート(模擬)する種々の三次元(3D:three-dimensional)表示技術が出現しつつあり、こうした技術では、異なる視点からレンダリングした画像を左目及び右目に対して別個に表示する。次に、これら2つの画像を脳内で組み合わせて、3Dの深さの知覚を与える。多数のヘッドマウント(頭部装着)型3Dディスプレイ技術が現在利用可能である。Paul Milgram及びFumio Kishinoによる”A Taxonomy of Mixed Reality Visual Displays”と題されIEICE Transactions on Information Systems, Vol. E77-D, No.12,において1994年12月に公表された論文(非特許文献1)(その開示全体を参照することによって本明細書に含める)は、あらゆる特定の表示状況において提示されるオブジェクトのクラスの混合に関係する「仮想連続体」の概念を提案しており、ここでは実環境が連続体の一方の端を構成し、仮想環境が連続体の他方の端を構成する。この論文では、Milgram及びFumio Kishinoは、仮想環境と複合実環境との違いを次のように説明している:
「従来より成り立っている仮想現実感(VR)環境の見解は、参加者−観察者が、完全に合成の世界に完全に没入し、完全に合成の世界と相互作用することができる、というものである。こうした世界は、一部の現実世界の環境の性質を、実在でも架空でも模倣することができる;しかし、こうした世界は、空間、時間、力学、物性、等を通常、支配する物理法則がもはや成り立たない世界を作り出すことによって、物理的実体の限界を超えることもできる。しかし、この見解において見落とされ得るものは、VRのラベルは、完全な没入及び完全な合成に必ずしも関連しないが、仮想連続体に沿ったどこかに収まる他の種々の環境に関連しても頻繁に用いられる、ということである。本論文では、現実世界と仮想世界との融合を含むVR関係技術の特定の部分集合(サブクラス)に焦点を当て、この部分集合を総称的に複合現実感(MR)と称する。」(Milgram Paul and Fumio Kishino, ”A taxonomy of mixed reality visual displays”, IEICE TRANSACTIONS on Information Systems, 77.12 (1994), p.1321)
Computer displays typically display information in two dimensions (2D). However, various three-dimensional (3D) display technologies are emerging that simulate depth through a number of different visual effects, including stereoscopic viewing, where they render from different perspectives. Images are displayed separately for the left and right eyes. These two images are then combined in the brain to give a 3D depth perception. A number of head-mounted 3D display technologies are currently available. Paper titled “A Taxonomy of Mixed Reality Visual Displays” by Paul Milgram and Fumio Kishino published in December 1994 in IEICE Transactions on Information Systems, Vol. E77-D, No.12 (Non-patent Document 1) (Incorporated herein by reference in its entirety) proposes the concept of “virtual continuum” that relates to a mixture of classes of objects presented in any particular display context, The environment constitutes one end of the continuum and the virtual environment constitutes the other end of the continuum. In this paper, Milgram and Fumio Kishino explain the difference between virtual and mixed real environments as follows:
“The traditional view of the virtual reality (VR) environment is that the participant-observer can fully immerse and interact with the fully synthetic world. These worlds can imitate the nature of some real-world environments, both real and fictitious; however, these worlds usually have physical laws that govern space, time, dynamics, physical properties, etc. By creating a world that no longer holds, the limits of physical entities can be exceeded, but what can be overlooked in this view is that VR labels are not necessarily related to complete immersion and complete synthesis, It is often used in relation to various other environments that fall somewhere along the virtual continuum.In this paper, VR functions including the fusion of the real world and the virtual world are used. Focusing on a specific subset (subclass) of technology, this subset is collectively referred to as mixed reality (MR). ”(Milgram Paul and Fumio Kishino,“ A taxonomy of mixed reality visual displays ”, IEICE TRANSACTIONS on Information Systems, 77.12 (1994), p.1321)

複合現実感の領域内で、拡張現実感(AR)と複合現実感(MR)との間にさらなる区別をつけることができる。ARディスプレイ及びMRディスプレイは、共に、透明表示技術を用いて実現することができ、及び/または、シーンの画像を捕捉し、捕捉した画像を用いて現実世界のシーンと仮想的オブジェクトとを組み合わせた表示をレンダリングすることによって実現することができる。ARとは、一般に、状況的に関係する情報を現実世界のシーンに与える仮想的オブジェクトを表示する3D表示技術を記述するために用いられる。ARは、現実世界の物体が、コンピュータで生成された感覚的入力によって拡張または補足された体験を参照すべく用いられることが多い。MRは時として混合現実感と称され、一般に、現実の物体と仮想的オブジェクトとが共存してリアルタイムで相互作用する新たな環境及び可視化像を生成するための、現実世界と仮想世界との融合を含む。   Within the mixed reality area, a further distinction can be made between augmented reality (AR) and mixed reality (MR). Both AR and MR displays can be implemented using transparent display technology and / or capture scene images and use the captured images to combine real world scenes and virtual objects. This can be achieved by rendering the display. AR is commonly used to describe 3D display techniques that display virtual objects that give contextual information to real-world scenes. AR is often used to refer to experiences in which real-world objects are augmented or supplemented by sensory input generated by a computer. MR, sometimes referred to as mixed reality, is generally the fusion of the real and virtual worlds to create new environments and visualizations where real and virtual objects coexist and interact in real time including.

AR、MR、及びVRディスプレイはすべて、部分的にせよ全体的にせよ仮想的な環境にユーザを没入させるという同様な目標を有する。AR及びVRにより、ユーザは、現実世界に触れ続けながら、自分の周りの仮想的オブジェクトと相互作用する。VRによれば、ユーザは現実世界から隔離されつつ、完全に合成である世界に没入する。   AR, MR, and VR displays all have a similar goal of immersing the user in a virtual environment, whether partially or wholly. AR and VR allow users to interact with virtual objects around them while continuing to touch the real world. According to VR, users are immersed in a completely synthetic world while being isolated from the real world.

Paul Milgram and Fumio Kishino, ”A Taxonomy of Mixed Reality Visual Displays”, IEICE Transactions on Information Systems, Vol. E77-D, No.12, 1994年12月Paul Milgram and Fumio Kishino, “A Taxonomy of Mixed Reality Visual Displays”, IEICE Transactions on Information Systems, Vol. E77-D, No. 12, December 1994

人間は優れたパターン認識システムを有し、視覚を通して、他のすべての感覚を組み合わせたものよりも多くの情報を取得することができる。可視化は、抽象的な情報をより容易に理解される視覚的要素にマップ(対応付け)することによって大量のデータを理解する能力を提供する。本発明の種々の実施形態によるシステム及び方法は、観察者がさらに高次元のデータを探索し、データ内の複雑なパターンを観察する能力を増加させる。人間は、周りの世界及びその中のパターンを三次元で見ることについて生物学的に最適化されている。従って、データを3Dディスプレイにより多次元データ(即ち、表示されるデータの次元数が3以上である)の可視化像として提示することは、データ中の意味のある構造(例えば、クラスタ(集団)、相関、外れ値(異常値))の識別を可能にし、こうした構造は、利用可能な知識を含むことができ、より高次元の空間内に存在することが多く、従来の2D表示技術によるデータの可視化によれば容易に観察可能ではない。さらに、没入可能なAR、MR、及びVR環境は、共同作業的なデータの可視化と探索とを必然的にサポートし、仮想空間を共有する同僚と一緒にデータと相互作用する科学者にとって手助けとなる。   Humans have an excellent pattern recognition system and can obtain more information through vision than a combination of all other sensations. Visualization provides the ability to understand large amounts of data by mapping abstract information to more easily understood visual elements. Systems and methods according to various embodiments of the present invention increase the ability of an observer to explore higher dimensional data and observe complex patterns in the data. Humans are biologically optimized for viewing the surrounding world and the patterns in it in three dimensions. Therefore, presenting the data as a visualized image of multidimensional data (ie, the number of dimensions of the displayed data is 3 or more) on a 3D display is a meaningful structure in the data (eg, cluster (group), Correlations, outliers (outliers)), and such structures can contain available knowledge and often exist in higher dimensional spaces, and the data of traditional 2D display techniques According to visualization, it is not easily observable. In addition, immersive AR, MR, and VR environments will inevitably support collaborative data visualization and exploration, helping scientists interact with data with colleagues who share virtual space. Become.

データ可視化を説明するに当たり、グラフィック表示装置の次元(例えば、印刷紙面または平面スクリーンは一般に2D装置であるのに対し、VR/ARヘッドセットは一般に3D表示装置である)とデータの次元とを区別しなければならず、データの次元は、各データ項目に関連する特徴/量/パラメータの数とすることができる(例えば、表計算ソフト(スプレッドシート)における行は単一のデータ項目であり、列の数がその次元である)。さらなる例示として、3列のエントリを有するデータ集合は三次元であり、20列を有するデータ集合は20次元である。いずれのデータ集合も3D表示装置上に表現することができる。追加的な区別は、データがレンダリングまたは可視化されるデータ空間の次元である。3次元(3軸)までのこうしたデータ可視化空間は(実)空間的とすることができ;追加的次元は、データ点の色、透明度、形状、及びサイズにより符号化することができる。このようにして、4以上のデータ次元を、3D表示装置により多次元データ空間内に可視化することができる。データ集合がN次元を有する場合、これらのデータのうちk個の部分集合を任意の所定時刻に可視化することができ、ここにk≦Nである。k>3である場合、3次元までをデータ可視化空間内の空間位置(XYZ)として符号化することができ、残りは色、サイズ、及び形状のようなデータ点の特徴により表現することができる。散布図では、各データ項目(データ点)を個別の幾何学的オブジェクト、例えば点、四角形、球、等として何らかの空間座標(XYZ)で表現し、他の可視の特徴(例えば、色、サイズ、等)は追加的なデータ次元を符号化する。挑戦は、人間が容易に理解することができる、同時に可視化されるデータ次元kの数を最大にすることにある。   In explaining data visualization, distinguish between the dimensions of a graphic display (eg, a printing paper or flat screen is typically a 2D device, whereas a VR / AR headset is typically a 3D display) and the data dimension. And the dimension of the data can be the number of features / quantities / parameters associated with each data item (eg, a row in a spreadsheet (spreadsheet) is a single data item, The number of columns is its dimension). As a further illustration, a data set with 3 columns of entries is three dimensional and a data set with 20 columns is 20 dimensions. Either data set can be represented on a 3D display device. An additional distinction is the dimension of the data space where the data is rendered or visualized. Such data visualization space up to three dimensions (three axes) can be (real) spatial; additional dimensions can be encoded by the color, transparency, shape, and size of the data points. In this way, four or more data dimensions can be visualized in a multi-dimensional data space by a 3D display device. If the data set has N dimensions, k subsets of these data can be visualized at any given time, where k ≦ N. If k> 3, up to three dimensions can be encoded as spatial positions (XYZ) in the data visualization space, and the rest can be represented by data point features such as color, size, and shape. . In a scatter plot, each data item (data point) is represented by some spatial coordinate (XYZ) as a separate geometric object, eg, point, square, sphere, etc., and other visible features (eg, color, size, Etc.) encode additional data dimensions. The challenge is to maximize the number of simultaneously visible data dimensions k that can be easily understood by humans.

多数の好適例では、三次元データ可視化システムが、種々の表示状況におけるデータ可視化を提供することができる。特定の好適例では、多次元データを、従来型の2D表示装置(例えば、平面スクリーン)を用いて視認、ナビゲート(進行)、及び操作することができる3D可視化空間用にレンダリングする。多数の好適例では、10以上のデータ次元の最適化されたレンダリングを用いて、多次元データ空間の3Dデータ可視化像を生成する。いくつかの好適例では、三次元データ可視化システムが、3D表示装置(例えば、VR/ARヘッドセット)を用いて多次元データ空間を表示する際に、多次元データ空間の強化された直感的理解を提供することができる。没入型3Dディスプレイを用いた多次元データ空間内への没入は、データ中に存在し得る幾何学的形状及びその関係(クラスタ、相関、外れ値、偏差、ギャップ、等)を人間が理解する能力を、2Dディスプレイの使用を含む従来型のデータ可視化方法に比べて増強することができる。   In many preferred embodiments, a three-dimensional data visualization system can provide data visualization in various display situations. In certain preferred embodiments, multidimensional data is rendered for a 3D visualization space that can be viewed, navigated, and manipulated using a conventional 2D display device (eg, a flat screen). In many preferred embodiments, optimized rendering of 10 or more data dimensions is used to generate a 3D data visualization of a multidimensional data space. In some preferred embodiments, an enhanced intuitive understanding of the multidimensional data space when the 3D data visualization system displays the multidimensional data space using a 3D display device (eg, a VR / AR headset). Can be provided. Immersion into a multi-dimensional data space using an immersive 3D display is the ability for humans to understand the geometric shapes that may exist in the data and their relationships (clusters, correlations, outliers, deviations, gaps, etc.) Can be enhanced compared to conventional data visualization methods involving the use of 2D displays.

本発明の1つの好適例は:表示装置、及びコンピュータシステムを含み、このコンピュータシステムは、3Dデータ可視化アプリケーションを含むメモリ及び処理システムを含む。これに加えて、この3D可視化アプリケーションは:メモリ内にある可視化テーブル(表)内にデータ点の集合をロードすることを処理システムに指示し、各データ点は複数データ次元の値を含み、追加的な可視性値が、可視性の次元で、可視化テーブル内の各データ点に割り当てられ;上記データ点の集合に対応する3Dオブジェクトの集合の表現を生成することを処理システムに指示し、各3Dオブジェクトは、当該3Dオブジェクトをレンダリングする方法を定める可視化属性の集合を有し、これらの可視化属性は、3つの空間次元を有する仮想空間内の当該3Dオブジェクトの位置を含み;データ次元を可視化属性にマップするマッピング(対応付け)を受信することを処理システムに指示し;上記3Dオブジェクトの集合の可視化属性を、データ次元を3Dオブジェクトの属性にマップする選択したマッピングに基づいて決定することを処理システムに指示し、データ次元を3Dオブジェクトの属性にマップする選択したマッピングは、仮想空間内の3Dオブジェクトの各々の位置を定め;複数の上記3Dオブジェクトの各々について、可視化テーブル内の可視性の次元を、データ次元を可視化属性にマップする選択したマッピングに基づいて各3Dオブジェクトの可視性を反映するように更新することを処理システムに指示し;3Dオブジェクトの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から仮想空間内に対話形式でレンダリングすることを処理システムに指示する。   One preferred embodiment of the present invention includes: a display device, and a computer system, which includes a memory and processing system that includes a 3D data visualization application. In addition to this, this 3D visualization application: tells the processing system to load a set of data points into a visualization table (table) in memory, each data point contains values of multiple data dimensions, and adds A visibility value is assigned to each data point in the visualization table in the visibility dimension; the processing system is instructed to generate a representation of a set of 3D objects corresponding to the set of data points, A 3D object has a set of visualization attributes that define how to render the 3D object, and these visualization attributes include the position of the 3D object in a virtual space having three spatial dimensions; Instructs the processing system to receive a mapping that maps to the object; visualization of the set of 3D objects Directs the processing system to determine the data dimension based on the selected mapping that maps the data dimension to the attribute of the 3D object, and the selected mapping that maps the data dimension to the attribute of the 3D object is the 3D object in the virtual space. For each of the plurality of 3D objects, the visibility dimension in the visualization table reflects the visibility of each 3D object based on the selected mapping that maps the data dimension to the visualization attribute. To the processing system to instruct the processing system to render the 3D data visualization of the 3D object interactively in virtual space from a viewpoint determined based on the received user input.

他の好適例では、上記表示装置が3D表示装置であり、上記3Dオブジェクトの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から仮想空間内に対話形式でレンダリングすることが、この3D表示装置により表示されるステレオ(立体)画像をレンダリングすることを含む。   In another preferred embodiment, the display device is a 3D display device, and the 3D data visualization image of the 3D object is interactively rendered in a virtual space from a viewpoint determined based on the received user input. Rendering a stereo image displayed by the display device.

他の好適例では、上記3Dデータ可視化アプリケーションを、3Dレンダリング・エンジンを用いて実現する。   In another preferred embodiment, the 3D data visualization application is implemented using a 3D rendering engine.

さらに他の好適例では、上記3Dデータ可視化アプリケーションの実現が、さらに、上記3Dレンダリング・エンジンにより実行されるスクリプトに頼る。   In yet another preferred embodiment, the implementation of the 3D data visualization application further relies on a script executed by the 3D rendering engine.

さらに他の好適例では、上記可視化属性が、X座標、Y座標、Z座標、形状、サイズ、カラーパレット、カラーマップ、カラースケール(色尺度)、透明度、ID(identification:識別情報)、URL(uniform resource location)、マスク、表示可否、3Dオブジェクトの動き、音発生、触覚フィードバック、及び振動触覚フィードバックから成るグループから選択した少なくとも1つの属性を含む。   In still another preferred embodiment, the visualization attribute includes X coordinate, Y coordinate, Z coordinate, shape, size, color palette, color map, color scale (color scale), transparency, ID (identification), URL ( uniform resource location), mask, displayability, 3D object movement, sound generation, haptic feedback, and vibrotactile feedback, including at least one attribute selected from the group.

さらに他の好適例では、データ次元を可視化属性にマップするマッピングを受信することが、データ次元を可視化属性にマップするマッピングのユーザ選択を受信することをさらに含む。   In yet another preferred embodiment, receiving a mapping that maps a data dimension to a visualization attribute further comprises receiving a user selection of a mapping that maps the data dimension to a visualization attribute.

さらに他の好適例では、データ次元を可視化属性にマップするマッピングを受信することが、記憶されている、データ次元を可視化属性にマップするマッピングの集合を検索することをさらに含む。   In yet another preferred embodiment, receiving the mapping that maps the data dimension to the visualization attribute further includes retrieving a stored set of mappings that map the data dimension to the visualization attribute.

他の好適例では、3Dオブジェクトの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から仮想空間内に対話形式でレンダリングすることが:複数の可視の3Dオブジェクトの可視化属性に基づいて、3Dオブジェクトの少なくとも1グループを生成することと;この3Dオブジェクトの少なくとも1グループの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から仮想空間内に対話形式でレンダリングすることとを含む。   In another preferred embodiment, a 3D data visualization of a 3D object can be interactively rendered in virtual space from a viewpoint determined based on received user input: based on visualization attributes of multiple visible 3D objects, Generating at least one group of 3D objects; and rendering a 3D data visualization of at least one group of the 3D objects interactively in virtual space from a viewpoint determined based on received user input.

他の好適例では、3Dオブジェクトの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から仮想空間内に対話形式でレンダリングすることが:ユーザ入力に応答して、仮想空間内の仮想環境の一部分を形成する3Dオブジェクトを変更して、上記データ点の集合に対応する3Dオブジェクトが、仮想空間内に静止したままであり、仮想空間内の仮想環境の一部分を形成する3Dオブジェクトの変更に起因して、上記3Dデータ可視化像内の仮想環境に対して変化して見えるようにすることと;上記データ点の集合に対応する可視の3Dオブジェクト及び上記仮想環境の一部分を形成する3Dオブジェクトをレンダリングすることとを含む。   In another preferred embodiment, a 3D data visualization of a 3D object may be interactively rendered in virtual space from a viewpoint determined based on received user input: in response to user input, a virtual environment in the virtual space The 3D object that forms a part of the data point is changed so that the 3D object corresponding to the set of data points remains stationary in the virtual space, and the 3D object that forms a part of the virtual environment in the virtual space is changed. Due to a change in appearance to the virtual environment in the 3D data visualization image; a visible 3D object corresponding to the set of data points and a 3D object forming part of the virtual environment Rendering.

さらに追加的な好適例では、ユーザ入力に応答して、仮想空間内の仮想環境の一部分を形成する3Dオブジェクトを変更することが:ユーザの命令に応答して、上記仮想環境の一部分を形成する3Dオブジェクトのサイズを変更することにより、上記データ点の集合に対応する3Dオブジェクトのサイズを変更して、上記データ点の集合に対応する3Dオブジェクトが上記仮想環境に対してサイズを変化させている印象を生成すること;ユーザの命令に応答して、上記仮想環境の一部分を形成する3Dオブジェクトの位置を移動させることにより、上記データ点の集合に対応する3Dオブジェクトを移動させて、上記データ点の集合に対応する3Dオブジェクトが上記仮想環境に対して移動している印象を生成すること;及び、ユーザの命令に応答して、上記仮想環境の一部分を形成する3Dオブジェクトの位置を移動させて、上記データ点の集合に対応する3Dオブジェクトを回転させて、上記データ点の集合に対応する3Dオブジェクトが上記仮想環境に対して回転している印象を生成することとを含むグループから選択した少なくとも1つの変更を含む。   In yet a further preferred embodiment, in response to user input, changing a 3D object that forms part of the virtual environment in the virtual space: forming part of the virtual environment in response to a user command By changing the size of the 3D object, the size of the 3D object corresponding to the set of data points is changed, and the 3D object corresponding to the set of data points changes the size with respect to the virtual environment. Generating an impression; in response to a user command, moving a 3D object corresponding to the set of data points by moving a position of a 3D object that forms part of the virtual environment; Generating an impression that a 3D object corresponding to the set of objects is moving relative to the virtual environment; and user instructions In response, the position of the 3D object that forms a part of the virtual environment is moved, the 3D object corresponding to the set of data points is rotated, and the 3D object corresponding to the set of data points becomes the virtual environment. Generating at least one change selected from the group including generating a rotating impression.

さらに他の好適例では、3Dオブジェクトの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から仮想空間内に対話形式でレンダリングすることが:上記3Dオブジェクトの少なくとも一部を照明し、照明される3Dオブジェクトの各々は、ユーザの視点において発光する指向性照明光源を用いて照明されることと;少なくとも照明される3Dオブジェクトを、ユーザの視点に基づいてレンダリングすることとを含む。   In yet another preferred embodiment, a 3D data visualization of a 3D object may be interactively rendered in virtual space from a viewpoint determined based on received user input: illuminating at least a portion of the 3D object, Each of the 3D objects to be performed includes illuminating with a directional illumination source that emits light at the user's viewpoint; and at least rendering the illuminated 3D object based on the user's viewpoint.

さらに他の好適例では、上記3Dオブジェクトの少なくとも一部を照明することが:視野を測定することと;上記3Dオブジェクトを、ユーザの視点において発光する指向性照明光源を用いて、ユーザの視野内で照明することと;ユーザの視野内で照明される3Dオブジェクトをレンダリングすることとを含む。   In yet another preferred embodiment, illuminating at least a portion of the 3D object is: measuring a field of view; using a directional illumination light source that emits the 3D object at a user's viewpoint; Illuminating with; rendering a 3D object illuminated within the user's field of view.

さらに他の好適例では、3Dオブジェクトの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から仮想空間内に対話形式でレンダリングすることが:上記3Dオブジェクトの少なくとも一部を、ユーザの視点に基づいて回転させて、回転する3Dオブジェクトの外観がユーザの視点に対して不変であるようにすることと;回転する3Dオブジェクトを、ユーザの視点に基づいてレンダリングすることとを含む。   In yet another preferred embodiment, a 3D data visualization of a 3D object may be rendered interactively in virtual space from a viewpoint determined based on received user input: at least a portion of the 3D object is represented by a user's viewpoint. The rotating 3D object so that the appearance of the rotating 3D object is unchanged with respect to the user's viewpoint; and the rotating 3D object is rendered based on the user's viewpoint.

さらに他の好適例では、3Dオブジェクトの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から仮想空間内に対話形式でレンダリングすることが:仮想空間内の少なくとも1つのインタラクション(相互作用)プリミティブの位置を、ユーザの視点に基づいて決定することと;この少なくとも1つのインタラクション・プリミティブを、ユーザの視点に基づいてレンダリングすることとを含む。   In yet another preferred embodiment, a 3D data visualization of a 3D object can be interactively rendered in virtual space from a viewpoint determined based on received user input: at least one interaction in the virtual space. Determining the position of the primitive based on the user's viewpoint; and rendering the at least one interaction primitive based on the user's viewpoint.

さらに他の追加的な好適例は、少なくとも1つのインタラクション・プリミティブの透明度を、ユーザの視点に基づいて決定することを含む。   Yet another additional preferred embodiment includes determining the transparency of at least one interaction primitive based on a user's viewpoint.

さらに他の追加的な好適例では、上記3Dオブジェクトが、深さの知覚を保つ形状を有する3Dオブジェクトを含む。   In yet another additional preferred embodiment, the 3D object includes a 3D object having a shape that preserves depth perception.

さらに他の好適例では、上記深さの知覚を保つ形状が、不変である第1寸法、及びマップされたデータ寸法に基づいて変化する可視化属性である第2寸法によって特徴付けられる。   In yet another preferred embodiment, the depth-preserving shape is characterized by a first dimension that is invariant and a second dimension that is a visualization attribute that changes based on the mapped data dimension.

さらに他の好適例では、上記深さの知覚を保つ形状の少なくとも1つが弾丸状である。   In still another preferred embodiment, at least one of the shapes for maintaining the perception of the depth is a bullet shape.

他の追加的な好適例では、データ次元を可視化属性にマップするマッピングを受信することが:対象の特徴の選択を受信することと;複数のデータ次元の少なくとも部分集合の、対象の特徴にとっての重要度を特定することと;高い重要度を有するデータ次元を特定の可視化属性にマップするマッピングを生成することとを含む。   In another additional preferred embodiment, receiving a mapping that maps a data dimension to a visualization attribute: receiving a selection of target features; and at least a subset of a plurality of data dimensions for the target feature Identifying importance; and generating a mapping that maps data dimensions having high importance to specific visualization attributes.

他の追加的な好適例では、複数のデータ次元の少なくとも部分集合の、対象の特徴にとっての重要度を特定することが:数値的であるデータ次元及びカテゴリー的であるデータ次元を識別することと;高い重要度を有する数値的であるデータ次元を可視化属性の第1集合にマップするマッピングを生成することと;高い重要度を有するカテゴリー的であるデータ次元を可視化属性の第2集合にマップするマッピングを生成することとをさらに含む。   In another additional preferred embodiment, identifying the importance of at least a subset of the plurality of data dimensions to the feature of interest: identifying the data dimension that is numerical and the data dimension that is categorical Generating a mapping that maps a numerical dimension with high importance to a first set of visualization attributes; and mapping a dimensional data dimension with high importance to a second set of visualization attributes; Generating a mapping.

さらに他の好適例では、可視化属性の第1集合が、X位置、Y位置、Z位置、及びサイズを含む。   In yet another preferred embodiment, the first set of visualization attributes includes an X position, a Y position, a Z position, and a size.

さらに他の追加的な好適例では、可視化属性の第2集合が、形状を含む。   In yet another additional preferred embodiment, the second set of visualization attributes includes a shape.

さらに他の追加的な好適例では、上記3Dデータ可視化アプリケーションが、さらに:データ次元を可視化属性にマップする少なくとも1つの更新されたマッピングを受信することを上記処理システムに指示し;データ次元を3Dオブジェクトの属性にマップする上記選択したマッピングに基づいて、上記3Dオブジェクトの集合に対する更新された可視化属性を決定することを、上記処理システムに指示し、データ次元を可視化属性にマップする上記更新されたマッピングは、更新された仮想空間内の可視の3Dオブジェクトの各々の位置を定め;可視の3Dオブジェクトの集合について、当該集合内のそれぞれの3Dオブジェクトの、仮想空間内の位置から仮想空間内の更新された位置までの軌跡を生成することを、上記処理システムに指示し;上記仮想空間内の位置から上記仮想空間内の更新された位置までの生成された軌跡に沿った3Dオブジェクトの移動のアニメーションを、受信したユーザ入力に基づいて決まる視点から対話形式でレンダリングすることを、上記処理システムに指示する。   In yet another additional preferred embodiment, the 3D data visualization application further instructs the processing system to receive: at least one updated mapping that maps a data dimension to a visualization attribute; Instructing the processing system to determine an updated visualization attribute for the set of 3D objects based on the selected mapping that maps to an attribute of the object, and the updated mapping of data dimensions to visualization attributes The mapping defines the position of each visible 3D object in the updated virtual space; for a set of visible 3D objects, the update in the virtual space from the position in the virtual space of each 3D object in the set To generate a trajectory up to the specified position. Show; interactively render animation of 3D object movement along a generated trajectory from a position in the virtual space to an updated position in the virtual space from a viewpoint determined based on received user input To the processing system.

さらに他の好適例では、上記3Dデータ可視化アプリケーションが、さらに、上記複数の3Dオブジェクトの各々について、更新された可視性の値を、上記更新されたマッピングに基づいて各3Dオブジェクトの可視性を反映するように決定することを、上記処理システムに指示する。   In yet another preferred embodiment, the 3D data visualization application further reflects an updated visibility value for each of the plurality of 3D objects, and the visibility of each 3D object based on the updated mapping. The processing system is instructed to decide to do so.

さらに他の好適例では、上記生成された軌跡に沿った3Dオブジェクトの移動のアニメーションを対話形式でレンダリングすることが、レンダリングされたアニメーション中で、3Dオブジェクトの異なる集合がその軌跡に沿った移動を開始する時刻を変化させることをさらに含む。   In yet another preferred embodiment, interactively rendering the animation of the movement of the 3D object along the generated trajectory means that different sets of 3D objects in the rendered animation can move along the trajectory. It further includes changing the starting time.

さらに他の追加的な好適例では、レンダリングされたアニメーション中で、3Dオブジェクトの異なる集合がその軌跡に沿った移動を開始する時刻を、ユーザ入力に基づいて決定する。   In yet another additional preferred embodiment, the time at which different sets of 3D objects begin to move along their trajectory in the rendered animation is determined based on user input.

さらに他の追加的な好適例では、上記生成された軌跡に沿った3Dオブジェクトの移動のアニメーションを対話形式でレンダリングすることが、レンダリングされたアニメーション中で、3Dオブジェクトの異なる集合がその軌跡に沿って移動する速度を変化させることをさらに含む。   In yet another additional preferred embodiment, interactively rendering an animation of the movement of a 3D object along the generated trajectory includes a different set of 3D objects along the trajectory in the rendered animation. And changing the moving speed.

さらに他の追加的な好適例では、3Dオブジェクトの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から仮想空間内に対話形式でレンダリングすることが:少なくとも1つのアフォーダンスの上記仮想空間内の位置を決定することであって、この少なくとも1つのアフォーダンス上への3Dデータ可視化像の移動を指示するユーザ入力が、この3Dデータ可視化像の変更を開始することと;上記少なくとも1つのアフォーダンス上への3Dデータ可視化像の移動を検出することと;上記少なくとも1つのアフォーダンスのうちの1つに基づいて、上記3Dデータ可視化像を変更することと;変更した3Dデータ可視化像を、上記ユーザの視点に基づいてレンダリングすることとを含む。   In yet another additional preferred embodiment, a 3D data visualization of a 3D object can be interactively rendered in virtual space from a viewpoint determined based on received user input: in the virtual space of at least one affordance A user input indicating movement of the 3D data visualized image onto the at least one affordance initiates a change of the 3D data visualized image; on the at least one affordance Detecting the movement of the 3D data visualization image to the user; changing the 3D data visualization image based on one of the at least one affordance; and changing the changed 3D data visualization image to the user's Rendering based on the viewpoint.

さらに他の追加的な好適例では、上記少なくとも1つのアフォーダンスのうちの1つに基づいて上記3Dデータ可視化像を変更することが、上記3Dデータ可視化像のサイズを変更することを含む。   In yet another additional preferred embodiment, changing the 3D data visualization based on one of the at least one affordance includes changing the size of the 3D data visualization.

さらに他の追加的な好適例では、上記少なくとも1つのアフォーダンスのうちの1つに基づいて上記3Dデータ可視化像を変更することが:上記3D可視化像内で可視化される3Dオブジェクトに対応する上記可視化テーブル内のデータ点の集合にデータ分析プロセスを適用することと;このデータ分析プロセスの少なくとも1つの結果に基づいて、上記3D可視化像内で可視化される上記3Dオブジェクトの可視化属性を変更することと;上記ユーザの視点に基づいて、上記3Dオブジェクトの変更された可視化属性を含む変更された3Dデータ可視化像をレンダリングすることとを含む。   In yet another additional preferred embodiment, modifying the 3D data visualization based on one of the at least one affordance: the visualization corresponding to a 3D object visualized in the 3D visualization Applying a data analysis process to the set of data points in the table; changing a visualization attribute of the 3D object visualized in the 3D visualization based on at least one result of the data analysis process; Rendering a modified 3D data visualization including the modified visualization attributes of the 3D object based on the user's viewpoint.

さらに他の追加的な好適例では、上記データ分析プロセスがクラスタリング(集団化)プロセスである。   In yet another additional preferred embodiment, the data analysis process is a clustering process.

さらに他の追加的な好適例では、上記少なくとも1つのアフォーダンスのうちの1つに基づいて上記3Dデータ可視化像を変更することが、上記少なくとも1つのアフォーダンスのうちの1つのアフォーダンス上へ移動された上記3D可視化像内で選択した少なくとも1つの3Dオブジェクトによって表現される3Dオブジェクトの集合の新たな3Dデータ可視化像をレンダリングすることを含む。   In yet another additional preferred embodiment, changing the 3D data visualization based on one of the at least one affordance has been moved onto one affordance of the at least one affordance. Rendering a new 3D data visualization of a set of 3D objects represented by at least one 3D object selected in the 3D visualization.

さらに他の追加的な好適例は:細長いハンドル及び入力ボタンを有する入力装置をさらに含む。これに加えて、上記3Dデータ可視化アプリケーションは、さらに:入力装置から入力されたポーズ(姿勢)入力及びボタン状態を取得することを上記処理システムに指示し;入力されたポーズ入力及びボタン状態に基づいて、上記3Dデータ可視化像を、ユーザ・インタフェースの状況に基づいて決まる方法で変更することを上記処理システムに指示し;そして変更された3Dデータ可視化像を、上記ユーザの視点に基づいてレンダリングすることを上記処理システムに指示する。   Yet another additional preferred embodiment further includes: an input device having an elongated handle and an input button. In addition, the 3D data visualization application further: instructs the processing system to obtain a pose (posture) input and button state input from an input device; based on the input pose input and button state Instructing the processing system to change the 3D data visualization image in a manner that depends on the state of the user interface; and rendering the changed 3D data visualization image based on the user's viewpoint. To the processing system.

さらに他の追加的な好適例は:入力されたポーズ入力及びボタン状態に基づいて、上記3Dデータ可視化像を、ユーザ・インタフェースの状況に基づいて決まる方法で変更することが、入力されたポーズ入力及びボタン状態が、ボタンが押されていないことを示すことに基づいて、上記仮想空間内の上記3Dデータ可視化像の位置を決定することと;入力されたポーズ入力及びボタン状態が、ボタンが押されていることを示すことに基づいて、上記仮想空間内で上記3Dデータ可視化像を回転させることとを含む。   Yet another additional preferred embodiment is: based on the input pose input and button state, changing the 3D data visualization in a manner that depends on the status of the user interface. And determining the position of the 3D data visualization image in the virtual space based on the fact that the button state indicates that the button is not pressed; Rotating the 3D data visualized image in the virtual space based on indicating that it has been done.

他の好適例では、上記メモリがアバター(化身)メタデータをさらに含み、このアバター・メタデータは、アバターをレンダリングする方法を定める可視化属性の集合を含み、これらの可視化属性は、上記仮想空間内のアバターの位置を含み、3Dオブジェクトの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から仮想空間内に対話形式でレンダリングすることが、この視点及び上記アバター・メタデータに基づいて、上記3Dデータ可視化像内にアバターをレンダリングすることを含む。   In another preferred embodiment, the memory further includes avatar (incarnation) metadata, the avatar metadata including a set of visualization attributes that define how to render the avatar, and these visualization attributes are in the virtual space. Rendering a 3D data visualization image of the 3D object in a virtual space interactively from a viewpoint determined based on the received user input based on the viewpoint and the avatar metadata. Rendering an avatar within the 3D data visualization.

他の好適例では、上記アバター・メタデータがポーズ情報をさらに含み、上記視点及び上記アバター・メタデータに基づいて、上記3Dデータ可視化像内にアバターをレンダリングすることが、上記アバター・メタデータ内のポーズ情報に基づいて、上記3Dデータ可視化像内のアバターのポーズをレンダリングすることをさらに含む。   In another preferred embodiment, the avatar metadata further includes pose information, and rendering the avatar in the 3D data visualization based on the viewpoint and the avatar metadata includes in the avatar metadata. Rendering the avatar's pose in the 3D data visualization based on the pose information.

図1A〜1Eは8つのクラスタの集合を例示する図であり、これらのクラスタは、仮想的立方体の角部にデータ中心をおいてレイアウトされている。1A to 1E are diagrams illustrating a set of eight clusters, and these clusters are laid out with a data center at a corner of a virtual cube. 本発明の種々の実施形態による、多次元データ空間の3D可視化像内を移動することによってユーザが得ることができる異なる透視図、及び追加的なデータ次元を可視化するための追加的な可視化属性を例示する図である。In accordance with various embodiments of the present invention, different perspectives that a user can obtain by moving through a 3D visualization of a multi-dimensional data space, and additional visualization attributes for visualizing additional data dimensions It is a figure illustrated. 本発明の種々の実施形態による、多次元データ空間の3D可視化像内を移動することによってユーザが得ることができる異なる透視図、及び追加的なデータ次元を可視化するための追加的な可視化属性を例示する図である。In accordance with various embodiments of the present invention, different perspectives that a user can obtain by moving through a 3D visualization of a multi-dimensional data space, and additional visualization attributes for visualizing additional data dimensions It is a figure illustrated. 本発明の種々の実施形態による、多次元データ空間の3D可視化像内を移動することによってユーザが得ることができる異なる透視図、及び追加的なデータ次元を可視化するための追加的な可視化属性を例示する図である。In accordance with various embodiments of the present invention, different perspectives that a user can obtain by moving through a 3D visualization of a multi-dimensional data space, and additional visualization attributes for visualizing additional data dimensions It is a figure illustrated. 本発明の種々の実施形態による、多次元データ空間の3D可視化像内を移動することによってユーザが得ることができる異なる透視図、及び追加的なデータ次元を可視化するための追加的な可視化属性を例示する図である。In accordance with various embodiments of the present invention, different perspectives that a user can obtain by moving through a 3D visualization of a multi-dimensional data space, and additional visualization attributes for visualizing additional data dimensions It is a figure illustrated. 図3Aは、本発明の実施形態による、複数の視点からの3Dグラフの可視化像を例示する図であり、データを3Dの折れ線プロットとして可視化している。図3Bは、本発明の実施形態による、複数の視点からの3Dグラフの可視化像を例示する図であり、データを3Dの折れ線プロットとして可視化している。図3Cは、本発明の実施形態による、複数の視点からの3Dグラフの可視化像を例示する図であり、データを3Dの折れ線プロットとして可視化している。図3Dは、本発明の実施形態による、複数の視点からの3Dグラフの可視化像を例示する図であり、データを3Dの折れ線プロットとして可視化している。図3Eは、本発明の実施形態による、複数の視点からの3Dグラフの可視化像を例示する図であり、データを3Dの折れ線プロットとして可視化している。FIG. 3A is a diagram illustrating a visualized image of a 3D graph from a plurality of viewpoints according to an embodiment of the present invention, in which data is visualized as a 3D line plot. FIG. 3B is a diagram illustrating a visualized image of a 3D graph from a plurality of viewpoints according to an embodiment of the present invention, in which data is visualized as a 3D line plot. FIG. 3C is a diagram illustrating a visualized image of a 3D graph from a plurality of viewpoints according to an embodiment of the present invention, in which data is visualized as a 3D line plot. FIG. 3D is a diagram illustrating a visualized image of a 3D graph from a plurality of viewpoints according to an embodiment of the present invention, in which data is visualized as a 3D line plot. FIG. 3E is a diagram illustrating a visualized image of a 3D graph from a plurality of viewpoints according to an embodiment of the present invention, in which data is visualized as a 3D line plot. 本発明の実施形態による、複数の視点からの3Dグラフの可視化像を例示する図であり、データを3D表面として可視化している。It is a figure which illustrates the visualization image of 3D graph from a plurality of viewpoints by the embodiment of the present invention, and visualizes data as 3D surface. 本発明の実施形態による、複数の視点からの3Dグラフの可視化像を例示する図であり、データを3D表面として可視化している。It is a figure which illustrates the visualization image of 3D graph from a plurality of viewpoints by the embodiment of the present invention, and visualizes data as 3D surface. 本発明の実施形態による、複数の視点からの3Dグラフの可視化像を例示する図であり、データを3D表面として可視化している。It is a figure which illustrates the visualization image of 3D graph from a plurality of viewpoints by the embodiment of the present invention, and visualizes data as 3D surface. 本発明の実施形態による、複数の視点からの3Dグラフの可視化像を例示する図であり、データを3D表面として可視化している。It is a figure which illustrates the visualization image of 3D graph from a plurality of viewpoints by the embodiment of the present invention, and visualizes data as 3D surface. 本発明の実施形態による、複数の視点からの3Dグラフの可視化像を例示する図であり、データを3D表面として可視化している。It is a figure which illustrates the visualization image of 3D graph from a plurality of viewpoints by the embodiment of the present invention, and visualizes data as 3D surface. 本発明の実施形態による、異なるユーザの異なる視点からの3Dグラフのレンダリングを例示する図である。FIG. 6 illustrates rendering of a 3D graph from different viewpoints of different users according to an embodiment of the present invention. 本発明の実施形態による、異なるユーザの異なる視点からの3Dグラフのレンダリングを例示する図である。FIG. 6 illustrates rendering of a 3D graph from different viewpoints of different users according to an embodiment of the present invention. 本発明の実施形態による、異なるユーザの異なる視点からの3Dグラフのレンダリングを例示する図である。FIG. 6 illustrates rendering of a 3D graph from different viewpoints of different users according to an embodiment of the present invention. 本発明の実施形態による、異なるユーザの異なる視点からの3Dグラフのレンダリングを例示する図である。FIG. 6 illustrates rendering of a 3D graph from different viewpoints of different users according to an embodiment of the present invention. 本発明の実施形態による、仮想空間内の複数のユーザのアバターを示す3Dデータ可視化像を例示する図である。It is a figure which illustrates 3D data visualization image which shows the avatar of several users in virtual space by embodiment of this invention. 本発明の実施形態による、多次元データ空間の3D可視化像を生成するためのシステムを概念的に例示する図である。FIG. 2 conceptually illustrates a system for generating a 3D visualization of a multidimensional data space according to an embodiment of the present invention. 本発明の実施形態による、多次元データ空間の3D可視化像を生成するためのシステムを概念的に例示する図である。FIG. 2 conceptually illustrates a system for generating a 3D visualization of a multidimensional data space according to an embodiment of the present invention. 本発明の実施形態による、単一の計算空間上に実現される多次元データ可視化コンピュータシステムを概念的に例示する図である。FIG. 2 conceptually illustrates a multidimensional data visualization computer system implemented on a single computation space, in accordance with an embodiment of the present invention. 本発明の実施形態による、多次元データの可視化像を生成するためのプロセスを例示するフローチャートである。4 is a flowchart illustrating a process for generating a visualized image of multidimensional data according to an embodiment of the present invention. 本発明の実施形態による、3Dオブジェクトのグループを用いた3Dデータ可視化像をレンダリングするためのプロセスを例示するフローチャートである。6 is a flowchart illustrating a process for rendering a 3D data visualization using a group of 3D objects, according to an embodiment of the invention. 本発明の種々の実施形態による多次元データ空間の3D可視化像を例示する図であり、データ次元を3Dオブジェクトの形状及びサイズの属性にマップしている。FIG. 4 illustrates a 3D visualization of a multidimensional data space according to various embodiments of the present invention, mapping data dimensions to 3D object shape and size attributes. 本発明の種々の実施形態による多次元データ空間の3D可視化像を例示する図であり、データ次元を3Dオブジェクトの形状及びサイズの属性にマップしている。FIG. 4 illustrates a 3D visualization of a multidimensional data space according to various embodiments of the present invention, mapping data dimensions to 3D object shape and size attributes. 本発明の種々の実施形態による多次元データ空間の3D可視化像を例示する図であり、データ次元を3Dオブジェクトの形状及びサイズの属性にマップしている。FIG. 4 illustrates a 3D visualization of a multidimensional data space according to various embodiments of the present invention, mapping data dimensions to 3D object shape and size attributes. 高密度のプロットでも認識可能であるように設計された3Dオブジェクト形状の小集合を示す図である。It is a figure which shows the small set of 3D object shape designed so that it could recognize also with a high-density plot. 3つの静止点光源による一定の照明下で、球形の形状を有する3Dオブジェクトを異なる方向から見た際の、外観の変化を示す図である。It is a figure which shows the change of an external appearance when the 3D object which has a spherical shape is seen from a different direction under fixed illumination with three stationary point light sources. 図11Aに示すのと同じ視点から見た同じ3Dデータ・オブジェクトを示す図であり、この3Dオブジェクトは、ユーザの視点(またはその付近)から発光する指向性照明光源を用いて照明している。It is a figure which shows the same 3D data object seen from the same viewpoint as shown to FIG. 11A, and this 3D object is illuminating using the directional illumination light source light-emitted from a user's viewpoint (or its vicinity). 本発明の種々の実施形態による、ユーザが仮想空間を通って移動する間に、オブジェクトの照明がユーザのポーズと共に変化することによる、同様な複数の3Dオブジェクトの外観の類似性を例示する図である。FIG. 6 illustrates similarities in appearance of similar 3D objects due to object illumination changing with the user's pose while the user moves through the virtual space, according to various embodiments of the present invention. is there. 本発明の種々の実施形態による、ユーザが仮想空間を通って移動する間に、オブジェクトの照明がユーザのポーズと共に変化することによる、同様な複数の3Dオブジェクトの外観の類似性を例示する図である。FIG. 6 illustrates similarities in appearance of similar 3D objects due to object illumination changing with the user's pose while the user moves through the virtual space, according to various embodiments of the present invention. is there. 本発明の種々の実施形態による、ユーザが仮想空間を通って移動する間に、オブジェクトの照明がユーザのポーズと共に変化することによる、同様な複数の3Dオブジェクトの外観の類似性を例示する図である。FIG. 6 illustrates similarities in appearance of similar 3D objects due to object illumination changing with the user's pose while the user moves through the virtual space, according to various embodiments of the present invention. is there. 本発明の実施形態による、仮想空間内のユーザの視野が変化する際の、3Dオブジェクト(あるいは3Dオブジェクトの頂点または表面)の照明を更新することを示すフローチャートである。6 is a flowchart illustrating updating illumination of a 3D object (or a vertex or surface of a 3D object) when a user's field of view in a virtual space changes according to an embodiment of the present invention. 仮想空間内の複数の3Dオブジェクト、及び/または3Dオブジェクトのグループの頂点または表面の指向性照明を概念的に例示する図である。FIG. 3 conceptually illustrates directional illumination of vertices or surfaces of a plurality of 3D objects and / or groups of 3D objects in a virtual space. 本発明の実施形態による、インタラクション・プリミティブを含む3Dグラフを、3Dデータ可視化システムによって生成されるグリッド、軸、軸ラベルの形式で例示する図である。FIG. 3 illustrates a 3D graph including interaction primitives in the form of grids, axes, axis labels generated by a 3D data visualization system, according to an embodiment of the present invention. 本発明の実施形態によるユーザ・インタフェースを例示する図であり、特定のデータ次元を、3Dデータ可視化像内で可視である3Dオブジェクトの特定の属性にマップすることに関する推奨を示す。FIG. 4 illustrates a user interface according to an embodiment of the present invention, showing recommendations for mapping specific data dimensions to specific attributes of 3D objects that are visible in a 3D data visualization image. 図16A〜16Dは、本発明の実施形態による一連のデータ可視化像であり、3Dデータ・オブジェクトのX属性が第1データ次元(即ち「年齢」)から第2データ次元(即ち「勤続年数」)に変更されている。16A-16D are a series of data visualization images according to an embodiment of the present invention, where the X attribute of the 3D data object varies from the first data dimension (ie, “age”) to the second data dimension (ie, “year of service”). Has been changed. 図17Aは、本発明の種々の実施形態による3Dデータ可視化システムによって生成される仮想世界内でユーザが3Dデータ可視化像のサイズを制御することを可能にする、VRユーザ・インタフェース内のアフォーダンスを例示する図である。図17Bは、本発明の種々の実施形態による3Dデータ可視化システムによって生成される仮想世界内でユーザが3Dデータ可視化像のサイズを制御することを可能にする、VRユーザ・インタフェース内のアフォーダンスを例示する図である。図17Cは、本発明の種々の実施形態による3Dデータ可視化システムによって生成される仮想世界内でユーザが3Dデータ可視化像のサイズを制御することを可能にする、VRユーザ・インタフェース内のアフォーダンスを例示する図である。図17Dは、本発明の種々の実施形態による3Dデータ可視化システムによって生成される仮想世界内でユーザが3Dデータ可視化像のサイズを制御することを可能にする、VRユーザ・インタフェース内のアフォーダンスを例示する図である。図17Eは、本発明の種々の実施形態による3Dデータ可視化システムによって生成される仮想世界内でユーザが3Dデータ可視化像のサイズを制御することを可能にする、VRユーザ・インタフェース内のアフォーダンスを例示する図である。図17Fは、本発明の種々の実施形態による3Dデータ可視化システムによって生成される仮想世界内でユーザが3Dデータ可視化像のサイズを制御することを可能にする、VRユーザ・インタフェース内のアフォーダンスを例示する図である。FIG. 17A illustrates affordances in a VR user interface that allow a user to control the size of a 3D data visualization image within a virtual world generated by a 3D data visualization system according to various embodiments of the invention. It is a figure to do. FIG. 17B illustrates affordances in a VR user interface that allow a user to control the size of a 3D data visualization image within a virtual world generated by a 3D data visualization system according to various embodiments of the invention. It is a figure to do. FIG. 17C illustrates affordances in a VR user interface that allow a user to control the size of a 3D data visualization image within a virtual world generated by a 3D data visualization system according to various embodiments of the invention. It is a figure to do. FIG. 17D illustrates affordances in a VR user interface that allow a user to control the size of a 3D data visualization image within a virtual world generated by a 3D data visualization system according to various embodiments of the invention. It is a figure to do. FIG. 17E illustrates affordances in a VR user interface that allow a user to control the size of a 3D data visualization image within a virtual world generated by a 3D data visualization system according to various embodiments of the invention. It is a figure to do. FIG. 17F illustrates affordances in the VR user interface that allow the user to control the size of the 3D data visualization image within the virtual world generated by the 3D data visualization system according to various embodiments of the invention. It is a figure to do.

詳細な説明
本発明の多数の実施形態による、多次元データを3Dグラフとして可視化することができるデータ可視化システム(即ち、3Dデータ可視化システム)、及び多次元データ空間の可視化像を生成する方法は、3D表示技術を用いて、効果的な対話型の高次元データの可視化への挑戦のうちの多数に応えることができる。ここで3Dグラフとは、データの集合を総体的に記述する3Dオブジェクトまたは3Dオブジェクトのグループを参照する一般的意味で用いる。3Dグラフを作り上げる3Dオブジェクトと他の3Dオブジェクトとの区別をつけることができ、この区別を多次元データの3D可視化像内で利用して、3Dグラフを含む仮想環境を表現することができる。現在のデータ可視化技術は、平面スクリーン上に表示された環境を、ユーザが外側から見入ることによって知覚することを大いに求める。本発明のいくつかの実施形態によるシステム及び方法は、より複雑なデータ空間の可視化を可能にし、3D表示技術を利用してユーザを可視化像の内部に置くことによって、そしてデータ可視化の動作を一人称(自分自身)の体験にすることによって、人間が追加的次元を解釈する能力を拡張することができる。この取り組みは、固有受容感覚(人々がそれぞれの身体部分どうしの相対位置を感知する方法)及び運動感覚(人々が、自分自身の体の動きを感知する方法)といった人間の感覚を活性化することができ、外部環境内での人体の体験を記述して説明する。
DETAILED DESCRIPTION A data visualization system capable of visualizing multidimensional data as a 3D graph (ie, a 3D data visualization system) and a method for generating a visualized image of a multidimensional data space according to a number of embodiments of the present invention. Using 3D display technology, many of the challenges of effective interactive high-dimensional data visualization can be met. Here, the 3D graph is used in a general sense referring to a 3D object or a group of 3D objects that collectively describe a set of data. A 3D object that makes up a 3D graph can be distinguished from other 3D objects, and this distinction can be used in a 3D visualized image of multidimensional data to represent a virtual environment including a 3D graph. Current data visualization techniques greatly require the user to perceive the environment displayed on the flat screen by looking from the outside. Systems and methods according to some embodiments of the present invention allow visualization of more complex data spaces, use 3D display techniques to place a user inside a visualized image, and data visualization operations in first person. By making your own experience, you can expand your ability to interpret additional dimensions. This approach activates human sensations such as proprioceptive sensation (how people perceive the relative position of their body parts) and motor sensation (how people perceive their own body movements). Describe and describe the experience of the human body in the external environment.

高次元のデータを三次元の可視化像で提示することは、複雑であり、サイズ、形状、及び/またはテクスチャといった3Dオブジェクトの特徴の微妙な変化を用いたデータ内の構造の表現を含み得る。移動及び深さの知覚は、これらの視覚的刺激の一部を混同させることがあり、この混同は、3Dオブジェクトを3Dディスプレイ用にレンダリングする方法が、基になる次元とは無関係である変化(例えば、知覚される色及び/またはサイズを変化させ得る陰影)を導入する環境内で複雑になり得る。本発明の多数の実施形態による3Dデータ可視化システムは、ユーザの視野内にある同様な3Dオブジェクト間の類似性を保ち、3Dオブジェクトのサイズ属性の変化に起因するサイズの変化と、3Dオブジェクトまでの距離の差に起因するサイズの変化とをユーザが区別する能力を増強する技術を利用し、こうした技術は形状選択及び照明モデルを含む(がそれに限定されない)。多数の実施形態では、3Dオブジェクトが多次元データ空間の1つの3D可視化像から異なる多次元データ空間の3D可視化像へ移行する際に、特定の3Dデータ点に対応する3Dオブジェクトの属性の変化をユーザが観察することを可能にするアニメーションを利用することによって、ユーザがデータ内の構造を知覚する能力をさらに増強する。   Presenting high-dimensional data in a three-dimensional visualization is complex and may involve a representation of the structure in the data using subtle changes in 3D object features such as size, shape, and / or texture. Movement and depth perception can confuse some of these visual stimuli, and this confusion changes how the method of rendering 3D objects for 3D display is independent of the underlying dimensions ( For example, it can be complicated in an environment that introduces perceived colors and / or shades that can change size. A 3D data visualization system according to a number of embodiments of the present invention maintains similarities between similar 3D objects in the user's field of view, changes in size due to changes in the size attribute of the 3D object, and up to 3D objects. Utilizing techniques that enhance the user's ability to distinguish size changes due to distance differences, such techniques include (but are not limited to) shape selection and illumination models. In many embodiments, when a 3D object transitions from one 3D visualization image in a multidimensional data space to a 3D visualization image in a different multidimensional data space, a change in the attribute of the 3D object corresponding to a particular 3D data point is detected. By utilizing animations that allow the user to observe, the user's ability to perceive structures in the data is further enhanced.

本発明の多数の実施形態による3Dデータ可視化システムの使い勝手は、3Dデータ可視化像による高次元データのレンダリングを自動的に変更するためにユーザが用いることができるアフォーダンスを3Dユーザ・インタフェース内に設けることによって増強することができる。いくつかの実施形態では、ユーザが多次元データ空間の3D可視化像をアフォーダンス上でドラッグするだけで、特定の動作(例えば、3Dデータ可視化像のサイズの変更、あるいはデータ点のk平均法クラスタリング)が実行される。データは3Dデータ可視化像内で明確なオブジェクト(データ点)として可視化されるが、4以上のデータ次元が、個別のデータ点の性質(例えば、色、サイズ、形状、等)によりレンダリングされることを強調しておく。   The ease of use of a 3D data visualization system according to many embodiments of the present invention provides affordances in the 3D user interface that can be used by the user to automatically change the rendering of high-dimensional data with 3D data visualization images. Can be enhanced by. In some embodiments, a user simply drags the 3D visualization of the multidimensional data space over the affordance to perform certain actions (eg, changing the size of the 3D data visualization or k-means clustering of data points). Is executed. Data is visualized as clear objects (data points) in the 3D data visualization image, but four or more data dimensions are rendered by the nature of individual data points (eg, color, size, shape, etc.) To emphasize.

容易にわかるように、多次元データ空間内のデータを3Dの形で可視化する能力は、複合データの分析の可能性の無数の可能性を広げ、本発明の多数の実施形態による3Dデータ可視化システムは、データ探索を共同作業的な方法で実行することを可能にする。いくつかの実施形態では、多数のユーザが、同じ物理的位置にいてもいなくても、同じ共有の仮想多次元データ空間を独立して探索することができる。特定の実施形態では、単一のユーザが「ブロードキャスト(広域伝達)型の」対話型セッションをリード(先導)することができ、こうしたセッションでは、すべてのユーザが3Dデータ可視化空間を、リードするユーザによって制御される視点から見る。本発明の種々の実施形態による、多次元データの可視化像を用いて複合データを探索するための多次元データ可視化システム及びプロセス(方法)は、以下でさらに説明する。   As will be readily appreciated, the ability to visualize data in a multi-dimensional data space in 3D expands the myriad possibilities of analyzing complex data, and a 3D data visualization system according to numerous embodiments of the present invention. Makes it possible to perform data exploration in a collaborative manner. In some embodiments, multiple users can independently explore the same shared virtual multidimensional data space, whether or not at the same physical location. In certain embodiments, a single user can lead a “broadcast” interactive session in which all users lead the 3D data visualization space. View from a viewpoint controlled by. Multidimensional data visualization systems and processes (methods) for searching complex data using multidimensional data visualizations according to various embodiments of the present invention are further described below.

三次元データ可視化
複合データを扱う際に、二次元マッピングはデータ内に特有の構造を示し損なうことが多い。図1A〜1Eに8つのクラスタの集合を例示し、これらのクラスタは、仮想的立方体の角部(隅部、コーナー)にデータ中心をおいてレイアウトされている。図1A〜1Cに示す単純な2D射影は、データ内のすべての構造を容易に示すことはできない。図1D及び1Eに示すように3つの空間次元内にデータを可視化すると、クラスタパターンがより容易に識別される。本発明の多数の実施形態による3Dデータ可視化システムは、特定の3D可視化をレンダリングする視点次第では容易に明らかになり得ない構造をユーザがより明確に識別することを可能にする動き及び視差により、ユーザが3Dキュー(合図、指示)と直接相互作用する能力をユーザに提供する。別な言い方をすれば、ユーザが3D可視化における視点をリアルタイムで容易にシフトさせる能力は、追加的な見識をデータ内に生み出す異なる視点からユーザにデータ空間を探索させる視覚的キューを示すことができる。構造を視覚的に観察する能力は、人間のユーザが1つ以上の視点からの目視検査により容易に識別することができる「外れ値」の存在により、データ内の構造を識別するように訓練された機械学習アルゴリズム(例えばk平均クラスタリング)が役に立たない環境において、特に有用であり得る。
3D data visualization When dealing with complex data, 2D mapping often fails to show a unique structure in the data. 1A to 1E illustrate a set of eight clusters, and these clusters are laid out with the data center at the corners (corners, corners) of the virtual cube. The simple 2D projections shown in FIGS. 1A-1C cannot easily show all the structures in the data. Visualizing data in three spatial dimensions as shown in FIGS. 1D and 1E makes it easier to identify cluster patterns. The 3D data visualization system according to many embodiments of the present invention provides motion and parallax that allows the user to more clearly identify structures that may not be readily apparent depending on the viewpoint that renders a particular 3D visualization. Provide users with the ability to interact directly with 3D cues (cue, instructions). In other words, the ability of a user to easily shift the viewpoint in 3D visualization in real time can indicate a visual cue that allows the user to explore the data space from different viewpoints that create additional insights into the data. . The ability to visually observe structures is trained to identify structures in the data by the presence of “outliers” that human users can easily identify by visual inspection from one or more viewpoints. Can be particularly useful in environments where machine learning algorithms (eg, k-means clustering) are not useful.

図2A及び2Bは、(3つの空間次元内に可視化されたデータをデータ空間外から見ることに制約されることとは対照的に)多次元データ空間の3D可視化像内を移動することによってユーザが得ることができる異なる透視図を例示する。ユーザの視点が図2A中に示す視点から関心データ及び図2B中に示す視点に向かって移動する際に、データの特定部分集合内の構造がより詳細に見える。以下でさらに説明するように、本発明の種々の実施形態による3Dデータ可視化システムは、任意数の異なる入力モダリティ(手段)をサポートすることができ、こうした入力様式により、ユーザは、3Dデータ可視化像のズーム、相対位置、及び/または向きを制御する命令を与えることができる。図2A及び2Bに示す3Dデータ可視化像は、データ次元を3Dオブジェクトの特徴にマップすることによってレンダリングされ、これらの特徴は、3Dオブジェクトの可視性(フィルタ処理基準に基づけば、一部のデータ点は示されないことがある)、3Dデータ可視化像内の3Dオブジェクトの位置、レンダリングされた3Dオブジェクトのサイズ、及び/または3Dオブジェクトの色を含む。特定の実施形態では、データ次元のマッピングを用いて3Dオブジェクトの追加的な特徴を定めることによって、より高次元の可視化像をさらに生成することができ、追加的な特徴は、3Dオブジェクトをレンダリングするために用いる形状、3Dオブジェクトのテクスチャ、及び/または3Dオブジェクトの透明度を含む(が、それらに限定されない)。図2Cに、図2Bに示すデータ集合の3D可視化像を例示し、この3D可視化像は、透明度を用いて追加的なデータ次元を表現している。図2Dに、図2Bに示すデータ集合の3D可視化像を例示し、この3D可視化像は、透明度及びテクスチャを共に用いて追加的なデータ次元を表現している。本発明の種々の実施形態による、異なる3D形状の選定による追加的な次元の表現は、形状を保つ深さの知覚の利用を含めて以下に説明する。他の実施形態では、データ次元を没入体験における非視覚的な態様にマップすることができ、これらの非視覚的な態様は、動き、音発生、触覚フィードバック、及び/または振動触覚フィードバックを含む(が、それらに限定されない)。   FIGS. 2A and 2B show the user by navigating within a 3D visualization of a multidimensional data space (as opposed to being constrained to view data visualized in three spatial dimensions from outside the data space). Figure 3 illustrates different perspective views that can be obtained. As the user's viewpoint moves from the viewpoint shown in FIG. 2A toward the data of interest and the viewpoint shown in FIG. 2B, the structure within a specific subset of the data appears more detailed. As described further below, a 3D data visualization system according to various embodiments of the present invention can support any number of different input modalities, which allows the user to view a 3D data visualization image. Instructions can be provided to control zoom, relative position, and / or orientation. The 3D data visualizations shown in FIGS. 2A and 2B are rendered by mapping data dimensions to features of the 3D object, and these features are represented by the 3D object visibility (some data points based on filtering criteria). May not be shown), including the position of the 3D object in the 3D data visualization, the size of the rendered 3D object, and / or the color of the 3D object. In certain embodiments, higher dimension visualizations can be further generated by defining additional features of the 3D object using data dimension mapping, which renders the 3D object. Shapes used for, 3D object texture, and / or 3D object transparency (but not limited to). FIG. 2C illustrates a 3D visualization of the data set shown in FIG. 2B, which represents additional data dimensions using transparency. FIG. 2D illustrates a 3D visualization of the data set shown in FIG. 2B, which represents additional data dimensions using both transparency and texture. Additional dimensional representations by selecting different 3D shapes according to various embodiments of the present invention are described below, including the use of depth perception to preserve the shape. In other embodiments, data dimensions can be mapped to non-visual aspects in an immersive experience, which non-visual aspects include movement, sound generation, haptic feedback, and / or vibrotactile feedback ( But not limited to them).

3Dデータ可視化像を2D紙面上に図示することに特有の限界は、図2A〜2Dに示す3Dデータ可視化像が、基になる3Dデータ可視化像の二次元射影である、ということにある。本発明の多数の実施形態による3Dデータ可視化システムは、相互作用及び運動視差を可能にする対話型の3D可視化を提供し、相互作用及び運動視差は、図2A及び2Dを生成するために利用される方法で3Dデータを投影する際に失われる。従って、本発明の一実施形態による3Dデータ可視化システムによって生成される3Dデータ可視化像における対話型のデータ探索を例示するビデオ・シーケンス(動画像列)は、
http://www.virtualitics.com/patent/Virtualitics1.mp4、及び
http://www.virtualitics.com/patent/Virtualitics2.mp4
より入手可能であり、同じ対話型セッションの3Dビデオ・シーケンスは、
http://www.virtualitics.com/patent/Virtualitics3.mp4
より入手可能である。上記2Dビデオ・シーケンスと3Dビデオ・シーケンスとの比較は、上記3Dデータ可視化システムによって3Dデータ可視化像を生成するために用いられるデータの構造を解釈するに当たっての、運動視差の効果の感覚を提供する。
http://www.virtualitics.com/patent/Virtualitics1.mp4、
http://www.virtualitics.com/patent/Virtualitics2.mp4、及び
http://www.virtualitics.com/patent/Virtualitics3.mp4
に見出される2D及び3Dビデオ・シーケンスは、その全体を参照することによって本明細書に含める。
A limitation inherent in illustrating 3D data visualization images on 2D paper is that the 3D data visualization images shown in FIGS. 2A-2D are two-dimensional projections of the underlying 3D data visualization images. A 3D data visualization system according to many embodiments of the present invention provides interactive 3D visualization that allows interaction and motion parallax, which is utilized to generate FIGS. 2A and 2D. Lost when projecting 3D data. Accordingly, a video sequence (moving image sequence) illustrating an interactive data search in a 3D data visualization generated by a 3D data visualization system according to an embodiment of the present invention is as follows:
http://www.virtualitics.com/patent/Virtualitics1.mp4, and
http://www.virtualitics.com/patent/Virtualitics2.mp4
More available and the same interactive session 3D video sequence is
http://www.virtualitics.com/patent/Virtualitics3.mp4
More available. Comparison of the 2D video sequence with the 3D video sequence provides a sense of the effect of motion parallax in interpreting the structure of the data used to generate the 3D data visualization image by the 3D data visualization system. .
http://www.virtualitics.com/patent/Virtualitics1.mp4,
http://www.virtualitics.com/patent/Virtualitics2.mp4, and
http://www.virtualitics.com/patent/Virtualitics3.mp4
The 2D and 3D video sequences found in are hereby incorporated by reference in their entirety.

以下に続く説明の大部分は、3Dオブジェクトを仮想空間内にレンダリングすることによって生み出される対話型の多次元可視化像の生成に関係するが、本発明の多数の実施形態によるシステム及び方法を利用して、多次元データの可視化像を、データを表現するための種々の異なる技術を用いて生成することができる。いくつかの実施形態では、3Dデータ可視化像が、3D折れ線プロット(例えば、図3A及び3B参照)及び/または3D表面(例えば、図4A及び4B参照)を含むことができる。図3A及び3Bは、複数の視点からの3Dグラフの可視化像を例示し、ここではデータを一連の3D折れ線プロットとして可視化している。比較として、これらの3D折れ線プロットの二次元射影を図3C〜3Eに示す。図4A及び4Bに、複数の視点からの3Dグラフの可視化像を例示し、ここではデータを表面として可視化している。比較として、これらの3D表面の二次元射影を図4C〜4Eに示す。従って、本発明の異なる実施形態によるシステム及び方法は、特定種類の3Dデータ可視化像に限定されず、種々の3Dデータ可視化像のいずれをも生成するために利用することができる。本発明の種々の実施形態による、ユーザの認知システムが高次元データを解釈して高次元データと相互作用することを可能にする3Dデータ可視化を実行するためのシステム及び方法は、以下でさらに説明する。   Most of the description that follows relates to the generation of interactive multi-dimensional visualizations created by rendering 3D objects in virtual space, but utilizes systems and methods according to numerous embodiments of the present invention. Thus, a visualized image of multidimensional data can be generated using a variety of different techniques for representing the data. In some embodiments, the 3D data visualization image can include a 3D line plot (eg, see FIGS. 3A and 3B) and / or a 3D surface (eg, see FIGS. 4A and 4B). 3A and 3B illustrate a 3D graph visualization from multiple viewpoints, where the data is visualized as a series of 3D line plots. For comparison, two-dimensional projections of these 3D line plots are shown in FIGS. 4A and 4B illustrate visualization images of a 3D graph from a plurality of viewpoints, where data is visualized as a surface. For comparison, two-dimensional projections of these 3D surfaces are shown in FIGS. Thus, systems and methods according to different embodiments of the present invention are not limited to specific types of 3D data visualization images, and can be used to generate any of a variety of 3D data visualization images. Systems and methods for performing 3D data visualization that allow a user's cognitive system to interpret and interact with high-dimensional data according to various embodiments of the present invention are further described below. To do.

3Dデータ可視化システム
本発明の特定実施形態による3Dデータ可視化システムは、単一ユーザまたは複数ユーザによる3Dグラフの探索用に構成することができる。いくつかの実施形態では、3Dデータ可視化システムが、データ次元を3D仮想オブジェクトにマップする3Dレンダリング・エンジンを含み、これらの3D仮想オブジェクトは、この3Dレンダリング・エンジンによって仮想空間内での可視化用にレンダリングされる。マシンビジョン(機械視覚)システム及び/またはセンサシステムを利用して、1人以上のユーザのポーズを追跡することができ、より具体的には、ユーザの頭部位置を追跡することができる。頭部位置を利用して視点を測定することができ、この視点から、仮想空間の3D表示を、仮想空間内のデータと相互作用しているユーザ毎にレンダリングすることができる。複数のユーザが1つの仮想空間内で共同作業している場合、ユーザの頭部位置及び/またはポーズを利用して、各ユーザに提示される3D表示をレンダリングし、個別ユーザのアバターをデータ空間内にレンダリングすることができる。
3D Data Visualization System A 3D data visualization system according to certain embodiments of the invention can be configured for searching a 3D graph by a single user or multiple users. In some embodiments, a 3D data visualization system includes a 3D rendering engine that maps data dimensions to 3D virtual objects, which are used for visualization in virtual space by the 3D rendering engine. Rendered. Machine vision (machine vision) systems and / or sensor systems can be utilized to track the pose of one or more users, and more specifically, the user's head position. The viewpoint can be measured using the head position, and from this viewpoint, a 3D display of the virtual space can be rendered for each user interacting with data in the virtual space. When multiple users are collaborating in one virtual space, the user's head position and / or pose is used to render the 3D display presented to each user and the individual user's avatar to the data space Can be rendered within.

本発明の一実施形態による、異なるユーザの異なる視点からの3Dグラフのレンダリングを、図5A〜5Dに概念的に例示する。本発明の一実施形態による、複数のユーザのアバターを仮想空間内に示す3D可視化像を、図5Eに例示する。図示する3Dデータ可視化像では3Dグラフ500を示し、このグラフでは、データ点が3Dオブジェクト502として可視化され、他のユーザが仮想空間を探索している視点はアバター504、506として示す。以下に説明するように、ユーザが仮想空間内の自分の位置を確認する能力は、グリッド(格子)線508及び軸ラベル510のような直感的なインタラクション・プリミティブを提供することによって増強することができる。多数の実施形態では、共同作業しているユーザが仮想空間を通って独立して移動することができ、あるいは、一組のユーザが、単一ユーザが仮想空間と相互作用することによって制御される仮想空間の同じ可視化を体験することができる。容易にわかるように、3Dデータ可視化システムによってサポートされる特定の共同作業の探索モードは、所定用途の要求に大きく依存する。   Rendering of 3D graphs from different viewpoints of different users according to one embodiment of the present invention is conceptually illustrated in FIGS. FIG. 5E illustrates a 3D visualization image showing a plurality of user avatars in virtual space, according to an embodiment of the present invention. In the illustrated 3D data visualization image, a 3D graph 500 is shown. In this graph, data points are visualized as 3D objects 502, and viewpoints where other users are searching the virtual space are shown as avatars 504 and 506. As described below, the ability of a user to confirm his position in virtual space can be enhanced by providing intuitive interaction primitives such as grid lines 508 and axis labels 510. it can. In many embodiments, collaborating users can move independently through the virtual space, or a set of users is controlled by a single user interacting with the virtual space. You can experience the same visualization of virtual space. As can be readily seen, the particular collaborative search mode supported by the 3D data visualization system is highly dependent on the requirements of a given application.

本発明の一実施形態による、ユーザ用の3つの空間次元内に多次元データの可視化像を生成するために利用することができる、及び/または、複数のユーザの共同作業によるこうした3D空間内での多次元データ探索を促進するために利用することができる多次元データ可視化システムを、図6Aに例示する。3Dデータ可視化システム600は3Dデータ可視化コンピュータシステム602を含み、3Dデータ可視化コンピュータシステム602は3Dディスプレイ604と通信するように構成され、図示する実施形態では、3Dディスプレイ604はヘッドマウント・ディスプレイである。   According to an embodiment of the present invention, it can be used to generate a visualized image of multidimensional data in three spatial dimensions for a user and / or in such a 3D space by the collaboration of multiple users. A multi-dimensional data visualization system that can be used to facilitate multi-dimensional data search is illustrated in FIG. 6A. The 3D data visualization system 600 includes a 3D data visualization computer system 602 that is configured to communicate with a 3D display 604, and in the illustrated embodiment, the 3D display 604 is a head-mounted display.

3Dデータ可視化コンピュータシステム602はカメラシステム606に接続することもでき、カメラシステム606を利用してユーザの画像データを捕捉することができ、このデータからユーザのポーズ及び/または頭部位置を測定することができる。このカメラシステムは、ジェスチャー系の入力を検出するための入力モダリティとして用いることもできる。追加的な、及び/または代案の入力モダリティを用意することができ、こうした入力モダリティは、ユーザ入力装置、及び音声入力を検出するためのマイクロホンを含む(が、それらに限定されない)。カメラシステムは、画像データを捕捉することができる種々の異なるカメラシステムのいずれをも含むことができ、こうしたカメラシステムからユーザのポーズを測定することができ、こうしたカメラシステムは、従来型カメラ、飛行時間型カメラ、構造化照明型カメラ、及び/またはマルチビュー(多画像)ステレオカメラを含む(が、それらに限定されない)。ポーズとは、多次元空間内のユーザの位置及び向きの両方のあらゆる表現を記述するために利用することができる。ポーズの単純な表現は頭部位置及び見る方向である。より複雑なポーズ表現は、交連骨格の関節位置を用いてユーザの体位を記述することができる。容易にわかるように、所定の3Dデータ可視化システム600内で利用されるポーズ及び/またはカメラシステムの具体的記述は、特定用途の要求に大きく依存する。   The 3D data visualization computer system 602 can also be connected to the camera system 606, and the camera system 606 can be used to capture user image data, from which the user's pose and / or head position is measured. be able to. This camera system can also be used as an input modality for detecting gesture-type input. Additional and / or alternative input modalities can be provided, including (but not limited to) a user input device and a microphone for detecting voice input. The camera system can include any of a variety of different camera systems that can capture image data and can measure a user's pose from such camera systems, such as conventional cameras, flight Including (but not limited to) temporal cameras, structured illumination cameras, and / or multi-view (multi-image) stereo cameras. A pose can be used to describe any representation of both a user's position and orientation in a multidimensional space. A simple representation of a pose is the head position and viewing direction. More complex pose expressions can describe the user's body position using the joint positions of the commissural skeleton. As will be readily appreciated, the specific description of the pose and / or camera system utilized within a given 3D data visualization system 600 is highly dependent on the specific application requirements.

多数の実施形態では、3Dデータ可視化コンピュータシステム602、3Dディスプレイ604、及びカメラシステム606が統合装置である。例えば、3Dデータ可視化コンピュータシステム602、3Dディスプレイ604、及びカメラシステム606は、(それに限定されないが)ワシントン州レッドモンドのマイクロソフト社によって市販されているHoloLens(登録商標)のようなヘッドマウント・ディスプレイ内に実現することができる。他の実施形態では、3Dデータ可視化コンピュータシステム602と3Dディスプレイ604とが無線接続経由で、カリフォルニア州メンロパークのOculus VR, LLCによって市販されているOculus Rift(登録商標)3Dディスプレイが利用しているのと同様の方法で通信することができる。容易にわかるように、3Dデータ可視化像は、MRヘッドセット(例えばHoloLens(登録商標))を用いた複合現実感の状況で表示される、及び/またはVR用3Dディスプレイ(例えばOculus(登録商標))を用いた完全没入型の環境内で表示される仮想オブジェクトの集合として構成することができる。   In many embodiments, the 3D data visualization computer system 602, the 3D display 604, and the camera system 606 are integrated devices. For example, a 3D data visualization computer system 602, a 3D display 604, and a camera system 606 are included in a head-mounted display such as (but not limited to) HoloLens® marketed by Microsoft Corporation of Redmond, Washington. Can be realized. In another embodiment, a 3D data visualization computer system 602 and a 3D display 604 utilize an Oculus Rift® 3D display marketed by Oculus VR, LLC of Menlo Park, California via a wireless connection. It is possible to communicate in the same way. As can be easily seen, the 3D data visualization is displayed in a mixed reality situation using an MR headset (eg HoloLens®) and / or a 3D display for VR (eg Oculus®). ) Can be configured as a collection of virtual objects displayed in a fully immersive environment.

特定の実施形態では、3Dデータ可視化コンピュータシステムが分散処理を利用することができる。多数の実施形態では、3Dデータ可視化像をレンダリングすることに関連する少なくとも一部の処理を、ヘッドマウント・ディスプレイ内のプロセッサによって実行することができる。いくつかの実施形態では、ヘッドマウント・ディスプレイと通信するローカル・コンピュータシステムによって追加的な処理を実行する。多数の実施形態では、インターネット経由で(可能性としてローカル・コンピュータシステム経由で)ヘッドマウント・ディスプレイと通信するリモート・コンピュータシステム(例えば、クラウド・コンピュータクラスタ内のコンピュータ・リソース)によって処理を実行する。従って、本発明の種々の実施形態による3Dデータ可視化コンピュータシステムは、単一のコンピュータ装置に限定されず、単一のコンピュータ装置、及び/またはヘッドマウント・ディスプレイ内のコンピュータシステム、ローカル・コンピュータシステム、及び/またはリモート・コンピュータシステムの組合せを包含することができる。容易にわかるように、所定の3Dデータ可視化システム内で使用される3Dデータ可視化コンピュータシステムの具体的実現は、特定用途の要求に大きく依存する。   In certain embodiments, a 3D data visualization computer system can utilize distributed processing. In many embodiments, at least some processing associated with rendering the 3D data visualization image may be performed by a processor in the head mounted display. In some embodiments, additional processing is performed by a local computer system that communicates with the head mounted display. In many embodiments, processing is performed by a remote computer system (eg, a computer resource in a cloud computer cluster) that communicates with the head mounted display via the Internet (possibly via a local computer system). Thus, a 3D data visualization computer system according to various embodiments of the present invention is not limited to a single computer device, but a single computer device and / or a computer system in a head-mounted display, a local computer system, And / or a combination of remote computer systems. As can be readily appreciated, the specific implementation of the 3D data visualization computer system used within a given 3D data visualization system is highly dependent on the specific application requirements.

本発明の一実施形態による、複数のユーザが多次元データ空間の3D可視化像内を同時に探索することができる多次元データ可視化システムを図6Bに例示する。3Dデータ可視化システム650は、ネットワーク656越しにサーバー・コンピュータシステム656を介して通信する2つのローカル・コンピュータシステム652を含む。ローカル・コンピュータシステム652の各々は、3Dディスプレイ658及びカメラシステム660に、図6Aを参照して上述したのと同様の方法で接続されている。   FIG. 6B illustrates a multidimensional data visualization system that allows multiple users to simultaneously search within a 3D visualization of a multidimensional data space, according to one embodiment of the present invention. The 3D data visualization system 650 includes two local computer systems 652 that communicate via a server computer system 656 over a network 656. Each of the local computer systems 652 are connected to the 3D display 658 and the camera system 660 in a manner similar to that described above with reference to FIG. 6A.

図示する実施形態では、ローカル・コンピュータシステム652の各々が、多次元データ空間の3Dモデルを構築して、ユーザのポーズの変化に応答してビデオ・シーケンス(2Dにも3Dにもすることができる)をレンダリングする。多数の実施形態では、ローカル・コンピュータシステム652が、ユーザによる独立したデータ探索を可能にするように構成され、ポーズ情報は、サーバー・コンピュータシステム654を介してローカル・コンピュータ652どうしの間で共有することができる。次に、ポーズ情報を利用して、特定のユーザが仮想空間を見ている位置を示すアバターを、仮想空間内にレンダリングすることができる。多数の実施形態では、ローカル・コンピュータシステム652がブロードキャスト(広域伝達)モードをサポートし、ブロードキャスト・モードでは、1人のユーザが仮想空間を通って進行(ナビゲート)し、進行中のユーザのポーズは、サーバー・コンピュータシステム654を介して、仮想空間内の他のユーザのローカル・コンピュータシステム652に伝達される。進行中のユーザからのポーズ情報を受信したローカル・コンピュータシステム652は、このポーズ情報を用いて、進行中のユーザの視点からの多次元データの可視化像を、他のユーザの3Dディスプレイによる表示用にレンダリングすることができる。   In the illustrated embodiment, each of the local computer systems 652 can build a 3D model of a multidimensional data space to be a video sequence (2D or 3D in response to changes in the user's pose. ). In many embodiments, the local computer system 652 is configured to allow independent data exploration by the user, and pause information is shared among the local computers 652 via the server computer system 654. be able to. Next, using the pose information, an avatar indicating a position where a specific user is looking at the virtual space can be rendered in the virtual space. In many embodiments, the local computer system 652 supports a broadcast (wide area transmission) mode, in which one user navigates through the virtual space and pauses the ongoing user. Are communicated via the server computer system 654 to other users' local computer systems 652 in the virtual space. The local computer system 652 that has received the pose information from the ongoing user uses this pose information to display a visualized image of the multidimensional data from the viewpoint of the ongoing user on the 3D display of the other user. Can be rendered.

多数の実施形態では、3Dビデオ・シーケンスをレンダリングして、この3Dビデオ・シーケンスを他のユーザのローカル・コンピュータシステム652へストリーム送信することによって、ブロードキャスト・モードがサポートされる。いくつかの実施形態では、サーバー・コンピュータシステム654が、ローカル・コンピュータシステム652から受信したポーズ情報に基づいて、3Dデータ可視化像をユーザ毎に生成して、3Dビデオ・シーケンスをネットワーク656上で、3Dディスプレイによる表示用にローカルコンピュータへストリーム送信するのに十分な計算能力(例えば、グラフィックス・プロセッシング・ユニット(図形処理装置))を含む。   In many embodiments, a broadcast mode is supported by rendering a 3D video sequence and streaming the 3D video sequence to another user's local computer system 652. In some embodiments, the server computer system 654 generates a 3D data visualization image for each user based on the pose information received from the local computer system 652 and generates a 3D video sequence over the network 656. Includes sufficient computing power (eg, graphics processing unit) to stream to a local computer for display by a 3D display.

多次元データの3D可視化用のコンピュータシステム
多次元データの3D可視化像を生成することができるコンピュータシステムは種々の形態をとることができ、すべての計算を単一のコンピュータ装置によって実行する実現から、ヘッドマウント・ディスプレイ、ローカル・コンピュータシステム、及び/またはクラウドベースのサーバーシステムにわたって処理を分散させる複合システムまでを含む。異なる処理の具体的な分散は、ユーザの数及び所定用途の要求に大きく依存する。
Computer System for 3D Visualization of Multidimensional Data A computer system capable of generating a 3D visualization of multidimensional data can take a variety of forms, from an implementation in which all calculations are performed by a single computer device, Up to complex systems that distribute processing across head-mounted displays, local computer systems, and / or cloud-based server systems. The specific distribution of different processes is highly dependent on the number of users and the requirements for a given application.

本発明の一実施形態による、単一のコンピュータ装置上に実現される多次元データ可視化コンピュータシステムを、図7に示す。多次元データ可視化コンピュータシステム700は、パーソナル・コンピュータ、ラップトップ・コンピュータ、ヘッドマウント・ディスプレイ装置、及び/または3D表示を十分なフレームレートでレンダリングして特定用途の対話型の3Dデータ可視化の要求を満足するのに十分な処理能力を有する他のあらゆるコンピュータ装置とすることができる。   A multidimensional data visualization computer system implemented on a single computer device according to an embodiment of the present invention is shown in FIG. The multi-dimensional data visualization computer system 700 renders personal computer, laptop computer, head mounted display device, and / or 3D display at a sufficient frame rate to meet the demands of interactive 3D data visualization for specific applications. It can be any other computer device that has sufficient processing power to satisfy.

3Dデータ可視化コンピュータシステム700はプロセッサ702を含む。プロセッサ702とは、3Dデータ可視化コンピュータシステムのメモリ704内に記憶された機械可読の命令により計算を実行するように構成することができる、コンピュータ装置内の1つ以上の装置を参照すべく用いる。プロセッサ702は、1つ以上のマイクロプロセッサ(CPU:central processing unit)、1つ以上のグラフィックス・プロセッシング・ユニット(GPU:graphics processing unit)、及び1つ以上のデジタル・シグナル・プロセッサ(DSP:digital signal processor)を含むことができる。これに加えて、プロセッサ702は、3Dデータ可視化コンピュータシステムを加速させるように開発された種々の特定用途向け回路のいずれをも含むことができる。   The 3D data visualization computer system 700 includes a processor 702. The processor 702 is used to refer to one or more devices in a computer device that can be configured to perform calculations according to machine-readable instructions stored in the memory 704 of the 3D data visualization computer system. The processor 702 includes one or more central processing units (CPUs), one or more graphics processing units (GPUs), and one or more digital signal processors (DSPs). signal processor). In addition, the processor 702 can include any of a variety of application specific circuits that have been developed to accelerate 3D data visualization computer systems.

図示する実施形態では、3Dデータ可視化コンピュータシステム700が、リモート・コンピュータシステム(例えば、他のユーザのコンピュータシステム、及び/またはリモートサーバー・コンピュータシステム)と通信するためのネットワーク・インタフェース706、及び3Dディスプレイ及び/またはカメラシステムを含む(がそれらに限定されない)種々の装置と通信するために利用することができる入力/出力(I/O:input/output)インタフェースを含む。多次元データの3D可視化像を生成するために使用されるコンピュータシステムに要求される具体的な通信及びI/O能力は、一般に所定用途の要求に基づいて決まる。   In the illustrated embodiment, the 3D data visualization computer system 700 has a network interface 706 for communicating with a remote computer system (eg, another user's computer system and / or a remote server computer system), and a 3D display. And / or an input / output (I / O) interface that can be utilized to communicate with various devices including (but not limited to) a camera system. The specific communications and I / O capabilities required for computer systems used to generate 3D visualizations of multidimensional data are generally determined based on the requirements of a given application.

容易にわかるように、種々のソフトウェア・アプリケーションを利用して、本発明の実施形態による多次元データ可視化コンピュータシステムを実現することができる。図示する実施形態では、3Dデータ可視化像が、オペレーティングシステム712によって生成される計算環境内で実行される3Dデータ可視化アプリケーション710によって生成される。3Dデータ可視化アプリケーション710は、3Dレンダリング・エンジン714を利用して、3Dディスプレイにより表示することができる3Dデータ可視化像を生成する。多数の実施形態では、3Dデータ可視化アプリケーション710が、多次元データ集合716をメモリ内データ構造718内にロードし、メモリ内データ構造718は3Dデータ可視化コンピュータシステムの低レイテンシ(待ち時間)メモリ内に記憶されている。多次元データ集合716は、ファイル及び/またはデータベース内にローカルに記憶することができる。いくつかの実施形態では、多次元データがリモートで(例えば分散型データベース内に)記憶され、多次元データの一部または全部を、3Dデータ可視化アプリケーション710によって維持されるメモリ内データ構造718内にロードする。多数の実施形態では、多次元データを少なくとも1つの可視化テーブル内にロードする。以下に説明するように、3Dデータ可視化アプリケーション710が多次元データを少なくとも1つの可視化テーブル内にロードする際に、追加的なデータ次元を多次元データに追加することができる。いくつかの実施形態では、可視化テーブルが可視性の次元を含み、3Dデータ可視化アプリケーションが、可視化テーブル内に含まれる多次元データ集合内の個別項目の可視性の値を、当該項目に対応する3Dオブジェクトが可視化テーブル内に含まれる多次元データが現在の3D可視化像内で可視であるか否かを反映するように変更する。容易にわかるように、所定用途の要求に適合していれば、種々の追加的次元のいずれをも、3Dデータ可視化アプリケーションによって多次元データに追加することができる。   As can be readily appreciated, various software applications can be utilized to implement a multidimensional data visualization computer system according to embodiments of the present invention. In the illustrated embodiment, the 3D data visualization image is generated by a 3D data visualization application 710 that runs within a computing environment generated by the operating system 712. The 3D data visualization application 710 utilizes a 3D rendering engine 714 to generate a 3D data visualization image that can be displayed by a 3D display. In many embodiments, the 3D data visualization application 710 loads the multi-dimensional data set 716 into the in-memory data structure 718, which is in the low-latency (latency) memory of the 3D data visualization computer system. It is remembered. The multidimensional data set 716 can be stored locally in a file and / or database. In some embodiments, multidimensional data is stored remotely (eg, in a distributed database), and some or all of the multidimensional data is stored in an in-memory data structure 718 maintained by the 3D data visualization application 710. Load it. In many embodiments, multidimensional data is loaded into at least one visualization table. As described below, additional data dimensions can be added to the multidimensional data as the 3D data visualization application 710 loads the multidimensional data into at least one visualization table. In some embodiments, the visualization table includes a visibility dimension, and the 3D data visualization application uses a visibility value of an individual item in the multi-dimensional data set included in the visualization table to correspond to the item in 3D. The object is modified to reflect whether the multidimensional data contained in the visualization table is visible in the current 3D visualization image. As will be readily appreciated, any of a variety of additional dimensions can be added to the multidimensional data by the 3D data visualization application, as long as it meets the requirements of a given application.

以下でさらに説明するように、ユーザは、データ次元を3Dデータ可視化像内の3Dオブジェクトの属性にマップするマッピングを選択し、これにより多次元データの可視化像を効果的に生成することができる。これらのマッピングはデータ次元マッピング720として記憶される。3Dデータ可視化アプリケーション710は、データ次元マッピング720を用いて、3Dオブジェクトの属性を3Dレンダリング・エンジン714に提供することができる。多数の実施形態では、3Dレンダリング・エンジン714が、メモリに記憶された3Dモデル722内の3Dオブジェクトのインスタンスを作成し、3Dオブジェクトの属性を更新することができる。いくつかの実施形態では、3Dレンダリング・エンジンが、メモリ内データ構造718内にロードされたデータ点の数に基づいて、3Dオブジェクトのインスタンスを3Dモデル722内に作成することができる。このようにして、3Dレンダリング・エンジン714は、ユーザによる可視化用のデータ次元の選択に応答して、3Dデータ可視化像を容易に生成することができる、というのは、3Dオブジェクトのインスタンスが作成され、3Dレンダリング・エンジン714は、可視化像を生成するために、3Dモデル722内の3Dオブジェクトの属性を変更するだけでよいからである。他の実施形態では、ユーザによる3Dオブジェクトの属性の定義に応答して、3Dオブジェクトのインスタンスを作成する。   As described further below, the user can select a mapping that maps data dimensions to attributes of 3D objects in the 3D data visualization image, thereby effectively generating a visualization image of multidimensional data. These mappings are stored as data dimension mapping 720. The 3D data visualization application 710 can use the data dimension mapping 720 to provide 3D object attributes to the 3D rendering engine 714. In many embodiments, the 3D rendering engine 714 can create an instance of a 3D object in the 3D model 722 stored in memory and update the attributes of the 3D object. In some embodiments, the 3D rendering engine can create an instance of the 3D object in the 3D model 722 based on the number of data points loaded in the in-memory data structure 718. In this way, the 3D rendering engine 714 can easily generate a 3D data visualization image in response to a user selecting a data dimension for visualization, since an instance of a 3D object is created. This is because the 3D rendering engine 714 only needs to change the attributes of the 3D object in the 3D model 722 to generate a visualized image. In other embodiments, an instance of a 3D object is created in response to a user defining a 3D object attribute.

3Dレンダリング・エンジン714は、3Dモデル722を利用して、3Dディスプレイにより提示することができるステレオ画像をレンダリングすることができる。多数の実施形態では、3Dデータ可視化アプリケーションが、ディスプレイ・ドライバ724を用いて、レンダリングの視点726を3Dディスプレイにより表示する。特定のレンダリングの視点は、(例えばブロードキャスト中モードでは)リモート・コンピュータシステムから受信したポーズデータ728によって、あるいは3Dデータ可視化コンピュータシステムが画像及び/または他のセンサデータから決定したポーズデータ728に基づいて、決めることができる。   The 3D rendering engine 714 can utilize the 3D model 722 to render a stereo image that can be presented by a 3D display. In many embodiments, a 3D data visualization application uses a display driver 724 to display a rendering viewpoint 726 with a 3D display. The particular rendering viewpoint is based on pose data 728 received from a remote computer system (eg, in broadcast mode) or based on pose data 728 determined by the 3D data visualization computer system from images and / or other sensor data. Can be decided.

図示する実施形態では、3D可視化アプリケーション710が、ポーズデータ728をマシンビジョン・アプリケーション730から受信し、マシンビジョン・アプリケーション730は、画像データをカメラシステムから1つ以上のカメラドライバ732を用いて取得する。マシンビジョン・アプリケーション720は、捕捉した画像データからユーザの頭部の位置及び向きを含む(がそれに限定されない)ユーザのポーズを抽出するように、プロセッサ702を構成する。上述したように、ユーザのポーズを利用して、3Dモデル722からの画像をレンダリングする視点726を決めることができる。多数の実施形態では、ユーザのポーズを利用して3Dモデルの要素も制御し、これらの要素は、3Dオブジェクトの照明、仮想空間を通る移動速度、及び/またはインタラクション・プリミティブの可視性を含む(が、それらに限定されない)。本発明の種々の実施形態による、ユーザのポーズを利用して多次元データの3D可視化のレンダリングを変更することができる具体的方法は、以下でさらに説明する。   In the illustrated embodiment, a 3D visualization application 710 receives pause data 728 from a machine vision application 730 that obtains image data from a camera system using one or more camera drivers 732. . The machine vision application 720 configures the processor 702 to extract the user's pose, including (but not limited to) the user's head position and orientation, from the captured image data. As described above, a user's pose can be used to determine a viewpoint 726 for rendering an image from the 3D model 722. In many embodiments, the user's pose is also used to control the elements of the 3D model, including the lighting of the 3D object, the speed of movement through the virtual space, and / or the visibility of interaction primitives ( But not limited to them). Specific methods by which a user's pose can be used to change the rendering of 3D visualization of multidimensional data according to various embodiments of the present invention are further described below.

複数のユーザが同じ仮想空間を同時に可視化中である多次元データの3D可視化像を、多次元データ可視化コンピュータシステム700が生成している際には、3Dレンダリング・エンジン714は、アバター毎のポーズ情報を含むアバター・メタデータ734、及び(随意的に)アバターの識別情報を用いて、ユーザの視野内に位置するアバターが、3Dレンダリング・エンジンによるレンダリングの視点726において可視であるような方法で、これらのアバターを3Dモデル722内に含めるることもできる。   When the multidimensional data visualization computer system 700 generates a 3D visualization image of multidimensional data in which a plurality of users are simultaneously visualizing the same virtual space, the 3D rendering engine 714 displays pose information for each avatar. Using the avatar metadata 734 and the (optionally) avatar identification information in such a way that the avatar located within the user's field of view is visible in the rendering viewpoint 726 by the 3D rendering engine; These avatars can also be included in the 3D model 722.

多数の実施形態では、3Dレンダリング・エンジン714が3Dグラフィック・エンジンまたは3Dゲーム・エンジンの一部を形成し、この3Dグラフィック・エンジンまたは3Dゲーム・エンジンは、(それに限定されないが)スクリプト言語のようなメカニズムを用いて3Dデータ可視化アプリケーション710を当該3Dグラフィック・エンジン内に実装することを可能にする。他の実施形態では、3Dレンダリング・エンジンが3Dデータ可視化アプリケーションの一部を形成する。容易にわかるように、上記の3Dデータ可視化アプリケーション、3Dレンダリング・エンジン、及び/またはマシンビジョン・アプリケーションは、独立して、単一のアプリケーションとして、あるいは、(それに限定されないが)ウェブ・ブラウザ・アプリケーションのような他のアプリケーション内に、または他のアプリケーション用のプラグインとして実現することができる。3Dデータ可視化アプリケーションを実現することができる具体的方法は、所定のコンピュータシステム及び/または使用事例の要求に大きく依存する。   In many embodiments, the 3D rendering engine 714 forms part of a 3D graphics engine or 3D game engine, such as (but not limited to) a scripting language. 3D data visualization application 710 can be implemented in the 3D graphics engine using a simple mechanism. In other embodiments, the 3D rendering engine forms part of a 3D data visualization application. As will be readily appreciated, the 3D data visualization application, 3D rendering engine, and / or machine vision application described above can be independently, as a single application, or (but not limited to) a web browser application. Or can be implemented as a plug-in for other applications. The specific way in which 3D data visualization applications can be implemented depends largely on the requirements of a given computer system and / or use case.

特定の多次元データ可視化システム及び3Dデータ可視化コンピュータシステムを、図6A〜図7に関して上述しているが、種々のコンピュータ・プラットフォーム(基盤)、3Dディスプレイ、及び/またはカメラシステムのいずれをもを利用して、本発明の種々の実施形態による3Dデータ可視化像内の対話型の探索を可能にするプロセスを実現することができる。本発明の多数の実施形態による3Dデータの対話型の探索は、以下でさらに説明する。   Certain multidimensional data visualization systems and 3D data visualization computer systems are described above with respect to FIGS. 6A-7, but utilize any of a variety of computer platforms (bases), 3D displays, and / or camera systems. Thus, a process that enables interactive searching within 3D data visualization images according to various embodiments of the present invention can be implemented. Interactive searching of 3D data according to numerous embodiments of the present invention is further described below.

3Dデータ可視化像を生成する
本発明の多数の実施形態による、3Dデータ可視化像を生成するためのプロセスは、データをメモリ内データ構造内へロードすること、及び次に、データ次元を3Dオブジェクトの属性にマップして、3Dディスプレイによる3Dデータ可視化像のレンダリングを可能にすることを含む。本発明の一実施形態による、多次元データの可視化像を生成するためのプロセスを、図8Aに例示する。プロセス800は、データ点を、(それに限定されないが)可視化テーブルのようなメモリ内データ構造内にロードするステップ(802)を含む。図示する実施形態では、データ点の各々に対して、3Dオブジェクトのインスタンスを作成する(ステップ804)。上述したように、データ次元を3Dオブジェクトの属性にマップするマッピングを受信する前に3Dオブジェクトのインスタンスを作成することは、3Dデータ可視化像をレンダリングすることができるためのレイテンシを減少させることができる。他の実施形態では、3Dオブジェクトの属性を決定するデータ・マッピングが規定されるまで、3Dオブジェクトのインスタンスを作成しない。容易にわかるように、3D表示のレンダリングに対する、3Dオブジェクトのインスタンス作成のタイミングは、所定用途の要求に大きく依存する。いくつかの実施形態では、データ点をメモリ内データ構造内にロードするプロセスが、3Dデータ可視化像内における特定データ点の可視性を記述する追加的なデータ次元を生成することを含む。個別のデータ点に対する可視性のデータ次元をプロセス800によって更新して、所定のデータ点が3Dデータ可視化像の一部であるべきでないことを示すことができる。この関係では、可視性は、ユーザの視野内にあることとは区別される概念であり、その代わりに、プロセス800による当該データ点を3Dグラフ内にレンダリングしないことの決定を参照する。あるデータ点を除外する理由は、当該データ点が、ある3Dオブジェクトの属性にマップされるデータ次元のうちの1つに関して、値を有さないか無効な値を有することを含むことができる(が、それに限定されない)。容易にわかるように、所定用途の要求に適合していれば、種々の理由のいずれをも利用して、特定のデータ点を3D可視化像内に含めるべきでないものと判定することができる。データ取得中に追加される可視性のデータ次元は、個別のデータ点を可視化しないことの決定を反映するためのメカニズムを提供する。
Generating a 3D Data Visualization Image A process for generating a 3D data visualization image according to a number of embodiments of the present invention includes loading data into an in-memory data structure, and then setting the data dimension of the 3D object. Mapping to attributes to allow rendering of 3D data visualizations on 3D displays. A process for generating a visualized image of multidimensional data according to one embodiment of the present invention is illustrated in FIG. 8A. Process 800 includes loading (802) the data points into an in-memory data structure such as (but not limited to) a visualization table. In the illustrated embodiment, an instance of a 3D object is created for each data point (step 804). As mentioned above, creating an instance of a 3D object before receiving a mapping that maps data dimensions to attributes of the 3D object can reduce the latency for rendering a 3D data visualization. . In other embodiments, an instance of the 3D object is not created until a data mapping is defined that determines the attributes of the 3D object. As can be readily seen, the timing of 3D object instantiation for 3D display rendering is highly dependent on the requirements of a given application. In some embodiments, the process of loading data points into an in-memory data structure includes generating additional data dimensions that describe the visibility of specific data points in the 3D data visualization image. Visibility data dimensions for individual data points can be updated by process 800 to indicate that a given data point should not be part of a 3D data visualization. In this relationship, visibility is a distinction from being in the user's field of view, and instead refers to the decision by the process 800 not to render the data point in the 3D graph. Reasons for excluding a data point may include that the data point has no value or has an invalid value for one of the data dimensions mapped to an attribute of a 3D object ( But is not limited to that). As can be readily appreciated, any of a variety of reasons can be used to determine that a particular data point should not be included in the 3D visualization if it meets the requirements of a given application. The visibility data dimension added during data acquisition provides a mechanism for reflecting the decision not to visualize individual data points.

プロセス800は、データ次元のマッピングを用いて3Dオブジェクトの属性を決定するステップ(806)を含む。ユーザ・インタフェースは、データ点を記述するデータ次元に関する情報を提示して、3Dオブジェクトの属性にマップすべき特定のデータ次元をユーザが選択することを可能にすることができる。いくつかの実施形態では、データ次元のマッピングが3Dオブジェクトの特徴を定め、これらの特徴は、3Dオブジェクトの可視性、仮想空間内の3Dオブジェクトの位置、3Dオブジェクトをレンダリングするために用いる形状、仮想空間内にレンダリングされる3Dオブジェクトのサイズ、及び/または3Dオブジェクトの色を含む(が、それらに限定されない)。特定の実施形態では、4つ以上のデータ次元の可視化像を、データ次元のマッピングを用いることによって生成して、3Dオブジェクトの追加的な特徴を定めることができ、これらの特徴は、3Dオブジェクトのテクスチャ、及び/または3Dオブジェクトの透明度を含む(が、それらに限定されない)。多数の実施形態では、定義することができる属性のリストが:X(浮動小数点の値)、Y(浮動小数点の値)、Z(浮動小数点の値)、形状(浮動小数点の値)、サイズ(浮動小数点の値)、カラーパレット(浮動小数点の値、ストリング(文字列))、カラーマップ(浮動小数点の値、ストリング)、カラースケール(色尺度)(浮動小数点の値、ストリング)、カラースケール(浮動小数点の値、ストリング)、及び透明度(浮動小数点の値)を含む(が、それらに限定されない)。視覚的属性を補完するものとして、データ次元のマッピングを、3Dオブジェクトによって表現されるデータ点を記述するメタデータに関して定義することもでき、これらのメタデータは:ID(ストリング)、URL(ストリング)、マスク(あるデータ点が選択されているか否かを示すために用いる浮動小数点の値)、表示可否(浮動小数点、ストリング、データ点を表示するべきか否かをフィルタに基づいて示すために用いる、例えば”US(United States:米国)”に等しい国名の値を有するデータ点のみを示す)を含む(が、それらに限定されない)。3Dオブジェクトに関連する追加的な属性は、3Dオブジェクトの微妙な動き(例えば、ジッターまたはねじれの異なる速度区分へデータを入れる)、音発生、触覚フィードバック、及び/または振動触覚フィードバックを含むことができる(が、それらに限定されない)。特定の属性を上述しているが、上述した属性の一部または全部のあらゆる部分集合及び/または組合せを、データ点の可視化における追加的な属性と組み合わせることができる。データ点を3Dグラフ内に可視化するために利用される具体的な属性は、所定の3Dデータ可視化システムの要求に大きく依存する。   Process 800 includes determining 806 attributes of the 3D object using data dimension mapping. The user interface can present information about the data dimensions that describe the data points and allow the user to select specific data dimensions to map to the attributes of the 3D object. In some embodiments, the mapping of the data dimension defines the characteristics of the 3D object, which are the visibility of the 3D object, the position of the 3D object in virtual space, the shape used to render the 3D object, the virtual It includes (but is not limited to) the size of the 3D object rendered in space and / or the color of the 3D object. In certain embodiments, visualizations of four or more data dimensions can be generated by using a data dimension mapping to define additional features of the 3D object, and these features can be Including (but not limited to) textures and / or transparency of 3D objects. In many embodiments, the list of attributes that can be defined is: X (floating point value), Y (floating point value), Z (floating point value), shape (floating point value), size ( Floating point value), color palette (floating point value, string (string)), color map (floating point value, string), color scale (color scale) (floating point value, string), color scale ( Including (but not limited to) floating point values, strings), and transparency (floating point values). As a complement to visual attributes, data dimension mappings can also be defined with respect to metadata describing the data points represented by the 3D object, which are: ID (string), URL (string) , Mask (floating point value used to indicate whether a data point is selected), displayable (floating point, string, used to indicate whether a data point should be displayed based on a filter (Only data points having a country name value equal to “United States”) are shown (but not limited to). Additional attributes associated with the 3D object may include subtle movements of the 3D object (eg, putting data into different speed categories of jitter or torsion), sound generation, haptic feedback, and / or vibrotactile feedback. (But not limited to them). Although specific attributes are described above, any subset and / or combination of some or all of the attributes described above can be combined with additional attributes in the visualization of the data points. The specific attributes used to visualize the data points in the 3D graph are highly dependent on the requirements of a given 3D data visualization system.

データ次元を属性にマップするマッピング(ステップ806)はユーザによって実行されることが多いが、ユーザ及び/または3Dデータ可視化システムは、以前から記憶している3Dデータ可視化像を用いて、データ次元を属性にマップするマッピングを定義することもできる。このようにして、ユーザは、新たなデータ集合または更新されたデータ集合(例えば、新たなデータ点が追加されたデータ集合)をロードして、以前に選択したマッピングの集合を利用してデータを可視化することができる。従って、3Dオブジェクトの属性は、以前に生成された3Dデータ可視化像内に含まれるマッピングに基づいて自動的に決定することができる(ステップ806)。多数の実施形態では、複数のユーザが3Dデータ可視化像を共有し、共有される3Dデータ可視化像内のマッピングを利用して、3Dオブジェクトの属性を決定することができる(ステップ806)。複数のユーザは、他のユーザによる独立した利用のために、及び/またはブロードキャスト(広域伝達)される3Dデータ可視化像の一部として、3Dデータ可視化像を共有することができる。   The mapping that maps the data dimension to the attribute (step 806) is often performed by the user, but the user and / or 3D data visualization system uses the previously stored 3D data visualization image to determine the data dimension. You can also define mappings that map to attributes. In this way, the user loads a new or updated data set (eg, a data set with new data points added) and uses the previously selected set of mappings to retrieve the data. Can be visualized. Accordingly, the attributes of the 3D object can be automatically determined based on the mapping included in the previously generated 3D data visualization (step 806). In many embodiments, multiple users can share a 3D data visualization and utilize the mapping in the shared 3D data visualization to determine the attributes of the 3D object (step 806). Multiple users can share a 3D data visualization for independent use by other users and / or as part of a 3D data visualization that is broadcast.

プロセス800は、ユーザの視点に基づいて3D表示をレンダリングする(ステップ814)。従って、ユーザのポーズを測定し(ステップ808)、このポーズを用いて、仮想空間内のユーザの位置、及びユーザの視野内にある3Dオブジェクトに基づいて、3D表示をレンダリングすることができる。以下で図8Bを参照してさらに説明するように、
多数(あるいは全部)の3Dオブジェクトのメッシュに基づいて、1つ以上のメッシュを3Dオブジェクトのグループ用に作成することによって、レンダリング中に追加的な計算効率を得ることができる。このようにして、(それに限定されないが)衝突処理のような物理プロセスを含むプロセスを、ずっと少数の3Dオブジェクトのグループに対して実行することができる。容易にわかるように、3Dデータ可視化像をレンダリングするために必要な計算を低減する目的で、複数の3Dオブジェクトを3Dオブジェクトのグループにまとめることは、所定用途の要求に大きく依存する。
Process 800 renders a 3D display based on the user's viewpoint (step 814). Accordingly, the user's pose can be measured (step 808) and the pose can be used to render a 3D display based on the user's position in virtual space and the 3D object in the user's field of view. As described further below with reference to FIG. 8B,
Additional computational efficiency can be obtained during rendering by creating one or more meshes for a group of 3D objects based on a mesh of many (or all) 3D objects. In this way, processes including physical processes such as (but not limited to) collision handling can be performed on a much smaller group of 3D objects. As can be readily seen, grouping multiple 3D objects into a group of 3D objects in order to reduce the computations required to render the 3D data visualization image is highly dependent on the requirements of a given application.

3Dデータの効果的な可視化は、ユーザがデータ内の構造を知覚する能力を増強し、可視化されるデータの特徴とは無関係な外観の変化を3Dグラフ内の3Dオブジェクトに取り入れることを回避する。多数の実施形態では、3Dデータ可視化の種々の態様を、ユーザのポーズに基づいて変更して、ユーザがデータの構造を知覚する能力を増強する。いくつかの実施形態では、3D表示をレンダリングするプロセスが、ユーザのポーズに基づいて3Dオブジェクトを照明するステップ(810)を含む。以下に説明するように、ユーザの視野内にある各3Dオブジェクトを、ユーザの視点で、あるいはユーザの視点から少しオフセットした所で発光する指向性光源を用いて照明することは、同様な3Dオブジェクトの外観の類似性を、ユーザの視野全体にわたって保つことができる。本発明の種々の実施形態による、ユーザのポーズに基づいて3Dオブジェクトを照明するプロセスを以下に説明する。3Dオブジェクトが見る方向に基づいて異なる外観を有する場合、ユーザの視野内にある3Dオブジェクトの向きを、ユーザに「対面」するように再配向することができる(但し、以下に説明するように、ユーザに対面することは、実際には3Dオブジェクトを、3D形状の特徴をより良く目立たせることに合った角度に向けることを含む)。このようにして、ユーザがオブジェクトを見る向きがどうであろうと、オブジェクトの外観は3Dグラフ内で常に同じになり、ユーザが意識的または無意識に向きの違いを意味ある情報と混同することが回避される。しかし、他の実施形態では、向きを固定すること、及び/または向きを用いて追加的なデータ次元を可視化することができる(例えば、あるデータ次元が、ユーザの視点に対する向きに、あるいは回転の速度のような動きにマップされる)。   Effective visualization of 3D data enhances the user's ability to perceive structure in the data and avoids incorporating changes in appearance that are independent of the characteristics of the data being visualized into 3D objects in the 3D graph. In many embodiments, various aspects of 3D data visualization are modified based on the user's pose to enhance the ability of the user to perceive the structure of the data. In some embodiments, the process of rendering a 3D display includes illuminating a 3D object based on the user's pose (810). As described below, illuminating each 3D object in the user's field of view with a directional light source that emits light at the user's viewpoint or at a location slightly offset from the user's viewpoint is a similar 3D object. The appearance similarity can be maintained throughout the user's field of view. A process for illuminating a 3D object based on a user's pose according to various embodiments of the present invention is described below. If the 3D object has a different appearance based on the viewing direction, the orientation of the 3D object within the user's field of view can be re-oriented to “face” the user (but as described below, Facing the user actually involves directing the 3D object to an angle that fits the 3D shape features better.) In this way, the appearance of the object will always be the same in the 3D graph, regardless of the direction in which the user looks at the object, avoiding the user from confusing the difference in orientation consciously or unconsciously with meaningful information. Is done. However, in other embodiments, the orientation can be fixed and / or the orientation can be used to visualize additional data dimensions (eg, one data dimension can be oriented relative to the user's viewpoint or rotated Mapped to movement like speed).

多数の実施形態では、ユーザのポーズを用いて、3Dデータ可視化の他の多数の態様を変更し、これらの態様は、インタラクション・プリミティブの透明度及び/または位置を含む(が、それらに限定されない)。例えば、グリッド(格子)線及び/またはナビゲーション・アフォーダンスのようなインタラクション・プリミティブを仮想空間内に含めて、配向及びナビゲーションを手助けすることができる。多数の実施形態では、ユーザのポーズが、インタラクション・プリミティブがデータ点を表現する3Dオブジェクトを覆い隠す度合いを決める。3Dデータ可視化システムが実現することを目指す特定のユーザ体験に適合していれば、種々の基準を利用して、透明度を増加させるか否か、及び/またはインタラクション・プリミティブの可視性を変更するか否かを決定することができる。多数の実施形態では、3Dグラフを、仮想環境(例えば、仮想オフィス区画または仮想オフィスの一室)を含む可視空間内に含めることができる。ユーザが仮想環境内で3Dグラフを操作する(例えば、3Dグラフを回転させる、あるいは3Dグラフのサイズを増加させる)際に、3Dグラフを静止オブジェクトとして維持し、ユーザの視点に基づいて、仮想環境に関連するメッシュ(例えば、テーブル、椅子、机、壁、等を描画するメッシュ)を3Dグラフに対して変更すること(例えば、仮想環境のサイズを変更すること、あるいは、仮想環境及びユーザの視点を3Dグラフに対して回転させること)によって、計算効率を達成することができる。仮想環境に関連するメッシュは、一般に3Dグラフを作り上げる3Dオブジェクトのメッシュよりも単純である。従って、ユーザが3Dグラフに対する操作を実行する能力を維持しつつ、仮想環境に関連するユーザの視点及び3Dオブジェクトを、3Dグラフに対してシフトさせることは、大きな計算上の利点をもたらすことができ、3Dグラフに対する操作は、仮想環境内で3Dグラフを回転させ、移動させ、及び/またはサイズ変更することを含む(が、それらに限定されない)。容易にわかるように、ユーザのポーズに応答して変更することができる仮想空間の要素は、照明及びインタラクション・プリミティブの可視性に限定されず、所定用途の要求に適合していれば、3Dデータ可視化の種々の態様のいずれをも含むことができ、これらの態様は、ユーザの位置及び/またはポーズに基づいて、ユーザが仮想空間を通って移動する速度、及び/またはユーザが仮想空間内の3Dオブジェクトと相互作用することができる速度を変更することを含む(が、それらに限定されない)。以下に説明するように、本発明の多数の実施形態による3Dデータ可視化システムは、ユーザのポーズ及び/または状況に基づいて、異なる可視化モード間で切り換えることができる。   In many embodiments, the user's pose is used to modify many other aspects of 3D data visualization, including (but not limited to) transparency and / or position of interaction primitives. . For example, interaction primitives such as grid lines and / or navigation affordances can be included in the virtual space to aid in orientation and navigation. In many embodiments, the user's pose determines the degree to which the interaction primitive obscures the 3D object that represents the data point. Whether the 3D data visualization system is tailored to the specific user experience that it is aiming to achieve, uses different criteria to increase transparency and / or change the visibility of interaction primitives You can decide whether or not. In many embodiments, the 3D graph can be included in a visible space that includes a virtual environment (eg, a virtual office section or a room of a virtual office). When the user manipulates the 3D graph in the virtual environment (eg, rotates the 3D graph or increases the size of the 3D graph), the 3D graph is maintained as a stationary object, and the virtual environment is based on the user's viewpoint. Changing the mesh associated with the 3D graph (for example, the mesh for drawing a table, chair, desk, wall, etc.) (for example, changing the size of the virtual environment or the virtual environment and the user's viewpoint) Can be calculated by rotating the 3D graph relative to the 3D graph. The mesh associated with the virtual environment is generally simpler than the mesh of 3D objects that make up the 3D graph. Thus, shifting the user perspective and 3D objects associated with the virtual environment relative to the 3D graph while maintaining the ability of the user to perform operations on the 3D graph can provide significant computational advantages. Operations on 3D graphs include (but are not limited to) rotating, moving, and / or resizing the 3D graph within the virtual environment. As can be readily appreciated, the elements of the virtual space that can be changed in response to the user's pose are not limited to the visibility of lighting and interaction primitives, but 3D data if it meets the requirements of a given application. Any of various aspects of visualization can be included, such as the speed at which the user moves through the virtual space and / or the user in the virtual space based on the position and / or pose of the user Including (but not limited to) changing the speed with which the 3D object can interact. As described below, a 3D data visualization system according to many embodiments of the present invention can switch between different visualization modes based on a user's pose and / or situation.

ユーザのポーズに基づいて3D表示をレンダリングする(ステップ814)具体的方法は、利用している特定の3D表示技術に大きく依存する。多数のヘッドマウント型AR、MR、及びVRヘッドセットにおいて利用されるもののようなステレオ3Dディスプレイを利用する実施形態では、異なる視点からの2つのフレームをレンダリングし、これらのフレームをステレオ・ディスプレイの各々によって提示して、シミュレート(模擬)された深さの知覚をユーザにもたらすことができる。   The specific method of rendering the 3D display based on the user's pose (step 814) is highly dependent on the particular 3D display technology being utilized. In an embodiment that utilizes a stereo 3D display, such as that used in many head-mounted AR, MR, and VR headsets, renders two frames from different viewpoints, and these frames are each in the stereo display. To provide the user with a simulated depth perception.

プロセス800は、ユーザの位置の変化(ステップ808)及び/またはデータ次元を属性にマップするマッピングの変化(ステップ818)に基づいて、レンダリングされる3D表示を更新し続ける。ユーザが対話型セッションを終了すると(ステップ816)、プロセスが完了する。   Process 800 continues to update the rendered 3D display based on changes in the user's location (step 808) and / or mapping changes that map data dimensions to attributes (step 818). When the user ends the interactive session (step 816), the process is complete.

容易にわかるように、3Dデータ可視化像の相互作用性は、可視化像の更新をレンダリングすることができる速度に依存する。多数の実施形態では、3Dデータ可視化システムが、少なくとも1秒当たり30フレームのフレームレートを目標とする。いくつかの実施形態では、少なくとも1秒当たり60フレーム及び/または少なくとも1秒当たり120フレームの目標フレームレートをサポートする。3Dデータ可視化像を高いフレームレートで更新することは、大量の計算を含む。多数の例では、高いフレームレートを維持するために必要な計算が大量過ぎ、3Dデータ可視化像が、1つ以上のフレームを表示に間に合わせてレンダリングすることができず、フレームドロップ(フレーム欠落)と一般に称されることを生じさせる。特定実施形態では、ユーザの視野の中央にあるフレームの部分をレンダリングし、ユーザの周囲視野内にあるフレームの部分はレンダリングしない良い意味での質的低下をサポートする。所定の3Dデータ可視化システムが、目標フレームレートに必要なすべてのフレームをレンダリングすることができないことに対処する具体的方法は、所定用途の要求に依存する。   As can be readily appreciated, the interactivity of the 3D data visualization image depends on the speed at which the update of the visualization image can be rendered. In many embodiments, the 3D data visualization system targets a frame rate of at least 30 frames per second. In some embodiments, a target frame rate of at least 60 frames per second and / or 120 frames per second is supported. Updating the 3D data visualization image at a high frame rate involves a large amount of computation. In many instances, too much computation is required to maintain a high frame rate, and the 3D data visualization cannot render one or more frames in time for display, resulting in frame drops (frame missing). And is commonly referred to as Certain embodiments render a portion of the frame that is in the middle of the user's field of view, and support a good quality degradation that does not render the portion of the frame that is in the user's ambient field of view. The specific way to deal with the fact that a given 3D data visualization system cannot render all the frames needed for the target frame rate depends on the requirements of the given application.

目標フレームレートを達成することができる可能性は、3Dデータ可視化像をレンダリングすることの複雑性を低減することによって増加させることができる。多数の実施形態では、本質的に複数の可視の3Dオブジェクトの集合体である3Dオブジェクトのグループを作成することによって計算効率を達成する。オブジェクトの数を低減することは、レンダリング・パイプラインの態様に関連する計算を減少させることができ、これらの計算は、物理エンジンによって実行される3Dオブジェクト間の衝突を検出するための処理、及び描画プロセス自体を含む。いくつかの実施形態では、3Dオブジェクトの単一グループを、3Dグラフ内の可視のデータ点に対応するすべての3Dオブジェクトを用いて作成する。多数の実施形態では、可視の3Dオブジェクトの総数よりも少数の、3Dオブジェクトの複数グループを作成する。特定実施形態では、3Dオブジェクトのグループが、単に、3Dオブジェクトの集合の形状を有するメッシュである。   The likelihood that the target frame rate can be achieved can be increased by reducing the complexity of rendering the 3D data visualization image. In many embodiments, computational efficiency is achieved by creating groups of 3D objects that are essentially collections of multiple visible 3D objects. Reducing the number of objects can reduce the computations associated with aspects of the rendering pipeline, these computations being performed by the physics engine to detect collisions between 3D objects, and Includes the drawing process itself. In some embodiments, a single group of 3D objects is created with all 3D objects corresponding to visible data points in the 3D graph. In many embodiments, multiple groups of 3D objects are created that are fewer than the total number of visible 3D objects. In a particular embodiment, the group of 3D objects is simply a mesh having the shape of a collection of 3D objects.

本発明の一実施形態による、3Dオブジェクトのグループを用いて3Dデータ可視化像をレンダリングするためのプロセスを図8Bに例示する。このプロセス850は、複数の可視化属性を含む3Dデータ・オブジェクトの集合のインスタンス作成(ステップ852)から開始される。3Dデータ・オブジェクトの可視化属性は、データ次元のマッピングの集合を用いて上述したのと同様な方法で決定することができる。特定実施形態では、データ次元のマッピングが可視化テーブル内のデータ次元の値を規定し、これらのデータ次元の値を処理して、3Dオブジェクトの具体的な可視化属性を決定する。複数の可視の3Dオブジェクトのメッシュ及びテクスチャを用いて、3Dオブジェクトの各グループのメッシュ及びテクスチャを生成することによって、3Dオブジェクトの1つ以上のグループを作成する(ステップ856)。いくつかの実施形態では、100,000個もの3Dオブジェクトを利用して、3Dオブジェクトのグループを作成する。3Dオブジェクトのグループを作成する(ステップ856)ために利用する3Dオブジェクトの具体的な数は、一般に所定用途の要求に依存する。   A process for rendering a 3D data visualization using a group of 3D objects according to one embodiment of the invention is illustrated in FIG. 8B. The process 850 begins with instantiation (step 852) of a collection of 3D data objects that includes multiple visualization attributes. The visualization attribute of a 3D data object can be determined in the same manner as described above using a set of data dimension mappings. In a particular embodiment, the data dimension mapping defines the values of the data dimensions in the visualization table and processes these data dimension values to determine the specific visualization attributes of the 3D object. One or more groups of 3D objects are created by generating meshes and textures for each group of 3D objects using a plurality of visible 3D object meshes and textures (step 856). In some embodiments, as many as 100,000 3D objects are used to create a group of 3D objects. The specific number of 3D objects used to create a group of 3D objects (step 856) generally depends on the requirements of a given application.

ユーザのポーズを測定し(ステップ858)、3Dオブジェクトのグループを、ユーザのポーズに基づいて照明する(ステップ860)。多数の実施形態では、3Dオブジェクトのグループを頂点毎のベースで描画し、指向性光源を用いて、各頂点を、ユーザの視点(あるいは、ユーザの視点に近い点)からの視線に基づいて決まる方向に照明する。次に、仮想空間内の3Dオブジェクト(3Dオブジェクトのグループを含む)に対する衝突処理を実行して、検出した衝突を、3Dデータ可視化システムによって仮想空間に課せられた制約に応じて解決することができる。次に、仮想空間を、ユーザの視点からレンダリングすることができる(ステップ864)。図示する実施形態では、3D表示をレンダリングする。多数の実施形態では、レンダリングされた表示が3D表示装置を駆動する。   The user's pose is measured (step 858) and a group of 3D objects is illuminated based on the user's pose (step 860). In many embodiments, a group of 3D objects is drawn on a per-vertex basis, and a directional light source is used to determine each vertex based on the line of sight from the user's viewpoint (or a point close to the user's viewpoint). Illuminate in the direction. Next, collision processing can be performed on 3D objects (including groups of 3D objects) in the virtual space, and the detected collision can be resolved according to the constraints imposed on the virtual space by the 3D data visualization system. . The virtual space can then be rendered from the user's viewpoint (step 864). In the illustrated embodiment, a 3D display is rendered. In many embodiments, the rendered display drives a 3D display device.

オブジェクトのグループを利用することは、3Dデータ可視化像を高いフレームレートで対話形式でレンダリングすることに関連する処理を大幅に低減することができる。しかし、オブジェクトをグループ化することは、単一の3Dオブジェクトを変更するために、全部の3Dオブジェクトを変更するための処理オーバーヘッドと同じ処理オーバーヘッドを生じさせる。従って、組み合わせて3Dオブジェクトの単一グループにされる、データ点に対応する3Dオブジェクトの数を考慮することは、3Dグラフと相互作用する際に低減される計算オーバーヘッドと、データ・マッピングの更新により3Dグラフが変化する際に相互作用性を保つこととのバランス(釣り合い)を実現することができる。データ次元を属性値にマップするマッピングが変化する際の、1つの3Dグラフから他の3Dグラフへの移動は、以下に説明する。3Dオブジェクトのグループを利用して、データ点のグループをまとめてアニメーション表示して、アニメーション表示中に高いフレームレートを実現することができる。   Utilizing groups of objects can significantly reduce the processing associated with rendering 3D data visualizations interactively at high frame rates. However, grouping objects causes the same processing overhead as changing all 3D objects to change a single 3D object. Therefore, considering the number of 3D objects corresponding to a data point that are combined into a single group of 3D objects can be reduced by the computational overhead reduced when interacting with the 3D graph and the data mapping update. It is possible to achieve a balance with maintaining interactive properties when the 3D graph changes. The movement from one 3D graph to another 3D graph as the mapping that maps data dimensions to attribute values changes is described below. Using a group of 3D objects, a group of data points can be animated together to achieve a high frame rate during animation display.

3Dデータを可視化するための特定のプロセスを、図8A及び8Bを参照して上述したが、所定用途の要求に適合していれば、データ点の次元及び仮想空間内のユーザの位置に基づいて3Dデータ可視化像をレンダリングする種々のプロセスのいずをも利用することができる。データ内の構造をユーザに示す3Dデータ可視化の有効性を増強するために利用することができる技術は、以下でさらに説明する。   A specific process for visualizing 3D data has been described above with reference to FIGS. 8A and 8B, but based on the dimensions of the data points and the user's location in virtual space, as long as it meets the requirements of a given application. Any of a variety of processes for rendering 3D data visualizations can be utilized. Techniques that can be utilized to enhance the effectiveness of 3D data visualization showing the structure in the data to the user are further described below.

複合データの3D可視化の有効性を増強する
本発明の種々の実施形態による3Dデータ可視化システムは、8次元以上のデータの可視化像を生成する能力を有する。高次元データを3Dの形に表現することの挑戦は、3Dデータ可視化像が、基になる3Dオブジェクトの属性とは無関係である、3Dオブジェクトの外観の変化を本質的に取り入れることにある。例えば、ユーザから異なる距離に位置し異なる形状を有する3Dオブジェクトの相対的なサイズを、ユーザが知覚することは困難なことがある。照明、より具体的には陰影も、基になる3Dオブジェクトの属性とは無関係である、3Dオブジェクトの外観の変化を取り入れることがある。3Dデータ可視化像による実験は、深さに起因するサイズの変化とデータの属性としてのサイズの変化とをユーザが区別する能力を保つような形状、及び/または、ユーザの視野全体にわたって同じ方法で3Dオブジェクトを照明し、他の3Dオブジェクト上に陰影を投じる(影を落とす)ことを伴わない照明モードを利用することによって、3Dデータ可視化の有効性を増強することができることを示している。本発明の種々の実施形態による、3D可視化において、形状を保つ深さの知覚及び照明モードを用いて、ユーザがデータ内の構造を知覚する能力を増加させることは、以下でさらに説明する。
Enhancing the effectiveness of 3D visualization of composite data A 3D data visualization system according to various embodiments of the present invention has the ability to generate a visualization image of data of eight or more dimensions. The challenge of representing high-dimensional data in 3D form is that the 3D data visualization image essentially incorporates changes in the appearance of the 3D object that are independent of the attributes of the underlying 3D object. For example, it may be difficult for the user to perceive the relative sizes of 3D objects located at different distances from the user and having different shapes. Lighting, and more specifically shading, may also incorporate changes in the appearance of the 3D object that are independent of the attributes of the underlying 3D object. Experiments with 3D data visualization images are performed in the same way throughout the user's field of view and / or in a shape that preserves the ability of the user to distinguish between a change in size due to depth and a change in size as a data attribute. It shows that the effectiveness of 3D data visualization can be enhanced by utilizing a lighting mode that does not involve illuminating 3D objects and casting shadows on other 3D objects. The use of depth-preserving depth perception and illumination modes in 3D visualization according to various embodiments of the present invention to increase the user's ability to perceive structures in the data is further described below.

形状を保つ深さの知覚
深さの知覚を保つことは、可視化されているデータの次元をユーザが理解する能力を保つに当たり重要であり得る。例えば、サイズを利用してデータ次元を可視化する際に、ユーザの視野内にレンダリングされる特定の3Dオブジェクトのサイズは、3Dオブジェクトのサイズ属性、及び仮想空間内のユーザから3Dオブジェクトまでの距離に共に依存する。データ次元を3Dオブジェクトの形状属性にもマップする場合、オブジェクトの形状がサイズの比較を(深さの差によってその度合いが増す様式で)さらに混同させることがある。実験は、立方体、球、円柱のような異なる形状についての相対的なサイズの知覚は、距離、オブジェクトの整列(アライメント)、色、及び照明を含む種々の要因によって悪影響されることを示している。多数の実施形態では、(それに限定されないが)球状の外観を有する20面体のような多数の面を有する多面体を、3Dデータ可視化像内の3Dオブジェクトの形状として利用する。実験は、3D環境内の球の相対的なサイズをユーザが正確に知覚することができることを示している。しかし、球は、3Dの形にレンダリングするには複雑な形状であり、一般に何百もの面を有する多面体としてレンダリングされる。従って、何百もの面とは対照的に何十面の範囲内のより少数の面を有する多面体の利用は、3Dグラフのレンダリングに関連する計算を大幅に低減することができる。データ次元が3Dオブジェクトの形状及びサイズの属性にマップされる多次元データ空間の3D可視化像を、いくつかの視点から図9A〜9Cに示す。
Depth perception preserving shape Preserving depth perception can be important in maintaining the ability of the user to understand the dimensions of the data being visualized. For example, when visualizing data dimensions using size, the size of a particular 3D object rendered in the user's field of view is the size attribute of the 3D object and the distance from the user to the 3D object in virtual space. Depends on both. When mapping data dimensions to 3D object shape attributes as well, the shape of the object may further confuse the size comparison (in a manner that increases in degree due to depth differences). Experiments show that relative size perception for different shapes such as cubes, spheres, and cylinders is adversely affected by various factors including distance, object alignment, color, and illumination. . In many embodiments, a polyhedron having multiple faces, such as (but not limited to) a icosahedron having a spherical appearance, is utilized as the shape of the 3D object in the 3D data visualization image. Experiments show that the user can accurately perceive the relative size of the spheres in the 3D environment. However, spheres are complex shapes to render in 3D shapes and are typically rendered as polyhedra with hundreds of faces. Thus, the use of a polyhedron with fewer faces in the tens of faces as opposed to hundreds of faces can greatly reduce the computations associated with rendering a 3D graph. FIGS. 9A-9C show a 3D visualization of a multidimensional data space in which data dimensions are mapped to 3D object shape and size attributes from several viewpoints.

多数の実施形態では、仮想空間内のユーザから3Dオブジェクトまでの距離が与えられると、3Dオブジェクトの相対的なサイズを測定するに当たりユーザを手助けする3D形状を保つような深さの知覚を用いて、データ点を可視化する。図10に、高密度のプロットにおいても認識可能であるように設計された3Dオブジェクトの小集合を示す。これらの3Dオブジェクトの形状の構成は、次のいくつかの基準を念頭に置いてなされている:前面、側面、上面、突起、及び曲面領域に対する角部。   In many embodiments, given the distance from the user to the 3D object in the virtual space, using depth perception to keep the 3D shape helping the user in measuring the relative size of the 3D object. Visualize data points. FIG. 10 shows a small set of 3D objects designed to be recognizable even in dense plots. These 3D object shape configurations are made with some criteria in mind: front, side, top, protrusion, and corners for curved areas.

前面については、初期テンプレートは2Dプロットと共通の基本形状とした。これらは、円形、三角形、星形、箱形、プラス(十字)形、及びX字形を含む。3D形状は、前面に挙げたものより導出した。円形は、球1000及び円環面1004に変換される。三角形は、ピラミッド形(または四面体)1006及び円錐1004に変換される。箱形は立方体1002及び円柱1010に変換される。X字形及びプラス形も同様なやり方で3Dオブジェクトにすることができるが、これらの3D形状の各枝状部は、覆い隠すオブジェクトを越えて出て、異なる種類の3D形状またはより単純な3D形状における特徴部分と混同される可能性がある。星形プロット系の3D形状も、同じ困難に遭遇し得る。   For the front surface, the initial template had a basic shape common to the 2D plot. These include circles, triangles, stars, boxes, plus (cross), and X-shaped. The 3D shape was derived from those listed on the front. The circle is converted into a sphere 1000 and an annular surface 1004. Triangles are converted into pyramid (or tetrahedron) 1006 and cone 1004. The box shape is converted into a cube 1002 and a cylinder 1010. X-shapes and plus-shapes can be made into 3D objects in a similar manner, but each branch of these 3D shapes exits over the obscuring object and is a different kind of 3D shape or a simpler 3D shape. May be confused with the features in The 3D shape of a star plot system can also encounter the same difficulties.

これらの選定した基本形状は、次の種々の上面及び下面を示す:円形、四角形、点、三角形、及び楕円形。従って、一部の形、特に円柱及び立方体は同じ前面を共有するが、突出する角部の数(あるいはその欠如)及び上面の数が、密集したプロット領域上でも、これらの形を認識可能なままにすることを可能にする。さらに、照明は、形状間の視覚的区別を強めることができ、これらの形状間を区別する能力に役立つ。同様に、円錐1004とピラミッド形1006とは、向き次第では同じ前面、例えば三角形を示すことがある。従って、円錐1004は上を向くように選定するのに対し、ピラミッド型1006は、外向きにしつつ1つの水平エッジ1012を最上部におく。   These selected basic shapes represent various top and bottom surfaces: circular, square, point, triangular, and elliptical. Thus, some shapes, especially cylinders and cubes, share the same front face, but the number of protruding corners (or lack thereof) and the number of top faces are recognizable even in dense plot areas. Allows you to leave. In addition, illumination can enhance the visual distinction between shapes and helps the ability to distinguish between these shapes. Similarly, the cone 1004 and the pyramid shape 1006 may indicate the same front face, eg, a triangle, depending on the orientation. Thus, the cone 1004 is selected to face up, while the pyramid 1006 places one horizontal edge 1012 on top while facing outward.

その複数の面が前側平面に平行になるように設計された3D形状は、他の3D形状にオーバーラップすると、より複雑な面ではなく大きな平面を生成しがちである。同様に、上面及び下面が床面と整列している場合、正投影(正射影)を用いると、上面及び下面が隠れる。従って、図10に示すすべての3D形状を、水平面及び垂直面の両平面上で、同じ量だけ回転させる。結果的な回転は、北向きから30度西寄りの(即ち、スクリーン上昇ベクトルの30度右寄りの)軸の周りに30度回転させることと等価である。容易にわかるように、形状の大集団の非平面のレンダリングを生じさせるための具体的な回転は、特定の3Dデータ可視化システムの要求に大きく依存する。追加的な特徴部分1014を3Dオブジェクトの側面上に追加することも、他方の側面よりも一方の側面に(近づくことによる)より大きな視覚的重要性を与えるために、水平回転成分の恩恵を受けることができる。   A 3D shape that is designed so that its multiple planes are parallel to the front plane tends to produce a larger plane rather than a more complex plane when it overlaps another 3D shape. Similarly, when the upper surface and the lower surface are aligned with the floor surface, the upper and lower surfaces are hidden when orthographic projection is used. Accordingly, all 3D shapes shown in FIG. 10 are rotated by the same amount on both the horizontal and vertical planes. The resulting rotation is equivalent to rotating 30 degrees about an axis 30 degrees west from north (ie, 30 degrees to the right of the screen rise vector). As can be readily appreciated, the specific rotation to produce a non-planar rendering of a large population of shapes is highly dependent on the requirements of a particular 3D data visualization system. Adding additional features 1014 on the side of the 3D object also benefits from the horizontal rotation component to give greater visual importance to one side (by approaching) than the other side be able to.

図10に示す3D形状には追加的な特徴部分を含めているが、本発明による種々の実施形態により利用する3D形状には、追加的な特徴部分を含める必要はない。多数の実施形態では、3D形状の一次元のみを可視化の属性であるものと限定することによって、深さの知覚を保つ。例えば、可視化される3D形状は不変の高さを有するが、幅はマップされるデータ次元の値に基づいて変化する。特定実施形態では、弾丸状である(即ち、丸形または半球形の端部を有する)3D形状を利用する。多数の実施形態では、弾丸状の3D形状の幅(即ち、弾丸形の円柱部分の直径)が、マップされるデータ次元の値に基づいて変化し、弾丸状の3D形状の高さはデータ値によらず不変である。このようにして、幅は情報を伝え、高さは深さのキュー(合図、指示)を提供する。容易にわかるように、利用される具体的形状は、所定用途の要求に大きく依存する。本発明の種々の実施形態による、3D形状の照明を利用して3Dデータ可視化を強化する方法は、以下に説明する。   Although the 3D shape shown in FIG. 10 includes additional features, the 3D shape utilized by various embodiments according to the present invention need not include additional features. In many embodiments, depth perception is preserved by limiting only one dimension of the 3D shape to be an attribute of visualization. For example, the visualized 3D shape has a constant height, but the width changes based on the value of the mapped data dimension. Certain embodiments utilize a 3D shape that is bullet-shaped (ie, has round or hemispherical ends). In many embodiments, the width of the bullet-shaped 3D shape (ie, the diameter of the bullet-shaped cylinder portion) varies based on the value of the mapped data dimension, and the height of the bullet-shaped 3D shape is the data value. Regardless. In this way, the width conveys information and the height provides a depth cue (cue, indication). As will be readily appreciated, the specific shape utilized is highly dependent on the requirements of a given application. Methods for enhancing 3D data visualization utilizing 3D shaped illumination according to various embodiments of the present invention are described below.

3Dデータ可視化用の照明モデル
3Dデータ可視化において用いられる照明モデルは、可視化されたデータをユーザが解釈することができる容易性に大きな影響を与えることができる。上述したように、可視化が、可視化されるデータ次元とは無関係である外観の変化を3Dオブジェクト間に導入する場合、3Dデータ可視化の有効性が低下し得る。図11Aに、3つの静止点光源による一定の照明下で異なる向きから見た際の、球形の形状を有する3Dオブジェクトの外観の変化を示す。容易にわかるように、3Dオブジェクトの表面上の陰影の変化は、3Dオブジェクトによって可視化されるデータ次元についての情報は何も伝えず、ユーザの視野内の異なる領域内に位置する(従って、異なるように照明される)同様な3Dオブジェクトの識別、及び/または相対的なサイズの測定を困難にする。本発明の多数の実施形態による3Dデータ可視化システムは照明モデルを利用し、この照明モデルでは、3Dデータ可視化像をレンダリングする際に、ユーザの視点(またはそれに隣接した所)において発光する別個の指向性光源を用いて、ユーザの視野内にある各3Dデータ・オブジェクトを照明する。図11Aに示すのと同じ視点から見た同じ3Dデータ・オブジェクトを図11Bに例示し、この3Dオブジェクトは、ユーザの視点において発光する指向性照明光源を用いて上述した方法で照明される。3Dオブジェクトをこのように照明することにより、この3Dオブジェクトは、どの視点から見ても同じ外観を有することになる。このようにして、ユーザが仮想空間を通って移動する間に、同様な3Dオブジェクトの外観の類似性を保つことができる、というのは、図12A〜12Cに示すように、オブジェクトの照明がユーザのポーズと共に変化するからである。
Lighting Model for Visualizing 3D Data The lighting model used in 3D data visualization can greatly affect the ease with which a user can interpret the visualized data. As mentioned above, the effectiveness of 3D data visualization can be reduced if the visualization introduces changes in appearance between 3D objects that are independent of the data dimension being visualized. FIG. 11A shows a change in appearance of a 3D object having a spherical shape when viewed from different directions under constant illumination by three stationary point light sources. As can be readily seen, the change in shading on the surface of the 3D object conveys no information about the data dimensions visualized by the 3D object, and is located in different regions within the user's field of view (and thus different Makes it difficult to identify and / or measure relative sizes of similar 3D objects. A 3D data visualization system according to a number of embodiments of the present invention utilizes a lighting model, in which a separate orientation that emits light at (or adjacent to) the user's viewpoint when rendering a 3D data visualization image. An illuminant light source is used to illuminate each 3D data object in the user's field of view. The same 3D data object viewed from the same viewpoint as shown in FIG. 11A is illustrated in FIG. 11B, and this 3D object is illuminated in the manner described above using a directional illumination source that emits light at the user's viewpoint. By illuminating the 3D object in this way, the 3D object has the same appearance from any viewpoint. In this way, the similarity of the appearance of similar 3D objects can be maintained while the user moves through the virtual space, because the illumination of the object is the user, as shown in FIGS. Because it changes with the pose.

本発明の一実施形態による、仮想空間内のユーザの視野が変化する際に3Dオブジェクトの照明を更新するプロセスを、図13に例示する。プロセス1300は、ポーズ情報を取得し、このポーズ情報を用いてユーザの位置及び視野を測定するステップ(ステップ1302)を含む。ユーザの視野内にある3Dオブジェクトを識別して選択することができる(ステップ1304、1310)。仮想空間内のユーザの位置に対する3Dオブジェクトの位置を用いて、照明の向きを決定することができる(ステップ1306)。照明の向きは、一般に、ユーザの位置から3Dオブジェクトに至る向き、あるいはユーザの位置に隣接する所から3Dオブジェクトに至る向きとして選択する。しかし、照明の向きは、所定用途の要求に基づいて変化させることができる。   The process of updating the illumination of a 3D object as the user's field of view in virtual space changes is illustrated in FIG. 13 according to one embodiment of the invention. Process 1300 includes obtaining pose information and measuring the user's position and field of view using the pose information (step 1302). A 3D object within the user's field of view can be identified and selected (steps 1304, 1310). The position of the 3D object relative to the position of the user in the virtual space can be used to determine the lighting direction (step 1306). The direction of illumination is generally selected as the direction from the user position to the 3D object, or the direction from the location adjacent to the user position to the 3D object. However, the direction of illumination can be changed based on the requirements for a given application.

図示する実施形態では、指向性照明光源を用いて、ユーザの視野内にある各3Dオブジェクトを照明し、ユーザの視野内にあるすべての照明を更新すると(ステップ1310)、プロセスを完了する。指向性の光は太陽による照明を模擬し、単一方向の平行光線を含む照明モデルを用いることを含む。見る人のポーズに基づく、仮想空間内の複数の3Dオブジェクトの照明を、概念的に図14に示す。別個の指向性光源を用いて各3Dオブジェクトを照明することは、ユーザの視野全体にわたる3Dオブジェクトの均一な照明を提供するに当たり大きな利点をもたらすが、本発明の種々の実施形態によれば、所定用途の要求に適合していれば、均一な照明を実現する他の照明モデルを利用することもできる。上述したように、3Dオブジェクトの各々を、仮想空間内に陰影を投じない(影を落とさない)ように構成することによって、3Dデータ可視化を強化することができる。   In the illustrated embodiment, the directional illumination source is used to illuminate each 3D object in the user's field of view and update all the lighting in the user's field of view (step 1310), completing the process. Directional light involves simulating illumination by the sun and includes using an illumination model that includes parallel rays in a single direction. Illumination of multiple 3D objects in virtual space based on the pose of the viewer is conceptually illustrated in FIG. Illuminating each 3D object with a separate directional light source provides significant advantages in providing uniform illumination of the 3D object across the user's field of view, but according to various embodiments of the present invention, certain Other lighting models that provide uniform illumination can be used as long as the application requirements are met. As described above, 3D data visualization can be enhanced by configuring each 3D object so as not to cast a shadow in the virtual space.

仮想空間内の3D形状及び照明の選択に関する以上の説明の大部分は、3Dデータの探索を促進するためにデータを表現することができる方法に関係するが、本発明の多数の実施形態による3Dデータ可視化システムは、追加的な3Dオブジェクトをインタラクション・プリミティブの形で仮想空間内に追加し、これらのインタラクション・プリミティブは、仮想空間内のユーザの位置及びデータに対するユーザの向きの自覚を維持するに当たり、ユーザを手助けする。本発明の種々の実施形態による3Dデータ可視化システム内で利用することができるユーザ・プリミティブは、以下でさらに説明する。   Most of the above description regarding the selection of 3D shapes and lighting in virtual space relates to the way in which data can be represented to facilitate the search for 3D data, but 3D according to numerous embodiments of the present invention. The data visualization system adds additional 3D objects in the form of interaction primitives in the virtual space, and these interaction primitives are used to maintain awareness of the user's position and data orientation in the virtual space. , Help users. User primitives that can be utilized within a 3D data visualization system according to various embodiments of the present invention are described further below.

インタラクション・プリミティブを仮想空間内で利用する
本発明の多数の実施形態による3Dデータ可視化システムによって提供される仮想空間内でのユーザの移動の自由は、ユーザが仮想空間内でデータに対する自分の向きを追跡中にすぐに見失い得ることを意味する。本発明のいくつかの実施形態による3Dデータ可視化システムは、インタラクション・プリミティブを利用して、ユーザが可視化されるデータに対する自分の相対的な向きの感覚を維持することを可能にするための仮想的なアンカー(固定具)を提供する。多数の実施形態では、3Dオブジェクトを含む3Dグラフを立方体によって境界付け、この立方体上では、グリッド(格子)パターンがこの立方体の内面上に見える。上述したように、ユーザの位置を利用して、立方体の1つ以上の面を透明にして、グリッド線が3Dグラフ内の3Dオブジェクトを覆い隠さないようにすることができる。特定実施形態では、ラベル付けした軸をユーザの視野内に連続的に示して、データの向きに関する視覚的キューをユーザに提供することができる。
Utilizing Interaction Primitives in Virtual Space The freedom of movement of a user in the virtual space provided by the 3D data visualization system according to many embodiments of the present invention allows the user to change his or her orientation relative to the data in the virtual space. It means that you can lose sight quickly while chasing. A 3D data visualization system according to some embodiments of the present invention utilizes interaction primitives to enable a user to maintain a sense of their relative orientation with respect to the data being visualized. A secure anchor. In many embodiments, a 3D graph containing 3D objects is bounded by a cube on which a grid pattern is visible on the inner surface of the cube. As described above, the user's position can be used to make one or more faces of the cube transparent so that grid lines do not obscure 3D objects in the 3D graph. In certain embodiments, the labeled axes can be shown continuously in the user's field of view to provide the user with a visual cue regarding the orientation of the data.

本発明の一実施形態による3Dデータ可視化システムによって生成される、グリッド、軸、及び軸ラベルの形式のインタラクション・プリミティブを含む3Dグラフを、図15Aに例示する。3Dオブジェクト1500は、平面グリッド1502によって境界付けられた3Dグラフ内に含まれる。三色に符号化された直交軸1504が、方向付けした軸ラベル1506によって強化された視覚的アンカーを提供する。   A 3D graph including interaction primitives in the form of grids, axes, and axis labels generated by a 3D data visualization system according to one embodiment of the present invention is illustrated in FIG. 15A. The 3D object 1500 is contained within a 3D graph bounded by a planar grid 1502. Orthogonal axes 1504 encoded in three colors provide visual anchors enhanced by oriented axis labels 1506.

(特に3Dグラフ内での)対話形式の探索中に3Dグラフに対する向きの感覚を維持するに当たりユーザを手助けするための、特定のインタラクション・プリミティブ及びその使用法を上述しているが、本発明の多数の実施形態によれば、所定用途の要求に適合していれば、向きに関する視覚的キューをユーザに提供するインタラクション・プリミティブのいずれをも利用することができる。   While specific interaction primitives and their use have been described above to assist the user in maintaining a sense of orientation with respect to the 3D graph during interactive searching (especially within the 3D graph), In many embodiments, any of the interaction primitives that provide the user with a visual cue for orientation can be used if it meets the requirements of a given application.

次元を視覚的属性に割り当てるに当たっての重要さの順序付けの実現
高次元データ集合におけるパターン認識に関連する主要な問題は次元性の弊害であり、可視化されるデータ集合に対する識別力に富んだ特徴の部分集合のみを選択することによって、この問題に応えることができる。特徴の意味が重要であり、3Dデータ可視化の目標が、特徴間の関係を見出してデータ集合をより良く理解することにある際には、特徴の選択が特徴の変換(例えば、主成分分析)にとって好ましいことが多い。多数のデータ集合では、データ次元を、数値的であるデータ次元(例えば、変動する量)またはカテゴリー的であるデータ次元(例えば領域)に分離することができる。本発明の多数の実施形態による3Dデータ可視化システムは、取り込み中のデータが数値的であるかカテゴリー的であるかを自動的に検出するように構成され、データ次元分類が正しくない場合にユーザが変更することを可能にする(例えば、ZIP(zone improvement program:)コード(郵便番号)は数値的であるものとして識別され得るが、実際にはカテゴリー的である−「91107」は「91101」よりも大きくはない)。
Achieving ordering of importance in assigning dimensions to visual attributes The main problem associated with pattern recognition in high-dimensional data sets is the ill-effects of dimensionality and the distinctive features of the visualized data sets This problem can be addressed by selecting only the set. When the meaning of a feature is important and the goal of 3D data visualization is to find the relationship between features and better understand the data set, feature selection is feature transformation (eg, principal component analysis) Often preferred for. In many data sets, the data dimensions can be separated into data dimensions that are numerical (eg, varying amounts) or data dimensions that are categorical (eg, regions). A 3D data visualization system according to a number of embodiments of the present invention is configured to automatically detect whether the data being captured is numerical or categorical, so that the user can determine if the data dimension classification is incorrect. (For example, ZIP (zone improvement program)) code (zip code) can be identified as being numerical, but is actually categorical-"91107" is more than "91101" Is not large).

いくつかの実施形態では、3Dデータ可視化が、特徴選択プロセスを実行して、データ次元を可視化属性にマップする具体的なマッピングに関する推奨を提供する。多数の実施形態では、ユーザが関心事の特徴(例えば、電子商取引される基金の集合における運用益の低さ/高さに関して、どれが最重要な変数であるか)を選択する。次に、数値的データ次元及びカテゴリー的データ次元の両方に対して特徴選択プロセスを実行して、関心事の特徴に最も関係する次元を決定する。特定の実施形態では、別個の特徴選択プロセスを、数値的データ次元に対して、及びカテゴリー的データ次元に対して実行する。多数の実施形態では、特徴選択プロセスが一変量の特徴選択プロセスを実行する。他の実施形態では、所定用途の要求に適合していれば、種々の特徴選択プロセスのいずれをも利用することができる。特徴選択プロセスは、順序付けされた特徴のリストを生み出す。いくつかの実施形態では、3Dデータ可視化システムが、数値的データ次元の順序付けされたリストとカテゴリー的データ次元の順序付けされたリストとを別個に生成する。一部の実施形態では、順序付けされたリストを形成するに当たり、データ次元の部分集合のみを考慮する。   In some embodiments, 3D data visualization provides recommendations for specific mappings that perform a feature selection process to map data dimensions to visualization attributes. In many embodiments, the user selects a feature of interest (eg, which is the most important variable with respect to low / high operating profits in a set of e-commerce funds). Next, a feature selection process is performed on both the numerical and categorical data dimensions to determine the dimension most relevant to the feature of interest. In certain embodiments, separate feature selection processes are performed for numerical data dimensions and for categorical data dimensions. In many embodiments, the feature selection process performs a univariate feature selection process. In other embodiments, any of a variety of feature selection processes can be utilized as long as the requirements for a given application are met. The feature selection process produces an ordered list of features. In some embodiments, the 3D data visualization system generates an ordered list of numerical data dimensions and an ordered list of categorical data dimensions separately. In some embodiments, only a subset of the data dimensions is considered in forming an ordered list.

一旦、特徴に対するデータ次元の関係性の順序付けが得られると、順序付けの情報を利用して、データ次元を特定の可視化属性にマップする具体的なマッピングを生成または推奨することができる。多数の実施形態では、4つの最重要な数値的データ次元を、3DオブジェクトのX、Y、及びZの空間位置座標、及び3Dオブジェクトのサイズ属性にマップするデータ可視化像を生成する。多数の実施形態では、2つの最重要なカテゴリー的属性を、表示可否及び形状の可視化属性にマップする。多数の実施形態では、追加的な属性に割り当てることができるデータ次元に関する推奨及び/または追加的な推奨を行う対話を提供することができる。特定実施形態では、他のデータ次元の重要度の順序付けを生成するために利用した関心事の特徴を、色の可視化属性にマップすることができる。多数の実施形態では、異なる数値的データ次元及びカテゴリー的データ次元の相対的関連性に基づいて、具体的に推奨するマッピングを決定する。多数の状況では、ユーザの定量的予想及び/または見方から、カテゴリー的データ次元が最も重要である。カテゴリー的な値を3DオブジェクトのX、Y、及びZの空間位置座標にマップする代わりに、3Dオブジェクトを利用して、オーバーラップしない点を有する、3Dの蜂群図(スウォームプロット)または他の種類のカテゴリー的な散布図を生成することができる。本発明の一実施形態による、特定のデータ次元を、3Dデータ可視化像中に見える3Dオブジェクトの特定の属性にマップするマッピングに関する推奨を示すユーザ・インタフェースを、図15Bに例示する。   Once the ordering of data dimension relationships to features is obtained, the ordering information can be used to generate or recommend specific mappings that map data dimensions to specific visualization attributes. In many embodiments, a data visualization is generated that maps the four most important numerical data dimensions to the X, Y, and Z spatial position coordinates of the 3D object and the size attribute of the 3D object. In many embodiments, the two most important categorical attributes are mapped to displayability and shape visualization attributes. In many embodiments, recommendations regarding data dimensions that can be assigned to additional attributes and / or interactions that make additional recommendations can be provided. In particular embodiments, features of interest utilized to generate importance ordering of other data dimensions can be mapped to color visualization attributes. In many embodiments, a specifically recommended mapping is determined based on the relative relevance of different numerical and categorical data dimensions. In many situations, the categorical data dimension is most important from the user's quantitative expectations and / or perspective. Instead of mapping categorical values to the 3D object's X, Y, and Z spatial coordinates, 3D objects can be used to have 3D bee charts (swarm plots) or other points with non-overlapping points. A variety of categorical scatter plots can be generated. A user interface showing recommendations for mapping that maps specific data dimensions to specific attributes of 3D objects visible in the 3D data visualization image, according to one embodiment of the present invention, is illustrated in FIG. 15B.

重要度の順序付けを実行するための特定のプロセス、及びデータ次元を可視化属性にマップするマッピングを推奨及び/または割り当てするための特定のプロセスを上述しているが、本発明の種々の実施形態によれば、特定用途の要求に適合していれば、特定の可視化属性にマップされる特定のデータ次元を推奨するための種々の技術のいずれをも利用することができ、これらの技術は、高速リリーフ(Relief)アルゴリズム、フィッシャー(Fisher)判別比、相関ベースの特徴選択、高速相関ベースフィルタ、及び/またはマルチ(多)クラス特徴選択を利用して重要度の順序付けを実行する技術を含む(が、それらに限定されない)。   Although a specific process for performing importance ordering and a specific process for recommending and / or assigning mappings that map data dimensions to visualization attributes is described above, various embodiments of the invention According to the specific application requirements, any of a variety of techniques for recommending specific data dimensions that map to specific visualization attributes can be used. Including techniques to perform importance ordering using the Relief algorithm, Fisher discriminant ratio, correlation-based feature selection, fast correlation-based filter, and / or multi-class feature selection ( , But not limited to them).

データ特性に基づく自動化されたカラーパレット選択
データ内のパターンを強調するに当たり、3Dデータ可視化用の特定データ次元の選択を有意にすることができるのと同様な方法で、特定のデータ次元を可視化属性にマップする方法も、情報を効果的に伝達するにあたり重要であり得る。多数の実施形態では、数値的データ次元を、(それに限定されないが)色のような連続的な可視化属性に非線形の様式でマップして、データ次元と他のデータ次元または対象の特徴との関係に関する最大の情報を伝える値の範囲に対して、3Dオブジェクトの色の最大の差が発生するようにする。多数の実施形態では、データ次元を色にマップする際に、データ次元を不連続な数の色にマップして、色属性の視覚的な区別を加える。容易にわかるように、本発明の種々の実施形態によれば、所定用途の要求に適合していれば、種々の技術のいずれをも利用して、データ次元の値を特定の色にマップすることができる。
Automated color palette selection based on data characteristics Visualization of specific data dimensions in the same way that the selection of specific data dimensions for 3D data visualization can be made significant in emphasizing patterns in the data The method of mapping to can also be important in effectively communicating information. In many embodiments, numerical data dimensions are mapped in a non-linear fashion to continuous visualization attributes such as (but not limited to) color, and the relationship between the data dimension and other data dimensions or object characteristics. The maximum difference in the color of the 3D object is generated with respect to the range of values that convey the maximum information about the 3D object. In many embodiments, when mapping a data dimension to a color, the data dimension is mapped to a discrete number of colors to add a visual distinction of color attributes. As will be readily appreciated, according to various embodiments of the present invention, data dimension values can be mapped to specific colors using any of a variety of techniques, provided that the requirements of a given application are met. be able to.

3Dデータ可視化像内にアニメーション化した遷移の利用
高次元データを分析するユーザは、データ内の異なる関係を探索するために、可視化されるデータ次元を頻繁に変更する。多数の実施形態では、3Dデータ可視化システムが、データ・マッピングが変化する際に、離散したデータ点を表現する特定の3Dオブジェクト間の対応関係を、アニメーションを用いて図示する。第1の3Dグラフから第2の3Dグラフへ移動する点を観察する能力は、データ次元の代案の組合せを3Dオブジェクトの属性にマップすることによって表すことができる、データ内に存在し得る関係を、ユーザが観察することを可能にすることができ、これらの3Dグラフでは、データ点に対応する3Dオブジェクトの1つ以上の属性が変更される。本発明の一実施形態による一連の3Dデータ可視化像を図16A〜16Dに例示し、これらの3Dデータ可視化像では、3DオブジェクトのX属性が、第1データ次元(即ち「年齢」)から第2データ次元(即ち「勤続年数」)に変更されている。
Use of animated transitions in 3D data visualization images Users analyzing high-dimensional data frequently change the data dimensions that are visualized to explore different relationships in the data. In many embodiments, the 3D data visualization system uses animation to illustrate the correspondence between specific 3D objects that represent discrete data points as the data mapping changes. The ability to observe points moving from the first 3D graph to the second 3D graph can be represented by mapping alternative combinations of data dimensions to attributes of the 3D object, which can exist in the data. These 3D graphs can change one or more attributes of the 3D object corresponding to the data points. A series of 3D data visualizations according to one embodiment of the present invention are illustrated in FIGS. 16A-16D, where the X attribute of the 3D object changes from the first data dimension (ie, “age”) to the second. It has been changed to the data dimension (ie “year of service”).

いくつかの実施形態では、データの異なる部分集合を異なる速度でアニメーション化することによって、データの追加的な見識を提供することができる。例えば、クラスタリング・アルゴリズムを利用して、第1の3Dグラフ内のデータを分析して、アニメーションは、異なるクラスタ内の3Dデータ・オブジェクトの異なる速度での動きを含むことができる。特定実施形態では、3Dオブジェクトの移動を指示するユーザ入力を受信すると、3Dオブジェクトの複数の集合が移動を開始するように、ユーザがアニメーションを制御することができる。このようにして、ユーザは3Dオブジェクトの特定集合を区分して、これらの3Dオブジェクトが1つの3Dグラフから他の3Dグラフにマップされる様子を観察することができる。多数の実施形態では、ユーザがアニメーションを反復すること、及び/またはさらなる見識を得るためにアニメーションを予約しておくことができる。   In some embodiments, additional subsets of data can be provided by animating different subsets of data at different rates. For example, utilizing a clustering algorithm to analyze the data in the first 3D graph, the animation can include movements of 3D data objects in different clusters at different speeds. In certain embodiments, upon receiving user input instructing movement of a 3D object, the user can control the animation such that multiple sets of 3D objects begin moving. In this way, the user can partition a specific set of 3D objects and observe how these 3D objects are mapped from one 3D graph to another 3D graph. In many embodiments, the user can reserve the animation to repeat the animation and / or gain further insight.

3Dオブジェクトをアニメーション化するための特定の技術を、図16A〜16Dを参照して上述しているが、本発明の種々の実施形態によれば、3Dデータ可視化システムを用いてデータ次元のマッピングを変更する際に、特定用途の要求に適合すれば、種々のアニメーション技術のいずれをも利用して、1つの3Dグラフから他の3Dグラフへの、3Dオブジェクトの属性の変化(位置の変化に加えて、形状の変化、色の変化、サイズの変化、テクスチャの変化、等を含むことができる)を示すことができる。   Although specific techniques for animating 3D objects have been described above with reference to FIGS. 16A-16D, according to various embodiments of the present invention, mapping of data dimensions using a 3D data visualization system is possible. When changing, if any of the various animation techniques are used, the attributes of the 3D object can be changed from one 3D graph to another 3D graph (in addition to the change in position) using any of the various animation techniques. Change in shape, change in color, change in size, change in texture, etc.).

データの状況表現
上述した、3Dデータ可視化を強化するためのプロセスの多数は、3Dデータ可視化像を生成する方法に焦点を当てている。3Dデータ可視化像を提示する状況は、ユーザが意味のある見識をデータから識別する能力にも影響を与えることができる。ユーザは、一般に、自由空間の量、及び3Dデータ可視化を実行している現実世界の環境内でユーザが移動する自由度に応じて異なる方法で、3Dグラフと相互作用する。ユーザが机に向かいながら3Dグラフと相互作用する際に、ユーザは、一般に、3Dグラフが小型の様式(例えば1フィート×1フィート×1フィートの立方体)で表示されることを好む。ユーザが立ちながら3Dデータ可視化を体験している際には、そしてユーザが大きな移動の自由度を有する環境では、ユーザが3Dグラフをより大きなサイズに拡大して3Dグラフを通って移動することが、より生じやすい。いくつかの実施形態では、仮想環境及び/または複合現実環境が、データの操作を可能にするアフォーダンスを含む。上述したように、仮想環境に対して移動する3Dグラフの外観、及び仮想環境内のアフォーダンスは、3Dグラフを形成する3Dオブジェクトは移動させずに、仮想環境に関連する3Dオブジェクト、及び仮想環境内のユーザの視点を移動させて、3Dグラフが環境に対して操作されている外観を生成することによって実現することができる。これに加えて、3Dグラフの仮想環境に対する相対的な規模が変化する際に、かつ可動環境内での3Dグラフからユーザの視点までの距離に応じて、ユーザが3Dグラフと相互作用する方法を変更することができる。
Data Situation Representation Many of the processes described above for enhancing 3D data visualization focus on methods for generating 3D data visualization images. The situation of presenting a 3D data visualization image can also affect the ability of the user to identify meaningful insights from the data. Users generally interact with 3D graphs in different ways depending on the amount of free space and the degree of freedom for the user to move within the real-world environment performing 3D data visualization. As the user interacts with the 3D graph while facing the desk, the user generally prefers that the 3D graph be displayed in a small manner (eg, a 1 foot × 1 foot × 1 foot cube). When the user is standing and experiencing 3D data visualization, and in an environment where the user has great freedom of movement, the user may enlarge the 3D graph to a larger size and move through the 3D graph. More likely to occur. In some embodiments, the virtual environment and / or the mixed reality environment includes affordances that allow data manipulation. As described above, the appearance of the 3D graph moving with respect to the virtual environment, and the affordance within the virtual environment, the 3D object forming the 3D graph is not moved, and the 3D object related to the virtual environment and the virtual environment This can be realized by moving the user's viewpoint to generate an appearance in which the 3D graph is manipulated with respect to the environment. In addition, when the relative size of the 3D graph relative to the virtual environment changes, and depending on the distance from the 3D graph to the user's viewpoint in the movable environment, the user can interact with the 3D graph. Can be changed.

多数の実施形態では、3D可視化システムが、3Dグラフのサイズ変更を制御するユーザに対して表示される3Dユーザ・インタフェース内にアフォーダンスを提供する。多数の実施形態では、3Dデータ可視化システムが、3Dデータ可視化を実行中の現実世界環境に関する情報を用いることができ、そして多次元データ空間の3D可視化像のサイズを、環境内に適合するように調整することができる。   In many embodiments, the 3D visualization system provides affordances in a 3D user interface that is displayed to the user controlling the resizing of the 3D graph. In many embodiments, the 3D data visualization system can use information about the real world environment in which the 3D data visualization is being performed, and the size of the 3D visualization image of the multi-dimensional data space is adapted to fit within the environment. Can be adjusted.

本発明の一実施例による3Dデータ可視化システムによって仮想世界内に生成される3Dデータ可視化像のサイズをユーザが制御することを可能にする、VRユーザ・インタフェース内のアフォーダンスを、図17Aに例示する。仮想環境1700は、アフォーダンス1702を有する仮想オフィスの立方体を含み、アフォーダンス1702は、3Dグラフのサイズを所定の「デスクトップ(机上の)」規模に変更することができる。仮想環境1700は第2アフォーダンス1704及び第3アフォーダンス1706も含み、第2アフォーダンス1704は、3Dグラフのサイズを、「デスクトップ」規模よりも大きい所定の「着席(座位)」規模に変更することができ、第3アフォーダンス1706は、3Dグラフのサイズを、最大の所定の「立席(立位)」規模に変更することができる。ユーザがアフォーダンス上で3Dデータ可視化像を動かすと、3Dデータ可視化像のサイズが変更される。サイズ変更に続いて、ユーザは3Dデータ可視化像をさらに操作することができ、この操作は、3Dデータ可視化像の規模を変更すること(例えば、3Dグラフを「デスクトップ」規模に縮小し、次に、データ(空間)内を通って関心事の特定クラスタに向かって移動するように、3Dグラフを拡大する)を含む。   An affordance in the VR user interface that allows the user to control the size of the 3D data visualization image generated in the virtual world by the 3D data visualization system according to one embodiment of the present invention is illustrated in FIG. 17A. . The virtual environment 1700 includes a virtual office cube with affordances 1702 that can resize the 3D graph to a predetermined “desktop” scale. The virtual environment 1700 also includes a second affordance 1704 and a third affordance 1706 that can change the size of the 3D graph to a predetermined “sitting” size that is larger than the “desktop” size. The third affordance 1706 can change the size of the 3D graph to the maximum predetermined “standing (standing)” scale. When the user moves the 3D data visualized image on the affordance, the size of the 3D data visualized image is changed. Following the resizing, the user can further manipulate the 3D data visualization image, which can change the scale of the 3D data visualization image (eg, reduce the 3D graph to a “desktop” scale, then , Enlarge the 3D graph to move through the data (space) toward a specific cluster of interest.

3Dユーザ・インタフェース内のアフォーダンスを用いて3Dデータ可視化像のサイズを変更することができる方法を、図17B〜17Fに概念的に例示する。図17B及び17Cには、可動環境内のユーザのポーズ(1708)及び3Dデータ可視化像(1710)を例示する。3Dデータ可視化像のサイズを「デスクトップ」規模に変更するために利用することができるアフォーダンス(1702)は、図17C中に見られる。アフォーダンス(1702)上で3Dデータ可視化像(1710)を動かすこと、及びその結果サイズを変更された3Dデータ可視化像(1712)を、図17E及び17Fに概念的に例示する。上述したように、サイズ変更は3Dグラフのサイズを固定しない。サイズ変更に続いて、ユーザは3D可視化像のサイズを変更し続けることができ、そして3Dデータ可視化システムがユーザ入力に応答する方法は変更することができる(例えば、3Dデータ可視化像のサイズに基づいて、3Dジェスチャーの動きに異なるように応答することができる)。アフォーダンスは、ユーザが異なる状況間を移動して、3Dデータ可視化システムに3Dデータ可視化像を変更させることができるメカニズムを提供するに過ぎず、3Dデータ可視化像を変更する方法は、現実世界の空間内での差、及び/または現実世界におけるユーザがデータを探索するために利用可能な移動の自由度を反映することを含む(が、それらに限定されない)。ユーザの状況が、ユーザが移動の自由度を有する立席モードへシフトする際に、ユーザが3Dデータ可視化像を見ることができるように増加した規模を、図17Fに概念的に例示する。   17B-17F conceptually illustrate how a 3D data visualization image can be resized using affordances in the 3D user interface. 17B and 17C illustrate a user's pose (1708) and 3D data visualization (1710) in a mobile environment. An affordance (1702) that can be used to change the size of the 3D data visualization image to the “desktop” scale is seen in FIG. 17C. Moving the 3D data visualization (1710) on the affordance (1702) and the resulting resized 3D data visualization (1712) are conceptually illustrated in FIGS. 17E and 17F. As described above, resizing does not fix the size of the 3D graph. Following resizing, the user can continue to change the size of the 3D visualization image, and the way the 3D data visualization system responds to user input can change (eg, based on the size of the 3D data visualization image). And can respond differently to the movement of the 3D gesture). Affordance only provides a mechanism that allows the user to move between different situations and cause the 3D data visualization system to change the 3D data visualization image. The method of changing the 3D data visualization image is a real-world space. Reflecting (but not limited to) differences in mobility and / or freedom of movement available to the user in the real world to explore the data. FIG. 17F conceptually illustrates the scale of an increase in the user's situation so that the user can see the 3D data visualization image as the user shifts to the standing mode with freedom of movement.

以上の説明は3つの異なるモードまたは動作状況を参照しているが、本発明の種々の実施形態によれば、指定用途の要求に適合していれば、3Dデータ可視化システムは、任意数の異なるモード及び/または状況をサポートすることができる。さらに、3Dデータ可視化像を自動的に変更するユーザ・インタフェース内のアフォーダンスは、データをサイズ変更するだけのアフォーダンスに限定されない。種々の実施形態では、アフォーダンスに富んだアレイを提供し、これらのアフォーダンスは:
機械学習アルゴリズム(例えばk平均法クラスタリング)をデータに適用することによって、及び/または初期の3D可視化像内の単一の3Dオブジェクトによって表現される多次元データの新たな3D可視化像を生成することによって、当該アフォーダンス上で3Dグラフを動かすことに応答するアフォーダンスを含む(が、それらに限定されない)。これに加えて、所定入力に応答して(それに限定されないが)サイズ変更のような自動化された動作を実行することができ、所定入力は、ジェスチャー入力、音声入力、1つ以上の入力装置を介した入力、及び/または一連の入力の任意の組合せを含むことができる(が、それらに限定されない)。従って、3Dデータ可視化システムはあらゆる特定のアフォーダンスの使用に限定されず、所定用途の要求に適合すれば、3Dグラフと相互作用するための任意のアフォーダンス、アフォーダンスの集合、及び/または入力モダリティ(手段)を利用することができる。
Although the above description refers to three different modes or operating conditions, according to various embodiments of the present invention, a 3D data visualization system can be used in any number of different ways if it meets the requirements of a specified application. Modes and / or situations can be supported. Furthermore, affordances in the user interface that automatically change the 3D data visualization are not limited to affordances that only resize the data. Various embodiments provide an array rich in affordances, which are:
Applying a machine learning algorithm (eg, k-means clustering) to the data and / or generating a new 3D visualization of multidimensional data represented by a single 3D object in the initial 3D visualization Includes (but is not limited to) affordances responsive to moving a 3D graph over the affordances. In addition, automated actions such as resizing can be performed in response to (but not limited to) a predetermined input, which includes gesture input, voice input, one or more input devices. And / or any combination of a series of inputs can be included (but is not limited to). Thus, the 3D data visualization system is not limited to the use of any particular affordance, but any affordance, set of affordances, and / or input modalities (means) for interacting with the 3D graph as long as the requirements of a given application are met. ) Can be used.

いくつかの実施形態では、3Dデータ可視化システムが、現実世界の状況を定めて、3Dデータ可視化像のレンダリングを、この現実世界の環境内に現実的に含まれるように動的に変更する。例えば、仮想的立方体の代わりに、同様なサイズ変更操作を、現実の立方体及び/またはオフィス空間内で実行することができる。多数の実施形態では、深さを検出するカメラシステムを利用して、ユーザを包囲する自由空間の体積に関する情報を取得することができる。他の実施形態では、種々の適切なマシンビジョン技術のいずれをも利用することができる。いくつかの実施形態では、3Dデータ可視化システムが、ユーザのポーズ及び/または視点の変化に関係する空間の体積の変化を検出して、3Dデータ可視化像のサイズを、ユーザの視点から見える自由空間の新たな体積に適した方法で変更する。容易にわかるように、3Dデータ可視化システムは、一般に、ユーザが、可視化像を包含するために利用可能な自由空間の体積に基づいて3Dデータ可視化像のサイズを変更することができる能力に限界を設けない。その代わりに、ユーザは、対話形式のデータ探索を可能にする方法で、3Dデータ可視化像を拡張することができる。   In some embodiments, the 3D data visualization system defines a real world situation and dynamically changes the rendering of the 3D data visualization image to be realistically included within this real world environment. For example, instead of a virtual cube, a similar resize operation can be performed in a real cube and / or office space. In many embodiments, a camera system that detects depth can be utilized to obtain information about the volume of free space that surrounds the user. In other embodiments, any of a variety of suitable machine vision techniques can be utilized. In some embodiments, the 3D data visualization system detects a change in volume of the space related to the user's pose and / or change in viewpoint, and the size of the 3D data visualization image is visible from the user's viewpoint. Change in a way that suits the new volume. As can be readily appreciated, 3D data visualization systems generally limit the ability of a user to change the size of a 3D data visualization image based on the volume of free space available to contain the visualization image. Not provided. Instead, the user can expand the 3D data visualization in a way that allows interactive data exploration.

多数の実施形態では、種々の入力モダリティが3Dデータ可視化システムによってサポートされる。いくつかの実施形態では、ユーザがデスクトップ装置を用いて3Dデータ可視化システムと相互作用することができ、こうしたデスクトップ装置は、従来型のウィンドウズ(登録商標)アイコン・メニューポインタ(WIMP:windows icon menu pointer)プログラム、及び/またはタッチジェスチャー系のユーザ・インタフェースを使用するモバイル機器を用いる。ユーザが、(それらに限定されないが)AR、MR、またはVR用のヘッドセットのような没入型3Dディスプレイを介した3Dデータ可視化システムとの相互作用に移行すると、種々の追加的な入力モダリティを用いてユーザ入力を取得することができる。いくつかの実施形態では、マシンビジョン・システムを用いて、3Dジェスチャー系の入力を観測することができる。多数の実施形態では、3Dデータ可視化システムと無線通信する細長いハンドルを有する棒状のユーザー入力装置をユーザに提供する。多数の実施形態では、上記の棒状体が単一のボタンであり、無線通信リンクを介して通信する。3Dデータ可視化システムは、上記棒状体のポーズ及び上記ボタンの状態を追跡することによってユーザ入力を取得することができる。状況に応じて、3Dデータ可視化システムが、上記ボタンを、異なる情報を伝えるものとして解釈することができる。単純な入力モダリティは、ユーザが、ボタンが押されていない際にユーザに対する3Dデータ可視化像の位置を移動させること、及びボタンが押されている際に3Dデータ可視化像を回転させることを可能にすることを含む。他の実施形態では、ユーザの凝視方向、及び/または1つ以上のボタンだけを含むリモートコントローラをユーザ入力として用いることができる。容易にわかるように、本発明の種々の実施形態によれば、所定用途の要求に適合すれば、ポーズ入力とボタン入力との組合せに基づいて、種々の処理のいずれをも開始することができる。さらに、所定の3Dデータ可視化アプリケーションの必要性に適合すれば、種々の追加的な入力モダリティのいずれをもサポートすることができる。   In many embodiments, various input modalities are supported by the 3D data visualization system. In some embodiments, a user can interact with a 3D data visualization system using a desktop device, such as a conventional Windows icon menu pointer (WIMP). ) Using a mobile device that uses a program and / or a touch gesture based user interface. As users move to interacting with 3D data visualization systems via immersive 3D displays such as (but not limited to) headsets for AR, MR, or VR, various additional input modalities Can be used to obtain user input. In some embodiments, a machine vision system can be used to observe 3D gesture-based inputs. In many embodiments, a user is provided with a bar-shaped user input device having an elongated handle in wireless communication with a 3D data visualization system. In many embodiments, the bar is a single button that communicates over a wireless communication link. The 3D data visualization system can obtain user input by tracking the pose of the rod and the state of the buttons. Depending on the situation, the 3D data visualization system can interpret the buttons as conveying different information. A simple input modality allows the user to move the position of the 3D data visualization image relative to the user when the button is not pressed, and to rotate the 3D data visualization image when the button is pressed Including doing. In other embodiments, a remote controller that includes only the user's gaze direction and / or one or more buttons can be used as a user input. As will be readily appreciated, according to various embodiments of the present invention, any of various processes can be initiated based on a combination of pause input and button input, as long as the requirements for a given application are met. . In addition, any of a variety of additional input modalities can be supported if adapted to the needs of a given 3D data visualization application.

本発明は、特定の態様において説明してきたが、多数の追加的な変更及び変形が、当業者にとって明らかである。従って、本発明の範囲尾及び精神から逸脱することなしに、本発明を、具体的に説明してきた以外の方法で実現することができることは明らかであり、こうした方法は、(それに限定されないが)代案の表示技術(例えば、没入型体験装置)のような、本明細書中に説明したもの以外の種々の実現の変更をを含む。従って、本発明の実施形態は、あらゆる点で例示的であり限定的ではないものとして考えるべきである。
Although the present invention has been described in certain aspects, many additional modifications and variations will be apparent to those skilled in the art. It is therefore evident that the invention can be practiced otherwise than as specifically described without departing from the scope and spirit of the invention, including but not limited to such methods. Includes various implementation changes other than those described herein, such as alternative display technologies (eg, immersive experience devices). Accordingly, the embodiments of the invention are to be considered in all respects as illustrative and not restrictive.

Claims (30)

多次元データ空間の可視化像を生成するデータ可視化システムであって、
表示装置と、
コンピュータシステムとを具え、
該コンピュータシステムは、
3Dデータ可視化アプリケーションを含むメモリと、
処理システムとを具え、
前記3Dデータ可視化アプリケーションは、
前記メモリ内にある可視化テーブル内にデータ点の集合をロードすることを前記処理システムに指示し、前記データ点の各々は複数データ次元の値を含み、追加的な可視性値が、可視性の次元で、前記可視化テーブル内の前記データ点の各々に割り当てられ、
前記データ点の集合に対応する3Dオブジェクトの集合の表現を生成することを前記処理システムに指示し、該3Dオブジェクトの各々が、当該3Dオブジェクトをレンダリングする方法を定める可視化属性の集合を有し、該可視化属性は、3つの空間次元を有する仮想空間内の当該3Dオブジェクトの位置を含み、
データ次元を前記可視化属性にマップするマッピングを受信することを処理システムに指示し、
前記3Dオブジェクトの集合の前記可視化属性を、前記データ次元を前記3Dオブジェクトの属性にマップする選択したマッピングに基づいて決定することを前記処理システムに指示し、前記データ次元を前記3Dオブジェクトの属性にマップする前記選択したマッピングは、前記仮想空間内の前記3Dオブジェクトの各々の位置を定め、
複数の前記3Dオブジェクトの各々について、前記可視化テーブル内の可視性の次元を、データ次元を前記可視化属性にマップする前記選択したマッピングに基づいて、前記3Dオブジェクトの可視性を反映するように更新することを前記処理システムに指示し、
前記3Dオブジェクトの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることを前記処理システムに指示する、
データ可視化システム。
A data visualization system for generating a visualization image of a multidimensional data space,
A display device;
With a computer system,
The computer system includes:
A memory containing a 3D data visualization application;
With processing system,
The 3D data visualization application is:
Instructing the processing system to load a set of data points into a visualization table in the memory, each of the data points including a value of multiple data dimensions, and an additional visibility value A dimension assigned to each of the data points in the visualization table;
Directing the processing system to generate a representation of a set of 3D objects corresponding to the set of data points, each of the 3D objects having a set of visualization attributes defining how to render the 3D object; The visualization attribute includes the position of the 3D object in a virtual space having three spatial dimensions,
Instructing the processing system to receive a mapping that maps a data dimension to the visualization attribute;
Instructs the processing system to determine the visualization attribute of the set of 3D objects based on a selected mapping that maps the data dimension to the attribute of the 3D object, and sets the data dimension to the attribute of the 3D object. The selected mapping to map defines the position of each of the 3D objects in the virtual space;
For each of the plurality of 3D objects, update the visibility dimension in the visualization table to reflect the visibility of the 3D object based on the selected mapping that maps a data dimension to the visualization attribute. To the processing system,
Instructing the processing system to interactively render a 3D data visualization image of the 3D object in the virtual space from a viewpoint determined based on a received user input;
Data visualization system.
前記表示装置が3D表示装置であり、
前記3Dオブジェクトの前記3Dデータ可視化像を、前記受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることが、前記3D表示装置により表示されるステレオ画像をレンダリングすることを含む、
請求項1に記載のデータ可視化システム。
The display device is a 3D display device;
Rendering the 3D data visualization of the 3D object interactively in the virtual space from a viewpoint determined based on the received user input renders a stereo image displayed by the 3D display device. Including,
The data visualization system according to claim 1.
前記3Dデータ可視化アプリケーションを、3Dレンダリング・エンジンを用いて実現する、請求項1に記載のデータ可視化システム。   The data visualization system according to claim 1, wherein the 3D data visualization application is implemented using a 3D rendering engine. 前記3Dデータ可視化アプリケーションの実現が、さらに、前記3Dレンダリング・エンジンにより実行されるスクリプトに頼る、請求項3に記載のデータ可視化システム。   The data visualization system of claim 3, wherein implementation of the 3D data visualization application further relies on a script executed by the 3D rendering engine. 前記可視化属性が、
X座標、
Y座標、
Z座標、
形状、
サイズ、
カラーパレット、
カラーマップ、
カラースケール、
透明度、
ID、
URL、
マスク、
表示可否、
3Dオブジェクトの動き、
音発生、
触覚フィードバック、及び
振動触覚フィードバック
から成るグループから選択した少なくとも1つの属性を含む、請求項1に記載のデータ可視化システム。
The visualization attribute is
X coordinate,
Y coordinate,
Z coordinate,
shape,
size,
Color palette,
Color map,
Color scale,
Transparency,
ID,
URL,
mask,
Displayability,
3D object movement,
Sound generation,
The data visualization system of claim 1, comprising at least one attribute selected from the group consisting of haptic feedback and vibrotactile feedback.
データ次元を前記可視化属性にマップする前記マッピングを受信することが、データ次元を前記可視化属性にマップする前記マッピングのユーザ選択を受信することをさらに含む、請求項1に記載のデータ可視化システム。   The data visualization system of claim 1, wherein receiving the mapping that maps a data dimension to the visualization attribute further comprises receiving a user selection of the mapping that maps a data dimension to the visualization attribute. データ次元を前記可視化属性にマップする前記マッピングを受信することが、記憶されている、データ次元を前記可視化属性にマップする前記マッピングの集合を検索することをさらに含む、請求項1に記載のデータ可視化システム。   The data of claim 1, wherein receiving the mapping that maps a data dimension to the visualization attribute further comprises retrieving a stored set of mappings that map a data dimension to the visualization attribute. Visualization system. 前記3Dオブジェクトの前記3Dデータ可視化像を、前記受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることが、
複数の可視の前記3Dオブジェクトの前記可視化属性に基づいて、3Dオブジェクトの少なくとも1グループを生成することと、
前記3Dオブジェクトの少なくとも1グループの3Dデータ可視化像を、前記受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることと
を含む、請求項1に記載のデータ可視化システム。
Rendering the 3D data visualization of the 3D object interactively in the virtual space from a viewpoint determined based on the received user input;
Generating at least one group of 3D objects based on the visualization attributes of the plurality of visible 3D objects;
The data visualization system of claim 1, comprising interactively rendering in the virtual space from a viewpoint determined based on the received user input, at least one group of 3D data visualization images of the 3D object.
前記3Dオブジェクトの前記3Dデータ可視化像を、前記受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることが、
前記ユーザ入力に応答して、前記仮想空間内の仮想環境の一部分を形成する前記3Dオブジェクトを変更して、前記データ点の集合に対応する3Dオブジェクトが前記仮想空間内に静止したままであり、前記仮想環境の一部分を形成する前記3Dオブジェクトの前記変更に起因して、前記3Dデータ可視化像内の前記仮想環境に対して変化して見えるようにすることと、
前記データ点の集合に対応する可視の前記3Dオブジェクト及び前記仮想環境の一部分を形成する前記3Dオブジェクトをレンダリングすることと
を含む、請求項1に記載のデータ可視化システム。
Rendering the 3D data visualization of the 3D object interactively in the virtual space from a viewpoint determined based on the received user input;
In response to the user input, changing the 3D object that forms part of the virtual environment in the virtual space, the 3D object corresponding to the set of data points remains stationary in the virtual space; Causing the virtual environment in the 3D data visualization to appear to change due to the change of the 3D object that forms part of the virtual environment;
The data visualization system of claim 1, comprising rendering the visible 3D object corresponding to the set of data points and the 3D object forming part of the virtual environment.
前記ユーザ入力に応答して、前記仮想空間内の前記仮想環境の一部分を形成する前記3Dオブジェクトを変更することが、
ユーザの命令に応答して、前記仮想環境の一部分を形成する前記3Dオブジェクトのサイズを変更することにより、前記データ点の集合に対応する前記3Dオブジェクトのサイズを変更して、前記データ点の集合に対応する前記3Dオブジェクトが前記仮想環境に対してサイズを変化させている印象を生成すること、
前記ユーザの命令に応答して、前記仮想環境の一部分を形成する前記3Dオブジェクトの位置を移動させることにより、前記データ点の集合に対応する前記3Dオブジェクトを移動させて、前記データ点の集合に対応する前記3Dオブジェクトが前記仮想環境に対して移動している印象を生成すること、及び
前記ユーザの命令に応答して、前記仮想環境の一部分を形成する前記3Dオブジェクトの位置を移動させることにより、前記データ点の集合に対応する前記3Dオブジェクトを回転させて、前記データ点の集合に対応する前記3Dオブジェクトが前記仮想環境に対して回転している印象を生成すること
を含むグループから選択した少なくとも1つの変更を含む、請求項9に記載のデータ可視化システム。
In response to the user input, changing the 3D object that forms part of the virtual environment in the virtual space;
Responsive to a user command, the size of the 3D object corresponding to the set of data points is changed by changing the size of the 3D object that forms part of the virtual environment. Generating an impression that the 3D object corresponding to is changing in size relative to the virtual environment;
In response to the user's command, moving the 3D object corresponding to the set of data points to move the position of the 3D object that forms part of the virtual environment to the set of data points Generating an impression that the corresponding 3D object is moving relative to the virtual environment, and moving the position of the 3D object that forms part of the virtual environment in response to the user command Selecting from a group including rotating the 3D object corresponding to the set of data points to generate an impression that the 3D object corresponding to the set of data points is rotated relative to the virtual environment. The data visualization system of claim 9, comprising at least one change.
前記3Dオブジェクトの3Dデータ可視化像を、前記受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることが、
前記3Dオブジェクトの少なくとも一部を照明し、前記照明される3Dオブジェクトの各々は、ユーザの視点において発光する指向性照明光源を用いて照明されることと、
少なくとも前記照明される3Dオブジェクトを、前記ユーザの視点に基づいてレンダリングすることと
を含む、請求項1に記載のデータ可視化システム。
Rendering the 3D data visualization of the 3D object interactively into the virtual space from a viewpoint determined based on the received user input;
Illuminating at least a portion of the 3D object, and each of the illuminated 3D objects is illuminated with a directional illumination light source that emits light at a user's viewpoint;
The data visualization system of claim 1, comprising rendering at least the illuminated 3D object based on the user's viewpoint.
前記3Dオブジェクトの少なくとも一部を照明することが、
視野を測定することと、
前記3Dオブジェクトを、前記ユーザの視点において発光する指向性照明光源を用いて、ユーザの前記視野内で照明することと、
前記ユーザの視野内で照明される前記3Dオブジェクトをレンダリングすることと
を含む、請求項11に記載のデータ可視化システム。
Illuminating at least a portion of the 3D object;
Measuring the field of view;
Illuminating the 3D object within the field of view of the user using a directional illumination light source that emits light at the user's viewpoint;
12. The data visualization system of claim 11, comprising rendering the 3D object illuminated in the user's field of view.
前記3Dオブジェクトの前記3Dデータ可視化像を、前記受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることが、
前記3Dオブジェクトの少なくとも一部を、前記ユーザの視点に基づいて回転させて、前記回転する3Dオブジェクトの外観が前記ユーザの視点に対して不変であるようにすることと、
前記回転する3Dオブジェクトを、前記ユーザの視点に基づいてレンダリングすることと
を含む、請求項1に記載のデータ可視化システム。
Rendering the 3D data visualization of the 3D object interactively in the virtual space from a viewpoint determined based on the received user input;
Rotating at least a portion of the 3D object based on the viewpoint of the user so that the appearance of the rotating 3D object is invariant to the viewpoint of the user;
The data visualization system of claim 1, comprising rendering the rotating 3D object based on the user's viewpoint.
前記3Dオブジェクトの前記3Dデータ可視化像を、前記受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることが、
前記仮想空間内の少なくとも1つのインタラクション・プリミティブの位置を、前記ユーザの視点に基づいて決定することと、
前記少なくとも1つのインタラクション・プリミティブを、前記ユーザの視点に基づいてレンダリングすることと
を含む、請求項1に記載のデータ可視化システム。
Rendering the 3D data visualization of the 3D object interactively in the virtual space from a viewpoint determined based on the received user input;
Determining a position of at least one interaction primitive in the virtual space based on the viewpoint of the user;
The data visualization system of claim 1, comprising rendering the at least one interaction primitive based on the user's viewpoint.
前記少なくとも1つのインタラクション・プリミティブの透明度を、前記ユーザの視点に基づいて決定することを含む、請求項14に記載のデータ可視化システム。   The data visualization system of claim 14, comprising determining transparency of the at least one interaction primitive based on the user's viewpoint. 前記3Dオブジェクトが、深さの知覚を保つ形状を有する3Dオブジェクトを含む、請求項1に記載のデータ可視化システム。   The data visualization system according to claim 1, wherein the 3D object includes a 3D object having a shape that maintains a perception of depth. 前記データ次元を前記可視化属性にマップする前記マッピングを受信することが、
対象の特徴の選択を受信することと、
前記複数のデータ次元の少なくとも部分集合の、前記対象の特徴にとっての重要度を特定することと、
高い前記重要度を有する前記データ次元を特定の前記可視化属性にマップするマッピングを生成することと
を含む、請求項1に記載のデータ可視化システム。
Receiving the mapping that maps the data dimension to the visualization attribute;
Receiving a selection of features of interest;
Identifying the importance of at least a subset of the plurality of data dimensions to the feature of the object;
The data visualization system of claim 1, comprising generating a mapping that maps the data dimension having the high importance to a specific visualization attribute.
前記複数のデータ次元の少なくとも部分集合の、前記対象の特徴にとっての重要度を特定することが、
数値的であるデータ次元及びカテゴリー的であるデータ次元を識別することと、
高い重要度を有する前記数値的であるデータ次元を、前記可視化属性の第1集合にマップするマッピングを生成することと、
高い重要度を有する前記カテゴリー的であるデータ次元を、前記可視化属性の第2集合にマップするマッピングを生成することと
をさらに含む、請求項17に記載のデータ可視化システム。
Identifying the importance of at least a subset of the plurality of data dimensions to the feature of the object;
Identifying data dimensions that are numerical and categorical, and
Generating a mapping that maps the numerical data dimension with high importance to the first set of visualization attributes;
18. The data visualization system of claim 17, further comprising generating a mapping that maps the categorical data dimension with high importance to the second set of visualization attributes.
前記可視化属性の第1集合が、X位置、Y位置、Z位置、及びサイズを含む、請求項18に記載のデータ可視化システム。   The data visualization system of claim 18, wherein the first set of visualization attributes includes an X position, a Y position, a Z position, and a size. 前記可視化属性の第2集合が形状を含む、請求項19に記載のデータ可視化システム。   The data visualization system of claim 19, wherein the second set of visualization attributes includes a shape. 前記3Dデータ可視化アプリケーションが、さらに、
前記データ次元を前記可視化属性にマップする少なくとも1つの更新されたマッピングを受信することを前記処理システムに指示し、
前記データ次元を前記3Dオブジェクトの属性にマップする前記選択したマッピングに基づいて、前記3Dオブジェクトの集合に対する更新された前記可視化属性を決定することを、前記処理システムに指示し、前記データ次元を前記可視化属性にマップする前記更新されたマッピングは、更新された前記仮想空間内の可視の前記3Dオブジェクトの各々の位置を定め、
可視の前記3Dオブジェクトの集合について、当該集合内のそれぞれの前記3Dオブジェクトの、前記仮想空間内の位置から前記仮想空間内の更新された位置までの軌跡を生成することを、前記処理システムに指示し、
前記仮想空間内の位置から前記仮想空間内の更新された位置までの前記生成された軌跡に沿った前記3Dオブジェクトの移動のアニメーションを、前記受信したユーザ入力に基づいて決まる視点から対話形式でレンダリングすることを、前記処理システムに指示する、
請求項1に記載のデータ可視化システム。
The 3D data visualization application further includes:
Instructing the processing system to receive at least one updated mapping that maps the data dimension to the visualization attribute;
Instructing the processing system to determine the updated visualization attribute for the set of 3D objects based on the selected mapping that maps the data dimension to an attribute of the 3D object; The updated mapping that maps to visualization attributes locates each of the visible 3D objects in the updated virtual space;
Instructing the processing system to generate, for the set of visible 3D objects, a trajectory of each 3D object in the set from a position in the virtual space to an updated position in the virtual space. And
Rendering an animation of the movement of the 3D object along the generated trajectory from a position in the virtual space to an updated position in the virtual space from a viewpoint determined based on the received user input Instructing the processing system to
The data visualization system according to claim 1.
前記3Dデータ可視化アプリケーションが、さらに、前記複数の3Dオブジェクトの各々について、更新された可視性の値を、前記更新されたマッピングに基づいて前記3Dオブジェクトの各々の可視性を反映するように決定することを、前記処理システムに指示する、請求項21に記載のデータ可視化システム。   The 3D data visualization application further determines an updated visibility value for each of the plurality of 3D objects to reflect the visibility of each of the 3D objects based on the updated mapping. The data visualization system according to claim 21, wherein the processing system is instructed to do so. 前記生成された軌跡に沿った前記3Dオブジェクトの移動のアニメーションを対話形式でレンダリングすることが、レンダリングされた前記アニメーション中で、前記3Dオブジェクトの異なる集合が当該3Dオブジェクトの軌跡に沿った移動を開始する時刻を変化させることをさらに含む、請求項22に記載のデータ可視化システム。   Interactively rendering an animation of the movement of the 3D object along the generated trajectory, wherein different sets of 3D objects begin moving along the trajectory of the 3D object in the rendered animation 23. The data visualization system according to claim 22, further comprising changing a time to perform. 前記レンダリングされたアニメーション中で、前記3Dオブジェクトの異なる集合が当該3Dオブジェクトの軌跡に沿った移動を開始する時刻を、ユーザ入力に基づいて決定する、請求項23に記載のデータ可視化システム。   24. The data visualization system of claim 23, wherein in the rendered animation, a time at which a different set of 3D objects starts moving along the trajectory of the 3D object is determined based on user input. 前記生成された軌跡に沿った前記3Dオブジェクトの移動のアニメーションを対話形式でレンダリングすることが、前記レンダリングされたアニメーション中で、前記3Dオブジェクトの異なる集合が当該3Dオブジェクトの軌跡に沿って移動する速度を変化させることをさらに含む、請求項21に記載のデータ可視化システム。   Rendering an animation of the movement of the 3D object along the generated trajectory interactively is the speed at which different sets of 3D objects move along the trajectory of the 3D object in the rendered animation. The data visualization system of claim 21, further comprising changing. 前記3Dオブジェクトの前記3Dデータ可視化像を、前記受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることが、
少なくとも1つのアフォーダンスの前記仮想空間内の位置を決定することであって、該少なくとも1つのアフォーダンス上への前記3Dデータ可視化像の移動を指示するユーザ入力が、前記3Dデータ可視化像の変更を開始することと、
前記少なくとも1つのアフォーダンス上への前記3Dデータ可視化像の移動を検出することと、
前記少なくとも1つのアフォーダンスのうちの1つに基づいて、前記3Dデータ可視化像を変更することと、
前記変更した3Dデータ可視化像を、前記ユーザの視点に基づいてレンダリングすることと
を含む、請求項1に記載のデータ可視化システム。
Rendering the 3D data visualization of the 3D object interactively in the virtual space from a viewpoint determined based on the received user input;
Determining a position of at least one affordance in the virtual space, wherein a user input directing movement of the 3D data visualized image onto the at least one affordance initiates a change of the 3D data visualized image; To do
Detecting movement of the 3D data visualization image on the at least one affordance;
Modifying the 3D data visualization based on one of the at least one affordance;
The data visualization system according to claim 1, comprising rendering the modified 3D data visualization image based on the viewpoint of the user.
前記少なくとも1つのアフォーダンスのうちの1つに基づいて前記3Dデータ可視化像を変更することが、前記3Dデータ可視化像のサイズを変更することを含む、請求26に記載のデータ可視化システム。   27. The data visualization system of claim 26, wherein changing the 3D data visualization image based on one of the at least one affordance comprises changing the size of the 3D data visualization image. 前記メモリがアバター・メタデータをさらに含み、該アバター・メタデータは、アバターをレンダリングする方法を定める前記可視化属性の集合を含み、前記可視化属性は、前記仮想空間内の前記アバターの位置を含み、
前記3Dオブジェクトの前記3Dデータ可視化像を、前記受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることが、前記視点及び前記アバター・メタデータに基づいて、前記3Dデータ可視化像内に前記アバターをレンダリングすることを含む、
請求項1に記載のデータ可視化システム。
The memory further includes avatar metadata, the avatar metadata includes a set of visualization attributes that define how to render the avatar, and the visualization attributes include the location of the avatar in the virtual space;
Rendering the 3D data visualization of the 3D object interactively in the virtual space from a viewpoint determined based on the received user input, based on the viewpoint and the avatar metadata, the 3D data Rendering the avatar in a visualized image;
The data visualization system according to claim 1.
前記アバター・メタデータがポーズ情報をさらに含み、
前記視点及び前記アバター・メタデータに基づいて、前記3Dデータ可視化像内に前記アバターをレンダリングすることが、前記アバター・メタデータ内の前記ポーズ情報に基づいて、前記3Dデータ可視化像内に前記アバターのポーズをレンダリングすることをさらに含む、
請求項28に記載のデータ可視化システム。
The avatar metadata further includes pose information;
Rendering the avatar in the 3D data visualized image based on the viewpoint and the avatar metadata is based on the pose information in the avatar metadata and the avatar in the 3D data visualized image. Further comprising rendering a pose of the
The data visualization system according to claim 28.
多次元データ空間の可視化像を生成するデータ可視化システムであって、
3D表示装置と、
コンピュータシステムとを具え、
該コンピュータシステムは、
3Dデータ可視化アプリケーションを含むメモリと、
処理システムとを具え、
前記3Dデータ可視化アプリケーションは、
前記メモリ内にある可視化テーブル内にデータ点の集合をロードすることを前記処理システムに指示し、前記データ点の各々は複数データ次元の値を含み、追加的な可視性値が、可視性の次元で、前記可視化テーブル内の前記データ点の各々に割り当てられ、
前記データ点の集合に対応する3Dオブジェクトの集合の表現を生成することを前記処理システムに指示し、該3Dオブジェクトの各々が、当該3Dオブジェクトをレンダリングする方法を定める可視化属性の集合を有し、該可視化属性は、3つの空間次元を有する仮想空間内の当該3Dオブジェクトの位置を含み、
ユーザが選択した、データ次元を前記可視化属性にマップするマッピングを受信することを処理システムに指示し、
前記3Dオブジェクトの集合の前記可視化属性を、前記データ次元を前記3Dオブジェクトの属性にマップする選択したマッピングに基づいて決定することを前記処理システムに指示し、前記データ次元を前記3Dオブジェクトの属性にマップする前記選択したマッピングは、前記仮想空間内の前記3Dオブジェクトの各々の位置を定め、
複数の前記3Dオブジェクトの各々について、前記可視化テーブル内の可視性の次元を、データ次元を前記可視化属性にマップする前記選択したマッピングに基づいて、前記3Dオブジェクトの可視性を反映するように更新することを前記処理システムに指示し、
前記3Dオブジェクトの3Dデータ可視化像を、前記3Dディスプレイにより表示されるステレオ画像として、受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることを前記処理システムに指示し、
前記レンダリングすることは、
複数の可視の前記3Dオブジェクトの前記可視化属性に基づいて、3Dオブジェクトの少なくとも1グループを生成し、
前記ユーザ入力に応答して、前記仮想空間内の仮想環境の一部分を形成する前記3Dオブジェクトを変更して、前記3Dオブジェクトの前記少なくとも1グループが前記仮想空間内に静止したままであり、前記仮想環境の一部分を形成する前記3Dオブジェクトの前記変更に起因して、前記3Dデータ可視化像内の前記仮想環境に対して変化して見えるようにし、
前記3Dオブジェクトの前記少なくとも1グループ及び前記仮想環境の一部分を形成する前記3Dオブジェクトに相当する可視の前記3Dオブジェクトを、前記受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングする
ことによって行う、データ可視化システム。
A data visualization system for generating a visualization image of a multidimensional data space,
A 3D display device;
With a computer system,
The computer system includes:
A memory containing a 3D data visualization application;
With processing system,
The 3D data visualization application is:
Instructing the processing system to load a set of data points into a visualization table in the memory, each of the data points including a value of multiple data dimensions, and an additional visibility value A dimension assigned to each of the data points in the visualization table;
Directing the processing system to generate a representation of a set of 3D objects corresponding to the set of data points, each of the 3D objects having a set of visualization attributes defining how to render the 3D object; The visualization attribute includes the position of the 3D object in a virtual space having three spatial dimensions,
Instructing the processing system to receive a mapping selected by the user that maps a data dimension to the visualization attribute;
Instructs the processing system to determine the visualization attribute of the set of 3D objects based on a selected mapping that maps the data dimension to the attribute of the 3D object, and sets the data dimension to the attribute of the 3D object. The selected mapping to map defines the position of each of the 3D objects in the virtual space;
For each of the plurality of 3D objects, update the visibility dimension in the visualization table to reflect the visibility of the 3D object based on the selected mapping that maps a data dimension to the visualization attribute. To the processing system,
Instructing the processing system to render the 3D data visualization image of the 3D object as a stereo image displayed on the 3D display interactively in the virtual space from a viewpoint determined based on a received user input;
The rendering is
Generating at least one group of 3D objects based on the visualization attributes of the plurality of visible 3D objects;
In response to the user input, changing the 3D object that forms part of the virtual environment in the virtual space, the at least one group of the 3D objects remains stationary in the virtual space, Due to the change of the 3D object forming part of the environment to appear to change relative to the virtual environment in the 3D data visualization image;
Rendering the visible 3D objects corresponding to the at least one group of the 3D objects and the 3D objects forming part of the virtual environment interactively into the virtual space from a viewpoint determined based on the received user input A data visualization system that does this.
JP2018502734A 2015-09-24 2016-09-26 Data visualization system and method using three-dimensional display Pending JP2018533099A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562232119P 2015-09-24 2015-09-24
US62/232,119 2015-09-24
US201662365837P 2016-07-22 2016-07-22
US62/365,837 2016-07-22
PCT/US2016/053842 WO2017054004A1 (en) 2015-09-24 2016-09-26 Systems and methods for data visualization using tree-dimensional displays

Publications (1)

Publication Number Publication Date
JP2018533099A true JP2018533099A (en) 2018-11-08

Family

ID=58387512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018502734A Pending JP2018533099A (en) 2015-09-24 2016-09-26 Data visualization system and method using three-dimensional display

Country Status (4)

Country Link
US (2) US9665988B2 (en)
EP (1) EP3353751A4 (en)
JP (1) JP2018533099A (en)
WO (1) WO2017054004A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020184259A (en) * 2019-05-09 2020-11-12 株式会社日立製作所 Software analysis support system and computer program therefor
KR102319568B1 (en) * 2021-05-31 2021-11-01 주식회사 트라이폴리곤 Method for 3D(dimension) modeling and apparatus for performing the method

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10127574B2 (en) * 2011-11-30 2018-11-13 Cynthia Brown Internet marketing analytics system
US11232626B2 (en) * 2011-12-21 2022-01-25 Twenieth Century Fox Film Corporation System, method and apparatus for media pre-visualization
WO2016068901A1 (en) * 2014-10-29 2016-05-06 Hewlett-Packard Development Company, L.P. Visualization including multidimensional graphlets
US10694249B2 (en) * 2015-09-09 2020-06-23 Vantrix Corporation Method and system for selective content processing based on a panoramic camera and a virtual-reality headset
US11108670B2 (en) 2015-09-09 2021-08-31 Vantrix Corporation Streaming network adapted to content selection
US12063380B2 (en) 2015-09-09 2024-08-13 Vantrix Corporation Method and system for panoramic multimedia streaming enabling view-region selection
US11287653B2 (en) 2015-09-09 2022-03-29 Vantrix Corporation Method and system for selective content processing based on a panoramic camera and a virtual-reality headset
US10419770B2 (en) 2015-09-09 2019-09-17 Vantrix Corporation Method and system for panoramic multimedia streaming
JP2018533099A (en) 2015-09-24 2018-11-08 カリフォルニア インスティチュート オブ テクノロジー Data visualization system and method using three-dimensional display
US10134179B2 (en) 2015-09-30 2018-11-20 Visual Music Systems, Inc. Visual music synthesizer
US20180300326A1 (en) * 2017-04-17 2018-10-18 The Boeing Company Three-Dimensional Massive Model Visualization Database System
JP6972647B2 (en) * 2017-05-11 2021-11-24 富士フイルムビジネスイノベーション株式会社 3D shape data editing device and 3D shape data editing program
RU2669716C1 (en) * 2017-05-12 2018-10-15 Общество с ограниченной ответственностью "ВИЗЕКС ИНФО" System and method for processing and analysis of large amounts of data
EP3451231A1 (en) * 2017-08-31 2019-03-06 Fujitsu Limited Imagification of multivariate data
US11620315B2 (en) * 2017-10-09 2023-04-04 Tableau Software, Inc. Using an object model of heterogeneous data to facilitate building data visualizations
WO2019113299A1 (en) * 2017-12-06 2019-06-13 Reconstructor Holdings Llc Methods and systems for representing relational information in 3d space
US10929476B2 (en) * 2017-12-14 2021-02-23 Palantir Technologies Inc. Systems and methods for visualizing and analyzing multi-dimensional data
US20190188893A1 (en) * 2017-12-18 2019-06-20 Dataview Vr, Llc Simulated reality data representation system and method
US10855564B2 (en) 2018-01-15 2020-12-01 Worcester Polytechnic Institute Visualization of network data as a three-dimensional hierarchical data structure in a mixed reality environment
US10854003B2 (en) 2018-01-15 2020-12-01 Worcester Polytechnic Institute Visualization of network data as a three-dimensional hierarchical data structure in a mixed reality environment
US10438414B2 (en) 2018-01-26 2019-10-08 Microsoft Technology Licensing, Llc Authoring and presenting 3D presentations in augmented reality
CN108346172B (en) * 2018-02-26 2021-10-08 中译语通科技股份有限公司 Multidimensional space data dot matrix VR display method and system
US11461629B1 (en) * 2018-03-05 2022-10-04 Meta Platforms, Inc. Neural network model visualization
US11307880B2 (en) 2018-04-20 2022-04-19 Meta Platforms, Inc. Assisting users with personalized and contextual communication content
US11886473B2 (en) 2018-04-20 2024-01-30 Meta Platforms, Inc. Intent identification for agent matching by assistant systems
US11010436B1 (en) 2018-04-20 2021-05-18 Facebook, Inc. Engaging users by personalized composing-content recommendation
US10621762B2 (en) 2018-05-14 2020-04-14 Virtualitics, Inc. Systems and methods for high dimensional 3D data visualization
US10861238B2 (en) 2018-05-14 2020-12-08 Microsoft Technology Licensing, Llc Experiential representation of data in mixed reality
CN112639886B (en) * 2018-09-07 2024-08-06 美国西门子医学诊断股份有限公司 Instrument analyzer, data display and display method
US11107274B2 (en) * 2018-09-17 2021-08-31 Purdue Research Foundation Methods of processing three dimensional models
US11636650B2 (en) * 2018-09-24 2023-04-25 K2M, Inc. System and method for isolating anatomical features in computerized tomography data
US10984601B2 (en) 2018-10-21 2021-04-20 Oracle International Corporation Data visualization objects in a virtual environment
US10353073B1 (en) * 2019-01-11 2019-07-16 Nurulize, Inc. Point cloud colorization system with real-time 3D visualization
US11037126B2 (en) * 2019-07-09 2021-06-15 Visa International Service Association Systems and methods for assessing electronic payment readiness
US11010015B2 (en) 2019-08-07 2021-05-18 Fmr Llc Systems and methods for filtering data in virtual reality environments
CN112489185B (en) * 2019-08-20 2023-12-12 黎欧思照明(上海)有限公司 Integrated lamplight modeling method based on spatial data acquisition
CN110599600B (en) * 2019-09-16 2023-05-23 海南诺亦腾海洋科技研究院有限公司 Automatic conversion method of multidimensional visual model of data
CN111354085A (en) * 2020-02-26 2020-06-30 广州奇境科技有限公司 Immersive interactive Box image production method
CN115210769A (en) * 2020-03-06 2022-10-18 索尼集团公司 Information processing apparatus, information processing method, and information processing program
CN111563357B (en) * 2020-04-28 2024-03-01 纳威科技有限公司 Three-dimensional visual display method and system for electronic device
US11487781B2 (en) 2020-05-08 2022-11-01 International Business Machines Corporation Visualizing sparse multi-dimensional data
US11282267B2 (en) 2020-07-02 2022-03-22 Cognizant Technology Solutions India Pvt. Ltd. System and method for providing automated data visualization and modification
US10949058B1 (en) 2020-09-03 2021-03-16 Fmr Llc Generating and manipulating three-dimensional (3D) objects in a 3D environment of an alternative reality software application
CN112419482B (en) * 2020-11-23 2023-12-01 太原理工大学 Three-dimensional reconstruction method for group pose of mine hydraulic support with depth point cloud fusion
US11615504B2 (en) * 2021-04-13 2023-03-28 Qualcomm Incorporated Methods and apparatus for scalable primitive rate architecture for geometry processing
US20220375156A1 (en) * 2021-05-19 2022-11-24 Red Hat, Inc. Multi-sensory representation of datasets in a virtual reality environment
IL308026A (en) * 2021-05-28 2023-12-01 Imply Data Inc Dynamic query engine for data visualization
US11551402B1 (en) * 2021-07-20 2023-01-10 Fmr Llc Systems and methods for data visualization in virtual reality environments
US12100077B2 (en) * 2022-05-04 2024-09-24 Red Hat, Inc. Visual database system for multidimensional data representation
US12007963B1 (en) 2023-04-25 2024-06-11 Bank Of America Corporation System and method for processing resources and associated metadata in the metaverse using knowledge graphs
CN117853824B (en) * 2024-03-04 2024-05-07 北京国星创图科技有限公司 Big data-based 3D sand table projection analysis method

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5461708A (en) 1993-08-06 1995-10-24 Borland International, Inc. Systems and methods for automated graphing of spreadsheet information
US6057856A (en) 1996-09-30 2000-05-02 Sony Corporation 3D virtual reality multi-user interaction with superimposed positional information display for each user
US6154723A (en) 1996-12-06 2000-11-28 The Board Of Trustees Of The University Of Illinois Virtual reality 3D interface system for data creation, viewing and editing
US6456285B2 (en) * 1998-05-06 2002-09-24 Microsoft Corporation Occlusion culling for complex transparent scenes in computer generated graphics
US6750864B1 (en) 1999-11-15 2004-06-15 Polyvista, Inc. Programs and methods for the display, analysis and manipulation of multi-dimensional data implemented on a computer
CA2403300A1 (en) * 2002-09-12 2004-03-12 Pranil Ram A method of buying or selling items and a user interface to facilitate the same
US20040041846A1 (en) * 2002-04-10 2004-03-04 Peter Hurley System and method for visualizing data
US8131471B2 (en) 2002-08-08 2012-03-06 Agilent Technologies, Inc. Methods and system for simultaneous visualization and manipulation of multiple data types
US8042056B2 (en) * 2004-03-16 2011-10-18 Leica Geosystems Ag Browsers for large geometric data visualization
US7283654B2 (en) 2004-08-26 2007-10-16 Lumeniq, Inc. Dynamic contrast visualization (DCV)
US20070211056A1 (en) * 2006-03-08 2007-09-13 Sudip Chakraborty Multi-dimensional data visualization
KR101257849B1 (en) * 2006-09-29 2013-04-30 삼성전자주식회사 Method and Apparatus for rendering 3D graphic objects, and Method and Apparatus to minimize rendering objects for the same
US9098559B2 (en) * 2007-08-31 2015-08-04 Sap Se Optimized visualization and analysis of tabular and multidimensional data
GB2458927B (en) * 2008-04-02 2012-11-14 Eykona Technologies Ltd 3D Imaging system
KR101590763B1 (en) * 2009-06-10 2016-02-02 삼성전자주식회사 Apparatus and method for generating 3d image using area extension of depth map object
US8890946B2 (en) 2010-03-01 2014-11-18 Eyefluence, Inc. Systems and methods for spatially controlled scene illumination
US20130097563A1 (en) * 2010-06-24 2013-04-18 Associacao Instituto Nacional De Matematica Pura E Aplicada Multidimensional-data-organization method
GB2506793A (en) 2011-07-28 2014-04-09 Schlumberger Holdings System and method for performing wellbore fracture operations
US9824469B2 (en) 2012-09-11 2017-11-21 International Business Machines Corporation Determining alternative visualizations for data based on an initial data visualization
WO2014130044A1 (en) 2013-02-23 2014-08-28 Hewlett-Packard Development Company, Lp Three dimensional data visualization
US20160119615A1 (en) 2013-05-31 2016-04-28 Hewlett-Packard Development Company, L.P. Three dimensional data visualization
US20150113460A1 (en) 2013-10-23 2015-04-23 Wal-Mart Stores, Inc. Data Analytics Animation System and Method
US20150205840A1 (en) 2014-01-17 2015-07-23 Crytek Gmbh Dynamic Data Analytics in Multi-Dimensional Environments
US9734595B2 (en) 2014-09-24 2017-08-15 University of Maribor Method and apparatus for near-lossless compression and decompression of 3D meshes and point clouds
JP2018533099A (en) 2015-09-24 2018-11-08 カリフォルニア インスティチュート オブ テクノロジー Data visualization system and method using three-dimensional display
DE102015221998B4 (en) 2015-11-09 2019-01-17 Siemens Healthcare Gmbh A method of assisting a finder in locating a target structure in a breast, apparatus and computer program
US10977435B2 (en) 2015-12-28 2021-04-13 Informatica Llc Method, apparatus, and computer-readable medium for visualizing relationships between pairs of columns
US10482196B2 (en) 2016-02-26 2019-11-19 Nvidia Corporation Modeling point cloud data using hierarchies of Gaussian mixture models
CN113040740A (en) 2016-06-24 2021-06-29 生命解析公司 Non-invasive method and system for measuring myocardial ischemia, stenosis identification, localization and fractional flow reserve estimation
US9953372B1 (en) 2017-05-22 2018-04-24 Insurance Zebra Inc. Dimensionality reduction of multi-attribute consumer profiles

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020184259A (en) * 2019-05-09 2020-11-12 株式会社日立製作所 Software analysis support system and computer program therefor
WO2020226027A1 (en) * 2019-05-09 2020-11-12 株式会社日立製作所 Software analysis assistance system and computer program for same
CN113678099A (en) * 2019-05-09 2021-11-19 株式会社日立制作所 Software analysis assistance system and computer program therefor
GB2600556A (en) * 2019-05-09 2022-05-04 Hitachi Ltd Software analysis assistance system and computer program for same
JP7261083B2 (en) 2019-05-09 2023-04-19 株式会社日立製作所 Software analysis support system
US11693653B2 (en) 2019-05-09 2023-07-04 Hitachi, Ltd. Software analysis support system and computer program therefor
CN113678099B (en) * 2019-05-09 2023-08-11 株式会社日立制作所 Software analysis supporting system and computer readable recording medium thereof
KR102319568B1 (en) * 2021-05-31 2021-11-01 주식회사 트라이폴리곤 Method for 3D(dimension) modeling and apparatus for performing the method

Also Published As

Publication number Publication date
EP3353751A1 (en) 2018-08-01
US10417812B2 (en) 2019-09-17
WO2017054004A1 (en) 2017-03-30
US20170193688A1 (en) 2017-07-06
US9665988B2 (en) 2017-05-30
WO2017054004A8 (en) 2018-02-08
EP3353751A4 (en) 2019-03-20
US20170092008A1 (en) 2017-03-30

Similar Documents

Publication Publication Date Title
US10417812B2 (en) Systems and methods for data visualization using three-dimensional displays
Zhao et al. Metaverse: Perspectives from graphics, interactions and visualization
Jankowski et al. Advances in interaction with 3D environments
EP3304252B1 (en) Shared tactile interaction and user safety in shared space multi-person immersive virtual reality
Linowes Unity virtual reality projects
Papagiannakis et al. Mixed Reality, Gamified Presence, and Storytelling for Virtual Museums.
Mario A. Gutiérrez A. et al. Stepping into virtual reality
CN105981076B (en) Synthesize the construction of augmented reality environment
US12093704B2 (en) Devices, methods, systems, and media for an extended screen distributed user interface in augmented reality
Olson Perspectives on structural molecular biology visualization: from past to present
Medeiros et al. Proposal and evaluation of a tablet-based tool for 3D virtual environments
Baker et al. Human factors in virtual environments for the visual analysis of scientific data
Berki Navigation power of MaxWhere: a unique solution
Thiel et al. Interaction and locomotion techniques for the exploration of massive 3D point clouds in VR environments
Capece et al. A preliminary investigation on a multimodal controller and freehand based interaction in virtual reality
Beckhaus Dynamic potential fields for guided exploration in virtual environments
Paes et al. The relevance of visual cues in immersive environments: Does pictorial realism matter?
Eitsuka et al. Authoring animations of virtual objects in augmented reality-based 3d space
Ha et al. ARWand for an augmuented world builder
Piumsomboon Natural hand interaction for augmented reality.
Kolokouris Interactive presentation of cultural content using hybrid technologies, geographical systems and three-dimensional technologies.
Surya et al. Virtual Laboratory in Mixed Reality with 3D Modelling for Sustainable Design
Pavlopoulou et al. A Mixed Reality application for Object detection with audiovisual feedback through MS HoloLenses
Lee et al. A Responsive Multimedia System (RMS): VR Platform for Immersive Multimedia with Stories
Zhao et al. Visual Informatics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210413