JP2018018362A - Virtual space control device, control method thereof, and program - Google Patents

Virtual space control device, control method thereof, and program Download PDF

Info

Publication number
JP2018018362A
JP2018018362A JP2016149224A JP2016149224A JP2018018362A JP 2018018362 A JP2018018362 A JP 2018018362A JP 2016149224 A JP2016149224 A JP 2016149224A JP 2016149224 A JP2016149224 A JP 2016149224A JP 2018018362 A JP2018018362 A JP 2018018362A
Authority
JP
Japan
Prior art keywords
virtual space
dimensional model
data
design change
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016149224A
Other languages
Japanese (ja)
Inventor
大祐 貝原
Daisuke Kaibara
大祐 貝原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2016149224A priority Critical patent/JP2018018362A/en
Publication of JP2018018362A publication Critical patent/JP2018018362A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a mechanism that enables component data to be easily viewed on a virtual space, even when a plurality of pieces of the component data having design changed are included in a three-dimensional model.SOLUTION: In a virtual space control device for presenting a virtual space in which a three-dimensional model constituted from a plurality of pieces of component data is placed, the component data having design changed is identified by comparing the plurality of component data constituting the three-dimensional model before design change with the plurality of component data constituting the three-dimensional model after the design change. And, the three-dimensional model is placed in the virtual space, and a display state of the identified component data existing in a predetermined range from a current position of a user in the virtual space is set to a recognizable state in the placed three-dimensional model.SELECTED DRAWING: Figure 10

Description

本発明は、設計変更された部品データが三次元モデルに複数含まれている場合であっても、当該部品データを仮想空間上で閲覧しやすくすること可能な仮想空間制御装置、その制御方法、及びプログラムに関する。   The present invention is a virtual space control device capable of making it easy to view the part data on the virtual space even when the design-changed part data is included in the 3D model, a control method thereof, And the program.

従来、組立系製造業では業務のフロントローディングが行われている。フロントローディングは、後工程で発生する可能性のある問題を初期工程で検討することにより、品質向上を目指す取り組みである。例えば、設計部門で作成中のCADデータを三次元CADソフトウェアで表示し、組立部門や品質保証部門といった下流部門が部品の干渉チェックをシミュレーションしている。   Conventionally, front loading of business is performed in the assembly manufacturing industry. Front loading is an effort to improve quality by examining problems that may occur in the post-process in the initial process. For example, CAD data being created in the design department is displayed with three-dimensional CAD software, and downstream departments such as an assembly department and a quality assurance department simulate part interference checks.

しかしながら、設計部門から取得するCADデータは未完成である。設計部門と下流部門とが協力して製品設計を進めていくため、設計部門と下流部門との間でCADデータのやり取りが何度も行われる。つまり、下流部門は設計部門が改善したCADデータを何度も取得し、その都度シミュレーション等を行う必要がある。   However, the CAD data acquired from the design department is incomplete. Since the design department and the downstream department cooperate to advance product design, CAD data is exchanged many times between the design department and the downstream department. In other words, it is necessary for the downstream department to acquire CAD data improved by the design department over and over, and to perform simulation and the like each time.

その際に、設計部門から下流部門に対して設計変更の内容をきちんと伝えることが重要であるが、設計変更した箇所が多いと、設計変更箇所を伝え忘れてしまう可能性がある。そのため、下流部門は前回取得したCADデータから何がどのように変更されたのかを、設計変更前のCADデータと設計変更後のCADデータとを比較して、確認しなければならない。   At that time, it is important to properly communicate the details of the design change from the design department to the downstream department. However, if there are many places where the design has been changed, there is a possibility that the design change part may be forgotten. Therefore, the downstream department must confirm what was changed from the previously acquired CAD data by comparing the CAD data before the design change with the CAD data after the design change.

そこで特許文献1には、設計変更前のCADデータと設計変更後のCADデータとをそれぞれ一定形状の複数のエリアに分割し、そのエリアごとに体積を算出して設計変更前後で比較することにより、形状が変更された箇所を特定する仕組みが開示されている。   Therefore, in Patent Document 1, the CAD data before the design change and the CAD data after the design change are divided into a plurality of areas each having a fixed shape, and the volume is calculated for each area and compared before and after the design change. A mechanism for identifying a location where the shape has been changed is disclosed.

特開平11−345256号公報JP-A-11-345256

特許文献1の仕組みや三次元CADソフトウェアの従来機能により、設計変更された箇所を自動的に特定する仕組みが存在するため、下流部門の作業者は容易に設計変更された箇所を確認することができる。   Since there is a mechanism for automatically specifying a design change location by the mechanism of Patent Document 1 and the conventional function of 3D CAD software, an operator in the downstream department can easily check the design change location. it can.

設計変更された箇所をユーザに確認させる方法としては、組立品のCADデータを表示し、そのCADデータの中で設計変更された箇所を色づけする等して識別表示する方法が考えられる。しかしながら、設計変更された箇所が多数存在すると、それらがすべて識別表示されてしまうので、ユーザは視認しにくいという問題があった。   As a method for allowing the user to confirm the location where the design has been changed, there is a method in which the CAD data of the assembly is displayed, and the location where the design has been changed in the CAD data is colored and displayed. However, if there are many design-changed portions, all of them are identified and displayed, and there is a problem that it is difficult for the user to visually recognize.

本発明の目的は、設計変更された部品データが三次元モデルに複数含まれている場合であっても、当該部品データを仮想空間上で閲覧しやすくすること可能な仕組みを提供することである。   An object of the present invention is to provide a mechanism that makes it easy to view the part data in a virtual space even when the design-modified part data is included in a plurality of three-dimensional models. .

上記の目的を達成するために本発明の仮想空間制御装置は、複数の部品データから構成される三次元モデルが配置される仮想空間を提示するための仮想空間制御装置であって、設計変更前の前記三次元モデルを構成する複数の部品データと、設計変更後の前記三次元モデルを構成する複数の部品データとを比較し、設計変更がなされた部品データを特定する特定手段と、前記三次元モデルを前記仮想空間に配置する配置手段と、前記仮想空間におけるユーザの現在位置から所定範囲内に存在する前記特定手段で特定された部品データの表示状態を、前記配置手段で配置された三次元モデルにおいて識別可能な状態に設定する設定手段とを備えることを特徴とする。   In order to achieve the above object, a virtual space control device of the present invention is a virtual space control device for presenting a virtual space in which a three-dimensional model composed of a plurality of component data is arranged, and is designed before design change. A plurality of part data constituting the three-dimensional model and a plurality of part data constituting the three-dimensional model after the design change, specifying means for specifying the part data that has undergone the design change, and the tertiary The arrangement means for arranging the original model in the virtual space, and the display state of the part data specified by the specifying means existing within a predetermined range from the current position of the user in the virtual space is the tertiary arranged by the arrangement means. Setting means for setting in an identifiable state in the original model.

本発明によれば、設計変更された部品データが三次元モデルに複数含まれている場合であっても、当該部品データを仮想空間上で閲覧しやすくすることが可能となる。   According to the present invention, even when a plurality of part data whose design has been changed is included in the three-dimensional model, the part data can be easily viewed in the virtual space.

本発明の実施形態における情報処理システムのシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration | structure of the information processing system in embodiment of this invention. 情報処理装置101とHMD102のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of an information processing apparatus 101 and an HMD 102. FIG. 情報処理装置101の機能構成の一例を示す図である。2 is a diagram illustrating an example of a functional configuration of an information processing apparatus 101. FIG. 全体的な処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the whole process. 差分特定処理の詳細な処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the detailed process flow of a difference specific process. 旧組立品データと新組立品データの参照構造と、比較表610のデータ構造の一例とを示す図である。It is a figure which shows the reference structure of old assembly data and new assembly data, and an example of the data structure of the comparison table. 差分リスト700のテーブル構成の一例を示す図である。5 is a diagram illustrating an example of a table configuration of a difference list 700. FIG. HMD102を装着したユーザと、仮想空間に配置された新組立品データの三次元モデルとを示す図である。It is a figure which shows the user who mounted | worn HMD102, and the three-dimensional model of the new assembly data arrange | positioned in virtual space. 差分データ識別処理の詳細な処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the detailed process flow of a difference data identification process. HMD102を装着したユーザから所定範囲内に存在する、設計変更された差分データを識別表示した場合の一例を示す図である。It is a figure which shows an example at the time of identifying and displaying the design-changed difference data which exists in the predetermined range from the user wearing HMD102. 差分データ配置処理の詳細な処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the detailed process flow of a difference data arrangement | positioning process. 設計変更された差分データを選択した場合の一例を示す図である。It is a figure which shows an example at the time of selecting the difference data by which the design was changed. 設計変更された差分データを選択した場合の一例を示す図である。It is a figure which shows an example at the time of selecting the difference data by which the design was changed.

以下、図面を参照しながら、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本実施形態における情報処理システムのシステム構成の一例を示す図である。図1に示す情報処理システムは、複合現実感技術(以下、MR技術という。)を用いた、ユーザに仮想空間を閲覧させるためのシステムである。情報処理システムは、情報処理装置101にHMD102が相互にデータ通信可能に接続されている。情報処理装置101とHMD102との接続は、有線接続であってもよいし、無線接続であってもよい。尚、図1のシステム上に接続される各種端末の構成は一例であり、用途や目的に応じて様々な構成例がある。例えば、本実施形態はMR技術を前提として説明を行うが、仮想現実(Virtual Reality)や拡張現実(Augmented Reality)といった技術を用いることでも実現可能である。   FIG. 1 is a diagram illustrating an example of a system configuration of an information processing system according to the present embodiment. The information processing system shown in FIG. 1 is a system for allowing a user to browse a virtual space using mixed reality technology (hereinafter referred to as MR technology). In the information processing system, the HMD 102 is connected to the information processing apparatus 101 so as to be capable of data communication with each other. The connection between the information processing apparatus 101 and the HMD 102 may be a wired connection or a wireless connection. The configuration of various terminals connected on the system of FIG. 1 is an example, and there are various configuration examples depending on the application and purpose. For example, although the present embodiment will be described on the premise of the MR technique, it can be realized by using a technique such as virtual reality or augmented reality.

情報処理装置101(仮想空間制御装置)は、汎用的なコンピュータである。情報処理装置101は、HMD102で撮影(撮像)された現実空間の画像(以下、現実空間画像という。)と、情報処理装置101で生成された仮想空間の画像(以下、仮想空間画像という。)とを重畳する。こうして生成された画像(以下、複合現実画像という。)を、HMD102に送信する。尚、MR技術に関しては従来技術を用いるため、詳細な説明は省略する。また、情報処理装置101は、パーソナルコンピュータであってもよいし、サーバのような大型のコンピュータであってもよい。更には、携帯電話やタブレット端末といった携帯端末であってもよい。コンピュータの種類は特に問わない。   The information processing apparatus 101 (virtual space control apparatus) is a general-purpose computer. The information processing apparatus 101 captures (captures) a real space image (hereinafter referred to as a real space image) taken by the HMD 102 and a virtual space image generated by the information processing apparatus 101 (hereinafter referred to as a virtual space image). And are superimposed. The image generated in this way (hereinafter referred to as a mixed reality image) is transmitted to the HMD 102. Since the conventional technique is used for the MR technique, a detailed description is omitted. The information processing apparatus 101 may be a personal computer or a large computer such as a server. Furthermore, a mobile terminal such as a mobile phone or a tablet terminal may be used. The type of computer is not particularly limited.

HMD102は、ヘッドマウントディスプレイである。HMD102は、ユーザの頭部に装着する装置であり、右目用と左目用のビデオカメラと、右目用と左目用のディスプレイを備えている。HMD102は、HMD102のビデオカメラで撮影された現実空間画像を情報処理装置101に送信する。そして、情報処理装置101から複合現実画像を受信し、ディスプレイに表示する。HMD102では、右目用と左目用のディスプレイを設けているので、視差によって立体感を得ることができる。尚、HMD102で撮影する現実空間画像とHMD102で表示する複合現実画像は、動画(映像)が望ましいが、所定の間隔で撮影された静止画であってもよい。また、スマートフォンのようにディスプレイとビデオカメラがハードウェアの前面と背面に設置されている装置を、ヘッドマウントディスプレイの代用としてもよい。   The HMD 102 is a head mounted display. The HMD 102 is a device that is worn on the user's head, and includes a right-eye and left-eye video camera, and a right-eye and left-eye display. The HMD 102 transmits a real space image captured by the video camera of the HMD 102 to the information processing apparatus 101. The mixed reality image is received from the information processing apparatus 101 and displayed on the display. Since the HMD 102 is provided with displays for the right eye and the left eye, a stereoscopic effect can be obtained by parallax. The physical space image captured by the HMD 102 and the mixed reality image displayed by the HMD 102 are preferably moving images (video), but may be still images captured at a predetermined interval. Further, a device in which a display and a video camera are installed on the front and back of the hardware, such as a smartphone, may be used as a substitute for the head mounted display.

本実施形態では、情報処理装置101とHMD102とを含むシステムとして説明を行うが、情報処理装置101とHMD102とが一体化したデバイス(仮想空間制御装置)であってもよい。すなわち、HMD102に情報処理装置101の各種ハードウェアを搭載し、HMD102だけで動作するようにしてもよい。   In this embodiment, the system including the information processing apparatus 101 and the HMD 102 is described. However, a device (virtual space control apparatus) in which the information processing apparatus 101 and the HMD 102 are integrated may be used. That is, various types of hardware of the information processing apparatus 101 may be mounted on the HMD 102 so that the HMD 102 operates only.

また、情報処理装置101には赤外線カメラ104が接続されている。赤外線カメラ104は、赤外線を用いた光学式のセンサである。赤外線カメラ104は、現実空間に赤外線を照射し、現実空間の物体で反射した赤外線を撮影することにより、赤外線カメラ104が定義する座標系における、現実空間の物体の位置及び姿勢を特定する。この赤外線カメラ104を用いて、現実空間におけるHMD102(すなわちユーザ)の位置及び姿勢(向きや傾き、視線の方向等。以下、同じ。)を特定する。HMD102には、オプティカルマーカ103という赤外線を反射する物体を備えており、赤外線カメラ104はこのオプティカルマーカ103で反射した赤外線を撮影することで、HMD102の位置及び姿勢を特定できるようになっている。ユーザがどのような位置や姿勢であっても、当該ユーザが装着するHMD102のオプティカルマーカ103を撮影または検知できるように、情報処理システムでは赤外線カメラ104を複数台設置することが望ましい。また、位置及び姿勢を特定可能なHMD102は、赤外線カメラ104の撮影範囲に存在するものとして説明を行う。   In addition, an infrared camera 104 is connected to the information processing apparatus 101. The infrared camera 104 is an optical sensor using infrared rays. The infrared camera 104 irradiates the real space with infrared rays and shoots the infrared rays reflected by the objects in the real space, thereby specifying the position and orientation of the object in the real space in the coordinate system defined by the infrared camera 104. Using this infrared camera 104, the position and orientation (direction, inclination, direction of line of sight, etc .; the same applies hereinafter) of the HMD 102 (that is, the user) in the real space are specified. The HMD 102 includes an optical marker 103 that reflects infrared rays, and the infrared camera 104 can identify the position and orientation of the HMD 102 by photographing the infrared rays reflected by the optical marker 103. It is desirable to install a plurality of infrared cameras 104 in the information processing system so that the optical marker 103 of the HMD 102 worn by the user can be photographed or detected regardless of the position or posture of the user. The HMD 102 that can specify the position and orientation will be described as being present in the imaging range of the infrared camera 104.

尚、本実施形態においては、現実空間におけるHMD102の位置及び姿勢を特定するために、赤外線カメラ104を用いるが、これらの現実空間における位置及び姿勢を特定できるのであれば、これに限らない。例えば、磁気センサを用いてもよいし、HMD102が撮影した画像を解析して位置及び姿勢を特定してもよい。   In the present embodiment, the infrared camera 104 is used to specify the position and orientation of the HMD 102 in the real space. However, the present invention is not limited to this as long as the position and orientation in the real space can be specified. For example, a magnetic sensor may be used, or an image captured by the HMD 102 may be analyzed to specify the position and orientation.

本実施形態においては、HMD102を装着したユーザは、ターゲットマーカ105を用いて各種操作を行う。ターゲットマーカ105は、二次元マーカから構成される。情報処理装置101はこの二次元マーカの傾きやHMD102との距離を画像認識により特定することにより、現実空間上のターゲットマーカ105が仮想空間上においてはどういった位置・姿勢であるのかを特定することができる。尚、二次元マーカの種類は特に問わないが、画像認識により二次元マーカの形状が取得しやすい種類である方が望ましい。   In the present embodiment, the user wearing the HMD 102 performs various operations using the target marker 105. The target marker 105 is composed of a two-dimensional marker. The information processing apparatus 101 specifies the position / posture of the target marker 105 in the real space by specifying the inclination of the two-dimensional marker and the distance from the HMD 102 by image recognition. be able to. The type of the two-dimensional marker is not particularly limited, but it is desirable that the type of the two-dimensional marker is easily acquired by image recognition.

図2は、情報処理装置101とHMD102の各ハードウェア構成の一例を示す図である。   FIG. 2 is a diagram illustrating an example of each hardware configuration of the information processing apparatus 101 and the HMD 102.

CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。   The CPU 201 comprehensively controls each device and controller connected to the system bus 204.

また、ROM202あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステムが記憶されている。更には、情報処理装置101の実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。RAM203は、CPU201の主メモリ、ワークエリア等として機能する。   The ROM 202 or the external memory 211 stores a BIOS (Basic Input / Output System) that is a control program of the CPU 201 and an operating system. Furthermore, various programs to be described later necessary for realizing the functions executed by the information processing apparatus 101 are stored. The RAM 203 functions as a main memory, work area, and the like for the CPU 201.

CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。   The CPU 201 implements various operations by loading a program necessary for execution of processing into the RAM 203 and executing the program.

また、入力コントローラ(入力C)205は、キーボードやマウス等のポインティングデバイス(入力デバイス210)からの入力を制御する。   An input controller (input C) 205 controls input from a pointing device (input device 210) such as a keyboard and a mouse.

情報処理装置101のビデオコントローラ(VC)206は、HMD102が備える右目・左目ディスプレイ222やディスプレイ212等の表示器への表示を制御する。右目・左目ディスプレイ222に対しては、例えば外部出力端子(例えば、Digital Visual Interface)を用いて出力される。また、右目・左目ディスプレイ222は、右目用のディスプレイと左目用のディスプレイとから構成されている。また、ディスプレイ212は、液晶ディスプレイ等であり、右目・左目ディスプレイ222と同様の表示、または仮想空間を操作するためのGUI(Graphical User Interface)が表示される。   A video controller (VC) 206 of the information processing apparatus 101 controls display on a display device such as the right-eye / left-eye display 222 or the display 212 provided in the HMD 102. For example, an external output terminal (for example, Digital Visual Interface) is used for output to the right eye / left eye display 222. The right-eye / left-eye display 222 includes a right-eye display and a left-eye display. The display 212 is a liquid crystal display or the like, and displays the same display as the right eye / left eye display 222 or a GUI (Graphical User Interface) for operating the virtual space.

メモリコントローラ(MC)207は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶する外部メモリ211(記憶手段)へのアクセスを制御する。外部メモリ211は、例えばハードディスク(HD)やフレキシブルディスク(FD)或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等がある。   A memory controller (MC) 207 controls access to an external memory 211 (storage means) that stores a boot program, browser software, various applications, font data, user files, edit files, various data, and the like. The external memory 211 includes, for example, a hard disk (HD), a flexible disk (FD), or a card type memory connected to a PCMCIA card slot via an adapter.

通信I/Fコントローラ(通信I/FC)208は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。特に、情報処理装置101の通信I/Fコントローラ208は、赤外線カメラ104との通信も制御する。   A communication I / F controller (communication I / FC) 208 is connected to and communicates with an external device via a network, and executes communication control processing in the network. For example, Internet communication using TCP / IP is possible. In particular, the communication I / F controller 208 of the information processing apparatus 101 also controls communication with the infrared camera 104.

情報処理装置101の汎用バス209は、情報処理装置101に接続されるHMD102の右目・左目ビデオカメラ221で撮影した画像を取り込むために使用される。右目・左目ビデオカメラ221からは、外部入力端子(例えば、IEEE1394端子)を用いて入力される。また、右目・左目ビデオカメラ221は、右目用のビデオカメラと左目用のビデオカメラとから構成されている。   A general-purpose bus 209 of the information processing apparatus 101 is used to capture an image captured by the right-eye / left-eye video camera 221 of the HMD 102 connected to the information processing apparatus 101. Input from the right-eye / left-eye video camera 221 is performed using an external input terminal (for example, an IEEE 1394 terminal). The right-eye / left-eye video camera 221 includes a right-eye video camera and a left-eye video camera.

尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ上での表示を可能としている。また、CPU201は、ディスプレイ上の不図示のマウスカーソル等でのユーザ指示を可能とする。   Note that the CPU 201 enables display on a display by executing outline font rasterization processing on a display information area in the RAM 203, for example. In addition, the CPU 201 allows a user instruction with a mouse cursor (not shown) on the display.

本発明の情報処理装置101が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルは外部メモリ211に格納されている。   Various programs used by the information processing apparatus 101 of the present invention to execute various processes described later are recorded in the external memory 211 and are executed by the CPU 201 by being loaded into the RAM 203 as necessary. is there. Furthermore, definition files and various information tables used by the program according to the present invention are stored in the external memory 211.

図3は、情報処理装置101の機能構成を示す機能構成図である。尚、図3の情報処理装置101の機能構成は一例であり、用途や目的に応じて様々な構成例がある。   FIG. 3 is a functional configuration diagram illustrating a functional configuration of the information processing apparatus 101. Note that the functional configuration of the information processing apparatus 101 in FIG. 3 is merely an example, and there are various configuration examples depending on applications and purposes.

情報処理装置101は機能部として、通信制御部301、位置・姿勢特定部302、現実空間画像取得部303、仮想空間生成部304、三次元モデル制御部305、仮想空間画像取得部306、複合現実画像生成部307を備える。更に情報処理装置101は機能部として、表示制御部308、データ管理部309、変数制御部310、データ比較部311、操作受付部312、距離算出部313を備える。   The information processing apparatus 101 includes, as functional units, a communication control unit 301, a position / attitude specifying unit 302, a real space image acquisition unit 303, a virtual space generation unit 304, a three-dimensional model control unit 305, a virtual space image acquisition unit 306, and a mixed reality. An image generation unit 307 is provided. Furthermore, the information processing apparatus 101 includes a display control unit 308, a data management unit 309, a variable control unit 310, a data comparison unit 311, an operation reception unit 312, and a distance calculation unit 313 as functional units.

通信制御部301は、情報処理装置101と通信可能なHMD102と赤外線カメラ104との各種情報の送受信を行う機能部である。通信制御部301は、前述したビデオコントローラ206、通信I/Fコントローラ208、汎用バス209等を通じてこれらの装置と情報の送受信を行う。   The communication control unit 301 is a functional unit that transmits and receives various types of information between the HMD 102 and the infrared camera 104 that can communicate with the information processing apparatus 101. The communication control unit 301 transmits / receives information to / from these apparatuses through the video controller 206, the communication I / F controller 208, the general-purpose bus 209, and the like described above.

位置・姿勢特定部302は、赤外線カメラ104から取得したHMD102の現実空間における位置及び姿勢(向き)を示す情報に基づいて、仮想空間における位置及び姿勢を特定するための機能部である。本実施形態では、HMD102にオプティカルマーカ103が装着されているため、現実空間におけるオプティカルマーカ103の位置及び姿勢をまず取得する。そして、現実空間の座標系(赤外線カメラ104の座標系)と仮想空間の座標系とはあらかじめキャリブレーション(位置合わせ)がなされているので、これに基づいて現実空間における位置及び姿勢に対応する仮想空間上の位置及び姿勢を特定する。尚、現実空間画像取得部303で右目・左目ビデオカメラ221から取得した右目用の現実空間画像と左目用の現実空間画像とを用いて、三角測量等の方法により、現実空間の物体の位置及び姿勢を特定してもよい。   The position / posture specifying unit 302 is a functional unit for specifying the position and posture in the virtual space based on information indicating the position and posture (orientation) in the real space of the HMD 102 acquired from the infrared camera 104. In the present embodiment, since the optical marker 103 is mounted on the HMD 102, the position and orientation of the optical marker 103 in the real space are first acquired. Since the coordinate system of the real space (the coordinate system of the infrared camera 104) and the coordinate system of the virtual space are calibrated (positioned) in advance, a virtual corresponding to the position and orientation in the real space is based on this. Identify the position and posture in space. It should be noted that the real space image acquisition unit 303 uses the right eye real space image and the left eye real space image acquired from the right eye / left eye video camera 221 to determine the position of the object in the real space by a method such as triangulation. The posture may be specified.

また、位置・姿勢特定部302は、現実空間画像取得部303が取得した現実空間画像を解析して、現実空間画像に写る二次元マーカの位置や形状を特定し、現実空間におけるターゲットマーカの位置及び姿勢を特定することも可能である。また、位置・姿勢特定部302は、この現実空間画像におけるターゲットマーカの位置及び姿勢から、仮想空間における位置及び姿勢も特定する。   The position / posture specifying unit 302 analyzes the real space image acquired by the real space image acquisition unit 303, specifies the position and shape of the two-dimensional marker that appears in the real space image, and determines the position of the target marker in the real space. It is also possible to specify the posture. The position / posture specifying unit 302 also specifies the position and posture in the virtual space from the position and posture of the target marker in the real space image.

現実空間画像取得部303は、HMD102の右目・左目ビデオカメラ221で撮影された現実空間画像を取得する機能部である。   The real space image acquisition unit 303 is a functional unit that acquires real space images captured by the right-eye / left-eye video camera 221 of the HMD 102.

仮想空間生成部304は、情報処理装置101の外部メモリ211に記憶されている情報に基づいて仮想空間を生成する機能部である。仮想空間は情報処理装置101の内部に生成される仮想的な空間であるので、その空間の形や大きさに関する情報が外部メモリ211に記憶されており、これに基づいて仮想空間を生成する。仮想空間には三次元モデルを配置可能である。三次元モデルは三次元モデル制御部305によって配置される。   The virtual space generation unit 304 is a functional unit that generates a virtual space based on information stored in the external memory 211 of the information processing apparatus 101. Since the virtual space is a virtual space generated inside the information processing apparatus 101, information regarding the shape and size of the space is stored in the external memory 211, and a virtual space is generated based on this information. A three-dimensional model can be placed in the virtual space. The 3D model is arranged by the 3D model control unit 305.

三次元モデル制御部305は、三次元モデルを仮想空間に配置するための機能部である。仮想空間が生成された場合には、あらかじめ定義された位置及び姿勢で仮想空間上に三次元モデルを配置する。必要に応じて、配置された三次元モデルを異なる位置及び姿勢で再配置(移動)する。また、三次元モデル制御部305は、位置・姿勢特定部302で特定した、仮想空間におけるターゲットマーカ105の位置及び姿勢に基づいて、三次元モデルを仮想空間上に配置することができる。すなわち、複合現実画像を生成したときに、ターゲットマーカ105に重畳させるようにして三次元モデルを配置させることが可能である。更には、三次元モデル制御部305は、仮想空間に配置した三次元モデルの表示状態(表示形態)を変更することができる。例えば、三次元モデルの色を変更したり、形状を変更したりすることができる。   The 3D model control unit 305 is a functional unit for arranging the 3D model in the virtual space. When the virtual space is generated, a three-dimensional model is arranged on the virtual space at a predefined position and posture. If necessary, the arranged three-dimensional model is rearranged (moved) at a different position and posture. Also, the 3D model control unit 305 can arrange the 3D model in the virtual space based on the position and orientation of the target marker 105 in the virtual space specified by the position / posture specifying unit 302. That is, when a mixed reality image is generated, a three-dimensional model can be arranged so as to be superimposed on the target marker 105. Furthermore, the 3D model control unit 305 can change the display state (display form) of the 3D model arranged in the virtual space. For example, the color of the three-dimensional model can be changed or the shape can be changed.

仮想空間画像取得部306は、仮想空間生成部304で生成した仮想空間の画像を取得する機能部である。仮想空間画像取得部306が仮想空間の画像を取得する場合には、位置・姿勢特定部302で特定した仮想空間におけるHMD102の位置及び姿勢に基づいて仮想空間上に視点を設定する。そして、当該視点から見た場合の仮想空間画像を生成し、これを取得する。この視点に仮想的なカメラを設置し、仮想空間を撮像するようにすればよい。すなわちレンダリングするということである   The virtual space image acquisition unit 306 is a functional unit that acquires an image of the virtual space generated by the virtual space generation unit 304. When the virtual space image acquisition unit 306 acquires a virtual space image, a viewpoint is set on the virtual space based on the position and posture of the HMD 102 in the virtual space specified by the position / posture specifying unit 302. And the virtual space image at the time of seeing from the said viewpoint is produced | generated, and this is acquired. A virtual camera may be installed at this viewpoint to image the virtual space. That is to render

複合現実画像生成部307は、現実空間画像取得部303で取得した現実空間画像に仮想空間画像取得部306で取得した仮想空間画像を重畳することにより、複合現実画像を生成する機能部である。   The mixed reality image generation unit 307 is a functional unit that generates a mixed reality image by superimposing the virtual space image acquired by the virtual space image acquisition unit 306 on the real space image acquired by the real space image acquisition unit 303.

表示制御部308は、情報処理装置101に接続されたHMD102の右目・左目ディスプレイ222や情報処理装置101に接続されたディスプレイ212における各種情報の表示制御を行う機能部である。特に、複合現実画像生成部307で生成された複合現実画像をHMD102の右目・左目ディスプレイ222に表示させる機能を有する。   The display control unit 308 is a functional unit that performs display control of various types of information on the right-eye / left-eye display 222 of the HMD 102 connected to the information processing apparatus 101 and the display 212 connected to the information processing apparatus 101. In particular, it has a function of displaying the mixed reality image generated by the mixed reality image generation unit 307 on the right-eye / left-eye display 222 of the HMD 102.

データ管理部309は、情報処理装置101のRAM203や外部メモリ211等の記憶部に記憶されるデータを管理するための機能部である。必要に応じて、データの追加・更新・削除等を行う。   The data management unit 309 is a functional unit for managing data stored in a storage unit such as the RAM 203 or the external memory 211 of the information processing apparatus 101. Add / update / delete data as necessary.

変数制御部310は、情報処理装置101が実行するプログラムで利用する変数の制御を行うための機能部である。変数の宣言や代入等の処理を実行する。   The variable control unit 310 is a functional unit for controlling a variable used in a program executed by the information processing apparatus 101. Execute processing such as variable declaration and assignment.

データ比較部311は、外部メモリ211等に記憶された複数の三次元モデルを比較し、その差分を特定するための機能部である。三次元モデルは、自身のポリゴン数や位置・姿勢の情報を有しているので、この情報を用いて比較することにより差分があるか否かを特定する。また、従来技術の通り、体積や面積による比較や画像処理による比較であってもよい。   The data comparison unit 311 is a functional unit for comparing a plurality of three-dimensional models stored in the external memory 211 or the like and specifying the difference. Since the three-dimensional model has information on the number of polygons and the position and orientation of the three-dimensional model, whether or not there is a difference is specified by comparison using this information. Further, as in the prior art, comparison by volume or area or comparison by image processing may be used.

操作受付部312は、三次元モデル制御部305によって配置された三次元モデルに対する選択操作を受け付けるための機能部である。仮想空間上に配置された三次元モデルに対する操作は、ターゲットマーカ105を用いて行う。ターゲットマーカ105の仮想空間における位置及び姿勢が位置・姿勢特定部302によって特定されるので、この位置及び姿勢に基づいて、ターゲットマーカ105の上部にカーソルオブジェクトを配置する。このカーソルオブジェクトと三次元モデルとが一定時間接触した場合に、三次元モデルが選択されたと判断する。三次元モデルに対する選択操作の方法はこれに限らず、HMD102を装着するユーザの指によって選択されてもよいし、情報処理装置101のディスプレイ212に操作画面を表示して入力デバイス210によって選択操作を受け付けてもよい。   The operation receiving unit 312 is a functional unit for receiving a selection operation for the 3D model arranged by the 3D model control unit 305. Operations on the three-dimensional model arranged in the virtual space are performed using the target marker 105. Since the position and posture of the target marker 105 in the virtual space are specified by the position / posture specifying unit 302, a cursor object is placed on the upper portion of the target marker 105 based on this position and posture. When the cursor object and the 3D model are in contact with each other for a certain time, it is determined that the 3D model has been selected. The selection operation method for the three-dimensional model is not limited to this, and may be selected by the finger of the user wearing the HMD 102, or an operation screen may be displayed on the display 212 of the information processing apparatus 101 and the selection operation may be performed by the input device 210. It may be accepted.

距離算出部313は、仮想空間上の二点間の距離を算出するための機能部である。三平方の定理等を用いて、仮想空間上の座標系における二点間の距離を算出する。   The distance calculation unit 313 is a functional unit for calculating the distance between two points in the virtual space. The distance between two points in the coordinate system in the virtual space is calculated using the three-square theorem.

次に、本発明の実施形態における全体的な処理の流れの一例について、図4に示すフローチャートを用いて説明する。以下説明する、S401乃至S411の各ステップは、情報処理装置101のCPU201が各機能部を動作することにより実行される処理である。   Next, an example of the overall processing flow in the embodiment of the present invention will be described with reference to the flowchart shown in FIG. Each step of S401 to S411 described below is a process executed by the CPU 201 of the information processing apparatus 101 operating each function unit.

ステップS401では、情報処理装置101は、設計変更前の組立品と設計変更後の組立品との差分を特定するための処理を実行する。図5に差分特定処理の詳細な処理の流れを示す。   In step S401, the information processing apparatus 101 executes a process for specifying a difference between the assembly before the design change and the assembly after the design change. FIG. 5 shows a detailed processing flow of the difference identification processing.

図5は、差分特定処理の詳細な処理の流れの一例を示すフローチャートである。以下説明する、S501乃至S509の各ステップは、情報処理装置101のCPU201が各機能部を動作することにより実行される処理である。   FIG. 5 is a flowchart illustrating an example of a detailed process flow of the difference specifying process. Steps S501 to S509 described below are processes executed by the CPU 201 of the information processing apparatus 101 operating each function unit.

ステップS501では、情報処理装置101のデータ管理部309は、外部メモリ211に記憶されている設計変更前の組立品データ(以下、旧組立品データという。)と、設計変更後の組立品データ(以下、新組立品データという。)とを取得する。ユーザはあらかじめこれらのデータを外部メモリ211に記憶しておく。そして、データ管理部309は、ユーザから指定された旧組立品データと新組立品データとを取得する。本実施形態において組立品データとは、CADデータのうちのアセンブリデータである。   In step S501, the data management unit 309 of the information processing apparatus 101 stores assembly data before design change (hereinafter, referred to as old assembly data) stored in the external memory 211 and assembly data after design change ( Hereinafter referred to as new assembly data). The user stores these data in the external memory 211 in advance. Then, the data management unit 309 acquires old assembly data and new assembly data specified by the user. In the present embodiment, the assembly data is assembly data of CAD data.

図6(a)では、旧組立品データと新組立品データ(以下、これらを新旧組立品データという。)の参照構造の一例を、それぞれ601と602に示す。新旧組立品データはトップアセンブリであるので、複数の部品やサブアセンブリから構成されている。例えば、旧組立品データAは、部品データBと部品データCとアセンブリデータDから構成されており、更にサブアセンブリであるアセンブリデータDは、部品データE・F・Gから構成されている。以下、アセンブリデータの参照先の部品やサブアセンブリを参照先データと称する。   In FIG. 6A, examples of reference structures of old assembly data and new assembly data (hereinafter referred to as new and old assembly data) are shown in 601 and 602, respectively. Since the old and new assembly data is the top assembly, it is composed of a plurality of parts and subassemblies. For example, the old assembly data A is composed of part data B, part data C, and assembly data D, and the assembly data D that is a subassembly is composed of part data E, F, and G. Hereinafter, parts and subassemblies to which assembly data is referred are referred to as reference destination data.

ステップS502では、情報処理装置101のデータ管理部309は、ステップS501で取得した新旧組立品データの参照先である参照先データに関する情報を取得し、図6(b)に示すような比較表610を作成する。比較表610は、旧参照先データ名611と新参照先データ名612を備えており、それぞれ比較元と比較先の参照先データの名称を示している。旧組立品データの参照先データに対応する新組立品データの参照先データがあれば同じ行に並べて格納し、どちらか一方にしかない参照先データの場合には、当該参照先データが存在しない組立品データの項目は空欄にする。このようにして、図6(a)に示す旧組立品データAと新組立品データAの比較表610を作成した結果が図6(b)である。   In step S502, the data management unit 309 of the information processing apparatus 101 acquires information regarding reference destination data that is a reference destination of the new and old assembly data acquired in step S501, and a comparison table 610 as illustrated in FIG. 6B. Create The comparison table 610 includes an old reference destination data name 611 and a new reference destination data name 612, and indicates names of reference destination data of a comparison source and a comparison destination, respectively. If there is reference data of the new assembly data corresponding to the reference data of the old assembly data, store them side by side in the same row, and in the case of reference data that has only one of them, the assembly where the reference data does not exist Leave the item data item blank. FIG. 6B shows the result of creating the comparison table 610 between the old assembly data A and the new assembly data A shown in FIG.

ステップS503では、情報処理装置101のデータ管理部309は、図7に示すような差分リスト700を生成する。ステップS503の処理では、空の状態の差分リスト700を生成する。   In step S503, the data management unit 309 of the information processing apparatus 101 generates a difference list 700 as illustrated in FIG. In the process of step S503, an empty difference list 700 is generated.

図7の差分リスト700は、設計変更前後でどのような差分があるのかを示すためのデータテーブルである。差分リスト700は、差分データ名701、追加フラグ702、形状変更フラグ703、位置姿勢変更フラグ704、削除フラグ705を備える。データテーブルのテーブル構成はこれに限らない。   The difference list 700 in FIG. 7 is a data table for indicating what kind of difference exists before and after the design change. The difference list 700 includes a difference data name 701, an addition flag 702, a shape change flag 703, a position / orientation change flag 704, and a deletion flag 705. The table configuration of the data table is not limited to this.

差分データ名701は、設計変更前後で差分のあった参照先データの名称が格納される項目である。本実施形態でいう差分とは、設計変更前後の相違点のことをいう。例えば、旧組立品データに対する新たな参照先データの追加、参照先データの形状変更、参照先データの位置または姿勢の変更、旧組立品データからの参照先データの削除を指す。追加フラグ702、形状変更フラグ703、位置姿勢変更フラグ704、削除フラグ705は、これらの差分があった場合にフラグが立てられる項目である。   The difference data name 701 is an item in which the name of the reference destination data that has a difference before and after the design change is stored. The difference referred to in the present embodiment refers to a difference before and after the design change. For example, it refers to addition of new reference destination data to the old assembly data, change of the shape of the reference destination data, change of the position or orientation of the reference destination data, and deletion of the reference destination data from the old assembly data. An add flag 702, a shape change flag 703, a position / orientation change flag 704, and a delete flag 705 are items that are flagged when there is a difference between them.

図5の説明に戻る。ステップS504では、情報処理装置101の変数制御部310は、カウンタの変数iを宣言し、初期値として0を代入する。そして、ステップS505では、情報処理装置101の変数制御部310は、変数iをインクリメントする。   Returning to the description of FIG. In step S504, the variable control unit 310 of the information processing apparatus 101 declares a counter variable i and substitutes 0 as an initial value. In step S505, the variable control unit 310 of the information processing apparatus 101 increments the variable i.

ステップS506では、情報処理装置101のデータ管理部309は、比較表610のレコードのうち、i行目のレコードの参照先データを外部メモリ211等から取得し、これを参照する。ここで取得するのは、旧参照先データ名611が示す、旧組立品データを構成する参照先データと、新参照先データ名612が示す、新組立品データを構成する参照先データである。旧参照先データ名611と新参照先データ名612のいずれかが空欄の場合には、名称が入力されている参照先データのみ取得する。   In step S506, the data management unit 309 of the information processing apparatus 101 acquires the reference destination data of the i-th row of the records in the comparison table 610 from the external memory 211 and refers to this. Here, the reference destination data constituting the old assembly data indicated by the old reference destination data name 611 and the reference destination data constituting the new assembly data indicated by the new reference destination data name 612 are acquired. When either the old reference destination data name 611 or the new reference destination data name 612 is blank, only the reference destination data in which the name is input is acquired.

ステップS507では、情報処理装置101のデータ比較部311は、ステップS506で取得した、旧組立品データを構成する参照先データと、新組立品データを構成する参照先データとを比較する。ここでいう比較は、新たに参照先データが追加されたか、参照先データの形状が変更されたか、参照先データの位置または姿勢が変更されたか、参照先データが削除されたか等を、ステップS506で取得した参照先データ同士を比較することで特定する。換言すれば、設計変更前の三次元モデルを構成する複数の部品データと、設計変更後の三次元モデルを構成する複数の部品データとを比較し、設計変更がなされた部品データを特定するということである(特定手段)。   In step S507, the data comparison unit 311 of the information processing apparatus 101 compares the reference destination data constituting the old assembly data acquired in step S506 with the reference destination data constituting the new assembly data. The comparison here refers to whether or not the reference destination data has been newly added, the shape of the reference destination data has been changed, the position or orientation of the reference destination data has been changed, the reference destination data has been deleted, etc., in step S506. It is specified by comparing the reference data acquired in step 1. In other words, the plurality of part data constituting the three-dimensional model before the design change is compared with the plurality of part data constituting the three-dimensional model after the design change, and the part data that has undergone the design change is specified. (Specific means)

例えば、旧組立品データには存在しないが、新組立品データに存在する参照先データの場合(ステップS506で旧組立品データを構成する参照先データが取得できなかった場合)には、新たに追加された参照先データであると特定する。ステップS506で取得した旧組立品データの参照先データが有するポリゴン数と新組立品データの参照先データが有するポリゴン数とが一致しない場合には、形状変更がなされた参照先データであると特定する。一致不一致の判定はポリゴン数に限らず、体積や面積といった別の要素を用いた比較によってもよい。また、旧組立品データの参照先データの親であるアセンブリデータと新組立品データの参照先データの親であるアセンブリデータとが示すそれぞれの位置または姿勢を示す情報が一致しない場合、位置または姿勢が変更された参照先データであると特定する。旧組立品データには存在するが新組立品データには存在しない参照先データの場合(ステップS506で新組立品データを構成する参照先データが取得できなかった場合)には、削除された参照先データであると特定する。このいずれにも該当しないのであれば、取得した参照先データについては設計変更がなかったと特定する。   For example, in the case of reference destination data that does not exist in the old assembly data but exists in the new assembly data (when the reference destination data constituting the old assembly data could not be acquired in step S506), a new one is newly added. Identify the added reference data. If the number of polygons included in the reference data of the old assembly data acquired in step S506 does not match the number of polygons included in the reference data of the new assembly data, it is determined that the reference data has been changed in shape. To do. The determination of coincidence / non-coincidence is not limited to the number of polygons, and may be made by comparison using other elements such as volume and area. In addition, if the information indicating the position or posture indicated by the assembly data that is the parent of the reference data of the old assembly data and the assembly data that is the parent of the reference data of the new assembly data do not match, the position or posture Is specified as the reference data that has been changed. In the case of reference destination data that exists in the old assembly data but does not exist in the new assembly data (when the reference destination data constituting the new assembly data cannot be obtained in step S506), the deleted reference is deleted. It is identified as the previous data. If it does not correspond to any of these, it specifies that there was no design change about the acquired reference destination data.

このように比較した結果、ステップS506で参照した、新旧組立品データにおける参照先データに設計変更があったか、すなわち差分があるか否かを判定する。差分がある(追加、形状変更、位置または姿勢変更、削除があった)と判定した場合には、ステップS508に処理を進める。差分がないと判定した場合には、ステップS509に処理を進める。   As a result of the comparison, it is determined whether there is a design change in the reference destination data in the old and new assembly data referred to in step S506, that is, whether there is a difference. If it is determined that there is a difference (addition, shape change, position or orientation change, deletion has occurred), the process proceeds to step S508. If it is determined that there is no difference, the process proceeds to step S509.

ステップS508では、情報処理装置101のデータ管理部309は、ステップS503で生成された差分リスト700に新たなレコードを追加し、ステップS506で参照した参照先データの名称を差分データ名701に追加する。そして、その差分内容に対応するフラグに“1”を格納する。つまりフラグを立てる。それ以外のフラグには“0”を格納する。このようにすることで、設計変更のあった参照先データに関する情報を差分リスト700に追加していく。すべての参照先データに対してステップS508を実行した結果が、図7に示す差分リスト700である。以下、設計変更のあった参照先データのことを、差分データと称する。   In step S508, the data management unit 309 of the information processing apparatus 101 adds a new record to the difference list 700 generated in step S503, and adds the name of the reference destination data referenced in step S506 to the difference data name 701. . Then, “1” is stored in the flag corresponding to the difference content. That is, set a flag. “0” is stored in the other flags. In this way, information related to reference destination data whose design has been changed is added to the difference list 700. The result of executing step S508 for all the reference destination data is the difference list 700 shown in FIG. Hereinafter, the reference data that has undergone a design change is referred to as difference data.

ステップS509では、情報処理装置101のデータ管理部309は、比較表610のi行目が最終行(最終レコード)であるか否かを判定する。最終行であると判定した場合には、差分特定処理を終了し、ステップS401の次のステップに処理を進める。最終行でないと判定した場合には、ステップS505に処理を戻す。   In step S509, the data management unit 309 of the information processing apparatus 101 determines whether or not the i-th row of the comparison table 610 is the last row (last record). If it is determined that the current line is the last line, the difference specifying process is terminated, and the process proceeds to the next step of step S401. If it is determined that it is not the last line, the process returns to step S505.

このようにして、旧組立品データを構成する複数の参照先データと、新組立品データを構成する複数の参照先データとを比較し、設計変更がなされた参照先データとその変更内容を特定する。   In this way, a plurality of reference data constituting the old assembly data is compared with a plurality of reference data constituting the new assembly data, and the reference data whose design has been changed and the contents of the change are specified. To do.

図4に説明を戻す。ステップS401が完了すると、ステップS402では、情報処理装置101の仮想空間生成部304は、外部メモリ211に記憶された仮想空間情報を取得する。仮想空間情報とは、仮想空間を生成するための各種情報のことである。具体的には、仮想空間の形やその大きさ、また配置する三次元モデルやその配置場所といった、仮想空間を形作るために必要な情報である。そして、仮想空間生成部304は、取得した仮想空間情報を用いて、仮想空間を生成する。生成される仮想空間は、仮想空間情報が示す形や大きさの仮想空間であり、更には仮想空間情報が示す三次元モデルが仮想空間上に配置される。本実施形態では、仮想空間生成部304は、ステップS501で取得した新組立品データを仮想空間上に配置する(配置手段)。新組立品データは、前述した通りアセンブリデータであるので、参照先データを三次元モデルとして表示し、当該アセンブリデータに定義された位置や姿勢で配置する。これにより新組立品データを示す三次元モデルが仮想空間上に配置される。   Returning to FIG. When step S401 is completed, in step S402, the virtual space generation unit 304 of the information processing apparatus 101 acquires the virtual space information stored in the external memory 211. The virtual space information is various pieces of information for generating a virtual space. Specifically, it is information necessary for forming the virtual space, such as the shape and size of the virtual space, the three-dimensional model to be arranged, and the arrangement location thereof. Then, the virtual space generation unit 304 generates a virtual space using the acquired virtual space information. The generated virtual space is a virtual space having the shape and size indicated by the virtual space information, and a three-dimensional model indicated by the virtual space information is arranged on the virtual space. In the present embodiment, the virtual space generation unit 304 places the new assembly data acquired in step S501 in the virtual space (placement means). Since the new assembly data is assembly data as described above, the reference destination data is displayed as a three-dimensional model and arranged at the position and orientation defined in the assembly data. As a result, the three-dimensional model indicating the new assembly data is arranged in the virtual space.

尚、本実施形態では新組立品データを仮想空間に配置し、新組立品データを構成する部品データに対する表示制御や選択の受付を行うものとして説明を行うが、旧組立品データを仮想空間に配置してもよい。この場合は、旧組立品データを構成する部品データに対する表示制御や選択の受付を行うことになる。   In the present embodiment, the new assembly data is arranged in the virtual space, and the display control and selection reception for the component data constituting the new assembly data will be described. However, the old assembly data is stored in the virtual space. You may arrange. In this case, display control and selection for the component data constituting the old assembly data are performed.

図8は、HMD102を装着するユーザの目の前に新組立品データの三次元モデル800が配置された様子を示す図である。HMD102を装着するユーザは現実空間に存在し、新組立品データの三次元モデル800は仮想空間に配置されるので、客観的に見たときにこれらは同一の空間に存在しないが、当該ユーザから見たときには図8のような状態となる。ユーザと三次元モデル800との位置関係をわかりやすく説明するために、以下、図10、図12、図13においても同様の図を用いて説明する。   FIG. 8 is a diagram illustrating a state in which a three-dimensional model 800 of new assembly data is arranged in front of the user wearing the HMD 102. Since the user wearing the HMD 102 exists in the real space and the three-dimensional model 800 of the new assembly data is arranged in the virtual space, they do not exist in the same space when viewed objectively. When viewed, the state is as shown in FIG. In order to explain the positional relationship between the user and the three-dimensional model 800 in an easy-to-understand manner, the following description will be given with reference to FIGS.

ステップS403では、情報処理装置101の現実空間画像取得部303は、HMD102の右目・左目ビデオカメラ221から現実空間画像を取得し、これらをRAM203に記憶する。   In step S <b> 403, the real space image acquisition unit 303 of the information processing apparatus 101 acquires real space images from the right-eye / left-eye video camera 221 of the HMD 102 and stores them in the RAM 203.

ステップS404では、情報処理装置101の位置・姿勢特定部302は、HMD102の現実空間における位置及び姿勢を示す情報を取得する。前述した通り、HMD102が備えるオプティカルマーカ103を赤外線カメラ104が検知することで特定した位置及び姿勢を示す情報を、赤外線カメラ104から取得する。そして、位置・姿勢特定部302は、取得した位置及び姿勢を示す情報から仮想空間における位置及び姿勢を特定する。特定した位置及び姿勢は、HMD位置・姿勢情報としてRAM203に記憶する。この情報は現在のフレームにおけるHMD102の位置及び姿勢であるので、フレームが切り替わるごとにこの情報が更新される。   In step S <b> 404, the position / posture specifying unit 302 of the information processing apparatus 101 acquires information indicating the position and posture of the HMD 102 in the real space. As described above, information indicating the position and orientation specified by the infrared camera 104 detecting the optical marker 103 included in the HMD 102 is acquired from the infrared camera 104. Then, the position / posture specifying unit 302 specifies the position and posture in the virtual space from the information indicating the acquired position and posture. The specified position and orientation are stored in the RAM 203 as HMD position / posture information. Since this information is the position and orientation of the HMD 102 in the current frame, this information is updated each time the frame is switched.

ステップS405では、情報処理装置101の位置・姿勢特定部302は、ターゲットマーカ105の現実空間における位置及び姿勢を示す情報を特定する。具体的には、前述した通り、ターゲットマーカ105をHMD102が撮影した現実空間画像から検出する。そして、その現実空間画像に写るターゲットマーカ105の形状や右目・左目ビデオカメラ221で取得した2枚の現実空間画像から特定される視差によって、ターゲットマーカ105の現実空間における位置及び姿勢を推定する。そして、この現実空間における位置及び姿勢から仮想空間における位置及び姿勢を特定する。換言すれば、現実空間においてHMD102を装着するユーザから指定された位置に対応する仮想空間上の位置を特定するということである。特定した位置及び姿勢は、ターゲットマーカ位置・姿勢情報としてRAM203に記憶する。この情報は現在のフレームにおけるHMD102の位置及び姿勢であるので、フレームが切り替わるごとにこの情報が更新される。   In step S <b> 405, the position / posture specifying unit 302 of the information processing apparatus 101 specifies information indicating the position and posture of the target marker 105 in the real space. Specifically, as described above, the target marker 105 is detected from the real space image captured by the HMD 102. Then, the position and orientation of the target marker 105 in the real space are estimated based on the shape of the target marker 105 shown in the real space image and the parallax specified from the two real space images acquired by the right eye / left eye video camera 221. Then, the position and orientation in the virtual space are specified from the position and orientation in the real space. In other words, the position in the virtual space corresponding to the position designated by the user wearing the HMD 102 in the real space is specified. The specified position and orientation are stored in the RAM 203 as target marker position / posture information. Since this information is the position and orientation of the HMD 102 in the current frame, this information is updated each time the frame is switched.

ステップS406では、情報処理装置101は、ユーザの近傍に存在する差分データの三次元モデルを識別表示するための処理を実行する。図9に差分データ識別処理の詳細な処理の流れを示す。   In step S406, the information processing apparatus 101 executes processing for identifying and displaying a three-dimensional model of difference data existing in the vicinity of the user. FIG. 9 shows a detailed processing flow of the differential data identification processing.

図9は、差分データ識別処理の詳細な処理の流れの一例を示すフローチャートである。以下説明する、S901乃至S909の各ステップは、情報処理装置101のCPU201が各機能部を動作することにより実行される処理である。   FIG. 9 is a flowchart illustrating an example of a detailed process flow of the differential data identification process. Steps S901 to S909 described below are processes executed by the CPU 201 of the information processing apparatus 101 operating each function unit.

ステップS901では、情報処理装置101の変数制御部310は、カウンタの変数iを宣言し、初期値として0を代入する。そして、ステップS902では、情報処理装置101の変数制御部310は、変数iをインクリメントする。   In step S901, the variable control unit 310 of the information processing apparatus 101 declares a counter variable i and substitutes 0 as an initial value. In step S902, the variable control unit 310 of the information processing apparatus 101 increments the variable i.

ステップS903では、情報処理装置101のデータ管理部309は、差分リスト700のレコードのうち、i行目のレコードの差分データを参照する。ここでいう参照とは、処理対象として特定することを意味する。よって、以下この差分データを参照差分データと称する。   In step S903, the data management unit 309 of the information processing apparatus 101 refers to the difference data of the record in the i-th row among the records in the difference list 700. Reference here means specifying as a processing target. Therefore, hereinafter, this difference data is referred to as reference difference data.

ステップS904では、情報処理装置101の位置・姿勢特定部302は、参照差分データが示す三次元モデルの表示位置を取得する。取得する表示位置は、仮想空間に配置された当該三次元モデルの中心点のワールド座標系における座標とする。本実施形態では中心点とするが、当該三次元モデルを囲むバウンディングボックスの頂点の座標を取得してもよいし、それ以外の任意の点の座標を取得する形態であってもよい。   In step S904, the position / posture specifying unit 302 of the information processing apparatus 101 acquires the display position of the three-dimensional model indicated by the reference difference data. The display position to be acquired is the coordinate in the world coordinate system of the center point of the three-dimensional model arranged in the virtual space. Although the center point is used in the present embodiment, the coordinates of the vertices of the bounding box surrounding the three-dimensional model may be acquired, or the coordinates of any other point may be acquired.

ステップS905では、情報処理装置101の距離算出部313は、ステップS404で取得した仮想空間におけるHMD102の位置から、ステップS904で取得した位置までの距離を算出し、これを取得する。すなわち、仮想空間におけるユーザの視点から参照差分データが示す三次元モデルまでの距離を取得するということである。   In step S905, the distance calculation unit 313 of the information processing apparatus 101 calculates the distance from the position of the HMD 102 in the virtual space acquired in step S404 to the position acquired in step S904, and acquires this. That is, the distance from the user's viewpoint in the virtual space to the three-dimensional model indicated by the reference difference data is acquired.

ステップS906では、情報処理装置101の距離算出部313は、取得した距離が所定距離以下(または所定距離より小さい)であるか否かを判定する。すなわち、仮想空間におけるユーザの現在位置から所定範囲内に参照差分データの三次元モデルが存在するか否かを判定するということである。または、取得した距離が所定距離以上(または所定距離より大きい)でないか否かを判定してもよい。ユーザの近傍に存在する差分データの三次元モデルだけを抽出することにより、差分データが多数存在する場合であっても、組立品の外観を損ねることなく、これから確認したい差分データだけを識別表示することが可能となる。   In step S906, the distance calculation unit 313 of the information processing apparatus 101 determines whether the acquired distance is equal to or less than a predetermined distance (or smaller than the predetermined distance). That is, it is determined whether or not a three-dimensional model of reference difference data exists within a predetermined range from the current position of the user in the virtual space. Or you may determine whether the acquired distance is not more than predetermined distance (or larger than predetermined distance). By extracting only the three-dimensional model of the difference data that exists in the vicinity of the user, even if there are a large number of difference data, only the difference data that you want to check is identified and displayed without impairing the appearance of the assembly. It becomes possible.

図10(a)に示すように、HMD102の仮想空間における現在位置、すなわちユーザの仮想空間における現在位置から参照差分データの三次元モデルまでの距離を算出し、この距離が1000に示すような所定距離に収まっているものを抽出する。例えば、1002に示す車のホイールは、差分データの三次元モデルであるので、この仮想空間におけるユーザの視点からこの三次元モデルの中心点までの距離を算出する。そして、算出した距離が所定距離以下であるか否か、すなわち、所定距離である1001を半径とする1000の球体の範囲内に存在するか否かを判定する。図10(a)の例では、差分データである車のホイールは、この範囲内に含まれていると判定されることになる。1003、1004、1005も差分データであるが、このうち1003のドアミラーは図10(a)では所定範囲内に存在するが、1004のウィングや1005のマフラーは所定範囲外であると判定される。このようにして、ユーザの近傍に存在する差分データの三次元モデルが抽出される。   As shown in FIG. 10A, the current position in the virtual space of the HMD 102, that is, the distance from the current position in the user's virtual space to the three-dimensional model of the reference difference data is calculated. Extract what is within the distance. For example, since the wheel of the car 1002 is a three-dimensional model of difference data, the distance from the user's viewpoint in the virtual space to the center point of the three-dimensional model is calculated. Then, it is determined whether or not the calculated distance is equal to or less than a predetermined distance, that is, whether or not the calculated distance exists within a range of 1000 spheres having a radius of 1001 which is the predetermined distance. In the example of FIG. 10A, it is determined that the wheel of the car that is the difference data is included in this range. Although 1003, 1004, and 1005 are also differential data, among them, the door mirror 1003 is within the predetermined range in FIG. 10A, but it is determined that the wing 1004 and the muffler 1005 are out of the predetermined range. In this way, a three-dimensional model of difference data existing in the vicinity of the user is extracted.

ステップS906の変形例としては、ユーザの視野も考慮して、ユーザの近傍に存在する差分データを抽出する方法が考えられる。図10(b)に示すように、ステップS404で取得した仮想空間におけるHMD102(ユーザ)の位置及び姿勢を用いて、仮想空間におけるユーザの視野の範囲を特定する。そして、この視野の範囲と所定距離の範囲とを組み合わせて、1010に示すような範囲を特定する。図10(b)の1011が所定距離であり、1010が所定距離内に収まるユーザの視野の範囲である。このように、ユーザが閲覧可能な範囲内で、かつ所定距離以内に存在する差分データを抽出することにより、ユーザが閲覧できない範囲の差分データは、後述する処理で識別表示されないことになるので、情報処理装置101の処理負荷を軽減することが可能となる。   As a modified example of step S906, a method of extracting difference data existing in the vicinity of the user in consideration of the user's visual field can be considered. As shown in FIG. 10B, the range of the visual field of the user in the virtual space is specified using the position and orientation of the HMD 102 (user) in the virtual space acquired in step S404. A range as indicated by 1010 is specified by combining the range of the visual field and the range of the predetermined distance. In FIG. 10B, 1011 is the predetermined distance, and 1010 is the range of the visual field of the user that falls within the predetermined distance. In this way, by extracting the difference data that exists within a predetermined distance within the user's viewable range, the difference data in the range that cannot be browsed by the user will not be identified and displayed in the process described later. The processing load on the information processing apparatus 101 can be reduced.

図9に説明を戻す。ステップS907では、情報処理装置101のデータ管理部309は、参照差分データのフラグの状態を参照する。すなわち、参照差分データに対応する、追加フラグ702から削除フラグ705までの4つのフラグの状態を参照する。   Returning to FIG. In step S907, the data management unit 309 of the information processing apparatus 101 refers to the state of the reference difference data flag. That is, the states of the four flags from the addition flag 702 to the deletion flag 705 corresponding to the reference difference data are referred to.

ステップS908では、情報処理装置101の三次元モデル制御部305は、ステップS907で参照したフラグの状態に応じて、参照差分データの三次元モデルをどのような表示状態にするのかを決定する。そして、決定された表示状態を参照差分データの三次元モデルに対して設定する。換言すれば、仮想空間におけるユーザの現在位置から所定範囲内に存在する、特定された部品データの表示状態を、配置された三次元モデルにおいて識別可能な状態に設定するということである(設定手段)。図10(a)でいうと、ホイール部分の1002とドアミラー部分の1003が、所定範囲内にある差分データの三次元モデルであるので、これらが他の部品データとは識別可能に表示される。   In step S908, the three-dimensional model control unit 305 of the information processing apparatus 101 determines what display state the three-dimensional model of the reference difference data has to be displayed according to the state of the flag referred to in step S907. Then, the determined display state is set for the three-dimensional model of the reference difference data. In other words, the display state of the specified component data that exists within a predetermined range from the current position of the user in the virtual space is set to a state that can be identified in the arranged three-dimensional model (setting unit). ). In FIG. 10A, since the wheel portion 1002 and the door mirror portion 1003 are three-dimensional models of difference data within a predetermined range, these are displayed so as to be distinguishable from other component data.

例えば、追加フラグ702に“1”が格納されていた場合には、参照差分データの三次元モデルを紫色に着色し、形状変更フラグ703に“1”が格納されていた場合には、参照差分データの三次元モデルを青色に着色する。また、位置姿勢変更フラグ704に“1”が格納されていた場合には、参照差分データの三次元モデルを黄色に着色し、削除フラグ705に“1”が格納されていた場合には、参照差分データの三次元モデルを赤色で着色する。更には、形状変更フラグ703と位置姿勢変更フラグ704にそれぞれ“1”が格納されていた場合には、参照差分データの三次元モデルを、青色と黄色とを合成した色である緑色に着色する。このように、設計変更された内容に応じて表示状態を決定することにより、どのような変更がなされたのかをユーザに認識させることが可能となる。   For example, when “1” is stored in the addition flag 702, the three-dimensional model of the reference difference data is colored purple, and when “1” is stored in the shape change flag 703, the reference difference is stored. Color the three-dimensional model of the data blue. Further, when “1” is stored in the position / orientation change flag 704, the three-dimensional model of the reference difference data is colored yellow, and when “1” is stored in the deletion flag 705, it is referred to. The three-dimensional model of difference data is colored in red. Further, when “1” is stored in each of the shape change flag 703 and the position / orientation change flag 704, the three-dimensional model of the reference difference data is colored green, which is a color obtained by combining blue and yellow. . In this way, by determining the display state according to the contents of the design change, it is possible to make the user recognize what kind of change has been made.

尚、仮想空間に新組立品データの三次元モデルが配置されているのであれば、削除された差分データは表示されていない。そのため、本来差分データが存在していた位置に、その差分データのエッジを破線等で表現し、そのエッジを着色することでユーザに削除されたことを認識させる。または、仮想空間に旧組立品データの三次元モデルが配置されているのであれば、追加された差分データは表示されていない。そのため、差分データが追加された位置に、その差分データのエッジを破線等で表現し、そのエッジを着色することでユーザに追加されたことを認識させる。   If a three-dimensional model of new assembly data is arranged in the virtual space, the deleted difference data is not displayed. Therefore, the edge of the difference data is represented by a broken line or the like at the position where the difference data originally exists, and the edge is colored to allow the user to recognize that the difference data has been deleted. Alternatively, if the three-dimensional model of the old assembly data is arranged in the virtual space, the added difference data is not displayed. Therefore, the edge of the difference data is expressed by a broken line or the like at the position where the difference data is added, and the edge is colored to allow the user to recognize that the difference data has been added.

また、参照差分データの表示状態の設定は色に限らない。例えば、輝度を変えたり点滅させたりすることによってユーザに設計変更箇所を認識させてもよい。   Further, the setting of the display state of the reference difference data is not limited to the color. For example, the design change location may be recognized by the user by changing the brightness or blinking.

ステップS909では、情報処理装置101のデータ管理部309は、差分リスト700のi行目が最終行(最終レコード)であるか否かを判定する。最終行であると判定した場合には、差異データ識別処理を終了し、ステップS406の次のステップに処理を進める。最終行でないと判定した場合には、ステップS902に処理を戻す。こうしてすべての差分データに対してステップS902乃至ステップS909の処理を実行する。   In step S909, the data management unit 309 of the information processing apparatus 101 determines whether or not the i-th row of the difference list 700 is the last row (last record). If it is determined that the current line is the last line, the difference data identification process is terminated, and the process proceeds to the next step of step S406. If it is determined that it is not the last line, the process returns to step S902. In this way, the processing from step S902 to step S909 is executed for all the difference data.

図4に説明を戻す。ステップS407では、情報処理装置101は、ユーザから選択された差分データの三次元モデルをターゲットマーカ105に配置するための処理を実行する。図11に差分データ配置処理の詳細な処理の流れを示す。   Returning to FIG. In step S <b> 407, the information processing apparatus 101 executes a process for placing the three-dimensional model of difference data selected by the user on the target marker 105. FIG. 11 shows a detailed processing flow of the differential data arrangement processing.

図11は、差分データ配置処理の詳細な処理の流れの一例を示すフローチャートである。以下説明する、S1101乃至S1112の各ステップは、情報処理装置101のCPU201が各機能部を動作することにより実行される処理である。   FIG. 11 is a flowchart illustrating an example of a detailed process flow of the differential data arrangement process. Each step of S1101 to S1112 described below is a process executed by the CPU 201 of the information processing apparatus 101 operating each function unit.

ステップS1101では、情報処理装置101の操作受付部312は、ターゲットマーカ105を用いたユーザからの操作内容を特定する。本実施形態においては、HMD102を装着するユーザの操作は、ターゲットマーカ105を用いて行われる。ターゲットマーカ105が指し示す方向にカーソルオブジェクトが重畳表示され、このカーソルオブジェクトを用いて選択操作を行う。   In step S <b> 1101, the operation reception unit 312 of the information processing apparatus 101 specifies the operation content from the user using the target marker 105. In the present embodiment, the operation of the user wearing the HMD 102 is performed using the target marker 105. A cursor object is superimposed and displayed in the direction indicated by the target marker 105, and a selection operation is performed using this cursor object.

ステップS1102では、情報処理装置101の操作受付部312は、ステップS1101で特定された操作内容が、仮想空間に配置された新組立品データを構成する差分データのうち、識別表示されている差分データに対する選択操作であるか否かを判定する。具体的には、ターゲットマーカ105に重畳表示されたカーソルオブジェクトが、識別表示中の差分データの三次元モデルと一定時間接触した場合に、当該差分データに対する選択操作が行われたと判定する(選択受付手段)。選択の方法はこれに限らず、差分データの一覧を含む画面を表示して、これに対する選択操作を受け付けてもよい。識別表示されている差分データに対する選択操作であると判定した場合には、ステップS1103に処理を進める。そうでない場合には、ステップS1108に処理を進める。   In step S1102, the operation accepting unit 312 of the information processing apparatus 101 identifies the difference data in which the operation content specified in step S1101 is identified and displayed among the difference data constituting the new assembly data arranged in the virtual space. It is determined whether or not this is a selection operation. Specifically, when the cursor object superimposed on the target marker 105 is in contact with the three-dimensional model of the difference data being identified and displayed for a certain period of time, it is determined that the selection operation for the difference data has been performed (selection acceptance) means). The selection method is not limited to this, and a screen including a list of difference data may be displayed to accept a selection operation on the screen. If it is determined that the selection operation is for the differentially displayed differential data, the process proceeds to step S1103. Otherwise, the process proceeds to step S1108.

ステップS1103では、情報処理装置101の仮想空間生成部304は、ターゲットマーカ105の位置・姿勢に応じて、いずれかの差分データが表示中であるか否かを判定する。選択された差分データとは異なる差分データの三次元モデルがターゲットマーカ105に重畳表示されている場合、この表示を終了しなければ、複数の差分データが重畳表示されてしまい、視認しづらい。そのため、こうした判定を行っている。いずれかの差分データが表示中であると判定した場合には、ステップS1104に処理を進める。いずれの差分データも表示中ではないと判定した場合には、ステップS1105に処理を進める。   In step S <b> 1103, the virtual space generation unit 304 of the information processing apparatus 101 determines whether any difference data is being displayed according to the position / posture of the target marker 105. If a three-dimensional model of difference data different from the selected difference data is displayed superimposed on the target marker 105, a plurality of difference data will be displayed superimposed and difficult to view unless this display is finished. Therefore, such a determination is made. If it is determined that any difference data is being displayed, the process advances to step S1104. If it is determined that none of the difference data is being displayed, the process proceeds to step S1105.

ステップS1104では、情報処理装置101の仮想空間生成部304は、ターゲットマーカ105に重畳表示されている差分データの三次元モデルを非表示にする。ユーザが視認できなくなればよいので、ターゲットマーカ105の位置に配置されていた差分データの三次元モデルを取り除いてもよいし、透明度を100%にして不可視の状態にしてもよい。   In step S <b> 1104, the virtual space generation unit 304 of the information processing apparatus 101 hides the three-dimensional model of difference data that is superimposed and displayed on the target marker 105. Since it is only necessary for the user to be invisible, the three-dimensional model of the difference data arranged at the position of the target marker 105 may be removed, or the transparency may be set to 100% and the invisible state may be set.

ステップS1105では、情報処理装置101のデータ管理部309は、選択された差分データの形状変更フラグ703が“1”であるか否かを判定する。すなわち、選択された差分データの設計変更内容は、形状変更であるか否かを判定する。形状変更フラグ703が“1”であると判定した場合には、ステップS1106に処理を進める。そうでない場合、すなわち形状変更フラグ703が“0”であると判定した場合には、ステップS1107に処理を進める。   In step S1105, the data management unit 309 of the information processing apparatus 101 determines whether the shape change flag 703 of the selected difference data is “1”. That is, it is determined whether or not the design change content of the selected difference data is a shape change. If it is determined that the shape change flag 703 is “1”, the process proceeds to step S1106. If not, that is, if it is determined that the shape change flag 703 is “0”, the process proceeds to step S1107.

ステップS1106では、情報処理装置101の三次元モデル制御部305は、選択された差分データの設計変更前後の三次元モデルを、ターゲットマーカ105の位置及び姿勢に応じて、ターゲットマーカ105に重畳表示されるように透過状態で配置する。すなわち、設計変更前後の差分データの三次元モデルを重ね合わせて透過表示するということである。こうすることで、設計変更前後でどういう形状に変更したのかを確認しやすくなる。例えば、図12(a)のように、識別表示されているホイールに対して、1201に示すようなカーソルオブジェクトを一定時間接触させると、このホイールの設計変更前後の三次元モデルを図12(b)の1202のように重ね合わせて、それぞれを透過させる。こうして配置された結果が、図12(a)の1202である。本実施形態では透過させた上で重畳表示しているが、設計変更前後のいずれかを透過させて、もう一方を透過させない形態であってもよい。また、設計変更前後の差分データを透過させた上でそれぞれ異なる色で着色してもよい。   In step S <b> 1106, the 3D model control unit 305 of the information processing apparatus 101 displays the 3D model before and after the design change of the selected difference data superimposed on the target marker 105 according to the position and orientation of the target marker 105. So as to be transparent. That is, the three-dimensional model of the difference data before and after the design change is superimposed and displayed transparently. In this way, it becomes easy to confirm what shape the shape has been changed before and after the design change. For example, as shown in FIG. 12A, when a cursor object as shown at 1201 is brought into contact with a wheel that is identified and displayed for a certain period of time, a three-dimensional model before and after the design change of the wheel is shown in FIG. ) 1202 and are transmitted through each other. The result of this arrangement is 1202 in FIG. In the present embodiment, the image is transmitted and superimposed, but it may be configured such that one before and after the design change is transmitted and the other is not transmitted. Further, the difference data before and after the design change may be transmitted and colored with different colors.

ステップS1107では、情報処理装置101の三次元モデル制御部305は、選択された差分データの設計変更前または後の三次元モデルを、ターゲットマーカ105の位置及び姿勢に応じて、ターゲットマーカ105に重畳表示されるように配置する。追加フラグ702が“1”の差分データの場合には、設計変更後の差分データを配置し、削除フラグ705が“1”の差分データの場合には、設計変更前の差分データを配置する。位置姿勢変更フラグ704が“1”の差分データについては、設計変更前後のいずれを配置してもよい。ステップS1106またはステップS1107の処理が完了したら、差分データ配置処理を終了し、ステップS407の次のステップに処理を進める。   In step S <b> 1107, the 3D model control unit 305 of the information processing apparatus 101 superimposes the 3D model before or after the design change of the selected difference data on the target marker 105 according to the position and orientation of the target marker 105. Arrange it so that it is visible. When the addition flag 702 is “1” difference data, the difference data after the design change is arranged. When the deletion flag 705 is “1” difference data, the difference data before the design change is arranged. For the difference data with the position / orientation change flag 704 of “1”, any data before and after the design change may be arranged. When the process of step S1106 or step S1107 is completed, the differential data arrangement process is terminated, and the process proceeds to the next step of step S407.

ステップS1108では、情報処理装置101の操作受付部312は、ステップS1106で透過表示された設計変更前後の差分データの表示状態を切り替える指示を受け付けたか否かを判定する。この切り替え指示は、当該差分データの三次元モデルに対する選択操作を再度受け付けることにより、切り替え指示があったと判定する。これに限らず、ターゲットマーカ105を所定の軌跡で動かされた場合に切り替え指示があったと判定してもよいし、物理的または仮想的ボタンに対する押下を受け付けることによって切り替え指示があったと判定してもよい。切り替え指示を受け付けたと判定した場合には、ステップS1109に処理を進める。そうでない場合には、差分データ配置処理を終了し、ステップS407の次のステップに処理を進める。   In step S1108, the operation reception unit 312 of the information processing apparatus 101 determines whether an instruction to switch the display state of the difference data before and after the design change transparently displayed in step S1106 has been received. This switching instruction determines that there has been a switching instruction by receiving again a selection operation for the three-dimensional model of the difference data. Not limited to this, it may be determined that there is a switching instruction when the target marker 105 is moved along a predetermined locus, or it is determined that there is a switching instruction by accepting a press on a physical or virtual button. Also good. If it is determined that a switching instruction has been received, the process proceeds to step S1109. Otherwise, the difference data placement process is terminated, and the process proceeds to the next step after step S407.

ステップS1109では、情報処理装置101のデータ管理部309は、切り替え指示のあった差分データの形状変更フラグ703が“1”であるか否かを判定する。すなわち、切り替え指示のあった差分データの設計変更内容は、形状変更であるか否かを判定する。形状変更フラグ703が“1”であると判定した場合には、ステップS1110に処理を進める。そうでない場合、すなわち形状変更フラグ703が“0”であると判定した場合には、差分データ配置処理を終了し、ステップS407の次のステップに処理を進める。   In step S1109, the data management unit 309 of the information processing apparatus 101 determines whether or not the shape change flag 703 of the difference data for which a switching instruction has been issued is “1”. That is, it is determined whether or not the design change content of the difference data for which a switching instruction is given is a shape change. If it is determined that the shape change flag 703 is “1”, the process proceeds to step S1110. If not, that is, if it is determined that the shape change flag 703 is “0”, the difference data arrangement process is terminated, and the process proceeds to the next step of step S407.

ステップS1110では、情報処理装置101の三次元モデル制御部305は、ターゲットマーカ105に重畳表示されている差分データの三次元モデルが、透過表示中であるか否かを判定する。当該三次元モデルの透過度を確認すればよい。透過表示中であると判定した場合には、ステップS1112に処理を進める。透過表示中ではないと判定した場合には、ステップS1111に処理を進める。   In step S1110, the 3D model control unit 305 of the information processing apparatus 101 determines whether or not the 3D model of the difference data superimposed on the target marker 105 is being transparently displayed. What is necessary is just to confirm the transparency of the said three-dimensional model. If it is determined that transparent display is being performed, the process proceeds to step S1112. If it is determined that the transparent display is not being performed, the process proceeds to step S1111.

ステップS1111では、情報処理装置101の三次元モデル制御部305は、選択された差分データの設計変更前後の三次元モデルを、ターゲットマーカ105の位置及び姿勢に応じて、ターゲットマーカ105に重畳表示されるように透過状態で配置する。すなわち、ステップS1106と同様の処理を行う。   In step S <b> 1111, the 3D model control unit 305 of the information processing apparatus 101 displays the 3D model before and after the design change of the selected difference data superimposed on the target marker 105 according to the position and orientation of the target marker 105. So as to be transparent. That is, the same processing as step S1106 is performed.

一方、ステップS1112では、情報処理装置101の仮想空間生成部304は、選択された差分データの設計変更前後の三次元モデルを、ターゲットマーカ105の位置及び姿勢に応じて、ターゲットマーカ105に重畳表示されるように配置する。こちらは透過させずに配置する。また、設計変更前後の差分データの三次元モデルを並べて配置する。例えば、図13に示すように、設計変更前の差分データの三次元モデルと、設計変更後の差分データの三次元モデルとを1301及び1302に示すように、並べて透過させずに表示する。このように、ユーザが設計変更前後を比較しやすく表示することで、差分の確認を手助けすることが可能となる。尚、本実施形態では、透過させずに配置するが透過させてしまってもよい。ただし、視認性が低くなってしまうので透過させないことが望ましい。   On the other hand, in step S <b> 1112, the virtual space generation unit 304 of the information processing apparatus 101 superimposes and displays the three-dimensional model before and after the design change of the selected difference data on the target marker 105 according to the position and orientation of the target marker 105. To be arranged. This is arranged without transmitting. In addition, three-dimensional models of difference data before and after the design change are arranged side by side. For example, as shown in FIG. 13, the three-dimensional model of the difference data before the design change and the three-dimensional model of the difference data after the design change are displayed side by side without being transparent, as indicated by 1301 and 1302. In this way, it is possible to help the user confirm the difference by displaying the user before and after the design change for easy comparison. In this embodiment, it is arranged without transmitting, but it may be transmitted. However, since the visibility is lowered, it is desirable not to transmit.

ステップS1111またはステップS1112の処理が完了したら、差分データ配置処理を終了し、ステップS407の次のステップに処理を進める。   When the process of step S1111 or step S1112 is completed, the difference data arrangement process is terminated, and the process proceeds to the next step of step S407.

図4に説明を戻す。ステップS408では、情報処理装置101の仮想空間画像取得部306は、仮想空間上に設定された視点から仮想空間を撮像することにより仮想空間画像を取得し、これをRAM203等に記憶する。尚、HMD102の右目・左目ディスプレイ222のそれぞれに表示するために右目用の仮想空間画像と左目用の仮想空間画像の2枚を取得する。   Returning to FIG. In step S408, the virtual space image acquisition unit 306 of the information processing apparatus 101 acquires a virtual space image by imaging the virtual space from the viewpoint set on the virtual space, and stores this in the RAM 203 or the like. Note that two images, a right-eye virtual space image and a left-eye virtual space image, are acquired for display on the right-eye and left-eye displays 222 of the HMD 102.

ステップS409では、情報処理装置101の複合現実画像生成部307は、ステップS403で取得した現実空間画像とステップS408で取得した仮想空間画像とをRAM203等から読み出す。そして、当該現実空間画像に当該仮想空間画像を重畳し、複合現実画像を生成する。生成した複合現実画像はRAM203等に記憶する。尚、前述した通り、現実空間画像と仮想空間画像とは右目用と左目用の2枚ずつがRAM203等に記憶されているので、右目用の現実空間画像に右目用の仮想空間画像を重畳し、左目用の現実空間画像に左目用の仮想空間画像を重畳する。   In step S409, the mixed reality image generation unit 307 of the information processing apparatus 101 reads the real space image acquired in step S403 and the virtual space image acquired in step S408 from the RAM 203 or the like. Then, the virtual space image is superimposed on the real space image to generate a mixed reality image. The generated mixed reality image is stored in the RAM 203 or the like. As described above, since the real space image and the virtual space image are stored in the RAM 203 or the like for each of the right eye and the left eye, the virtual space image for the right eye is superimposed on the real space image for the right eye. The virtual space image for the left eye is superimposed on the real space image for the left eye.

ステップS410では、情報処理装置101の表示制御部308は、ステップS409で生成した複合現実画像をRAM203等から読み出し、ビデオコントローラ206を通じてHMD102の右目・左目ディスプレイ222に表示する。RAM203等に記憶された複合現実画像は、右目用と左目用の2枚が存在する。そのため、右目用の複合現実画像を右目・左目ディスプレイ222の右目のディスプレイに表示するよう制御し、左目用の複合現実画像を右目・左目ディスプレイ222の左目のディスプレイに表示するよう制御する。   In step S410, the display control unit 308 of the information processing apparatus 101 reads the mixed reality image generated in step S409 from the RAM 203 or the like and displays the mixed reality image on the right-eye / left-eye display 222 of the HMD 102 through the video controller 206. The mixed reality image stored in the RAM 203 or the like has two sheets for the right eye and the left eye. Therefore, control is performed so that the mixed reality image for the right eye is displayed on the right eye display of the right eye / left eye display 222, and the mixed reality image for the left eye is displayed on the left eye display of the right eye / left eye display 222.

ステップS411では、情報処理装置101の操作受付部312は、HMD102を装着しているユーザに複合現実感を提示する処理の終了指示があったか否かを判定する。例えば、前述したステップS401乃至ステップS411の処理を実行する情報処理装置101のアプリケーションの停止指示や終了指示があったか否かを判定する。終了指示があったと判定した場合には、本一連の処理を終了する。終了指示があったと判定しなかった場合、すなわち終了指示がなかった場合にはステップS403に処理を戻し、終了指示があるまでステップS403乃至ステップS411の処理を繰り返す。   In step S411, the operation reception unit 312 of the information processing apparatus 101 determines whether there is an instruction to end the process of presenting mixed reality to the user wearing the HMD 102. For example, it is determined whether or not there has been an instruction to stop or end the application of the information processing apparatus 101 that executes the processes in steps S401 to S411 described above. If it is determined that an end instruction has been issued, the series of processes ends. If it is not determined that there is an end instruction, that is, if there is no end instruction, the process returns to step S403, and the processes of steps S403 to S411 are repeated until an end instruction is issued.

以上説明したように、設計変更された部品データが三次元モデルに複数含まれている場合であっても、当該部品データを仮想空間上で閲覧しやすくすることが可能となる。   As described above, even when a plurality of part data whose design has been changed is included in the three-dimensional model, the part data can be easily viewed in the virtual space.

本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。   The present invention can be implemented as a system, apparatus, method, program, storage medium, or the like, and can be applied to a system including a plurality of devices. You may apply to the apparatus which consists of one apparatus.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。   Note that the present invention includes a software program that implements the functions of the above-described embodiments directly or remotely from a system or apparatus. The present invention also includes a case where the system or the computer of the apparatus is achieved by reading and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現(実行可能と)するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Therefore, in order to realize (executable) the functional processing of the present invention by a computer, the program code itself installed in the computer also realizes the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。   Examples of the recording medium for supplying the program include a flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, and CD-RW. In addition, there are magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。   As another program supply method, a browser on a client computer is used to connect to an Internet home page. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. Let me. It is also possible to execute the encrypted program by using the downloaded key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。   Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.

なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

101 情報処理装置
102 HMD
103 オプティカルマーカ
104 赤外線カメラ
105 ターゲットマーカ

101 Information processing apparatus 102 HMD
103 Optical marker 104 Infrared camera 105 Target marker

Claims (7)

複数の部品データから構成される三次元モデルが配置される仮想空間を提示するための仮想空間制御装置であって、
設計変更前の前記三次元モデルを構成する複数の部品データと、設計変更後の前記三次元モデルを構成する複数の部品データとを比較し、設計変更がなされた部品データを特定する特定手段と、
前記三次元モデルを前記仮想空間に配置する配置手段と、
前記仮想空間におけるユーザの現在位置から所定範囲内に存在する前記特定手段で特定された部品データの表示状態を、前記配置手段で配置された三次元モデルにおいて識別可能な状態に設定する設定手段と
を備えることを特徴とする仮想空間制御装置。
A virtual space control device for presenting a virtual space in which a three-dimensional model composed of a plurality of component data is arranged,
A specifying means for comparing the plurality of part data constituting the three-dimensional model before the design change with the plurality of part data constituting the three-dimensional model after the design change, and identifying the part data on which the design change has been made; ,
Arrangement means for arranging the three-dimensional model in the virtual space;
Setting means for setting a display state of the component data specified by the specifying means existing within a predetermined range from the current position of the user in the virtual space to a state identifiable in the three-dimensional model arranged by the arranging means; A virtual space control device comprising:
前記設定手段は、設計変更の内容に応じた表示状態を前記特定手段で特定された部品データに対して設定することを特徴とする請求項1に記載の仮想空間制御装置。   The virtual space control apparatus according to claim 1, wherein the setting unit sets a display state corresponding to the content of the design change for the component data specified by the specifying unit. 前記設定手段は、前記仮想空間におけるユーザの現在位置から所定範囲内に存在し、かつ当該ユーザが閲覧可能な範囲内に存在する前記特定手段で特定された部品データの表示状態を、前記配置手段で配置された三次元モデルにおいて識別可能な状態に設定することを特徴とする請求項1または2に記載の仮想空間制御装置。   The setting means displays the display state of the component data specified by the specifying means that exists within a predetermined range from the current position of the user in the virtual space and that can be browsed by the user. The virtual space control device according to claim 1, wherein the virtual space control device is set in an identifiable state in the three-dimensional model arranged in (1). 前記設定手段で表示状態の設定がなされた部品データに対する選択を受け付ける選択受付手段
を更に備え、
前記配置手段は、設計変更前後の前記選択受付手段で選択を受け付けた部品データを前記仮想空間に配置することを特徴とする請求項1乃至3のいずれか1項に記載の仮想空間制御装置。
A selection receiving means for receiving a selection for the component data for which the display state is set by the setting means;
4. The virtual space control device according to claim 1, wherein the arrangement unit arranges, in the virtual space, component data for which selection has been received by the selection reception unit before and after a design change. 5.
前記配置手段は、設計変更前後の前記選択受付手段で選択を受け付けた部品データをそれぞれ重畳して前記仮想空間に配置することを特徴とする請求項4に記載の仮想空間制御装置。   5. The virtual space control device according to claim 4, wherein the arrangement unit arranges the component data received by the selection reception unit before and after the design change in the virtual space in a superimposed manner. 複数の部品データから構成される三次元モデルが配置される仮想空間を提示するための仮想空間制御装置の制御方法であって、
前記仮想空間制御装置の特定手段が、設計変更前の前記三次元モデルを構成する複数の部品データと、設計変更後の前記三次元モデルを構成する複数の部品データとを比較し、設計変更がなされた部品データを特定する特定ステップと、
前記仮想空間制御装置の配置手段が、前記三次元モデルを前記仮想空間に配置する配置ステップと、
前記仮想空間制御装置の設定手段が、前記仮想空間におけるユーザの現在位置から所定範囲内に存在する前記特定ステップで特定された部品データの表示状態を、前記配置ステップで配置された三次元モデルにおいて識別可能な状態に設定する設定ステップと
を備えることを特徴とする仮想空間制御装置の制御方法。
A control method of a virtual space control device for presenting a virtual space in which a three-dimensional model composed of a plurality of component data is arranged,
The identification unit of the virtual space control device compares a plurality of part data constituting the three-dimensional model before the design change with a plurality of part data constituting the three-dimensional model after the design change, and the design change Specific steps to identify the part data made,
An arrangement step of arranging the three-dimensional model in the virtual space by an arrangement unit of the virtual space control device;
In the three-dimensional model arranged in the arrangement step, the setting unit of the virtual space control device displays the display state of the part data identified in the identification step existing within a predetermined range from the current position of the user in the virtual space. A control method for a virtual space control device, comprising: a setting step for setting to an identifiable state.
複数の部品データから構成される三次元モデルが配置される仮想空間を提示するための仮想空間制御装置の制御方法を実行可能なプログラムであって、
前記仮想空間制御装置を、
設計変更前の前記三次元モデルを構成する複数の部品データと、設計変更後の前記三次元モデルを構成する複数の部品データとを比較し、設計変更がなされた部品データを特定する特定手段と、
前記三次元モデルを前記仮想空間に配置する配置手段と、
前記仮想空間におけるユーザの現在位置から所定範囲内に存在する前記特定手段で特定された部品データの表示状態を、前記配置手段で配置された三次元モデルにおいて識別可能な状態に設定する設定手段
として機能させることを特徴とするプログラム。

A program capable of executing a control method of a virtual space control device for presenting a virtual space in which a three-dimensional model composed of a plurality of component data is arranged,
The virtual space control device;
A specifying means for comparing the plurality of part data constituting the three-dimensional model before the design change with the plurality of part data constituting the three-dimensional model after the design change, and identifying the part data on which the design change has been made; ,
Arrangement means for arranging the three-dimensional model in the virtual space;
Setting means for setting the display state of the component data specified by the specifying means existing within a predetermined range from the current position of the user in the virtual space to a state that can be identified in the three-dimensional model arranged by the arranging means. A program characterized by functioning.

JP2016149224A 2016-07-29 2016-07-29 Virtual space control device, control method thereof, and program Pending JP2018018362A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016149224A JP2018018362A (en) 2016-07-29 2016-07-29 Virtual space control device, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016149224A JP2018018362A (en) 2016-07-29 2016-07-29 Virtual space control device, control method thereof, and program

Publications (1)

Publication Number Publication Date
JP2018018362A true JP2018018362A (en) 2018-02-01

Family

ID=61076354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016149224A Pending JP2018018362A (en) 2016-07-29 2016-07-29 Virtual space control device, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP2018018362A (en)

Similar Documents

Publication Publication Date Title
JP7208549B2 (en) VIRTUAL SPACE CONTROL DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
US10192364B2 (en) Augmented reality product preview
US11501224B2 (en) Project management system with client interaction
CN105637564B (en) Generate the Augmented Reality content of unknown object
US10725297B2 (en) Method and system for implementing a virtual representation of a physical environment using a virtual reality environment
CN110716645A (en) Augmented reality data presentation method and device, electronic equipment and storage medium
CN110070556A (en) Use the structural modeling of depth transducer
EP2814000A1 (en) Image processing apparatus, image processing method, and program
JP6677890B2 (en) Information processing system, its control method and program, and information processing apparatus, its control method and program
JP2015143976A (en) Information processing device, method for controlling the same, and program
JP2016122392A (en) Information processing apparatus, information processing system, control method and program of the same
CN105488839A (en) Interactive operation system for three-dimensional scene and operation method thereof
CN108038916A (en) A kind of display methods of augmented reality
CN108353151A (en) The control method and device of target device
US10623713B2 (en) 3D user interface—non-native stereoscopic image conversion
US11941763B2 (en) Viewing system, model creation apparatus, and control method
JP6152888B2 (en) Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof
JP2017084215A (en) Information processing system, control method thereof, and program
EP3422294B1 (en) Traversal selection of components for a geometric model
JP2018018362A (en) Virtual space control device, control method thereof, and program
JP2020074108A (en) Information processing system, control method thereof, and program
Shumaker Virtual, Augmented and Mixed Reality: Designing and Developing Augmented and Virtual Environments: 5th International Conference, VAMR 2013, Held as Part of HCI International 2013, Las Vegas, NV, USA, July 21-26, 2013, Proceedings, Part I
JP6638326B2 (en) Information processing system, control method thereof, and program
JP2015121892A (en) Image processing apparatus, and image processing method
CN115861509A (en) Virtual vehicle exhibition implementation method, computer device and storage medium

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161101

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190111