JP2020074066A - Image display device and control method of image display device - Google Patents

Image display device and control method of image display device Download PDF

Info

Publication number
JP2020074066A
JP2020074066A JP2019163837A JP2019163837A JP2020074066A JP 2020074066 A JP2020074066 A JP 2020074066A JP 2019163837 A JP2019163837 A JP 2019163837A JP 2019163837 A JP2019163837 A JP 2019163837A JP 2020074066 A JP2020074066 A JP 2020074066A
Authority
JP
Japan
Prior art keywords
image
mode
display device
virtual object
mixed reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019163837A
Other languages
Japanese (ja)
Inventor
大矢 崇
Takashi Oya
崇 大矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019163837A priority Critical patent/JP2020074066A/en
Publication of JP2020074066A publication Critical patent/JP2020074066A/en
Priority to JP2021114388A priority patent/JP7170798B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Abstract

To provide a technique capable of easily and accurately specifying a virtual object in a sharing video on a display screen of the apparatus when a video in a composite real space seen by a user wearing a head-mounted display device such as an HMD is displayed and shared in other apparatuses.SOLUTION: An image display device acquires a video in a composite real space displayed on a display device in a first mode and displays it, and generates an image of a virtual object and displays it when the first mode is switched to a second mode. The image display device transmits, to a holding device, information on parts corresponding to a portion specified by the user for the virtual object displayed in the second mode of the parts constituting the virtual object. The holding device receives the information and updates data on the parts corresponding to the information of the parts constituting the virtual object.SELECTED DRAWING: Figure 1

Description

本発明は、複合現実感の提示技術に関するものである。   The present invention relates to a mixed reality presentation technique.

自動車・航空機などの製造業分野において、設計工程の期間短縮、費用削減が求められている。この要求に応える技術として、現実空間と仮想空間とを継ぎ目なく合成する複合現実(MR:Mixed Reality)システムがある。複合現実システムによれば、開発中の製品をCG(コンピュータグラフィックス)映像として現実世界に重畳表示できる。そして、自由な視点から確認、検討することで実寸大の模型を制作せずにデザイン等の検討を行うことができる。   In manufacturing fields such as automobiles and aircraft, it is required to shorten the design process period and reduce costs. As a technology that meets this demand, there is a mixed reality (MR) system that seamlessly combines a real space and a virtual space. According to the mixed reality system, the product under development can be superimposed and displayed as a CG (computer graphics) image on the real world. Then, by checking and examining from a free viewpoint, it is possible to study the design and the like without producing a full-scale model.

複合現実システムでは、映像表示装置のひとつとして、ビデオカメラ等の撮像装置とディスプレイとが一体化された頭部装着型ディスプレイ(以後、HMD:ヘッドマウントディスプレイと表記)が用いられる。HMDの一形態としてビデオシースルー方式がある。これは、HMDに搭載された撮像装置が撮像した現実空間の画像上に、撮像装置の位置及び姿勢に応じて生成した仮想空間の画像を重畳して表示する方式である。仮想空間の画像の例としては、例えば、CGにより描画された仮想物体や文字情報等がある。別の画像表示装置として、光学シースルー方式がある。これは、体験者の頭部に装着された光学透過型ディスプレイに、観察者の視点の位置及び姿勢に応じて生成した仮想空間の画像を表示する方式である。   In the mixed reality system, a head-mounted display (hereinafter, referred to as HMD: head mounted display) in which an image pickup device such as a video camera and a display are integrated is used as one of image display devices. A video see-through method is one form of HMD. This is a method of superimposing and displaying an image of a virtual space generated in accordance with the position and orientation of the image pickup device on an image of the physical space imaged by the image pickup device mounted on the HMD. Examples of the image in the virtual space include, for example, a virtual object drawn by CG and character information. Another image display device is an optical see-through system. This is a method of displaying an image of a virtual space generated according to the position and orientation of the observer's viewpoint on an optical transmissive display mounted on the head of the experiencer.

製造業の設計工程では、多人数が参加したレビューがしばしば開催される。複合現実システムを用いたレビューでは、多人数が複合現実空間(仮想空間と現実空間とを合成した空間)を体験するために、HMDに加えて、タブレットなどの手持ち型情報端末を組み合わせてシステムが構成される。このシステムは、HMD装着者が見ている複合現実空間の映像を、複数のタブレット画面にも同時に配信・表示する。これにより、HMD装着者の視界を複数人が同時に共有し、設計・検討に参加できる。   In the manufacturing design process, reviews with many participants are often held. In a review using a mixed reality system, in order to allow a large number of people to experience a mixed reality space (a space in which a virtual space and a real space are combined), in addition to the HMD, the system is combined with a handheld information terminal such as a tablet. Composed. This system simultaneously delivers / displays the video of the mixed reality space viewed by the HMD wearer on a plurality of tablet screens at the same time. This allows multiple people to share the field of view of the HMD wearer at the same time and participate in design / study.

特許文献1には、複合現実システムを用いた共同作業の例が開示されている。この例では、作業者が体感している複合現実空間を複数人の参加者が遠隔から共有し、視点を変更しながら現実物体と仮想物体とを継ぎ目のない状態で知覚して共同作業を可能にする。   Patent Document 1 discloses an example of collaborative work using a mixed reality system. In this example, multiple participants can remotely share the mixed reality space that workers are experiencing, and while changing viewpoints, they can perceive real objects and virtual objects in a seamless state and collaborate. To

また、非特許文献1には、ナビゲーションシステムにおいて、拡張現実感(AR:Augumented Reality)表示モードと仮想現実感表示モード(VR:Virtual Reality)とを切替えて表示する技術が開示されている。これにより、利用者が周囲の状況を適切に把握し、行動を支援することができる。また、商用のグラフィックスライブラリにおいて、スクリーン(表示画像平面)上の任意の点と、仮想空間中の三次元モデルを構成する部品との対応を、逆透視投影変換によって求める機能が提供されている。   Further, Non-Patent Document 1 discloses a technique for switching between an augmented reality (AR) display mode and a virtual reality display mode (VR: Virtual Reality) display mode in a navigation system. As a result, the user can appropriately grasp the surrounding situation and support the action. In addition, a commercial graphics library is provided with a function of finding the correspondence between an arbitrary point on the screen (display image plane) and a component forming a three-dimensional model in virtual space by inverse perspective projection transformation. ..

特開2006−293604号公報JP 2006-293604 A

Makita,et,al. “Mixed Reality Navigation on a Tablet Computer for Supporting Machine Maintenance in Wide―area Indoor Environment”,Proc. of ICCServ2014,pp.41−47.,2014.Makita, et. Al. "Mixed Reality Navigation on a Tablet Computer for Supporting Support Machine Maintenance in Wide-area Indo Environment", Proc. of ICC Serv 2014, pp. 41-47. , 2014.

複合現実システムを用いてHMD利用者の映像をタブレットで共有している状況において、タブレットの画面上に表示された仮想物体の部品を、タブレット使用者が指定するケースを考える。このとき、HMD利用者は自らの意志で視点位置・姿勢を変更するため、映像共有中のタブレット利用者は仮想物体に対する視点位置・姿勢を制御することはできない。すなわち、タブレット利用者の意思とは無関係にタブレット表示画面が変化することになり、所望の部品を正確に指定することは難しい。   Consider a case where a tablet user specifies parts of a virtual object displayed on the screen of the tablet in a situation where the video of the HMD user is shared by the tablet using the mixed reality system. At this time, the HMD user voluntarily changes the viewpoint position / orientation, and therefore the tablet user who is sharing the video cannot control the viewpoint position / orientation with respect to the virtual object. That is, the tablet display screen changes regardless of the intention of the tablet user, and it is difficult to accurately specify a desired component.

本発明はこのような問題に鑑みてなされたものであり、HMDなどの頭部装着型表示装置を装着しているユーザが見ている複合現実空間の映像を、他の機器にも表示して共有する場合に、該共有している映像中の仮想物体を該機器の表示画面上で容易かつ正確に指定することを可能にする技術を提供する。   The present invention has been made in view of such a problem, and displays an image of a mixed reality space viewed by a user wearing a head-mounted display device such as an HMD on another device. Provided is a technique that enables a virtual object in a shared video to be easily and accurately designated on the display screen of the device when sharing.

本発明の一様態は、画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムであって、前記画像表示装置は、表示手段と、第1のモードが設定されている場合には、前記表示装置において表示されている複合現実空間の映像を取得して前記表示手段に表示し、該第1のモードから第2のモードに切り替わると、該データを用いて仮想物体の画像を生成して前記表示手段に表示する表示制御手段と、前記仮想物体を構成するパーツのうち、前記第2のモードにおいて前記表示手段に表示されている仮想物体に対してユーザが指定した箇所に対応するパーツを特定し、該特定したパーツの情報を、前記保持装置に対して送信する送信手段とを備え、前記保持装置は、前記情報を受信する受信手段と、前記仮想物体を構成するパーツのうち前記情報に対応するパーツを特定し、該特定したパーツのデータを更新する更新手段とを備えることを特徴とする。   One aspect of the present invention is a system including an image display device, a holding device that holds data of a virtual object, and a display device that displays an image of a mixed reality space including an image of a virtual object based on the data. Then, the image display device acquires the image of the mixed reality space displayed on the display device and the display device when the first mode is set, and displays the image on the display device. When the mode is switched from the first mode to the second mode, a display control unit that generates an image of a virtual object using the data and displays the image on the display unit; In the mode, a transmission unit that specifies a part corresponding to a portion specified by the user with respect to the virtual object displayed on the display unit, and transmits information of the specified part to the holding device. The holding device includes a receiving unit that receives the information, and an updating unit that specifies a part corresponding to the information among the parts forming the virtual object and updates the data of the specified part. Is characterized by.

本発明の構成によれば、HMDなどの頭部装着型表示装置を装着しているユーザが見ている複合現実空間の映像を、他の機器にも表示して共有する場合に、該共有している映像中の仮想物体を該機器の表示画面上で容易かつ正確に指定することができる。   According to the configuration of the present invention, when a video image of a mixed reality space viewed by a user wearing a head-mounted display device such as an HMD is displayed and shared on another device, the shared image is shared. It is possible to easily and accurately specify a virtual object in a moving image on the display screen of the device.

システムの構成例を示す図。The figure which shows the structural example of a system. 複合現実空間の映像を共有している様子を示す図。The figure which shows a mode that the image of mixed reality space is shared. タブレット端末装置の画面の遷移を示す図。The figure which shows the transition of the screen of a tablet terminal device. ステップS912の処理を説明する図。The figure explaining the process of step S912. システムの機能構成例を示すブロック図。The block diagram which shows the function structural example of a system. システムが行う処理のフローチャート。The flowchart of the process which a system performs. 仮想部品の指定について説明する図。The figure explaining designation of a virtual part. システムの機能構成例を示すブロック図。The block diagram which shows the function structural example of a system. システムが行う処理のフローチャート。The flowchart of the process which a system performs. 第3の実施形態に係るシステムの機能構成例を示すブロック図。The block diagram which shows the function structural example of the system which concerns on 3rd Embodiment.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. In addition, the embodiment described below shows an example of a case where the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
本実施形態に係るシステムは、画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムである。このような構成を有するシステムにおいて、画像表示装置は、第1のモードが設定されている場合には、表示装置において表示されている複合現実空間の映像を取得して表示し、該第1のモードから第2のモードに切り替わると、該データを用いて仮想物体の画像を生成して表示し(表示制御)、仮想物体を構成するパーツのうち、第2のモードにおいて表示されている仮想物体に対してユーザが指定した箇所に対応するパーツを特定し、該特定したパーツの情報を、保持装置に対して送信する。一方、保持装置は、該情報を受信し、仮想物体を構成するパーツのうち該情報に対応するパーツを特定し、該特定したパーツのデータを更新する。
[First Embodiment]
The system according to the present embodiment is a system including an image display device, a holding device that holds data of a virtual object, and a display device that displays an image of a mixed reality space including an image of a virtual object based on the data. is there. In the system having such a configuration, the image display device, when the first mode is set, acquires and displays the image of the mixed reality space displayed on the display device, and displays the image. When the mode is switched to the second mode, an image of the virtual object is generated and displayed using the data (display control), and among the parts forming the virtual object, the virtual object displayed in the second mode. With respect to, the part corresponding to the location designated by the user is specified, and the information of the specified part is transmitted to the holding device. On the other hand, the holding device receives the information, specifies the part corresponding to the information among the parts forming the virtual object, and updates the data of the specified part.

先ず、本実施形態に係るシステムの構成例について、図1を用いて説明する。図1に示す如く、本実施形態に係るシステムは、HMD150,160、HMD制御装置110,120、シーンデータ管理サーバ130、無線LANアクセスポイント170、タブレット端末装置180,190、を有する。   First, a configuration example of the system according to this embodiment will be described with reference to FIG. As shown in FIG. 1, the system according to the present embodiment includes HMDs 150 and 160, HMD control devices 110 and 120, a scene data management server 130, a wireless LAN access point 170, and tablet terminal devices 180 and 190.

HMD150,160は、頭部装着型表示装置の一例であり、現実空間の映像と仮想空間の映像とを合成した複合現実空間の映像を、HMD150,160を頭部に装着したユーザの眼前に提示する装置である。   The HMDs 150 and 160 are examples of head-mounted display devices, and present an image of a mixed reality space that is a combination of an image of a real space and an image of a virtual space in front of the eyes of a user who wears the HMD 150 or 160 on the head. It is a device that does.

HMD制御装置110,120はそれぞれ、HMD150,160の電源管理やHMD150,160による通信を含む、HMD150,160の基本動作を制御するための装置であり、HMD150,160とは無線若しくは有線でもってデータ通信を行う。   The HMD control devices 110 and 120 are devices for controlling basic operations of the HMDs 150 and 160, including power management of the HMDs 150 and 160 and communication by the HMDs 150 and 160, respectively. Communicate.

シーンデータ管理サーバ130は、仮想空間(シーン)を構築するために必要なデータ(シーンデータ)131を保持する装置である。なお、HMD制御装置110,120及びシーンデータ管理サーバ130は、図1のように別個の装置であっても良いし、1つの一体化した装置であっても良い。HMD制御装置110,120及びシーンデータ管理サーバ130に適用可能な機器としては、例えば、一般のPC(パーソナルコンピュータ)が挙げられる。   The scene data management server 130 is a device that holds data (scene data) 131 necessary for constructing a virtual space (scene). The HMD control devices 110 and 120 and the scene data management server 130 may be separate devices as shown in FIG. 1 or may be one integrated device. Examples of devices applicable to the HMD control devices 110 and 120 and the scene data management server 130 include general PCs (personal computers).

無線LANアクセスポイント170は、タブレット端末装置180,190に対する無線LANアクセスポイントとして機能するものであり、タブレット端末装置180,190は、この無線LANアクセスポイント170を介してシーンデータ管理サーバ130やHMD150,160(HMD制御装置110,120を介して)との間のデータ通信を行う。   The wireless LAN access point 170 functions as a wireless LAN access point for the tablet terminal devices 180 and 190, and the tablet terminal devices 180 and 190 transmit the scene data management server 130 and the HMD 150, via the wireless LAN access point 170. Data communication with 160 (via HMD control devices 110 and 120) is performed.

タブレット端末装置180,190は、タッチパネル画面を有し、該タッチパネル画面に様々な情報を表示すると共に、ユーザによる該タッチパネル画面上の操作を検知する機能を有する装置である。なお、タブレット端末装置180,190は、ユーザからの様々な指示を受け付ける機能、様々な情報を表示する機能、を有するものであれば、如何なる機器であっても良い。   The tablet terminal devices 180 and 190 are devices having a touch panel screen, displaying various information on the touch panel screen, and having a function of detecting a user's operation on the touch panel screen. The tablet terminal devices 180 and 190 may be any devices as long as they have a function of receiving various instructions from the user and a function of displaying various information.

図1に示す如く、タブレット端末装置180,190と無線LANアクセスポイント170との間は無線LANでもって接続されており、HMD制御装置110,120、シーンデータ管理サーバ130、無線LANアクセスポイント170、は互いにデータ通信が可能なようにネットワークに接続されている。   As shown in FIG. 1, the tablet terminal devices 180 and 190 and the wireless LAN access point 170 are connected by a wireless LAN, and the HMD control devices 110 and 120, the scene data management server 130, the wireless LAN access point 170, Are connected to a network so that they can communicate data with each other.

本実施形態では、HMD150(160)は、現実空間の映像を撮像し、HMD150(160)の位置姿勢に応じた仮想空間の映像をシーンデータ131を用いて生成し、該撮像した現実空間の映像と該生成した仮想空間の映像とを合成した複合現実空間の映像を生成し、該生成した複合現実空間の映像を表示すると共に、該複合現実空間の映像を、タブレット端末装置180,190のうちHMD150(160)に対応づけられている一方若しくは両方に対して送信する。これにより、例えば、タブレット端末装置180の表示画面には、該タブレット端末装置180に対応づけられているHMDにおいて表示されている複合現実空間の映像が表示されていることになり、結果としてタブレット端末装置180は該HMDと複合現実空間の映像を共有することができる。HMDとタブレット端末装置との間で複合現実空間の映像を共有している様子を図2を用いて説明する。   In the present embodiment, the HMD 150 (160) captures an image of the physical space, generates an image of the virtual space according to the position and orientation of the HMD 150 (160) using the scene data 131, and captures the captured image of the physical space. A mixed reality space image is generated by combining the generated virtual space image with the generated virtual space image, the generated mixed reality space image is displayed, and the mixed reality space image is displayed among the tablet terminal devices 180 and 190. It transmits to one or both associated with the HMD 150 (160). As a result, for example, on the display screen of the tablet terminal device 180, the video of the mixed reality space displayed on the HMD associated with the tablet terminal device 180 is displayed, and as a result, the tablet terminal device 180 is displayed. The device 180 can share an image of the mixed reality space with the HMD. The manner in which the video of the mixed reality space is shared between the HMD and the tablet terminal device will be described with reference to FIG.

ユーザ230は頭部にHMDを装着しており、該HMDの画面には、仮想物体220を含む複合現実空間を仮想スクリーン231に投影した投影映像が表示される。マーカ211,212は、HMDの位置姿勢を求めるために現実空間の壁や床に設けられたもので、ここでは、HMDが現実空間の映像を撮像し、該映像中に写っているマーカを用いて自身の位置姿勢を求めるものとしている。   The user 230 wears the HMD on the head, and a projected image obtained by projecting the mixed reality space including the virtual object 220 onto the virtual screen 231 is displayed on the screen of the HMD. The markers 211 and 212 are provided on the wall or floor of the real space in order to obtain the position and orientation of the HMD. Here, the HMD picks up an image of the real space, and the markers shown in the image are used. It seeks to determine its own position and orientation.

ユーザ230の頭部に装着されているHMDにおいて表示されている複合現実空間の映像は、該HMDに対応づけられているタブレット端末装置250にも送信され、該タブレット端末装置250の表示画面215に表示される。これによりユーザ240は、ユーザ230が観察している複合現実空間の映像を、表示画面215において確認(共有)することができる。   The video of the mixed reality space displayed on the HMD worn on the head of the user 230 is also transmitted to the tablet terminal device 250 associated with the HMD, and displayed on the display screen 215 of the tablet terminal device 250. Is displayed. This allows the user 240 to confirm (share) the image of the mixed reality space that the user 230 is observing on the display screen 215.

次に、シーンデータ管理サーバ130、HMD150(160)、タブレット端末装置180(190)、のそれぞれの機能構成例を、図5に示す。なお、図5では説明を簡単にするために、HMD制御装置110,120の図示を省略し、HMD150(160)は、シーンデータ管理サーバ130やタブレット端末装置180(190)と直接データ通信を行うように示しているが、実際には、図1に示す如く、HMD150(160)はそれぞれ、HMD制御装置110,120を介して、シーンデータ管理サーバ130やタブレット端末装置180(190)とのデータ通信を行う。図5に示した各機能部によって行われる各処理について、図6のフローチャートに従って説明する。   Next, FIG. 5 shows a functional configuration example of each of the scene data management server 130, the HMD 150 (160), and the tablet terminal device 180 (190). Note that in FIG. 5, the HMD control devices 110 and 120 are not shown for the sake of simplicity, and the HMD 150 (160) performs direct data communication with the scene data management server 130 and the tablet terminal device 180 (190). However, in reality, as shown in FIG. 1, the HMD 150 (160) transmits data to and from the scene data management server 130 and the tablet terminal device 180 (190) via the HMD control devices 110 and 120, respectively. Communicate. Each process performed by each functional unit shown in FIG. 5 will be described with reference to the flowchart of FIG.

<ステップS621>
HMD150(160)が有する撮影部522は、現実空間の映像を撮像する。
<Step S621>
The image capturing unit 522 of the HMD 150 (160) captures an image of the physical space.

<ステップS622>
HMD150(160)が有する取得部524は、HMD150(160)の位置姿勢を取得する。HMD150(160)の位置姿勢を取得する方法については様々な方法が考えられ、如何なる方法を採用しても構わない。例えば、図2に示す如く現実空間にマーカを配しておき、このような現実空間をステップS621において撮像することで取得した映像に映っているマーカ(自然特徴でも良い)を用いて、HMD150(160)の位置姿勢を求めても良い。また、赤外線センサ、磁気センサ、超音波センサ、光学センサ、ジャイロセンサ等のセンサによる計測結果に基づいてHMD150(160)の位置姿勢を求めても良い。また、映像中のマーカとセンサによる計測結果とを用いてHMD150(160)の位置姿勢を求めても良い。なお、ここでいうところの「HMD150(160)の位置姿勢」とは、「世界座標系(現実空間中の1点を原点とし、該原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系)における撮影部522の位置姿勢」であり、以下では「視点の位置姿勢」と呼称する場合がある。
<Step S622>
The acquisition unit 524 included in the HMD 150 (160) acquires the position and orientation of the HMD 150 (160). There are various possible methods for acquiring the position and orientation of the HMD 150 (160), and any method may be adopted. For example, as shown in FIG. 2, markers are arranged in the real space, and the HMD 150 (using a natural feature) displayed in the image acquired by imaging such a real space in step S621 is used. The position and orientation of 160) may be obtained. Further, the position and orientation of the HMD 150 (160) may be obtained based on the measurement result of a sensor such as an infrared sensor, a magnetic sensor, an ultrasonic sensor, an optical sensor, or a gyro sensor. Further, the position and orientation of the HMD 150 (160) may be obtained using the marker in the image and the measurement result of the sensor. The "position and orientation of the HMD 150 (160)" here means "the world coordinate system (one point in the real space is the origin, and three axes orthogonal to each other at the origin are the x-axis and the y-axis, respectively). The position / orientation of the image capturing unit 522 in the z-axis coordinate system), and may be referred to as “viewpoint position / orientation” below.

<ステップS624>
映像合成部525は先ず、「取得部526がステップS630においてシーンデータ管理サーバ130から取得(ダウンロード)したシーンデータ131」を用いて仮想空間を構築する。シーンデータ131とは、仮想空間を構成する各仮想物体のデータ(形状、テクスチャなど、仮想物体を描画するために必要なデータ)、各仮想物体の位置姿勢データ、仮想空間を照明する光源を規定するデータ等、仮想空間を規定するデータである。次に映像合成部525は、ステップS622で取得した位置姿勢を有する視点から見た仮想空間の映像を生成する。位置姿勢が与えられた視点から見える仮想空間の映像を生成する技術は周知であるため、該技術に関する説明は省略する。
<Step S624>
The video composition unit 525 first builds a virtual space using the “scene data 131 acquired (downloaded) from the scene data management server 130 by the acquisition unit 526 in step S630” ”. The scene data 131 defines data of each virtual object forming the virtual space (data such as shape and texture necessary for drawing the virtual object), position and orientation data of each virtual object, and a light source for illuminating the virtual space. Data that defines the virtual space, such as data to be created. Next, the image composition unit 525 generates an image of the virtual space viewed from the viewpoint having the position and orientation acquired in step S622. A technique for generating an image of a virtual space that can be viewed from a viewpoint given a position and orientation is well known, and therefore description thereof will be omitted.

<ステップS625>
映像合成部525は、ステップS621で撮影部522が撮影した現実空間の映像に、ステップS624で生成した仮想空間の映像を重畳することで、複合現実空間の映像を生成する。複合現実空間の映像の生成技術については周知であるため、該生成技術に関する説明は省略する。
<Step S625>
The image composition unit 525 generates an image of mixed reality space by superimposing the image of the virtual space generated in step S624 on the image of the physical space captured by the image capturing unit 522 in step S621. Since a technique for generating an image in a mixed reality space is well known, description of the technique will be omitted.

<ステップS626>
映像合成部525は、ステップS625で生成した複合現実空間の映像を表示部523に対して出力することで、該映像を表示部523に表示させる。表示部523は、HMD150(160)を頭部に装着したユーザの眼前に位置するように該HMD150(160)に取り付けられたものである。これによりHMD150(160)を頭部に装着したユーザの眼前には、ステップS625において生成した複合現実空間の映像を提示することができる。
<Step S626>
The video composition unit 525 outputs the video of the mixed reality space generated in step S625 to the display unit 523 to display the video on the display unit 523. The display unit 523 is attached to the HMD 150 (160) so as to be positioned in front of the eyes of the user who wears the HMD 150 (160) on the head. As a result, the image of the mixed reality space generated in step S625 can be presented in front of the eyes of the user wearing the HMD 150 (160) on the head.

<ステップS627>
映像送信部528は、ステップS625で映像合成部525が生成した複合現実空間の映像を、タブレット端末装置180,190のうちHMD150(160)に対応づけられた一方若しくは両方に対して送信する。HMD150(160)において生成した複合現実空間の映像をどのタブレット端末装置に対して送信するのかは予め設定しておいても良いし、HMD150(160)側及び/又はタブレット端末装置側で任意のタイミングで設定しても構わない。また、このような設定を、HMD制御装置110(120)に対して行っておき、HMD制御装置110(120)がHMD150(160)から受けた複合現実空間の映像を、該設定に応じた送信先に対して送信するようにしても構わない。また、映像送信部528は、複合現実空間の映像をJPEGやH.264等で符号化してから送信するようにしても構わない。また、複合現実空間の映像をRTP等のストリーミングプロトコルを用いて送信してもよい。
<Step S627>
The video transmission unit 528 transmits the video of the mixed reality space generated by the video synthesis unit 525 in step S625 to one or both of the tablet terminal devices 180 and 190 associated with the HMD 150 (160). The tablet terminal device to which the video of the mixed reality space generated in the HMD 150 (160) is to be transmitted may be set in advance, or may be set at an arbitrary timing on the HMD 150 (160) side and / or the tablet terminal device side. You can set it with. In addition, such a setting is performed for the HMD control device 110 (120), and the video of the mixed reality space received by the HMD control device 110 (120) from the HMD 150 (160) is transmitted according to the setting. It may be transmitted to the destination. In addition, the video transmission unit 528 transfers the video of the mixed reality space to JPEG or H.264. You may make it transmit after encoding by H.264 or the like. Further, the video of the mixed reality space may be transmitted using a streaming protocol such as RTP.

<ステップS651>
制御部590は、タブレット端末装置180(190)の動作モードとして、MRモード(共有モード)、VRモードの何れが設定されているのかを確認する。タブレット端末装置180(190)の動作モードを切り替える方法には様々な方法が考えられ、特定の方法に限るものではない。例えば、表示部536と入力部537とでタッチパネル画面を構成している場合、MRモードに切り替えるためのボタン画像(MRモードボタン画像)とVRモードに切り替えるためのボタン画像(VRモードボタン画像)とを表示部536に表示する。そして、ユーザがMRモードボタン画像をタッチパネル画面上でタップしたことを入力部537が検知すると、制御部590は、タブレット端末装置180(190)の動作モードをMRモードに切り替える。一方、ユーザがVRモードボタン画像をタッチパネル画面上でタップしたことを入力部537が検知すると、制御部590は、タブレット端末装置180(190)の動作モードをVRモードに切り替える。このようなモード切り替え要求は、ユーザー入力イベントを検出するための不図示の別処理において検出することが可能である。
<Step S651>
The control unit 590 confirms which of the MR mode (shared mode) and the VR mode is set as the operation mode of the tablet terminal device 180 (190). Various methods can be considered as a method of switching the operation mode of the tablet terminal device 180 (190), and the method is not limited to a specific method. For example, when the display unit 536 and the input unit 537 form a touch panel screen, a button image for switching to the MR mode (MR mode button image) and a button image for switching to the VR mode (VR mode button image). Is displayed on the display unit 536. When the input unit 537 detects that the user taps the MR mode button image on the touch panel screen, the control unit 590 switches the operation mode of the tablet terminal device 180 (190) to the MR mode. On the other hand, when the input unit 537 detects that the user taps the VR mode button image on the touch panel screen, the control unit 590 switches the operation mode of the tablet terminal device 180 (190) to the VR mode. Such a mode switching request can be detected by another process (not shown) for detecting a user input event.

そして、タブレット端末装置180(190)の動作モードがMRモードである場合には、処理はステップS652に進み、VRモードである場合には、処理はステップS660に進む。   Then, if the operation mode of the tablet terminal device 180 (190) is the MR mode, the process proceeds to step S652, and if it is the VR mode, the process proceeds to step S660.

<ステップS652>
映像受信部534は、映像送信部528によって送信された複合現実空間の映像を受信する。なお、受信した複合現実空間の映像が符号化されている場合には、該映像を復号する。
<Step S652>
The video reception unit 534 receives the video in the mixed reality space transmitted by the video transmission unit 528. When the received mixed reality space video is encoded, the video is decoded.

<ステップS653>
生成部535は、ステップS652で受信した複合現実空間の映像を、表示部536に適した映像に変換することで表示画面を生成する。例えば、ステップS652で受信した複合現実空間の映像のサイズを、表示部536の解像度に応じて変換する。なお、本ステップではこれ以外にも、複合現実空間の映像を表示するための表示領域と、様々な操作を行うためのボタンなどが配置されている操作領域と、を含むダイアログ画面を、表示画面として生成しても構わない。
<Step S653>
The generation unit 535 generates a display screen by converting the video of the mixed reality space received in step S652 into a video suitable for the display unit 536. For example, the size of the video of the mixed reality space received in step S652 is converted according to the resolution of the display unit 536. In this step, in addition to this, a dialog screen including a display area for displaying an image of the mixed reality space and an operation area in which buttons for performing various operations are arranged is displayed on the display screen. May be generated as.

<ステップS654>
生成部535は、ステップS653において生成した表示画面を、表示部536に表示する。これにより表示部536には、ステップS626においてHMD側で表示されている複合現実空間の映像と同じ内容の映像が表示されることになり、該HMDと複合現実空間の映像を共有することができる。
<Step S654>
The generation unit 535 displays the display screen generated in step S653 on the display unit 536. As a result, the image of the same content as the mixed reality space image displayed on the HMD side in step S626 is displayed on the display unit 536, and the image of the mixed reality space can be shared with the HMD. ..

<ステップS660>
映像受信部534は、映像送信部528から送信された複合現実空間の映像の受信動作を停止する。なお動作モードがVRモードであって、映像共有が既に停止されている場合には、ステップS660の処理をスキップしてもよい。
<Step S660>
The video receiving unit 534 stops the operation of receiving the video of the mixed reality space transmitted from the video transmitting unit 528. If the operation mode is the VR mode and the video sharing is already stopped, the process of step S660 may be skipped.

<ステップS661>
入力部537が、ユーザがタブレット端末装置180(190)側でローカルに制御可能な視点(ローカル視点)の位置姿勢を変更するための操作入力を行ったことを示す入力イベントを検知した場合には、処理はステップS662に進み、ユーザが表示部536に表示されている仮想物体の一部(部品)を指定するための操作入力を行ったことを示す入力イベントを検知した場合には、処理はステップS665に進み、何等入力イベントを検知していない場合には、処理はステップS663に進む。
<Step S661>
When the input unit 537 detects an input event indicating that the user has performed an operation input for changing the position and orientation of the locally controllable viewpoint (local viewpoint) on the tablet terminal device 180 (190) side, The process proceeds to step S662, and when the input event indicating that the user has performed the operation input for designating a part (part) of the virtual object displayed on the display unit 536, the process is performed. The process proceeds to step S665, and if no input event is detected, the process proceeds to step S663.

<ステップS663>
生成部535は先ず、「取得部532がステップS640においてシーンデータ管理サーバ130から取得(ダウンロード)したシーンデータ131」を用いて仮想空間を構築する。次に生成部535は、ローカル視点から見た仮想空間の映像を生成する。なお、制御部590は、VRモードに切り替わった直後におけるローカル視点の位置姿勢には、VRモードに切り替わる直前のHMD(タブレット端末装置180(190)に対応づけられているHMD)の位置姿勢を該HMDから取得して設定する。なお、該設定では、位置姿勢だけでなく、画角など、他のパラメータをも設定して構わない。また、HMD150(160)の位置姿勢や画角などのパラメータをHMD制御装置110(120)が管理するようにしても良く、その場合、制御部590は、HMD150(160)の位置姿勢や画角などのパラメータをHMD制御装置110(120)から取得することになる。
<Step S663>
The generation unit 535 first builds a virtual space using the “scene data 131 acquired (downloaded) from the scene data management server 130 by the acquisition unit 532 in step S640” ”. Next, the generation unit 535 generates an image of the virtual space viewed from the local viewpoint. Note that the control unit 590 determines the position / orientation of the HMD (HMD associated with the tablet terminal device 180 (190)) immediately before switching to the VR mode as the position / orientation of the local viewpoint immediately after switching to the VR mode. Set from the HMD. In this setting, not only the position and orientation but also other parameters such as the angle of view may be set. Further, the HMD controller 110 (120) may manage parameters such as the position and orientation of the HMD 150 (160) and the angle of view. In that case, the control unit 590 controls the position and orientation and the angle of view of the HMD 150 (160). The parameters such as are acquired from the HMD control device 110 (120).

<ステップS664>
生成部535は、ステップS663で生成した仮想空間の映像を、表示部536に表示する。
<Step S664>
The generation unit 535 displays the image of the virtual space generated in step S663 on the display unit 536.

<ステップS662>
入力部537は、ユーザが行ったローカル視点の位置姿勢の変更操作(例えば表示部536の画面上のドラッグ、ズームイン・アウト等の操作)に応じて、ローカル視点の位置姿勢を変更する。然るにその後、ステップS663では、この変更後の位置姿勢に応じた仮想空間の映像が生成され、ステップS664では、変更後の位置姿勢に応じた仮想空間の映像が表示部536に表示されることになる。
<Step S662>
The input unit 537 changes the position / orientation of the local viewpoint in response to a change operation of the position / orientation of the local viewpoint performed by the user (for example, an operation such as dragging on the screen of the display unit 536 or zooming in / out). However, after that, in step S663, an image of the virtual space according to the changed position and orientation is generated, and in step S664, an image of the virtual space according to the changed position and orientation is displayed on the display unit 536. Become.

例えば、MRモードが設定されているタブレット端末装置において、図3(a)に示す如く、表示部536に、マーカ311を含む現実空間の映像と、仮想物体312を含む仮想空間の映像と、を合成した複合現実空間の映像が表示されているとする。このとき、タブレット端末装置の動作モードをVRモードに切り替えると、直後のステップS664では、図3(b)に示す如く、図3(a)と同じ視点位置姿勢を有するローカル視点から見た仮想物体312の映像が表示部536に表示される。ここで、VRモードでは、現実空間の映像が重畳表示されていないことに注意されたい。そして、VRモードが設定されているタブレット端末装置においては、ユーザはローカル視点の位置姿勢の変更操作を行うことができ、ユーザがローカル視点の位置姿勢の変更操作を行うと、該変更操作に応じてローカル視点の位置姿勢が変更され、該変更後の位置姿勢を有するローカル視点に基づく仮想物体の映像が表示部536に表示されることになり、対応するHMDの位置姿勢の変化に関係なく、タブレット端末装置側で独自に視点の位置姿勢を変更して仮想物体の映像を表示部536上で閲覧することができる。   For example, in the tablet terminal device in which the MR mode is set, as shown in FIG. 3A, the display unit 536 displays an image of the real space including the marker 311 and an image of the virtual space including the virtual object 312. It is assumed that an image of the mixed mixed reality space is displayed. At this time, when the operation mode of the tablet terminal device is switched to the VR mode, in step S664 immediately after that, as shown in FIG. 3B, the virtual object viewed from the local viewpoint having the same viewpoint position and orientation as in FIG. The image of 312 is displayed on the display unit 536. Here, it should be noted that in the VR mode, the image in the real space is not superimposed and displayed. Then, in the tablet terminal device in which the VR mode is set, the user can perform an operation of changing the position / orientation of the local viewpoint, and when the user performs an operation of changing the position / orientation of the local viewpoint, the user operates in response to the change operation. The position / orientation of the local viewpoint is changed, and the image of the virtual object based on the local viewpoint having the changed position / orientation is displayed on the display unit 536, regardless of the change in the position / orientation of the corresponding HMD. It is possible to browse the image of the virtual object on the display unit 536 by changing the position and orientation of the viewpoint independently on the tablet terminal device side.

<ステップS665>
取得部538は、ユーザが表示部536の表示画面上で指示した位置(例えばタップした位置)に表示されている仮想部品(仮想物体を構成する仮想部品)を特定する。該特定のための処理には様々な処理が考えられ、特定の方法に限るものではない。例えば、仮想スクリーン(ローカル視点の位置からローカル視点の視線方向に規定距離だけ離間した位置に、視線方向を法線方向とした面として設けられるもので、世界座標系におけるその位置姿勢はローカル視点の位置姿勢から求めることができる。また、仮想スクリーンのサイズ(幅、高さ)や、上記の「規定距離」は、表示部536の画面サイズ、視野角、等に基づいて設定される。)上の各位置は3次元座標で表され、且つ表示部536の表示画面上における各位置と仮想スクリーン上の各位置とは1対1で対応しているため、先ずは、表示部536の表示画面上における指示位置に対応する仮想スクリーン上の位置(3次元座標)を特定する。そして、該特定した位置とローカル視点の位置とを通る直線と仮想物体との交点を求める処理を行い、交点がなければ、指示位置には仮想部品は表示されていないことになり、交点があれば、そのうちもっともローカル視点の位置に近い交点を特定し、該特定した交点を含む仮想部品を「ユーザが指定した部品」として特定する。
<Step S665>
The acquisition unit 538 identifies a virtual part (a virtual part forming a virtual object) displayed at a position (for example, a tapped position) designated by the user on the display screen of the display unit 536. Various kinds of processing can be considered as the processing for the identification, and the processing is not limited to the specific method. For example, a virtual screen (which is provided as a surface whose normal direction is the line-of-sight direction) at a position separated from the position of the local viewpoint by a specified distance in the line-of-sight direction of the local viewpoint. It can be obtained from the position and orientation, and the size (width, height) of the virtual screen and the above “specified distance” are set based on the screen size of the display unit 536, the viewing angle, and the like. Each position of 3 is represented by three-dimensional coordinates, and each position on the display screen of the display unit 536 has a one-to-one correspondence with each position on the virtual screen. Therefore, first, the display screen of the display unit 536 is displayed. A position (three-dimensional coordinate) on the virtual screen corresponding to the designated position on the upper side is specified. Then, a process of obtaining an intersection of a virtual object and a straight line passing through the specified position and the position of the local viewpoint is performed. If there is no intersection, the virtual part is not displayed at the designated position, and the intersection is present. For example, the intersection point closest to the position of the local viewpoint is specified, and the virtual part including the specified intersection point is specified as the "part specified by the user".

そして取得部538は、「ユーザが指定した部品」として特定した仮想部品に固有の識別情報(例えば、仮想部品に固有のID)を、ステップS640において取得部532が取得したシーンデータ131から取得する。なお、仮想空間中に複数の仮想物体が存在する場合、この識別情報は、「ユーザが指定した部品」として特定した仮想部品及び該仮想部品が属する仮想物体を一意に特定するため情報、となる。   Then, the acquisition unit 538 acquires, from the scene data 131 acquired by the acquisition unit 532 in step S640, identification information unique to the virtual component identified as the “user-specified component” (for example, an ID unique to the virtual component). .. When there are a plurality of virtual objects in the virtual space, this identification information is information for uniquely specifying the virtual part specified as the "part specified by the user" and the virtual object to which the virtual part belongs. ..

<ステップS666>
送信部539は、ステップS665において取得部538がシーンデータ131から取得した、「ユーザが指定した部品」である仮想部品の識別情報を、シーンデータ管理サーバ130に対して送信する。
<Step S666>
The transmission unit 539 transmits to the scene data management server 130 the identification information of the virtual part, which is the “part specified by the user”, which is acquired from the scene data 131 by the acquisition unit 538 in step S665.

<ステップS667>
制御部590は、タブレット端末装置180(190)の動作モードをVRモードからMRモードに切り替える。タブレット端末装置180(190)の動作モードがMRモードに切り替わったことに応じて、映像受信部534は、映像送信部528から送信された複合現実空間の映像の受信動作を再開する。
<Step S667>
The control unit 590 switches the operation mode of the tablet terminal device 180 (190) from the VR mode to the MR mode. In response to the switching of the operation mode of the tablet terminal device 180 (190) to the MR mode, the video reception unit 534 restarts the reception operation of the video of the mixed reality space transmitted from the video transmission unit 528.

<ステップS611>
受信部513は、ステップS666において送信部539が送信した識別情報を受信する。
<Step S611>
The receiving unit 513 receives the identification information transmitted by the transmitting unit 539 in step S666.

<ステップS614>
変更部514は、ステップS611で受信部513が受信した識別情報に対応する仮想部品が他の仮想部品とは識別可能に視認されるように、シーンデータ131において該識別情報に対応する仮想部品のデータを加工する。例えば、識別情報に対応する仮想部品が強調表示されるように、該仮想部品の色を他の仮想部品の色とは異なる色に変更する。
<Step S614>
The changing unit 514 recognizes the virtual part corresponding to the identification information in the scene data 131 so that the virtual part corresponding to the identification information received by the receiving unit 513 in step S611 can be visually recognized so as to be distinguishable from other virtual parts. Process the data. For example, the color of the virtual part is changed to a color different from the colors of other virtual parts so that the virtual part corresponding to the identification information is highlighted.

<ステップS615>
共有部515は、シーンデータ131を、HMD150(160)やタブレット端末装置180(190)に対して送信する。
<Step S615>
The sharing unit 515 transmits the scene data 131 to the HMD 150 (160) or the tablet terminal device 180 (190).

例えば、図3(b)に示す如く、タブレット端末装置の表示画面に仮想物体312が表示されている状態で、ユーザがヘッドライト部分をタップしたとすると、上記の処理により、このタップした仮想部品であるヘッドライトが他の仮想部品とは識別可能に視認されるように該ヘッドライトのデータが更新されるので、図3(c)に示す如く、ヘッドライト部分333が強調表示されている。カーソル334はタップ位置に表示されている。そしてMRモードに移行後、図3(d)に示す如く、複合現実空間の映像においてヘッドライト部分333が強調表示されている。このように、ヘッドライト部分333が強調表示されるように、全てのタブレット端末装置で共通に用いるシーンデータ131を更新するので、ヘッドライト部分333の強調表示は、HMD、タブレット端末装置の全てにおいて観察される複合現実空間の映像に反映されることになる。   For example, as shown in FIG. 3B, when the user taps the headlight portion while the virtual object 312 is displayed on the display screen of the tablet terminal device, the tapped virtual part is processed by the above process. Since the data of the headlight is updated so that the headlight can be visually recognized so as to be distinguishable from other virtual parts, the headlight portion 333 is highlighted as shown in FIG. 3C. The cursor 334 is displayed at the tap position. After switching to the MR mode, the headlight portion 333 is highlighted in the mixed reality space image as shown in FIG. In this way, since the scene data 131 commonly used by all the tablet terminal devices is updated so that the headlight portion 333 is highlighted, the highlighting of the headlight portion 333 is performed by the HMD and the tablet terminal device. It will be reflected in the video of the observed mixed reality space.

なお、図6のフローチャートに従った処理では、図3(d)に示す如く、このような強調表示はMRモードにおいて行われることになるが、図3(c)のように、VRモードにおいて強調表示を行うようにしても構わない。   In the process according to the flowchart of FIG. 6, such highlighting is performed in the MR mode as shown in FIG. 3D, but as shown in FIG. 3C, the highlighting is performed in the VR mode. The display may be performed.

なお、本実施形態において用いたHMDの代わりに、タブレット等の情報端末装置を用いても良いし、固定位置に備え付けられたカメラを用いても構わない。   An information terminal device such as a tablet may be used instead of the HMD used in the present embodiment, or a camera installed at a fixed position may be used.

このように、本実施形態によれば、HMDとタブレット端末装置とで複合現実空間の映像を共有するシステムにおいて、タブレット端末装置側で独自に視点を設定して仮想物体を観察したり、タブレット端末装置側で仮想部品を指定し、該指定した仮想部品を他の複合現実空間の観察者に提示することができ、複数人が参加する上記のシステムを利用した協調作業を促進できる。   As described above, according to the present embodiment, in the system in which the video in the mixed reality space is shared between the HMD and the tablet terminal device, the tablet terminal device side independently sets the viewpoint to observe the virtual object and the tablet terminal device. A virtual part can be designated on the device side, and the designated virtual part can be presented to an observer in another mixed reality space, and a collaborative work using the above system in which a plurality of people participate can be promoted.

なお、HMDが行うものとして説明した処理の一部、例えば、仮想空間の映像の生成や、複合現実空間の映像の生成は、HMD制御装置が行うようにしても構わない。このように、1つの装置が行うものとして説明した処理の一部を、他の装置に行わせるようにしても構わない。一般に、どの処理をどの装置に行わせるのか、どれだけの数の装置を使用するのか、といったシステム設計については、図5に示した構成に限るものではなく、第1の実施形態で説明したような処理と同等以上の処理が実現できるのであれば、様々な構成が考えられる。これは第2以降の実施形態についても同様である。   Note that the HMD control device may perform part of the processing described as being performed by the HMD, for example, generation of a virtual space image or generation of a mixed reality space image. In this way, a part of the processing described as being performed by one device may be performed by another device. In general, the system design such as which processing is to be performed by which apparatus and how many apparatuses are used is not limited to the configuration shown in FIG. 5, but as described in the first embodiment. Various configurations are conceivable as long as the processing equal to or higher than the above processing can be realized. This also applies to the second and subsequent embodiments.

<変形例1>
第1の実施形態では、VRモードではローカル視点の位置姿勢を変更することで、仮想物体を様々な角度から観察可能にしていたが、同様の効果を得るために、VRモードに移行しても視点の位置姿勢は固定して(VRモードに移行する直前のHMDの位置姿勢のまま)、仮想物体そのものを移動、回転させても構わない。このとき、タブレット端末装置は、シーンデータ管理サーバ130からダウンロードしたシーンデータを用いて仮想空間を構成した後、該シーンデータによって規定されている仮想物体の位置姿勢を変更することで、仮想物体の移動や回転を実現させても構わない。
<Modification 1>
In the first embodiment, in the VR mode, the virtual object can be observed from various angles by changing the position and orientation of the local viewpoint, but even if the mode is changed to the VR mode in order to obtain the same effect. The position and orientation of the viewpoint may be fixed (the position and orientation of the HMD immediately before shifting to the VR mode), and the virtual object itself may be moved or rotated. At this time, the tablet terminal device configures a virtual space by using the scene data downloaded from the scene data management server 130, and then changes the position and orientation of the virtual object defined by the scene data to generate the virtual object. Movement and rotation may be realized.

<変形例2>
[第2の実施形態]
本実施形態では、タブレット端末装置側でMRモードからVRモードに切り替えると、VRモードに切り替え前にHMDから受信した複合現実空間の映像(静止画像)を用いて、仮想部品を指定する。以下では、第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。
<Modification 2>
[Second Embodiment]
In the present embodiment, when the tablet terminal device switches from the MR mode to the VR mode, the virtual part is designated using the video (still image) of the mixed reality space received from the HMD before switching to the VR mode. Hereinafter, the difference from the first embodiment will be mainly described, and unless otherwise stated below, it is the same as that of the first embodiment.

すなわち、本実施形態に係るシステムは、画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムの一例である。このようなシステムにおいては、画像表示装置は、第1のモードが設定されている場合には、表示装置から複合現実空間の映像を取得して表示し、該第1のモードから第2のモードに切り替わると、該切り替えの前に表示装置から取得した複合現実空間の映像を表示し、第2のモードにおいて表示されている複合現実空間の映像上のユーザによる指示位置を取得して保持装置に対して送信する。一方、保持装置は、指示位置を受信し、仮想物体を構成するパーツのうち指示位置に対応するパーツを特定し、該特定したパーツのデータを更新する。   That is, the system according to the present embodiment includes an image display device, a holding device that holds data of a virtual object, and a display device that displays an image of a mixed reality space including an image of the virtual object based on the data. It is an example of a system. In such a system, the image display device acquires the image of the mixed reality space from the display device and displays it when the first mode is set, and the image display device displays the image from the first mode to the second mode. When the display is switched to, the video of the mixed reality space acquired from the display device is displayed before the switching, and the position designated by the user on the video of the mixed reality space displayed in the second mode is acquired and stored in the holding device. To send. On the other hand, the holding device receives the designated position, identifies the part corresponding to the designated position among the parts forming the virtual object, and updates the data of the identified part.

先ず、仮想部品の指定について、図7を用いて説明する。タブレット端末装置は、HMDから受信した最新フレームの複合現実空間の映像を保持しておき、VRモードに切り替わると、図7(a)に示す如く、この時点で保持している複合現実空間の映像(該切り替え前にHMDから受信した複合現実空間の映像)を表示する。本実施形態においても、VRモードでは、HMDからの複合現実空間の映像の受信は停止する。ユーザは、タブレット端末装置の表示画面上で、該表示画面に表示されている複合現実空間の映像(静止画像)に対する拡大操作、縮小操作、平行移動操作(ドラッグ)を行うことで、表示画面に表示されている複合現実空間の映像を拡大したり、縮小したり、平行移動させたりすることができる。図7(b)では、HMDから受信した複合現実空間の映像の一部を拡大したものが表示されている。そして図7(b)に示す如く、ユーザが表示画面上で所望の仮想部品723をタップすると(タップ位置にはカーソル722が表示される)、以降は第1の実施形態と同様に、このタップされた仮想部品723が図7(c)に示す如く、強調表示される。   First, designation of virtual parts will be described with reference to FIG. The tablet terminal device holds the image of the latest frame of the mixed reality space received from the HMD, and when switched to the VR mode, as shown in FIG. 7A, the image of the mixed reality space held at this point is held. (Video of the mixed reality space received from the HMD before the switching) is displayed. Also in the present embodiment, in the VR mode, the reception of the video of the mixed reality space from the HMD is stopped. On the display screen of the tablet terminal device, the user performs an enlarging operation, a reducing operation, and a parallel moving operation (drag) on the video (still image) in the mixed reality space displayed on the display screen to display the image on the display screen. The displayed image of the mixed reality space can be enlarged, reduced, or moved in parallel. In FIG. 7B, a partially enlarged image of the mixed reality space image received from the HMD is displayed. Then, as shown in FIG. 7B, when the user taps a desired virtual part 723 on the display screen (a cursor 722 is displayed at the tap position), the tap is performed thereafter as in the first embodiment. The virtual component 723 thus created is highlighted as shown in FIG.

次に、本実施形態に係るシステムの機能構成例を図8に示す。また、このようなシステムの各機能部によって行われる各処理について、図9のフローチャートに従って説明する。   Next, FIG. 8 shows a functional configuration example of the system according to the present embodiment. Further, each process performed by each functional unit of such a system will be described with reference to the flowchart of FIG.

なお、ステップS921〜S930の各ステップにおける処理はそれぞれ、上記のステップS621〜S630と同様であるため、これらのステップに係る説明は省略する。また、ステップS951〜S960、S967の各ステップにおける処理はそれぞれ、上記のステップS651〜S660、S667と同様であるため、これらのステップに係る説明は省略する。   The processes in steps S921 to S930 are the same as those in steps S621 to S630, and therefore the description of these steps will be omitted. Further, the processing in each step of steps S951 to S960 and S967 is the same as the above-mentioned steps S651 to S660 and S667, respectively, and therefore the description of these steps will be omitted.

<ステップS961>
入力部537が、ユーザが表示画面に表示されている複合現実空間の映像の拡大、縮小、平行移動などの操作入力(表示画面上のジェスチャー入力、例えばピンチイン・アウト操作)を行ったことを示す入力イベントを検知した場合には、処理はステップS962に進み、ユーザが表示部536に表示されている仮想物体の一部(部品)を指定するための操作入力を行ったことを示す入力イベントを検知した場合には、処理はステップS965に進み、何等入力イベントを検知していない場合には、処理はステップS964に進む。
<Step S961>
The input unit 537 indicates that the user has performed an operation input (a gesture input on the display screen, for example, a pinch-in / out operation) such as enlarging, reducing, or translating the image of the mixed reality space displayed on the display screen. If an input event is detected, the process proceeds to step S962, and an input event indicating that the user has performed an operation input for designating a part (part) of the virtual object displayed on the display unit 536. If so, the process proceeds to step S965. If no input event is detected, the process proceeds to step S964.

<ステップS962>
生成部535は、ユーザが行った、複合現実空間の映像の拡大、縮小、平行移動などの操作(例えば表示部536の画面上のドラッグ、ズームイン・アウト等の操作)に応じて、表示部536の表示画面上に表示されている複合現実空間の映像の拡大、縮小、平行移動を行う。
<Step S962>
The generation unit 535 displays the display unit 536 in accordance with the user's operation such as enlargement, reduction, or parallel movement of the image of the mixed reality space (eg, dragging on the screen of the display unit 536, zooming in / out, or the like). The image of the mixed reality space displayed on the display screen is enlarged, reduced, or moved in parallel.

<ステップS964>
生成部535は、複合現実空間の映像を、表示部536に表示する。VRモードに移行直後のステップS964では、VRモードに移行する直前に映像受信部534がHMDから受信した複合現実空間の映像(静止画像)を表示部536に表示する。
<Step S964>
The generation unit 535 displays the video of the mixed reality space on the display unit 536. In step S964 immediately after shifting to the VR mode, the image (still image) of the mixed reality space received by the image receiving unit 534 from the HMD immediately before shifting to the VR mode is displayed on the display unit 536.

<ステップS965>
取得部538は、ユーザが表示部536の表示画面上で指示した位置(例えばタップした位置)を取得する。
<Step S965>
The acquisition unit 538 acquires a position (for example, a tapped position) designated by the user on the display screen of the display unit 536.

<ステップS966>
送信部539は、ステップS965で取得部538が取得した指示位置をシーンデータ管理サーバ130に対して送信する。
<Step S966>
The transmission unit 539 transmits the designated position acquired by the acquisition unit 538 in step S965 to the scene data management server 130.

<ステップS911>
受信部513は、ステップS966において送信部539が送信した指示位置を受信する。
<Step S911>
The receiving unit 513 receives the designated position transmitted by the transmitting unit 539 in step S966.

<ステップS912>
特定部817は、ステップS911で受信部513が受信した指示位置に表示されている仮想部品(仮想物体を構成する仮想部品)を特定する。該特定のための処理には様々な処理が考えられ、特定の方法に限るものではない。一例としては、図4に示す方法が考えられる。
<Step S912>
The identifying unit 817 identifies the virtual component (virtual component forming the virtual object) displayed at the designated position received by the receiving unit 513 in step S911. Various kinds of processing can be considered as the processing for the identification, and the processing is not limited to the specific method. As an example, the method shown in FIG. 4 can be considered.

例えば、タブレット端末装置の画面450上でユーザが仮想物体451のヘッドライト部分を指示すべくタップし、その位置452がI(Iu、Iv)であるとする。この位置452は、画面450の左上隅の位置を原点(0,0)とし、水平方向にu軸、垂直方向にv軸を規定する座標系I(u,v)におけるものである。   For example, it is assumed that the user taps on the screen 450 of the tablet terminal device to point to the headlight portion of the virtual object 451, and the position 452 is I (Iu, Iv). The position 452 is in a coordinate system I (u, v) that defines the u-axis in the horizontal direction and the v-axis in the vertical direction with the origin (0,0) at the upper left corner of the screen 450.

次に、ユーザ440の頭部に装着されたHMDの視点441の位置V(Vx,Vy,Vz)から視点441の視線方向θ(α、β、γ)に規定距離だけ離間した位置に、視線方向を法線方向とした面として設けられる仮想スクリーン430において、位置452に対応する位置431を求める。ここで、位置V(Vx,Vy,Vz)は、世界座標系におけるx座標、y座標、z座標を表し、視線方向θ(α、β、γ)は、x軸、y軸、z軸のそれぞれの軸周りの回転角度を表す。なお、視点方向を表現する方法はこれ以外の方法も考え得る。   Next, the line of sight is separated from the position V (Vx, Vy, Vz) of the viewpoint 441 of the HMD mounted on the head of the user 440 by a specified distance in the direction of the line of sight θ (α, β, γ) of the viewpoint 441. The position 431 corresponding to the position 452 is obtained on the virtual screen 430 provided as a surface whose direction is the normal direction. Here, the position V (Vx, Vy, Vz) represents the x coordinate, the y coordinate, and the z coordinate in the world coordinate system, and the line-of-sight direction θ (α, β, γ) is the x axis, the y axis, and the z axis. Indicates the rotation angle around each axis. A method other than this can be considered as a method of expressing the viewpoint direction.

世界座標系における仮想スクリーン430の位置姿勢は視点441の位置姿勢V,θから求めることができる。また、仮想スクリーン430のサイズ(幅、高さ)や、上記の「規定距離」は、撮影部522による撮像映像サイズ、表示部536の画面サイズ、視野角、等に基づいて設定される。   The position and orientation of the virtual screen 430 in the world coordinate system can be obtained from the position and orientation V, θ of the viewpoint 441. Further, the size (width, height) of the virtual screen 430 and the above “specified distance” are set based on the image size of the image captured by the imaging unit 522, the screen size of the display unit 536, the viewing angle, and the like.

ここで、タブレット端末装置の画面450上に表示されている複合現実空間の映像に対して拡大、縮小、平行移動の何れも行っていない状態(例えば、VRモードに切り替え直後の状態)では、例えば仮想スクリーン430の縦横サイズがH×W(画素)、画面450の縦横サイズがh×w(画素)である場合、画面450上の位置452I(Iu、Iv)に対応する位置431I’(Iu’、Iv’)は、Iv’=H/h×Iv、Iu’=W/w×Iuとして一意に特定することができる。ここで、位置431I’(Iu’、Iv’)は、仮想スクリーン座標系(仮想スクリーン430の左上隅の位置を原点(0,0)とし、水平方向にu’軸、垂直方向にv’軸を規定する座標系I’(u’、v’))におけるものである。   Here, in a state in which any of the images in the mixed reality space displayed on the screen 450 of the tablet terminal device is not enlarged, reduced, or moved in parallel (for example, a state immediately after switching to the VR mode), for example, If the vertical and horizontal size of the virtual screen 430 is H × W (pixels) and the vertical and horizontal size of the screen 450 is h × w (pixels), the position 431I ′ (Iu ′) corresponding to the position 452I (Iu, Iv) on the screen 450 is displayed. , Iv ′) can be uniquely specified as Iv ′ = H / h × Iv and Iu ′ = W / w × Iu. Here, the position 431I ′ (Iu ′, Iv ′) is the virtual screen coordinate system (the position of the upper left corner of the virtual screen 430 is the origin (0, 0), the u ′ axis is in the horizontal direction, and the v ′ axis is in the vertical direction. In a coordinate system I '(u', v ')) that defines

一方、タブレット端末装置の画面450上に表示されている複合現実空間の映像に対して拡大、縮小、平行移動を行った場合、画面450に表示されるものは、仮想スクリーン430において、拡大/縮小に応じたサイズを有し且つ平行移動操作によって平行移動したウィンドウ内の映像(実際にはこの映像に現実空間の映像が重畳されている)であるため、上記のように、位置452に対応するウィンドウ内の位置を特定することができる。   On the other hand, when the image of the mixed reality space displayed on the screen 450 of the tablet terminal device is enlarged, reduced, or moved in parallel, what is displayed on the screen 450 is enlarged or reduced on the virtual screen 430. Since it is an image in a window that has a size corresponding to and is translated by a translation operation (actually, an image in the real space is superimposed on this image), it corresponds to the position 452 as described above. The position in the window can be specified.

例えば、仮想スクリーン430の縦横サイズがH×W(画素)、画面450の縦横サイズがh×w(画素)、画面450において、オリジナルの複合現実空間の映像(VRモードに移行時に画面450に表示した複合現実空間の映像)に対して行った拡大/縮小の割合(拡大/縮小率)をR(0<R)、仮想スクリーン430上のウィンドウの左上隅の位置を(a、b)、画面450上の位置452を(p、q)とすると、位置431(x、y)は以下の式に基づいて求めることができる。   For example, the vertical / horizontal size of the virtual screen 430 is H × W (pixels), the vertical / horizontal size of the screen 450 is h × w (pixels), and in the screen 450, an image of the original mixed reality space (displayed on the screen 450 when shifting to the VR mode). The ratio (enlargement / reduction ratio) of the enlargement / reduction performed on the image of the mixed reality space (R) (0 <R), the position of the upper left corner of the window on the virtual screen 430 (a, b), the screen If the position 452 on 450 is (p, q), the position 431 (x, y) can be calculated based on the following formula.

x=a+W×p/(w×R)
y=b+H×q/(h×R)
このように、複合現実空間の映像に対して拡大、縮小、平行移動操作を行ったとしても、仮想スクリーン430上の位置とタブレット端末装置の画面450上の位置とは1対1で対応しているため、位置452に対応する仮想スクリーン430上の位置431は一意に求めることができる。すなわち、位置452に対応する位置431の仮想スクリーン座標系における2次元座標I’(Iu’、Iv’)は一意に求めることができる。
x = a + W × p / (w × R)
y = b + H × q / (h × R)
In this way, even if the image in the mixed reality space is enlarged, reduced, or moved in parallel, the position on the virtual screen 430 and the position on the screen 450 of the tablet terminal device are in one-to-one correspondence. Therefore, the position 431 on the virtual screen 430 corresponding to the position 452 can be uniquely obtained. That is, the two-dimensional coordinates I ′ (Iu ′, Iv ′) in the virtual screen coordinate system of the position 431 corresponding to the position 452 can be uniquely obtained.

また、仮想スクリーン430上の各位置は3次元座標でも表されることから、位置431の世界座標系における3次元座標S(Sx,Sy,Sz)と、視点441の位置V(Vx,Vy,Vz)と、を通る直線と仮想物体420との交点を求め、求めた交点のうち視点441の位置V(Vx,Vy,Vz)に最も近い交点421の3次元座標P(Px,Py,Pz)を、「ユーザが画面450上で指定した位置452に対応する、仮想物体420上の位置」として特定することができる。   Further, since each position on the virtual screen 430 is also represented by three-dimensional coordinates, the three-dimensional coordinates S (Sx, Sy, Sz) of the position 431 in the world coordinate system and the position V (Vx, Vy, of the viewpoint 441). Vz), the intersection of a straight line passing through and the virtual object 420 is obtained, and the three-dimensional coordinates P (Px, Py, Pz of the intersection 421 that is closest to the position V (Vx, Vy, Vz) of the viewpoint 441 among the obtained intersections. ) Can be specified as “the position on the virtual object 420 corresponding to the position 452 specified by the user on the screen 450”.

<ステップS914>
変更部514は、ステップS912で特定した仮想部品(特定仮想部品)が他の仮想部品とは識別可能に視認されるように、シーンデータ131において該特定仮想部品のデータを加工する。例えば、ステップS912で特定した仮想部品が強調表示されるように、該仮想部品の色を他の仮想部品の色とは異なる色に変更する。
<Step S914>
The changing unit 514 processes the data of the specific virtual part in the scene data 131 so that the virtual part (specific virtual part) specified in step S912 can be visually recognized so as to be distinguishable from other virtual parts. For example, the color of the virtual part is changed to a color different from the colors of other virtual parts so that the virtual part specified in step S912 is highlighted.

<ステップS915>
共有部515は、シーンデータ131を、HMD150(160)に対して送信する。
<Step S915>
The sharing unit 515 transmits the scene data 131 to the HMD 150 (160).

<変形例>
第2の実施形態では、VRモードに移行する直前に映像受信部534がHMDから受信した1枚の静止画像(複合現実空間の映像)を表示部536に表示していたが、VRモードに移行する時点から規定時間前までの間に(若しくは該時点の前後規定時間内で)映像受信部534がHMDから受信した複数枚の静止画像(複合現実空間の映像)、若しくはそのうちユーザが入力部537を用いて選択した静止画像を表示部536に表示するようにしても構わない。
<Modification>
In the second embodiment, one still image (video in mixed reality space) received by the video receiving unit 534 from the HMD was displayed on the display unit 536 immediately before switching to the VR mode, but switching to the VR mode. From the time point to the specified time (or within the specified time before and after that time), the plurality of still images (videos in the mixed reality space) received by the video receiving unit 534 from the HMD, or among them, the input unit 537 by the user. The still image selected by using may be displayed on the display unit 536.

[第3の実施形態]
第1の実施形態で説明したように、幾つかの装置を統合しても構わない。例えば、図10に示す如く、HMD150(160)とシーンデータ管理サーバ130とを統合して1つのHMD150(160)としても構わない。もちろん、図10においてHMD150(160)の構成としたものを、HMD150(160)とHMD制御装置110,120とによる構成としても構わない。これは第1の実施形態でも触れたとおりである。
[Third Embodiment]
As described in the first embodiment, some devices may be integrated. For example, as shown in FIG. 10, the HMD 150 (160) and the scene data management server 130 may be integrated into one HMD 150 (160). Of course, the configuration of the HMD 150 (160) in FIG. 10 may be configured by the HMD 150 (160) and the HMD control devices 110 and 120. This is as described in the first embodiment.

[第4の実施形態]
図5,8,10に示したそれぞれの機能部は全てハードウェアで構成しても構わないが、一部をソフトウェアで構成しても構わない。例えば、図5のシーンデータ管理サーバ130の場合、受信部513、共有部515、変更部514(図8の場合はこれに加えて特定部817)をコンピュータプログラムで実装しても構わない。この場合、このコンピュータプログラムはシーンデータ管理サーバ130のメモリ内に格納され、シーンデータ管理サーバ130のCPUが該コンピュータプログラムを実行することになる。また例えば、図5のHMD150(160)の場合、取得部526、取得部524、映像合成部525、映像送信部528をコンピュータプログラムで実装しても構わない。この場合、このコンピュータプログラムはHMD150(160)のメモリ内に格納され、HMD150(160)のCPUが該コンピュータプログラムを実行することになる。また例えば、図5のタブレット端末装置180(190)の場合、映像受信部534、生成部535、取得部538、送信部539、取得部532をコンピュータプログラムで実装しても構わない。この場合、このコンピュータプログラムはタブレット端末装置180(190)のメモリ内に格納され、タブレット端末装置180(190)のCPUが該コンピュータプログラムを実行することになる。
[Fourth Embodiment]
Each of the functional units shown in FIGS. 5, 8 and 10 may be entirely configured by hardware, but a part may be configured by software. For example, in the case of the scene data management server 130 of FIG. 5, the receiving unit 513, the sharing unit 515, and the changing unit 514 (in addition to this in the case of FIG. 8, the specifying unit 817) may be implemented by a computer program. In this case, this computer program is stored in the memory of the scene data management server 130, and the CPU of the scene data management server 130 executes the computer program. In addition, for example, in the case of the HMD 150 (160) of FIG. 5, the acquisition unit 526, the acquisition unit 524, the video composition unit 525, and the video transmission unit 528 may be implemented by a computer program. In this case, this computer program is stored in the memory of the HMD 150 (160), and the CPU of the HMD 150 (160) executes the computer program. Further, for example, in the case of the tablet terminal device 180 (190) in FIG. 5, the video reception unit 534, the generation unit 535, the acquisition unit 538, the transmission unit 539, and the acquisition unit 532 may be implemented by a computer program. In this case, this computer program is stored in the memory of the tablet terminal device 180 (190), and the CPU of the tablet terminal device 180 (190) executes the computer program.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

150,160:HMD 130:シーンデータ管理サーバ 180,190:タブレット端末装置   150, 160: HMD 130: Scene data management server 180, 190: Tablet terminal device

本発明の一様態は、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、に接続された画像表示装置であって、
表示手段と、
第1のモードが設定されている場合には第1の処理を行い、該第1のモードから第2のモードに切り替わると第2の処理を行う表示制御手段と、
前記仮想物体を構成するパーツのうち、前記第2のモードにおいて前記表示手段に表示されている仮想物体に対してユーザが指定した箇所に対応するパーツを特定し、該特定したパーツの情報を、前記保持装置に対して送信する送信手段と
を備え、
前記表示制御手段は前記第1の処理では、
前記表示装置において表示されている複合現実空間の映像を取得して前記表示手段に表示し、
前記表示制御手段は前記第2の処理では、
視点の位置を変更するためのユーザ操作が入力されない限りは、位置が固定された視点および前記データに基づく仮想物体の画像を前記表示手段に表示し、該ユーザ操作が入力されると、該ユーザ操作に応じて変更した位置の視点および前記データに基づく仮想物体の画像を前記表示手段に表示する
ことを特徴とする。
One aspect of the present invention is an image display device connected to a holding device that holds data of a virtual object, and a display device that displays an image of a mixed reality space including an image of a virtual object based on the data. ,
Display means,
Display control means for performing the first processing when the first mode is set and performing the second processing when the first mode is switched to the second mode;
Among the parts forming the virtual object, the part corresponding to the portion designated by the user with respect to the virtual object displayed on the display unit in the second mode is specified, and the information of the specified part is specified. A transmitting means for transmitting to the holding device,
In the first processing, the display control means
Acquiring an image of the mixed reality space displayed on the display device and displaying the image on the display means,
In the second processing, the display control means
Unless a user operation for changing the position of the viewpoint is input, an image of a virtual object based on the viewpoint whose position is fixed and the data is displayed on the display means, and when the user operation is input, the user operates. It is characterized in that an image of a virtual object based on the viewpoint and a position of a position changed according to an operation is displayed on the display means .

Claims (12)

画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムであって、
前記画像表示装置は、
表示手段と、
第1のモードが設定されている場合には、前記表示装置において表示されている複合現実空間の映像を取得して前記表示手段に表示し、該第1のモードから第2のモードに切り替わると、該データを用いて仮想物体の画像を生成して前記表示手段に表示する表示制御手段と、
前記仮想物体を構成するパーツのうち、前記第2のモードにおいて前記表示手段に表示されている仮想物体に対してユーザが指定した箇所に対応するパーツを特定し、該特定したパーツの情報を、前記保持装置に対して送信する送信手段と
を備え、
前記保持装置は、
前記情報を受信する受信手段と、
前記仮想物体を構成するパーツのうち前記情報に対応するパーツを特定し、該特定したパーツのデータを更新する更新手段と
を備えることを特徴とするシステム。
A system having an image display device, a holding device for holding data of a virtual object, and a display device for displaying an image of a mixed reality space including an image of a virtual object based on the data,
The image display device,
Display means,
When the first mode is set, an image of the mixed reality space displayed on the display device is acquired and displayed on the display means, and the first mode is switched to the second mode. Display control means for generating an image of a virtual object using the data and displaying the image on the display means,
Among the parts forming the virtual object, the part corresponding to the portion designated by the user with respect to the virtual object displayed on the display unit in the second mode is specified, and the information of the specified part is specified. A transmitting means for transmitting to the holding device,
The holding device is
Receiving means for receiving the information,
An updating unit that specifies a part corresponding to the information among the parts forming the virtual object and updates the data of the specified part.
前記画像表示装置は、前記仮想物体のデータを、前記保持装置から取得することを特徴とする請求項1に記載の画像表示装置。   The image display device according to claim 1, wherein the image display device acquires the data of the virtual object from the holding device. 前記表示制御手段は、
前記第2のモードに切り替わると、前記第2のモードに切り替わる前の前記表示装置の位置姿勢に基づいて前記仮想物体の画像を生成することを特徴とする請求項1又は2に記載の画像表示装置。
The display control means,
The image display according to claim 1, wherein when the mode is switched to the second mode, the image of the virtual object is generated based on the position and orientation of the display device before the mode is switched to the second mode. apparatus.
前記表示制御手段は、
前記第2のモードにおいて視点の位置姿勢を変更する操作を受けると、該変更後の位置姿勢に基づいて前記仮想物体の画像を生成することを特徴とする請求項1乃至3の何れか1項に記載の画像表示装置。
The display control means,
The image of the virtual object is generated based on the changed position and orientation in response to an operation for changing the position and orientation of the viewpoint in the second mode. The image display device described in 1.
画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムであって、
前記画像表示装置は、
表示手段と、
第1のモードが設定されている場合には、前記表示装置から複合現実空間の映像を取得して前記表示手段に表示し、該第1のモードから第2のモードに切り替わると、該切り替えの前に前記表示装置から取得した複合現実空間の映像を前記表示手段に表示する表示制御手段と、
前記第2のモードにおいて前記表示手段に表示されている複合現実空間の映像上のユーザによる指示位置を取得して前記保持装置に対して送信する送信手段と
を備え、
前記保持装置は、
前記指示位置を受信する受信手段と、
前記仮想物体を構成するパーツのうち前記指示位置に対応するパーツを特定し、該特定したパーツのデータを更新する更新手段と
を備えることを特徴とするシステム。
A system having an image display device, a holding device for holding data of a virtual object, and a display device for displaying an image of a mixed reality space including an image of a virtual object based on the data,
The image display device,
Display means,
When the first mode is set, an image of the mixed reality space is acquired from the display device and displayed on the display unit, and when the first mode is switched to the second mode, the switching Display control means for displaying an image of the mixed reality space previously acquired from the display device on the display means,
Transmission means for acquiring a position designated by the user on the video of the mixed reality space displayed on the display means in the second mode and transmitting the position to the holding device,
The holding device is
Receiving means for receiving the indicated position,
An updating unit that specifies a part corresponding to the designated position among the parts forming the virtual object and updates the data of the specified part.
前記画像表示装置は更に、
前記第2のモードにおいて前記表示手段に表示されている複合現実空間の映像に対する拡大操作、縮小操作、平行移動操作、を入力する手段を備えることを特徴とする請求項5に記載のシステム。
The image display device further includes
The system according to claim 5, further comprising means for inputting an enlarging operation, a reducing operation, and a parallel moving operation with respect to the image of the mixed reality space displayed on the display means in the second mode.
前記更新手段は、
前記表示装置の位置姿勢と、前記指示位置と、を用いて、前記仮想物体を構成するパーツのうち前記指示位置に対応するパーツを特定することを特徴とする請求項5又は6に記載のシステム。
The updating means is
7. The system according to claim 5, wherein the position and orientation of the display device and the designated position are used to identify a part corresponding to the designated position among the parts forming the virtual object. ..
前記更新手段は、
前記特定したパーツが強調表示されるように、該パーツのデータを更新することを特徴とする請求項1乃至7の何れか1項に記載のシステム。
The updating means is
The system according to any one of claims 1 to 7, wherein data of the specified part is updated so that the specified part is highlighted.
前記システムは、前記画像表示装置及び前記表示装置のうち少なくとも一方を複数、有していることを特徴とする請求項1乃至8の何れか1項に記載のシステム。   9. The system according to claim 1, wherein the system includes a plurality of at least one of the image display device and the display device. 前記表示装置は頭部装着型表示装置であることを特徴とする請求項1乃至9の何れか1項に記載のシステム。   10. The system according to any one of claims 1 to 9, wherein the display device is a head-mounted display device. 画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムの制御方法であって、
前記画像表示装置が、
第1のモードが設定されている場合には、前記表示装置において表示されている複合現実空間の映像を取得して前記画像表示装置の表示手段に表示し、該第1のモードから第2のモードに切り替わると、該データを用いて仮想物体の画像を生成して前記表示手段に表示し、
前記仮想物体を構成するパーツのうち、前記第2のモードにおいて前記表示手段に表示されている仮想物体に対してユーザが指定した箇所に対応するパーツを特定し、該特定したパーツの情報を、前記保持装置に対して送信し
前記保持装置が、
前記情報を受信し、
前記仮想物体を構成するパーツのうち前記情報に対応するパーツを特定し、該特定したパーツのデータを更新する
ことを特徴とするシステムの制御方法。
A control method for a system, comprising: an image display device, a holding device for holding data of a virtual object, and a display device for displaying an image of a mixed reality space including an image of a virtual object based on the data,
The image display device,
When the first mode is set, the image of the mixed reality space displayed on the display device is acquired and displayed on the display unit of the image display device, and the second mode is changed from the first mode. When switched to the mode, an image of the virtual object is generated using the data and displayed on the display means,
Among the parts forming the virtual object, the part corresponding to the portion designated by the user with respect to the virtual object displayed on the display unit in the second mode is specified, and the information of the specified part is specified. The holding device transmits to the holding device,
Receiving the information,
A method of controlling a system, characterized in that a part corresponding to the information is specified from among parts forming the virtual object, and data of the specified part is updated.
画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムの制御方法であって、
前記画像表示装置が、
第1のモードが設定されている場合には、前記表示装置から複合現実空間の映像を取得して前記画像表示装置の表示手段に表示し、該第1のモードから第2のモードに切り替わると、該切り替えの前に前記表示装置から取得した複合現実空間の映像を前記表示手段に表示し、
前記第2のモードにおいて前記表示手段に表示されている複合現実空間の映像上のユーザによる指示位置を取得して前記保持装置に対して送信し、
前記保持装置が、
前記指示位置を受信し、
前記仮想物体を構成するパーツのうち前記指示位置に対応するパーツを特定し、該特定したパーツのデータを更新する
ことを特徴とするシステムの制御方法。
A control method for a system, comprising: an image display device, a holding device for holding data of a virtual object, and a display device for displaying an image of a mixed reality space including an image of a virtual object based on the data,
The image display device,
When the first mode is set, an image of the mixed reality space is acquired from the display device, displayed on the display means of the image display device, and the first mode is switched to the second mode. , Displaying an image of the mixed reality space acquired from the display device before the switching on the display means,
In the second mode, the position designated by the user on the video of the mixed reality space displayed on the display means is acquired and transmitted to the holding device,
The holding device is
Receiving the indicated position,
A method of controlling a system, characterized in that a part corresponding to the designated position is specified from among parts forming the virtual object, and data of the specified part is updated.
JP2019163837A 2019-09-09 2019-09-09 Image display device and control method of image display device Pending JP2020074066A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019163837A JP2020074066A (en) 2019-09-09 2019-09-09 Image display device and control method of image display device
JP2021114388A JP7170798B2 (en) 2019-09-09 2021-07-09 Image processing method, image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019163837A JP2020074066A (en) 2019-09-09 2019-09-09 Image display device and control method of image display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015112403A Division JP6585929B2 (en) 2015-06-02 2015-06-02 System, control method of system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021114388A Division JP7170798B2 (en) 2019-09-09 2021-07-09 Image processing method, image processing system

Publications (1)

Publication Number Publication Date
JP2020074066A true JP2020074066A (en) 2020-05-14

Family

ID=70610149

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019163837A Pending JP2020074066A (en) 2019-09-09 2019-09-09 Image display device and control method of image display device
JP2021114388A Active JP7170798B2 (en) 2019-09-09 2021-07-09 Image processing method, image processing system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021114388A Active JP7170798B2 (en) 2019-09-09 2021-07-09 Image processing method, image processing system

Country Status (1)

Country Link
JP (2) JP2020074066A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272891A (en) * 1998-03-24 1999-10-08 Rekusaa Research:Kk Method and device for controlling display state in three-dimensional space display system and record medium for control
JP2006293604A (en) * 2005-04-08 2006-10-26 Canon Inc Information processing method, information processor, and remote mixed reality sharing device
JP2006293605A (en) * 2005-04-08 2006-10-26 Canon Inc Information processing method and system
JP2008217096A (en) * 2007-02-28 2008-09-18 Fujitsu Ltd Component selecting program, recording medium recording program, component selecting method, and component selecting device
JP2015007835A (en) * 2013-06-24 2015-01-15 キヤノン株式会社 Image processing apparatus and image processing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4933164B2 (en) 2005-07-01 2012-05-16 キヤノン株式会社 Information processing apparatus, information processing method, program, and storage medium
JP2012048597A (en) 2010-08-30 2012-03-08 Univ Of Tokyo Mixed reality display system, image providing server, display device and display program
JP5696034B2 (en) 2011-12-23 2015-04-08 ミサワホーム株式会社 Housing specification confirmation support system
JP2015095147A (en) 2013-11-13 2015-05-18 ソニー株式会社 Display control device, display control method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272891A (en) * 1998-03-24 1999-10-08 Rekusaa Research:Kk Method and device for controlling display state in three-dimensional space display system and record medium for control
JP2006293604A (en) * 2005-04-08 2006-10-26 Canon Inc Information processing method, information processor, and remote mixed reality sharing device
JP2006293605A (en) * 2005-04-08 2006-10-26 Canon Inc Information processing method and system
JP2008217096A (en) * 2007-02-28 2008-09-18 Fujitsu Ltd Component selecting program, recording medium recording program, component selecting method, and component selecting device
JP2015007835A (en) * 2013-06-24 2015-01-15 キヤノン株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP7170798B2 (en) 2022-11-14
JP2021170367A (en) 2021-10-28

Similar Documents

Publication Publication Date Title
JP6585929B2 (en) System, control method of system
JP4553362B2 (en) System, image processing apparatus, and information processing method
US10620791B2 (en) Information processing apparatus and operation reception method
JP6421670B2 (en) Display control method, display control program, and information processing apparatus
US10999412B2 (en) Sharing mediated reality content
JP2001022344A (en) Stereoscopic image processing device, its method, stereoscopic vision parameter setting device, its method and computer program memory medium
JP2008040832A (en) Mixed sense of reality presentation system and control method for it
EP3229482B1 (en) Master device, slave device, and control method therefor
EP3648463A1 (en) Server, display device and control method therefor
JP2017010387A (en) System, mixed-reality display device, information processing method, and program
JP2005174021A (en) Method and device for presenting information
JP2016122392A (en) Information processing apparatus, information processing system, control method and program of the same
US11386612B2 (en) Non-transitory computer-readable medium, image processing method, and image processing system for controlling progress of information processing in response to a user operation
JP7170798B2 (en) Image processing method, image processing system
CN107133028B (en) Information processing method and electronic equipment
JP7401245B2 (en) Image synthesis device, control method and program for image synthesis device
JP6765846B2 (en) Information processing equipment, information processing methods, and programs
JP6564259B2 (en) Image processing apparatus and image processing method
JP2019032713A (en) Information processing device, information processing method, and program
JP2005251118A (en) Method and device for image processing
JP5520772B2 (en) Stereoscopic image display system and display method
JP2009193471A (en) Display controller, display processor, application server, display control method, display processing method, application execution method, control program and recording medium
JP2014174643A (en) Image processing system, control method therefor, image processing device, and image processing method
JP2016115148A (en) Information processing apparatus, information processing system, information processing method, and program
WO2022172335A1 (en) Virtual guide display device, virtual guide display system, and virtual guide display method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191009

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201215

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210412