JP2020074066A - Image display device and control method of image display device - Google Patents
Image display device and control method of image display device Download PDFInfo
- Publication number
- JP2020074066A JP2020074066A JP2019163837A JP2019163837A JP2020074066A JP 2020074066 A JP2020074066 A JP 2020074066A JP 2019163837 A JP2019163837 A JP 2019163837A JP 2019163837 A JP2019163837 A JP 2019163837A JP 2020074066 A JP2020074066 A JP 2020074066A
- Authority
- JP
- Japan
- Prior art keywords
- image
- mode
- display device
- virtual object
- mixed reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Abstract
Description
本発明は、複合現実感の提示技術に関するものである。 The present invention relates to a mixed reality presentation technique.
自動車・航空機などの製造業分野において、設計工程の期間短縮、費用削減が求められている。この要求に応える技術として、現実空間と仮想空間とを継ぎ目なく合成する複合現実(MR:Mixed Reality)システムがある。複合現実システムによれば、開発中の製品をCG(コンピュータグラフィックス)映像として現実世界に重畳表示できる。そして、自由な視点から確認、検討することで実寸大の模型を制作せずにデザイン等の検討を行うことができる。 In manufacturing fields such as automobiles and aircraft, it is required to shorten the design process period and reduce costs. As a technology that meets this demand, there is a mixed reality (MR) system that seamlessly combines a real space and a virtual space. According to the mixed reality system, the product under development can be superimposed and displayed as a CG (computer graphics) image on the real world. Then, by checking and examining from a free viewpoint, it is possible to study the design and the like without producing a full-scale model.
複合現実システムでは、映像表示装置のひとつとして、ビデオカメラ等の撮像装置とディスプレイとが一体化された頭部装着型ディスプレイ(以後、HMD:ヘッドマウントディスプレイと表記)が用いられる。HMDの一形態としてビデオシースルー方式がある。これは、HMDに搭載された撮像装置が撮像した現実空間の画像上に、撮像装置の位置及び姿勢に応じて生成した仮想空間の画像を重畳して表示する方式である。仮想空間の画像の例としては、例えば、CGにより描画された仮想物体や文字情報等がある。別の画像表示装置として、光学シースルー方式がある。これは、体験者の頭部に装着された光学透過型ディスプレイに、観察者の視点の位置及び姿勢に応じて生成した仮想空間の画像を表示する方式である。 In the mixed reality system, a head-mounted display (hereinafter, referred to as HMD: head mounted display) in which an image pickup device such as a video camera and a display are integrated is used as one of image display devices. A video see-through method is one form of HMD. This is a method of superimposing and displaying an image of a virtual space generated in accordance with the position and orientation of the image pickup device on an image of the physical space imaged by the image pickup device mounted on the HMD. Examples of the image in the virtual space include, for example, a virtual object drawn by CG and character information. Another image display device is an optical see-through system. This is a method of displaying an image of a virtual space generated according to the position and orientation of the observer's viewpoint on an optical transmissive display mounted on the head of the experiencer.
製造業の設計工程では、多人数が参加したレビューがしばしば開催される。複合現実システムを用いたレビューでは、多人数が複合現実空間(仮想空間と現実空間とを合成した空間)を体験するために、HMDに加えて、タブレットなどの手持ち型情報端末を組み合わせてシステムが構成される。このシステムは、HMD装着者が見ている複合現実空間の映像を、複数のタブレット画面にも同時に配信・表示する。これにより、HMD装着者の視界を複数人が同時に共有し、設計・検討に参加できる。 In the manufacturing design process, reviews with many participants are often held. In a review using a mixed reality system, in order to allow a large number of people to experience a mixed reality space (a space in which a virtual space and a real space are combined), in addition to the HMD, the system is combined with a handheld information terminal such as a tablet. Composed. This system simultaneously delivers / displays the video of the mixed reality space viewed by the HMD wearer on a plurality of tablet screens at the same time. This allows multiple people to share the field of view of the HMD wearer at the same time and participate in design / study.
特許文献1には、複合現実システムを用いた共同作業の例が開示されている。この例では、作業者が体感している複合現実空間を複数人の参加者が遠隔から共有し、視点を変更しながら現実物体と仮想物体とを継ぎ目のない状態で知覚して共同作業を可能にする。 Patent Document 1 discloses an example of collaborative work using a mixed reality system. In this example, multiple participants can remotely share the mixed reality space that workers are experiencing, and while changing viewpoints, they can perceive real objects and virtual objects in a seamless state and collaborate. To
また、非特許文献1には、ナビゲーションシステムにおいて、拡張現実感(AR:Augumented Reality)表示モードと仮想現実感表示モード(VR:Virtual Reality)とを切替えて表示する技術が開示されている。これにより、利用者が周囲の状況を適切に把握し、行動を支援することができる。また、商用のグラフィックスライブラリにおいて、スクリーン(表示画像平面)上の任意の点と、仮想空間中の三次元モデルを構成する部品との対応を、逆透視投影変換によって求める機能が提供されている。 Further, Non-Patent Document 1 discloses a technique for switching between an augmented reality (AR) display mode and a virtual reality display mode (VR: Virtual Reality) display mode in a navigation system. As a result, the user can appropriately grasp the surrounding situation and support the action. In addition, a commercial graphics library is provided with a function of finding the correspondence between an arbitrary point on the screen (display image plane) and a component forming a three-dimensional model in virtual space by inverse perspective projection transformation. ..
複合現実システムを用いてHMD利用者の映像をタブレットで共有している状況において、タブレットの画面上に表示された仮想物体の部品を、タブレット使用者が指定するケースを考える。このとき、HMD利用者は自らの意志で視点位置・姿勢を変更するため、映像共有中のタブレット利用者は仮想物体に対する視点位置・姿勢を制御することはできない。すなわち、タブレット利用者の意思とは無関係にタブレット表示画面が変化することになり、所望の部品を正確に指定することは難しい。 Consider a case where a tablet user specifies parts of a virtual object displayed on the screen of the tablet in a situation where the video of the HMD user is shared by the tablet using the mixed reality system. At this time, the HMD user voluntarily changes the viewpoint position / orientation, and therefore the tablet user who is sharing the video cannot control the viewpoint position / orientation with respect to the virtual object. That is, the tablet display screen changes regardless of the intention of the tablet user, and it is difficult to accurately specify a desired component.
本発明はこのような問題に鑑みてなされたものであり、HMDなどの頭部装着型表示装置を装着しているユーザが見ている複合現実空間の映像を、他の機器にも表示して共有する場合に、該共有している映像中の仮想物体を該機器の表示画面上で容易かつ正確に指定することを可能にする技術を提供する。 The present invention has been made in view of such a problem, and displays an image of a mixed reality space viewed by a user wearing a head-mounted display device such as an HMD on another device. Provided is a technique that enables a virtual object in a shared video to be easily and accurately designated on the display screen of the device when sharing.
本発明の一様態は、画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムであって、前記画像表示装置は、表示手段と、第1のモードが設定されている場合には、前記表示装置において表示されている複合現実空間の映像を取得して前記表示手段に表示し、該第1のモードから第2のモードに切り替わると、該データを用いて仮想物体の画像を生成して前記表示手段に表示する表示制御手段と、前記仮想物体を構成するパーツのうち、前記第2のモードにおいて前記表示手段に表示されている仮想物体に対してユーザが指定した箇所に対応するパーツを特定し、該特定したパーツの情報を、前記保持装置に対して送信する送信手段とを備え、前記保持装置は、前記情報を受信する受信手段と、前記仮想物体を構成するパーツのうち前記情報に対応するパーツを特定し、該特定したパーツのデータを更新する更新手段とを備えることを特徴とする。 One aspect of the present invention is a system including an image display device, a holding device that holds data of a virtual object, and a display device that displays an image of a mixed reality space including an image of a virtual object based on the data. Then, the image display device acquires the image of the mixed reality space displayed on the display device and the display device when the first mode is set, and displays the image on the display device. When the mode is switched from the first mode to the second mode, a display control unit that generates an image of a virtual object using the data and displays the image on the display unit; In the mode, a transmission unit that specifies a part corresponding to a portion specified by the user with respect to the virtual object displayed on the display unit, and transmits information of the specified part to the holding device. The holding device includes a receiving unit that receives the information, and an updating unit that specifies a part corresponding to the information among the parts forming the virtual object and updates the data of the specified part. Is characterized by.
本発明の構成によれば、HMDなどの頭部装着型表示装置を装着しているユーザが見ている複合現実空間の映像を、他の機器にも表示して共有する場合に、該共有している映像中の仮想物体を該機器の表示画面上で容易かつ正確に指定することができる。 According to the configuration of the present invention, when a video image of a mixed reality space viewed by a user wearing a head-mounted display device such as an HMD is displayed and shared on another device, the shared image is shared. It is possible to easily and accurately specify a virtual object in a moving image on the display screen of the device.
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。 Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. In addition, the embodiment described below shows an example of a case where the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.
[第1の実施形態]
本実施形態に係るシステムは、画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムである。このような構成を有するシステムにおいて、画像表示装置は、第1のモードが設定されている場合には、表示装置において表示されている複合現実空間の映像を取得して表示し、該第1のモードから第2のモードに切り替わると、該データを用いて仮想物体の画像を生成して表示し(表示制御)、仮想物体を構成するパーツのうち、第2のモードにおいて表示されている仮想物体に対してユーザが指定した箇所に対応するパーツを特定し、該特定したパーツの情報を、保持装置に対して送信する。一方、保持装置は、該情報を受信し、仮想物体を構成するパーツのうち該情報に対応するパーツを特定し、該特定したパーツのデータを更新する。
[First Embodiment]
The system according to the present embodiment is a system including an image display device, a holding device that holds data of a virtual object, and a display device that displays an image of a mixed reality space including an image of a virtual object based on the data. is there. In the system having such a configuration, the image display device, when the first mode is set, acquires and displays the image of the mixed reality space displayed on the display device, and displays the image. When the mode is switched to the second mode, an image of the virtual object is generated and displayed using the data (display control), and among the parts forming the virtual object, the virtual object displayed in the second mode. With respect to, the part corresponding to the location designated by the user is specified, and the information of the specified part is transmitted to the holding device. On the other hand, the holding device receives the information, specifies the part corresponding to the information among the parts forming the virtual object, and updates the data of the specified part.
先ず、本実施形態に係るシステムの構成例について、図1を用いて説明する。図1に示す如く、本実施形態に係るシステムは、HMD150,160、HMD制御装置110,120、シーンデータ管理サーバ130、無線LANアクセスポイント170、タブレット端末装置180,190、を有する。
First, a configuration example of the system according to this embodiment will be described with reference to FIG. As shown in FIG. 1, the system according to the present embodiment includes
HMD150,160は、頭部装着型表示装置の一例であり、現実空間の映像と仮想空間の映像とを合成した複合現実空間の映像を、HMD150,160を頭部に装着したユーザの眼前に提示する装置である。
The HMDs 150 and 160 are examples of head-mounted display devices, and present an image of a mixed reality space that is a combination of an image of a real space and an image of a virtual space in front of the eyes of a user who wears the
HMD制御装置110,120はそれぞれ、HMD150,160の電源管理やHMD150,160による通信を含む、HMD150,160の基本動作を制御するための装置であり、HMD150,160とは無線若しくは有線でもってデータ通信を行う。
The
シーンデータ管理サーバ130は、仮想空間(シーン)を構築するために必要なデータ(シーンデータ)131を保持する装置である。なお、HMD制御装置110,120及びシーンデータ管理サーバ130は、図1のように別個の装置であっても良いし、1つの一体化した装置であっても良い。HMD制御装置110,120及びシーンデータ管理サーバ130に適用可能な機器としては、例えば、一般のPC(パーソナルコンピュータ)が挙げられる。
The scene
無線LANアクセスポイント170は、タブレット端末装置180,190に対する無線LANアクセスポイントとして機能するものであり、タブレット端末装置180,190は、この無線LANアクセスポイント170を介してシーンデータ管理サーバ130やHMD150,160(HMD制御装置110,120を介して)との間のデータ通信を行う。
The wireless
タブレット端末装置180,190は、タッチパネル画面を有し、該タッチパネル画面に様々な情報を表示すると共に、ユーザによる該タッチパネル画面上の操作を検知する機能を有する装置である。なお、タブレット端末装置180,190は、ユーザからの様々な指示を受け付ける機能、様々な情報を表示する機能、を有するものであれば、如何なる機器であっても良い。
The
図1に示す如く、タブレット端末装置180,190と無線LANアクセスポイント170との間は無線LANでもって接続されており、HMD制御装置110,120、シーンデータ管理サーバ130、無線LANアクセスポイント170、は互いにデータ通信が可能なようにネットワークに接続されている。
As shown in FIG. 1, the
本実施形態では、HMD150(160)は、現実空間の映像を撮像し、HMD150(160)の位置姿勢に応じた仮想空間の映像をシーンデータ131を用いて生成し、該撮像した現実空間の映像と該生成した仮想空間の映像とを合成した複合現実空間の映像を生成し、該生成した複合現実空間の映像を表示すると共に、該複合現実空間の映像を、タブレット端末装置180,190のうちHMD150(160)に対応づけられている一方若しくは両方に対して送信する。これにより、例えば、タブレット端末装置180の表示画面には、該タブレット端末装置180に対応づけられているHMDにおいて表示されている複合現実空間の映像が表示されていることになり、結果としてタブレット端末装置180は該HMDと複合現実空間の映像を共有することができる。HMDとタブレット端末装置との間で複合現実空間の映像を共有している様子を図2を用いて説明する。
In the present embodiment, the HMD 150 (160) captures an image of the physical space, generates an image of the virtual space according to the position and orientation of the HMD 150 (160) using the
ユーザ230は頭部にHMDを装着しており、該HMDの画面には、仮想物体220を含む複合現実空間を仮想スクリーン231に投影した投影映像が表示される。マーカ211,212は、HMDの位置姿勢を求めるために現実空間の壁や床に設けられたもので、ここでは、HMDが現実空間の映像を撮像し、該映像中に写っているマーカを用いて自身の位置姿勢を求めるものとしている。
The
ユーザ230の頭部に装着されているHMDにおいて表示されている複合現実空間の映像は、該HMDに対応づけられているタブレット端末装置250にも送信され、該タブレット端末装置250の表示画面215に表示される。これによりユーザ240は、ユーザ230が観察している複合現実空間の映像を、表示画面215において確認(共有)することができる。
The video of the mixed reality space displayed on the HMD worn on the head of the
次に、シーンデータ管理サーバ130、HMD150(160)、タブレット端末装置180(190)、のそれぞれの機能構成例を、図5に示す。なお、図5では説明を簡単にするために、HMD制御装置110,120の図示を省略し、HMD150(160)は、シーンデータ管理サーバ130やタブレット端末装置180(190)と直接データ通信を行うように示しているが、実際には、図1に示す如く、HMD150(160)はそれぞれ、HMD制御装置110,120を介して、シーンデータ管理サーバ130やタブレット端末装置180(190)とのデータ通信を行う。図5に示した各機能部によって行われる各処理について、図6のフローチャートに従って説明する。
Next, FIG. 5 shows a functional configuration example of each of the scene
<ステップS621>
HMD150(160)が有する撮影部522は、現実空間の映像を撮像する。
<Step S621>
The
<ステップS622>
HMD150(160)が有する取得部524は、HMD150(160)の位置姿勢を取得する。HMD150(160)の位置姿勢を取得する方法については様々な方法が考えられ、如何なる方法を採用しても構わない。例えば、図2に示す如く現実空間にマーカを配しておき、このような現実空間をステップS621において撮像することで取得した映像に映っているマーカ(自然特徴でも良い)を用いて、HMD150(160)の位置姿勢を求めても良い。また、赤外線センサ、磁気センサ、超音波センサ、光学センサ、ジャイロセンサ等のセンサによる計測結果に基づいてHMD150(160)の位置姿勢を求めても良い。また、映像中のマーカとセンサによる計測結果とを用いてHMD150(160)の位置姿勢を求めても良い。なお、ここでいうところの「HMD150(160)の位置姿勢」とは、「世界座標系(現実空間中の1点を原点とし、該原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系)における撮影部522の位置姿勢」であり、以下では「視点の位置姿勢」と呼称する場合がある。
<Step S622>
The
<ステップS624>
映像合成部525は先ず、「取得部526がステップS630においてシーンデータ管理サーバ130から取得(ダウンロード)したシーンデータ131」を用いて仮想空間を構築する。シーンデータ131とは、仮想空間を構成する各仮想物体のデータ(形状、テクスチャなど、仮想物体を描画するために必要なデータ)、各仮想物体の位置姿勢データ、仮想空間を照明する光源を規定するデータ等、仮想空間を規定するデータである。次に映像合成部525は、ステップS622で取得した位置姿勢を有する視点から見た仮想空間の映像を生成する。位置姿勢が与えられた視点から見える仮想空間の映像を生成する技術は周知であるため、該技術に関する説明は省略する。
<Step S624>
The
<ステップS625>
映像合成部525は、ステップS621で撮影部522が撮影した現実空間の映像に、ステップS624で生成した仮想空間の映像を重畳することで、複合現実空間の映像を生成する。複合現実空間の映像の生成技術については周知であるため、該生成技術に関する説明は省略する。
<Step S625>
The
<ステップS626>
映像合成部525は、ステップS625で生成した複合現実空間の映像を表示部523に対して出力することで、該映像を表示部523に表示させる。表示部523は、HMD150(160)を頭部に装着したユーザの眼前に位置するように該HMD150(160)に取り付けられたものである。これによりHMD150(160)を頭部に装着したユーザの眼前には、ステップS625において生成した複合現実空間の映像を提示することができる。
<Step S626>
The
<ステップS627>
映像送信部528は、ステップS625で映像合成部525が生成した複合現実空間の映像を、タブレット端末装置180,190のうちHMD150(160)に対応づけられた一方若しくは両方に対して送信する。HMD150(160)において生成した複合現実空間の映像をどのタブレット端末装置に対して送信するのかは予め設定しておいても良いし、HMD150(160)側及び/又はタブレット端末装置側で任意のタイミングで設定しても構わない。また、このような設定を、HMD制御装置110(120)に対して行っておき、HMD制御装置110(120)がHMD150(160)から受けた複合現実空間の映像を、該設定に応じた送信先に対して送信するようにしても構わない。また、映像送信部528は、複合現実空間の映像をJPEGやH.264等で符号化してから送信するようにしても構わない。また、複合現実空間の映像をRTP等のストリーミングプロトコルを用いて送信してもよい。
<Step S627>
The
<ステップS651>
制御部590は、タブレット端末装置180(190)の動作モードとして、MRモード(共有モード)、VRモードの何れが設定されているのかを確認する。タブレット端末装置180(190)の動作モードを切り替える方法には様々な方法が考えられ、特定の方法に限るものではない。例えば、表示部536と入力部537とでタッチパネル画面を構成している場合、MRモードに切り替えるためのボタン画像(MRモードボタン画像)とVRモードに切り替えるためのボタン画像(VRモードボタン画像)とを表示部536に表示する。そして、ユーザがMRモードボタン画像をタッチパネル画面上でタップしたことを入力部537が検知すると、制御部590は、タブレット端末装置180(190)の動作モードをMRモードに切り替える。一方、ユーザがVRモードボタン画像をタッチパネル画面上でタップしたことを入力部537が検知すると、制御部590は、タブレット端末装置180(190)の動作モードをVRモードに切り替える。このようなモード切り替え要求は、ユーザー入力イベントを検出するための不図示の別処理において検出することが可能である。
<Step S651>
The
そして、タブレット端末装置180(190)の動作モードがMRモードである場合には、処理はステップS652に進み、VRモードである場合には、処理はステップS660に進む。 Then, if the operation mode of the tablet terminal device 180 (190) is the MR mode, the process proceeds to step S652, and if it is the VR mode, the process proceeds to step S660.
<ステップS652>
映像受信部534は、映像送信部528によって送信された複合現実空間の映像を受信する。なお、受信した複合現実空間の映像が符号化されている場合には、該映像を復号する。
<Step S652>
The
<ステップS653>
生成部535は、ステップS652で受信した複合現実空間の映像を、表示部536に適した映像に変換することで表示画面を生成する。例えば、ステップS652で受信した複合現実空間の映像のサイズを、表示部536の解像度に応じて変換する。なお、本ステップではこれ以外にも、複合現実空間の映像を表示するための表示領域と、様々な操作を行うためのボタンなどが配置されている操作領域と、を含むダイアログ画面を、表示画面として生成しても構わない。
<Step S653>
The
<ステップS654>
生成部535は、ステップS653において生成した表示画面を、表示部536に表示する。これにより表示部536には、ステップS626においてHMD側で表示されている複合現実空間の映像と同じ内容の映像が表示されることになり、該HMDと複合現実空間の映像を共有することができる。
<Step S654>
The
<ステップS660>
映像受信部534は、映像送信部528から送信された複合現実空間の映像の受信動作を停止する。なお動作モードがVRモードであって、映像共有が既に停止されている場合には、ステップS660の処理をスキップしてもよい。
<Step S660>
The
<ステップS661>
入力部537が、ユーザがタブレット端末装置180(190)側でローカルに制御可能な視点(ローカル視点)の位置姿勢を変更するための操作入力を行ったことを示す入力イベントを検知した場合には、処理はステップS662に進み、ユーザが表示部536に表示されている仮想物体の一部(部品)を指定するための操作入力を行ったことを示す入力イベントを検知した場合には、処理はステップS665に進み、何等入力イベントを検知していない場合には、処理はステップS663に進む。
<Step S661>
When the
<ステップS663>
生成部535は先ず、「取得部532がステップS640においてシーンデータ管理サーバ130から取得(ダウンロード)したシーンデータ131」を用いて仮想空間を構築する。次に生成部535は、ローカル視点から見た仮想空間の映像を生成する。なお、制御部590は、VRモードに切り替わった直後におけるローカル視点の位置姿勢には、VRモードに切り替わる直前のHMD(タブレット端末装置180(190)に対応づけられているHMD)の位置姿勢を該HMDから取得して設定する。なお、該設定では、位置姿勢だけでなく、画角など、他のパラメータをも設定して構わない。また、HMD150(160)の位置姿勢や画角などのパラメータをHMD制御装置110(120)が管理するようにしても良く、その場合、制御部590は、HMD150(160)の位置姿勢や画角などのパラメータをHMD制御装置110(120)から取得することになる。
<Step S663>
The
<ステップS664>
生成部535は、ステップS663で生成した仮想空間の映像を、表示部536に表示する。
<Step S664>
The
<ステップS662>
入力部537は、ユーザが行ったローカル視点の位置姿勢の変更操作(例えば表示部536の画面上のドラッグ、ズームイン・アウト等の操作)に応じて、ローカル視点の位置姿勢を変更する。然るにその後、ステップS663では、この変更後の位置姿勢に応じた仮想空間の映像が生成され、ステップS664では、変更後の位置姿勢に応じた仮想空間の映像が表示部536に表示されることになる。
<Step S662>
The
例えば、MRモードが設定されているタブレット端末装置において、図3(a)に示す如く、表示部536に、マーカ311を含む現実空間の映像と、仮想物体312を含む仮想空間の映像と、を合成した複合現実空間の映像が表示されているとする。このとき、タブレット端末装置の動作モードをVRモードに切り替えると、直後のステップS664では、図3(b)に示す如く、図3(a)と同じ視点位置姿勢を有するローカル視点から見た仮想物体312の映像が表示部536に表示される。ここで、VRモードでは、現実空間の映像が重畳表示されていないことに注意されたい。そして、VRモードが設定されているタブレット端末装置においては、ユーザはローカル視点の位置姿勢の変更操作を行うことができ、ユーザがローカル視点の位置姿勢の変更操作を行うと、該変更操作に応じてローカル視点の位置姿勢が変更され、該変更後の位置姿勢を有するローカル視点に基づく仮想物体の映像が表示部536に表示されることになり、対応するHMDの位置姿勢の変化に関係なく、タブレット端末装置側で独自に視点の位置姿勢を変更して仮想物体の映像を表示部536上で閲覧することができる。
For example, in the tablet terminal device in which the MR mode is set, as shown in FIG. 3A, the
<ステップS665>
取得部538は、ユーザが表示部536の表示画面上で指示した位置(例えばタップした位置)に表示されている仮想部品(仮想物体を構成する仮想部品)を特定する。該特定のための処理には様々な処理が考えられ、特定の方法に限るものではない。例えば、仮想スクリーン(ローカル視点の位置からローカル視点の視線方向に規定距離だけ離間した位置に、視線方向を法線方向とした面として設けられるもので、世界座標系におけるその位置姿勢はローカル視点の位置姿勢から求めることができる。また、仮想スクリーンのサイズ(幅、高さ)や、上記の「規定距離」は、表示部536の画面サイズ、視野角、等に基づいて設定される。)上の各位置は3次元座標で表され、且つ表示部536の表示画面上における各位置と仮想スクリーン上の各位置とは1対1で対応しているため、先ずは、表示部536の表示画面上における指示位置に対応する仮想スクリーン上の位置(3次元座標)を特定する。そして、該特定した位置とローカル視点の位置とを通る直線と仮想物体との交点を求める処理を行い、交点がなければ、指示位置には仮想部品は表示されていないことになり、交点があれば、そのうちもっともローカル視点の位置に近い交点を特定し、該特定した交点を含む仮想部品を「ユーザが指定した部品」として特定する。
<Step S665>
The
そして取得部538は、「ユーザが指定した部品」として特定した仮想部品に固有の識別情報(例えば、仮想部品に固有のID)を、ステップS640において取得部532が取得したシーンデータ131から取得する。なお、仮想空間中に複数の仮想物体が存在する場合、この識別情報は、「ユーザが指定した部品」として特定した仮想部品及び該仮想部品が属する仮想物体を一意に特定するため情報、となる。
Then, the
<ステップS666>
送信部539は、ステップS665において取得部538がシーンデータ131から取得した、「ユーザが指定した部品」である仮想部品の識別情報を、シーンデータ管理サーバ130に対して送信する。
<Step S666>
The
<ステップS667>
制御部590は、タブレット端末装置180(190)の動作モードをVRモードからMRモードに切り替える。タブレット端末装置180(190)の動作モードがMRモードに切り替わったことに応じて、映像受信部534は、映像送信部528から送信された複合現実空間の映像の受信動作を再開する。
<Step S667>
The
<ステップS611>
受信部513は、ステップS666において送信部539が送信した識別情報を受信する。
<Step S611>
The receiving
<ステップS614>
変更部514は、ステップS611で受信部513が受信した識別情報に対応する仮想部品が他の仮想部品とは識別可能に視認されるように、シーンデータ131において該識別情報に対応する仮想部品のデータを加工する。例えば、識別情報に対応する仮想部品が強調表示されるように、該仮想部品の色を他の仮想部品の色とは異なる色に変更する。
<Step S614>
The changing
<ステップS615>
共有部515は、シーンデータ131を、HMD150(160)やタブレット端末装置180(190)に対して送信する。
<Step S615>
The
例えば、図3(b)に示す如く、タブレット端末装置の表示画面に仮想物体312が表示されている状態で、ユーザがヘッドライト部分をタップしたとすると、上記の処理により、このタップした仮想部品であるヘッドライトが他の仮想部品とは識別可能に視認されるように該ヘッドライトのデータが更新されるので、図3(c)に示す如く、ヘッドライト部分333が強調表示されている。カーソル334はタップ位置に表示されている。そしてMRモードに移行後、図3(d)に示す如く、複合現実空間の映像においてヘッドライト部分333が強調表示されている。このように、ヘッドライト部分333が強調表示されるように、全てのタブレット端末装置で共通に用いるシーンデータ131を更新するので、ヘッドライト部分333の強調表示は、HMD、タブレット端末装置の全てにおいて観察される複合現実空間の映像に反映されることになる。
For example, as shown in FIG. 3B, when the user taps the headlight portion while the
なお、図6のフローチャートに従った処理では、図3(d)に示す如く、このような強調表示はMRモードにおいて行われることになるが、図3(c)のように、VRモードにおいて強調表示を行うようにしても構わない。 In the process according to the flowchart of FIG. 6, such highlighting is performed in the MR mode as shown in FIG. 3D, but as shown in FIG. 3C, the highlighting is performed in the VR mode. The display may be performed.
なお、本実施形態において用いたHMDの代わりに、タブレット等の情報端末装置を用いても良いし、固定位置に備え付けられたカメラを用いても構わない。 An information terminal device such as a tablet may be used instead of the HMD used in the present embodiment, or a camera installed at a fixed position may be used.
このように、本実施形態によれば、HMDとタブレット端末装置とで複合現実空間の映像を共有するシステムにおいて、タブレット端末装置側で独自に視点を設定して仮想物体を観察したり、タブレット端末装置側で仮想部品を指定し、該指定した仮想部品を他の複合現実空間の観察者に提示することができ、複数人が参加する上記のシステムを利用した協調作業を促進できる。 As described above, according to the present embodiment, in the system in which the video in the mixed reality space is shared between the HMD and the tablet terminal device, the tablet terminal device side independently sets the viewpoint to observe the virtual object and the tablet terminal device. A virtual part can be designated on the device side, and the designated virtual part can be presented to an observer in another mixed reality space, and a collaborative work using the above system in which a plurality of people participate can be promoted.
なお、HMDが行うものとして説明した処理の一部、例えば、仮想空間の映像の生成や、複合現実空間の映像の生成は、HMD制御装置が行うようにしても構わない。このように、1つの装置が行うものとして説明した処理の一部を、他の装置に行わせるようにしても構わない。一般に、どの処理をどの装置に行わせるのか、どれだけの数の装置を使用するのか、といったシステム設計については、図5に示した構成に限るものではなく、第1の実施形態で説明したような処理と同等以上の処理が実現できるのであれば、様々な構成が考えられる。これは第2以降の実施形態についても同様である。 Note that the HMD control device may perform part of the processing described as being performed by the HMD, for example, generation of a virtual space image or generation of a mixed reality space image. In this way, a part of the processing described as being performed by one device may be performed by another device. In general, the system design such as which processing is to be performed by which apparatus and how many apparatuses are used is not limited to the configuration shown in FIG. 5, but as described in the first embodiment. Various configurations are conceivable as long as the processing equal to or higher than the above processing can be realized. This also applies to the second and subsequent embodiments.
<変形例1>
第1の実施形態では、VRモードではローカル視点の位置姿勢を変更することで、仮想物体を様々な角度から観察可能にしていたが、同様の効果を得るために、VRモードに移行しても視点の位置姿勢は固定して(VRモードに移行する直前のHMDの位置姿勢のまま)、仮想物体そのものを移動、回転させても構わない。このとき、タブレット端末装置は、シーンデータ管理サーバ130からダウンロードしたシーンデータを用いて仮想空間を構成した後、該シーンデータによって規定されている仮想物体の位置姿勢を変更することで、仮想物体の移動や回転を実現させても構わない。
<Modification 1>
In the first embodiment, in the VR mode, the virtual object can be observed from various angles by changing the position and orientation of the local viewpoint, but even if the mode is changed to the VR mode in order to obtain the same effect. The position and orientation of the viewpoint may be fixed (the position and orientation of the HMD immediately before shifting to the VR mode), and the virtual object itself may be moved or rotated. At this time, the tablet terminal device configures a virtual space by using the scene data downloaded from the scene
<変形例2>
[第2の実施形態]
本実施形態では、タブレット端末装置側でMRモードからVRモードに切り替えると、VRモードに切り替え前にHMDから受信した複合現実空間の映像(静止画像)を用いて、仮想部品を指定する。以下では、第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。
<
[Second Embodiment]
In the present embodiment, when the tablet terminal device switches from the MR mode to the VR mode, the virtual part is designated using the video (still image) of the mixed reality space received from the HMD before switching to the VR mode. Hereinafter, the difference from the first embodiment will be mainly described, and unless otherwise stated below, it is the same as that of the first embodiment.
すなわち、本実施形態に係るシステムは、画像表示装置と、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、を有するシステムの一例である。このようなシステムにおいては、画像表示装置は、第1のモードが設定されている場合には、表示装置から複合現実空間の映像を取得して表示し、該第1のモードから第2のモードに切り替わると、該切り替えの前に表示装置から取得した複合現実空間の映像を表示し、第2のモードにおいて表示されている複合現実空間の映像上のユーザによる指示位置を取得して保持装置に対して送信する。一方、保持装置は、指示位置を受信し、仮想物体を構成するパーツのうち指示位置に対応するパーツを特定し、該特定したパーツのデータを更新する。 That is, the system according to the present embodiment includes an image display device, a holding device that holds data of a virtual object, and a display device that displays an image of a mixed reality space including an image of the virtual object based on the data. It is an example of a system. In such a system, the image display device acquires the image of the mixed reality space from the display device and displays it when the first mode is set, and the image display device displays the image from the first mode to the second mode. When the display is switched to, the video of the mixed reality space acquired from the display device is displayed before the switching, and the position designated by the user on the video of the mixed reality space displayed in the second mode is acquired and stored in the holding device. To send. On the other hand, the holding device receives the designated position, identifies the part corresponding to the designated position among the parts forming the virtual object, and updates the data of the identified part.
先ず、仮想部品の指定について、図7を用いて説明する。タブレット端末装置は、HMDから受信した最新フレームの複合現実空間の映像を保持しておき、VRモードに切り替わると、図7(a)に示す如く、この時点で保持している複合現実空間の映像(該切り替え前にHMDから受信した複合現実空間の映像)を表示する。本実施形態においても、VRモードでは、HMDからの複合現実空間の映像の受信は停止する。ユーザは、タブレット端末装置の表示画面上で、該表示画面に表示されている複合現実空間の映像(静止画像)に対する拡大操作、縮小操作、平行移動操作(ドラッグ)を行うことで、表示画面に表示されている複合現実空間の映像を拡大したり、縮小したり、平行移動させたりすることができる。図7(b)では、HMDから受信した複合現実空間の映像の一部を拡大したものが表示されている。そして図7(b)に示す如く、ユーザが表示画面上で所望の仮想部品723をタップすると(タップ位置にはカーソル722が表示される)、以降は第1の実施形態と同様に、このタップされた仮想部品723が図7(c)に示す如く、強調表示される。
First, designation of virtual parts will be described with reference to FIG. The tablet terminal device holds the image of the latest frame of the mixed reality space received from the HMD, and when switched to the VR mode, as shown in FIG. 7A, the image of the mixed reality space held at this point is held. (Video of the mixed reality space received from the HMD before the switching) is displayed. Also in the present embodiment, in the VR mode, the reception of the video of the mixed reality space from the HMD is stopped. On the display screen of the tablet terminal device, the user performs an enlarging operation, a reducing operation, and a parallel moving operation (drag) on the video (still image) in the mixed reality space displayed on the display screen to display the image on the display screen. The displayed image of the mixed reality space can be enlarged, reduced, or moved in parallel. In FIG. 7B, a partially enlarged image of the mixed reality space image received from the HMD is displayed. Then, as shown in FIG. 7B, when the user taps a desired
次に、本実施形態に係るシステムの機能構成例を図8に示す。また、このようなシステムの各機能部によって行われる各処理について、図9のフローチャートに従って説明する。 Next, FIG. 8 shows a functional configuration example of the system according to the present embodiment. Further, each process performed by each functional unit of such a system will be described with reference to the flowchart of FIG.
なお、ステップS921〜S930の各ステップにおける処理はそれぞれ、上記のステップS621〜S630と同様であるため、これらのステップに係る説明は省略する。また、ステップS951〜S960、S967の各ステップにおける処理はそれぞれ、上記のステップS651〜S660、S667と同様であるため、これらのステップに係る説明は省略する。 The processes in steps S921 to S930 are the same as those in steps S621 to S630, and therefore the description of these steps will be omitted. Further, the processing in each step of steps S951 to S960 and S967 is the same as the above-mentioned steps S651 to S660 and S667, respectively, and therefore the description of these steps will be omitted.
<ステップS961>
入力部537が、ユーザが表示画面に表示されている複合現実空間の映像の拡大、縮小、平行移動などの操作入力(表示画面上のジェスチャー入力、例えばピンチイン・アウト操作)を行ったことを示す入力イベントを検知した場合には、処理はステップS962に進み、ユーザが表示部536に表示されている仮想物体の一部(部品)を指定するための操作入力を行ったことを示す入力イベントを検知した場合には、処理はステップS965に進み、何等入力イベントを検知していない場合には、処理はステップS964に進む。
<Step S961>
The
<ステップS962>
生成部535は、ユーザが行った、複合現実空間の映像の拡大、縮小、平行移動などの操作(例えば表示部536の画面上のドラッグ、ズームイン・アウト等の操作)に応じて、表示部536の表示画面上に表示されている複合現実空間の映像の拡大、縮小、平行移動を行う。
<Step S962>
The
<ステップS964>
生成部535は、複合現実空間の映像を、表示部536に表示する。VRモードに移行直後のステップS964では、VRモードに移行する直前に映像受信部534がHMDから受信した複合現実空間の映像(静止画像)を表示部536に表示する。
<Step S964>
The
<ステップS965>
取得部538は、ユーザが表示部536の表示画面上で指示した位置(例えばタップした位置)を取得する。
<Step S965>
The
<ステップS966>
送信部539は、ステップS965で取得部538が取得した指示位置をシーンデータ管理サーバ130に対して送信する。
<Step S966>
The
<ステップS911>
受信部513は、ステップS966において送信部539が送信した指示位置を受信する。
<Step S911>
The receiving
<ステップS912>
特定部817は、ステップS911で受信部513が受信した指示位置に表示されている仮想部品(仮想物体を構成する仮想部品)を特定する。該特定のための処理には様々な処理が考えられ、特定の方法に限るものではない。一例としては、図4に示す方法が考えられる。
<Step S912>
The identifying
例えば、タブレット端末装置の画面450上でユーザが仮想物体451のヘッドライト部分を指示すべくタップし、その位置452がI(Iu、Iv)であるとする。この位置452は、画面450の左上隅の位置を原点(0,0)とし、水平方向にu軸、垂直方向にv軸を規定する座標系I(u,v)におけるものである。
For example, it is assumed that the user taps on the
次に、ユーザ440の頭部に装着されたHMDの視点441の位置V(Vx,Vy,Vz)から視点441の視線方向θ(α、β、γ)に規定距離だけ離間した位置に、視線方向を法線方向とした面として設けられる仮想スクリーン430において、位置452に対応する位置431を求める。ここで、位置V(Vx,Vy,Vz)は、世界座標系におけるx座標、y座標、z座標を表し、視線方向θ(α、β、γ)は、x軸、y軸、z軸のそれぞれの軸周りの回転角度を表す。なお、視点方向を表現する方法はこれ以外の方法も考え得る。
Next, the line of sight is separated from the position V (Vx, Vy, Vz) of the viewpoint 441 of the HMD mounted on the head of the
世界座標系における仮想スクリーン430の位置姿勢は視点441の位置姿勢V,θから求めることができる。また、仮想スクリーン430のサイズ(幅、高さ)や、上記の「規定距離」は、撮影部522による撮像映像サイズ、表示部536の画面サイズ、視野角、等に基づいて設定される。
The position and orientation of the
ここで、タブレット端末装置の画面450上に表示されている複合現実空間の映像に対して拡大、縮小、平行移動の何れも行っていない状態(例えば、VRモードに切り替え直後の状態)では、例えば仮想スクリーン430の縦横サイズがH×W(画素)、画面450の縦横サイズがh×w(画素)である場合、画面450上の位置452I(Iu、Iv)に対応する位置431I’(Iu’、Iv’)は、Iv’=H/h×Iv、Iu’=W/w×Iuとして一意に特定することができる。ここで、位置431I’(Iu’、Iv’)は、仮想スクリーン座標系(仮想スクリーン430の左上隅の位置を原点(0,0)とし、水平方向にu’軸、垂直方向にv’軸を規定する座標系I’(u’、v’))におけるものである。
Here, in a state in which any of the images in the mixed reality space displayed on the
一方、タブレット端末装置の画面450上に表示されている複合現実空間の映像に対して拡大、縮小、平行移動を行った場合、画面450に表示されるものは、仮想スクリーン430において、拡大/縮小に応じたサイズを有し且つ平行移動操作によって平行移動したウィンドウ内の映像(実際にはこの映像に現実空間の映像が重畳されている)であるため、上記のように、位置452に対応するウィンドウ内の位置を特定することができる。
On the other hand, when the image of the mixed reality space displayed on the
例えば、仮想スクリーン430の縦横サイズがH×W(画素)、画面450の縦横サイズがh×w(画素)、画面450において、オリジナルの複合現実空間の映像(VRモードに移行時に画面450に表示した複合現実空間の映像)に対して行った拡大/縮小の割合(拡大/縮小率)をR(0<R)、仮想スクリーン430上のウィンドウの左上隅の位置を(a、b)、画面450上の位置452を(p、q)とすると、位置431(x、y)は以下の式に基づいて求めることができる。
For example, the vertical / horizontal size of the
x=a+W×p/(w×R)
y=b+H×q/(h×R)
このように、複合現実空間の映像に対して拡大、縮小、平行移動操作を行ったとしても、仮想スクリーン430上の位置とタブレット端末装置の画面450上の位置とは1対1で対応しているため、位置452に対応する仮想スクリーン430上の位置431は一意に求めることができる。すなわち、位置452に対応する位置431の仮想スクリーン座標系における2次元座標I’(Iu’、Iv’)は一意に求めることができる。
x = a + W × p / (w × R)
y = b + H × q / (h × R)
In this way, even if the image in the mixed reality space is enlarged, reduced, or moved in parallel, the position on the
また、仮想スクリーン430上の各位置は3次元座標でも表されることから、位置431の世界座標系における3次元座標S(Sx,Sy,Sz)と、視点441の位置V(Vx,Vy,Vz)と、を通る直線と仮想物体420との交点を求め、求めた交点のうち視点441の位置V(Vx,Vy,Vz)に最も近い交点421の3次元座標P(Px,Py,Pz)を、「ユーザが画面450上で指定した位置452に対応する、仮想物体420上の位置」として特定することができる。
Further, since each position on the
<ステップS914>
変更部514は、ステップS912で特定した仮想部品(特定仮想部品)が他の仮想部品とは識別可能に視認されるように、シーンデータ131において該特定仮想部品のデータを加工する。例えば、ステップS912で特定した仮想部品が強調表示されるように、該仮想部品の色を他の仮想部品の色とは異なる色に変更する。
<Step S914>
The changing
<ステップS915>
共有部515は、シーンデータ131を、HMD150(160)に対して送信する。
<Step S915>
The
<変形例>
第2の実施形態では、VRモードに移行する直前に映像受信部534がHMDから受信した1枚の静止画像(複合現実空間の映像)を表示部536に表示していたが、VRモードに移行する時点から規定時間前までの間に(若しくは該時点の前後規定時間内で)映像受信部534がHMDから受信した複数枚の静止画像(複合現実空間の映像)、若しくはそのうちユーザが入力部537を用いて選択した静止画像を表示部536に表示するようにしても構わない。
<Modification>
In the second embodiment, one still image (video in mixed reality space) received by the
[第3の実施形態]
第1の実施形態で説明したように、幾つかの装置を統合しても構わない。例えば、図10に示す如く、HMD150(160)とシーンデータ管理サーバ130とを統合して1つのHMD150(160)としても構わない。もちろん、図10においてHMD150(160)の構成としたものを、HMD150(160)とHMD制御装置110,120とによる構成としても構わない。これは第1の実施形態でも触れたとおりである。
[Third Embodiment]
As described in the first embodiment, some devices may be integrated. For example, as shown in FIG. 10, the HMD 150 (160) and the scene
[第4の実施形態]
図5,8,10に示したそれぞれの機能部は全てハードウェアで構成しても構わないが、一部をソフトウェアで構成しても構わない。例えば、図5のシーンデータ管理サーバ130の場合、受信部513、共有部515、変更部514(図8の場合はこれに加えて特定部817)をコンピュータプログラムで実装しても構わない。この場合、このコンピュータプログラムはシーンデータ管理サーバ130のメモリ内に格納され、シーンデータ管理サーバ130のCPUが該コンピュータプログラムを実行することになる。また例えば、図5のHMD150(160)の場合、取得部526、取得部524、映像合成部525、映像送信部528をコンピュータプログラムで実装しても構わない。この場合、このコンピュータプログラムはHMD150(160)のメモリ内に格納され、HMD150(160)のCPUが該コンピュータプログラムを実行することになる。また例えば、図5のタブレット端末装置180(190)の場合、映像受信部534、生成部535、取得部538、送信部539、取得部532をコンピュータプログラムで実装しても構わない。この場合、このコンピュータプログラムはタブレット端末装置180(190)のメモリ内に格納され、タブレット端末装置180(190)のCPUが該コンピュータプログラムを実行することになる。
[Fourth Embodiment]
Each of the functional units shown in FIGS. 5, 8 and 10 may be entirely configured by hardware, but a part may be configured by software. For example, in the case of the scene
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
150,160:HMD 130:シーンデータ管理サーバ 180,190:タブレット端末装置
150, 160: HMD 130: Scene
本発明の一様態は、仮想物体のデータを保持する保持装置と、該データに基づく仮想物体の映像を含む複合現実空間の映像を表示する表示装置と、に接続された画像表示装置であって、
表示手段と、
第1のモードが設定されている場合には第1の処理を行い、該第1のモードから第2のモードに切り替わると第2の処理を行う表示制御手段と、
前記仮想物体を構成するパーツのうち、前記第2のモードにおいて前記表示手段に表示されている仮想物体に対してユーザが指定した箇所に対応するパーツを特定し、該特定したパーツの情報を、前記保持装置に対して送信する送信手段と
を備え、
前記表示制御手段は前記第1の処理では、
前記表示装置において表示されている複合現実空間の映像を取得して前記表示手段に表示し、
前記表示制御手段は前記第2の処理では、
視点の位置を変更するためのユーザ操作が入力されない限りは、位置が固定された視点および前記データに基づく仮想物体の画像を前記表示手段に表示し、該ユーザ操作が入力されると、該ユーザ操作に応じて変更した位置の視点および前記データに基づく仮想物体の画像を前記表示手段に表示する
ことを特徴とする。
One aspect of the present invention is an image display device connected to a holding device that holds data of a virtual object, and a display device that displays an image of a mixed reality space including an image of a virtual object based on the data. ,
Display means,
Display control means for performing the first processing when the first mode is set and performing the second processing when the first mode is switched to the second mode;
Among the parts forming the virtual object, the part corresponding to the portion designated by the user with respect to the virtual object displayed on the display unit in the second mode is specified, and the information of the specified part is specified. A transmitting means for transmitting to the holding device,
In the first processing, the display control means
Acquiring an image of the mixed reality space displayed on the display device and displaying the image on the display means,
In the second processing, the display control means
Unless a user operation for changing the position of the viewpoint is input, an image of a virtual object based on the viewpoint whose position is fixed and the data is displayed on the display means, and when the user operation is input, the user operates. It is characterized in that an image of a virtual object based on the viewpoint and a position of a position changed according to an operation is displayed on the display means .
Claims (12)
前記画像表示装置は、
表示手段と、
第1のモードが設定されている場合には、前記表示装置において表示されている複合現実空間の映像を取得して前記表示手段に表示し、該第1のモードから第2のモードに切り替わると、該データを用いて仮想物体の画像を生成して前記表示手段に表示する表示制御手段と、
前記仮想物体を構成するパーツのうち、前記第2のモードにおいて前記表示手段に表示されている仮想物体に対してユーザが指定した箇所に対応するパーツを特定し、該特定したパーツの情報を、前記保持装置に対して送信する送信手段と
を備え、
前記保持装置は、
前記情報を受信する受信手段と、
前記仮想物体を構成するパーツのうち前記情報に対応するパーツを特定し、該特定したパーツのデータを更新する更新手段と
を備えることを特徴とするシステム。 A system having an image display device, a holding device for holding data of a virtual object, and a display device for displaying an image of a mixed reality space including an image of a virtual object based on the data,
The image display device,
Display means,
When the first mode is set, an image of the mixed reality space displayed on the display device is acquired and displayed on the display means, and the first mode is switched to the second mode. Display control means for generating an image of a virtual object using the data and displaying the image on the display means,
Among the parts forming the virtual object, the part corresponding to the portion designated by the user with respect to the virtual object displayed on the display unit in the second mode is specified, and the information of the specified part is specified. A transmitting means for transmitting to the holding device,
The holding device is
Receiving means for receiving the information,
An updating unit that specifies a part corresponding to the information among the parts forming the virtual object and updates the data of the specified part.
前記第2のモードに切り替わると、前記第2のモードに切り替わる前の前記表示装置の位置姿勢に基づいて前記仮想物体の画像を生成することを特徴とする請求項1又は2に記載の画像表示装置。 The display control means,
The image display according to claim 1, wherein when the mode is switched to the second mode, the image of the virtual object is generated based on the position and orientation of the display device before the mode is switched to the second mode. apparatus.
前記第2のモードにおいて視点の位置姿勢を変更する操作を受けると、該変更後の位置姿勢に基づいて前記仮想物体の画像を生成することを特徴とする請求項1乃至3の何れか1項に記載の画像表示装置。 The display control means,
The image of the virtual object is generated based on the changed position and orientation in response to an operation for changing the position and orientation of the viewpoint in the second mode. The image display device described in 1.
前記画像表示装置は、
表示手段と、
第1のモードが設定されている場合には、前記表示装置から複合現実空間の映像を取得して前記表示手段に表示し、該第1のモードから第2のモードに切り替わると、該切り替えの前に前記表示装置から取得した複合現実空間の映像を前記表示手段に表示する表示制御手段と、
前記第2のモードにおいて前記表示手段に表示されている複合現実空間の映像上のユーザによる指示位置を取得して前記保持装置に対して送信する送信手段と
を備え、
前記保持装置は、
前記指示位置を受信する受信手段と、
前記仮想物体を構成するパーツのうち前記指示位置に対応するパーツを特定し、該特定したパーツのデータを更新する更新手段と
を備えることを特徴とするシステム。 A system having an image display device, a holding device for holding data of a virtual object, and a display device for displaying an image of a mixed reality space including an image of a virtual object based on the data,
The image display device,
Display means,
When the first mode is set, an image of the mixed reality space is acquired from the display device and displayed on the display unit, and when the first mode is switched to the second mode, the switching Display control means for displaying an image of the mixed reality space previously acquired from the display device on the display means,
Transmission means for acquiring a position designated by the user on the video of the mixed reality space displayed on the display means in the second mode and transmitting the position to the holding device,
The holding device is
Receiving means for receiving the indicated position,
An updating unit that specifies a part corresponding to the designated position among the parts forming the virtual object and updates the data of the specified part.
前記第2のモードにおいて前記表示手段に表示されている複合現実空間の映像に対する拡大操作、縮小操作、平行移動操作、を入力する手段を備えることを特徴とする請求項5に記載のシステム。 The image display device further includes
The system according to claim 5, further comprising means for inputting an enlarging operation, a reducing operation, and a parallel moving operation with respect to the image of the mixed reality space displayed on the display means in the second mode.
前記表示装置の位置姿勢と、前記指示位置と、を用いて、前記仮想物体を構成するパーツのうち前記指示位置に対応するパーツを特定することを特徴とする請求項5又は6に記載のシステム。 The updating means is
7. The system according to claim 5, wherein the position and orientation of the display device and the designated position are used to identify a part corresponding to the designated position among the parts forming the virtual object. ..
前記特定したパーツが強調表示されるように、該パーツのデータを更新することを特徴とする請求項1乃至7の何れか1項に記載のシステム。 The updating means is
The system according to any one of claims 1 to 7, wherein data of the specified part is updated so that the specified part is highlighted.
前記画像表示装置が、
第1のモードが設定されている場合には、前記表示装置において表示されている複合現実空間の映像を取得して前記画像表示装置の表示手段に表示し、該第1のモードから第2のモードに切り替わると、該データを用いて仮想物体の画像を生成して前記表示手段に表示し、
前記仮想物体を構成するパーツのうち、前記第2のモードにおいて前記表示手段に表示されている仮想物体に対してユーザが指定した箇所に対応するパーツを特定し、該特定したパーツの情報を、前記保持装置に対して送信し
前記保持装置が、
前記情報を受信し、
前記仮想物体を構成するパーツのうち前記情報に対応するパーツを特定し、該特定したパーツのデータを更新する
ことを特徴とするシステムの制御方法。 A control method for a system, comprising: an image display device, a holding device for holding data of a virtual object, and a display device for displaying an image of a mixed reality space including an image of a virtual object based on the data,
The image display device,
When the first mode is set, the image of the mixed reality space displayed on the display device is acquired and displayed on the display unit of the image display device, and the second mode is changed from the first mode. When switched to the mode, an image of the virtual object is generated using the data and displayed on the display means,
Among the parts forming the virtual object, the part corresponding to the portion designated by the user with respect to the virtual object displayed on the display unit in the second mode is specified, and the information of the specified part is specified. The holding device transmits to the holding device,
Receiving the information,
A method of controlling a system, characterized in that a part corresponding to the information is specified from among parts forming the virtual object, and data of the specified part is updated.
前記画像表示装置が、
第1のモードが設定されている場合には、前記表示装置から複合現実空間の映像を取得して前記画像表示装置の表示手段に表示し、該第1のモードから第2のモードに切り替わると、該切り替えの前に前記表示装置から取得した複合現実空間の映像を前記表示手段に表示し、
前記第2のモードにおいて前記表示手段に表示されている複合現実空間の映像上のユーザによる指示位置を取得して前記保持装置に対して送信し、
前記保持装置が、
前記指示位置を受信し、
前記仮想物体を構成するパーツのうち前記指示位置に対応するパーツを特定し、該特定したパーツのデータを更新する
ことを特徴とするシステムの制御方法。 A control method for a system, comprising: an image display device, a holding device for holding data of a virtual object, and a display device for displaying an image of a mixed reality space including an image of a virtual object based on the data,
The image display device,
When the first mode is set, an image of the mixed reality space is acquired from the display device, displayed on the display means of the image display device, and the first mode is switched to the second mode. , Displaying an image of the mixed reality space acquired from the display device before the switching on the display means,
In the second mode, the position designated by the user on the video of the mixed reality space displayed on the display means is acquired and transmitted to the holding device,
The holding device is
Receiving the indicated position,
A method of controlling a system, characterized in that a part corresponding to the designated position is specified from among parts forming the virtual object, and data of the specified part is updated.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019163837A JP2020074066A (en) | 2019-09-09 | 2019-09-09 | Image display device and control method of image display device |
JP2021114388A JP7170798B2 (en) | 2019-09-09 | 2021-07-09 | Image processing method, image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019163837A JP2020074066A (en) | 2019-09-09 | 2019-09-09 | Image display device and control method of image display device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015112403A Division JP6585929B2 (en) | 2015-06-02 | 2015-06-02 | System, control method of system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021114388A Division JP7170798B2 (en) | 2019-09-09 | 2021-07-09 | Image processing method, image processing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020074066A true JP2020074066A (en) | 2020-05-14 |
Family
ID=70610149
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019163837A Pending JP2020074066A (en) | 2019-09-09 | 2019-09-09 | Image display device and control method of image display device |
JP2021114388A Active JP7170798B2 (en) | 2019-09-09 | 2021-07-09 | Image processing method, image processing system |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021114388A Active JP7170798B2 (en) | 2019-09-09 | 2021-07-09 | Image processing method, image processing system |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP2020074066A (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11272891A (en) * | 1998-03-24 | 1999-10-08 | Rekusaa Research:Kk | Method and device for controlling display state in three-dimensional space display system and record medium for control |
JP2006293604A (en) * | 2005-04-08 | 2006-10-26 | Canon Inc | Information processing method, information processor, and remote mixed reality sharing device |
JP2006293605A (en) * | 2005-04-08 | 2006-10-26 | Canon Inc | Information processing method and system |
JP2008217096A (en) * | 2007-02-28 | 2008-09-18 | Fujitsu Ltd | Component selecting program, recording medium recording program, component selecting method, and component selecting device |
JP2015007835A (en) * | 2013-06-24 | 2015-01-15 | キヤノン株式会社 | Image processing apparatus and image processing method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4933164B2 (en) | 2005-07-01 | 2012-05-16 | キヤノン株式会社 | Information processing apparatus, information processing method, program, and storage medium |
JP2012048597A (en) | 2010-08-30 | 2012-03-08 | Univ Of Tokyo | Mixed reality display system, image providing server, display device and display program |
JP5696034B2 (en) | 2011-12-23 | 2015-04-08 | ミサワホーム株式会社 | Housing specification confirmation support system |
JP2015095147A (en) | 2013-11-13 | 2015-05-18 | ソニー株式会社 | Display control device, display control method, and program |
-
2019
- 2019-09-09 JP JP2019163837A patent/JP2020074066A/en active Pending
-
2021
- 2021-07-09 JP JP2021114388A patent/JP7170798B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11272891A (en) * | 1998-03-24 | 1999-10-08 | Rekusaa Research:Kk | Method and device for controlling display state in three-dimensional space display system and record medium for control |
JP2006293604A (en) * | 2005-04-08 | 2006-10-26 | Canon Inc | Information processing method, information processor, and remote mixed reality sharing device |
JP2006293605A (en) * | 2005-04-08 | 2006-10-26 | Canon Inc | Information processing method and system |
JP2008217096A (en) * | 2007-02-28 | 2008-09-18 | Fujitsu Ltd | Component selecting program, recording medium recording program, component selecting method, and component selecting device |
JP2015007835A (en) * | 2013-06-24 | 2015-01-15 | キヤノン株式会社 | Image processing apparatus and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP7170798B2 (en) | 2022-11-14 |
JP2021170367A (en) | 2021-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6585929B2 (en) | System, control method of system | |
JP4553362B2 (en) | System, image processing apparatus, and information processing method | |
US10620791B2 (en) | Information processing apparatus and operation reception method | |
JP6421670B2 (en) | Display control method, display control program, and information processing apparatus | |
US10999412B2 (en) | Sharing mediated reality content | |
JP2001022344A (en) | Stereoscopic image processing device, its method, stereoscopic vision parameter setting device, its method and computer program memory medium | |
JP2008040832A (en) | Mixed sense of reality presentation system and control method for it | |
EP3229482B1 (en) | Master device, slave device, and control method therefor | |
EP3648463A1 (en) | Server, display device and control method therefor | |
JP2017010387A (en) | System, mixed-reality display device, information processing method, and program | |
JP2005174021A (en) | Method and device for presenting information | |
JP2016122392A (en) | Information processing apparatus, information processing system, control method and program of the same | |
US11386612B2 (en) | Non-transitory computer-readable medium, image processing method, and image processing system for controlling progress of information processing in response to a user operation | |
JP7170798B2 (en) | Image processing method, image processing system | |
CN107133028B (en) | Information processing method and electronic equipment | |
JP7401245B2 (en) | Image synthesis device, control method and program for image synthesis device | |
JP6765846B2 (en) | Information processing equipment, information processing methods, and programs | |
JP6564259B2 (en) | Image processing apparatus and image processing method | |
JP2019032713A (en) | Information processing device, information processing method, and program | |
JP2005251118A (en) | Method and device for image processing | |
JP5520772B2 (en) | Stereoscopic image display system and display method | |
JP2009193471A (en) | Display controller, display processor, application server, display control method, display processing method, application execution method, control program and recording medium | |
JP2014174643A (en) | Image processing system, control method therefor, image processing device, and image processing method | |
JP2016115148A (en) | Information processing apparatus, information processing system, information processing method, and program | |
WO2022172335A1 (en) | Virtual guide display device, virtual guide display system, and virtual guide display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191009 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191009 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201016 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201215 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210412 |