JP2016139416A - Information processing system, processing method therefor, and program - Google Patents

Information processing system, processing method therefor, and program Download PDF

Info

Publication number
JP2016139416A
JP2016139416A JP2016028452A JP2016028452A JP2016139416A JP 2016139416 A JP2016139416 A JP 2016139416A JP 2016028452 A JP2016028452 A JP 2016028452A JP 2016028452 A JP2016028452 A JP 2016028452A JP 2016139416 A JP2016139416 A JP 2016139416A
Authority
JP
Japan
Prior art keywords
image
virtual object
virtual
imaging device
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016028452A
Other languages
Japanese (ja)
Other versions
JP6119889B2 (en
Inventor
唯仁 八尾
Tadahito Yao
唯仁 八尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Publication of JP2016139416A publication Critical patent/JP2016139416A/en
Application granted granted Critical
Publication of JP6119889B2 publication Critical patent/JP6119889B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a mechanism for enabling a tester to take quick avoidance behavior by visually recognizing a real image in the case that the tester staggers, or the like.SOLUTION: An information processing system for generating a composite image obtained by compositing a real image of a real space imaged by an imaging device with a virtual image of a virtual object includes: speed acquisition means for acquiring speed made when the imaging device is moved; specification means for specifying a virtual object to be non-display within a prescribed range according to a position and a posture of the imaging device when the speed acquired by the speed acquisition means exceeds a prescribed value; and drawing control means for making the virtual object specified by the specification means non-display so as to make a tester visually recognize an image of the real space, and performing drawing control by using a virtual object corresponding to the position and posture of the imaging device and the real image of the real space.SELECTED DRAWING: Figure 2

Description

実写画像と、仮想空間の仮想画像とを合成して表示する情報処理システムとその処理方法及びプログラムに関する。   The present invention relates to an information processing system that combines and displays a real image and a virtual image in a virtual space, and a processing method and program thereof.

従来より、現実空間の画像(実写画像)に三次元モデリングされたCG(ComputerGraphics)による画像を重畳した画像を生成し、観察者に提示することで、この観察者にあたかも現実空間中にCGで表現された物体(仮想物体)が存在しているかのように見せることができる、複合現実感や拡張現実感と呼ばれる技術が存在する。   Conventionally, an image in which a three-dimensional modeled CG (Computer Graphics) is superimposed on an image in real space (actual image) is generated and presented to the observer, so that the viewer can see the CG in real space as CG. There is a technology called mixed reality or augmented reality that can make an object (virtual object) appear as if it exists.

複合現実感、拡張現実感を提示するシステムでは映像の表示装置として、据え置き型ディスプレイ、スマートフォンやタブレットなどのモバイルデバイス、光学シースルー型HMD、ビデオシースルー型HMDなどが利用される。   In a system that presents mixed reality and augmented reality, a stationary display, a mobile device such as a smartphone or a tablet, an optical see-through HMD, a video see-through HMD, or the like is used as a video display device.

近年、複合現実感、拡張現実感を提示するシステムやアプリケーションが多数発表され、一般に目にする機会が多くなっているが、一般ユーザーの体験における転倒、酔いなどに対する安全性対策が課題になっている。   In recent years, a lot of systems and applications that present mixed reality and augmented reality have been announced, and there are many opportunities to see them in general. However, safety measures against falling, sickness, etc. in the general user experience have become issues. Yes.

特にビデオシースルー型HMDを使用するシステムにおいては、HMD本体が全視界を覆っており、また光学シースルーHMDと違いCGを完全に不透明な形で描画することが可能なため、壁や机にぶつかってよろめいた場合、体験者は手や足を安全なところにつこうとするが、複合現実の体験中は現実世界の一部がCGによって隠蔽されており、体験者はHMDを外さなければ現実世界の障害物を確認することができず、そこで発生するタイムラグが安全に影響する。
一方で現実物体が見えるようにCGを非表示にしたり半透明にしたりすると没入感が損なわれるという問題がある。
Especially in a system that uses a video see-through HMD, the HMD body covers the entire field of view, and unlike the optical see-through HMD, it is possible to draw CG in a completely opaque form, so it hits a wall or a desk. When staggered, the user tries to put his hands and feet in a safe place, but during the mixed reality experience, a part of the real world is concealed by CG, and if the user does not remove the HMD, the real world Obstacles can not be confirmed, and the time lag generated there affects safety.
On the other hand, if the CG is hidden or made translucent so that a real object can be seen, there is a problem that the immersive feeling is impaired.

CGに隠された領域にどのような障害物があるかわからない問題への対策として、特許文献1には、手をつくことができる現実物体がある場所に手が近付いた場合にそれを隠蔽している仮想物体の表示を変化させ、ユーザーに提示すという手法が記載されている。   As a countermeasure against the problem of not knowing what kind of obstacle is in the area hidden by the CG, Patent Document 1 discloses that when a hand approaches a place where there is a real object that can be put on, it is concealed. A technique is described in which the display of a virtual object is changed and presented to the user.

特開2009−169622号公報JP 2009-169622 A

しかしながら、特許文献1に記載のシステムにおいては、手をつく場所を特定して、手をつく一の仮想物体を変化させ、一部の現実物体を見せることができるものの、よろめいた時の緊急避難動作においては、現実物体の全体が把握できないため、緊急避難時に適用するには難しい側面があった。   However, in the system described in Patent Document 1, it is possible to identify a place where a hand is placed and change one virtual object where the hand is placed to show some real objects, but emergency evacuation when staggered In operation, since the whole real object cannot be grasped, there is a difficult aspect to apply at the time of emergency evacuation.

また、手をつく際に、現実物体を見せるのでは、手をつく場所に現実物体がなかった場合には、緊急避難時の判断が遅れ、急なよろめきなどには対応が難しい側面があった。   In addition, when showing a real object when placing a hand, if there was no real object in the place where the hand was placed, the judgment at the time of emergency evacuation was delayed, and it was difficult to cope with sudden stagger .

さらに手をつくことが緊急的に手をつくものなのか、単に触るため手をつくものなのかを判断することは難しく、仮に手をついたときに現実物体(現実の画像)全体を見せてしまうと、没入感が損なわれ、複合現実感システムのメリットが失われてしまう。   Furthermore, it is difficult to judge whether it is an urgent hand to touch or a hand to touch, so if you touch it, show the entire real object (real image) If this happens, the sense of immersion will be lost and the benefits of the mixed reality system will be lost.

そこで本発明は、体験者がよろめいた場合などに、実写画像を視認させることで体験者が迅速な回避行動をとれる仕組みを提供することを目的とする。   Therefore, an object of the present invention is to provide a mechanism that allows an experienced person to take a quick avoidance action by visually recognizing a live-action image when the experienced person wobbles.

本発明の目的を達成するための、撮像装置で撮像された現実空間の実写画像と仮想物体の仮想画像を合成した合成画像を生成する情報処理システムであって、撮像装置が移動したことによる速度を取得する速度取得手段と、前記速度取得手段で取得された速度が所定値を超えた場合に、前記撮像装置の位置と姿勢に従って、所定の範囲で非表示となる仮想物体を特定する特定手段と、前記現実空間の画像を体験者に視認させるように、前記特定手段により特定された仮想物体を非表示とし、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて描画制御する描画制御手段とを備えることを特徴とする。   In order to achieve the object of the present invention, an information processing system that generates a composite image obtained by synthesizing a real image captured in a real space and a virtual image of a virtual object, and a speed resulting from the movement of the imaging device And a specifying unit that specifies a virtual object that is hidden in a predetermined range according to the position and orientation of the imaging device when the speed acquired by the speed acquiring unit exceeds a predetermined value. And the virtual object specified by the specifying means is hidden so that the experience person can visually recognize the image of the real space, the virtual object according to the position and orientation of the imaging device, and the real image of the real space, And a drawing control means for performing drawing control using the.

本発明によれば、体験者がよろめいた場合などに、実写画像を視認させることで体験者が迅速な回避行動をとることができる。   According to the present invention, when an experienced person staggers, the experienced person can take a quick avoidance action by visually recognizing a live-action image.

複合現実感システム構成および、各ハードウェアのハードウェア構成の一例を示す図であるIt is a figure which shows an example of a mixed reality system configuration and the hardware configuration of each hardware 機能構成図の一例を示す図であるIt is a figure which shows an example of a functional block diagram アプリケーション構成図の一例を示す図であるIt is a figure which shows an example of an application block diagram 第1の実施形態における複合現実感システムの詳細な処理のフローチャートであるIt is a flowchart of the detailed process of the mixed reality system in 1st Embodiment. 透過されない仮想画像が合成された画像の表示の一例を示すイメージ図であるIt is an image figure which shows an example of the display of the image which the virtual image which is not transmitted is synthesize | combined 透過された仮想画像が合成された画像の表示の一例を示すイメージ図であるIt is an image figure which shows an example of the display of the image which the transparent virtual image was synthesize | combined. 透過率の推移を示すグラフであるIt is a graph which shows transition of the transmittance | permeability 透過率を算出する計算式の一例を示す図であるIt is a figure which shows an example of the formula which calculates the transmittance | permeability. モデルの情報を管理するデータの一例を示す図である。It is a figure which shows an example of the data which manage the information of a model. 第2の実施形態における複合現実感システムの詳細な処理のフローチャートであるIt is a flowchart of the detailed process of the mixed reality system in 2nd Embodiment. 所定距離内のモデルが透過表示される一例を示す図。The figure which shows an example by which the model within predetermined distance is displayed transparently. 第2の実施形態における各モデル(仮想物体としての3次元モデル)の情報を管理するデータの一例を示す図であるIt is a figure which shows an example of the data which manage the information of each model (3D model as a virtual object) in 2nd Embodiment. クリッピング平面の概念を示した図である。It is the figure which showed the concept of the clipping plane. モデルの情報を管理するデータの一例を示す図である。It is a figure which shows an example of the data which manage the information of a model. 距離nearに位置する前方クリッピング平面をdist分移動させた場合の視錐台のパラメータを求めるための計算式である。It is a calculation formula for obtaining the parameters of the view frustum when the front clipping plane located at the distance near is moved by dist. 第3の実施形態の詳細を示す、複数の非表示制御方式を採用した場合の表示制御のフローチャートである。It is a flowchart of the display control at the time of employ | adopting the several non-display control system which shows the detail of 3rd Embodiment. 第3の実施形態における複合現実アプリケーションで制御されたHMD120で表示される映像の一例を示す図である。It is a figure which shows an example of the image | video displayed by HMD120 controlled by the mixed reality application in 3rd Embodiment. 体験者がよろめいた際にHMD120で表示される映像の一例である。It is an example of the image | video displayed by HMD120 when an experience person staggers. 本発明における機能ブロック図を示す図である。It is a figure which shows the functional block diagram in this invention.

〔第1の実施形態〕
以下、図面を参照して、本発明の実施形態を詳細に説明する。
[First Embodiment]
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明におけるシステム構成および、各ハードウェアのハードウェア構成の一例を示す図である。すなわち、撮像装置としてのHMD120で撮像された現実空間の実写画像と仮想物体の仮想画像を合成した合成画像を生成する情報処理システムの一例を示す図である。   FIG. 1 is a diagram illustrating an example of a system configuration and a hardware configuration of each hardware in the present invention. That is, it is a diagram illustrating an example of an information processing system that generates a composite image obtained by combining a real image captured in a real space captured by an HMD 120 serving as an image capturing apparatus and a virtual image of a virtual object.

本実施形態は、PC100(情報処理装置)とHMD120が通信可能な構成となっている。HMDは、ヘッドマウントディスプレイで、PC100で現実の映像と3次元(3D)CGモデルを合成した画像を表示する装置である。また、HMD120は現実の映像を撮像する装置である。   In the present embodiment, the PC 100 (information processing apparatus) and the HMD 120 can communicate with each other. The HMD is a head-mounted display that displays an image obtained by synthesizing an actual video and a three-dimensional (3D) CG model on the PC 100. The HMD 120 is a device that captures real images.

図1において、101はCPUで、システムバス104に接続される各デバイスやコントローラを統括的に制御する。また、ROM102あるいは補助記憶装置113には、CPU101の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、PCで実行する機能を実現するために必要なプログラム等が記憶されている。   In FIG. 1, reference numeral 101 denotes a CPU that comprehensively controls each device and controller connected to the system bus 104. Further, the ROM 102 or the auxiliary storage device 113 has a BIOS (Basic Input / Output System) or an operating system program (hereinafter referred to as OS) that is a control program of the CPU 101, a program necessary for realizing a function executed by the PC, and the like. Is remembered.

103はRAMで、CPU101の主メモリ、ワークエリア等として機能する。CPU101は、処理の実行に際して必要なプログラム等をROM102あるいは補助記憶装置113からRAM103にロードして、該ロードしたプログラムを実行することで各種動作を実現するものである。   Reference numeral 103 denotes a RAM which functions as a main memory, work area, and the like for the CPU 101. The CPU 101 implements various operations by loading a program or the like necessary for execution of processing from the ROM 102 or the auxiliary storage device 113 into the RAM 103 and executing the loaded program.

また、105は入力コントローラで、キーボード(KB)110やマウス111等のポインティングデバイス等からの入力を制御する。106はビデオコントローラで、ディスプレイ121およびHMD120に内蔵されるディスプレイ121等の表示器への表示を制御する。なおディスプレイ121へは、外部出力端子(例えば、Digital Visual Interface)を用いて出力される。ディスプレイ121は、右目ディスプレイ、左目ディスプレイで構成されている。
ディスプレイ121は体験者が使用するものであり、ディスプレイ121は主にオペレータが使用する液晶ディスプレイである。
An input controller 105 controls input from a pointing device such as a keyboard (KB) 110 and a mouse 111. A video controller 106 controls display on a display device such as the display 121 and the display 121 built in the HMD 120. In addition, it outputs to the display 121 using an external output terminal (for example, Digital Visual Interface). The display 121 includes a right eye display and a left eye display.
The display 121 is used by an experienced person, and the display 121 is a liquid crystal display mainly used by an operator.

107は汎用バスで、HMD120に内蔵されたカメラ122からの映像を取り込むために使用される。カメラ122からは、外部入力端子(例えば、IEEE1394端子)を用いて入力される。カメラ122は、右目ビデオカメラ、左目ビデオカメラで構成されている。
なお、本実施形態では。HMD120とPC100を有線で接続する構成としているが、無線通信によって画像の送受信を行ってもよい。
Reference numeral 107 denotes a general-purpose bus, which is used to capture video from the camera 122 built in the HMD 120. From the camera 122, it inputs using an external input terminal (for example, IEEE1394 terminal). The camera 122 includes a right eye video camera and a left eye video camera.
In the present embodiment. Although the HMD 120 and the PC 100 are connected by wire, the image may be transmitted and received by wireless communication.

108はメモリコントローラで、ブートプログラム,各種のアプリケーション,フォントデータ,ユーザファイル,編集ファイル,各種データ等を記憶する外部記憶装置(ハードディスク(HD))や、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等の補助記憶装置113へのアクセスを制御する。   Reference numeral 108 denotes a memory controller, which is installed in an external storage device (hard disk (HD)), flexible disk (FD), or PCMCIA card slot for storing a boot program, various applications, font data, user files, editing files, various data, and the like. Controls access to the auxiliary storage device 113 such as a compact flash (registered trademark) memory connected via the adapter.

109はネットワークコントローラで、ネットワーク(例えば、図1に示したネットワーク114)を介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信等が可能である。   Reference numeral 109 denotes a network controller, which is connected to and communicates with an external device via a network (for example, the network 114 shown in FIG. 1), and executes communication control processing in the network. For example, communication using TCP / IP is possible.

本発明を実現するための後述する各種プログラムは、補助記憶装置113に記録されており、必要に応じてRAM103にロードされることによりCPU101によって実行されるものである。さらに、上記プログラムの実行時に用いられる各種モデルデータ等も、補助記憶装置113に格納されており、これらについての詳細な説明も後述する。   Various programs to be described later for realizing the present invention are recorded in the auxiliary storage device 113 and are executed by the CPU 101 by being loaded into the RAM 103 as necessary. Further, various model data used at the time of execution of the program are also stored in the auxiliary storage device 113, and detailed description thereof will be described later.

次に、図2を用いて、本発明のおける機能構成図の説明をする。図2は、本発明における機能構成図の一例を示す図である。   Next, a functional configuration diagram according to the present invention will be described with reference to FIG. FIG. 2 is a diagram showing an example of a functional configuration diagram according to the present invention.

位置姿勢計測部201は、体験者がHMD120の現実世界における位置姿勢を計測する。位置姿勢を計測する手法としては、二次元マーカーを現実空間に配置し、マーカーの位置姿勢と大きさに関する情報をあらかじめ位置姿勢計測部201に与えておき、カメラ122に写りこんだ二次元マーカーを認識して、その画像上での大きさや歪みからHMD120の位置姿勢を求める。なお、上記の位置姿勢の求め方以外に、HMD120に磁気や赤外線マーカーを用いた位置姿勢センサーを取り付ける手法、またそれらを複合させて使う手法などがあり、いずれも既知の技術で実現可能である。位置姿勢の計測は、特開2005−83826号公報などに開示されている。すなわち、位置姿勢の特定は実写画像のマーカーを用いずに実現することも可能である。   The position / orientation measurement unit 201 measures the position and orientation of the HMD 120 in the real world by the experienced person. As a method for measuring the position and orientation, a two-dimensional marker is arranged in the real space, information on the position and orientation and the size of the marker is given to the position and orientation measurement unit 201 in advance, and the two-dimensional marker reflected in the camera 122 is used. The position and orientation of the HMD 120 are determined from the size and distortion on the image. In addition to the method for obtaining the position and orientation described above, there are a method for attaching a position and orientation sensor using magnetism or an infrared marker to the HMD 120, a method for using them in combination, etc., all of which can be realized by known techniques. . The position and orientation measurement is disclosed in Japanese Patent Application Laid-Open No. 2005-83826. That is, the position and orientation can be specified without using the marker of the photographed image.

加速度計測部202は、現実空間におけるHMD120の移動中の加速度を計測し、当該加速度が一定の閾値を超えた際に画面表示制御部203に通知する機能を持つ。加速度を計測する手法としては、位置姿勢計測部から得られたHMD120の三次元位置姿勢の時系列データを2階微分することによって加速度を求めてもよいし、HMD120に直接加速度センサーを取り付け、その値を取得してもよい。
画面表示制御部203は、ディスプレイ121に表示する映像(合成画像)を生成、制御する役割を持つ。
The acceleration measurement unit 202 has a function of measuring the acceleration during movement of the HMD 120 in the real space and notifying the screen display control unit 203 when the acceleration exceeds a certain threshold. As a method for measuring the acceleration, the acceleration may be obtained by second-order differentiation of the time series data of the three-dimensional position and orientation of the HMD 120 obtained from the position and orientation measurement unit, or an acceleration sensor is directly attached to the HMD 120, A value may be acquired.
The screen display control unit 203 has a role of generating and controlling a video (composite image) to be displayed on the display 121.

具体的には、カメラ122が撮影した現実空間の画像の描画を実写画像描画部204に依頼する。次に、位置姿勢計測部201からその時点でのHMD120の位置姿勢を受け取り、CG画像描画部205に、当該の位置姿勢から見たCG(モデル画像)の描画を依頼する。次に、実写画像描画部204とCG画像描画部205が描画した画像を重ね合わせて合成する。このとき加速度計測部202から加速度が閾値を超えた通知があるかどうか確認をし、閾値を超えている場合は、CG画像描画部205が描画したCG(モデル画像)を半透明にして重ね合わせを行う。この時の透明度は閾値を超えてからの時間によって変化するよう制御され、CG(モデル画像)がフェードアウトした後半透明な状態が数秒続き、その後不透明な状態にフェードインするという制御をする。これにより、体験者にとって突然CGが消えたという驚きが少ないようにする。この制御の詳細は後述する。   Specifically, the real-image drawing unit 204 is requested to draw a real space image taken by the camera 122. Next, the position / orientation of the HMD 120 at that time is received from the position / orientation measurement unit 201, and the CG image drawing unit 205 is requested to draw a CG (model image) viewed from the position / orientation. Next, the images drawn by the photographed image drawing unit 204 and the CG image drawing unit 205 are superimposed and combined. At this time, it is checked whether there is a notification that the acceleration exceeds the threshold value from the acceleration measuring unit 202. If the threshold value is exceeded, the CG (model image) drawn by the CG image drawing unit 205 is made semi-transparent and superimposed. I do. The transparency at this time is controlled so as to change depending on the time after exceeding the threshold value, and the latter half transparent state in which the CG (model image) fades out lasts for several seconds, and then fades in to the opaque state. This reduces the surprise that the CG suddenly disappeared for the experienced person. Details of this control will be described later.

また、キャリブレーション部206を備えている。このキャリブレーション部206は、基準マーカーを用いて、現実空間における仮想空間に対する原点を決定し、現実空間と仮想空間の位置を関連付ける。この原点を基準に、予め3次元モデルの位置、姿勢を記憶させる。これにより、現実空間の実写画像に対して、HMD120から見た方向での仮想物体の仮想画像を合成して、現実空間上に仮想物体が存在するように見せる。この原点および、3次元モデルの位置、姿勢をグラフィックエンジン302に記憶させることによって、実写画像にHMD120から見た仮想物体の仮想画像を合成することが可能となる。このキャリブレーション部206でのキャリブレーションは、システムを起動する初めに行うものとする。   A calibration unit 206 is also provided. The calibration unit 206 determines the origin for the virtual space in the real space using the reference marker, and associates the position of the real space with the virtual space. Based on this origin, the position and orientation of the three-dimensional model are stored in advance. As a result, the virtual image of the virtual object in the direction viewed from the HMD 120 is synthesized with the real image in the real space so that the virtual object exists in the real space. By storing the origin and the position and orientation of the three-dimensional model in the graphic engine 302, it is possible to synthesize a virtual image of a virtual object viewed from the HMD 120 with a real image. It is assumed that the calibration by the calibration unit 206 is performed at the beginning of starting the system.

次に、図3を用いて、本発明のおけるアプリケーション構成図の説明をする。図3は、本発明におけるアプリケーション構成図の一例を示す図である。   Next, an application configuration diagram according to the present invention will be described with reference to FIG. FIG. 3 is a diagram showing an example of an application configuration diagram in the present invention.

PC100は、オペレーティングシステム301、グラフィックエンジン302、複合現実感プラットフォーム303(MRプラットフォームともいう)、複合現実感アプリケーション304(MRアプリケーションやビューアアプリケーションともいう)で構成され、CPU101により制御されている。
オペレーティングシステム301は、HMD120の入出力を制御し
The PC 100 includes an operating system 301, a graphic engine 302, a mixed reality platform 303 (also referred to as an MR platform), and a mixed reality application 304 (also referred to as an MR application or a viewer application), and is controlled by the CPU 101.
The operating system 301 controls input / output of the HMD 120.

カメラ122から入力インターフェースを介して得られた実写画像を複合現実感プラットフォーム303受け渡す。またグラフィックエンジン302で描画された合成画像を出力インターフェースを介して、ディスプレイ121へ出力する。 The real image obtained from the camera 122 via the input interface is delivered to the mixed reality platform 303. The composite image drawn by the graphic engine 302 is output to the display 121 via the output interface.

グラフィックエンジン302は、3次元モデルから描画する画像を生成し、実写画像と合成する。描画に利用するエンジンは、例えば、OpenGLやDirectXなどの広く利用されているグラフィックエンジンでも、独自に開発したグラフィックエンジンでもよい。なお、本実施形態ではグラフィックライブラリとしてOpenGLを利用するものとする。   The graphic engine 302 generates an image to be drawn from the three-dimensional model and synthesizes it with the photographed image. The engine used for drawing may be, for example, a widely used graphic engine such as OpenGL or DirectX, or an independently developed graphic engine. In the present embodiment, OpenGL is used as the graphic library.

複合現実感プラットフォーム303は、実写画像のマーカーを検出し、マーカーをもとにHMD120の位置・姿勢を特定し、現実空間と仮想空間の位置合わせを行う。なお、位置姿勢や位置合わせの技術は、既知の技術として開示されている、特開2002−32784、特開2006−072903、特開2007−166427を用いて実現するものとするが、なおマーカーを使用せずに、HMD120に位置センサーを備え、この位置センサーを用いて三角測量により計測された位置をもとに、HMD120の位置や姿勢を特定して実現することも可能である。   The mixed reality platform 303 detects a marker of a live-action image, specifies the position / posture of the HMD 120 based on the marker, and aligns the real space and the virtual space. Note that the position and orientation and the alignment technique are realized by using JP-A-2002-32784, JP-A-2006-072903, and JP-A-2007-166427, which are disclosed as known techniques. Instead of using the HMD 120, the HMD 120 may be provided with a position sensor, and the position and orientation of the HMD 120 may be specified based on the position measured by triangulation using the position sensor.

また複合現実感プラットフォーム303は、マーカーからHMD120の加速度を算出して、3次元モデルの透過率を決定する。なお、加速度の算出については、HMD120に加速度センサーを備えて、マーカーを使用せずに加速度を算出してもよい。   Further, the mixed reality platform 303 calculates the acceleration of the HMD 120 from the marker and determines the transmittance of the three-dimensional model. For calculating the acceleration, the HMD 120 may be provided with an acceleration sensor, and the acceleration may be calculated without using a marker.

複合現実感アプリケーション304は、複合現実感プラットフォーム303から位置、姿勢、透過率を受け付け、グラフィックエンジン302に対して3次元モデルの描画命令を発行する。この時、OpenGLのAPIを用いて、モデル情報、位置情報、姿勢情報、透過率を設定した命令を発行する。   The mixed reality application 304 receives the position, orientation, and transmittance from the mixed reality platform 303 and issues a three-dimensional model drawing command to the graphic engine 302. At this time, a command in which model information, position information, posture information, and transmittance are set is issued using the OpenGL API.

次に、本実施形態における複合現実感システムの詳細な処理について図4を用いて説明する。図4は、複合現実感システムの詳細な処理のフローチャートである。
ステップS401では、HMD120のカメラ122で、実写画像(映像)を撮像する。
ステップS402では、HMD120のカメラ122で撮像した画像をPC100に送信する。
Next, detailed processing of the mixed reality system in the present embodiment will be described with reference to FIG. FIG. 4 is a flowchart of detailed processing of the mixed reality system.
In step S <b> 401, a real image (video) is captured by the camera 122 of the HMD 120.
In step S402, an image captured by the camera 122 of the HMD 120 is transmitted to the PC 100.

ステップS403では、HMD120の撮影が終了したか否かを判定して、終了するまで、撮像と画像送信を繰り返す。すなわち、HMD120は撮像するとPC100に画像を繰り返し送信する。
ステップS404では、オペレーティングシステム301を介して複合現実感プラットフォーム303が画像を受信する。
In step S403, it is determined whether or not shooting of the HMD 120 has been completed, and imaging and image transmission are repeated until the shooting is completed. That is, when the HMD 120 captures an image, the HMD 120 repeatedly transmits an image to the PC 100.
In step S <b> 404, the mixed reality platform 303 receives an image via the operating system 301.

ステップS405では、複合現実感プラットフォーム303では、変数「t」にPC100のシステム時間を代入する。この変数「t」は後述の透明度の制御で用いる。
ステップS406では、複合現実感プラットフォーム303の位置姿勢計測部201によりHMD120の位置・姿勢を計測する。
In step S405, the mixed reality platform 303 substitutes the system time of the PC 100 for the variable “t”. This variable “t” is used in transparency control described later.
In step S406, the position / orientation measurement unit 201 of the mixed reality platform 303 measures the position / orientation of the HMD 120.

ステップS407では、複合現実感プラットフォーム303の加速度計測部202により、加速度を計算する。なお、上述したように加速度は加速度センサーにより求められるものであってもよい。   In step S407, acceleration is calculated by the acceleration measuring unit 202 of the mixed reality platform 303. As described above, the acceleration may be obtained by an acceleration sensor.

ステップS408では、複合現実感プラットフォーム303が、複合現実感プラットフォーム303で管理している透過率制御のフラグがTrue、すなわち透過率を制御している状態化を判定する。透過率を制御している場合(True)には、ステップS413へ処理を移し、透過率を制御していない場合(False)には、ステップS409へ処理を移す。   In step S408, the mixed reality platform 303 determines that the transmittance control flag managed by the mixed reality platform 303 is True, that is, the state in which the transmittance is controlled. If the transmittance is controlled (True), the process proceeds to step S413. If the transmittance is not controlled (False), the process proceeds to step S409.

ステップS409では、複合現実感プラットフォーム303は、ステップS407で計測された加速度を取得する。すなわち、撮像装置の加速度を取得する加速度取得処理の一例を示すステップである。   In step S409, the mixed reality platform 303 acquires the acceleration measured in step S407. That is, this is a step showing an example of an acceleration acquisition process for acquiring the acceleration of the imaging apparatus.

ステップS410では、複合現実感プラットフォーム303が管理している加速度の閾値と比較する。加速度が閾値以上であった場合に、ステップS412へ処理を移し、加速度が閾値未満であった場合には、ステップS411へ処理を移す。なお、加速度が閾値以上である場合とは、HMD120を装着している体験者がつまずくなどして人が転倒する可能性がある場合であり、加速度が閾値未満である場合とは、人の通常の動作である場合である。   In step S410, a comparison is made with an acceleration threshold value managed by the mixed reality platform 303. If the acceleration is equal to or greater than the threshold value, the process proceeds to step S412. If the acceleration is less than the threshold value, the process proceeds to step S411. The case where the acceleration is greater than or equal to the threshold value is a case where the person wearing the HMD 120 may trip and the person may fall, and the case where the acceleration is less than the threshold value is a normal person This is the case.

本実施形態では、加速度の閾値として「60m/s^2」を用いて判定するように構成したが、あくまでも一例でありこれに限ることはない。なお、図7のグラフは、加速度閾値を「60m/s^2」としてあらわしたグラフである。   In the present embodiment, the determination is made using “60 m / s ^ 2” as the acceleration threshold value, but this is only an example and the present invention is not limited to this. The graph of FIG. 7 is a graph that represents the acceleration threshold value as “60 m / s ^ 2.”

ステップS411では、複合現実感プラットフォーム303は透過率に「0」を代入する。透過率を「0」とすることは、CG画像を透過させずに実写画像に合成(重畳)することになる。透過率「0」として実写画像と仮想画像を重畳し、ディスプレイ121で表示された例が図5である。図5の説明は後述する。   In step S411, the mixed reality platform 303 substitutes “0” for the transmittance. Setting the transmittance to “0” means that the CG image is synthesized (superimposed) on the actual image without transmitting it. FIG. 5 shows an example in which the real image and the virtual image are superimposed on each other with the transmittance “0” and displayed on the display 121. The description of FIG. 5 will be described later.

ステップS412では、加速度が閾値を超えたため、複合現実感プラットフォーム303が、透過率制御のフラグに「True」を設定し、変数「t」にPC100のシステムの現在時刻を設定する。これにより、透過制御が開始される。すなわち、加速度が所定値を超えた場合に、透過設定する処理の一例を示すステップである。 In step S412, since the acceleration exceeds the threshold value, the mixed reality platform 303 sets “True” for the transmittance control flag, and sets the current time of the system of the PC 100 for the variable “t 0 ”. Thereby, the transmission control is started. That is, it is a step showing an example of a process for setting transparency when the acceleration exceeds a predetermined value.

ステップS413では、複合現実感プラットフォーム303が、現在時刻「t」における透過率を計算する。透過率の計算は、図8の計算式を用いて算出する。なお、図8の計算式は、一例を示すものであってこれに限ることはない。また、ここで透過率が「0」になる場合(加速度が閾値を超えた直後、すなわち透過率制御フラグを「True」に設定した後のステップS413の計算の場合)には、透過率に所定の値をプラスして、透過を始めるように制御する。ステップS413は、加速度取得処理で取得された加速度が所定値を超えた場合に、現実空間の画像を体験者に視認させるべく仮想画像の透過値を取得する透過値取得の一例を示すステップである。   In step S413, the mixed reality platform 303 calculates the transmittance at the current time “t”. The transmittance is calculated using the calculation formula of FIG. The calculation formula of FIG. 8 shows an example and is not limited to this. If the transmittance is “0” (immediately after the acceleration exceeds the threshold, that is, in the case of calculation in step S413 after the transmittance control flag is set to “True”), the transmittance is set to a predetermined value. Is controlled to start transmission. Step S413 is a step showing an example of transmission value acquisition for acquiring the transmission value of the virtual image so that the user can visually recognize the image in the real space when the acceleration acquired in the acceleration acquisition process exceeds a predetermined value. .

また、ステップS413は、透過設定中(透過率制御が「True」)の場合、図8の計算式により、前回の透過値より高い透過値を決定する処理の一例を示すステップである。そして、後述のステップS418にて、前回の透過値より高い透過値を用いて、仮想画像を透過制御する。
図8の計算式を用いた場合の透過率を表すグラフ(透過率の推移を示すグラフ)が図7となる。
Further, step S413 is a step showing an example of processing for determining a transmission value higher than the previous transmission value by the calculation formula of FIG. 8 when transmission setting is being performed (transmission control is “True”). In step S418, which will be described later, the virtual image is controlled to be transmitted using a transmission value higher than the previous transmission value.
FIG. 7 is a graph showing the transmittance when the calculation formula of FIG. 8 is used (graph showing the transition of the transmittance).

ここで、図7について説明する。なお、上述したように、加速度の閾値として「60m/s^2」を用いている。   Here, FIG. 7 will be described. As described above, “60 m / s ^ 2” is used as the acceleration threshold.

変数「p」は時刻「t」における透過率を表している。また、変数「t0」はHMD120の加速度が閾値を超えた時刻を表している。また、定数「a」は透過率の立ち上がり、立ち下がりの傾きを表している。「a」の傾きに従って透過率が変化することで、突然CGが消えて、体験者の転倒時の混乱につながらないようにすることが可能となる。 The variable “p” represents the transmittance at time “t”. The variable “t 0” represents the time when the acceleration of the HMD 120 exceeds the threshold value. The constant “a” represents the rising and falling slopes of the transmittance. By changing the transmittance according to the inclination of “a”, it becomes possible to prevent the CG from disappearing suddenly and leading to confusion when the experience person falls.

また定数「d」は最大透過率を維持する時間を表している。また、定数「pMax」は最大透過率を表している。なお、CGを完全に消してしまうと体験者に混乱をもたらすので、「pMax」の値は100%未満とし、透過率制御中でもCGが完全には消えないようにすることが望ましい。
なお、「d」の間に再度、HMD120の加速度が閾値を超えた場合には、加速度が閾値を超えた時間から再度「d」の時間分、「pMax」の最大透過率で透過制御するようにしてもよい。また、「a」の立ち下り時に、HMD120の加速度が閾値を超えた場合には、現在の透過率を基準に、「pMax」まで透過率が立ち上がるように制御してもよい。
The constant “d” represents the time for maintaining the maximum transmittance. The constant “pMax” represents the maximum transmittance. Note that if the CG is completely erased, it will cause confusion for the experienced person. Therefore, it is desirable to set the value of “pMax” to less than 100% so that the CG does not completely disappear even during the transmittance control.
If the acceleration of the HMD 120 exceeds the threshold again during “d”, the transmission control is performed with the maximum transmittance of “pMax” for the time “d” again from the time when the acceleration exceeds the threshold. It may be. Further, when the acceleration of the HMD 120 exceeds the threshold value at the time of falling of “a”, the transmittance may be controlled to rise to “pMax” with reference to the current transmittance.

ステップS414では、複合現実感プラットフォーム303が、透過率が「0」か否かを判断する。透過率が「0」の場合、ステップS415へ処理を移す。すなわち、透過率が「0」になった場合とは、透過が終わった場合である。また透過率が「0」でない場合には、ステップS416へ処理を移す。すなわち、透過率が「0」でない場合とは、透過中の場合である。   In step S414, the mixed reality platform 303 determines whether or not the transmittance is “0”. If the transmittance is “0”, the process proceeds to step S415. That is, the case where the transmittance becomes “0” is a case where the transmission is finished. If the transmittance is not “0”, the process proceeds to step S416. That is, the case where the transmittance is not “0” is a case where transmission is in progress.

ステップS415では、複合現実感プラットフォーム303が、透過率制御フラグを「False」に設定し、透過制御を終了させる。すなわち、透過設定中(透過率制御フラグ「True」)、且つ、透過率(値)が基準値(例えば、「0」)に戻った場合に、仮想画像を透過させないよう透過設定を解除する処理の一例を示すステップである。   In step S415, the mixed reality platform 303 sets the transmittance control flag to “False” and ends the transmission control. That is, when the transmission setting is being performed (transmission control flag “True”) and the transmission (value) returns to a reference value (for example, “0”), the transmission setting is canceled so that the virtual image is not transmitted. It is a step which shows an example.

ステップS416では、複合現実感プラットフォーム303が、複合現実感アプリケーション304に、位置情報、姿勢情報、透過率を受け渡す。複合現実感アプリケーション304は、位置情報、姿勢情報をもとに、実写画像に合成するモデルを特定する。本実施形態の場合、特定されるモデルは901と902である。位置情報と姿勢情報に従って描画するモデルを特定する技術は、既知の技術であるため説明を省略する。   In step S <b> 416, the mixed reality platform 303 passes the position information, posture information, and transmittance to the mixed reality application 304. The mixed reality application 304 specifies a model to be combined with a live-action image based on position information and posture information. In the present embodiment, the identified models are 901 and 902. Since a technique for specifying a model to be drawn according to position information and posture information is a known technique, the description thereof is omitted.

なお、図9は、各モデル(仮想物体としての3次元モデル)の情報を管理するデータの一例を示す図である。各モデルに対して、3次元モデル名、位置情報、透過フラグを関しておき、描画するモデルを特定する、あるいは透過するモデルか否かを判定するために用いられる。この図9のデータは、復号現実感システムを運用するユーザーが予め記憶させるものとする。
なお、図9のデータは、複合現実感アプリケーション304が参照するデータとしたが、複合現実感プラットフォーム303が参照するようにし、複合現実感プラットフォーム303で描画するモデルを判定するようにすることも可能である。複合現実感プラットフォーム303で実現するか、複合現実感アプリケーション304で実現するかは適宜設計によって変更できてもよい。
FIG. 9 is a diagram illustrating an example of data for managing information of each model (a three-dimensional model as a virtual object). Each model is associated with a three-dimensional model name, position information, and a transparency flag, and is used to specify a model to be drawn or to determine whether or not it is a transparent model. The data shown in FIG. 9 is stored in advance by a user who operates the decrypted reality system.
The data in FIG. 9 is data referred to by the mixed reality application 304. However, the mixed reality platform 303 may refer to the data and the model to be rendered on the mixed reality platform 303 may be determined. It is. Whether it is realized by the mixed reality platform 303 or the mixed reality application 304 may be appropriately changed by design.

ステップS417では、複合現実感アプリケーション304が、描画させるモデルが透過するモデルか否かを透過フラグ903に従って判定する。すなわち、速度が所定値を超えた場合に、HMD120(撮像装置)の位置と姿勢に従って、所定の範囲で非表示となる仮想物体を特定する処理の一例を示すステップである。
透過フラグが「ON」のモデルは、人が転倒し、手をつく場合に影響するモデルであり、透過フラグが「OFF」のモデルは、人が転倒した場合に、影響しないモデルである。この透過するモデルと透過させないモデルを設定しておくことで、より没入感を損ねることなく、複合現実感システム上での転倒を回避させることが可能となる。なお、すべてのモデルに対して透過制御させる構成をとることも可能であることは言うまでもない。
透過フラグが「ON」のモデルの場合には、ステップS418へ処理を移し、透過フラグが「OFF」のモデルの場合には、ステップS419へ処理を移す。
すなわち、ステップS417は、透過させる仮想画像か否かを判定する透過判定処理の一例を示すステップである。
なお、合成するモデルそれぞれに対してフラグを判定し、それぞれのモデルに対して、ステップS419又はステップS420の処理を実行するものとする。
In step S417, the mixed reality application 304 determines whether the model to be drawn is a transparent model according to the transparent flag 903. That is, this is a step showing an example of a process of specifying a virtual object that is not displayed in a predetermined range according to the position and orientation of the HMD 120 (imaging device) when the speed exceeds a predetermined value.
The model with the transparency flag “ON” is a model that affects when a person falls and touches the hand, and the model with a transparency flag “OFF” is a model that does not affect when a person falls. By setting the transparent model and the non-transparent model, it is possible to avoid a fall on the mixed reality system without impairing the immersive feeling. Needless to say, it is possible to adopt a configuration in which transmission control is performed for all models.
If the model has the transparency flag “ON”, the process proceeds to step S418. If the model has the transparency flag “OFF”, the process proceeds to step S419.
That is, step S417 is a step showing an example of a transparency determination process for determining whether or not the virtual image is transparent.
Note that a flag is determined for each model to be combined, and the process of step S419 or step S420 is executed for each model.

ステップS418では、複合現実感アプリケーション304がグラフィックエンジン302のAPIを用いてモデル情報と、位置情報、姿勢情報、透過率(ステップS413で計算され、取得した透過率)を含む描画命令をグラフィックエンジン302に発行して、グラフィックエンジン302がモデルと透過率から合成する仮想画像を生成する。より詳細には、グラフィックエンジン302が位置情報と姿勢情報に従って、描画命令のあったモデルの仮想空間上での位置姿勢を決定し、この位置姿勢になるようにモデルを制御して、モデルの仮想画像を生成する。この生成される仮想画像に対して、透過率が設定される。   In step S418, the mixed reality application 304 uses the API of the graphic engine 302 to send a rendering command including model information, position information, posture information, and transmittance (the transmittance calculated and acquired in step S413) to the graphic engine 302. The graphic engine 302 generates a virtual image to be synthesized from the model and the transmittance. More specifically, the graphic engine 302 determines the position and orientation in the virtual space of the model for which the rendering command has been issued in accordance with the position information and orientation information, and controls the model so as to obtain this position and orientation. Generate an image. A transmittance is set for the generated virtual image.

なお、グラフィックエンジン302は、CADアプリケーションで生成された3次元モデルを参照可能なように管理している。3次元モデルは、補助記憶装置113に記憶されているものとするが、別筐体のサーバに管理する構成であってもよい。   The graphic engine 302 manages the 3D model generated by the CAD application so that it can be referred to. Although the three-dimensional model is stored in the auxiliary storage device 113, the three-dimensional model may be managed by a server in a separate housing.

ステップS419では、透過させるモデルでないため、複合現実感アプリケーション304がグラフィックエンジン302のAPIを用いてモデル情報と、位置情報、姿勢情報、透過率(0)を含む描画命令をグラフィックエンジン302に発行して、グラフィックエンジン302がモデルと透過率から合成する仮想画像を生成する。
すなわち、ステップS419は、透過判定で透過させない仮想画像である場合には、仮想画像を透過させることなく、ステップS418は、透過判定で透過させる仮想画像と判定された場合に、決定された透過率に従って仮想画像を透過制御する処理の一例を示すステップである。
In step S419, since it is not a transparent model, the mixed reality application 304 uses the API of the graphic engine 302 to issue a drawing command including model information, position information, posture information, and transparency (0) to the graphic engine 302. Thus, the graphic engine 302 generates a virtual image to be synthesized from the model and the transmittance.
In other words, when the virtual image that is not transmitted in the transmission determination is not transmitted through step S419, the virtual image is not transmitted. In step S418, the determined transmittance is determined as the virtual image that is transmitted through the transmission determination. 5 is a step showing an example of processing for controlling the transmission of a virtual image according to the steps.

ステップS420では、複合現実感アプリケーション304が合成する全てのモデルの仮想画像を生成したか否かを判定する。具体的には、複合現実感アプリケーション304が仮想画像を生成するモデルに対して、描画命令をグラフィックエンジン302に発行したか否かを判定する。なお。グラフィックエンジン302は、位置情報、姿勢情報をもとに、合成するモデルを特定して、仮想画像を生成し、実写画像に仮想画像を描画することが可能であるため、グラフィックエンジン302にすべてのモデルの描画命令を発行し、グラフィックエンジン302が仮想画像を生成したか否かを判定するようにしてもよい。
ステップS418とステップS419で生成された仮想画像と実写画像を重畳し、ディスプレイ121で表示された例が図6である。図56説明は後述する。
In step S420, it is determined whether the mixed reality application 304 has generated virtual images of all models to be synthesized. Specifically, it is determined whether the mixed reality application 304 has issued a drawing command to the graphic engine 302 for a model for generating a virtual image. Note that. The graphic engine 302 can specify a model to be synthesized based on position information and posture information, generate a virtual image, and draw a virtual image on a real image. A model drawing command may be issued to determine whether the graphic engine 302 has generated a virtual image.
FIG. 6 shows an example in which the virtual image generated in step S418 and step S419 and the photographed image are superimposed and displayed on the display 121. 56 will be described later.

ステップS421では、複合現実感プラットフォーム303が、複合現実感アプリケーション304に、位置情報、姿勢情報、透過率を受け渡す。複合現実感アプリケーション304は、位置情報、姿勢情報をもとに、実写画像に合成するモデル(CG)を特定する。本実施形態の場合、特定されるモデル(CG)は901と902である。位置情報と姿勢情報に従って描画するモデルを特定する技術は、既知の技術であるため説明を省略する。   In step S <b> 421, the mixed reality platform 303 passes position information, posture information, and transmittance to the mixed reality application 304. The mixed reality application 304 specifies a model (CG) to be combined with a live-action image based on position information and posture information. In the present embodiment, the identified models (CG) are 901 and 902. Since a technique for specifying a model to be drawn according to position information and posture information is a known technique, the description thereof is omitted.

ステップS422では、透過させるモデルでないため、複合現実感アプリケーション304がグラフィックエンジン302のAPIを用いてモデル情報と、位置情報、姿勢情報、透過率(0)を含む描画命令をグラフィックエンジン302に発行して、グラフィックエンジン302がモデルと透過率から合成する仮想画像を生成する。より詳細には、位置情報、姿勢情報から、仮想空間におけるモデルの位置と姿勢を制御し、その位置・姿勢を制御したモデルに対して透過率を設定し、仮想空間上の仮想画像を生成する。なお、HMD120の位置、姿勢から、仮想空間上の位置姿勢が特定でき、この位置姿勢から見えるモデルの仮想画像が生成される。   In step S422, since it is not a transparent model, the mixed reality application 304 uses the API of the graphic engine 302 to issue a rendering command including model information, position information, posture information, and transparency (0) to the graphic engine 302. Thus, the graphic engine 302 generates a virtual image to be synthesized from the model and the transmittance. More specifically, the position and orientation of the model in the virtual space are controlled from the position information and orientation information, the transmittance is set for the model whose position and orientation are controlled, and a virtual image in the virtual space is generated. . Note that the position and orientation in the virtual space can be specified from the position and orientation of the HMD 120, and a virtual image of the model that can be seen from this position and orientation is generated.

ステップS423では、グラフィックエンジン302は、位置情報、姿勢情報に従って、ステップS404で受信した実写画像と仮想画像を合成(重畳)し、HMD120のカメラ122に表示する合成画像を生成する。すなわち、ステップS423は、透過された仮想画像と、透過されていない仮想画像と、実写画像を合成する描画制御処理の一例を示すステップである。   In step S423, the graphic engine 302 synthesizes (superimposes) the real image received in step S404 and the virtual image according to the position information and orientation information, and generates a composite image to be displayed on the camera 122 of the HMD 120. That is, step S423 is a step showing an example of a drawing control process for combining the transmitted virtual image, the non-transmitted virtual image, and the real image.

また、ステップS418とステップS423は、撮像装置の位置と姿勢に従って決定された仮想物体に対する、透過率(値)により透過された仮想画像と現実空間の実写画像を描画制御する描画制御処理の一例を示すステップである。   Steps S418 and S423 are an example of a drawing control process for controlling drawing of a virtual image transmitted by transmittance (value) and a real image in real space with respect to a virtual object determined according to the position and orientation of the imaging apparatus. It is the step shown.

ステップS424では、グラフィックエンジン302は、オペレーティングシステム301を介して、生成された合成画像をHMD120へ送信する。すなわち、合成された画像を撮像装置としてのHMD120で表示すべく出力する出力処理の一例を示すステップである。
ステップS425では、HMD120は、合成画像をPC100から受信する。
ステップS426では、HMD120のディスプレイ121により、受信した合成画像を表示する。
In step S424, the graphic engine 302 transmits the generated composite image to the HMD 120 via the operating system 301. That is, it is a step showing an example of output processing for outputting the synthesized image to be displayed on the HMD 120 as the imaging device.
In step S425, the HMD 120 receives the composite image from the PC 100.
In step S426, the received composite image is displayed on the display 121 of the HMD 120.

なお、透過率「0」として仮想画像が生成され、ディスプレイ121で表示された例が図5である。また、加速度が閾値を超え仮想画像が透過制御され、ディスプレイ121で表示された例が図6である。
図5の501のモデルAは、透過率「0」として実写画像に仮想画像を合成して表示しており、502のモデルBは、透過率「0」として実写画像に仮想画像を合成して表示している。
図6の601のモデルAが、透過させるモデル(透過フラグON)であり、ステップS413で計算された透過率に従って生成された仮想画像と実写画像を合成して表示しており、602のモデルBが、透過させないモデル(透過フラグOFF)であり、透過率「0」ディスプレイ121で表示された例が図5である。図5の説明は後述する。
FIG. 5 shows an example in which a virtual image is generated with the transmittance “0” and displayed on the display 121. FIG. 6 shows an example in which the acceleration exceeds the threshold value and the virtual image is controlled to be transmitted and displayed on the display 121.
The model A of 501 in FIG. 5 synthesizes and displays a virtual image on the live-action image with the transmittance “0”, and the model B of 502 synthesizes the virtual image with the real-image image with the transmittance of “0”. it's shown.
A model A of 601 in FIG. 6 is a model to be transmitted (transmission flag ON), and the virtual image generated in accordance with the transmittance calculated in step S413 and the photographed image are combined and displayed, and a model B of 602 is displayed. FIG. 5 shows an example of a model that does not allow transmission (transmission flag OFF) and is displayed on the transmittance “0” display 121. The description of FIG. 5 will be described later.

〔第2の実施形態〕
次に、第2の実施形態について説明する。第2の実施形態では、加速度に応じて、近いモデルを非表示にさせる仕組みである。
[Second Embodiment]
Next, a second embodiment will be described. In the second embodiment, the close model is hidden in accordance with the acceleration.

まず初めに、本実施形態での想定されるケースについて説明する。
複合現実感アプリケーション304において、第1の実施形態のようにCGを透過させることで現実物体を可視化させる手法を用いると、CGの透過処理が視界全体に影響を及ぼしてしまう場合がある。これは、複合現実感において、現実画像と多くの仮想画像を重畳させて表示していることから、体験者から遠いさまざまな仮想物体の画像まで透過表示され、体験している画像が大きく変化することで逆に体験者を混乱させることにつながるためである。
このように、第1の実施形態の透過処理に加え、より危険回避をするためには、視界への影響を最小限にすることが望まれる。
具体的には、体験者の周囲数メートルの現実空間が視認できれば十分であり、その範囲内に存在するCGモデルを非表示にすることが考えられる。
First, a case assumed in the present embodiment will be described.
In the mixed reality application 304, when a method of visualizing a real object by transmitting CG as in the first embodiment is used, the CG transmission processing may affect the entire field of view. This is because, in mixed reality, the real image and many virtual images are superimposed and displayed, so images of various virtual objects far from the experience are transparently displayed, and the image being experienced changes greatly. This is because it leads to confusion of the experience.
Thus, in addition to the transmission processing of the first embodiment, in order to avoid danger more, it is desirable to minimize the influence on the field of view.
Specifically, it is sufficient that a real space of several meters around the experience person can be visually recognized, and it is conceivable to hide the CG model existing within the range.

本実施形態では、体験者のHMD120の位置とCGモデルの位置と、加速度により、非表示または透過制御とするCGモデルを決定し、必要なオブジェクトを決定する。
以下、第2の実施形態の詳細について説明する。なお、第1の実施形態と同様の箇所については説明を省略する。
In the present embodiment, a CG model to be hidden or controlled for transmission is determined based on the position of the experience person's HMD 120, the position of the CG model, and acceleration, and a necessary object is determined.
Details of the second embodiment will be described below. Note that description of the same parts as in the first embodiment is omitted.

第2の実施形態における複合現実感システムの詳細な処理について図10を用いて説明する。図10は、第2の実施形態における複合現実感システムの詳細な処理のフローチャートである。   Detailed processing of the mixed reality system in the second embodiment will be described with reference to FIG. FIG. 10 is a flowchart of detailed processing of the mixed reality system in the second embodiment.

ステップS1001では、ステップS416で特定されたモデルの位置が、HMD120と所定距離内かを判定する。具体的には、特定されたモデルの位置情報(空間上の座標)と、HMD120の位置から直線距離を算出し、算出された距離が、図12の透過範囲1204の距離内かを判定する。1201はPC100に保持している設定ファイル等に記述されているものとする。なおHMD120とモデルの距離を算出する計算方法は既知の計算方法であるため、説明を省略する。   In step S1001, it is determined whether the position of the model specified in step S416 is within a predetermined distance from the HMD 120. Specifically, a straight line distance is calculated from the position information (spatial coordinates) of the specified model and the position of the HMD 120, and it is determined whether the calculated distance is within the distance of the transmission range 1204 in FIG. Assume that 1201 is described in a setting file or the like held in the PC 100. Note that the calculation method for calculating the distance between the HMD 120 and the model is a known calculation method, and thus the description thereof is omitted.

ステップS1001で所定距離内のモデルと判定された場合には、ステップS418へ処理を写し、所定距離外のモデルと判定された場合には、ステップS419へ処理を移す。これにより、所定距離内のモデルは、透過表示され、所定距離外のモデルは透過表示されずに、通常表示される。   If it is determined in step S1001 that the model is within the predetermined distance, the process proceeds to step S418. If it is determined that the model is outside the predetermined distance, the process proceeds to step S419. As a result, models within a predetermined distance are displayed transparently, and models outside the predetermined distance are normally displayed without being transparently displayed.

所定距離内のモデルが透過表示される例を示す図が図11である。この図11を用いて説明すると、加速度が閾値を超える前は、モデルA1001、モデルB1002、モデルC1003が現実画像に重畳表示されている。加速度が閾値を超えた場合には、モデルA1004、モデルB1005、モデルC1006のように重畳表示される。
モデルC1006は、所定距離外のため透過制御されずに表示され、モデルAは所定距離内のため透過制御されて表示されている。モデルB1005は、透過フラグ1200がOFFであるため、透過制御されないで表示される。
なお、上述した所定距離内は、距離以内/未満は何れであってもよいことは言うまでもない。
FIG. 11 shows an example in which a model within a predetermined distance is transparently displayed. Referring to FIG. 11, before the acceleration exceeds the threshold, model A1001, model B1002, and model C1003 are superimposed and displayed on the real image. When the acceleration exceeds the threshold value, they are superimposed and displayed as model A1004, model B1005, and model C1006.
The model C1006 is displayed without transmission control because it is outside the predetermined distance, and the model A is displayed with transmission control being performed within the predetermined distance. The model B 1005 is displayed without being controlled for transparency because the transparency flag 1200 is OFF.
Needless to say, the distance within the predetermined distance may be within or less than the distance.

図12は、第2の実施形態における各モデル(仮想物体としての3次元モデル)の情報を管理するデータの一例を示す図である。   FIG. 12 is a diagram illustrating an example of data for managing information of each model (a three-dimensional model as a virtual object) in the second embodiment.

第2の実施形態によれば、近いCGモデルについて透過させ、遠いCGモデル(よろめいた際にユーザーに影響をおよぼさないCGモデル)は通常表示することで、体験中の映像を大きく変化させることなく、体験者のよる危険回避を行わせることが可能となる。   According to the second embodiment, a near CG model is transmitted, and a distant CG model (a CG model that does not affect the user when staggered) is normally displayed, thereby greatly changing the image being experienced. It is possible to avoid danger by the experience person without any trouble.

〔第3の実施形態〕
次に、第3の実施形態について説明する。第3の実施形態では、加速度に応じて、近いモデルをクリッピングによって非表示にさせる仕組みである。
第3の実施形態は、第2の実施形態のような仮想物体が小さい場合に加え、仮想物体が大きい場合により効果を奏する仕組みである。
[Third Embodiment]
Next, a third embodiment will be described. In the third embodiment, a close model is hidden by clipping according to acceleration.
The third embodiment is a mechanism that is more effective when the virtual object is large in addition to the case where the virtual object is small as in the second embodiment.

複合現実感アプリケーション304においては、仮想物体として建物や大型の家具、プラントの配管など、体験者の周囲を覆う巨大なオブジェクトを配置するケースが考えられる。これらのオブジェクトは単一のCGデータである場合には、仮想物体全体が透過や非表示となり、視界全体に影響を及ぼしてしまう。
また、例えば、建物のようなモデルの場合、オリジナルのCADデータから複合現実感アプリケーションで表示できるモデル形式に変換する過程で部材の情報が失われ、単一の巨大なオブジェクトとして取り扱われるケースが多い。そのため、体験者の近くの部材だけ非表示にするという制御が困難であるという場合もある。
In the mixed reality application 304, there may be a case where a huge object such as a building, large furniture, or plant piping is arranged as a virtual object and covers the periphery of the experience person. When these objects are single CG data, the entire virtual object becomes transparent or non-displayed, which affects the entire field of view.
For example, in the case of a model such as a building, member information is lost in the process of converting from original CAD data to a model format that can be displayed in a mixed reality application, and is often handled as a single huge object. . Therefore, there is a case where it is difficult to control only the members near the experience person to hide.

そこで、第3の実施形態では、モデルの表示状態を制御するための方式としてクリッピング平面の操作による制御を用いて、非表示制御をおこない危険を回避させる仕組みについて説明する。   Therefore, in the third embodiment, a mechanism for avoiding the danger by performing non-display control using control based on the operation of the clipping plane as a method for controlling the display state of the model will be described.

まず初めに、図13を用いて、クリッピング平面について説明する。
図13は、クリッピング平面の概念を示した図である。具体的には、カメラ122の視線方向と垂直になる2つの平面を定義し、カメラ122から近い方(near)に位置する平面を前方クリッピング平面、遠い方(far)に位置する平面を後方クリッピング平面と呼ぶ。この2つの平面と、画面の四辺(top,bottom,left,right)によって切り取られる平面に囲まれた空間内に位置する物体のみ描画し、その外側に位置する物体は切り取って描画対象から除外して表示する。なお、前述の6つの平面に囲まれた空間を視錐台と呼ぶ。
なお、描画において、OpenGLやDirectXなどのグラフィックエンジンを用いる際には、計算アルゴリズム上の制約から、描画する対象の仮想空間を有限な空間に限定されるものとする。
OpenGLにおいては、視錐体の形状はnear,far,top,bottom,left,rightの6つのパラメータによって決定される。
First, the clipping plane will be described with reference to FIG.
FIG. 13 is a diagram showing the concept of the clipping plane. Specifically, two planes that are perpendicular to the viewing direction of the camera 122 are defined, and a plane that is closer to the camera 122 (near) is a front clipping plane and a plane that is farther (far) is rearwardly clipped. Called a plane. Only the object located in the space surrounded by the two planes and the plane cut by the four sides (top, bottom, left, right) of the screen is drawn, and the object located outside is cut out and excluded from the drawing target. To display. The space surrounded by the six planes described above is called a viewing frustum.
In the drawing, when a graphic engine such as OpenGL or DirectX is used, the virtual space to be drawn is limited to a finite space due to restrictions on the calculation algorithm.
In OpenGL, the shape of the visual cone is determined by six parameters, near, far, top, bottom, left, and right.

なお、クリッピング平面の技術については、例えば、「3次元コンピュータ・アニメーションの原理 第2版 P77〜P79(株式会社トッパン/発行・M.オローク/著作)」に記載の技術が用いることで実現可能である。
本実施形態では、このクリッピング平面の技術を用い、よろめいた体験者が危険回避行動をとる間、カメラから前方クリッピング平面の距離を遠ざけることによって、体験者の近くのCGを非表示にする。
The clipping plane technology can be realized, for example, by using the technology described in “Principle of 3D Computer Animation 2nd Edition P77-P79 (Toppan Co., Ltd./M. Oroke / Copyright)”. is there.
In this embodiment, using the clipping plane technology, while the staggered experiencer takes a risk avoidance action, the distance of the front clipping plane is kept away from the camera to hide the CG near the experiencer.

図14の計算式は、図13において、距離nearに位置する前方クリッピング平面をdist分移動させた場合の視錐台のパラメータを求めるための計算式の一例である。   The calculation formula of FIG. 14 is an example of a calculation formula for obtaining the parameters of the view frustum when the front clipping plane located at the distance near in FIG. 13 is moved by dist.

ここで体験者がよろめいている状況において急激な風景の変化を緩和するため、ニアクリップ面はアニメーションで段階的に後退し、一定時間経過後はアニメーションで元のクリップ面に戻るようにする。ここで時間によるニアクリップ面の後退率を「p」とすると、視錐台を定義するパラメータは図14の計算式で算出される。
なお、「p」「a」「t」「d」などの変数は、透過するCGモデルが透過されるタイミングでクリッピングによる非表示制御をするため、同様の値を用いるものとするが、「a」「d」などの変数の値は、任意の値を用いることも可能である。
また、「dMax」は、ニアクリッピング平面を移動させる最大距離を表すための変数であり、体験者から見て最大「near+dMax」の距離の範囲を非表示にすることが可能となる。ニアクリッピング平面はファークリッピング平面より後ろに設定することはできないため、dMaxはdMax<far−nearを満たす正の数が任意に設定される。
なお、本実施形態では、nearは通常10cmに設定されており、CGモデルの描画がストップされる位置である。
また、算出されたnear’によりnearが決定されると、それまで表示していたものが非表示(near’の範囲が非表示)になり、現実画像が見えることになる。
図14の計算式は、画角を維持したまま、クリッピング平面を後ろずらすための式である。
Here, in order to alleviate a sudden change in the scenery in the situation where the experience person is staggering, the near clip surface is stepped back in stages by animation, and after a certain time has passed, it is made to return to the original clip surface by animation. Here, if the retreat rate of the near clip plane with time is “p”, the parameters defining the viewing frustum are calculated by the calculation formula of FIG.
For variables such as “p”, “a”, “t 0 ”, and “d”, the same value is used because non-display control is performed by clipping at the transmission timing of the CG model to be transmitted. Arbitrary values can be used as values of variables such as “a” and “d”.
Further, “dMax” is a variable for representing the maximum distance for moving the near clipping plane, and it is possible to hide the range of the maximum distance “near + dMax” as viewed from the experience person. Since the near clipping plane cannot be set behind the far clipping plane, a positive number satisfying dMax <far-near is arbitrarily set as dMax.
In the present embodiment, near is normally set to 10 cm and is a position where drawing of the CG model is stopped.
Further, when near is determined by the calculated near ′, what has been displayed until then is not displayed (the range of near ′ is not displayed), and a real image can be seen.
The calculation formula of FIG. 14 is a formula for shifting the clipping plane backward while maintaining the angle of view.

図15は、本実施形態におけるモデルの情報を管理するデータの一例を示す図である。第1の実施形態の図9や第2の実施形態の図12の透過フラグに変え、非表示制御方式を定義する構成としている。非表示制御方式1504の属性として、透過、なし、クリッピングが定義可能である。   FIG. 15 is a diagram illustrating an example of data for managing model information in the present embodiment. Instead of the transparency flag of FIG. 9 of the first embodiment and FIG. 12 of the second embodiment, a non-display control method is defined. As attributes of the non-display control method 1504, transparency, none, and clipping can be defined.

第1の実施形態または第2の実施形態では、透過フラグ903は非表示にする制御を行う(ON)/行わない(OFF)の二値であったが、本実施形態では非表示の制御方式を第1の実施形態で説明した透過(第1の非表示)に加え、クリッピング(第2の非表示)、透過を行わない(通常表示)の三値をとる。この三値の他に新たに表示制御方式を定義してもよい。   In the first embodiment or the second embodiment, the transparency flag 903 has a binary value (ON) / non-off (OFF), which controls to hide, but in this embodiment, the non-display control method. In addition to the transmission (first non-display) described in the first embodiment, three values of clipping (second non-display) and no transmission (normal display) are taken. In addition to these three values, a new display control method may be defined.

図16は、第3の実施形態の詳細を示す、複数の非表示制御方式を採用した場合の表示制御のフローチャートである。   FIG. 16 is a flowchart of display control when a plurality of non-display control methods are employed, showing details of the third embodiment.

ステップS1601では、複合現実感プラットフォーム303では、変数「t」にPC100のシステム時間を代入する。この変数「t」は後述の非表示の制御で用いる。なお、ステップS1601は、図4のステップS405に相当する処理である。
ステップS1602では、オペレーティングシステム301を介して複合現実感プラットフォーム303が画像を受信する。図4のステップS404に相当する処理である。
In step S1601, the mixed reality platform 303 substitutes the system time of the PC 100 for the variable “t”. This variable “t” is used in the non-display control described later. Note that step S1601 is a process corresponding to step S405 in FIG.
In step S1602, the mixed reality platform 303 receives an image via the operating system 301. This process corresponds to step S404 in FIG.

ステップS1603では、複合現実感プラットフォーム303の位置姿勢計測部201によりHMD120の位置・姿勢を計測する。これにより、HMD120の位置・姿勢が決定され、HMD120の位置・姿勢にしたがって、描画するCGモデルが決定される。すなわち、速度が所定値を超えた場合に、HMD120(撮像装置)の位置と姿勢に従って、所定の範囲で非表示となる(透過またはクリッピングする)仮想物体が特定される処理に相当する。図4のステップS406とステップS416に相当する処理である。   In step S1603, the position / orientation measurement unit 201 of the mixed reality platform 303 measures the position / orientation of the HMD 120. As a result, the position / posture of the HMD 120 is determined, and the CG model to be drawn is determined according to the position / posture of the HMD 120. That is, this corresponds to a process of specifying a virtual object that is hidden (transmitted or clipped) in a predetermined range according to the position and orientation of the HMD 120 (imaging device) when the speed exceeds a predetermined value. This process corresponds to step S406 and step S416 in FIG.

ステップS1604では、複合現実感プラットフォーム303の加速度計測部202により、加速度を計算する。なお、加速度は加速度センサーにより求められるものであってもよい。図4のステップS407に相当する処理である。   In step S1604, acceleration is calculated by the acceleration measuring unit 202 of the mixed reality platform 303. The acceleration may be obtained by an acceleration sensor. This process corresponds to step S407 in FIG.

以下、ステップS1605からS1622まで、登録されている仮想物体の数(図15の3次元モデル分)だけループする。なお、ここでループする仮想物体は、HMD120の位置姿勢から描画する仮想物体に対して行うものとする。   Thereafter, a loop is performed from step S1605 to S1622 by the number of registered virtual objects (for the three-dimensional model in FIG. 15). Note that the virtual object looping here is performed on the virtual object drawn from the position and orientation of the HMD 120.

ステップS1606では、複合現実感プラットフォーム303が、複合現実感プラットフォーム303で管理している非表示制御のフラグがTrue、すなわち非表示を制御している状態かを判定する。非表示を制御している場合(True)には、ステップS1610へ処理を移し、非表示を制御していない場合(False)には、ステップS1607へ処理を移す。   In step S1606, the mixed reality platform 303 determines whether or not the non-display control flag managed by the mixed reality platform 303 is True, that is, the non-display control state. If non-display is controlled (True), the process proceeds to step S1610. If non-display is not controlled (False), the process proceeds to step S1607.

ステップS1607では、複合現実感プラットフォーム303が管理している加速度の閾値と比較する。加速度が閾値以上であった場合に、ステップS1609へ処理を移し、加速度が閾値未満であった場合には、ステップS1608へ処理を移す。なお、加速度が閾値以上である場合とは、HMD120を装着している体験者がつまずくなどして人が転倒する可能性がある場合であり、加速度が閾値未満である場合とは、人の通常の動作である場合である。   In step S1607, a comparison is made with an acceleration threshold value managed by the mixed reality platform 303. If the acceleration is equal to or greater than the threshold value, the process proceeds to step S1609. If the acceleration is less than the threshold value, the process proceeds to step S1608. The case where the acceleration is greater than or equal to the threshold value is a case where the person wearing the HMD 120 may trip and the person may fall, and the case where the acceleration is less than the threshold value is a normal person This is the case.

ステップS1608では、非表示の制御を行わず、仮想物体のCGモデルを通常の状態で描画する。なお、加速度の閾値は、第1の実施形態と第2の実施形態と同様に、「60m/s^2」を用いるように構成するが、あくまでも一例でありこれに限ることはない。   In step S1608, the non-display control is not performed, and the CG model of the virtual object is drawn in a normal state. The acceleration threshold is configured to use “60 m / s ^ 2” as in the first embodiment and the second embodiment, but is merely an example and is not limited thereto.

ステップS1609では、非表示制御のフラグに「True」を設定し、変数「t0」にPC100のシステムの現在時刻を設定する。これにより、透過制御が開始される。すなわち、加速度が所定値を超えた場合に、透過設定する処理の一例を示すステップである。   In step S1609, “True” is set as the non-display control flag, and the current time of the system of the PC 100 is set as the variable “t0”. Thereby, the transmission control is started. That is, it is a step showing an example of a process for setting transparency when the acceleration exceeds a predetermined value.

ステップS1610からステップS1614は、透過による非表示を行う処理である。以下、透過により非表示を行う処理について説明するが、第1の実施形態と第2の実施形態の透過制御は同様である。   Steps S1610 to S1614 are processes for performing non-display by transmission. Hereinafter, a process of performing non-display by transmission will be described, but the transmission control of the first embodiment and the second embodiment is the same.

ステップS1610では、図15を参照し、現在処理の対象としているモデルに対応する非表示制御方式1504に応じて分岐する。本実施形態では、透過方式の場合はステップS1611に、クリッピング方式の場合はステップS1615に、非表示制御をしない通常表示の場合はステップS1621に処理を移す。   In step S1610, referring to FIG. 15, the process branches according to the non-display control method 1504 corresponding to the model currently being processed. In the present embodiment, the process moves to step S1611 in the case of the transmission method, step S1615 in the case of the clipping method, and step S1621 in the case of the normal display without non-display control.

ステップS1611では、複合現実感プラットフォーム303が、現在時刻「t」における透過率を計算する。透過率の計算は、図8の計算式を用いて算出する。なお、図8の計算式は、一例を示すものであってこれに限ることはない。また、ここで透過率が「0」になる場合(加速度が閾値を超えた直後、すなわち透過率制御フラグを「True」に設定した後のステップS1611の計算の場合)には、透過率に所定の値をプラスして、透過を始めるように制御する。   In step S <b> 1611, the mixed reality platform 303 calculates the transmittance at the current time “t”. The transmittance is calculated using the calculation formula of FIG. The calculation formula of FIG. 8 shows an example and is not limited to this. Further, when the transmittance is “0” (immediately after the acceleration exceeds the threshold, that is, in the case of calculation in step S1611 after the transmittance control flag is set to “True”), the transmittance is set to a predetermined value. Is controlled to start transmission.

ステップS1612では、複合現実感プラットフォーム303が、透過率が「0」か否かを判断する。透過率が「0」の場合、ステップS1613へ処理を移す。すなわち、透過率が「0」になった場合とは、透過が終わった場合である。また透過率が「0」でない場合には、ステップS1614へ処理を移す。すなわち、透過率が「0」でない場合とは、透過中の場合である。   In step S1612, the mixed reality platform 303 determines whether or not the transmittance is “0”. If the transmittance is “0”, the process proceeds to step S1613. That is, the case where the transmittance becomes “0” is a case where the transmission is finished. If the transmittance is not “0”, the process proceeds to step S1614. That is, the case where the transmittance is not “0” is a case where transmission is in progress.

ステップS1613では、複合現実感プラットフォーム303が、透過率制御フラグを「False」に設定し、透過制御を終了させる。すなわち、透過設定中(透過率制御フラグ「True」)、且つ、透過率(値)が基準値(例えば、「0」)に戻った場合に、仮想画像を透過させないよう透過設定を解除する処理の一例を示すステップである。   In step S1613, the mixed reality platform 303 sets the transmittance control flag to “False” and ends the transmission control. That is, when the transmission setting is being performed (transmission control flag “True”) and the transmission (value) returns to a reference value (for example, “0”), the transmission setting is canceled so that the virtual image is not transmitted. It is a step which shows an example.

ステップS1614では、ステップS1611で算出した透過率を反映させて仮想物体のCGモデルを描画する。CGモデルを透過させて描画する処理は、複合現実感アプリケーション304がグラフィックエンジンに描画命令を発行することにより制御する。   In step S1614, the CG model of the virtual object is drawn by reflecting the transmittance calculated in step S1611. The process of drawing through the CG model is controlled by the mixed reality application 304 issuing a drawing command to the graphic engine.

ステップS1615からステップS1620は、クリッピングにより非表示を行う処理である。
ステップS1615では、複合現実感プラットフォーム303における、図13に示した視錐体の情報(near,far,top,bottom,left,right)を一時領域(例えば、RAM)に退避する。これはクリッピング平面変更の影響を現在処理中のモデルに限定するためのものである。
Steps S1615 to S1620 are processes for performing non-display by clipping.
In step S1615, information (near, far, top, bottom, left, right) shown in FIG. 13 in the mixed reality platform 303 is saved in a temporary area (for example, RAM). This is to limit the effect of changing the clipping plane to the model currently being processed.

ステップS1616では、図14の計算式に基づいて前方クリッピング平面までの距離(near’)を求める。
ステップS1617では、複合現実感プラットフォーム303が、図14の計算方法における「p」が「0」か否かを判断する。pが「0」の場合、ステップS1618へ処理を移す。すなわち、pが「0」になった場合とは、クリッピングによる非表示制御が終わった場合である。またpが「0」でない場合には、ステップS1614へ処理を移す。すなわち、pが「0」でない場合とは、クリッピングによる非表示制御中の場合である。
In step S1616, a distance (near ') to the front clipping plane is obtained based on the calculation formula of FIG.
In step S1617, the mixed reality platform 303 determines whether “p” in the calculation method of FIG. 14 is “0”. If p is "0", the process proceeds to step S1618. That is, the case where p becomes “0” is the case where the non-display control by clipping is finished. If p is not “0”, the process proceeds to step S1614. That is, the case where p is not “0” is a case where non-display control by clipping is being performed.

ステップS1618では、複合現実感プラットフォーム303が、非表示制御フラグを「False」に設定し、非表示制御を終了させる。すなわち、クリッピング設定中(非表示制御フラグ「True」)、且つ、pが基準値(例えば、「0」)に戻った場合に、仮想画像をクリッピングさせないようクリッピング平面を通常の状態に戻す処理の一例を示すステップである。   In step S1618, the mixed reality platform 303 sets the non-display control flag to “False” and ends the non-display control. That is, when clipping is being set (non-display control flag “True”) and p returns to a reference value (eg, “0”), the clipping plane is returned to the normal state so that the virtual image is not clipped. It is a step showing an example.

ステップS1619では、ステップS1616で求めた視錐体の情報(near’,far’,top’,bottom’,left’,right’)を反映させて仮想物体のCGモデルを描画する。この描画は、グラフィックエンジン302へ描画命令を出力することで実現する。   In step S1619, the CG model of the virtual object is drawn by reflecting the information (near ', far', top ', bottom', left ', right') obtained in step S1616. This drawing is realized by outputting a drawing command to the graphic engine 302.

ステップS1620では、ステップS1615で退避した視錐体の情報を複合現実感プラットフォーム303に反映させ、元の視錐体を復元する。これにより、次のモデルは通常のクリッピング平面で表示される。   In step S1620, the information on the visual cone retreated in step S1615 is reflected on the mixed reality platform 303 to restore the original visual cone. As a result, the next model is displayed in the normal clipping plane.

ステップS1621は、透過、クリッピングなどの非表示処理を行わず、通常通りにCGを描画する処理である。これにより遠方や高所にある仮想物体で、体験者がよろめいた際に手や足をつく可能性のない場所にあるモデルは非表示処理を行わないこととなる。   In step S1621, non-display processing such as transparency and clipping is not performed, and CG is drawn as usual. As a result, a model that is a virtual object located far away or at a high place where there is no possibility of putting a hand or a foot when the experience person stumbles is not subjected to the non-display process.

ステップS1623では、これまで描画してきた仮想物体をグラフィックエンジン302を介してディスプレイ121に表示する。   In step S 1623, the virtual object drawn so far is displayed on the display 121 via the graphic engine 302.

図17は、第3の実施形態における複合現実アプリケーションで制御されたHMD120で表示される映像の一例を示す図である。現実空間の部屋1701の中に、仮想物体のティーポット1501、窓1502、長机1503が配置されている。これは、体験者がよろめいていない状態(加速度が所定値未満/以下)の場合の通常の表示状態である。   FIG. 17 is a diagram illustrating an example of an image displayed on the HMD 120 controlled by the mixed reality application according to the third embodiment. A virtual object teapot 1501, a window 1502, and a long desk 1503 are arranged in a room 1701 in the real space. This is a normal display state when the experience person is not staggered (acceleration is less than or equal to a predetermined value).

図18は、複合現実アプリケーションにおいて体験者がよろめいた際にHMD120で表示される映像の一例である。前述の図16のフローチャートで説明したように、ティーポット1501は透過表示され(ステップS1614)、長机1503は前方クリッピング平面1801によって断面を切り取られて表示され(ステップS1619)、窓1502は影響を受けずに通常通りに表示される(ステップS1621)。   FIG. 18 is an example of an image displayed on the HMD 120 when the experience person staggers in the mixed reality application. As described above with reference to the flowchart of FIG. 16, the teapot 1501 is displayed in a transparent manner (step S1614), the long desk 1503 is displayed with a section cut off by the front clipping plane 1801 (step S1619), and the window 1502 is affected. And displayed as usual (step S1621).

第3の実施形態によれば、CGモデルの近い位置について非表示にすることで体験中の映像を大きく変化させることなく、体験者のよる危険回避を行わせることが可能となる。   According to the third embodiment, it is possible to avoid danger by the experience person without largely changing the image being experienced by hiding the position near the CG model.

また、CGモデルごとに非表示制御方式を定義することで、モデルごとに透過させたり、クリッピングによる一部分の非表示にさせたりでき、モデルにあった危険回避時の描画制御を容易にさせることが可能となる。   Also, by defining a non-display control method for each CG model, it can be made transparent for each model or part of the image can be hidden by clipping, thereby facilitating drawing control at the time of danger avoidance appropriate to the model. It becomes possible.

第1の実施形態〜第3の実施形態に基づくと、本発明における非表示処理は、透過表示および非表示を含む処理である。   According to the first to third embodiments, the non-display process in the present invention is a process including transparent display and non-display.

また、第1の実施形態〜第3の実施形態では、体験者がよろめいた場合を想定して説明したが、体験者が走った場合にも適用可能である。例えば、所定時間内に所定の範囲以上の距離を移動した場合に(所定の移動速度になった場合に)、非表示制御させる。すなわち、加速度は、移動速度を含むものである。   In the first to third embodiments, the case where the experience person staggers has been described. However, the present invention is also applicable when the experience person runs. For example, when a distance of a predetermined range or more is moved within a predetermined time (when a predetermined moving speed is reached), the non-display control is performed. That is, the acceleration includes the moving speed.

HMD120を装着して走ることは危険行動につながるため、近くのCGモデルを非表示(透過含む)することで、危険回避ができるように表示を制御することは、回避行動を行う際に効果がある。   Since running with the HMD 120 leads to dangerous behavior, controlling the display so that danger can be avoided by hiding nearby CG models (including transmission) is effective when performing avoidance behavior. is there.

次に、第1の実施形態〜第3の実施形態に対応する本発明における機能ブロック図について、図19を用いて説明する。   Next, a functional block diagram of the present invention corresponding to the first to third embodiments will be described with reference to FIG.

速度取得部1901は、撮像装置が移動したことによる速度を取得する機能部である。   The speed acquisition unit 1901 is a functional unit that acquires a speed due to the movement of the imaging apparatus.

特定部1902は、速度が所定値を超えた場合に、前記撮像装置の位置と姿勢に従って、所定の範囲で非表示となる仮想物体を特定する機能部である。   The specifying unit 1902 is a functional unit that specifies a virtual object that is not displayed in a predetermined range in accordance with the position and orientation of the imaging device when the speed exceeds a predetermined value.

描画制御部1903は、特定部1902により特定された仮想物体に対する仮想画像が非表示とし、前記現実空間の画像を体験者に視認させるように、撮像装置の位置と姿勢に応じて決定される仮想物体の仮想画像と前記現実空間の実写画像を用いて描画制御する機能部である。また、描画制御の非表示処理は、透過処理である。
また、描画制御部1903は、速度取得部1901で取得した速度に応じて決定された透過値に従って仮想画像を透過させる機能部である。
また、描画制御部1903は、判定部1904で透過させない仮想物体である場合には、仮想物体に対応する仮想画像を透過させることなく、判定部1904で透過させる仮想物体と判定された場合に、透過値に従って仮想物体に対応する仮想画像を透過制御する機能部である。
The drawing control unit 1903 hides the virtual image for the virtual object specified by the specifying unit 1902 and determines the virtual image determined according to the position and orientation of the imaging device so that the user can visually recognize the image in the real space. This is a functional unit that performs drawing control using a virtual image of an object and a real image of the real space. Further, the non-display process of the drawing control is a transparent process.
The drawing control unit 1903 is a functional unit that transmits the virtual image according to the transmission value determined according to the speed acquired by the speed acquisition unit 1901.
In addition, in a case where the drawing control unit 1903 is a virtual object that is not allowed to be transmitted by the determination unit 1904, the drawing control unit 1903 is determined to be a virtual object that is transmitted by the determination unit 1904 without transmitting the virtual image corresponding to the virtual object. It is a functional unit that controls transmission of a virtual image corresponding to a virtual object according to a transmission value.

また、描画制御部1903は、透過設定部1905で透過設定されている場合、
前回の透過値より高い透過値を用いて、仮想画像を透過制御する機能部である。
また、描画制御部1903は、透過された仮想画像と、透過されていない仮想画像と、実写画像を合成する機能部である。
また、描画制御部1903は、クリッピング平面決定部1906により決定されたクリッピング平面にしたがって、非表示とする仮想物体を描画制御する機能部である。
また、描画制御部1903は、判定部1904により、クリッピングにより非表示する仮想物体と判定された場合に、所定の範囲後退させたクリッピング平面を用いて、仮想画像を描画制御する機能部である。
Further, when the drawing control unit 1903 is set to be transparent by the transparency setting unit 1905,
This is a functional unit that controls the transmission of a virtual image using a transmission value higher than the previous transmission value.
The drawing control unit 1903 is a functional unit that combines the transmitted virtual image, the non-transmitted virtual image, and the real image.
The drawing control unit 1903 is a functional unit that controls drawing of a virtual object to be hidden according to the clipping plane determined by the clipping plane determination unit 1906.
In addition, the drawing control unit 1903 is a functional unit that controls drawing of a virtual image using a clipping plane that is retracted by a predetermined range when the determination unit 1904 determines that the virtual object is not displayed by clipping.

判定部1904は、描画制御部1903で透過させる仮想物体か否かを判定する機能部である。
また、判定部1904は、クリッピングにより非表示する仮想物体か否かを判定する機能部である。
The determination unit 1904 is a functional unit that determines whether the drawing control unit 1903 is a virtual object to be transmitted.
The determination unit 1904 is a functional unit that determines whether or not the virtual object is hidden by clipping.

透過設定部1905は、速度取得部1901で取得された速度が所定値を超えた場合に、透過設定する機能部である。また、透過設定中、且つ、透過値が基準値に戻った場合に、仮想画像を透過させないよう透過設定を解除する。   The transmission setting unit 1905 is a functional unit that performs transmission setting when the speed acquired by the speed acquisition unit 1901 exceeds a predetermined value. Further, the transparency setting is canceled so that the virtual image is not transmitted when the transparency setting is being performed and the transparency value returns to the reference value.

クリッピング平面決定部1906は、所定の範囲後退させたクリッピング平面を決定する機能部である。
出力部1907は、描画制御部1903で合成された画像を撮像装置で表示すべく出力する機能部である。
The clipping plane determination unit 1906 is a functional unit that determines a clipping plane that has been retracted by a predetermined range.
The output unit 1907 is a functional unit that outputs the image synthesized by the drawing control unit 1903 to be displayed on the imaging apparatus.

以上、本実施形態によれば、体験者がよろめいた場合などの緊急時に、実写画像を視認させることで体験者が迅速な回避行動をとれる。また、表示するモデルデータに特別な加工を施す必要がなく、非表示制御の仕組みを容易に導入することができる。   As described above, according to the present embodiment, in an emergency such as when the experience person staggers, the experience person can take a quick avoidance action by visually recognizing the live-action image. Further, there is no need to perform special processing on the model data to be displayed, and a mechanism for non-display control can be easily introduced.

特に、複合現実感システムでは、HMDを利用し、実写画像に小さな仮想物体だけでなく、実写画像の大部分を仮想画像で合成してHMDで表示するため、現実の状態と仮想の状態の区別が困難である。よって、体験者がふらつき、よろめいて転倒を回避する際に、とっさに仮想物体に対して手をつくことがある。そのため、仮想物体の画像のみを透過/非表示させ、より現実を認識させることで、体験者の回避行動が容易になる。なお、手をつくタイミングで非表示にしても遅く、加速度が所定値になった際に迅速に非表示にすることが必要であり、加速度を取得して、所定値以上になった場合に、近くのCGモデルを非表示にすることは技術的な意義を有するものである。   In particular, in the mixed reality system, HMD is used to synthesize not only a small virtual object in a live-action image but also a large part of the real-action image with a virtual image and display it in HMD. Is difficult. Therefore, when the experience person staggers and stumbles to avoid a fall, the user may suddenly touch the virtual object. Therefore, the avoidance behavior of the experience person is facilitated by transmitting / hiding only the image of the virtual object and recognizing the reality more. In addition, it is slow even if it hides at the timing of putting a hand, it is necessary to hide quickly when the acceleration reaches a predetermined value, and when the acceleration is acquired and exceeds the predetermined value, It is technically significant to hide nearby CG models.

また、複合現実感システムは、実写画像と仮想画像を合成し、体験者に実際の場所で仮想物体が現実にあるように見せることから、仮想画像を急に消すと見ていた状態が大きく変化してしまうため、転倒時などには特に体験者に混乱をきたす。よって加速度が所定値を超えた場合に、一定の速度で仮想画像を透過することで体験者の混乱を避けつつ、体験者の転倒回避行動を迅速にとらせることが可能となる。   In addition, the mixed reality system synthesizes a live-action image and a virtual image and makes the virtual object appear to be real in the actual location. This causes confusion to the experience, especially when falling. Therefore, when the acceleration exceeds a predetermined value, it is possible to quickly take the fall avoidance action of the experience person while avoiding confusion of the experience person by transmitting the virtual image at a constant speed.

なお、上述した各種データの構成及びその内容はこれに限定されるものではなく、用途や目的に応じて、様々な構成や内容で構成されることは言うまでもない。   It should be noted that the configuration and contents of the various data described above are not limited to this, and it goes without saying that the various data and configurations are configured according to the application and purpose.

以上、一実施形態について示したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。   Although one embodiment has been described above, the present invention can take an embodiment as, for example, a system, apparatus, method, program, or recording medium, and specifically includes a plurality of devices. The present invention may be applied to a system including a single device.

また、本発明におけるプログラムは、図4、図10、図16に示すフローチャートの処理方法をコンピュータが実行可能なプログラムであり、本発明の記憶媒体は図4、図10、図16の処理方法をコンピュータが実行可能なプログラムが記憶されている。なお、本発明におけるプログラムは図4、図10、図16の各装置の処理方法ごとのプログラムであってもよい。   The program according to the present invention is a program that allows a computer to execute the processing methods of the flowcharts shown in FIGS. 4, 10, and 16, and the storage medium according to the present invention uses the processing methods of FIGS. A computer executable program is stored. Note that the program in the present invention may be a program for each processing method of each apparatus in FIGS. 4, 10, and 16.

以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。   As described above, a recording medium that records a program that implements the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus stores the program stored in the recording medium. It goes without saying that the object of the present invention can also be achieved by executing the reading.

この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記録媒体は本発明を構成することになる。   In this case, the program itself read from the recording medium realizes the novel function of the present invention, and the recording medium storing the program constitutes the present invention.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク、ソリッドステートドライブ等を用いることができる。   As a recording medium for supplying the program, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, DVD-ROM, magnetic tape, nonvolatile memory card, ROM, EEPROM, silicon A disk, solid state drive, or the like can be used.

また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on an instruction of the program is actually It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the processing and the processing is included.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program read from the recording medium is written to the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board is based on the instructions of the program code. It goes without saying that the case where the CPU or the like provided in the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。   Further, the present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. Needless to say, the present invention can be applied to a case where the present invention is achieved by supplying a program to a system or apparatus. In this case, by reading a recording medium storing a program for achieving the present invention into the system or apparatus, the system or apparatus can enjoy the effects of the present invention.

さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。
なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。
Furthermore, by downloading and reading a program for achieving the present invention from a server, database, etc. on a network using a communication program, the system or apparatus can enjoy the effects of the present invention.
In addition, all the structures which combined each embodiment mentioned above and its modification are also included in this invention.

100 PC
120 HMD
121 ディスプレイ
122 カメラ
201 位置姿勢計測部
202 加速度計測部
203 画面表示制御部
204 実写画像描画部
205 CG画像描画部
206 キャリブレーション部
100 PC
120 HMD
121 Display 122 Camera 201 Position / Orientation Measurement Unit 202 Acceleration Measurement Unit 203 Screen Display Control Unit 204 Real Image Drawing Unit 205 CG Image Drawing Unit 206 Calibration Unit

そこで、本発明は、撮像装置の加速度に従って、仮想物体に設定された表示制御方式を用いて仮想物体を描画制御して体験者が迅速な回避行動をとれる仕組みを提供することを目的とする。
Therefore, an object of the present invention is to provide a mechanism that allows an experienced person to take a quick avoidance action by drawing control of a virtual object using a display control method set for the virtual object according to the acceleration of the imaging apparatus .

本発明の目的を達成するための、撮像装置で撮像された現実空間の実写画像と仮想物体とを用いた合成画像を表示可能な情報処理システムであって、撮像装置よる速度を取得する速度取得手段と、前記仮想物体に対して、複数の表示制御方式のうち適用する表示制御方式を記憶する記憶手段と、前記撮像装置の位置と姿勢に従って前記実写画像と合成して表示する仮想物体を特定する特定手段と、前記特定手段により特定された仮想物体の表示制御方式を参照する参照手段と、前記加速度取得手段で取得した加速度が所定値を超えた場合に、前記参照手段により参照した表示制御方式に従って前記特定手段により特定された仮想物体の描画を制御して、前記現実空間の実写画像用い合成画像を出力する出力手段とを備えることを特徴とする。
To achieve the object of the present invention, a display information processing system capable of synthesizing image using a real image of the imaged real space in the imaging device and a virtual object, and acquires the acceleration from the imaging device and acceleration acquisition means, with respect to the virtual object, a storage means for storing display control scheme for one of the plurality of display control method, and displays the synthesized with the photographed image according to the position and orientation of the front Stories imaging apparatus A specifying means for specifying a virtual object; a reference means for referring to a display control method of the virtual object specified by the specifying means; and when the acceleration acquired by the acceleration acquiring means exceeds a predetermined value, the reference means wherein by controlling the drawing of the identified virtual object by the specific means in accordance with the referenced display control method, especially in that it comprises an output means for outputting the synthesized image using the photographed images of the real space To.

本発明によれば、撮像装置の加速度に従って、仮想物体に設定された表示制御方式を用いて仮想物体を描画制御して体験者が迅速な回避行動をとることができる。 According to the present invention, the experience person can take a quick avoidance action by controlling the drawing of the virtual object using the display control method set for the virtual object according to the acceleration of the imaging apparatus .

Claims (11)

撮像装置で撮像された現実空間の実写画像と仮想物体の仮想画像を合成した合成画像を生成する情報処理システムであって、
撮像装置が移動したことによる速度を取得する速度取得手段と、
前記速度取得手段で取得された速度が所定値を超えた場合に、前記撮像装置の位置と姿勢に従って、所定の範囲で非表示となる仮想物体を特定する特定手段と、
前記現実空間の画像を体験者に視認させるように、前記特定手段により特定された仮想物体を非表示とし、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて描画制御する描画制御手段と
を備えることを特徴とする情報処理システム。
An information processing system for generating a composite image obtained by combining a real image of a real space captured by an imaging device and a virtual image of a virtual object,
Speed acquisition means for acquiring a speed due to movement of the imaging device;
A specifying means for specifying a virtual object that is not displayed in a predetermined range according to the position and orientation of the imaging device when the speed acquired by the speed acquisition means exceeds a predetermined value;
The virtual object specified by the specifying unit is hidden so that the experience person can visually recognize the image of the real space, and the virtual object corresponding to the position and orientation of the imaging device and the real image of the real space are used. An information processing system comprising drawing control means for controlling drawing.
前記描画制御の非表示は、透過であり、
前記描画制御は、前記速度取得手段で取得した速度に応じて決定された透過値に従って前記仮想物体に対応する仮想画像を透過させることを特徴とする請求項1に記載の情報処理システム。
The non-display of the drawing control is transparent,
The information processing system according to claim 1, wherein the drawing control transmits a virtual image corresponding to the virtual object according to a transmission value determined according to a speed acquired by the speed acquisition unit.
前記描画制御手段で透過させる仮想物体か否かを判定する判定手段と、
前記描画制御手段は、前記判定手段で透過させない仮想物体である場合には、仮想物体に対応する仮想画像を透過させることなく、前記判定手段で透過させる仮想物体と判定された場合に、前記透過値に従って仮想物体に対応する仮想画像を透過制御することを特徴とする請求項2に記載の情報処理システム。
Determining means for determining whether or not the drawing control means is a virtual object to be transmitted;
In the case where the drawing control means is a virtual object that is not allowed to be transmitted by the determination means, the transmission control is performed when the virtual object corresponding to the virtual object is determined to be a transparent object that is transmitted by the determination means without being transmitted. The information processing system according to claim 2, wherein the virtual image corresponding to the virtual object is controlled to be transmitted according to the value.
前記速度取得手段で取得された速度が所定値を超えた場合に、透過設定する透過設定手段を更に備え、
前記透過設定手段で透過設定されている場合、前記描画制御手段は、前回の透過値より高い透過値を用いて、前記仮想画像を透過制御することを特徴とする請求項2又は3に記載の情報処理システム。
When the speed acquired by the speed acquisition means exceeds a predetermined value, further comprising a transparency setting means for setting transparency,
4. The transmission control unit according to claim 2, wherein when the transmission setting unit sets transmission, the drawing control unit performs transmission control of the virtual image using a transmission value higher than the previous transmission value. 5. Information processing system.
前記透過設定手段は、前記透過設定がされ、且つ、前記透過値が基準値に戻った場合に、前記仮想画像を透過させないよう透過設定を解除することを特徴とする請求項4に記載の情報処理システム。   5. The information according to claim 4, wherein the transmission setting unit cancels the transmission setting so that the virtual image is not transmitted when the transmission setting is performed and the transmission value returns to a reference value. Processing system. 前記描画制御手段は、透過された仮想画像と、透過されていない仮想画像と、実写画像を合成することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理システム。   The information processing system according to claim 1, wherein the drawing control unit synthesizes a transmitted virtual image, a non-transmitted virtual image, and a real image. 所定の範囲後退させたクリッピング平面を決定するクリッピング平面決定手段を更に備え、
前記描画制御手段は、前記クリッピング平面決定手段により決定されたクリッピング平面に基づいて、前記仮想物体が非表示となるように描画制御することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理システム。
Clipping plane determining means for determining a clipping plane that has been retracted by a predetermined range is further provided,
7. The drawing control unit according to claim 1, wherein the drawing control unit performs drawing control based on the clipping plane determined by the clipping plane determination unit so that the virtual object is not displayed. The information processing system described.
前記判定手段は、クリッピングにより非表示する仮想物体か否かを判定し、
前記描画制御手段は、前記判定手段により、クリッピングにより非表示する仮想物体と判定された場合に、所定の範囲後退させたクリッピング平面を用いて、前記仮想画像を描画制御することを特徴とする請求項3に記載に記載の情報処理システム。
The determination means determines whether or not the virtual object is hidden by clipping,
The drawing control means controls the drawing of the virtual image using a clipping plane that is retracted by a predetermined range when the determination means determines that the virtual object is not displayed by clipping. Item 4. The information processing system according to Item 3.
前記描画制御手段で合成された画像を前記撮像装置で表示すべく出力する出力手段を更に備えることを特徴とする請求項1乃至8のいずれか1項に記載の情報処理システム。   9. The information processing system according to claim 1, further comprising output means for outputting an image synthesized by the drawing control means to be displayed on the imaging device. 撮像装置で撮像された現実空間の実写画像と仮想物体の仮想画像を合成した合成画像を生成する情報処理システムの処理方法であって、
撮像装置が移動したことによる速度を取得する速度取得ステップと、
前記速度取得ステップで取得された速度が所定値を超えた場合に、前記撮像装置の位置と姿勢に従って、所定の範囲で非表示となる仮想物体を特定する特定ステップと、
前記現実空間の画像を体験者に視認させるように、前記特定ステップにより特定された仮想物体を非表示とし、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて描画制御する描画制御ステップと
を含むことを特徴とする処理方法。
A processing method of an information processing system that generates a composite image obtained by combining a real image captured in an imaging device and a virtual object virtual image,
A speed acquisition step for acquiring a speed due to movement of the imaging device;
A specifying step of specifying a virtual object that is not displayed in a predetermined range according to the position and orientation of the imaging device when the speed acquired in the speed acquisition step exceeds a predetermined value;
The virtual object specified in the specifying step is hidden so that the user can visually recognize the image in the real space, and the virtual object according to the position and orientation of the imaging device and the real image in the real space are used. And a drawing control step for controlling drawing.
撮像装置で撮像された現実空間の実写画像と仮想物体の仮想画像を合成した合成画像を生成する情報処理システムのプログラムであって、
前記情報処理システムを
撮像装置が移動したことによる速度を取得する速度取得手段と、
前記速度取得手段で取得された速度が所定値を超えた場合に、前記撮像装置の位置と姿勢に従って、所定の範囲で非表示となる仮想物体を特定する特定手段と、
前記現実空間の画像を体験者に視認させるように、前記特定手段により特定された仮想物体を非表示とし、前記撮像装置の位置と姿勢に応じた仮想物体と前記現実空間の実写画像とを用いて描画制御する描画制御手段
として機能させることを特徴とするプログラム。
A program for an information processing system that generates a composite image obtained by combining a real image captured in an imaging device and a virtual image of a virtual object,
Speed acquisition means for acquiring a speed due to movement of the imaging apparatus in the information processing system;
A specifying means for specifying a virtual object that is not displayed in a predetermined range according to the position and orientation of the imaging device when the speed acquired by the speed acquisition means exceeds a predetermined value;
The virtual object specified by the specifying unit is hidden so that the experience person can visually recognize the image of the real space, and the virtual object corresponding to the position and orientation of the imaging device and the real image of the real space are used. A program that functions as a drawing control means for controlling drawing.
JP2016028452A 2013-08-29 2016-02-18 Information processing system, processing method thereof, and program Active JP6119889B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013178714 2013-08-29
JP2013178714 2013-08-29

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014155945A Division JP5888372B2 (en) 2013-08-29 2014-07-31 Information processing system, processing method thereof, and program

Publications (2)

Publication Number Publication Date
JP2016139416A true JP2016139416A (en) 2016-08-04
JP6119889B2 JP6119889B2 (en) 2017-04-26

Family

ID=52832663

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014155945A Active JP5888372B2 (en) 2013-08-29 2014-07-31 Information processing system, processing method thereof, and program
JP2016028452A Active JP6119889B2 (en) 2013-08-29 2016-02-18 Information processing system, processing method thereof, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2014155945A Active JP5888372B2 (en) 2013-08-29 2014-07-31 Information processing system, processing method thereof, and program

Country Status (1)

Country Link
JP (2) JP5888372B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018190078A (en) * 2017-04-28 2018-11-29 株式会社スクウェア・エニックス Contents display program, computer device, contents display method, and contents display system
JP2019537174A (en) * 2016-10-14 2019-12-19 ユニークフィード アーゲー System for generating extended images

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6611501B2 (en) * 2015-07-17 2019-11-27 キヤノン株式会社 Information processing apparatus, virtual object operation method, computer program, and storage medium
WO2017022769A1 (en) 2015-08-04 2017-02-09 株式会社ソニー・インタラクティブエンタテインメント Head-mounted display, display control method and program
US10139902B2 (en) 2015-09-16 2018-11-27 Colopl, Inc. Method and apparatus for changing a field of view without synchronization with movement of a head-mounted display
JP5869177B1 (en) * 2015-09-16 2016-02-24 株式会社コロプラ Virtual reality space video display method and program
WO2017115505A1 (en) * 2015-12-28 2017-07-06 ソニー株式会社 Display device
JP5996138B1 (en) * 2016-03-18 2016-09-21 株式会社コロプラ GAME PROGRAM, METHOD, AND GAME SYSTEM
JP2018005676A (en) * 2016-07-05 2018-01-11 ソニー株式会社 Information processing device, information processing method, and program
JP6719308B2 (en) * 2016-07-13 2020-07-08 株式会社バンダイナムコエンターテインメント Simulation system and program
JP6689694B2 (en) 2016-07-13 2020-04-28 株式会社バンダイナムコエンターテインメント Simulation system and program
JP6524124B2 (en) * 2017-02-03 2019-06-05 Kddi株式会社 Computer program, terminal and method
WO2018173159A1 (en) * 2017-03-22 2018-09-27 マクセル株式会社 Image display device
JP6559870B1 (en) * 2018-11-30 2019-08-14 株式会社ドワンゴ Movie synthesis apparatus, movie synthesis method, and movie synthesis program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337963A (en) * 2002-05-17 2003-11-28 Seiko Epson Corp Device and method for image processing, and image processing program and recording medium therefor
JP2009069918A (en) * 2007-09-10 2009-04-02 Canon Inc Information processor and information processing method
JP2009169622A (en) * 2008-01-15 2009-07-30 Canon Inc Image processor, and image processing method
JP2011233005A (en) * 2010-04-28 2011-11-17 Ntt Docomo Inc Object displaying device, system, and method
JP2012109708A (en) * 2010-11-16 2012-06-07 Seiko Epson Corp Video display device and video display method
JP2012164157A (en) * 2011-02-07 2012-08-30 Toyota Motor Corp Image synthesizer
JP2012194501A (en) * 2011-03-18 2012-10-11 Brother Ind Ltd Head-mounted display and virtual image presentation method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09211382A (en) * 1996-02-07 1997-08-15 Canon Inc Optical device
JP4724476B2 (en) * 2004-09-07 2011-07-13 キヤノン株式会社 Information processing method and apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337963A (en) * 2002-05-17 2003-11-28 Seiko Epson Corp Device and method for image processing, and image processing program and recording medium therefor
JP2009069918A (en) * 2007-09-10 2009-04-02 Canon Inc Information processor and information processing method
JP2009169622A (en) * 2008-01-15 2009-07-30 Canon Inc Image processor, and image processing method
JP2011233005A (en) * 2010-04-28 2011-11-17 Ntt Docomo Inc Object displaying device, system, and method
JP2012109708A (en) * 2010-11-16 2012-06-07 Seiko Epson Corp Video display device and video display method
JP2012164157A (en) * 2011-02-07 2012-08-30 Toyota Motor Corp Image synthesizer
JP2012194501A (en) * 2011-03-18 2012-10-11 Brother Ind Ltd Head-mounted display and virtual image presentation method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
寺田 努: "ウェアラブルセンサを用いた行動認識技術とその応用", 人工知能学会誌 第28巻 第2号, vol. 第28巻 第2号, JPN6016047165, 1 March 2013 (2013-03-01), JP, pages 201 - 208, ISSN: 0003505203 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019537174A (en) * 2016-10-14 2019-12-19 ユニークフィード アーゲー System for generating extended images
JP7125410B2 (en) 2016-10-14 2022-08-24 ユニークフィード アーゲー A system for generating augmented images
JP2018190078A (en) * 2017-04-28 2018-11-29 株式会社スクウェア・エニックス Contents display program, computer device, contents display method, and contents display system

Also Published As

Publication number Publication date
JP5888372B2 (en) 2016-03-22
JP2015064868A (en) 2015-04-09
JP6119889B2 (en) 2017-04-26

Similar Documents

Publication Publication Date Title
JP6119889B2 (en) Information processing system, processing method thereof, and program
JP6246914B2 (en) Augmented reality content generation for unknown objects
EP3855288B1 (en) Spatial relationships for integration of visual images of physical environment into virtual reality
US10373381B2 (en) Virtual object manipulation within physical environment
US11423626B2 (en) Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same
US9639987B2 (en) Devices, systems, and methods for generating proxy models for an enhanced scene
US10373392B2 (en) Transitioning views of a virtual model
WO2015098807A1 (en) Image-capturing system for combining subject and three-dimensional virtual space in real time
KR101227255B1 (en) Marker size based interaction method and augmented reality system for realizing the same
US11189057B2 (en) Provision of virtual reality content
JPWO2013187130A1 (en) Information processing apparatus, information processing method, and program
CN106980378B (en) Virtual display method and system
KR20140145217A (en) 3d virtual modeling system using spatial information and method thereof
CN115335894A (en) System and method for virtual and augmented reality
JP2022058753A (en) Information processing apparatus, information processing method, and program
JP2020181263A (en) Image creation device and information presentation method
JP6011567B2 (en) Information processing apparatus, control method thereof, and program
JP2017084215A (en) Information processing system, control method thereof, and program
JP2020074108A (en) Information processing system, control method thereof, and program
JP6638326B2 (en) Information processing system, control method thereof, and program
JP2006277618A (en) Image generation device and method
JP2017033312A (en) Video construction device, pseudo visual sensation experience system and video construction program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161101

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170313

R150 Certificate of patent or registration of utility model

Ref document number: 6119889

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250