JP2016038632A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2016038632A
JP2016038632A JP2014159764A JP2014159764A JP2016038632A JP 2016038632 A JP2016038632 A JP 2016038632A JP 2014159764 A JP2014159764 A JP 2014159764A JP 2014159764 A JP2014159764 A JP 2014159764A JP 2016038632 A JP2016038632 A JP 2016038632A
Authority
JP
Japan
Prior art keywords
image
image processing
virtual object
processing apparatus
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014159764A
Other languages
Japanese (ja)
Inventor
中島 敦
Atsushi Nakajima
敦 中島
靖己 田中
Yasuki Tanaka
靖己 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014159764A priority Critical patent/JP2016038632A/en
Publication of JP2016038632A publication Critical patent/JP2016038632A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology to provide an environment for observing a virtual object considering a movable range for an experiencing person to obtain mixed reality.SOLUTION: A system includes: an optical three-dimensional position and attitude measurement device 1300 for measuring the three-dimensional position and attitude of the line of sight of a user; an HMD 1200 that is a head-mounted display device mounted on the head of the user; an image processing apparatus 1000 that creates an image in a mixed reality space; and a display device 1100 that displays the image of the mixed reality space. The system determines a range where the position and attitude of the line of sight can be measured, arranges a virtual object in the range, creates an image of a virtual space including the arranged virtual object according to the position and attitude, and outputs the created image of the virtual space.SELECTED DRAWING: Figure 1

Description

本発明は、複合現実感を提示するための技術に関するものである。   The present invention relates to a technique for presenting mixed reality.

近年、現実空間と仮想空間との繋ぎ目のない結合を目的とした複合現実感(MR:Mixed Reality)に関する研究が盛んに行われている。複合現実感の提示を行う画像表示装置は、例えば次のような構成を有する装置である。即ち、ビデオカメラ等の撮像装置が撮像した現実空間の画像上に、撮像装置の位置姿勢に応じて生成した仮想空間の画像(例えばコンピュータグラフィックスにより描画された仮想物体や文字情報等)を重畳描画した画像を表示する装置である。このような装置には、例えば、HMD(ヘッドマウントディスプレイ、頭部装着型ディスプレイ)を用いることができる。   In recent years, research on mixed reality (MR) aimed at seamless connection between a real space and a virtual space has been actively conducted. An image display device that presents mixed reality is, for example, a device having the following configuration. That is, an image of a virtual space (for example, a virtual object or character information drawn by computer graphics) generated according to the position and orientation of the imaging device is superimposed on an image of the real space captured by the imaging device such as a video camera. It is a device that displays a drawn image. For such an apparatus, for example, an HMD (head mounted display, head mounted display) can be used.

撮像装置の位置姿勢を計測する方法として、三次元位置姿勢計測装置(例えば、VICON社の光学式三次元位置姿勢計測装置VICON)を用いる方法がある。本計測装置は、複数台のカメラから位置姿勢を計測したい対象物に取り付けた指標を撮影することで、現実空間における指標の三次元位置姿勢を計測する。然るに、指標を撮像装置に固定することで、撮像装置の三次元位置姿勢を計測することができる。   As a method for measuring the position and orientation of the imaging device, there is a method using a three-dimensional position and orientation measurement device (for example, an optical three-dimensional position and orientation measurement device VICON manufactured by VICON). This measurement apparatus measures the three-dimensional position and orientation of an index in real space by photographing an index attached to an object whose position and orientation are to be measured from a plurality of cameras. However, the three-dimensional position and orientation of the imaging apparatus can be measured by fixing the index to the imaging apparatus.

一方、仮想物体を作成する際には、一般的には、市販のCAD(Computer Aided Design)や3DCGソフト(三次元コンピュータグラフィックスソフト)を利用している(非特許文献1)。   On the other hand, when creating a virtual object, commercially available CAD (Computer Aided Design) or 3DCG software (three-dimensional computer graphics software) is generally used (Non-patent Document 1).

以上の技術を組み合わせることで、CADや3DCGソフトを用いて作成した仮想物体を用いた仮想現実空間や複合現実空間を組み合わせて体験させる事ができる。   By combining the above technologies, it is possible to experience a combination of a virtual reality space or a mixed reality space using a virtual object created using CAD or 3DCG software.

株式会社ワークスコーポレーション 編集,CG&映像しくみ事典,2003年12月31日発行,pp.98−101Works Corporation Co., Ltd., CG & Video Structure Dictionary, issued December 31, 2003, pp. 98-101

複合現実感を体感している体験者は、仮想物体に近づいて該仮想物体を詳細に観察したり、逆に仮想物体から遠ざかって該仮想物体を遠くから眺めたりすることがあるが、体験者は常に、視点の位置姿勢の計測可能範囲内に位置することが求められるため、仮想物体は、計測可能範囲を考慮した位置に配置されることが好ましい。しかし、CADや3DCGソフトを用いて仮想物体を作成するユーザが計測可能範囲をも考慮してその配置位置を設定することは困難である。   Experienced persons experiencing mixed reality may approach the virtual object and observe the virtual object in detail, or conversely, move away from the virtual object and view the virtual object from a distance. Is always required to be within the measurable range of the position and orientation of the viewpoint, so the virtual object is preferably arranged at a position that takes into account the measurable range. However, it is difficult for a user who creates a virtual object using CAD or 3DCG software to set the arrangement position in consideration of the measurable range.

本発明は、このような問題に鑑みてなされたものであり、体験者が複合現実感を得るために移動可能な範囲を考慮した仮想物体の観察環境を提供するための技術を提供する。   The present invention has been made in view of such a problem, and provides a technique for providing a virtual object observation environment in consideration of a range in which an experiencer can move in order to obtain mixed reality.

本発明の一様態は、視点の位置姿勢の計測可能な範囲を求める計算手段と、仮想物体を前記範囲内に配置する配置手段と、前記配置手段が配置した仮想物体を含む仮想空間の画像を、前記位置姿勢に応じて生成する生成手段と、前記生成手段が生成した仮想空間の画像を出力する出力手段とを備えることを特徴とする。   According to one aspect of the present invention, a calculation unit that obtains a measurable range of the position and orientation of a viewpoint, an arrangement unit that arranges a virtual object in the range, and an image of a virtual space that includes the virtual object arranged by the arrangement unit. And generating means for generating the image according to the position and orientation, and output means for outputting an image of the virtual space generated by the generating means.

本発明の構成によれば、体験者が複合現実感を得るために移動可能な範囲を考慮した仮想物体の観察環境を提供することができる。   According to the configuration of the present invention, it is possible to provide an observation environment for a virtual object in consideration of a range in which an experiencer can move in order to obtain mixed reality.

システムの構成例を示す図。The figure which shows the structural example of a system. コンピュータのハードウェア構成例を示すブロック図。The block diagram which shows the hardware structural example of a computer. 画像処理装置1000の動作を説明するフローチャート。6 is a flowchart for explaining the operation of the image processing apparatus 1000. ステップS404における処理を説明する図。The figure explaining the process in step S404. ステップS405における処理を説明する図。The figure explaining the process in step S405. 第2の実施形態を説明する図。The figure explaining 2nd Embodiment.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
ユーザ(体験者)に、仮想空間と現実空間とを合成した複合現実空間を体感させる(複合現実感を提示する)システムの構成例について、図1を用いて説明する。図1に示す如く、本実施形態に係るシステムは、ユーザの視点の三次元位置姿勢を計測するための光学式三次元位置姿勢計測装置1300、ユーザの頭部に装着する頭部装着型表示装置の一例であるHMD1200、複合現実空間の画像を生成する画像処理装置1000、複合現実空間の画像を表示する表示装置1100、を有している。
[First Embodiment]
A configuration example of a system that allows a user (experience person) to experience a mixed reality space obtained by synthesizing a virtual space and a real space (presenting a mixed reality) will be described with reference to FIG. As shown in FIG. 1, the system according to the present embodiment includes an optical three-dimensional position / orientation measuring apparatus 1300 for measuring the three-dimensional position / orientation of a user's viewpoint, and a head-mounted display apparatus that is mounted on the user's head. HMD 1200 which is an example, an image processing apparatus 1000 that generates an image of mixed reality space, and a display apparatus 1100 that displays an image of mixed reality space.

先ず、HMD1200について説明する。   First, the HMD 1200 will be described.

撮像装置1220R、1220Lは何れも、現実空間の動画像を撮像するためのものであり、それぞれ、HMD1200を頭部に装着するユーザの右目に提示するための動画像、左目に提示するための動画像、を撮像する。撮像装置1220R、1220Lのそれぞれが撮像した動画像を構成する各フレームの画像(撮像画像)は順次、画像処理装置1000に対して送出される。   The imaging devices 1220R and 1220L are for capturing moving images in real space, and are moving images for presenting the right eye of a user wearing the HMD 1200 on the head and moving images for presenting to the left eye, respectively. An image is taken. The images (captured images) of the frames constituting the moving images captured by the image capturing devices 1220R and 1220L are sequentially transmitted to the image processing device 1000.

表示装置1210R,1210Lは何れも、画像処理装置1000から出力された画像を表示するためのものであり、それぞれ、HMD1200を頭部に装着したユーザの右目の眼前、左目の眼前、に位置するようにHMD1200に取り付けられている。   The display devices 1210R and 1210L are for displaying the image output from the image processing device 1000, and are positioned in front of the right eye and the left eye of the user wearing the HMD 1200 on the head, respectively. Attached to the HMD 1200.

マーカ1230は、HMD1200の位置姿勢を計測するために取り付けられているものであり、後述する光学式三次元位置姿勢計測装置1300による撮像対象となる。   The marker 1230 is attached to measure the position and orientation of the HMD 1200, and is an object to be imaged by the optical three-dimensional position and orientation measurement apparatus 1300 described later.

なお、HMD1200と画像処理装置1000との間の通信は、有線通信であっても良いし、無線通信であっても構わないし、それらの組み合わせであっても構わない。   Note that communication between the HMD 1200 and the image processing apparatus 1000 may be wired communication, wireless communication, or a combination thereof.

次に、光学式三次元位置姿勢計測装置1300について説明する。   Next, the optical three-dimensional position / orientation measurement apparatus 1300 will be described.

計測用撮像装置(光学式センサ)1320A,1320Bは何れも、マーカ1230を撮像するものであり、現実空間中に固定して配置されている。計測用撮像装置1320A,1320Bによる撮像結果はコントローラ1310に送出される。コントローラ1310は、計測用撮像装置1320A,1320Bの動作制御を行うためのものであり、計測用撮像装置1320A,1320Bからの撮像結果を、画像処理装置1000に対して送出する。なお、図1では、計測用撮像装置の数を2としているが、3以上としても構わない。また、図1では、計測用撮像装置1320A,1320Bとコントローラ1310とは別個の装置としているが、コントローラ1310を、計測用撮像装置1320A,1320Bのそれぞれに組み込んでも構わない。   The measurement imaging devices (optical sensors) 1320A and 1320B both capture the marker 1230 and are fixedly arranged in the real space. The imaging results from the measurement imaging devices 1320A and 1320B are sent to the controller 1310. The controller 1310 controls the operation of the measurement imaging devices 1320A and 1320B, and sends the imaging results from the measurement imaging devices 1320A and 1320B to the image processing apparatus 1000. In FIG. 1, the number of measurement imaging devices is two, but may be three or more. In FIG. 1, the measurement imaging devices 1320A and 1320B and the controller 1310 are separate devices, but the controller 1310 may be incorporated in each of the measurement imaging devices 1320A and 1320B.

次に、画像処理装置1000について説明する。   Next, the image processing apparatus 1000 will be described.

視点情報計測部1010は、コントローラ1310から送出された計測用撮像装置1320A,1320Bによる撮像結果から、世界座標系1500(現実空間中の1点を原点とし、該原点で互いに直交する3軸をそれぞれX軸、Y軸、Z軸とする座標系)におけるマーカ1230の位置姿勢を求める。計測用撮像装置1320A,1320Bによる撮像結果からマーカ1230の世界座標系1500における位置姿勢を求める方法については周知の技術であるため、これについての説明は省略する。以下の説明では、世界座標系1500として、床面をX−Z平面とし、該床面に対して上向きをY軸として定義するが、それぞれの軸の取り方については用途に応じて適宜変更しても構わない。そして視点情報計測部1010は、世界座標系1500におけるマーカ1230の位置姿勢を、データ記憶部1040に格納する。   The viewpoint information measurement unit 1010 uses a world coordinate system 1500 (one point in the real space as an origin and three axes orthogonal to each other at the origin based on the imaging results by the measurement imaging devices 1320A and 1320B sent from the controller 1310. The position and orientation of the marker 1230 in the X-axis, Y-axis, and Z-axis coordinate system) are obtained. Since the method for obtaining the position and orientation of the marker 1230 in the world coordinate system 1500 from the imaging results of the measurement imaging devices 1320A and 1320B is a known technique, description thereof will be omitted. In the following description, as the world coordinate system 1500, the floor surface is defined as the XZ plane, and the upward direction with respect to the floor surface is defined as the Y axis. It doesn't matter. Then, the viewpoint information measurement unit 1010 stores the position and orientation of the marker 1230 in the world coordinate system 1500 in the data storage unit 1040.

画像取得部1020は、HMD1200(撮像装置1220R,1220L)から送出された各フレームの画像をデータ記憶部1040に格納する。   The image acquisition unit 1020 stores the image of each frame sent from the HMD 1200 (the imaging devices 1220R and 1220L) in the data storage unit 1040.

入力部1070は、画像処理装置1000のユーザが各種の指示を画像処理装置1000に対して入力するために操作するユーザインターフェースであり、マウスやキーボード等により構成されている。   The input unit 1070 is a user interface that is operated by a user of the image processing apparatus 1000 to input various instructions to the image processing apparatus 1000, and includes a mouse, a keyboard, and the like.

モード設定部1080は、仮想物体(図1では仮想物体1400)を、計測用撮像装置1320A,1320Bの撮像可能な範囲(すなわち、マーカ1230の位置姿勢の計測可能な範囲であり、以下では「計測可能領域」と呼称する)内に配置するモード(第1のモード)、データ記憶部1040に格納されている仮想空間データが該仮想物体について規定している配置位置に配置するモード(第2のモード)、の何れかを設定する。このモードの設定は、入力部1070からの指示に応じてなされる。そしてモード設定部1080は、設定したモードをデータ記憶部1040に格納する。   The mode setting unit 1080 is a range in which a virtual object (virtual object 1400 in FIG. 1) can be imaged by the measurement imaging devices 1320A and 1320B (that is, a range in which the position and orientation of the marker 1230 can be measured. Mode (first mode) arranged in a possible area), a mode (second mode) arranged in an arrangement position where the virtual space data stored in the data storage unit 1040 defines the virtual object Mode). This mode is set according to an instruction from the input unit 1070. The mode setting unit 1080 stores the set mode in the data storage unit 1040.

仮想物体移動部1030は、モード設定部1080により第1のモードが設定された場合に動作する。仮想物体移動部1030は、データ記憶部1040に予め格納されている「計測用撮像装置1320A,1320Bのそれぞれの世界座標系1500における位置姿勢や画角」、といった情報を用いて、計測用撮像装置1320A,1320Bのそれぞれの視体積が重なり且つX−Z平面よりも計測用撮像装置1320A,1320B側の領域を、上記の計測可能領域として求める。そして仮想物体移動部1030は、計測可能領域内において仮想物体を配置する位置を求める。   The virtual object moving unit 1030 operates when the first mode is set by the mode setting unit 1080. The virtual object moving unit 1030 uses the information such as “the position and orientation and the angle of view of each of the measurement imaging devices 1320A and 1320B in the world coordinate system 1500” stored in advance in the data storage unit 1040. An area where the respective visual volumes of 1320A and 1320B overlap and which is closer to the measurement imaging devices 1320A and 1320B than the XZ plane is obtained as the above-described measurable area. Then, the virtual object moving unit 1030 obtains a position where the virtual object is arranged within the measurable area.

仮想空間生成部1050は、データ記憶部1040に格納されている仮想空間データを用いて、仮想物体を構築する。仮想空間データには、仮想空間中に配置する光源を規定するデータや、仮想空間中に配置する仮想物体を規定するデータ、等の仮想空間を規定する為のデータが含まれている。   The virtual space generation unit 1050 constructs a virtual object using the virtual space data stored in the data storage unit 1040. The virtual space data includes data for defining a virtual space such as data defining a light source arranged in the virtual space and data defining a virtual object arranged in the virtual space.

そして仮想空間生成部1050は、モード設定部1080によって第2のモードが設定されている場合には、構築した仮想物体を、仮想空間データが該仮想物体について規定した位置に配置する。   Then, when the second mode is set by the mode setting unit 1080, the virtual space generation unit 1050 places the constructed virtual object at a position defined by the virtual space data for the virtual object.

一方、モード設定部1080によって第1のモードが設定されている場合には、仮想空間生成部1050は、構築した仮想物体を、仮想物体移動部1030が求めた配置位置に配置する。   On the other hand, when the first mode is set by the mode setting unit 1080, the virtual space generation unit 1050 arranges the constructed virtual object at the arrangement position obtained by the virtual object moving unit 1030.

なお、仮想物体を配置する姿勢についてはどのような姿勢であっても良く、仮想空間データによって規定されている姿勢であっても良いし、ユーザが入力部1070を操作することで適宜変更しても構わない。   Note that the posture in which the virtual object is arranged may be any posture, may be a posture defined by the virtual space data, or may be appropriately changed by the user operating the input unit 1070. It doesn't matter.

一方で、仮想空間生成部1050は、データ記憶部1040に格納されている、「世界座標系1500におけるマーカ1230の位置姿勢」と、予め測定されてデータ記憶部1040に格納されている「マーカ1230と撮像装置1220Rとの間の相対的な位置姿勢関係」と、を用いて周知の計算を行うことで、「世界座標系における撮像装置1220Rの位置姿勢」を、右目用視点の位置姿勢として求める。同様に、仮想空間生成部1050は、データ記憶部1040に格納されている、「世界座標系1500におけるマーカ1230の位置姿勢」と、予め測定されてデータ記憶部1040に格納されている「マーカ1230と撮像装置1220Lとの間の相対的な位置姿勢関係」と、を用いて周知の計算を行うことで、「世界座標系における撮像装置1220Lの位置姿勢」を、左目用視点の位置姿勢として求める。   On the other hand, the virtual space generation unit 1050 stores “the position and orientation of the marker 1230 in the world coordinate system 1500” stored in the data storage unit 1040 and the “marker 1230” measured in advance and stored in the data storage unit 1040. By performing a well-known calculation using the “relative position / posture relationship between the image pickup device 1220R” and the image pickup device 1220R, the “position / posture of the image pickup device 1220R in the world coordinate system” is obtained as the position / posture of the right-eye viewpoint. . Similarly, the virtual space generation unit 1050 includes “the position and orientation of the marker 1230 in the world coordinate system 1500” stored in the data storage unit 1040 and “marker 1230 which is measured in advance and stored in the data storage unit 1040. By performing a well-known calculation using the “relative position / posture relationship between the image pickup device 1220L” and the image pickup device 1220L, the “position / posture of the image pickup device 1220L in the world coordinate system” is obtained as the position / posture of the left-eye viewpoint. .

そして仮想空間生成部1050は、上記のようにして仮想物体を配置した仮想空間を右目用視点から見た画像(右目用仮想空間画像)を、上記の仮想空間データと右目用視点の位置姿勢と、を用いて生成する。同様に、仮想空間生成部1050は、上記のようにして仮想物体を配置した仮想空間を左目用視点から見た画像(左目用仮想空間画像)を、上記の仮想空間データと左目用視点の位置姿勢と、を用いて生成する。なお、ある位置姿勢を有する視点から見える仮想空間の画像を生成するための一連の処理については周知の技術であるため、これについてのさらなる詳細な説明は省略する。   Then, the virtual space generation unit 1050 obtains an image (right-eye virtual space image) obtained by viewing the virtual space in which the virtual object is arranged as described above from the right-eye viewpoint, and the position and orientation of the virtual space data and the right-eye viewpoint. , To generate. Similarly, the virtual space generation unit 1050 obtains an image (left-eye virtual space image) obtained by viewing the virtual space in which the virtual object is arranged as described above from the left-eye viewpoint, and the position of the virtual space data and the left-eye viewpoint. And using the posture. Note that a series of processing for generating an image of a virtual space that can be seen from a viewpoint having a certain position and orientation is a well-known technique, and thus further detailed description thereof will be omitted.

仮想空間生成部1050は、右目用仮想空間画像及び左目用仮想空間画像のそれぞれを画像生成部1060に対して送出する。   The virtual space generation unit 1050 sends each of the right eye virtual space image and the left eye virtual space image to the image generation unit 1060.

画像生成部1060は、データ記憶部1040に格納された、撮像装置1220Rによる撮像画像(右目用現実空間画像)と、仮想空間生成部1050から送出された右目用仮想空間画像と、を合成した合成画像を、右目用の複合現実空間の画像として生成する。同様に、画像生成部1060は、データ記憶部1040に格納された、撮像装置1220Lによる撮像画像(左目用現実空間画像)と、仮想空間生成部1050から送出された左目用仮想空間画像と、を合成した合成画像を、左目用の複合現実空間の画像として生成する。そして画像生成部1060は、右目用の複合現実空間の画像を、HMD1200の表示装置1210Rに対して送出すると共に、左目用の複合現実空間の画像を、HMD1200の表示装置1210Lに対して送出する。   The image generation unit 1060 combines the image captured by the imaging device 1220R (the real space image for the right eye) stored in the data storage unit 1040 and the virtual space image for the right eye sent from the virtual space generation unit 1050. The image is generated as a mixed reality space image for the right eye. Similarly, the image generation unit 1060 includes a captured image (a left-eye real space image) stored in the data storage unit 1040 and a left-eye virtual space image sent from the virtual space generation unit 1050. The synthesized composite image is generated as an image of the mixed reality space for the left eye. Then, the image generation unit 1060 sends the mixed reality space image for the right eye to the display device 1210R of the HMD 1200, and sends the mixed reality space image for the left eye to the display device 1210L of the HMD 1200.

これにより、HMD1200を自身の頭部に装着したユーザの左目の眼前には、左目用の複合現実空間の画像が提示され、右目の眼前には、右目用の複合現実空間の画像が提示されることになる。なお、画像生成部1060は更に、右目用の複合現実空間の画像、左目用の複合現実空間の画像、の両方若しくは一方を表示装置1100に出力しても良い。   Accordingly, an image of the mixed reality space for the left eye is presented in front of the left eye of the user wearing the HMD 1200 on his / her head, and an image of the mixed reality space for the right eye is presented in front of the right eye. It will be. Note that the image generation unit 1060 may further output both or one of the mixed reality space image for the right eye and the mixed reality space image for the left eye to the display device 1100.

次に、画像処理装置1000の動作について、図3のフローチャートを用いて説明する。なお、図3のフローチャートは、1フレーム分の右目用の複合現実空間の画像及び1フレーム分の左目用の複合現実空間の画像を生成して出力する処理のフローチャートであるため、実際には、画像処理装置1000は、HMD1200から入力される各フレームについて、図3のフローチャートに従った処理を行うことになる。   Next, the operation of the image processing apparatus 1000 will be described using the flowchart of FIG. Note that the flowchart of FIG. 3 is a flowchart of the process of generating and outputting the mixed reality space image for the right eye for one frame and the mixed reality space image for the left eye for one frame. The image processing apparatus 1000 performs processing according to the flowchart of FIG. 3 for each frame input from the HMD 1200.

<ステップS400>
視点情報計測部1010は、コントローラ1310から送出された計測用撮像装置1320A,1320Bによる撮像結果から、世界座標系1500におけるマーカ1230の位置姿勢を求める。そして視点情報計測部1010は、世界座標系1500におけるマーカ1230の位置姿勢を、データ記憶部1040に格納する。
<Step S400>
The viewpoint information measurement unit 1010 obtains the position and orientation of the marker 1230 in the world coordinate system 1500 from the imaging results by the measurement imaging devices 1320A and 1320B sent from the controller 1310. Then, the viewpoint information measurement unit 1010 stores the position and orientation of the marker 1230 in the world coordinate system 1500 in the data storage unit 1040.

<ステップS401>
画像取得部1020は、撮像装置1220Rから送出された右目用現実空間画像及び撮像装置1220Lから送出された左目用現実空間画像を、データ記憶部1040に格納(取得)する。
<Step S401>
The image acquisition unit 1020 stores (acquires) the right-eye real space image sent from the imaging device 1220R and the left-eye real space image sent from the imaging device 1220L in the data storage unit 1040.

<ステップS402>
ここで、モード設定部1080が第1のモードを設定した場合には、処理はステップS402を介してステップS404に進み、第2のモードを設定した場合には、処理はステップS402を介してステップS403に進む。
<Step S402>
If the mode setting unit 1080 sets the first mode, the process proceeds to step S404 via step S402. If the second mode is set, the process proceeds to step S402. The process proceeds to S403.

<ステップS403>
仮想空間生成部1050は、データ記憶部1040に格納されている仮想空間データを用いて、仮想物体を構築し、該構築した仮想物体を、仮想空間データが該仮想物体について規定した位置に配置する。
<Step S403>
The virtual space generation unit 1050 constructs a virtual object using the virtual space data stored in the data storage unit 1040, and arranges the constructed virtual object at a position defined by the virtual space data for the virtual object. .

<ステップS404>
仮想物体移動部1030は、データ記憶部1040に予め格納されている「計測用撮像装置1320A,1320Bのそれぞれの世界座標系1500における位置姿勢や画角」、といった情報を用いて、計測用撮像装置1320A,1320Bのそれぞれの視体積が重なる領域において、X−Z平面よりも計測用撮像装置1320A,1320B側の領域を、上記の計測可能領域として求める。図4において計測用撮像装置1320A,1320Bのそれぞれの視体積を点線で示しており、それぞれの視体積が重なる領域4000を斜線で示している。
<Step S404>
The virtual object moving unit 1030 uses the information such as “the position and orientation and the angle of view of each of the measurement imaging devices 1320A and 1320B in the world coordinate system 1500” stored in advance in the data storage unit 1040. In the region where the respective visual volumes of 1320A and 1320B overlap, the region closer to the measurement imaging devices 1320A and 1320B than the XZ plane is obtained as the measurable region. In FIG. 4, the visual volumes of the measurement imaging devices 1320A and 1320B are indicated by dotted lines, and the region 4000 where the respective visual volumes overlap is indicated by diagonal lines.

<ステップS405>
仮想物体移動部1030は、ステップS404で求めた計測可能領域内において仮想物体を配置する位置を求める。計測可能領域内(範囲内)であれば、どの位置に仮想物体を配置しても良いのであるが、以下ではその一例について説明する。以下では、計測可能領域として図4の領域4000を求めた場合を例にとり説明する。
<Step S405>
The virtual object moving unit 1030 obtains a position where the virtual object is arranged in the measurable area obtained in step S404. The virtual object may be arranged at any position within the measurable area (within the range), but an example thereof will be described below. Hereinafter, a case where the area 4000 of FIG. 4 is obtained as the measurable area will be described as an example.

先ず、領域4000を包含する球体を求める。領域4000は、計測用撮像装置1320A,1320Bのそれぞれの視体積を表す錐体同士の交点群により規定されるため、例えば、この交点群を包含する最小の球体を求める。このような球体を求めるための最少内包球のアルゴリズムについては周知の技術であるため、詳細な説明は省略する。そしてこの球体の中心位置を世界座標系1500のX−Z平面上に投影した位置を、「仮想物体を包含するバウンディングボックスの底面の位置」として求める。図5において球体5000は領域4000を包含する球体であり、その中心位置を点5010で示している。そしてこの点5010をX−Z平面上に投影した位置を、点5020で示している。然るにこの場合、仮想物体を包含するバウンディングボックスの底面(四角形)の中心位置を点5020で示す位置に合わせることになり、これにより、点5020で示す位置を中心位置とする底面を有するバウンディングボックス内に仮想物体を配置することになる。もちろん、中心位置の投影先はX−Z平面に限るものではないし、球体5000の中心位置に仮想物体の中心位置を合わせるようにしても構わない。このようにして、仮想物体移動部1030は、仮想物体を配置する位置を決定する。   First, a sphere that includes the region 4000 is obtained. Since the region 4000 is defined by the intersection point group of cones representing the visual volumes of the measurement imaging devices 1320A and 1320B, for example, the smallest sphere that includes this intersection point group is obtained. Since the algorithm for the minimum inclusion sphere for obtaining such a sphere is a well-known technique, a detailed description thereof will be omitted. A position obtained by projecting the center position of the sphere onto the XZ plane of the world coordinate system 1500 is obtained as “the position of the bottom surface of the bounding box that includes the virtual object”. In FIG. 5, a sphere 5000 is a sphere including a region 4000, and the center position is indicated by a point 5010. A position where the point 5010 is projected on the XZ plane is indicated by a point 5020. In this case, however, the center position of the bottom surface (quadrangle) of the bounding box that contains the virtual object is matched with the position indicated by the point 5020, whereby the inside of the bounding box having the bottom surface centered on the position indicated by the point 5020. A virtual object will be placed on the screen. Of course, the projection destination of the center position is not limited to the XZ plane, and the center position of the virtual object may be aligned with the center position of the sphere 5000. In this way, the virtual object moving unit 1030 determines the position where the virtual object is to be placed.

<ステップS406>
仮想空間生成部1050は、ステップS405において仮想物体移動部1030が求めた位置に基づいて仮想物体を配置する。
<Step S406>
The virtual space generation unit 1050 arranges the virtual object based on the position obtained by the virtual object moving unit 1030 in step S405.

<ステップS407>
仮想空間生成部1050は、上記の方法でもって、右目用視点の位置姿勢及び左目用視点の位置姿勢を求める。そして仮想空間生成部1050は、上記のようにして仮想物体を配置した仮想空間を右目用視点から見た画像(右目用仮想空間画像)を生成すると共に、該仮想空間を左目用視点から見た画像(左目用仮想空間画像)を生成する。そして仮想空間生成部1050は、右目用仮想空間画像及び左目用仮想空間画像のそれぞれを画像生成部1060に対して送出する。
<Step S407>
The virtual space generation unit 1050 obtains the position and orientation of the right-eye viewpoint and the position and orientation of the left-eye viewpoint by the above method. The virtual space generation unit 1050 generates an image (right-eye virtual space image) in which the virtual space in which the virtual object is arranged as described above is viewed from the right-eye viewpoint, and the virtual space is viewed from the left-eye viewpoint. An image (left-eye virtual space image) is generated. Then, the virtual space generation unit 1050 sends each of the right eye virtual space image and the left eye virtual space image to the image generation unit 1060.

<ステップS408>
画像生成部1060は、ステップS401においてデータ記憶部1040に格納した右目用現実空間画像と、ステップS407において仮想空間生成部1050が生成した右目用仮想空間画像と、を合成した合成画像を、右目用の複合現実空間の画像として生成する。同様に、画像生成部1060は、ステップS401においてデータ記憶部1040に格納した左目用現実空間画像と、ステップS407において仮想空間生成部1050が生成した左目用仮想空間画像と、を合成した合成画像を、左目用の複合現実空間の画像として生成する。
<Step S408>
The image generation unit 1060 generates a composite image obtained by combining the right-eye real space image stored in the data storage unit 1040 in step S401 and the right-eye virtual space image generated by the virtual space generation unit 1050 in step S407. It is generated as an image of the mixed reality space. Similarly, the image generation unit 1060 combines a composite image obtained by combining the left-eye real space image stored in the data storage unit 1040 in step S401 and the left-eye virtual space image generated by the virtual space generation unit 1050 in step S407. And generated as an image of the mixed reality space for the left eye.

<ステップS409>
画像生成部1060は、ステップS408において生成した右目用の複合現実空間の画像を、HMD1200の表示装置1210Rに対して送出すると共に、ステップS408において生成した左目用の複合現実空間の画像を、HMD1200の表示装置1210Lに対して送出する。
<Step S409>
The image generation unit 1060 sends the mixed reality space image for the right eye generated in step S408 to the display device 1210R of the HMD 1200, and the mixed reality space image for the left eye generated in step S408 of the HMD 1200. Send to display device 1210L.

以上の説明により、本実施形態によれば、例えば仮想空間データの作成段階で、仮想物体の配置位置を決定する際に、上記の計測可能領域を予め知っておかなくても、複合現実感の提示段階で、その配置位置を、ユーザが近くによって観察可能な配置位置に設定することができる。   As described above, according to the present embodiment, for example, when determining the arrangement position of the virtual object in the creation stage of the virtual space data, the mixed reality can be obtained without knowing the measurable area in advance. At the presentation stage, the arrangement position can be set to an arrangement position that the user can observe closer.

[第2の実施形態]
第1の実施形態では、配置する仮想物体の数が1である場合について説明したが、配置する仮想物体が複数の場合であっても、それぞれの仮想物体を、第1の実施形態で登場した仮想物体と同じように取り扱えば良い。
[Second Embodiment]
In the first embodiment, the case where the number of virtual objects to be arranged is 1 has been described. However, even when there are a plurality of virtual objects to be arranged, each virtual object has appeared in the first embodiment. It can be handled in the same way as a virtual object.

すなわち、第2のモードが設定されていれば、それぞれの仮想物体を、該仮想物体について仮想空間データが規定する配置位置に配置し、第1のモードが設定されている場合には、それぞれの仮想物体を、計測可能領域内の何れかの位置に配置すれば良い。その場合、それぞれの仮想物体が重ならないように配置する必要がある。   That is, if the second mode is set, each virtual object is placed at the placement position defined by the virtual space data for the virtual object, and if the first mode is set, The virtual object may be arranged at any position in the measurable area. In that case, it is necessary to arrange so that each virtual object may not overlap.

例えば、図6(a)に示す如く、図4,5を用いて第1の実施形態で説明した方法と同じようにして仮想物体6000を配置する。次に、図6(b)に示す如く、仮想物体6000を構成する各頂点をX−Z平面上に投影し、該投影した各頂点を包含する円6020を、例えば上記の最少内包円のアルゴリズムを用いて求める。そして、円6020上で仮想物体6000の現在位置(点5020)から最も近い点6010の位置を求め、仮想物体6000の現在位置(点5020)を、点6010で示す位置に移動させる。   For example, as shown in FIG. 6A, the virtual object 6000 is arranged in the same manner as the method described in the first embodiment with reference to FIGS. Next, as shown in FIG. 6B, the vertices constituting the virtual object 6000 are projected on the XZ plane, and a circle 6020 including the projected vertices is converted into, for example, the algorithm of the minimum inner circle described above. Find using. Then, the position of the point 6010 closest to the current position (point 5020) of the virtual object 6000 on the circle 6020 is obtained, and the current position (point 5020) of the virtual object 6000 is moved to the position indicated by the point 6010.

なお、複数の仮想物体を計測可能領域内で互いに重ならないように配置するための配置位置を決定する方法には、様々な方法が考えられ、上記の方法に限るものではない。また、互いに重なっても良い仮想物体がある場合には、このような仮想物体を除いた他の仮想物体について、互いに重ならないように配置位置を決定することになる。   Various methods are conceivable as a method for determining an arrangement position for arranging a plurality of virtual objects so as not to overlap each other in the measurable region, and is not limited to the above method. Further, when there are virtual objects that may overlap each other, the arrangement positions of other virtual objects excluding such virtual objects are determined so as not to overlap each other.

[第3の実施形態]
第1,2の実施形態では何れも、仮想物体をより近い位置で観察することを前提としていた。しかし、仮想物体を遠くから眺めて観察することが求められるようなケースも考え得る。
[Third Embodiment]
In both the first and second embodiments, it is assumed that the virtual object is observed at a closer position. However, there may be cases where it is required to view a virtual object from a distance.

例えば、精巧な機械の仮想物体であったり、微少なサイズの部品の仮想物体を観察する場合には、より近くで観察することが求められる。しかし、建築物などの比較的サイズが大きい物体を模した仮想物体であれば、ある一定の距離から離れて観察することが求められる。そこで、このようなケースに対処するために、例えば、モード設定部1080は、上記の第1のモード、第2のモードに加えて、第3のモードを設定可能にする。   For example, when observing a virtual object of an elaborate machine or a virtual object of a minute size part, it is required to observe closer. However, a virtual object that imitates a relatively large object such as a building is required to be observed away from a certain distance. Therefore, in order to deal with such a case, for example, the mode setting unit 1080 makes it possible to set the third mode in addition to the first mode and the second mode.

第3のモードを設定した場合、仮想物体移動部1030は、例えば、第1のモード時と同様にして、計測可能領域を包含する球体を求め、その中心位置から規定距離だけ離間した位置を、仮想物体の配置位置として決定する。この「規定距離」は、予め定められてデータ記憶部1040に保存しておいても良いし、ユーザが入力部1070を操作することで適宜変更しても構わない。   When the third mode is set, the virtual object moving unit 1030 obtains a sphere that includes the measurable region, for example, in the same manner as in the first mode, and sets a position separated from the center position by a specified distance, It is determined as the placement position of the virtual object. The “specified distance” may be determined in advance and stored in the data storage unit 1040, or may be appropriately changed by the user operating the input unit 1070.

また、球体の中心位置と規定の位置関係となるような位置にこのような仮想物体を配置しても良い。また、この規定の位置関係を、ユーザが入力部1070を操作することで適宜変更できるようにしても構わない。これは位置関係に限らず、姿勢関係についても同様である。   Further, such a virtual object may be arranged at a position that has a prescribed positional relationship with the center position of the sphere. Further, the specified positional relationship may be changed as appropriate by the user operating the input unit 1070. This applies not only to the positional relationship but also to the posture relationship.

[第4の実施形態]
第1〜3の実施形態で用いたHMD1200はビデオシースルー方式のHMDであったが、光学シースルー方式のHMDを用いても構わない。その場合、図3のフローチャートにおいて、ステップS401及びS408を取り除き、ステップS409では、ステップS407において仮想空間生成部1050が生成した右目用仮想空間画像及び左目用仮想空間画像を、それぞれ、表示装置1210R、表示装置1210Lに対して送出する、とした処理を行うことになる。また、HMDの代わりに、若しくは加えて、タブレット端末装置や携帯電話などの機器に対して複合現実空間の画像を出力するようにしても構わない。
[Fourth Embodiment]
The HMD 1200 used in the first to third embodiments is a video see-through HMD, but an optical see-through HMD may be used. In that case, steps S401 and S408 are removed from the flowchart of FIG. 3, and in step S409, the right-eye virtual space image and the left-eye virtual space image generated by the virtual space generation unit 1050 in step S407 are displayed on the display device 1210R, respectively. Processing to send to the display device 1210L is performed. Moreover, you may make it output the image of mixed reality space with respect to apparatuses, such as a tablet terminal device and a mobile telephone, instead of or in addition to HMD.

[第5の実施形態]
第1〜4の実施形態では、マーカ1230の位置姿勢の計測には、光学式の三次元位置姿勢計測装置を用いていたが、磁気式センサや超音波センサなど、他の三次元位置姿勢計測装置を用いてマーカ1230の位置姿勢を計測しても良い。すなわち、「マーカ1230の位置姿勢を計測可能な範囲」を求めることができるのであれば、如何なる方法でマーカ1230の位置姿勢を計測しても構わない。
[Fifth Embodiment]
In the first to fourth embodiments, an optical three-dimensional position / orientation measurement apparatus is used for measuring the position / orientation of the marker 1230, but other three-dimensional position / orientation measurements such as a magnetic sensor and an ultrasonic sensor are used. The position and orientation of the marker 1230 may be measured using an apparatus. That is, as long as the “range in which the position and orientation of the marker 1230 can be measured” can be obtained, the position and orientation of the marker 1230 may be measured by any method.

もちろん、マーカ1230を用いずに、直接右目用視点の位置姿勢、左目用視点の位置姿勢、を求めても良い。この場合、計測可能領域とは、視点(撮像装置1220R,1220L)の位置姿勢の計測可能な範囲、となる。   Of course, the position and orientation of the right-eye viewpoint and the position and orientation of the left-eye viewpoint may be obtained directly without using the marker 1230. In this case, the measurable area is a range in which the position and orientation of the viewpoint (imaging devices 1220R and 1220L) can be measured.

[第6の実施形態]
図1に示した画像処理装置1000が有する各機能部は何れもハードウェアで構成しても良いが、データ記憶部1040をメモリで構成し、入力部1070はマウスやキーボードで構成し、それ以外の各機能部をソフトウェア(コンピュータプログラム)で構成しても構わない。この場合、データ記憶部1040として機能するメモリを有し、入力部1070として機能するユーザインターフェースを有し、それ以外の各機能部に対応するコンピュータプログラムを実行するプロセッサを有するコンピュータであれば、画像処理装置1000に適用可能である。
[Sixth Embodiment]
Each functional unit included in the image processing apparatus 1000 illustrated in FIG. 1 may be configured by hardware. However, the data storage unit 1040 is configured by a memory, the input unit 1070 is configured by a mouse or a keyboard, and the others. Each of the functional units may be configured by software (computer program). In this case, if the computer has a memory that functions as the data storage unit 1040, a user interface that functions as the input unit 1070, and a processor that executes a computer program corresponding to each of the other functional units, an image The present invention can be applied to the processing apparatus 1000.

画像処理装置1000に適用可能なコンピュータのハードウェア構成例について、図2のブロック図を用いて説明する。   A hardware configuration example of a computer applicable to the image processing apparatus 1000 will be described with reference to the block diagram of FIG.

CPU2001は、RAM2002やROM2003に格納されているコンピュータプログラムやデータを用いて処理を実行することで、本コンピュータ全体の動作制御を行うと共に、本コンピュータを適用する画像処理装置1000が行うものとして上述した各処理を実行する。   As described above, the CPU 2001 performs operations using the computer programs and data stored in the RAM 2002 and the ROM 2003 to control the operation of the entire computer and the image processing apparatus 1000 to which the computer is applied. Execute each process.

RAM2002は、外部記憶装置2007や記憶媒体ドライブ2008からロードされたコンピュータプログラムやデータ、I/F(インターフェース)2009を介して外部(コントローラ1310や撮像装置1220R,1220L)から入力されたデータを格納するためのエリアを有する。更にRAM2002は、CPU2001が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM2002は、各種のエリアを適宜提供することができる。   The RAM 2002 stores computer programs and data loaded from the external storage device 2007 and the storage medium drive 2008, and data input from the outside (the controller 1310 and the imaging devices 1220R and 1220L) via the I / F (interface) 2009. Have an area for. Further, the RAM 2002 has a work area used when the CPU 2001 executes various processes. As described above, the RAM 2002 can provide various areas as appropriate.

ROM2003には、本コンピュータの設定データやブートプログラムなどが格納されている。   The ROM 2003 stores setting data and a boot program for the computer.

キーボード2004やマウス2005は、上記の入力部1070に対応するものであり、本コンピュータのユーザが操作することで、各種の指示をCPU2001に対して入力することができる。   A keyboard 2004 and a mouse 2005 correspond to the input unit 1070 described above, and various instructions can be input to the CPU 2001 by a user of the computer.

表示部2006は、CRTや液晶画面などにより構成されており、CPU2001による処理結果を画像や文字などでもって表示することができる。   The display unit 2006 is configured by a CRT, a liquid crystal screen, or the like, and can display a processing result by the CPU 2001 using an image, text, or the like.

外部記憶装置2007は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置2007には、OS(オペレーティングシステム)や、図1に示した画像処理装置1000の各機能部において、入力部1070、データ記憶部1040を除く各機能部が行うものとして上述した各処理をCPU2001に実行させるためのコンピュータプログラムやデータが保存されている。また、外部記憶装置2007には、上記の説明において既知の情報として説明したものも保存されている。また、外部記憶装置2007は、データ記憶部1040としても使用される。外部記憶装置2007に保存されているコンピュータプログラムやデータは、CPU2001による制御に従って適宜RAM2002にロードされ、CPU2001による処理対象となる。   The external storage device 2007 is a large-capacity information storage device represented by a hard disk drive device. The external storage device 2007 includes the OS (operating system) and each process described above as performed by each function unit other than the input unit 1070 and the data storage unit 1040 in each function unit of the image processing apparatus 1000 illustrated in FIG. The computer program and data for causing the CPU 2001 to execute are stored. The external storage device 2007 also stores what has been described as known information in the above description. The external storage device 2007 is also used as the data storage unit 1040. Computer programs and data stored in the external storage device 2007 are appropriately loaded into the RAM 2002 under the control of the CPU 2001 and are processed by the CPU 2001.

記憶媒体ドライブ2008は、CD−ROMやDVD−ROM等の記録媒体に記録されているコンピュータプログラムやデータを読み出してRAM2002や外部記憶装置2007に対して送出する機器である。なお、外部記憶装置2007に保存されているものとして説明したコンピュータプログラムやデータのうち一部若しくは全部をこの記憶媒体に記録しておいても良い。   The storage medium drive 2008 is a device that reads a computer program and data recorded on a recording medium such as a CD-ROM or a DVD-ROM, and sends them to the RAM 2002 or the external storage device 2007. A part or all of the computer program and data described as being stored in the external storage device 2007 may be recorded on this storage medium.

I/F2009は、撮像装置1220R,1220Lや表示装置1210R、1210L、コントローラ1310を接続するためのインターフェースとして機能するものである。例えば、I/F2009は、撮像装置1220R,1220Lを接続するためのアナログビデオポートあるいはIEEE1394等のデジタル入出力ポート、表示装置1210R、1210Lを接続するためのイーサネット(登録商標)ポートなどによって構成される。   The I / F 2009 functions as an interface for connecting the imaging devices 1220R and 1220L, the display devices 1210R and 1210L, and the controller 1310. For example, the I / F 2009 includes an analog video port for connecting the imaging devices 1220R and 1220L, a digital input / output port such as IEEE1394, an Ethernet (registered trademark) port for connecting the display devices 1210R and 1210L, and the like. .

上記の各部は何れも、バス2010に接続されている。   Each of the above parts is connected to the bus 2010.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

1030:仮想物体移動部 1050:仮想空間生成部 1030: Virtual object moving unit 1050: Virtual space generating unit

Claims (9)

視点の位置姿勢の計測可能な範囲を求める計算手段と、
仮想物体を前記範囲内に配置する配置手段と、
前記配置手段が配置した仮想物体を含む仮想空間の画像を、前記位置姿勢に応じて生成する生成手段と、
前記生成手段が生成した仮想空間の画像を出力する出力手段と
を備えることを特徴とする画像処理装置。
A calculation means for obtaining a measurable range of the position and orientation of the viewpoint;
Arrangement means for arranging a virtual object within the range;
Generating means for generating an image of a virtual space including the virtual object arranged by the arranging means according to the position and orientation;
An image processing apparatus comprising: output means for outputting an image of the virtual space generated by the generating means.
前記計算手段は、
前記視点の位置姿勢を計測するための複数の光学式センサのそれぞれの視体積が重なる領域を前記範囲として求めることを特徴とする請求項1に記載の画像処理装置。
The calculating means includes
The image processing apparatus according to claim 1, wherein an area where the visual volumes of a plurality of optical sensors for measuring the position and orientation of the viewpoint overlap is obtained as the range.
前記配置手段は、
前記仮想物体を包含するバウンディングボックスの底面を、前記範囲を包含する領域の中心位置を床面に投影した位置に配置することを特徴とする請求項1又は2に記載の画像処理装置。
The arrangement means includes
The image processing apparatus according to claim 1, wherein the bottom surface of the bounding box that includes the virtual object is disposed at a position that is obtained by projecting the center position of the region that includes the range onto the floor surface.
前記配置手段は更に、配置した仮想物体の位置を、他の仮想物体と重ならないように変更することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the placement unit further changes the position of the placed virtual object so as not to overlap another virtual object. 視点の位置姿勢の計測可能な範囲を求める計算手段と、
仮想物体を前記範囲と規定の位置関係にある位置に配置する配置手段と、
前記配置手段が配置した仮想物体を含む仮想空間の画像を、前記位置姿勢に応じて生成する生成手段と、
前記生成手段が生成した仮想空間の画像を出力する出力手段と
を備えることを特徴とする画像処理装置。
A calculation means for obtaining a measurable range of the position and orientation of the viewpoint;
Arranging means for arranging the virtual object at a position in a prescribed positional relationship with the range;
Generating means for generating an image of a virtual space including the virtual object arranged by the arranging means according to the position and orientation;
An image processing apparatus comprising: output means for outputting an image of the virtual space generated by the generating means.
更に、
前記視点からの現実空間の画像を取得する手段を備え、
前記出力手段は、前記仮想空間の画像を前記現実空間の画像と合成してから出力する
ことを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
Furthermore,
Means for acquiring an image of a real space from the viewpoint;
The image processing apparatus according to claim 1, wherein the output unit outputs the virtual space image after combining the virtual space image with the real space image.
画像処理装置が行う画像処理方法であって、
前記画像処理装置の計算手段が、視点の位置姿勢の計測可能な範囲を求める計算工程と、
前記画像処理装置の配置手段が、仮想物体を前記範囲内に配置する配置工程と、
前記画像処理装置の生成手段が、前記配置工程で配置した仮想物体を含む仮想空間の画像を、前記位置姿勢に応じて生成する生成工程と、
前記画像処理装置の出力手段が、前記生成工程で生成した仮想空間の画像を出力する出力工程と
を備えることを特徴とする画像処理方法。
An image processing method performed by an image processing apparatus,
A calculating step for calculating a range in which the position and orientation of the viewpoint can be measured by the calculation means of the image processing apparatus;
An arrangement step in which an arrangement unit of the image processing apparatus arranges a virtual object in the range;
A generation step in which the generation unit of the image processing apparatus generates an image of a virtual space including the virtual object arranged in the arrangement step according to the position and orientation;
An image processing method comprising: an output step of outputting an image of the virtual space generated in the generation step.
画像処理装置が行う画像処理方法であって、
前記画像処理装置の計算手段が、視点の位置姿勢の計測可能な範囲を求める計算工程と、
前記画像処理装置の配置手段が、仮想物体を前記範囲と規定の位置関係にある位置に配置する配置工程と、
前記画像処理装置の生成手段が、前記配置工程で配置した仮想物体を含む仮想空間の画像を、前記位置姿勢に応じて生成する生成工程と、
前記画像処理装置の出力手段が、前記生成工程で生成した仮想空間の画像を出力する出力工程と
を備えることを特徴とする画像処理方法。
An image processing method performed by an image processing apparatus,
A calculating step for calculating a range in which the position and orientation of the viewpoint can be measured by the calculation means of the image processing apparatus;
An arrangement step in which the arrangement means of the image processing apparatus arranges the virtual object at a position in a prescribed positional relationship with the range;
A generation step in which the generation unit of the image processing apparatus generates an image of a virtual space including the virtual object arranged in the arrangement step according to the position and orientation;
An image processing method comprising: an output step of outputting an image of the virtual space generated in the generation step.
コンピュータを、請求項1乃至6の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。   A computer program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 6.
JP2014159764A 2014-08-05 2014-08-05 Image processing apparatus and image processing method Pending JP2016038632A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014159764A JP2016038632A (en) 2014-08-05 2014-08-05 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014159764A JP2016038632A (en) 2014-08-05 2014-08-05 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2016038632A true JP2016038632A (en) 2016-03-22

Family

ID=55529684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014159764A Pending JP2016038632A (en) 2014-08-05 2014-08-05 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2016038632A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017196099A (en) * 2016-04-26 2017-11-02 公立大学法人埼玉県立大学 Superior limb exercise learning apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017196099A (en) * 2016-04-26 2017-11-02 公立大学法人埼玉県立大学 Superior limb exercise learning apparatus

Similar Documents

Publication Publication Date Title
JP5845211B2 (en) Image processing apparatus and image processing method
US10269139B2 (en) Computer program, head-mounted display device, and calibration method
JP4739002B2 (en) Image processing method and image processing apparatus
JP5709440B2 (en) Information processing apparatus and information processing method
JP5777786B1 (en) Information processing apparatus, information processing method, and program
JP4677281B2 (en) Image processing method and image processing apparatus
US9696543B2 (en) Information processing apparatus and information processing method
JP2022044647A (en) Mixed reality system with multi-source virtual content compositing and method of generating virtual content using the same
JP6765823B2 (en) Information processing equipment, information processing methods, information processing systems, and programs
US20150199850A1 (en) Information processing apparatus and information processing method
JP2011028309A5 (en)
TW201322178A (en) System and method for augmented reality
JP6775957B2 (en) Information processing equipment, information processing methods, programs
JP2019008623A (en) Information processing apparatus, information processing apparatus control method, computer program, and storage medium
JP6319804B2 (en) Projection image generation apparatus, projection image generation method, and projection image generation program
JP2020004325A (en) Image processing device, image processing method, and program
JP2022058753A (en) Information processing apparatus, information processing method, and program
JP2009087161A (en) Image processor and image processing method
JP6726016B2 (en) Information processing device and information processing method
JP2008217119A (en) System, image processor and image processing method
JP4689344B2 (en) Information processing method and information processing apparatus
JP2016038632A (en) Image processing apparatus and image processing method
JP6765846B2 (en) Information processing equipment, information processing methods, and programs
JP6800599B2 (en) Information processing equipment, methods and programs
JP2019185475A (en) Specification program, specification method, and information processing device