JP2019040356A - Image processing system, image processing method and computer program - Google Patents

Image processing system, image processing method and computer program Download PDF

Info

Publication number
JP2019040356A
JP2019040356A JP2017161331A JP2017161331A JP2019040356A JP 2019040356 A JP2019040356 A JP 2019040356A JP 2017161331 A JP2017161331 A JP 2017161331A JP 2017161331 A JP2017161331 A JP 2017161331A JP 2019040356 A JP2019040356 A JP 2019040356A
Authority
JP
Japan
Prior art keywords
human body
image
user
image processing
body model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017161331A
Other languages
Japanese (ja)
Inventor
弘貴 深草
Hiroki Fukakusa
弘貴 深草
雅之 兜
Masayuki Kabuto
雅之 兜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2017161331A priority Critical patent/JP2019040356A/en
Publication of JP2019040356A publication Critical patent/JP2019040356A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a technique for efficiently performing image processing of a human body model expressing a posture of a human body of a user in a composite real space.SOLUTION: An image processing system determines, according to a position or a visual line direction of a user, whether a condition for generating, from human body information obtained by measuring a posture of a human body of the user, a human body model expressing the posture of the human body of the user is satisfied or not. If it is determined that the condition is satisfied, the image processing system generates a human body model, generates an image including the human body model, and outputs to a display device.SELECTED DRAWING: Figure 1

Description

本発明は、複合現実空間の提示に係る技術に関するものである。   The present invention relates to a technique related to presentation of a mixed reality space.

近年、複合現実(Mixed Reality/以下、MRと記載)の技術が普及している。複合現実の技術を用いることで、ヘッドマウントディスプレイ(HMD)を装着したユーザに対し、現実画像にCGモデルを配置した複合現実画像を提供し、現実と仮想を複合した複合現実の世界(複合現実空間)を体験させることができる(例えば、特許文献1)。複合現実画像を生成するにあたり、HMDの位置とCGモデルの位置とを、センサや二次元マーカを用いて特定する手法が取られている。   In recent years, mixed reality (hereinafter referred to as MR) technology has become widespread. By using the mixed reality technology, a mixed reality image in which a CG model is arranged on a real image is provided to a user wearing a head mounted display (HMD), and the mixed reality world (mixed reality) is combined with reality and virtual. Space) can be experienced (for example, Patent Document 1). In generating a mixed reality image, a method of specifying the position of the HMD and the position of the CG model using a sensor or a two-dimensional marker is used.

特許文献2には、客観カメラにより撮影された体験者を含む画像と、体験者が体験している際に映し出されるCG画像と、を合成して、ディスプレイに表示する技術が開示されている。   Patent Document 2 discloses a technique of combining an image including an experienced person photographed by an objective camera and a CG image projected when the experienced person is experiencing and displaying the synthesized image on a display.

また、技術の発展によってモーションキャプチャ技術が利用可能となり、複合現実の技術とモーションキャプチャ技術とを組み合わせた仕組みが試みられている。   In addition, with the development of technology, motion capture technology can be used, and a mechanism that combines mixed reality technology and motion capture technology has been attempted.

特開2003−308514号公報JP 2003-308514 A 特開2015−170232号公報Japanese Patent Laying-Open No. 2015-170232

しかしながら、複合現実などHMDを用いた体験型の映像システムにおいては、モーションキャプチャにより得られたマーカの座標値を単に表示するのではなく、人体モデル(CG)に反映させる処理が発生する。具体的には、マーカの座標値を基に人体モデルを人の姿勢に合わせる処理を1秒間で再生フレーム数(例えば60フレーム/秒や120フレーム/秒)分繰り返す必要があり、処理負荷が高い。特に複合現実のシステムにおいては、現実画像との合成処理もあるため、更に処理負荷が高い。   However, in an experiential video system using an HMD such as mixed reality, a process of reflecting a marker coordinate value obtained by motion capture on a human body model (CG) is generated instead of simply displaying the coordinate value. Specifically, it is necessary to repeat the process of matching the human body model to the posture of the person based on the coordinate value of the marker for one second for the number of playback frames (for example, 60 frames / second or 120 frames / second), and the processing load is high. . Particularly in the mixed reality system, since there is a synthesis process with a real image, the processing load is further increased.

本発明は、複合現実空間における、ユーザの人体の姿勢を表す人体モデルの画像処理を効率よく行うための技術を提供する。   The present invention provides a technique for efficiently performing image processing of a human body model representing the posture of a user's human body in a mixed reality space.

本発明の目的を達成するために、例えば、本発明の画像処理装置は次のような構成を有する。すなわち、ユーザの位置若しくは視線方向に基づいて、該ユーザの人体の姿勢を計測することで得られる人体情報から該ユーザの人体の姿勢を表す人体モデルを生成する条件を満たすか否かを判断する判断手段と、前記条件を満たすと前記判断手段が判断した場合に、前記人体情報から前記人体モデルを生成し、該人体モデルを含む画像を生成して表示装置に出力する出力手段とを備えることを特徴とする。   In order to achieve the object of the present invention, for example, the image processing apparatus of the present invention has the following configuration. That is, based on the position or line-of-sight direction of the user, it is determined whether or not a condition for generating a human body model representing the posture of the user's human body is satisfied from human body information obtained by measuring the posture of the user's human body. A determination unit; and an output unit that generates the human body model from the human body information, generates an image including the human body model, and outputs the generated image to a display device when the determination unit determines that the condition is satisfied. It is characterized by.

本発明により、複合現実空間における、ユーザの人体の姿勢を表す人体モデルの画像処理を効率よく行うことができる。   According to the present invention, it is possible to efficiently perform image processing of a human body model representing the posture of the user's human body in the mixed reality space.

システムの概要を示す図。The figure which shows the outline | summary of a system. HMD101及びPC100のそれぞれのハードウェア構成例を示すブロック図。FIG. 3 is a block diagram showing an example of the hardware configuration of each of the HMD 101 and the PC 100. PC100の機能構成例を示すブロック図。The block diagram which shows the function structural example of PC100. PC100のモジュール構成例を示すブロック図。The block diagram which shows the module structural example of PC100. HMD101及びPC100が行う処理のフローチャート。The flowchart of the process which HMD101 and PC100 perform. ステップS522における処理のフローチャート。The flowchart of the process in step S522. 外部メモリ211に保持される情報の構成例を示す図。The figure which shows the structural example of the information hold | maintained at the external memory. ステップS602における処理のフローチャート。The flowchart of the process in step S602. ステップS603における処理のフローチャート。The flowchart of the process in step S603. ステップS604における処理のフローチャート。The flowchart of the process in step S604. ステップS811における処理のフローチャート。The flowchart of the process in step S811. 客観画像ディスプレイ160の表示例を示す図。The figure which shows the example of a display of the objective image display 160. FIG. 複合現実空間の画像の一例を示す図。The figure which shows an example of the image of mixed reality space. 保存情報の表示例を示す図。The figure which shows the example of a display of preservation | save information.

以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。   Embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
本実施形態に係るシステムは、現実空間と仮想空間との合成空間である複合現実空間を、HMD等の頭部装着型表示装置や、頭部装着型表示装置は別個に設けられた表示装置に対して提示する複合現実感提示システムである。先ず、本実施形態に係るシステムの概要について、図1を用いて説明する。
[First Embodiment]
In the system according to the present embodiment, a mixed reality space that is a composite space of a real space and a virtual space is used in a head-mounted display device such as an HMD or a display device in which a head-mounted display device is provided separately. It is a mixed reality presentation system. First, an outline of a system according to the present embodiment will be described with reference to FIG.

ユーザの頭部にはHMD101が装着されており、HMD101の表示画面には、画像処理装置としてのPC100から出力される複合現実空間の画像が表示される。ユーザはHMD101の表示画面に表示される複合現実空間の画像を観察することで複合現実空間を体験する。   The HMD 101 is attached to the user's head, and an image of the mixed reality space output from the PC 100 as the image processing apparatus is displayed on the display screen of the HMD 101. The user experiences the mixed reality space by observing the mixed reality space image displayed on the display screen of the HMD 101.

HMD101には、光学式センサ104で検知可能(計測可能)な光学式マーカ103が取り付けられており、光学式センサ104による光学式マーカ103の計測結果はPC100に送出される。図1では図示を簡略化するために、光学式センサ104の数を1としているが、実際には複数の光学式センサ104を配置する。PC100は光学式センサ104による光学式マーカ103の計測結果に基づいて光学式マーカ103の位置姿勢を求める。光学式センサ104による光学式マーカ103の計測結果に基づいて該光学式マーカ103の位置姿勢を求めるための技術については周知であるため、該技術に係る詳細な説明は省略する。そしてPC100は、例えばHMD101に備わっているカメラをユーザの視点(ユーザ視点)とする場合には、予め求めた「ユーザ視点と光学式マーカ103との間の相対的な位置姿勢関係」を用いて、光学式マーカ103の位置姿勢をユーザ視点の位置姿勢に変換する。   The optical marker 103 that can be detected (measured) by the optical sensor 104 is attached to the HMD 101, and the measurement result of the optical marker 103 by the optical sensor 104 is sent to the PC 100. In FIG. 1, in order to simplify the illustration, the number of the optical sensors 104 is set to 1, but a plurality of optical sensors 104 are actually arranged. The PC 100 obtains the position and orientation of the optical marker 103 based on the measurement result of the optical marker 103 by the optical sensor 104. Since a technique for obtaining the position and orientation of the optical marker 103 based on the measurement result of the optical marker 103 by the optical sensor 104 is well known, a detailed description thereof will be omitted. For example, when the camera provided in the HMD 101 is used as the user's viewpoint (user viewpoint), the PC 100 uses the “relative position and orientation relationship between the user viewpoint and the optical marker 103” obtained in advance. Then, the position and orientation of the optical marker 103 are converted into the position and orientation of the user viewpoint.

なお、ユーザ視点の位置姿勢を取得する方法は特定の方法に限らない。例えば、ユーザ視点の位置姿勢を得るために用いる位置姿勢計測用センサは光学式センサ104に限らず、磁気センサ、超音波センサなど他の種類の位置姿勢計測用センサを用いてユーザ視点の位置姿勢を取得するようにしても良い。また、現実空間中に配されている二次元マーカ102をHMD101に備わっているカメラにより撮像し、該撮像により得られる撮像画像を用いてユーザ視点の位置姿勢を求めても良い。また、位置姿勢計測用センサと2次元マーカとを併用してユーザ視点の位置姿勢を取得するようにしても良い。   The method for acquiring the position and orientation of the user viewpoint is not limited to a specific method. For example, the position and orientation measurement sensor used to obtain the position and orientation of the user viewpoint is not limited to the optical sensor 104, but the position and orientation of the user viewpoint using other types of position and orientation measurement sensors such as a magnetic sensor and an ultrasonic sensor. You may make it acquire. Alternatively, the two-dimensional marker 102 arranged in the real space may be imaged by a camera provided in the HMD 101, and the position and orientation of the user viewpoint may be obtained using a captured image obtained by the imaging. Further, the position and orientation of the user viewpoint may be acquired by using the position and orientation measurement sensor and the two-dimensional marker together.

そしてPC100は、CGモデル130等の仮想物体を生成して仮想空間中に配置し、ユーザ視点から見た仮想物体の画像を生成する。そしてPC100は、この生成した仮想物体の画像と、HMD101が有するカメラにより撮像された現実空間の画像と、を合成した合成画像を複合現実空間の画像として生成し、該生成した複合現実空間の画像をHMD101に対して送出する。これによりユーザは、自身の視点の位置姿勢に応じた複合現実空間の画像を眼前に観察することができる。   Then, the PC 100 generates a virtual object such as the CG model 130 and arranges it in the virtual space, and generates an image of the virtual object viewed from the user viewpoint. The PC 100 generates a composite image obtained by synthesizing the generated virtual object image and the real space image captured by the camera of the HMD 101 as an image of the mixed reality space, and the generated mixed reality space image. Is sent to the HMD 101. Thereby, the user can observe the image of the mixed reality space according to the position and orientation of his / her viewpoint in front of the eyes.

また、現実空間には、ユーザが複合現実空間を体験している様子を撮像する客観カメラ106が配置されており、客観カメラ106による撮像画像はPC100に送出される。図1では図示を簡略化するために、客観カメラ106の数を1としているが、複数台の客観カメラ106を配置しても良い。PC100は、客観カメラ106の位置姿勢(既知)を用いて、該位置姿勢を有する視点から見えるCGモデル130等の仮想物体の画像を生成し、該生成した画像を、客観カメラ106により撮像された現実空間の画像と合成して、客観画像ディスプレイ160に対して送出する。つまり客観画像ディスプレイ160には、複合現実空間を体験するユーザの視点(主観視点)とは異なる視点(客観視点)から見た複合現実空間の画像が表示されることになる。   An objective camera 106 that captures an image of a user experiencing the mixed reality space is arranged in the real space, and an image captured by the objective camera 106 is transmitted to the PC 100. In FIG. 1, the number of objective cameras 106 is set to 1 in order to simplify the illustration, but a plurality of objective cameras 106 may be arranged. The PC 100 uses the position and orientation (known) of the objective camera 106 to generate an image of a virtual object such as the CG model 130 that can be seen from the viewpoint having the position and orientation, and the generated image is captured by the objective camera 106. The image is combined with the real space image and sent to the objective image display 160. That is, the objective image display 160 displays an image of the mixed reality space viewed from a viewpoint (objective viewpoint) different from the viewpoint (subjective viewpoint) of the user who experiences the mixed reality space.

また、ユーザの人体には、モーションキャプチャー技術で用いる複数個のモーションマーカ105が取り付けられている。これらのモーションマーカ105は光学式センサ104によって計測され、その計測結果はPC100に送出される。なお、モーションマーカ105は、モーションマーカを計測可能な専用のモーションセンサで計測することも可能であり、モーションマーカ105を計測するためのモーションキャプチャシステムに適用可能なシステムは特定のシステムに限らない。PC100は、光学式センサ104によるモーションマーカ105の計測結果に基づいて、それぞれのモーションマーカ105の3次元位置を求める。光学式センサ104によるモーションマーカ105の計測結果に基づいて該モーションマーカ105の3次元位置を求めるための技術については周知であるため、該技術に係る詳細な説明は省略する。そしてPC100は、後述する条件が満たされた場合に、ユーザの現在の人体の姿勢を表す人体モデルをモーションマーカ105の3次元位置に基づいて生成し、客観カメラ106の位置姿勢を有する視点から見える人体モデルの画像を生成し、該生成した画像を、客観カメラ106による撮像画像に合成して客観画像ディスプレイ160に出力する。つまり、後述する条件が満たされた場合には、客観画像ディスプレイ160には、客観カメラ106の位置姿勢に応じて生成された仮想物体及び人体モデルの画像と、客観カメラ106による撮像画像と、が合成された合成画像が複合現実空間の画像として表示されることになり、後述する条件が満たされていない場合には、客観画像ディスプレイ160には、客観カメラ106の位置姿勢に応じて生成された仮想物体の画像と、客観カメラ106による撮像画像と、が合成された合成画像が複合現実空間の画像として表示されることになる。人体モデルは、例えば、モーションマーカ105の3次元位置を線分モデルで結んだ3次元モデルでも良いし、モーションマーカ105の3次元位置を関節の位置とする3次元モデルでも良いし、モーションマーカ105の3次元位置を輪郭とする3次元モデルでも良い。   In addition, a plurality of motion markers 105 used in the motion capture technique are attached to the user's human body. These motion markers 105 are measured by the optical sensor 104, and the measurement results are sent to the PC 100. The motion marker 105 can be measured by a dedicated motion sensor capable of measuring the motion marker, and the system applicable to the motion capture system for measuring the motion marker 105 is not limited to a specific system. The PC 100 obtains the three-dimensional position of each motion marker 105 based on the measurement result of the motion marker 105 by the optical sensor 104. Since a technique for obtaining the three-dimensional position of the motion marker 105 based on the measurement result of the motion marker 105 by the optical sensor 104 is well known, a detailed description thereof will be omitted. The PC 100 generates a human body model representing the current posture of the user based on the three-dimensional position of the motion marker 105 when a condition described later is satisfied, and can be viewed from the viewpoint having the position and posture of the objective camera 106. An image of the human body model is generated, and the generated image is combined with an image captured by the objective camera 106 and output to the objective image display 160. That is, when a condition described later is satisfied, the objective image display 160 includes a virtual object and a human body model image generated according to the position and orientation of the objective camera 106 and an image captured by the objective camera 106. When the synthesized composite image is displayed as an image of the mixed reality space and a condition described later is not satisfied, the objective image display 160 is generated according to the position and orientation of the objective camera 106. A combined image obtained by combining the image of the virtual object and the image captured by the objective camera 106 is displayed as an image of the mixed reality space. The human body model may be, for example, a three-dimensional model obtained by connecting the three-dimensional positions of the motion marker 105 with a line segment model, a three-dimensional model having the three-dimensional position of the motion marker 105 as a joint position, or the motion marker 105. It is also possible to use a three-dimensional model whose contour is the three-dimensional position.

次に、HMD101及びPC100のそれぞれのハードウェア構成例について、図2のブロック図を用いて説明する。なお、図2に示した構成は、HMD101、PC100に適用可能なハードウェア構成の一例であり、図2の構成に限るものではない。   Next, a hardware configuration example of each of the HMD 101 and the PC 100 will be described with reference to the block diagram of FIG. The configuration illustrated in FIG. 2 is an example of a hardware configuration applicable to the HMD 101 and the PC 100, and is not limited to the configuration illustrated in FIG.

先ず、HMD101について説明する。右目・左目ビデオカメラ221は、ユーザの右目に提供する現実空間の画像を撮像するための右目用ビデオカメラと、ユーザの左目に提供する現実空間の画像を撮像するための左目用ビデオカメラと、を有し、それぞれのビデオカメラによる撮像画像(現実空間の画像)はPC100に送出される。   First, the HMD 101 will be described. The right-eye / left-eye video camera 221 includes a right-eye video camera for capturing a real-space image provided to the user's right eye, a left-eye video camera for capturing a real-space image provided to the user's left eye, Images taken by the respective video cameras (real space images) are sent to the PC 100.

右目・左目ディスプレイ222は、ユーザの右目に映像(画像及び文字を含む)を提供するための右目用ディスプレイと、ユーザの左目に映像(画像及び文字を含む)を提供するための左目用ディスプレイと、を有する。PC100から送出された右目用の映像は右目用ディスプレイに表示され、左目用の映像は左目用ディスプレイに表示される。   The right-eye / left-eye display 222 includes a right-eye display for providing video (including images and characters) to the user's right eye, and a left-eye display for providing video (including images and characters) to the user's left eye. Have. The right-eye video sent from the PC 100 is displayed on the right-eye display, and the left-eye video is displayed on the left-eye display.

次に、PC100について説明する。汎用バス212は、右目・左目ビデオカメラ221から送出される現実空間の画像を受信するためのインターフェースとして機能するものであり、例えば、外部入力端子(例えば、IEEE1394端子)によって構成される。   Next, the PC 100 will be described. The general-purpose bus 212 functions as an interface for receiving a real space image transmitted from the right-eye / left-eye video camera 221 and includes, for example, an external input terminal (for example, an IEEE 1394 terminal).

CPU201はROM202やRAM203に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU201は、PC100全体の動作制御を行うと共に、PC100が行うものとして後述する各処理を実行若しくは制御する。   The CPU 201 executes various processes using computer programs and data stored in the ROM 202 and RAM 203. As a result, the CPU 201 controls the operation of the entire PC 100 and executes or controls each process described later as what the PC 100 performs.

ROM202には、書換不要のコンピュータプログラムやデータ、例えば、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)が格納されている。   The ROM 202 stores rewrite-free computer programs and data, for example, BIOS (Basic Input / Output System) which is a control program of the CPU 201.

RAM203は、ROM202や外部メモリ211からロードされたコンピュータプログラムやデータを格納するためのエリアを有する。またRAM203は、汎用バス212を介して右目・左目ビデオカメラ221から受信した現実空間の画像を格納するためのエリアを有する。またRAM203は、通信I/Fコントローラ208を介して光学式センサ104から受信した計測結果を格納するためのエリアを有する。またRAM203は、通信I/Fコントローラ208を介して客観カメラ106から受信した現実空間の画像を格納するためのエリアを有する。またRAM203は、CPU201が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM203は、各種のエリアを適宜提供することができる。   The RAM 203 has an area for storing computer programs and data loaded from the ROM 202 and the external memory 211. The RAM 203 has an area for storing an image of the real space received from the right-eye / left-eye video camera 221 via the general-purpose bus 212. The RAM 203 has an area for storing measurement results received from the optical sensor 104 via the communication I / F controller 208. The RAM 203 has an area for storing an image of the real space received from the objective camera 106 via the communication I / F controller 208. The RAM 203 has a work area used when the CPU 201 executes various processes. Thus, the RAM 203 can provide various areas as appropriate.

ビデオコントローラ206は、右目・左目ディスプレイ222、ディスプレイ210、客観画像ディスプレイ160の表示制御を行うためのものである。右目・左目ディスプレイ222に対しては、例えば外部出力端子(例えば、Digital Visual Interface)を用いて映像信号(画像や文字の表示用信号)の出力を行う。ディスプレイ210は、CRTや液晶画面などにより構成されており、CPU201による処理結果を画像や文字などでもって表示することができる。   The video controller 206 is for performing display control of the right eye / left eye display 222, the display 210, and the objective image display 160. For the right-eye / left-eye display 222, for example, an external output terminal (for example, Digital Visual Interface) is used to output a video signal (image or character display signal). The display 210 is configured by a CRT, a liquid crystal screen, or the like, and can display a processing result by the CPU 201 using an image, text, or the like.

入力コントローラ205は、入力デバイス209の動作制御を行うためのものである。入力デバイス209は、マウスやキーボードなどのユーザインターフェースとして機能するものであり、ユーザが操作することで各種の指示をCPU201に対して入力することができる。例えば、入力デバイス209がタッチパネルの場合、ユーザがタッチパネルに表示されたアイコンやカーソルやボタンを押下(指等でタッチ)することにより、各種の指示の入力を行うことができる。なお、タッチパネルは、マルチタッチスクリーンなどの、複数の指でタッチされた位置を検出することが可能なタッチパネルであってもよい。   The input controller 205 is for performing operation control of the input device 209. The input device 209 functions as a user interface such as a mouse and a keyboard, and can input various instructions to the CPU 201 by a user operation. For example, when the input device 209 is a touch panel, the user can input various instructions by pressing (touching with a finger or the like) an icon, a cursor, or a button displayed on the touch panel. The touch panel may be a touch panel that can detect a position touched by a plurality of fingers, such as a multi-touch screen.

メモリコントローラ207は、外部メモリ211への情報の読み書きを制御するためのものである。外部メモリ211は、ハードディスクドライブ装置、フレキシブルディスク、PCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等のメモリ装置である。外部メモリ211には、OS(オペレーティングシステム)や、PC100が行うものとして後述する各処理をCPU201に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。   The memory controller 207 is for controlling reading and writing of information to and from the external memory 211. The external memory 211 is a memory device such as a hard disk drive device, a flexible disk, a card type memory connected to the PCMCIA card slot via an adapter. The external memory 211 stores an OS (Operating System) and computer programs and data for causing the CPU 201 to execute or control each process described below as performed by the PC 100.

外部メモリ211に保存されているコンピュータプログラムには、以下に説明する各フローチャートに従った処理をCPU201に実行させるためのコンピュータプログラムが含まれている。また、外部メモリ211に保存されているデータには、本実施形態を含む以下の各実施形態において既知の情報として取り扱う情報や、CGモデル130を含む様々な仮想物体の描画に要するデータ(描画データ)が含まれている。外部メモリ211に保存されているコンピュータプログラムやデータは、CPU201による制御に従って適宜RAM203にロードされ、CPU201による処理対象となる。なお、外部メモリ211は、USBメモリ、SDカードなどのメモリ装置であっても良い。   The computer program stored in the external memory 211 includes a computer program for causing the CPU 201 to execute processing according to each flowchart described below. The data stored in the external memory 211 includes information handled as known information in the following embodiments including the present embodiment, and data (drawing data) required for drawing various virtual objects including the CG model 130. )It is included. Computer programs and data stored in the external memory 211 are appropriately loaded into the RAM 203 under the control of the CPU 201 and are processed by the CPU 201. The external memory 211 may be a memory device such as a USB memory or an SD card.

通信I/Fコントローラ208は、光学式センサ104及び客観カメラ106のそれぞれから計測結果や現実空間の画像を受信するためのインターフェースとして機能するものである。また通信I/Fコントローラ208は、LANやインターネットなどのネットワークを介して外部の機器との間のデータ通信を行うためのインターフェースとして機能するものである。例えば、通信I/Fコントローラ208は、TCP/IPを用いたインターネット通信等が可能である。また通信I/Fコントローラ208は、ギガビットイーサネット(登録商標)等を通じて光学式センサ104との通信も制御する。なお、図1では、光学式センサ104、客観カメラ106、及び客観画像ディスプレイ160と、PC100と、の間のデータ通信は有線であるが、無線であっても良い。例えば、PC100は、LANケーブルやUSBケーブル、無線通信など様々な通信形態によって光学式センサ104、客観画像ディスプレイ160、客観カメラ106との間のデータ通信を行うことができる。   The communication I / F controller 208 functions as an interface for receiving measurement results and real space images from the optical sensor 104 and the objective camera 106. The communication I / F controller 208 functions as an interface for performing data communication with an external device via a network such as a LAN or the Internet. For example, the communication I / F controller 208 can perform Internet communication using TCP / IP. The communication I / F controller 208 also controls communication with the optical sensor 104 through Gigabit Ethernet (registered trademark) or the like. In FIG. 1, data communication between the optical sensor 104, the objective camera 106, the objective image display 160, and the PC 100 is wired, but may be wireless. For example, the PC 100 can perform data communication with the optical sensor 104, the objective image display 160, and the objective camera 106 by various communication forms such as a LAN cable, a USB cable, and wireless communication.

上記の汎用バス212、CPU201、ROM202、RAM203、ビデオコントローラ206、入力コントローラ205、メモリコントローラ207、通信I/Fコントローラ208は何れも、システムバス204に接続されている。   The general-purpose bus 212, CPU 201, ROM 202, RAM 203, video controller 206, input controller 205, memory controller 207, and communication I / F controller 208 are all connected to the system bus 204.

なお、本実施形態では、HMD101とPC100とを別個の機器とするが、HMD101とPC100とを一体化させても良い。また、PC100をサーバ装置として取り扱っても良い。   In the present embodiment, the HMD 101 and the PC 100 are separate devices, but the HMD 101 and the PC 100 may be integrated. Further, the PC 100 may be handled as a server device.

次に、PC100のモジュール構成例について、図4のブロック図を用いて説明する。オペレーティングシステム401は、HMD101との間の入出力を制御し、右目・左目ビデオカメラ221から汎用バス212を介して得られた現実空間の画像を複合現実感プラットフォーム403へと受け渡す。またオペレーティングシステム401は、グラフィックエンジン402で描画された複合現実空間の画像を、ビデオコントローラ206を介して、右目・左目ディスプレイ222へ出力する。   Next, a module configuration example of the PC 100 will be described with reference to the block diagram of FIG. The operating system 401 controls input / output to / from the HMD 101, and transfers an image of the real space obtained from the right-eye / left-eye video camera 221 via the general-purpose bus 212 to the mixed reality platform 403. Further, the operating system 401 outputs the mixed reality space image drawn by the graphic engine 402 to the right-eye / left-eye display 222 via the video controller 206.

グラフィックエンジン402は、外部メモリ211に記憶されている仮想物体の描画データを用いて仮想物体の画像を生成し、該生成した仮想物体の画像を右目・左目ビデオカメラ221による撮像画像上に重畳することで複合現実空間の画像を生成する。仮想物体の画像の生成(描画)に利用するエンジンは、例えば、OpenGLやDirectXなどの広く利用されているグラフィックエンジンでも、独自に開発したグラフィックエンジンでもよい。なお、本実施形態ではグラフィックライブラリとしてOpenGLを利用するものとする。   The graphic engine 402 generates a virtual object image using the virtual object drawing data stored in the external memory 211 and superimposes the generated virtual object image on the image captured by the right-eye / left-eye video camera 221. Thus, an image of the mixed reality space is generated. An engine used for generating (drawing) an image of a virtual object may be a widely used graphic engine such as OpenGL or DirectX, or a graphic engine developed independently. In the present embodiment, OpenGL is used as the graphic library.

複合現実感プラットフォーム(MRプラットフォームともいう)403は、上記のようにしてユーザの視点の位置姿勢を求め、現実空間と仮想空間との位置合わせを行う。これらの技術は、例えば、特開2002−32784号公報、特開2006−072903公報、特開2007−166427公報等に開示されている既存の技術を用いて実現することが可能である。   The mixed reality platform (also referred to as MR platform) 403 obtains the position and orientation of the user's viewpoint as described above, and aligns the real space and the virtual space. These techniques can be realized by using existing techniques disclosed in, for example, Japanese Unexamined Patent Application Publication Nos. 2002-32784, 2006-072903, and 2007-166427.

複合現実感アプリケーション(MRアプリケーションやビューアアプリケーションともいう)404は、複合現実感プラットフォーム403から視点の位置姿勢や、仮想物体の色や形状の情報、仮想物体の位置姿勢等の仮想物体の描画に要する情報を受け付け、グラフィックエンジン402に対して、仮想物体の画像の描画命令を発行する。この時、OpenGLのAPIを用いて、描画する仮想物体の識別情報、位置姿勢の情報を設定した命令を発行する。   A mixed reality application (also referred to as an MR application or a viewer application) 404 is required to draw a virtual object such as a viewpoint position and orientation, information on the color and shape of a virtual object, and a position and orientation of a virtual object from the mixed reality platform 403. The information is received, and a drawing command for a virtual object image is issued to the graphic engine 402. At this time, using the OpenGL API, a command in which the identification information and the position and orientation information of the virtual object to be drawn are set is issued.

また、複合現実感プラットフォーム403は、客観カメラ106から撮像画像を受信すると、該撮像画像を複合現実感アプリケーション404へ受け渡す。モーションキャプチャシステム405は、光学式センサ104によるモーションマーカ105の計測結果に基づいてモーションマーカ105の3次元位置を求める。複合現実感アプリケーション404は、モーションキャプチャシステム405から取得したモーションマーカ105の3次元位置と人体モデルとに応じた人体モデルの描画情報(後述する条件が満たされた場合)と、撮像画像と、仮想物体の描画命令と、をグラフィックエンジン402に出力する。グラフィックエンジン402は、人体モデル及び仮想物体が撮像画像に重畳された複合現実空間の画像を生成して客観画像ディスプレイ160に出力する。   Further, when the mixed reality platform 403 receives a captured image from the objective camera 106, the mixed reality platform 403 delivers the captured image to the mixed reality application 404. The motion capture system 405 obtains the three-dimensional position of the motion marker 105 based on the measurement result of the motion marker 105 by the optical sensor 104. The mixed reality application 404 includes drawing information of a human body model (when a later-described condition is satisfied) corresponding to the three-dimensional position of the motion marker 105 acquired from the motion capture system 405 and the human body model, a captured image, and a virtual image An object drawing command is output to the graphic engine 402. The graphic engine 402 generates a mixed reality space image in which a human body model and a virtual object are superimposed on a captured image, and outputs the mixed reality space image to the objective image display 160.

次に、1枚(1フレーム分)の複合現実空間の画像を生成してHMD101や客観画像ディスプレイ160に表示するためにHMD101及びPC100が行う処理について、図5のフローチャートに従って説明する。   Next, a process performed by the HMD 101 and the PC 100 to generate one (one frame) mixed reality space image and display it on the HMD 101 or the objective image display 160 will be described with reference to the flowchart of FIG.

ステップS503では、右目・左目ビデオカメラ221は、撮像した現実空間の画像(右目用カメラによる撮像画像、左目用カメラによる撮像画像)をPC100に対して出力する。   In step S <b> 503, the right-eye / left-eye video camera 221 outputs the captured real space image (the image captured by the right-eye camera and the image captured by the left-eye camera) to the PC 100.

ステップS504では、CPU201は、右目・左目ビデオカメラ221から出力された現実空間の画像を汎用バス212を介して受信し、ステップS505ではCPU201は、該受信した現実空間の画像をRAM203や外部メモリ211に格納する。   In step S504, the CPU 201 receives the real-space image output from the right-eye / left-eye video camera 221 via the general-purpose bus 212. In step S505, the CPU 201 receives the received real-space image in the RAM 203 or the external memory 211. To store.

ステップS506では、CPU201は、光学式センサ104による光学式マーカ103の計測結果を通信I/Fコントローラ208を介して取得し、該取得した計測結果に基づいて上記のようにしてユーザ視点の位置姿勢(HMD101の位置姿勢)を求める。ステップS506で求めるユーザ視点の位置姿勢は、右の視点(右目用ビデオカメラ)の位置姿勢、左の視点(左目用ビデオカメラ)の位置姿勢、である。右の視点については上記と同様、予め求めた「右の視点と光学式マーカ103との間の相対的な位置姿勢関係」を用いて、光学式マーカ103の位置姿勢を変換することで求めることができる。同様に、左の視点については上記と同様、予め求めた「左の視点と光学式マーカ103との間の相対的な位置姿勢関係」を用いて、光学式マーカ103の位置姿勢を変換することで求めることができる。   In step S506, the CPU 201 acquires the measurement result of the optical marker 103 by the optical sensor 104 via the communication I / F controller 208, and based on the acquired measurement result, the position and orientation of the user viewpoint as described above. (HMD 101 position and orientation) is obtained. The position and orientation of the user viewpoint obtained in step S506 are the position and orientation of the right viewpoint (right-eye video camera) and the position and orientation of the left viewpoint (left-eye video camera). As with the above, the right viewpoint is obtained by converting the position and orientation of the optical marker 103 using the “relative position and orientation relationship between the right viewpoint and the optical marker 103” obtained in advance. Can do. Similarly, for the left viewpoint, the position and orientation of the optical marker 103 are converted using the “relative position and orientation relationship between the left viewpoint and the optical marker 103” obtained in the same manner as described above. Can be obtained.

ステップS507では、CPU201は、ステップS506で求めた視点の位置姿勢を、HMD101の識別情報(ID)と関連づけて外部メモリ211に格納する。例えば、図7(a)に示す如く、HMDごとにID、位置、姿勢を対応付けて管理しているHMD情報1110の欄1111にHMD101のIDを登録し、欄1112にHMD101の位置を登録し、欄1113にHMD101の姿勢を登録する。HMD情報1110は外部メモリ211に保存されている。   In step S507, the CPU 201 stores the viewpoint position and orientation obtained in step S506 in the external memory 211 in association with the identification information (ID) of the HMD 101. For example, as shown in FIG. 7A, the ID of the HMD 101 is registered in the column 1111 of the HMD information 1110 managed in association with the ID, position, and orientation for each HMD, and the location of the HMD 101 is registered in the column 1112. In the column 1113, the attitude of the HMD 101 is registered. The HMD information 1110 is stored in the external memory 211.

ステップS508では、CPU201は、外部メモリ211に格納されている仮想物体の描画データをRAM203に読み出し、該読み出した描画データに基づいて仮想物体を生成し、該生成した仮想物体を仮想空間中に配置する。そしてCPU201は、ステップS506で求めた視点の位置姿勢に基づいて、該視点から見た仮想物体の画像を生成する。そしてCPU201は、ステップS504で受信した現実空間の画像上に、仮想物体の画像を重畳させることで複合現実空間の画像(MR画像)を生成する。厳密にはCPU201は、右目用カメラによる撮像画像(現実空間の画像)上に、右の視点の位置姿勢に基づいて生成した仮想物体の画像を重畳させることで、右目用の複合現実空間の画像を生成すると共に、左目用カメラによる撮像画像(現実空間の画像)上に、左の視点の位置姿勢に基づいて生成した仮想物体の画像を重畳させることで、左目用の複合現実空間の画像を生成する。   In step S508, the CPU 201 reads the virtual object drawing data stored in the external memory 211 into the RAM 203, generates a virtual object based on the read drawing data, and places the generated virtual object in the virtual space. To do. Then, the CPU 201 generates an image of the virtual object viewed from the viewpoint based on the position and orientation of the viewpoint obtained in step S506. Then, the CPU 201 generates a mixed reality space image (MR image) by superimposing the virtual object image on the real space image received in step S504. Strictly speaking, the CPU 201 superimposes the image of the virtual object generated based on the position and orientation of the right viewpoint on the image captured by the right-eye camera (image in the real space), so that the image of the mixed reality space for the right eye is superimposed. And the virtual object image generated based on the position and orientation of the left viewpoint is superimposed on the image captured by the left-eye camera (real space image). Generate.

ステップS509では、CPU201は、ステップS508において生成した複合現実空間の画像(右目用の複合現実空間の画像、左目用の複合現実空間の画像)を、ビデオコントローラ206を介してHMD101及びディスプレイ210に対して出力する。   In step S509, the CPU 201 sends the mixed reality space image (the mixed reality space image for the right eye and the mixed reality space image for the left eye) generated in step S508 to the HMD 101 and the display 210 via the video controller 206. Output.

ステップS510では、右目・左目ディスプレイ222は、ステップS509においてPC100から送信された右目用の複合現実空間の画像及び左目用の複合現実空間の画像を受信する。そしてステップS511では、右目・左目ディスプレイ222は、右目用の複合現実空間の画像を右目用ディスプレイに表示すると共に、左目用の複合現実空間の画像を左目用ディスプレイに表示する。   In step S510, the right eye / left eye display 222 receives the mixed reality space image for the right eye and the mixed reality space image for the left eye transmitted from the PC 100 in step S509. In step S511, the right-eye / left-eye display 222 displays the right-eye mixed reality space image on the right-eye display and the left-eye mixed reality space image on the left-eye display.

右目・左目ディスプレイ222に表示される複合現実空間の画像の一例を図13に示す。図13(a)は、CGモデル130を観察するユーザ視点に基づく複合現実空間の画像の一例を示している。図13(b)は、CGモデル130の下側に位置するユーザ視点に基づく複合現実空間の画像の一例を示しており、CGモデル130に加えてユーザの腕1301が写っている。   An example of the mixed reality space image displayed on the right-eye / left-eye display 222 is shown in FIG. FIG. 13A shows an example of an image of the mixed reality space based on the user viewpoint for observing the CG model 130. FIG. 13B shows an example of an image of the mixed reality space based on the user viewpoint located below the CG model 130, and the user's arm 1301 is shown in addition to the CG model 130.

また、PC100は、ステップS504〜S509の処理と並行して、ステップS520〜S524の処理も実行する。   Further, the PC 100 also executes the processes of steps S520 to S524 in parallel with the processes of steps S504 to S509.

ステップS520では、CPU201は、光学式センサ104によるモーションマーカ105の計測結果を通信I/Fコントローラ208を介して取得し、該取得した計測結果に基づいてモーションマーカ105の3次元位置を人体情報として求める。   In step S520, the CPU 201 acquires the measurement result of the motion marker 105 by the optical sensor 104 via the communication I / F controller 208, and uses the three-dimensional position of the motion marker 105 as human body information based on the acquired measurement result. Ask.

ステップS521ではCPU201は、ステップS520において求めた人体情報を外部メモリ211に格納する。   In step S521, the CPU 201 stores the human body information obtained in step S520 in the external memory 211.

ステップS522では、CPU201は、図6のフローチャートに従った処理を実行する。   In step S522, the CPU 201 executes processing according to the flowchart of FIG.

ステップS601では、CPU201は、人体情報に基づく上記の人体モデルを生成するのか否か(人体モデルを生成して客観カメラ106による撮像画像上に重畳させるのか(反映させるのか)否か)を決定するための複数の条件(モード)のうち、現在PC100に設定されているモードを判定する。   In step S601, the CPU 201 determines whether or not to generate the above human body model based on the human body information (whether or not to generate the human body model and superimpose it on the image captured by the objective camera 106). Among the plurality of conditions (modes) for determining, the mode currently set in the PC 100 is determined.

この判定の結果、現在PC100に設定されているモードが「近接・指定位置モード」の場合には、処理はステップS602に進む。また、現在PC100に設定されているモードが「干渉モード」の場合には、処理はステップS603に進む。また、現在PC100に設定されているモードが「視線モード」の場合には、処理はステップS604に進む。   As a result of this determination, if the mode currently set in the PC 100 is the “proximity / designated position mode”, the process proceeds to step S602. If the mode currently set in the PC 100 is “interference mode”, the process proceeds to step S603. If the mode currently set in the PC 100 is the “line-of-sight mode”, the process proceeds to step S604.

ステップS602における処理の詳細について、同処理のフローチャートを示す図8を用いて説明する。   Details of the processing in step S602 will be described with reference to FIG. 8 showing a flowchart of the processing.

ステップS801では、CPU201は、ステップS506において求めた視点の位置(右の視点、左の視点の何れでも良い)を取得する。   In step S801, the CPU 201 obtains the position of the viewpoint obtained in step S506 (which may be a right viewpoint or a left viewpoint).

ここで、上記の「近接・指定位置モード」には、「指定位置近接モード」と「CGモデル近接モード」とが含まれている。ステップS802ではCPU201は、現在PC100に設定されているモードが「近接・指定位置モード」のうち「指定位置近接モード」でるのか、それとも「CGモデル近接モード」であるのかを判断する。この判断の結果、現在PC100に設定されているモードが「近接・指定位置モード」のうち「指定位置近接モード」であれば、処理はステップS804に進み、現在PC100に設定されているモードが「近接・指定位置モード」のうち「CGモデル近接モード」であれば、処理はステップS803に進む。   Here, the “proximity / designated position mode” includes “designated position proximity mode” and “CG model proximity mode”. In step S <b> 802, the CPU 201 determines whether the mode currently set for the PC 100 is the “specified position proximity mode” in the “proximity / specified position mode” or the “CG model proximity mode”. As a result of this determination, if the mode currently set in the PC 100 is “specified position proximity mode” in the “proximity / specified position mode”, the process proceeds to step S804, and the mode currently set in the PC 100 is “ If it is “CG model proximity mode” in “proximity / designated position mode”, the process proceeds to step S803.

ステップS803では、CPU201は、ステップS506において求めた視点の位置と、仮想空間中に配置した仮想物体のうち特定の仮想物体の配置位置と、の間の距離を求める。   In step S803, the CPU 201 obtains a distance between the viewpoint position obtained in step S506 and the arrangement position of a specific virtual object among the virtual objects arranged in the virtual space.

ここで、外部メモリ211には、図7(c)に示す如く、仮想空間に配置するそれぞれの仮想物体を管理するCGモデル情報1120が保存されている。CGモデル情報1120における欄1121には、仮想物体に固有のID(モデルID)が登録されており、欄1122には、仮想物体の描画データのファイル名(モデル名)が登録されており、欄1123には、仮想物体の描画データが格納されているファイルのパス(ファイルパス)が登録されており、欄1124には、仮想物体の配置位置が登録されており、欄1125には、仮想物体の配置姿勢が登録されている。然るに上記のステップS508では、CPU201は、外部メモリ211に格納されているCGモデル情報1120を参照することで、描画対象となる仮想物体のIDに対応する欄1122及び欄1123のそれぞれに登録されているモデル名及びファイルパスに基づいて該仮想物体の描画データを読み出し、該読み出した描画データに基づいて該仮想物体を生成し、該生成した仮想物体を、該IDに対応する欄1124及び欄1125のそれぞれに登録されている位置及び姿勢でもって仮想空間中に配置する。   Here, as shown in FIG. 7C, the external memory 211 stores CG model information 1120 for managing the respective virtual objects arranged in the virtual space. An ID (model ID) unique to the virtual object is registered in the column 1121 in the CG model information 1120, and a file name (model name) of the drawing data of the virtual object is registered in the column 1122. In 1123, a path (file path) of a file in which drawing data of the virtual object is stored is registered, in the column 1124, the arrangement position of the virtual object is registered, and in the column 1125, the virtual object is stored. Is registered. However, in step S508 described above, the CPU 201 refers to the CG model information 1120 stored in the external memory 211, and is registered in each of the column 1122 and the column 1123 corresponding to the virtual object ID to be rendered. The virtual object drawing data is read based on the model name and the file path, the virtual object is generated based on the read drawing data, and the generated virtual object is displayed in columns 1124 and 1125 corresponding to the ID. Are arranged in the virtual space with the positions and postures registered in each of them.

更に、CGモデル情報1120の欄1126には、仮想物体に対する人体制御フラグの値(ON若しくはOFF)が登録されている。ステップS803では、CPU201は、ステップS506において求めた視点の位置と、CGモデル情報1120に登録されている仮想物体のうち、人体制御フラグの値が「ON」の仮想物体の配置位置(欄1124)と、の間の距離を求める。図7(c)の場合、モデルID=M111に対応する仮想物体及びモデルID=M333に対応する仮想物体のそれぞれの位置と視点の位置との間の距離を求めることになる。   Further, the value (ON or OFF) of the human body control flag for the virtual object is registered in the column 1126 of the CG model information 1120. In step S803, the CPU 201 arranges the position of the viewpoint obtained in step S506 and the virtual object whose human body control flag value is “ON” among the virtual objects registered in the CG model information 1120 (column 1124). Find the distance between and. In the case of FIG. 7C, the distance between the position of the virtual object corresponding to the model ID = M111 and the virtual object corresponding to the model ID = M333 and the position of the viewpoint is obtained.

一方、ステップS804では、CPU201は、ステップS506において求めた視点の位置と、現実空間(若しくは仮想空間)における規定位置(予め指定された指定位置)と、の間の距離を求める。   On the other hand, in step S804, the CPU 201 obtains the distance between the position of the viewpoint obtained in step S506 and the specified position (designated position designated in advance) in the real space (or virtual space).

ステップS805では、CPU201は、現モードについて予め設定されている設定値としての規定距離を取得する。例えば外部メモリ211には図7(b)に示す如く、現在PC100に設定されているモードを示すモード設定1130が登録されており、モード設定1130における欄1131には、現在PC100に設定されているモードが登録されており、欄1132には、現在PC100に設定されているモードに対応する設定値が登録されている。図7(b)に示したモード設定1130では、PC100に設定されているモードとして「指定位置近接モード」が設定されており、「指定位置近接モード」に対応する設定値として「50cm」が設定されている。然るにこの場合、ステップS805では、モード設定1130から設定値として「50cm」を規定距離として取得することになる。   In step S <b> 805, the CPU 201 acquires a specified distance as a set value that is set in advance for the current mode. For example, as shown in FIG. 7B, a mode setting 1130 indicating a mode currently set in the PC 100 is registered in the external memory 211, and a column 1131 in the mode setting 1130 is currently set in the PC 100. The mode is registered, and a setting value corresponding to the mode currently set in the PC 100 is registered in the column 1132. In the mode setting 1130 shown in FIG. 7B, the “specified position proximity mode” is set as the mode set in the PC 100, and “50 cm” is set as the setting value corresponding to the “specified position proximity mode”. Has been. In this case, however, in step S805, “50 cm” is acquired as the set distance from the mode setting 1130 as the specified distance.

ステップS806では、CPU201は、ステップS803もしくはステップS804で求めた距離dと、ステップS805において取得した規定距離θと、の大小比較を行う。ステップS803において複数の距離dを求めた場合には、そのうちの1つ(例えば最小の距離)と、ステップS805において取得した規定距離θと、の大小比較を行う。この大小比較の結果、d<θの場合には、処理はステップS807に進み、d≧θの場合には、処理はステップS809に進む。   In step S806, the CPU 201 compares the distance d obtained in step S803 or step S804 with the specified distance θ acquired in step S805. When a plurality of distances d are obtained in step S803, one of them (for example, the minimum distance) is compared in magnitude with the specified distance θ acquired in step S805. As a result of the size comparison, if d <θ, the process proceeds to step S807. If d ≧ θ, the process proceeds to step S809.

ステップS807では、CPU201は、上記のステップS521において外部メモリ211に格納した人体情報を読み出す。そしてステップS808では、CPU201は、人体情報に基づいて上記の人体モデルを生成する。例えば、ユーザの人体の基本姿勢を表す人体モデルとして図7(e)に示す人体モデルを使用する場合、黒丸で示している箇所の位置を、該箇所に対応するモーションマーカ105の3次元位置に応じて移動させることで、現在のユーザの姿勢を表す人体モデルに変形させる。   In step S807, the CPU 201 reads out the human body information stored in the external memory 211 in the above step S521. In step S808, the CPU 201 generates the above human body model based on the human body information. For example, when the human body model shown in FIG. 7E is used as the human body model representing the basic posture of the user's human body, the position of the part indicated by the black circle is changed to the three-dimensional position of the motion marker 105 corresponding to the part. By moving it accordingly, it is transformed into a human body model representing the posture of the current user.

一方、ステップS809では、CPU201は、終了判定フラグの値(初期値はOFF)をONに設定する。   On the other hand, in step S809, the CPU 201 sets the value of the end determination flag (initial value is OFF) to ON.

ステップS808からステップS810に処理が進んだ場合、ステップS810では、CPU201は、客観カメラ106の位置姿勢を有する視点から見える仮想物体及び人体モデルの画像を生成し、該生成した画像を、客観カメラ106により撮像された現実空間の画像と合成することで客観視点に基づく複合現実空間の画像を生成し、該生成した客観視点に基づく複合現実空間の画像を客観画像ディスプレイ160に対して送出する。   When the process proceeds from step S808 to step S810, in step S810, the CPU 201 generates images of a virtual object and a human body model that can be seen from the viewpoint having the position and orientation of the objective camera 106, and the generated image is displayed on the objective camera 106. The mixed reality space image based on the objective viewpoint is generated by synthesizing it with the image of the real space imaged in the above, and the mixed reality space image based on the generated objective viewpoint is transmitted to the objective image display 160.

一方、ステップS809からステップS810に処理が進んだ場合、ステップS810では、CPU201は、客観カメラ106の位置姿勢を有する視点から見える仮想物体の画像を生成し、該生成した画像を、客観カメラ106により撮像された現実空間の画像と合成することで客観視点に基づく複合現実空間の画像を生成し、該生成した客観視点に基づく複合現実空間の画像を客観画像ディスプレイ160に対して送出する。   On the other hand, when the process proceeds from step S809 to step S810, in step S810, the CPU 201 generates an image of a virtual object that can be seen from the viewpoint having the position and orientation of the objective camera 106, and the generated image is displayed by the objective camera 106. A composite reality space image based on the objective viewpoint is generated by combining with the captured real space image, and the mixed reality space image based on the generated objective viewpoint is transmitted to the objective image display 160.

ステップS811では、CPU201は、複合現実空間の画像や人体情報を外部メモリ211に保存する処理を行う。ステップS811における処理の詳細について、同処理のフローチャートを示す図11を用いて説明する。   In step S <b> 811, the CPU 201 performs processing for saving the mixed reality space image and human body information in the external memory 211. Details of the processing in step S811 will be described with reference to FIG. 11 showing a flowchart of the processing.

ステップS1101では、CPU201は、終了判定フラグ=ONであるか否かを判断する。この判断の結果、終了判定フラグ=ONであれば、処理はステップS1102に進み、終了判定フラグ=OFFであれば、処理はステップS1103に進む。   In step S1101, the CPU 201 determines whether or not the end determination flag is ON. As a result of this determination, if the end determination flag = ON, the process proceeds to step S1102, and if the end determination flag = OFF, the process proceeds to step S1103.

終了判定フラグ=ONは、人体情報を対応付けて保存しない条件であり、例えば、ユーザと対象モデルとの距離が規定距離外であった場合には、人体情報と複合現実空間の画像を対応付けて保存しない。これは後からユーザの姿勢を検証する際に、検証に不要な姿勢(人体情報)を記録する処理を軽減するためである。   The end determination flag = ON is a condition that the human body information is not stored in association with each other. For example, when the distance between the user and the target model is outside the specified distance, the human body information and the mixed reality space image are associated with each other. Do not save. This is to reduce processing for recording postures (human body information) unnecessary for verification when the posture of the user is verified later.

ステップS1103では、CPU201は、複合現実空間の画像を動画像として保存するのか、静止画像として保存するのかを判断する。「複合現実空間の画像を動画像として保存する」とは、連続的に生成される各フレームの複合現実空間の画像を1つのファイルに格納することを意味する。「複合現実空間の画像を静止画像として保存する」とは、1つのファイルに1フレーム分の複合現実空間の画像を格納することを意味する。複合現実空間の画像を動画像として保存するのか静止画像として保存するのかは予め設定されているものとする。複合現実空間の画像を動画像として保存する場合には、処理はステップS1104に進み、複合現実空間の画像を静止画像として保存する場合には、処理はステップS1106に進む。   In step S1103, the CPU 201 determines whether to store the mixed reality space image as a moving image or a still image. “Saving the mixed reality space image as a moving image” means storing the continuously generated mixed reality space image of each frame in one file. “Saving the mixed reality space image as a still image” means storing one frame of the mixed reality space image in one file. It is assumed that whether to store the mixed reality space image as a moving image or a still image is set in advance. If the mixed reality space image is stored as a moving image, the process proceeds to step S1104. If the mixed reality space image is stored as a still image, the process proceeds to step S1106.

ステップS1104では、CPU201は、複合現実空間の画像を動画像として外部メモリ211に保存する。   In step S1104, the CPU 201 stores the mixed reality space image in the external memory 211 as a moving image.

ステップS1105では、CPU201は、人体情報を外部メモリ211に保存する。なお、ステップS1104において保存する複合現実空間の画像とステップS1105において保存する人体情報とは対応付けて保存するものとする。なお、人体情報の代わりに、該人体情報に基づいて変形させた人体モデルを保存するようにしても良いし、客観カメラ106による撮像画像に仮想物体及び人体モデルを重畳させた複合現実空間の画像を保存するようにしても良い。   In step S <b> 1105, the CPU 201 stores human body information in the external memory 211. Note that the mixed reality space image stored in step S1104 and the human body information stored in step S1105 are stored in association with each other. Instead of human body information, a human body model deformed based on the human body information may be stored, or an image of a mixed reality space in which a virtual object and a human body model are superimposed on an image captured by the objective camera 106 May be saved.

ステップS1106では、CPU201は、上記のステップS806においてd<θの状態が連続して所定時間(例えば3秒)以上経過した、以下のステップS902において判定対象との干渉状態が連続して所定時間以上経過した、以下のステップS1003において視線ベクトルと交点を有する状態が連続して所定時間以上経過した、の何れか条件が満たされているか否かを判断する。この判断の結果、何れかの条件が満たされている場合には、処理はステップS1007に進み、何れの条件も満たされていない場合には、図11のフローチャートに従った処理は完了する。   In step S1106, the CPU 201 has continuously been in the state of d <θ in step S806 above for a predetermined time (for example, 3 seconds) or longer, and in step S902 below, the interference state with the determination target is continuously longer than the predetermined time. It is determined whether or not any of the following conditions has been satisfied in the following step S1003 in which the state having the line-of-sight vector and the intersection has continuously passed for a predetermined time or more. If any condition is satisfied as a result of the determination, the process proceeds to step S1007. If neither condition is satisfied, the process according to the flowchart of FIG. 11 is completed.

ステップS1107では、CPU201は、複合現実空間の画像を静止画像として外部メモリ211に保存する。   In step S1107, the CPU 201 stores the mixed reality space image in the external memory 211 as a still image.

ステップS1108では、CPU201は、人体情報を外部メモリ211に保存する。なお、ステップS1107において保存する複合現実空間の画像とステップS1108において保存する人体情報とは対応付けて保存するものとする。なお、人体情報の代わりに、該人体情報に基づいて変形させた人体モデルを保存するようにしても良いし、客観カメラ106による撮像画像に仮想物体及び人体モデルを重畳させた複合現実空間の画像を保存するようにしても良い。   In step S <b> 1108, the CPU 201 stores human body information in the external memory 211. Note that the mixed reality space image stored in step S1107 and the human body information stored in step S1108 are stored in association with each other. Instead of human body information, a human body model deformed based on the human body information may be stored, or an image of a mixed reality space in which a virtual object and a human body model are superimposed on an image captured by the objective camera 106 May be saved.

一方、ステップS1102では、CPU201は、複合現実空間の画像を動画像として保存している場合には、ステップS1104において複合現実空間の画像の格納処理を行っているファイルを外部メモリ211に保存する。   On the other hand, in step S1102, if the mixed reality space image is stored as a moving image, the CPU 201 stores the file in which the mixed reality space image storage processing is performed in step S1104 in the external memory 211.

図8に戻って、ステップS812では、CPU201は、終了判定フラグ=ONであるか否かを判断する。この判断の結果、終了判定フラグ=ONであれば、処理はステップS523に進む。一方、終了判定フラグ=OFFであれば、処理はステップS801に進む。   Returning to FIG. 8, in step S812, the CPU 201 determines whether or not the end determination flag is ON. As a result of this determination, if the end determination flag = ON, the process proceeds to step S523. On the other hand, if the end determination flag = OFF, the process proceeds to step S801.

次に、上記のステップS603における処理の詳細について、同処理のフローチャートを示す図9を用いて説明する。   Next, details of the processing in step S603 will be described with reference to FIG. 9 showing a flowchart of the processing.

ステップS901では、CPU201は、仮想空間に配置されている仮想物体のうち特定の仮想物体を、干渉判定の対象(判定対象モデル)として特定する。例えば、CPU201は、上記のCGモデル情報1120において人体制御フラグの値が「ON」の仮想物体を判定対象モデルとして特定する。   In step S901, the CPU 201 identifies a specific virtual object among the virtual objects arranged in the virtual space as an interference determination target (determination target model). For example, the CPU 201 specifies a virtual object whose human body control flag value is “ON” in the CG model information 1120 as the determination target model.

次にステップS902では、CPU201は、ユーザと判定対象モデルとの間で干渉があったか否かを判断する。この判断には様々な方法を適用することができる。例えば、ユーザの手にも光学式マーカ103を取り付けておき、光学式センサ104によってユーザの手に取り付けられている光学式マーカ103の3次元位置を求める。そして、ユーザの手に取り付けられている光学式マーカ103の3次元位置と、判定対象モデルの3次元位置と、の間の距離が規定距離以内であれば、ユーザの手と判定対象モデルとの間で干渉があったと判定することができる。また、HMD101が有する右目・左目ビデオカメラ221により撮像された撮像画像から手の3次元位置を算出し、該算出した3次元位置と、判定対象モデルの3次元位置と、の間の距離が規定距離以内であれば、ユーザの手と判定対象モデルとの間で干渉があったと判定することができる。なお、ユーザの手の代わりに他の物体と判定対象モデルとの間の干渉を判定しても良い。例えば、ユーザが手で把持する指示具と判定対象モデルとの間の干渉を判定するようにしても良い。この場合、指示具に光学式マーカ103を取り付けおき、光学式センサ104によって指示具に取り付けられている光学式マーカ103の3次元位置を求める。そして、指示具に取り付けられている光学式マーカ103の3次元位置と判定対象モデルの3次元位置と、の間の距離が規定距離以内であれば、指示具と判定対象モデルとの間で干渉があったと判定することができる。また、ユーザの手の位置姿勢に応じてその位置姿勢を変化させる仮想物体としての指示具と判定対象モデルとの間で干渉があったか否かを判定しても良い。   In step S902, the CPU 201 determines whether there is interference between the user and the determination target model. Various methods can be applied to this determination. For example, the optical marker 103 is also attached to the user's hand, and the three-dimensional position of the optical marker 103 attached to the user's hand is obtained by the optical sensor 104. If the distance between the three-dimensional position of the optical marker 103 attached to the user's hand and the three-dimensional position of the determination target model is within a specified distance, the user's hand and the determination target model It can be determined that there was interference between the two. Further, the three-dimensional position of the hand is calculated from the captured image captured by the right-eye / left-eye video camera 221 of the HMD 101, and the distance between the calculated three-dimensional position and the three-dimensional position of the determination target model is defined. Within the distance, it can be determined that there is interference between the user's hand and the determination target model. Note that interference between another object and the determination target model may be determined instead of the user's hand. For example, the interference between the pointing tool held by the user with the hand and the determination target model may be determined. In this case, the optical marker 103 is attached to the indicator, and the three-dimensional position of the optical marker 103 attached to the indicator is obtained by the optical sensor 104. If the distance between the three-dimensional position of the optical marker 103 attached to the pointing tool and the three-dimensional position of the determination target model is within a specified distance, interference occurs between the pointing tool and the determination target model. It can be determined that there was. Further, it may be determined whether or not there is interference between the pointing tool as a virtual object that changes the position and orientation of the user's hand and the determination target model.

このような判断の結果、干渉があったと判断した場合には、処理はステップS903に進み、干渉はなかったと判断した場合には、処理はステップS905に進む。   If it is determined that there is interference as a result of the determination, the process proceeds to step S903. If it is determined that there is no interference, the process proceeds to step S905.

ステップS903では、CPU201は、上記のステップS521において外部メモリ211に格納した人体情報を読み出す。そしてステップS904では、CPU201は、上記のステップS808と同様にして、人体情報に基づいて上記の人体モデルを生成する。   In step S903, the CPU 201 reads out the human body information stored in the external memory 211 in the above step S521. In step S904, the CPU 201 generates the above human body model based on the human body information in the same manner as in the above step S808.

一方、ステップS905では、CPU201は、終了判定フラグの値(初期値はOFF)をONに設定する。   On the other hand, in step S905, the CPU 201 sets the value of the end determination flag (initial value is OFF) to ON.

ステップS904からステップS906に処理が進んだ場合、ステップS906では、CPU201は、客観カメラ106の位置姿勢を有する視点から見える仮想物体及び人体モデルの画像を生成し、該生成した画像を、客観カメラ106により撮像された現実空間の画像と合成することで客観視点に基づく複合現実空間の画像を生成し、該生成した客観視点に基づく複合現実空間の画像を客観画像ディスプレイ160に対して送出する。   When the process proceeds from step S904 to step S906, in step S906, the CPU 201 generates a virtual object image and a human body model image that can be seen from the viewpoint having the position and orientation of the objective camera 106, and the generated image is displayed on the objective camera 106. The mixed reality space image based on the objective viewpoint is generated by synthesizing it with the image of the real space imaged in the above, and the mixed reality space image based on the generated objective viewpoint is transmitted to the objective image display 160.

一方、ステップS905からステップS906に処理が進んだ場合、ステップS906では、CPU201は、客観カメラ106の位置姿勢を有する視点から見える仮想物体の画像を生成し、該生成した画像を、客観カメラ106により撮像された現実空間の画像と合成することで客観視点に基づく複合現実空間の画像を生成し、該生成した客観視点に基づく複合現実空間の画像を客観画像ディスプレイ160に対して送出する。   On the other hand, when the processing proceeds from step S905 to step S906, in step S906, the CPU 201 generates an image of a virtual object that can be seen from the viewpoint having the position and orientation of the objective camera 106, and the generated image is displayed by the objective camera 106. A composite reality space image based on the objective viewpoint is generated by combining with the captured real space image, and the mixed reality space image based on the generated objective viewpoint is transmitted to the objective image display 160.

ユーザの手とCGモデル130との間に干渉がない場合、客観画像ディスプレイ160の表示画面には、図12(a)に示す如く、HMD101を頭部に装着したユーザ1200と、CGモデル130と、が表示されている。ユーザの手とCGモデル130との間に干渉が発生している間は、客観画像ディスプレイ160には、図12(b)に示す如く、HMD101を頭部に装着したユーザ1200、CGモデル130、に加え、ユーザ1200の基本姿勢を表す人体モデルを人体情報に応じて変形させることで現在のユーザ1200の姿勢に合わせた人体モデル1201が表示される。   When there is no interference between the user's hand and the CG model 130, the display screen of the objective image display 160 includes a user 1200 wearing the HMD 101 on the head, the CG model 130, as shown in FIG. , Is displayed. While interference occurs between the user's hand and the CG model 130, the objective image display 160 includes a user 1200 with the HMD 101 mounted on the head, the CG model 130, as shown in FIG. In addition, the human body model 1201 that matches the current posture of the user 1200 is displayed by deforming the human body model representing the basic posture of the user 1200 according to the human body information.

ステップS907では、CPU201は、上記の図11のフローチャートに従った処理を行う。   In step S907, the CPU 201 performs processing according to the flowchart of FIG.

ステップS908では、CPU201は、終了判定フラグ=ONであるか否かを判断する。この判断の結果、終了判定フラグ=ONであれば、処理はステップS523に進む。一方、終了判定フラグ=OFFであれば、処理はステップS902に進む。   In step S908, the CPU 201 determines whether or not the end determination flag is ON. As a result of this determination, if the end determination flag = ON, the process proceeds to step S523. On the other hand, if the end determination flag = OFF, the process proceeds to step S902.

次に、上記のステップS604における処理の詳細について、同処理のフローチャートを示す図10を用いて説明する。   Next, details of the process in step S604 will be described with reference to FIG. 10 showing a flowchart of the process.

ステップS1001では、CPU201は、仮想空間に配置されている仮想物体のうち特定の仮想物体を、判定対象(判定対象モデル)として特定する。例えば、CPU201は、上記のCGモデル情報1120において人体制御フラグの値が「ON」の仮想物体を判定対象モデルとして特定する。   In step S1001, the CPU 201 specifies a specific virtual object among the virtual objects arranged in the virtual space as a determination target (determination target model). For example, the CPU 201 specifies a virtual object whose human body control flag value is “ON” in the CG model information 1120 as the determination target model.

ステップS1002では、CPU201は、視点(右の視点、左の視点の何れでも良い)の姿勢を表すベクトルを視線方向ベクトルとして求める。なお、HMD101が視線センサを有する場合には、視線センサによる視線検出(アイトラッキング)により特定される視線方向を表すベクトルを視線方向ベクトルとして取得するようにしても良い。   In step S <b> 1002, the CPU 201 obtains a vector representing the orientation of the viewpoint (which can be either the right viewpoint or the left viewpoint) as a gaze direction vector. When the HMD 101 includes a line-of-sight sensor, a vector representing the line-of-sight direction specified by line-of-sight detection (eye tracking) by the line-of-sight sensor may be acquired as the line-of-sight direction vector.

ステップS1003では、CPU201は、視線方向ベクトルを方向ベクトルとする直線と判定対象モデルとに交点が存在するか否かを判断する。この判断の結果、交点が存在する場合には、処理はステップS1004に進み、交点が存在しない場合には、処理はステップS1006に進む。   In step S <b> 1003, the CPU 201 determines whether or not an intersection exists between the straight line having the line-of-sight direction vector as the direction vector and the determination target model. As a result of this determination, if there is an intersection, the process proceeds to step S1004. If there is no intersection, the process proceeds to step S1006.

ステップS1004では、CPU201は、上記のステップS521において外部メモリ211に格納した人体情報を読み出す。そしてステップS1005では、CPU201は、上記のステップS808と同様にして、人体情報に基づいて上記の人体モデルを生成する。   In step S1004, the CPU 201 reads out the human body information stored in the external memory 211 in the above step S521. In step S1005, the CPU 201 generates the above human body model based on the human body information in the same manner as in the above step S808.

一方、ステップS1006では、CPU201は、終了判定フラグの値(初期値はOFF)をONに設定する。   On the other hand, in step S1006, the CPU 201 sets the value of the end determination flag (initial value is OFF) to ON.

ステップS1005からステップS1007に処理が進んだ場合、ステップS1007では、CPU201は、客観カメラ106の位置姿勢を有する視点から見える仮想物体及び人体モデルの画像を生成し、該生成した画像を、客観カメラ106により撮像された現実空間の画像と合成することで客観視点に基づく複合現実空間の画像を生成し、該生成した客観視点に基づく複合現実空間の画像を客観画像ディスプレイ160に対して送出する。   When the process proceeds from step S1005 to step S1007, in step S1007, the CPU 201 generates a virtual object image and a human body model image that can be seen from the viewpoint having the position and orientation of the objective camera 106, and the generated image is displayed on the objective camera 106. The mixed reality space image based on the objective viewpoint is generated by synthesizing it with the image of the real space imaged in the above, and the mixed reality space image based on the generated objective viewpoint is transmitted to the objective image display 160.

一方、ステップS1006からステップS1007に処理が進んだ場合、ステップS1007では、CPU201は、客観カメラ106の位置姿勢を有する視点から見える仮想物体の画像を生成し、該生成した画像を、客観カメラ106により撮像された現実空間の画像と合成することで客観視点に基づく複合現実空間の画像を生成し、該生成した客観視点に基づく複合現実空間の画像を客観画像ディスプレイ160に対して送出する。   On the other hand, when the process proceeds from step S1006 to step S1007, in step S1007, the CPU 201 generates an image of a virtual object that can be seen from the viewpoint having the position and orientation of the objective camera 106, and the generated image is displayed by the objective camera 106. A composite reality space image based on the objective viewpoint is generated by combining with the captured real space image, and the mixed reality space image based on the generated objective viewpoint is transmitted to the objective image display 160.

ステップS1008では、CPU201は、上記の図11のフローチャートに従った処理を行う。   In step S1008, the CPU 201 performs processing according to the flowchart of FIG.

ステップS1009では、CPU201は、終了判定フラグ=ONであるか否かを判断する。この判断の結果、終了判定フラグ=ONであれば、処理はステップS523に進む。一方、終了判定フラグ=OFFであれば、処理はステップS1002に進む。   In step S1009, the CPU 201 determines whether or not the end determination flag is ON. As a result of this determination, if the end determination flag = ON, the process proceeds to step S523. On the other hand, if the end determination flag = OFF, the process proceeds to step S1002.

図5に戻って、次にステップS523では、CPU201は、ステップS508において生成したユーザ視点に基づく複合現実空間の画像(右目用の複合現実空間の画像、左目用の複合現実空間の画像)と、ステップS810、ステップS906、ステップS1007の何れかにおいて生成した客観視点に基づく複合現実空間の画像と、を対応付けて保存情報として外部メモリ211に保存する。また、客観視点に基づく複合現実空間の画像に人体モデルを重畳させている場合には、この人体モデルの生成時に使用した人体情報(ステップS807,ステップS903,ステップS1004の何れかにおいて取得した人体情報)も、対応付けて保存情報として外部メモリ211に保存する。保存情報の構成例を図7(d)に示す。   Returning to FIG. 5, in step S523, the CPU 201 then mixes a mixed reality space image (right-eye mixed reality space image, left-eye mixed reality space image) based on the user viewpoint generated in step S508, and The mixed reality space image based on the objective viewpoint generated in any one of step S810, step S906, and step S1007 is stored in the external memory 211 as storage information in association with each other. Further, when a human body model is superimposed on an image of the mixed reality space based on the objective viewpoint, the human body information used when generating the human body model (the human body information acquired in any one of steps S807, S903, and S1004) ) Are also stored in the external memory 211 as storage information in association with each other. A configuration example of the stored information is shown in FIG.

図7(d)に示す保存情報1140における欄1141には、1フレーム分のユーザ視点に基づく複合現実空間の画像に対する固有のID(登録ID)が登録されており、欄1142には、1フレーム分のユーザ視点に基づく複合現実空間の画像を格納した日時が登録されており、欄1143には、人体情報が登録されており、欄1144には、ユーザ視点に基づく複合現実空間の画像のファイル名(ファイルのパスを含む)と、客観視点に基づく複合現実空間の画像のファイル名(ファイルのパスを含む)と、が登録されている。なお、人体情報の代わりに、該人体情報に基づいて変形させた人体モデルを欄1143に登録するようにしても良い。   A unique ID (registration ID) for the mixed reality space image based on the user viewpoint for one frame is registered in the column 1141 in the saved information 1140 shown in FIG. 7D, and one frame is stored in the column 1142. The date and time when the mixed reality space image based on the user viewpoint is stored is registered, the human body information is registered in the column 1143, and the mixed reality space image file based on the user viewpoint is registered in the column 1144. The name (including the file path) and the file name (including the file path) of the mixed reality space image based on the objective viewpoint are registered. Instead of the human body information, a human body model deformed based on the human body information may be registered in the field 1143.

また、保存情報1140の各レコードには、現在のモード設定1130や保存対象となった仮想物体のモデルID(欄1121)を合わせて保存することが望ましい。これは後から検証する際に、どのモデルに対してどのようなタイミングで保存がされたのかを特定することができるためである。   Further, it is desirable to store each record of the storage information 1140 together with the current mode setting 1130 and the model ID (column 1121) of the virtual object to be stored. This is because it is possible to specify at what timing the model has been saved at the time of later verification.

なお、ステップS523における保存は、図11における保存処理により保存された保存情報を確定させるものであり、外部メモリ211に各種情報を保存させる。本実施形態では、ステップS523にて図11で保存した情報を確定するような処理となっているが、ステップS523の処理を図11内で行ってもよい。すなわち、ステップS523を省略することも可能であるとともに、図11とステップS523は不整合のない処理である。   Note that the storage in step S523 is to determine the storage information stored by the storage processing in FIG. 11, and various information is stored in the external memory 211. In this embodiment, the process stores the information stored in FIG. 11 in step S523, but the process in step S523 may be performed in FIG. That is, step S523 can be omitted, and FIG. 11 and step S523 are processes without inconsistencies.

ステップS524では、CPU201は、外部メモリ211に保存した上記の保存情報をディスプレイ210等の表示装置に表示する。PC100の操作者は、表示された保存情報に含まれる何れかの行を入力デバイス209などを操作して指定することができ、CPU201は、操作者によって指定した行に対応する人体情報、ユーザ視点に基づく複合現実空間の画像、客観視点に基づく複合現実空間の画像、を外部メモリ211から読み出してディスプレイ210に表示する。なお、これらの情報の表示形態は特定の表示形態に限るものではないし、これらの情報の全てを表示することに限るものではない。また、これらの情報に加えて/代えて他の情報を表示しても良い。   In step S524, the CPU 201 displays the stored information stored in the external memory 211 on a display device such as the display 210. The operator of the PC 100 can specify any line included in the displayed stored information by operating the input device 209 or the like, and the CPU 201 can specify the human body information corresponding to the line specified by the operator, the user viewpoint, and so on. Are read from the external memory 211 and displayed on the display 210. In addition, the display form of these information is not restricted to a specific display form, It is not restricted to displaying all these information. Further, in addition to / instead of these pieces of information, other information may be displayed.

保存情報の表示例を図14に示す。図14(a)の表示例は、CGモデル130の下側に位置するユーザ視点に基づく複合現実空間の画像の右上に人体情報に基づいて生成した人体モデル1402を重畳させて表示した例を示している。なお、複合現実空間の画像と人体モデルとを重畳させて表示することに限るものではなく、それぞれ別個の表示領域に表示しても良い。図14(b)の表示例は、CGモデル130の下側に位置するユーザ視点に基づく複合現実空間の画像の右上に客観視点に基づく複合現実空間の画像1450を重畳させて表示した例を示している。なお、ユーザ視点に基づく複合現実空間の画像に客観視点に基づく複合現実空間の画像を重畳させて表示することに限るものではなく、それぞれ別個の表示領域に表示しても良い。   A display example of the stored information is shown in FIG. The display example of FIG. 14A shows an example in which the human body model 1402 generated based on the human body information is superimposed on the upper right of the mixed reality space image based on the user viewpoint positioned below the CG model 130 and displayed. ing. The mixed reality space image and the human body model are not limited to being displayed in a superimposed manner, and may be displayed in separate display areas. The display example of FIG. 14B shows an example in which a mixed reality space image 1450 based on an objective viewpoint is superimposed and displayed on the upper right of the mixed reality space image based on the user viewpoint positioned below the CG model 130. ing. Note that the present invention is not limited to superimposing and displaying the mixed reality space image based on the objective viewpoint on the mixed reality space image based on the user viewpoint, and may be displayed in separate display areas.

ユーザの体勢を検証する際には、ユーザの体勢が客観的に見える画像(客観視点に基づく複合現実空間の画像)と、その時のユーザの見ている画像(ユーザ視点に基づく複合現実空間の画像)と、表示されることが望ましい。   When verifying the posture of the user, an image in which the posture of the user is objectively viewed (an image of a mixed reality space based on an objective viewpoint) and an image that the user is viewing at that time (an image of a mixed reality space based on the user viewpoint) ) Is desirable.

人体情報に基づく人体モデルを生成して、視点から見た人体モデルの画像を生成する処理をフレームごとに行うことは、PC100に大きな処理負担を与えることになる。本実施形態によれば、上記の条件が満たされた場合に人体情報に基づく人体モデルの生成及び視点から見た人体モデルの画像の生成、を行うので、PC100の処理負担を軽減させることができる。   Generating a human body model based on human body information and generating a human body model image viewed from the viewpoint for each frame places a large processing burden on the PC 100. According to the present embodiment, when the above condition is satisfied, the human body model is generated based on the human body information and the human body model image viewed from the viewpoint is generated, so that the processing burden on the PC 100 can be reduced. .

また、本実施形態によれば、ユーザによる複合現実空間の体験に係る様々な情報を容易に記録することができる。このような記録によれば、例えば、人体情報を用いてユーザの姿勢(無理な体勢でないか)を検証する際には有効となる。   In addition, according to the present embodiment, it is possible to easily record various information related to the experience of the mixed reality space by the user. Such recording is effective, for example, when verifying the posture of the user (whether it is an unreasonable posture) using human body information.

最後に、上記のPC100の機能構成例について、図3のブロック図を用いて説明する。なお、図3の各機能部はハードウェアで実装しても良いし、ソフトウェア(コンピュータプログラム)で実装しても良い。前者の場合、例えばこのようなハードウェアをHMD101に搭載することで、HMD101は、PC100が行うものとして上述した各処理をも実行することができる。後者の場合、このようなコンピュータプログラムを外部メモリ211に保存しておき、CPU201がこのコンピュータプログラムを適宜RAM203に読み出して実行することで、対応する機能部の機能を実現することができる。   Finally, a functional configuration example of the PC 100 will be described with reference to the block diagram of FIG. Each functional unit in FIG. 3 may be implemented by hardware or software (computer program). In the former case, for example, by installing such hardware in the HMD 101, the HMD 101 can also execute the processes described above as being performed by the PC 100. In the latter case, such a computer program is stored in the external memory 211, and the CPU 201 reads out this computer program to the RAM 203 and executes it appropriately, thereby realizing the function of the corresponding functional unit.

取得部301は、PC100に入力される各種のデータを取得する。ユーザ視点画像生成部302は、取得部301が取得したデータに基づいてユーザ視点に基づく複合現実空間の画像を生成してHMD101に送出する。判断部303は、人体情報に基づく上記の人体モデルを生成するのか否かを判断する。客観視点画像生成部304は、客観視点に基づく複合現実空間の画像を生成して客観画像ディスプレイ160に送出する。保存部305は、外部メモリ211への各種の情報の格納処理を行う。   The acquisition unit 301 acquires various data input to the PC 100. The user viewpoint image generation unit 302 generates an image of the mixed reality space based on the user viewpoint based on the data acquired by the acquisition unit 301 and transmits the generated image to the HMD 101. The determination unit 303 determines whether to generate the above human body model based on the human body information. The objective viewpoint image generation unit 304 generates an image of the mixed reality space based on the objective viewpoint and sends it to the objective image display 160. The storage unit 305 performs processing for storing various types of information in the external memory 211.

つまり、本実施形態に係る画像処理装置は、ユーザの人体の姿勢を計測することで得られる人体情報から該ユーザの人体の姿勢を表す人体モデルを生成するか否かを、該ユーザの位置若しくは視線方向に基づいて判断し、人体情報から人体モデルを生成すると判断した場合に、人体情報から人体モデルを生成し、該人体モデルを含む画像を生成して表示装置に出力する。   That is, the image processing apparatus according to the present embodiment determines whether to generate a human body model representing the posture of the user's human body from the human body information obtained by measuring the posture of the user's human body. When it is determined based on the line-of-sight direction and it is determined that a human body model is generated from the human body information, a human body model is generated from the human body information, and an image including the human body model is generated and output to the display device.

[第2の実施形態]
第1の実施形態では、HMD101とPC100とを別個の装置としているが、HMD101とPC100とを一体化させ、HMD101は自機が行うものとして上述した各処理だけでなく、PC100が行うものとして説明した上記の各処理も行うようにしても良い。
[Second Embodiment]
In the first embodiment, the HMD 101 and the PC 100 are separate devices. However, the HMD 101 and the PC 100 are integrated, and the HMD 101 is described as being performed by the PC 100 in addition to the above-described processes performed by the own device. The above processes may also be performed.

第1の実施形態では、HMD101はビデオシースルー方式の頭部装着型表示装置であるものとして説明した。しかし、HMD101として光学シースルー方式の頭部装着型表示装置を使用しても良い。   In the first embodiment, the HMD 101 is described as being a video see-through head-mounted display device. However, an optical see-through head-mounted display device may be used as the HMD 101.

また、ユーザの頭部に装着されているHMD101に加えて若しくは代えて他の表示装置、例えばタブレット端末装置やスマートフォン等の携帯端末装置に対してユーザ視点に基づく複合現実空間の画像を出力するようにしても良い。この場合、携帯端末装置は、該携帯端末装置に備わっているセンサやアプリケーションを使用することで該携帯端末装置の位置姿勢をユーザ視点として取得することができる。ユーザ視点に基づく複合現実空間の画像はPC100が生成しても良いし、携帯端末装置側で生成しても良い。   In addition to or instead of the HMD 101 mounted on the user's head, an image of the mixed reality space based on the user viewpoint is output to another display device, for example, a mobile terminal device such as a tablet terminal device or a smartphone. Anyway. In this case, the mobile terminal device can acquire the position and orientation of the mobile terminal device as a user viewpoint by using a sensor or application provided in the mobile terminal device. The image of the mixed reality space based on the user viewpoint may be generated by the PC 100 or may be generated on the mobile terminal device side.

また、第1の実施形態では、現実空間と仮想空間とを合成した複合現実空間をユーザに提示する複合現実感提示システム(MRシステム)を例にとり説明したが、仮想空間のみをユーザに提示する、所謂VRシステムに適用しても構わない。その場合、現実空間の撮像や現実空間の画像との合成に係る処理は不要となる。   In the first embodiment, the mixed reality presentation system (MR system) that presents the user with a mixed reality space obtained by synthesizing the real space and the virtual space has been described. However, only the virtual space is presented to the user. It may be applied to a so-called VR system. In that case, processing related to imaging of the real space and synthesis with the image of the real space is not necessary.

また、客観カメラ106の代わりに、他のユーザの頭部に装着されているHMD101に備わっている右目・左目ビデオカメラ221を使用しても構わない。   Instead of the objective camera 106, the right-eye / left-eye video camera 221 provided in the HMD 101 mounted on the head of another user may be used.

また、第1の実施形態では説明を簡単にするために、1台のPC100に1台のHMD101が接続されているものとしたが、1台のPC100に2台以上のHMD101を接続するようにしても良い。   Further, in the first embodiment, for simplicity of explanation, it is assumed that one HMD 101 is connected to one PC 100. However, two or more HMDs 101 are connected to one PC 100. May be.

[第3の実施形態]
第1の実施形態では、ステップS806においてd<θの状態が連続して所定時間(例えば3秒)以上経過した、ステップS902において判定対象との干渉状態が連続して所定時間以上経過した、ステップS1003において視線ベクトルと交点を有する状態が連続して所定時間以上経過した、の何れか条件が満たされている場合に、複合現実空間の画像を静止画像として保存すると共に人体情報を保存していた。しかし、複合現実空間の画像を静止画像として保存すると共に人体情報を保存するための条件はこれらの条件に限らない。例えば、上記のステップS806においてd<θとなった、ステップS902において判定対象との干渉があった、ステップS1003において視線ベクトルと交点があった、の何れか条件が満たされている場合に、複合現実空間の画像を静止画像として保存すると共に人体情報を保存するようにしても良い。また、第1の実施形態と同様に、人体情報に加えて若しくは代えて、人体モデルや客観視点に基づく複合現実空間の画像など、他の情報を保存するようにしても良い。
[Third Embodiment]
In the first embodiment, the state of d <θ has continuously passed for a predetermined time (for example, 3 seconds) in step S806, and the interference state with the determination target has continuously passed for a predetermined time in step S902. The image of the mixed reality space is stored as a still image and the human body information is stored when any of the conditions in which the state having the line-of-sight vector and the intersection in S1003 has continuously passed for a predetermined time is satisfied . However, the conditions for storing the mixed reality space image as a still image and the human body information are not limited to these conditions. For example, if any of the above conditions is satisfied, d <θ in Step S806, interference with the determination target in Step S902, or an intersection with the line-of-sight vector in Step S1003, is satisfied. The physical space image may be stored as a still image and the human body information may be stored. Further, as in the first embodiment, in addition to or instead of the human body information, other information such as an image of a mixed reality space based on a human body model or an objective viewpoint may be stored.

また、第1の実施形態では、複合現実空間の画像を動画像として保存する場合、保存のための条件は特に設けていなかったが、静止画像として保存する場合と同様に、様々な条件を設け、設けた条件が満たされた場合に、複合現実空間の画像を動画像として保存すると共に人体情報を保存するようにしても良い。また、2以上の条件が満たされた場合に複合現実空間の画像(動画像でも静止画像でも良い)及び人体情報の保存を行うようにしても良い。また、第1の実施形態では、様々な情報の保存ステップを設けたが、状況に応じて幾つかの保存ステップは省略しても良い。   In the first embodiment, when saving an image of the mixed reality space as a moving image, no conditions for saving are provided. However, as in the case of saving as a still image, various conditions are provided. When the provided condition is satisfied, the mixed reality space image may be stored as a moving image and the human body information may be stored. Also, when two or more conditions are satisfied, an image of the mixed reality space (which may be a moving image or a still image) and human body information may be stored. In the first embodiment, various information storage steps are provided, but some storage steps may be omitted depending on the situation.

[その他の実施形態]
以上、本発明の実施形態について示したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
[Other Embodiments]
Although the embodiment of the present invention has been described above, the present invention can take an embodiment as a system, apparatus, method, program, recording medium, or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.

また、本発明におけるプログラムは、フローチャートの処理方法をコンピュータが実行可能なプログラムであり、本発明の記憶媒体は処理方法をコンピュータが実行可能なプログラムが記憶されている。   The program according to the present invention is a program that allows a computer to execute the processing method of the flowchart, and the storage medium according to the present invention stores a program that allows the computer to execute the processing method.

以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読み出し実行することによっても、本発明の目的が達成されることは言うまでもない。   As described above, a recording medium that records a program that implements the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus stores the program stored in the recording medium. It goes without saying that the object of the present invention can also be achieved by executing reading.

この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記録媒体は本発明を構成することになる。   In this case, the program itself read from the recording medium realizes the novel function of the present invention, and the recording medium storing the program constitutes the present invention.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク、ソリッドステートドライブ等を用いることができる。   As a recording medium for supplying the program, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, DVD-ROM, magnetic tape, nonvolatile memory card, ROM, EEPROM, silicon A disk, solid state drive, or the like can be used.

また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on an instruction of the program is actually It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the processing and the processing is included.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program read from the recording medium is written to the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board is based on the instructions of the program code. It goes without saying that the case where the CPU or the like provided in the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。   Further, the present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. Needless to say, the present invention can be applied to a case where the present invention is achieved by supplying a program to a system or apparatus. In this case, by reading a recording medium storing a program for achieving the present invention into the system or apparatus, the system or apparatus can enjoy the effects of the present invention.

さらに、本発明を達成するためのプログラムを通信線上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。   Furthermore, by downloading and reading a program for achieving the present invention from a server, database, etc. on a communication line using a communication program, the system or apparatus can enjoy the effects of the present invention.

なお、以上説明した各実施形態の一部若しくは全部を適宜組み合わせて使用しても構わないし、以上説明した各実施形態の一部若しくは全部を選択的に使用しても構わない。   In addition, a part or all of each embodiment described above may be used in combination as appropriate, or a part or all of each embodiment described above may be selectively used.

Claims (9)

ユーザの位置若しくは視線方向に基づいて、該ユーザの人体の姿勢を計測することで得られる人体情報から該ユーザの人体の姿勢を表す人体モデルを生成する条件を満たすか否かを判断する判断手段と、
前記条件を満たすと前記判断手段が判断した場合に、前記人体情報から前記人体モデルを生成し、該人体モデルを含む画像を生成して表示装置に出力する出力手段と
を備えることを特徴とする画像処理装置。
Determination means for determining whether or not a condition for generating a human body model representing the posture of the user's human body is satisfied from human body information obtained by measuring the posture of the user's human body based on the position or line-of-sight direction of the user When,
Output means for generating the human body model from the human body information, generating an image including the human body model, and outputting the generated image to a display device when the determination unit determines that the condition is satisfied. Image processing device.
前記判断手段は、前記ユーザの位置が規定の位置若しくは特定の仮想物体の位置から規定の距離以内であるとの条件を満たした場合には、前記人体情報から前記人体モデルを生成すると判断することを特徴とする請求項1に記載の画像処理装置。   The determination means determines that the human body model is generated from the human body information when a condition that the position of the user is within a predetermined distance from a predetermined position or a position of a specific virtual object is satisfied. The image processing apparatus according to claim 1. 前記判断手段は、前記ユーザが特定の仮想物体と干渉しているとの条件を満たした場合には、前記人体情報から前記人体モデルを生成すると判断することを特徴とする請求項1に記載の画像処理装置。   The said determination means determines that the said human body model is produced | generated from the said human body information, when the conditions that the said user is interfering with a specific virtual object are satisfy | filled. Image processing device. 前記判断手段は、前記ユーザの視線方向に特定の仮想物体が存在するとの条件を満たした場合には、前記人体情報から前記人体モデルを生成すると判断することを特徴とする請求項1に記載の画像処理装置。   The said determination means determines that the said human body model is produced | generated from the said human body information, when the conditions that the specific virtual object exists in the said user's gaze direction are satisfy | filled. Image processing device. 前記特定の仮想物体は仮想空間に配置する仮想物体のうち予め指定された仮想物体であることを特徴とする請求項2乃至4の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the specific virtual object is a virtual object designated in advance among virtual objects arranged in a virtual space. 前記人体モデルを生成すると前記判断手段が判断した場合、前記出力手段は、前記人体情報から前記人体モデルを生成し、現実空間中に配されている撮像装置の位置姿勢に応じて該人体モデルの画像を生成し、該生成した人体モデルの画像を、該撮像装置によって撮像された現実空間の画像に合成して前記表示装置に出力することを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。   When the determination unit determines that the human body model is to be generated, the output unit generates the human body model from the human body information, and determines the human body model according to the position and orientation of the imaging device arranged in the real space. 6. An image is generated, and the generated image of the human body model is synthesized with an image of a real space imaged by the imaging device and output to the display device. An image processing apparatus according to 1. 前記人体情報は、前記ユーザに取り付けられているマーカをモーションキャプチャシステムによって計測することで得られる該マーカの3次元位置であることを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。   The said human body information is the three-dimensional position of this marker obtained by measuring the marker attached to the said user with a motion capture system, The any one of Claim 1 thru | or 6 characterized by the above-mentioned. Image processing device. 画像処理装置が行う画像処理方法であって、
前記画像処理装置の判断手段が、ユーザの位置若しくは視線方向に基づいて、該ユーザの人体の姿勢を計測することで得られる人体情報から該ユーザの人体の姿勢を表す人体モデルを生成する条件を満たすか否かを判断する判断工程と、
前記画像処理装置の出力手段が、前記条件を満たすと前記判断工程で判断した場合に、前記人体情報から前記人体モデルを生成し、該人体モデルを含む画像を生成して表示装置に出力する出力工程と
を備えることを特徴とする画像処理方法。
An image processing method performed by an image processing apparatus,
The determination means of the image processing apparatus generates a human body model that represents the posture of the user's human body from human body information obtained by measuring the posture of the user's human body based on the user's position or line-of-sight direction. A judgment process for judging whether or not to satisfy,
When the output unit of the image processing apparatus determines that the condition is satisfied in the determination step, the output unit generates the human body model from the human body information, generates an image including the human body model, and outputs the generated image to the display device An image processing method comprising the steps of:
コンピュータを、請求項1乃至7の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。   The computer program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 7.
JP2017161331A 2017-08-24 2017-08-24 Image processing system, image processing method and computer program Pending JP2019040356A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017161331A JP2019040356A (en) 2017-08-24 2017-08-24 Image processing system, image processing method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017161331A JP2019040356A (en) 2017-08-24 2017-08-24 Image processing system, image processing method and computer program

Publications (1)

Publication Number Publication Date
JP2019040356A true JP2019040356A (en) 2019-03-14

Family

ID=65727584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017161331A Pending JP2019040356A (en) 2017-08-24 2017-08-24 Image processing system, image processing method and computer program

Country Status (1)

Country Link
JP (1) JP2019040356A (en)

Similar Documents

Publication Publication Date Title
JP7068562B2 (en) Techniques for recording augmented reality data
JP4533087B2 (en) Image processing method and image processing apparatus
JP5709440B2 (en) Information processing apparatus and information processing method
JP5936155B2 (en) 3D user interface device and 3D operation method
JP4227561B2 (en) Image processing method and image processing apparatus
US20080204453A1 (en) Method and apparatus for generating three-dimensional model information
JP2009025918A (en) Image processor and image processing method
US20210368152A1 (en) Information processing apparatus, information processing method, and program
JP2015125641A (en) Information processing device, control method therefor, and program
JP2007004713A (en) Image processing method and image processor
JP2016105279A (en) Device and method for processing visual data, and related computer program product
JP2019009816A (en) Information processing device, information processing system, control method thereof and program
JP2016122392A (en) Information processing apparatus, information processing system, control method and program of the same
JP2005174021A (en) Method and device for presenting information
JP7279113B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, COMPUTER PROGRAM
JP2018063567A (en) Image processing device, image processing method and program
JP2006343954A (en) Image processing method and image processor
JP4217661B2 (en) Image processing method and image processing apparatus
JP2019040356A (en) Image processing system, image processing method and computer program
JP2005251118A (en) Method and device for image processing
JP2018124746A (en) Information processing device, information processing system, information processing method and program
JP2016115230A (en) Information processing apparatus, information processing system, control method thereof, and program
JP2015121892A (en) Image processing apparatus, and image processing method
CN113780141A (en) Method and device for constructing playing model
JP2006252059A (en) Image processing method and image processor