JP2011036483A - Image generation system, control program, and recording medium - Google Patents

Image generation system, control program, and recording medium Download PDF

Info

Publication number
JP2011036483A
JP2011036483A JP2009187492A JP2009187492A JP2011036483A JP 2011036483 A JP2011036483 A JP 2011036483A JP 2009187492 A JP2009187492 A JP 2009187492A JP 2009187492 A JP2009187492 A JP 2009187492A JP 2011036483 A JP2011036483 A JP 2011036483A
Authority
JP
Japan
Prior art keywords
user
image
image generation
virtual
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009187492A
Other languages
Japanese (ja)
Other versions
JP5446572B2 (en
Inventor
Kazumoto Tanaka
一基 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hiroshima Industrial Promotion Organization
Original Assignee
Hiroshima Industrial Promotion Organization
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hiroshima Industrial Promotion Organization filed Critical Hiroshima Industrial Promotion Organization
Priority to JP2009187492A priority Critical patent/JP5446572B2/en
Publication of JP2011036483A publication Critical patent/JP2011036483A/en
Application granted granted Critical
Publication of JP5446572B2 publication Critical patent/JP5446572B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image generation system for obtaining an image to acquire information useful for improving skill in performance of a user, eliminating the need of attaching many sensors or markers onto the body of the user in order to generate the image, and obtaining detailed information on the user such as the expression of the user through the use of the image. <P>SOLUTION: The image generation system includes: an HMD for displaying an opposite player as a virtual object to the user; and a video camera for imaging the user conducting performance with respect to the opposite player. The system obtains a position on a virtual space corresponding to the position of the video camera in a reality space (step S104), generates the CG image of the opposite player viewed from the obtained position (step S109), and then, combines the image of the user imaged by the video camera 3 with the CG image of the opposite player (step S112). <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、スポーツの練習等に用いられる画像生成システム、及び画像生成システムの制御プログラム、並びに記録媒体に関する。   The present invention relates to an image generation system used for sports practice, a control program for the image generation system, and a recording medium.

近年、仮想空間に配置された仮想対象物とユーザとがインタラクティブにスポーツを行うバーチャルスポーツシステムが、開発されている。   In recent years, a virtual sports system has been developed in which a virtual object placed in a virtual space and a user perform sports interactively.

例えば非特許文献1には、バッティング練習を行うためのバーチャルスポーツシステムが開示されている。このバーチャルスポーツシステムでは、CG(Computer Graphics)によってピッチャーやボールが表現され、ユーザは、このピッチャー等の動きを目視して、バットを振るようになっている。そして、ユーザがバットを振るタイミングやスピードがフォトセンサによって計測され、この計測値に基づき、ユーザのバッティングが評価される。   For example, Non-Patent Document 1 discloses a virtual sports system for performing batting practice. In this virtual sports system, a pitcher and a ball are expressed by CG (Computer Graphics), and the user visually observes the movement of the pitcher and swings the bat. The timing and speed at which the user swings the bat is measured by the photosensor, and the user's batting is evaluated based on the measured value.

また非特許文献2には、CGによって表現された相手選手とボクシングを行うバーチャルスポーツシステムが開示されている。このバーチャルスポーツシステムでは、力覚デバイスが用いられて、ユーザのモーションデータがキャプチャリングされる。そして、このモーションデータに基づき生成されたアバタが、相手選手と仮想空間内でボクシングを行う。   Non-Patent Document 2 discloses a virtual sports system that performs boxing with an opponent player represented by CG. In this virtual sports system, a haptic device is used to capture user motion data. The avatar generated based on the motion data performs boxing with the opponent player in the virtual space.

また特許文献1には、テニスを行うためのバーチャルスポーツシステムが開示されている。このバーチャルスポーツシステムは、CGによってボールや相手選手が表現され、ユーザは、このボール等の動きを目視して、発光ダイオードからなるマーカが取り付けられたラケットを動かす。そして、カメラによってマーカが撮影され、この撮影画像に基づき、ユーザが行ったスイングが、フォアハンドスイングとバックハンドスイングとのいずれであるか判定される。   Patent Document 1 discloses a virtual sports system for playing tennis. In this virtual sports system, a ball and an opponent player are represented by CG, and a user visually observes the movement of the ball and moves a racket to which a marker made of a light emitting diode is attached. Then, the marker is photographed by the camera, and based on the photographed image, it is determined whether the swing performed by the user is a forehand swing or a backhand swing.

特開2005−218757号公報JP 2005-218757 A

Proceedings of ACM Symposium on Applied Computing 2002 pp.1060-1065Proceedings of ACM Symposium on Applied Computing 2002 pp.1060-1065 ACM Computers in Entertainment,vol.4,No.3,Article No.9(2006)ACM Computers in Entertainment, vol.4, No.3, Article No.9 (2006)

ところで、スポーツに取り組む者は、「自分のパフォーマンスを客観的に見たい」という欲求を持っている。現実のスポーツでは、カメラの撮影画像によって、ユーザは、相手選手等の動きに応じて自身が如何なるパフォーマンスを行ったかを確認することができる。この結果、ユーザのスキル向上が図られる。すなわち運動学習においては自らの動きを知覚あるいは観測し、それ故、修正していく試みの中からスキルを習得していく。このとき運動結果に関する情報を練習者が得ることをフィードバックという。   By the way, those who work on sports have a desire to “view their performance objectively”. In an actual sport, the user can confirm what performance he / she performed according to the movement of the opponent player or the like by the photographed image of the camera. As a result, the skill of the user is improved. In other words, in motor learning, one's own skills are learned from attempts to correct or perceive one's own movement. At this time, when the practitioner obtains information on the exercise result, it is called feedback.

しかしながら、バーチャルスポーツシステムでは、相手選手やボール等が3次元空間に実際に存在するわけではない。すなわち、ユーザは、CG画像を目視することで、相手選手等に対する3次元的な位置関係等をイメージして、パフォーマンスを行うものであり、例えば、相手選手等が投影されるディスプレイとユーザとを一緒に撮影したとしても、この撮影で得られた画像は、相手選手等とユーザとの3次元的な位置関係を認識させるものではない。このため、ユーザは、上記撮影画像を確認したとしても、スキル向上に役立つ情報を得ることはできない。   However, in the virtual sports system, opponent players, balls and the like do not actually exist in the three-dimensional space. That is, the user performs a performance by visually observing the CG image to image a three-dimensional positional relationship with the opponent player and the like. Even if the images are taken together, the image obtained by the photography does not recognize the three-dimensional positional relationship between the opponent player and the user. For this reason, even if the user confirms the captured image, the user cannot obtain information useful for skill improvement.

また、非特許文献2に開示されたバーチャルスポーツシステムでは、ユーザのモーションデータを得るために、ユーザの身体に多くのセンサを取り付ける必要がある。このため、ユーザは思い通りの動きができず、スポーツ本来のメリットが著しく損なわれる虞れがある。また、上述のキャプチャリングによっては、ユーザの表情など細かな情報のモデル化は不可能であるため、ユーザは、自身に関する詳細な情報をCG画像から得ることはできない。   In the virtual sports system disclosed in Non-Patent Document 2, it is necessary to attach many sensors to the user's body in order to obtain the user's motion data. For this reason, the user cannot move as expected, and there is a possibility that the original merit of sports is significantly impaired. In addition, since it is impossible to model detailed information such as the user's facial expression by the above-described capturing, the user cannot obtain detailed information about the user from the CG image.

本発明は、こうした状況に鑑みてなされたものであり、ユーザのパフォーマンスのスキル向上に役立つ情報が得られる画像が得られるとともに、当該画像を生成するために、ユーザの身体に多くのセンサやセンシング補助器具を取り付ける必要がなく、さらに、前記画像によって、ユーザの表情などユーザに関する詳細な情報が得られる画像生成システム、制御プログラム、及び記録媒体を提供することを目的とする。すなわち、本発明は、運動を行う練習者を撮影した映像から得られるパフォーマンス知識のフィードバックを効果的に行うことを目的とし、複合現実感(Mixed Reality;MR)技術を用いて、CGによって表現された相手選手、ボール、環境等とのインタラクションの中で発揮される練習者の運動パフォーマンスを、上述のCGによって表現された相手選手等を含めて映像化し、これをフィードバックするシステム等を提供するものである。   The present invention has been made in view of such a situation, and an image from which information useful for improving the performance skill of the user can be obtained, and in order to generate the image, many sensors and sensing are provided on the user's body. It is another object of the present invention to provide an image generation system, a control program, and a recording medium in which detailed information about the user such as the user's facial expression can be obtained from the image without attaching an auxiliary instrument. That is, the present invention aims to effectively perform feedback of performance knowledge obtained from a video taken by a practicing exerciser, and is expressed by CG using a mixed reality (MR) technique. Providing a system for visualizing and practicing the exercise performance of the practitioner in the interaction with the other player, ball, environment, etc., including the other player expressed by the above CG, etc. It is.

上記目的を達成するため、本発明の第1の観点にかかる画像生成システムは、仮想対象物をユーザに表示する表示装置、及び前記仮想対象物に対してパフォーマンスを行うユーザを撮影する撮影装置を備えた画像生成システムであって、現実空間の前記撮影装置の位置に対応する仮想空間上の位置を取得する撮影位置取得手段と、前記撮影位置取得手段が取得した位置から視た仮想対象物の画像を生成する仮想画像生成手段と、前記撮影装置が撮影した画像と、前記仮想画像生成手段が生成した仮想対象物の画像とを合成する合成画像生成手段とを備えることを特徴とする。   In order to achieve the above object, an image generation system according to a first aspect of the present invention includes a display device that displays a virtual object to a user, and a photographing device that photographs a user who performs a performance on the virtual object. An image generation system comprising: a shooting position acquisition unit that acquires a position in a virtual space corresponding to a position of the shooting device in real space; and a virtual object viewed from the position acquired by the shooting position acquisition unit The image processing apparatus includes: virtual image generation means for generating an image; and composite image generation means for combining the image captured by the imaging device and the image of the virtual object generated by the virtual image generation means.

好ましくは、現実空間のユーザの視点位置に対応する仮想空間上の位置を取得する視点位置取得手段をさらに備え、前記仮想画像生成手段は、前記視点位置取得手段が取得した位置から視た仮想対象物の画像を生成して、前記表示装置に表示させることを特徴とする。   Preferably, the camera further comprises viewpoint position acquisition means for acquiring a position on the virtual space corresponding to the viewpoint position of the user in the real space, and the virtual image generation means is a virtual object viewed from the position acquired by the viewpoint position acquisition means An image of an object is generated and displayed on the display device.

好ましくは、前記撮影装置によって撮影されたユーザの画像に基づき、ユーザのモーションに関する情報を取得するモーション認識手段をさらに備え、前記仮想画像生成手段は、前記モーション認識手段が取得した情報に基づき、仮想対象物の動きを設定することを特徴とする。   Preferably, the apparatus further comprises a motion recognizing unit that acquires information related to a user's motion based on the user's image captured by the image capturing device, and the virtual image generating unit is configured based on the information acquired by the motion recognizing unit. The movement of the object is set.

好ましくは、前記仮想対象物に対するユーザのパフォーマンスを評価する評価手段をさらに備え、前記評価手段は、前記合成画像生成手段が生成した画像に基づき、ユーザが所定の動作を行った時点を特定し、当該時点における仮想対象物の動作に応じて、ユーザのパフォーマンスを評価することを特徴とする。   Preferably, further comprising an evaluation unit that evaluates a user's performance with respect to the virtual object, the evaluation unit specifies a time point when the user performs a predetermined operation based on the image generated by the composite image generation unit, The performance of the user is evaluated according to the operation of the virtual object at the time.

好ましくは、前記合成画像生成手段は、ユーザが所定の動作を行う以前の時刻から前記所定の動作を完了する時刻までの時間に得られた合成画像を、ユーザに対して表示することを特徴とする。   Preferably, the composite image generation means displays a composite image obtained for a time from a time before the user performs a predetermined operation to a time when the predetermined operation is completed to the user. To do.

好ましくは、前記合成画像生成手段は、仮想対象物が所定の動作を行う時間に得られた合成画像を、ユーザに対して表示することを特徴とする。   Preferably, the composite image generation means displays a composite image obtained at a time when the virtual object performs a predetermined operation to the user.

また、本発明の第2の観点にかかる制御プログラムは、仮想対象物をユーザに表示する表示装置、及び前記仮想対象物に対してパフォーマンスを行うユーザを撮影する撮影装置を備えた画像生成システムの制御プログラムであって、現実空間の前記撮影装置の位置に対応する仮想空間上の位置を取得する撮影位置取得手順と、前記撮影位置取得手順で取得された位置から視た仮想対象物の画像を生成する仮想画像生成手順と、前記撮影装置が撮影した画像と、前記仮想画像生成手順で生成された仮想対象物の画像とを合成する合成画像生成手順とを画像生成システムに実行させることを特徴とする。   A control program according to a second aspect of the present invention is an image generation system including a display device that displays a virtual object to a user, and a photographing device that photographs a user who performs a performance on the virtual object. A control program for acquiring a position in a virtual space corresponding to the position of the imaging device in real space, and an image of a virtual object viewed from the position acquired in the shooting position acquisition procedure A virtual image generation procedure to be generated, and a composite image generation procedure for synthesizing an image captured by the imaging device and an image of a virtual object generated in the virtual image generation procedure are executed by the image generation system. And

好ましくは、現実空間のユーザの視点位置に対応する仮想空間上の位置を取得する視点位置取得手順をさらに有し、前記仮想画像生成手順では、前記視点位置取得手順で取得された位置から視た仮想対象物の画像が生成されて、前記表示装置に表示されることを特徴とする。   Preferably, the method further includes a viewpoint position acquisition procedure for acquiring a position in the virtual space corresponding to the viewpoint position of the user in the real space, and the virtual image generation procedure is viewed from the position acquired in the viewpoint position acquisition procedure. An image of the virtual object is generated and displayed on the display device.

好ましくは、前記撮影装置によって撮影されたユーザの画像に基づき、ユーザのモーションに関する情報を取得するモーション認識手順をさらに有し、前記仮想画像生成手順では、前記モーション認識手順で取得された情報に基づき、仮想対象物の動きが設定されることを特徴とする。   Preferably, the method further includes a motion recognition procedure for acquiring information related to the user's motion based on the user's image captured by the imaging device, and the virtual image generation procedure is based on the information acquired in the motion recognition procedure. The movement of the virtual object is set.

好ましくは、前記仮想対象物に対するユーザのパフォーマンスを評価する評価手順をさらに有し、前記評価手順では、前記合成画像生成手順で生成された画像に基づき、ユーザが所定の動作を行った時点が特定され、当該時点における仮想対象物の動作に応じて、ユーザのパフォーマンスが評価されることを特徴とする。   Preferably, the method further includes an evaluation procedure for evaluating the performance of the user with respect to the virtual object, and the evaluation procedure specifies a point in time when the user performs a predetermined operation based on the image generated in the composite image generation procedure. The performance of the user is evaluated according to the operation of the virtual object at the time.

好ましくは、前記合成画像生成手順では、ユーザが所定の動作を行う以前の時刻から前記所定の動作を完了する時刻までの時間に得られた合成画像が、ユーザに対して表示されることを特徴とする。   Preferably, in the composite image generation procedure, a composite image obtained from a time before a user performs a predetermined operation to a time when the predetermined operation is completed is displayed to the user. And

好ましくは、前記合成画像生成手順では、仮想対象物が所定の動作を行う時間に得られた合成画像が、ユーザに対して表示されることを特徴とする。   Preferably, in the composite image generation procedure, a composite image obtained at a time when the virtual object performs a predetermined operation is displayed to the user.

また、本発明の第3の観点にかかる記録媒体は、前記制御プログラムを記録したコンピュータ読み取り可能な記録媒体である。   A recording medium according to the third aspect of the present invention is a computer-readable recording medium that records the control program.

本発明によれば、現実空間の撮影装置の位置に対応する仮想空間上の位置が取得されて、当該取得された位置から視た仮想対象物の画像が生成される。そして、この仮想対象物の画像と、撮影装置が撮影したユーザの画像とが合成される。この結果、仮想対象物とユーザとの位置関係を認識可能な合成画像が得られる。これにより、ユーザは、パフォーマンスのスキル向上に役立つ情報を得ることができる。   According to the present invention, a position in the virtual space corresponding to the position of the imaging device in the real space is acquired, and an image of the virtual object viewed from the acquired position is generated. Then, the image of the virtual object and the image of the user photographed by the photographing device are combined. As a result, a composite image that can recognize the positional relationship between the virtual object and the user is obtained. As a result, the user can obtain information useful for improving performance skills.

また、撮影装置によって撮影されたユーザの画像が用いられて、合成画像が生成される。このことから、合成画像を生成するために、ユーザの身体に多くのセンサやセンシング補助器具を取り付ける必要がないため、ユーザは、思い通りの動きができる。また、合成画像にユーザの表情などが表現されるようになるため、ユーザは、自身に関する詳細な情報を得ることができる。   In addition, a composite image is generated using the user image captured by the image capturing apparatus. From this, it is not necessary to attach many sensors and sensing aids to the user's body in order to generate a composite image, and the user can move as desired. In addition, since the user's facial expression and the like are expressed in the composite image, the user can obtain detailed information about the user.

本発明の実施の形態に係る画像生成システムが配置された空間を示す概略図である。It is the schematic which shows the space where the image generation system which concerns on embodiment of this invention is arrange | positioned. 画像生成システムの構成を示すブロック図である。It is a block diagram which shows the structure of an image generation system. 画像生成システム全体の処理を概略的に示すフローチャートである。It is a flowchart which shows the process of the whole image generation system roughly. HMDに表示されるCG画像の例を示す図である。It is a figure which shows the example of the CG image displayed on HMD. ビデオカメラからPCに送信される撮影画像の例を示す図である。It is a figure which shows the example of the picked-up image transmitted to PC from a video camera. 表示部に表示される合成画像の例を示す図である。It is a figure which shows the example of the synthesized image displayed on a display part. PCにおける処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the process in PC. PCにおいて図7の処理に続いて実行される処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the process performed following the process of FIG. 7 in PC. PCにおいて図8の処理に続いて実行される処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the process performed following the process of FIG. 8 in PC. 仮想画像生成部によって決定される相手選手のモーションの遷移を示す図である。It is a figure which shows the transition of the motion of the other party player determined by the virtual image generation part. 相手選手の位置とユーザの拳の加速度との時間変化を示す図である。It is a figure which shows the time change of the position of an other party player, and the acceleration of a user's fist.

以下、この発明の実施の形態について図面を参照しながら詳細に説明する。この実施形態は、非接触型の対人競技である空手道競技(ノンコンタクトルール)において基本的な突き技のスキルを習得支援するためのバーチャル空手システムに係るものであり、基本的な突き技である「先の上段突き」と呼ばれる技が、運動課題として行われる。この技は、相手選手が急速に前進した瞬間に顔面めがけて突く技である。なお、図中同一または相当部分には同一符号を付し、その説明は繰り返さない。図1は、本発明の実施の形態に係る画像生成システム1が配置された空間を示す概略図であり、図2は、画像生成システム1の構成を示すブロック図である。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. This embodiment relates to a virtual karate system for supporting acquisition of basic skill in karate competition (non-contact rule), which is a non-contact type interpersonal game, and is a basic technique. A technique called “first upper thrust” is performed as an exercise task. This technique is a technique that pokes toward the face at the moment when the opponent player advances rapidly. In the drawings, the same or corresponding parts are denoted by the same reference numerals, and description thereof will not be repeated. FIG. 1 is a schematic diagram showing a space in which an image generation system 1 according to an embodiment of the present invention is arranged, and FIG. 2 is a block diagram showing a configuration of the image generation system 1.

画像生成システム1は、HMD(Head Mounted Display)2と、ビデオカメラ3と、加速度センサ4と、PC(Personal Computer)5とを備えている。   The image generation system 1 includes an HMD (Head Mounted Display) 2, a video camera 3, an acceleration sensor 4, and a PC (Personal Computer) 5.

HMD2は、ユーザ(練習者)の頭部に装着されて、CGにより表現された仮想対象物としての相手選手を、ユーザに目視させる。このHMD2として、例えば、iWear VR920TM(VUZIX社製)を使用することができる。 The HMD 2 is worn on the user's (practice) 's head and allows the user to view the opponent player as a virtual object represented by CG. As this HMD2, for example, iWear VR920 (manufactured by VUZIX) can be used.

ビデオカメラ3は、ユーザや世界座標系を表わすマーカ6を撮影するために設置される。このビデオカメラ3として、例えば、Lu075cC-Io 112fps(Lumenera社製)を使用することができる。世界座標系はユーザが位置する空間を表す座標系であり、マーカ6によって、その原点が示される。   The video camera 3 is installed in order to photograph the marker 6 representing the user and the world coordinate system. As this video camera 3, for example, Lu075cC-Io 112fps (manufactured by Lumenera) can be used. The world coordinate system is a coordinate system representing a space where the user is located, and the origin is indicated by the marker 6.

加速度センサ4は、ユーザの腕に取り付けられて、ユーザの突きのタイミングを計測する。この加速度センサ4として、例えば、WAA-001(ワイヤレステクノロジー株式会社製)を使用することができる。   The acceleration sensor 4 is attached to the user's arm and measures the timing of the user's bump. As this acceleration sensor 4, for example, WAA-001 (manufactured by Wireless Technology Co., Ltd.) can be used.

上記構成を有する画像生成システム1では、マーカ6によって原点が示される世界座標系にて表される現実空間に、ユーザと、ユーザを撮影するビデオカメラ3とを設置するとともに、世界座標系に一致する仮想世界座標系を有する仮想空間内に、相手選手のCG画像が、運動課題にて決められた初期位置に配置される。この相手選手の位置及び姿勢は、ユーザの位置及び練習課題に従って、時間経過に伴って移動する。相手選手の画像は、あたかも現実のユーザの視点(A点)及び現実のビデオカメラ3の位置(B点)に配置されたカメラによって撮影された画像のように生成され、A点から視た相手選手画像はHMD2へ送られ、B点から視た相手選手のCG画像は、ビデオカメラ3にて撮影された現実のユーザ画像と合成されて、フィードバック用の画像シーケンスに追加されるのである。   In the image generation system 1 having the above-described configuration, the user and the video camera 3 for photographing the user are installed in the real space represented by the world coordinate system indicated by the marker 6 and coincide with the world coordinate system. The CG image of the opponent player is placed at the initial position determined by the exercise task in the virtual space having the virtual world coordinate system. The position and posture of this opponent player move with time according to the user's position and practice task. The image of the opponent player is generated as if it were an image taken by a camera placed at the real user's viewpoint (point A) and the position of the real video camera 3 (point B) and viewed from the point A The player image is sent to the HMD 2 and the CG image of the opponent player viewed from the point B is combined with the actual user image taken by the video camera 3 and added to the feedback image sequence.

PC5は、物理的な構成として、制御部50と、記憶部51と、表示部52とを備えており、HMD2やビデオカメラ3と有線通信を介して画像の送受信が可能であり、加速度センサ4と無線通信を介してデータの送受信が可能である。   As a physical configuration, the PC 5 includes a control unit 50, a storage unit 51, and a display unit 52. The PC 5 can transmit and receive images to and from the HMD 2 and the video camera 3 via wired communication. Data can be transmitted and received via wireless communication.

制御部50は、CPU(Central Processing Unit)等から構成され、記憶部51に記憶されているプログラムに従って処理を実行する。この制御部50として、例えば、AMD OpteronTMプロセッサ 2.99GHzを使用することができる。 The control unit 50 includes a CPU (Central Processing Unit) and the like, and executes processing according to a program stored in the storage unit 51. For example, an AMD Opteron processor 2.99 GHz can be used as the control unit 50.

記憶部51は、RAM(Random-Access Memory)等から構成される主記憶部と、フラッシュメモリ、ハードディスク等の不揮発性メモリから構成される外部記憶部とを含んでいる。主記憶部は、制御部50の作業領域として用いられ、例えば4.0GBの容量を有するRAMによって構成される。外部記憶部は、制御部50に行わせるためのプログラムを予め記憶し、また、制御部50の指示に従って、このプログラムのデータを制御部50に供給し、制御部50から供給されたデータを記憶する。   The storage unit 51 includes a main storage unit including a RAM (Random-Access Memory) and the like, and an external storage unit including a nonvolatile memory such as a flash memory and a hard disk. The main storage unit is used as a work area of the control unit 50 and is configured by a RAM having a capacity of 4.0 GB, for example. The external storage unit stores a program to be executed by the control unit 50 in advance, supplies data of the program to the control unit 50 in accordance with an instruction from the control unit 50, and stores data supplied from the control unit 50 To do.

表示部52は、例えば液晶表示装置から構成され、任意の画像を表示することが可能である。   The display unit 52 is composed of a liquid crystal display device, for example, and can display an arbitrary image.

図3は、画像生成システム1全体の処理を概略的に示すフローチャートである。図3に示す処理は、複合現実感(Mixed Reality: MR)手法を用いて、現実空間の撮影画像に仮想空間に存在する相手選手の画像を重畳した合成画像を生成するものである。   FIG. 3 is a flowchart schematically showing processing of the entire image generation system 1. The process shown in FIG. 3 is to generate a composite image in which an image of an opponent player existing in a virtual space is superimposed on a captured image in a real space, using a mixed reality (MR) technique.

図3に示す処理が行われる前提として、図1に示すように、世界座標系を表わすマーカ6が、運動課題の行われる場所に設置され、マーカ6の座標系で決められた位置に、ユーザとビデオカメラ3とが配置される。   As a premise that the process shown in FIG. 3 is performed, as shown in FIG. 1, a marker 6 representing the world coordinate system is installed at a place where a movement task is performed, and the user is placed at a position determined by the coordinate system of the marker 6. And a video camera 3 are arranged.

まず、ビデオカメラ3は、マーカ6やユーザを撮影した画像を、PC5に送信する(ステップS101)。   First, the video camera 3 transmits an image of the marker 6 and the user taken to the PC 5 (Step S101).

そして、PC5は、ビデオカメラ3の撮影画像に含まれるマーカ6の画像に基づき、世界座標系に対するビデオカメラ3の位置姿勢の情報を取得する(ステップS103)。   Then, the PC 5 acquires information on the position and orientation of the video camera 3 with respect to the world coordinate system based on the image of the marker 6 included in the captured image of the video camera 3 (step S103).

次に、PC5は、ステップS103で取得された情報に基づき、現実空間のビデオカメラ3の位置に対応する仮想空間上の位置の座標を取得する(ステップS104)。   Next, the PC 5 acquires the coordinates of the position in the virtual space corresponding to the position of the video camera 3 in the real space based on the information acquired in step S103 (step S104).

次に、PC5は、ビデオカメラ3の撮影画像に含まれるマーカ6とユーザの画像に基づき、現実空間のユーザの視点位置に対応する仮想空間上の位置の座標を取得する(ステップS105)。   Next, the PC 5 acquires the coordinates of the position in the virtual space corresponding to the viewpoint position of the user in the real space based on the marker 6 and the user image included in the captured image of the video camera 3 (step S105).

次に、PC5は、ステップS104,S105で取得した仮想空間上の座標に基づき、仮想空間における相手選手の初期位置姿勢を決定する(ステップS106)。   Next, the PC 5 determines the initial position and orientation of the opponent player in the virtual space based on the coordinates in the virtual space acquired in steps S104 and S105 (step S106).

これ以降、ステップS107からのループ処理が開始される。この当初において、ビデオカメラ3は、ユーザの撮影画像をPC5に送信し、加速度センサ4は、ユーザの突きのタイミングを示すデータを、PC5に送信する(ステップS102)。   Thereafter, the loop processing from step S107 is started. At the beginning, the video camera 3 transmits the user's captured image to the PC 5, and the acceleration sensor 4 transmits data indicating the timing of the user's bump to the PC 5 (step S102).

なお、ステップS107に示す処理は、ループ初回時には、実行されない。   The process shown in step S107 is not executed at the first loop.

次に、PC5は、ユーザの視点位置に対応する仮想空間上の位置(ステップS105で取得された座標)から視た相手選手のCG画像を生成する(ステップS108)。ループ初回におけるステップS108では、ステップS106で決定された初期位置姿勢に従って、CG画像が生成される。   Next, the PC 5 generates a CG image of the opponent player viewed from the position in the virtual space corresponding to the user's viewpoint position (coordinates acquired in step S105) (step S108). In step S108 in the first loop, a CG image is generated according to the initial position and orientation determined in step S106.

次に、PC5は、ビデオカメラ3の位置に対応する仮想空間上の位置(ステップS104で取得された位置)から視た相手選手のCG画像を生成する(ステップS109)。ループ初回におけるステップS109では、ステップS106で決定された初期位置姿勢に従って、CG画像が生成される。   Next, the PC 5 generates a CG image of the opponent player viewed from the position in the virtual space corresponding to the position of the video camera 3 (the position acquired in step S104) (step S109). In step S109 in the first loop, a CG image is generated according to the initial position and orientation determined in step S106.

次に、PC5は、ステップS108で生成されたCG画像を、HMD2に送信する(ステップS110)。   Next, the PC 5 transmits the CG image generated in step S108 to the HMD 2 (step S110).

次に、HMD2は、PC5から受信したCG画像を表示する(ステップS111)。図4は、ステップS111によりHMD2に表示されるCG画像の例を示しており、ユーザは、このCG画像に表された相手選手を目視して、「先の上段突き」等の動作を行う。   Next, the HMD 2 displays the CG image received from the PC 5 (step S111). FIG. 4 shows an example of a CG image displayed on the HMD 2 in step S111, and the user visually observes the opponent player represented in the CG image and performs an operation such as “first upper butt”.

このユーザの様子は、ビデオカメラ3によって撮影されて、この撮影画像がPC5に送信される。また、ユーザの突きのタイミングデータが、加速度センサ4によって取得されてPC5に送信される。図5は、ビデオカメラ3からPC5に送信される撮影画像の例を示している。図5の画像では、HMD2を装着したユーザが、「先の上段突き」を行っている状態が示されている。   The state of this user is photographed by the video camera 3, and this photographed image is transmitted to the PC 5. Further, the timing data of the user's bump is acquired by the acceleration sensor 4 and transmitted to the PC 5. FIG. 5 shows an example of a captured image transmitted from the video camera 3 to the PC 5. In the image of FIG. 5, a state in which the user wearing the HMD 2 is performing “first upper bump” is shown.

そして図3のステップS110が実行された後では、PC5は、ビデオカメラ3の撮影画像と、ステップS109で生成した相手選手のCG画像とを合成して記憶する(ステップS112)。   After step S110 in FIG. 3 is executed, the PC 5 combines and stores the captured image of the video camera 3 and the CG image of the opponent player generated in step S109 (step S112).

次に、PC5は、相手選手が運動課題のモーション終点に達しているか否か、或いはユーザが突きを完了したか否かを判断する(ステップS113)。   Next, the PC 5 determines whether or not the opponent player has reached the motion end point of the exercise task, or whether or not the user has completed the thrust (step S113).

相手選手が運動課題のモーション終点に達していない、或いはユーザが突きを完了していないと判断された場合には(ステップS113でNO)、ステップS107の処理に復帰する。この復帰により、ステップS107〜S113の処理が実行される。このステップS107〜S113の処理は、ステップS113でYESと判断されるまで繰り返される。このループの2回目以降の各回では、PC5は、Δt時間経過後の相手選手の位置姿勢を決定し(ステップS107)、この位置姿勢に基づき、相手選手のCG画像を生成して(ステップS108,S109)、ステップS108で生成した相手選手のCG画像をHMD2に送信する。この結果、HMD2に表示される相手選手に動きが与えられ、この動きに応じて、ユーザは、空手の突き等の動作を行う。そして、このユーザの様子がビデオカメラ3によって撮影されて、この撮影画像とステップS109で生成された相手選手のCG画像とが、合成されて記憶される(ステップS112)。   If it is determined that the opponent player has not reached the motion end point of the exercise task, or the user has not completed the thrust (NO in step S113), the process returns to step S107. By this return, the processing of steps S107 to S113 is executed. The processes in steps S107 to S113 are repeated until YES is determined in step S113. In each of the second and subsequent loops, the PC 5 determines the position / posture of the opponent player after the lapse of Δt time (step S107), and generates a CG image of the opponent player based on the position / posture (step S108, S109), the CG image of the opponent player generated in step S108 is transmitted to the HMD2. As a result, a movement is given to the opponent player displayed on the HMD 2, and the user performs an operation such as a karate thrust according to the movement. Then, the user's situation is photographed by the video camera 3, and the photographed image and the CG image of the opponent player generated in step S109 are synthesized and stored (step S112).

そして、ステップS113で、相手選手が運動課題のモーション終点に達している、或いは、ユーザが突きを完了したと判断された場合には(ステップS113でYES)、PC5は、ステップS112で記憶した合成画像を、表示部52(図2参照)に表示する(ステップS114)。図6は、ステップS114で表示される合成画像の例を示している。図6に示す合成画像は、図5の撮影画像に相手選手の画像が重畳されたものである。ユーザは、この合成画像によって、相手選手との位置関係や、相手選手の動きに応じた自身のパフォーマンスや、パフォーマンス中における自身の表情を確認することができる。なお、ステップS114では、相手選手が前進を開始してから後退を行って元の位置に戻るまでの時間、或いは、ユーザが突きを開始してから完了するまでの時間に記憶された複数の合成画像が連続して表示される。これにより、上記の時間においてユーザや相手選手が行った動きを示す動画が、表示される。   If it is determined in step S113 that the opponent player has reached the motion end point of the exercise task or the user has completed the thrust (YES in step S113), the PC 5 stores the composition stored in step S112. The image is displayed on the display unit 52 (see FIG. 2) (step S114). FIG. 6 shows an example of the composite image displayed in step S114. The composite image shown in FIG. 6 is obtained by superimposing the opponent player's image on the captured image of FIG. The user can check the positional relationship with the opponent player, his / her performance according to the opponent player's movement, and his / her facial expression during the performance by using the composite image. In step S114, a plurality of composites stored in the time from when the opponent player starts moving forward until the player moves backward and returns to the original position, or the time from when the user starts hitting to completion is stored. Images are displayed continuously. Thereby, the moving image which shows the movement which the user and the other player performed in said time is displayed.

次に、PC5は、ステップS112で記憶した合成画像に基づき、ユーザが行った突きの評価を行う(ステップS115)。   Next, the PC 5 evaluates the collision performed by the user based on the composite image stored in step S112 (step S115).

図7,8,9は、PC5における処理を示すフローチャートである。以下、これらの図を用いて、PC5における処理の詳細について説明する。   7, 8, and 9 are flowcharts showing processing in the PC 5. Hereinafter, the details of the processing in the PC 5 will be described with reference to these drawings.

ここで図2に示すように、PC5では、モーション認識部5aと、合成画像生成部5bと、仮想画像生成部5cと、評価部5dとが論理的に構成される。   Here, as shown in FIG. 2, in the PC 5, the motion recognition unit 5a, the composite image generation unit 5b, the virtual image generation unit 5c, and the evaluation unit 5d are logically configured.

図7に示す処理は、モーション認識部5aと、合成画像生成部5bと、仮想画像生成部5cとによって実行される処理である。S201〜S203は図3のS107に対応し、S204はS108に対応し、S205はS109に対応し、S206はS110に対応し、S207〜S210はS112に対応している。   The process illustrated in FIG. 7 is a process executed by the motion recognition unit 5a, the composite image generation unit 5b, and the virtual image generation unit 5c. S201 to S203 correspond to S107 in FIG. 3, S204 corresponds to S108, S205 corresponds to S109, S206 corresponds to S110, and S207 to S210 correspond to S112.

また、図8に示す処理は、図7の処理に続いて合成画像生成部5bによって実行される処理である。S211〜S213、S211〜S220は図3のS113に対応し、S214、S221は、S114に対応している。   Further, the process shown in FIG. 8 is a process executed by the composite image generation unit 5b following the process of FIG. S211 to S213 and S211 to S220 correspond to S113 in FIG. 3, and S214 and S221 correspond to S114.

また、図9の処理は、図8の処理に続いて評価部5dによって実行される処理であり、図3のS115に対応している。   Further, the process of FIG. 9 is a process executed by the evaluation unit 5d following the process of FIG. 8, and corresponds to S115 of FIG.

なお、モーション認識部5a、合成画像生成部5b、仮想画像生成部5c、及び評価部5dは、図2に示す制御部50が、記憶部51の外部記憶部に記憶されたプログラムを、記憶部51の主記憶部に読み出して実行することによって構成される。   The motion recognition unit 5a, the composite image generation unit 5b, the virtual image generation unit 5c, and the evaluation unit 5d are stored in the storage unit 51 by the control unit 50 illustrated in FIG. It is configured by reading out to the main storage unit 51 and executing it.

図7の処理では、まず、モーション認識部5aは、ユーザのモーションデータを取得する(ステップS201)。このモーションデータは、加速度センサ4から受信したタイミングデータやビデオカメラ3から受信した撮影画像に基づき取得され、モーションデータには、ユーザの拳の位置情報と、突きのタイミング情報とが含まれる。   In the process of FIG. 7, first, the motion recognition unit 5a acquires user motion data (step S201). This motion data is acquired based on the timing data received from the acceleration sensor 4 and the captured image received from the video camera 3, and the motion data includes the position information of the user's fist and the timing information of the hit.

次に、モーション認識部5aは、ユーザのモーションデータを、合成画像生成部5bと仮想画像生成部5cとに送る(ステップS202)。   Next, the motion recognition unit 5a sends the user's motion data to the composite image generation unit 5b and the virtual image generation unit 5c (step S202).

次に、仮想画像生成部5cは、ユーザのモーションデータに基づき、相手選手のモーション系列を決定する(ステップS203)。   Next, the virtual image generation unit 5c determines the opponent player's motion series based on the user's motion data (step S203).

図10は、仮想画像生成部5cによって決定される相手選手のモーションの遷移を示す図である。相手選手は、“ディフェンス姿勢のジャンプ”、“前進”、“フェイントの前進”、“後退”のいずれかの動作を行うものであって、仮想画像生成部5cは、相手選手のモーションを、“ディフェンス姿勢のジャンプ”を中心として、他の3つの状態に確率的に遷移させる。図中の矢印に付けた記号P(i)(i=0、1、2、3; Σp(i)=1)あるいは数値(1.0)は、相手選手が異なる動作に遷移する確率を示しており、例えば、“ディフェンス姿勢のジャンプ”に続く動作として、p(1)の確率で前進が決定され、p(2)の確率でフェイントの前進が決定され、p(3)の確率で後退が決定される。   FIG. 10 is a diagram illustrating the motion transition of the opponent player determined by the virtual image generation unit 5c. The opponent player performs one of the operations of “defense posture jump”, “forward”, “feint advance”, and “reverse”, and the virtual image generation unit 5c converts the opponent player's motion into “ Probabilistic transition to the other three states centered on “defense posture jump”. The symbol P (i) (i = 0, 1, 2, 3; Σp (i) = 1) or the numerical value (1.0) attached to the arrow in the figure indicates the probability that the opponent player changes to a different action. For example, as an action following “defensive posture jump”, the forward movement is determined with the probability of p (1), the forward movement of the feint is determined with the probability of p (2), and the backward movement with the probability of p (3). Is determined.

そして図7のステップS203が実行された後では、仮想画像生成部5cは、ステップS203で決定したモーション系列に従って、ユーザの視点位置から視た相手選手のCG画像と、ビデオカメラ3の位置から視た相手選手のCG画像とを生成する(ステップS204,S205)。これらの画像に示される相手選手の動きは、予め記憶部51に記憶された空手選手のモーションデータに基づき表現される。   After step S203 in FIG. 7 is executed, the virtual image generation unit 5c views the CG image of the opponent player viewed from the viewpoint position of the user and the position of the video camera 3 according to the motion sequence determined in step S203. A CG image of the opponent player is generated (steps S204 and S205). The movement of the opponent player shown in these images is expressed based on the motion data of the karate player stored in the storage unit 51 in advance.

次に、仮想画像生成部5cは、ステップS204で生成したユーザの視点位置から視た相手選手のCG画像を、HMD2へ送信する(ステップS206)。この処理により、HMD2では、図4に示すような画像が表示される。   Next, the virtual image generation unit 5c transmits the CG image of the opponent player viewed from the viewpoint position of the user generated in step S204 to the HMD 2 (step S206). With this process, the HMD 2 displays an image as shown in FIG.

次に、仮想画像生成部5cは、ステップS205で生成したビデオカメラ3の位置から視た相手選手のCG画像を、合成画像生成部5bに送る(ステップS207)。   Next, the virtual image generation unit 5c sends the CG image of the opponent player viewed from the position of the video camera 3 generated in step S205 to the composite image generation unit 5b (step S207).

次に、モーション認識部5aは、ビデオカメラ3が撮影した画像を、合成画像生成部5bに送る(ステップS208)。   Next, the motion recognition unit 5a sends the image captured by the video camera 3 to the composite image generation unit 5b (step S208).

次に、合成画像生成部5bは、ステップS207で受け取った相手選手のCG画像と、ステップS208で受け取ったビデオカメラ3の撮影画像とを同期して合成する(ステップS209)。この処理により、図6に示すような合成画像が生成される。   Next, the composite image generation unit 5b synchronizes the CG image of the opponent player received in step S207 and the captured image of the video camera 3 received in step S208 (step S209). By this processing, a composite image as shown in FIG. 6 is generated.

次に、合成画像生成部5bは、ステップS209で合成した画像を記憶部51に記憶する(ステップS210)。   Next, the composite image generation unit 5b stores the image combined in step S209 in the storage unit 51 (step S210).

次に、ステップS210に続いて実行される図8の処理について説明する。   Next, the process of FIG. 8 executed following step S210 will be described.

合成画像生成部5bは、現時点が、ユーザが突きを出すべき時間T1であるか否かを判断する(ステップS211)。具体的には、合成画像生成部5bは、ステップS207で受け取った相手選手のCG画像において、相手選手が前進を始めてから元の位置に戻るまでの状態が示されているか否かを判断する。   The composite image generation unit 5b determines whether or not the current time is a time T1 when the user should make a protrusion (step S211). Specifically, the composite image generation unit 5b determines whether or not the CG image of the opponent player received in step S207 indicates a state from when the opponent player starts moving forward to returning to the original position.

以下では、まず、現時点がユーザが突きを出すべき時間T1にあると判断された場合(ステップS211でYES)の処理の流れについて説明する。   In the following, the flow of processing when it is determined that the current time is at time T1 when the user should make a protrusion (YES in step S211) will be described.

この場合には、合成画像生成部5bは、現時点で記憶部51に記憶された合成画像(直前のステップS210で記憶された合成画像)に、マーキングを行う(ステップS212)。このマーキングは、後述のステップS214で表示部52に表示させる合成画像を選定するために行われる。   In this case, the composite image generation unit 5b performs marking on the composite image (the composite image stored in the immediately preceding step S210) stored in the storage unit 51 at the present time (step S212). This marking is performed to select a composite image to be displayed on the display unit 52 in step S214 described later.

そして、合成画像生成部5bは、現時点が、相手選手が運動課題のモーション終点に達した時点であるか否かを判断する(ステップS213)。具体的には、合成画像生成部5bは、ステップS207で受け取った相手選手のCG画像に基づき、相手選手が、前進を行った後、後退を行うことで、元の位置に戻ったか否かを判断する。   Then, the composite image generating unit 5b determines whether or not the current time is the time when the opponent player reaches the motion end point of the exercise task (step S213). Specifically, based on the CG image of the opponent player received in step S207, the composite image generation unit 5b determines whether the opponent player has moved forward and then moved backward to return to the original position. to decide.

ステップS213で、現時点が、モーション終点に達した時点ではないと判断された場合には(ステップS213でNO)、図7のステップS201の処理に復帰する。この復帰により、新たに加速度センサ4やビデオカメラ3から受信されたデータや撮影画像に基づき、ステップS201〜S213の処理が実行される。このステップS201〜S213の処理は、ステップS213でYESと判断されるまで繰り返される。この繰り返しの各回では、モーション終点に達するまでの相手選手のCG画像が生成されて(ステップS204,S205)、ステップS204で生成された相手選手のCG画像がHMD2に表示される。ユーザは、このCG画像を目視して突き等の動作を行い、このユーザの様子が、ビデオカメラ3によって撮影される。そして、この撮影画像とステップS109で生成された相手選手の画像とが合成されて記憶部51に記憶される(ステップS210)。そして、この際に記憶される合成画像は、ユーザが突きを出すべき時間T1(相手選手が前進を始めてから元の位置に戻るまでの時間)に生成されたものであるから(ステップS211でYES)、ステップS212でマーキングが行われる。   If it is determined in step S213 that the current time point is not the time point when the motion end point is reached (NO in step S213), the process returns to step S201 in FIG. As a result of this return, the processing of steps S201 to S213 is executed based on the data and the captured image newly received from the acceleration sensor 4 and the video camera 3. The processes in steps S201 to S213 are repeated until YES is determined in step S213. In each repetition, a CG image of the opponent player until reaching the motion end point is generated (steps S204 and S205), and the CG image of the opponent player generated in step S204 is displayed on the HMD2. The user visually observes the CG image and performs an operation such as a thrust, and the video camera 3 takes a picture of the user. Then, this captured image and the image of the opponent player generated in step S109 are combined and stored in the storage unit 51 (step S210). And the composite image memorize | stored in this case is produced | generated at the time T1 (time until an opponent player returns to the original position after an opponent player starts advancing) which a user should stick out (YES in step S211). ) Marking is performed in step S212.

そして、ステップS213で、相手選手がモーション終点に達していると判断された場合には(ステップS213でYES)、合成画像生成部5bは、これまでのステップS212でマーキングが行われた合成画像を、表示部52に表示する(ステップS214)。この結果、ユーザが突きを行うべき時間T1において、ステップS210で記憶された合成画像が連続して表示される。なお、ステップS214では、時間T1でユーザが突きを行ったか否かにかかわらず、合成画像が表示される。   If it is determined in step S213 that the opponent player has reached the motion end point (YES in step S213), the composite image generation unit 5b displays the composite image that has been marked in the previous step S212. Is displayed on the display unit 52 (step S214). As a result, the composite image stored in step S210 is continuously displayed at the time T1 when the user should make a thrust. Note that in step S214, the composite image is displayed regardless of whether or not the user has made a thrust at time T1.

次に、ステップS211で、現時点がユーザが突きを行うべき時間T1ではないと判断された場合(ステップS211でNO)について説明する。   Next, the case where it is determined in step S211 that the current time is not the time T1 when the user should make a collision (NO in step S211) will be described.

この場合には、合成画像生成部5bは、現時点においてユーザが突きを行っているか否かを判断する(ステップS215)。この処理は、ステップS202やS208で受け取ったモーションデータやビデオカメラ3の撮影画像に基づき実行される。   In this case, the composite image generation unit 5b determines whether or not the user is making a thrust at the present time (step S215). This process is executed based on the motion data received in steps S202 and S208 and the captured image of the video camera 3.

ユーザが突きを行っていないと判断された場合には(ステップS215でNO)、ステップS201の処理に復帰する。この復帰により、新たに加速度センサ4やビデオカメラ3から受信されたデータや撮影画像に基づき、ステップS201〜S215の処理が、S215でYESと判断されるまで繰り返される。   If it is determined that the user has not made a thrust (NO in step S215), the process returns to step S201. Due to this restoration, based on the data newly received from the acceleration sensor 4 and the video camera 3 and the captured image, the processing of steps S201 to S215 is repeated until YES is determined in S215.

そして、ユーザが突きを行ったときには(ステップS215でYES)、合成画像生成部5bは、現時点が、ユーザが突きを開始した時点teであるか否かを判断する(ステップS216)。この処理は、ステップS202で受け取ったモーションデータに基づき実行される。 When the user makes a thrust (YES in step S215), the composite image generating unit 5b determines whether or not the current time is a time t e when the user starts the thrust (step S216). This process is executed based on the motion data received in step S202.

そして、現時点が、ユーザが突きを開始した時点teであるときには(ステップS216でYES)、合成画像生成部5bは、現時点で、記憶部51に記憶された合成画像(直前のステップS210で記憶された合成画像)に、マーキングを行う(ステップS217)。 Then, current time, when the user is a time t e that initiated the thrust (YES at step S216), the composite image generating unit 5b, currently, stored stored synthesized image in the storage unit 51 (in step S210 immediately before Marking is performed on the synthesized image) (step S217).

次に、合成画像生成部5bは、突きが開始される以前のte−Δe時刻から現時点(teに相当)までにステップS210で記憶された合成画像に、マーキングを行う(ステップS218)。 Next, the composite image generation unit 5b performs marking on the composite image stored in step S210 from the time t e −Δ e before the start of hitting to the current time (corresponding to t e ) (step S218). .

次に、合成画像生成部5bは、ステップS201の処理に復帰する。この復帰により、新たに加速度センサ4やビデオカメラ3から受信されたデータや撮影画像に基づき、ステップS201〜S216の処理が繰り返される。   Next, the composite image generation unit 5b returns to the process of step S201. As a result of this return, the processes in steps S201 to S216 are repeated based on the data and the captured image newly received from the acceleration sensor 4 and the video camera 3.

そして再度、ステップS216が実行される際(ステップS216が2回目となるとき)には、ユーザが突きを開始してから時間が経過していることから、合成画像生成部5bは、NOと判断して、現時点で記憶された合成画像に、マーキングを行う(ステップS219)。   Then, when step S216 is executed again (when step S216 is the second time), since the time has elapsed since the user started hitting, the composite image generation unit 5b determines NO. Then, the composite image stored at the current time is marked (step S219).

次に、合成画像生成部5bは、現時点は、ユーザが突きを完了した時点tfであるか否かを判断する(ステップS220)。この処理は、ステップS202で受け取ったモーションデータに基づき実行される。 Next, the composite image generation unit 5b determines whether or not the current time is the time t f when the user completes the hit (step S220). This process is executed based on the motion data received in step S202.

ユーザが突きを完了していないことから、ステップS220でNOと判断される場合には、合成画像生成部5bは、ステップS201の処理に復帰する。この復帰により、新たに加速度センサ4やビデオカメラ3から受信されたデータや撮影画像に基づき、ステップS201〜S220の処理が、S220でYESと判断されるまで実行される。この繰り返しの各回では、ユーザが突きを完了するまでの様子がビデオカメラ3によって撮影され、これらの撮影画像とステップS109で生成された相手選手の画像とが、合成されて記憶される(ステップS210)。そして、これらの合成画像に対して、ステップS219でマーキングが行われる。   If the user has not completed hitting, and if NO is determined in step S220, the composite image generating unit 5b returns to the process of step S201. Due to this return, based on the data newly received from the acceleration sensor 4 and the video camera 3 and the captured image, the processes in steps S201 to S220 are executed until YES is determined in S220. In each repetition, the video camera 3 captures the state until the user completes the hit, and the captured image and the image of the opponent player generated in step S109 are combined and stored (step S210). ). Then, marking is performed on these synthesized images in step S219.

そして、ユーザが突きを完了したときには(ステップS220でYES)、合成画像生成部5bは、これまでのステップS217、S218、S219でマーキングを行った合成画像を、表示部52に表示する(ステップS221)。この結果、このステップS221では、ユーザが突きを開始する以前の時刻te−Δeからユーザが突きを完了する時刻tfまでの時間T2において、ステップS210で記憶部51に記憶された合成画像が、連続して表示される。 When the user completes the thrust (YES in step S220), the composite image generation unit 5b displays the composite image that has been marked in the previous steps S217, S218, and S219 on the display unit 52 (step S221). ). As a result, in step S221, the previous time t e - [delta at time T2 from e until the user completes the thrust time t f, the composite image stored in the storage unit 51 in step S210 the user starts pushing Are displayed continuously.

以上の処理によれば、現実空間のビデオカメラ3の位置に対応する仮想空間上の位置が取得されて、当該取得された位置から視た相手選手の画像が生成される。そしてこの相手選手の画像と、ビデオカメラ3が撮影したユーザの画像とが合成される。この結果、図6に示したような相手選手とユーザとの位置関係を認識可能な合成画像が得られる。これにより、ユーザは、空手の突きのスキル向上を図る上で有効な情報を得ることができる。   According to the above processing, a position in the virtual space corresponding to the position of the video camera 3 in the real space is acquired, and an image of the opponent player viewed from the acquired position is generated. The opponent player's image and the user's image taken by the video camera 3 are combined. As a result, a composite image capable of recognizing the positional relationship between the opponent player and the user as shown in FIG. 6 is obtained. Thereby, the user can obtain information effective in improving the skill of karate thrust.

また、ビデオカメラ3によって撮影されたユーザの画像が用いられて、合成画像が生成される。このことから、合成画像を生成するために、ユーザの身体に多くのセンサやセンシング補助器具を取り付ける必要がないため、ユーザは思い通りの動きができる。また、合成画像において、ユーザの表情などが表現されるようになるため、ユーザは、自身に関する詳細な情報を得ることができる。   Further, a composite image is generated by using the user image taken by the video camera 3. From this, it is not necessary to attach many sensors and sensing aids to the user's body in order to generate the composite image, and the user can move as desired. In addition, since the user's facial expression and the like are expressed in the composite image, the user can obtain detailed information about the user.

また、ユーザが突きを行った場合には、突きが開始される以前のte−Δe時刻から突きが完了した時刻tfまでの時間T2に記憶された合成画像が表示される。これにより、ユーザは、自身が突きを行った前後の状況を確認することができるため、ユーザは、突きを行った判断が妥当であったか否かを検討することができる。なお、Δeは、上記前後の状況を確認する上で好ましい時間に設定される。 In addition, when the user makes a hit, the composite image stored at time T2 from the time t e −Δ e before the hit is started to the time t f when the hit is completed is displayed. Thereby, since the user can confirm the situation before and after he / she made a thrust, the user can consider whether or not the judgment of the thrust was appropriate. Incidentally, delta e is set to a preferred time in order to check the status before and after the.

また、te−Δe時刻以前に記憶された合成画像は表示されないため、ユーザが、スキル向上を図る上で必要ではない情報を得てしまうことを回避することができる。 In addition, since the composite image stored before the time t e −Δ e is not displayed, it is possible to prevent the user from obtaining information that is not necessary for improving the skill.

また、相手選手が前進を始めてから元の位置に戻るまでの時間T1は、ユーザが突きを行うべき時間であるが、この時間T1に記憶された合成画像は、時間T1においてユーザが突きを行ったか否かに関わらず、表示される。このため、ユーザは、時間Tにおいて、自身が空手の突きを行っていなかったことや、突きが相手選手に届いていないこと等を確認することができる。これにより、ユーザは自身が行った判断や動作が誤りであったことを確認することができる。   In addition, the time T1 from when the opponent player starts moving forward to the return to the original position is a time for the user to make a thrust, but the composite image stored at this time T1 is pushed by the user at the time T1. Displayed regardless of whether or not. For this reason, at time T, the user can confirm that he / she did not perform karate thrust, that the thrust did not reach the opponent player, and the like. Thereby, the user can confirm that the judgment and operation performed by himself / herself were incorrect.

次に図9を用いて、評価部5dによって実行される処理について説明する。   Next, processing executed by the evaluation unit 5d will be described with reference to FIG.

まず、評価部5dは、ユーザの拳と相手選手との距離が、所定値以下となる時間を特定する(ステップS222)。具体的には、記憶部51に記憶された合成画像のうち、ユーザの拳と相手選手との距離が所定値以下となる合成画像を抽出して、これらが記憶された時間を特定する。   First, the evaluation unit 5d specifies a time during which the distance between the user's fist and the opponent player is equal to or less than a predetermined value (step S222). Specifically, among the composite images stored in the storage unit 51, a composite image in which the distance between the user's fist and the opponent player is equal to or less than a predetermined value is extracted, and the time when these are stored is specified.

次に、評価部5dは、ステップS222で特定した時間において、ユーザの拳の加速度が負のピークとなる時(突いた拳を引き戻す時点、すなわち寸止めの時点)に、相手選手が前進を開始してから後退を完了するまでの動作を行っていたか否かを判断する(ステップS223)。以下では、ユーザの拳の加速度が負のピークとなる時点を、「負のピークとなる時点」と略して記す。   Next, the evaluation unit 5d starts the forward movement of the opponent player when the acceleration of the user's fist reaches a negative peak at the time specified in step S222 (at the time of pulling back the fist that has struck, that is, at the time of squeezing). Then, it is determined whether or not the operation from the completion to the backward movement has been performed (step S223). Hereinafter, the point in time at which the acceleration of the user's fist has a negative peak is abbreviated as “a point at which the negative peak is reached”.

図11は、相手選手の位置とユーザの拳の加速度との時間変化を示す図である。図11に示すL1〜L3は、相手選手が前進を開始してから後退を完了するまでの時間を示している。このうち、L3は、相手選手が前進を開始してから後退を開始する直前までの時間である。また、L2とL1とは、相手選手が後退を開始してから完了するまでの時間が2等分に分割されたものであって、L2は、前半の時間であり、L1は、後半の時間である。また、L4は、L1〜L3以外の時間である。このL4の時間では、相手選手は、例えば、フェイントの前進を行っていたり、ディフェンス姿勢のジャンプを行っている状態にある。   FIG. 11 is a diagram showing temporal changes in the position of the opponent player and the acceleration of the user's fist. L1 to L3 shown in FIG. 11 indicate the time from when the opponent player starts moving forward until the backward movement is completed. Of these, L3 is the time from when the opponent player starts moving forward to just before starting the backward movement. In addition, L2 and L1 are divided into two equal parts from the time the opponent player starts retreating to completion, L2 is the first half time, and L1 is the second half time. It is. L4 is a time other than L1 to L3. In this time of L4, the opponent player is in a state where, for example, the feint is moving forward or the defense posture jump is performed.

図9のステップS223では、負のピークとなる時点が、L1〜L3の時間と、L4の時間とのいずれに生じたかを判別することで、相手選手が前進を開始してから後退を完了するまでの動作を行っていたか否かを判断する。   In step S223 of FIG. 9, it is determined whether the time point at which the negative peak occurs is between the times L1 to L3 and the time L4, so that the backward movement is completed after the opponent player starts moving forward. It is determined whether or not the above operations have been performed.

負のピークとなる時点がL1〜L3の時間に生じていたときには、相手選手は前進を開始してから後退を完了するまでの動作を行っていたと判断されて(ステップS223でYES)、ステップS224に移行する。   When the negative peak occurs during the period from L1 to L3, it is determined that the opponent player has performed the operation from the start of the forward movement to the completion of the backward movement (YES in step S223), and step S224. Migrate to

このステップS224では、評価部5dは、ユーザが行った突きの評価点をカウントする。   In this step S224, the evaluation unit 5d counts the evaluation points of the bumps made by the user.

具体的には、評価部5dは、負のピークとなる時点がL3の時間に生じていた場合(負のピークとなる時点で相手選手が前進を行っていた場合)には、突きの評価点として、3点をカウントする。また、負のピークとなる時点がL2の時間に生じていた場合(負のピークとなる時点で相手選手が後退の初期段階の動作を行っていた場合)には、突きの評価点として、2点をカウントする。また、負のピークとなる時点がL1の時間に生じていた場合(負のピークとなる時点で相手選手が後退の完了段階の動作を行っていた場合)には、突きの評価点として、1点をカウントする。   More specifically, the evaluation unit 5d determines that the negative evaluation point is given when the negative peak occurs at the time L3 (when the opponent player moves forward at the negative peak). As a result, 3 points are counted. In addition, when the time point of the negative peak occurs at the time of L2 (when the opponent player is performing the operation of the initial stage of retreat at the time of the negative peak), the evaluation score of 2 Count points. In addition, when the negative peak occurs at the time of L1 (when the opponent player is performing an operation at the completion stage of the reverse at the negative peak), 1 is used as the evaluation score of the collision. Count points.

そして、評価部5dは、ステップS224でカウントした突きの評価点を、記憶部51に記憶する(ステップS225)。   And the evaluation part 5d memorize | stores the evaluation score of the protrusion counted by step S224 in the memory | storage part 51 (step S225).

一方、負のピークとなる時点が、L4の時間に生じていたときには、ステップS223で、相手選手は前進を開始してから後退を完了するまでの動作を行っていないと判断されて(ステップS223でNO)、ステップS226の処理に移行する。   On the other hand, when the negative peak occurs at the time of L4, it is determined in step S223 that the opponent player has not performed the movement from the start of the forward movement to the completion of the backward movement (step S223). NO), the process proceeds to step S226.

ここで、ステップS223でNOと判断される状況は、相手選手が、フェイントの前進を行っているときなどに、ユーザが突きを行った結果として生じる。これに基づき、ステップS226では、突きのタイミングが適切でなかったことを示す値として、1点のエラー値がカウントされる。   Here, the situation determined as NO in step S223 occurs as a result of the user making a thrust when the opponent player is moving forward. Based on this, in step S226, one error value is counted as a value indicating that the timing of the hit is not appropriate.

そして、評価部5dは、ステップS226でカウントしたエラー値を、記憶部51に記憶する(ステップS227)。   Then, the evaluation unit 5d stores the error value counted in step S226 in the storage unit 51 (step S227).

以上により、図9に示す処理は終了し、ステップS225,S227で記憶部51に記憶された突きの評価点やエラー値は、ユーザがPC5に所定の操作を行うことによって、表示部52に表示されて、ユーザに確認される。   Thus, the process shown in FIG. 9 ends, and the evaluation score and error value stored in the storage unit 51 in steps S225 and S227 are displayed on the display unit 52 when the user performs a predetermined operation on the PC 5. And confirmed by the user.

以上の処理によれば、ユーザのパフォーマンスに関する情報に基づき、ユーザの拳の加速度が負のピークとなる時点が特定され、さらに当該時点における相手選手の動作に基づき、ユーザのパフォーマンスが評価される。この評価結果により、ユーザは、自身が行った動作が妥当であったか否かを判断することができる。また、ユーザは、所望の評価が得られるまで練習を繰り返すことで、目標とするスキルに達することができる。   According to the above processing, the time point at which the acceleration of the user's fist has a negative peak is specified based on the information related to the user's performance, and the user's performance is evaluated based on the action of the opponent player at that time. From this evaluation result, the user can determine whether or not the operation performed by the user is appropriate. In addition, the user can reach the target skill by repeating the practice until a desired evaluation is obtained.

本発明は、上述した実施形態に限定されず、特許請求の範囲において種々改変することができる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims.

例えば、加速度センサ4は、画像生成システム1から省略されてもよい。この場合、ユーザが突きを行ったタイミングを示すデータは、ビデオカメラ3の撮影画像に基づき取得される。このようにすることで、ユーザは、腕に加速度センサ4を取り付ける必要がなくなるため、より一層思い通りの動きができるようになる。   For example, the acceleration sensor 4 may be omitted from the image generation system 1. In this case, data indicating the timing at which the user has made a thrust is acquired based on the captured image of the video camera 3. By doing so, the user does not need to attach the acceleration sensor 4 to the arm, so that the user can move as desired.

また、ビデオカメラ3は複数設置されてもよい。この場合には、各ビデオカメラ3が撮影した画像に基づき、図3に示す処理が実行される。この結果、多視点からのユーザの撮影画像が得られ、これら撮影画像の各々が用いられて、ユーザと相手選手とが対峙した合成画像が生成される。これにより、多視点から視たユーザと相手選手との位置関係が確認可能となる。   A plurality of video cameras 3 may be installed. In this case, the process shown in FIG. 3 is executed based on the image captured by each video camera 3. As a result, captured images of the user from multiple viewpoints are obtained, and each of these captured images is used to generate a composite image in which the user and the opponent player face each other. Thereby, the positional relationship between the user and the opponent player viewed from multiple viewpoints can be confirmed.

また、合成画像生成部5bによって生成された合成画像は、PC5とは別途設けられるモニタやスクリーンに表示されるようにしてもよい。   Further, the composite image generated by the composite image generation unit 5b may be displayed on a monitor or screen provided separately from the PC 5.

また、仮想画像生成部5cによって生成された相手選手のCG画像は、HMD2に代えて、ユーザの近傍に配置されるモニタやスクリーンに表示されるようにしてもよい。   In addition, the CG image of the opponent player generated by the virtual image generation unit 5c may be displayed on a monitor or a screen arranged in the vicinity of the user instead of the HMD2.

また、PC5では、HMD2やビデオカメラ3と無線通信を介して画像の送受信が行われてもよい。   Further, the PC 5 may exchange images with the HMD 2 and the video camera 3 via wireless communication.

また本発明の画像生成システム1は、ボクシング、テニス、野球などの空手以外のスポーツの練習、ゲーム、リハビリのために使用され得る。例えば、テニスの練習に用いられる際には、PC5によって相手選手やボール等を含むCG画像が生成されて、このCG画像がスクリーンに投影される。そして、ユーザは、スクリーンに投影されたボール等の動きを確認して、ラケットを持った腕を動かす。そして、このユーザの様子がビデオカメラ3によって撮影されて、この撮影画像とPC5によって生成されたCG画像とが合成される。   The image generation system 1 of the present invention can be used for sports practice, games, and rehabilitation other than karate such as boxing, tennis, and baseball. For example, when used for tennis practice, a PC 5 generates a CG image including an opponent player, a ball, and the like, and the CG image is projected on a screen. Then, the user confirms the movement of the ball or the like projected on the screen, and moves the arm holding the racket. Then, the user's situation is photographed by the video camera 3, and the photographed image and the CG image generated by the PC 5 are combined.

また、本実施形態の画像生成システム1における各種処理を行う手段および方法は、専用のハードウェア回路、またはプログラムされたコンピュータのいずれによっても実現することが可能である。ここで、上記プログラムは、例えばフレキシブルディスクやCD−ROM等のコンピュータ読取可能な情報記録媒体によって提供されてもよい。この場合、コンピュータ読取可能な情報記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送されて記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、装置の一機能としてその装置のソフトウェアに組み込まれてもよい。   The means and method for performing various processes in the image generation system 1 of the present embodiment can be realized by either a dedicated hardware circuit or a programmed computer. Here, the program may be provided by a computer-readable information recording medium such as a flexible disk or a CD-ROM. In this case, the program recorded on the computer-readable information recording medium is usually transferred to and stored in a storage unit such as a hard disk. The program may be provided as a single application software, or may be incorporated in the software of the device as one function of the device.

次に、本発明の効果を確認するために行った実験について説明する。   Next, an experiment conducted for confirming the effect of the present invention will be described.

本実験では、男子学生(21歳、運動部所属)2名を被験者とし、上記実施形態の画像生成システム1を用いて「先の上段突き」の練習を行った。一方の被験者Aには、合成画像生成部5bによって生成される合成画像(図6参照)を確認させ、他方の被験者Bには、合成画像を確認させなかった。   In this experiment, two male students (21 years old, athletic club affiliation) were used as subjects, and the “first upper butt” practice was performed using the image generation system 1 of the above embodiment. One subject A was allowed to confirm the composite image (see FIG. 6) generated by the composite image generation unit 5b, and the other subject B was not allowed to confirm the composite image.

また、相手選手がモーションを遷移する確率については、図10に示すp(0)を0.7に設定し、p(1),p(2),p(3)を、いずれも0.1に設定した。   Moreover, about the probability that an opponent player changes a motion, p (0) shown in FIG. 10 is set to 0.7, and p (1), p (2), and p (3) are all 0.1. Set to.

また、図8のステップS218における「突きが開始される以前のte−Δe時刻」を定めるにあたって、ユーザが突きを行った時刻teから過去へさかのぼる時間Δeを、500msecに設定した。 Also, in determining the "previous t e - [delta e time thrust is started" in the step S218 of FIG. 8, the time delta e traced back from the time t e the user has performed a thrust to the past, were set to 500 msec.

そして本実験では、図9のステップS225,S227で記憶された突きの評価点とエラー値とを、各回の練習後にPC5において出力して確認した。   In this experiment, the evaluation score and error value stored in steps S225 and S227 of FIG. 9 were output and confirmed on the PC 5 after each practice.

練習は、1回10分とし、エラー値が1点以下、かつ、突きの評価点の平均が2.5点以上の成績が3回連続して得られるまで、ほぼ毎日1〜4回の頻度で行った。   Practice is 10 minutes at a time, with a frequency of 1 to 4 times a day until a score of 3 or less is obtained for an error score of 1 point or less and an average evaluation score of 2.5 points or more. I went there.

目標成績に達するまで行った練習の回数は、被験者Aが44回、被験者Bが55回であり、合成画像を確認した被験者Aは、合成画像を確認しなかった被験者Bに比して、練習の回数が20%程度少なくなった。このことから、合成画像を確認することによって、目標スキルへの到達に要する練習の回数が少なく抑えられることが確認された。   The number of exercises performed until reaching the target score was 44 for subject A and 55 for subject B, and subject A who confirmed the composite image practiced compared to subject B who did not confirm the composite image. Was reduced by about 20%. From this, it was confirmed that the number of exercises required to reach the target skill can be reduced by checking the composite image.

本発明は、スポーツの練習、リハビリ、コンピュータゲームに用いる機器に適用することができる。   The present invention can be applied to equipment used for sports practice, rehabilitation, and computer games.

1 画像生成システム
2 HMD
3 ビデオカメラ
4 加速度センサ
5 PC
5a モーション認識部
5b 合成画像生成部
5c 仮想画像生成部
5d 評価部
6 マーカ
50 制御部
51 記憶部
52 表示部
1 Image generation system 2 HMD
3 Video camera 4 Acceleration sensor 5 PC
5a Motion recognition unit 5b Composite image generation unit 5c Virtual image generation unit 5d Evaluation unit 6 Marker 50 Control unit 51 Storage unit 52 Display unit

Claims (13)

仮想対象物をユーザに表示する表示装置、及び前記仮想対象物に対してパフォーマンスを行うユーザを撮影する撮影装置を備えた画像生成システムであって、
現実空間の前記撮影装置の位置に対応する仮想空間上の位置を取得する撮影位置取得手段と、
前記撮影位置取得手段が取得した位置から視た仮想対象物の画像を生成する仮想画像生成手段と、
前記撮影装置が撮影した画像と、前記仮想画像生成手段が生成した仮想対象物の画像とを合成する合成画像生成手段とを備えることを特徴とする画像生成システム。
An image generation system including a display device that displays a virtual object to a user, and a photographing device that photographs a user performing performance on the virtual object,
Shooting position acquisition means for acquiring a position on the virtual space corresponding to the position of the shooting device in the real space;
Virtual image generation means for generating an image of a virtual object viewed from the position acquired by the shooting position acquisition means;
An image generation system comprising: a composite image generation unit that combines an image captured by the imaging device and a virtual object image generated by the virtual image generation unit.
現実空間のユーザの視点位置に対応する仮想空間上の位置を取得する視点位置取得手段をさらに備え、
前記仮想画像生成手段は、前記視点位置取得手段が取得した位置から視た仮想対象物の画像を生成して、前記表示装置に表示させることを特徴とする請求項1に記載の画像生成システム。
Further comprising viewpoint position acquisition means for acquiring a position in the virtual space corresponding to the viewpoint position of the user in the real space,
The image generation system according to claim 1, wherein the virtual image generation unit generates an image of a virtual object viewed from the position acquired by the viewpoint position acquisition unit and displays the image on the display device.
前記撮影装置によって撮影されたユーザの画像に基づき、ユーザのモーションに関する情報を取得するモーション認識手段をさらに備え、
前記仮想画像生成手段は、前記モーション認識手段が取得した情報に基づき、仮想対象物の動きを設定することを特徴とする請求項1又は2に記載の画像生成システム。
Based on the user's image captured by the imaging device, further comprising motion recognition means for acquiring information on the user's motion,
The image generation system according to claim 1, wherein the virtual image generation unit sets a movement of a virtual object based on information acquired by the motion recognition unit.
前記仮想対象物に対するユーザのパフォーマンスを評価する評価手段をさらに備え、
前記評価手段は、前記合成画像生成手段が生成した画像に基づき、ユーザが所定の動作を行った時点を特定し、当該時点における仮想対象物の動作に応じて、ユーザのパフォーマンスを評価することを特徴とする請求項1乃至3のいずれか1項に記載の画像生成システム。
An evaluation means for evaluating a user's performance with respect to the virtual object;
The evaluation unit specifies a time point when the user performs a predetermined operation based on the image generated by the composite image generation unit, and evaluates the user performance according to the operation of the virtual object at the time point. The image generation system according to any one of claims 1 to 3, wherein
前記合成画像生成手段は、ユーザが所定の動作を行う以前の時刻から前記所定の動作を完了する時刻までの時間に得られた合成画像を、ユーザに対して表示することを特徴とする請求項1乃至4のいずれか1項に記載の画像生成システム。   The composite image generation unit displays a composite image obtained for a time from a time before a user performs a predetermined operation to a time when the predetermined operation is completed to the user. The image generation system according to any one of 1 to 4. 前記合成画像生成手段は、仮想対象物が所定の動作を行う時間に得られた合成画像を、ユーザに対して表示することを特徴とする請求項1乃至5のいずれか1項に記載の画像生成システム。   The image according to any one of claims 1 to 5, wherein the composite image generation means displays a composite image obtained at a time when the virtual object performs a predetermined operation to a user. Generation system. 仮想対象物をユーザに表示する表示装置、及び前記仮想対象物に対してパフォーマンスを行うユーザを撮影する撮影装置を備えた画像生成システムの制御プログラムであって、
現実空間の前記撮影装置の位置に対応する仮想空間上の位置を取得する撮影位置取得手順と、
前記撮影位置取得手順で取得された位置から視た仮想対象物の画像を生成する仮想画像生成手順と、
前記撮影装置が撮影した画像と、前記仮想画像生成手順で生成された仮想対象物の画像とを合成する合成画像生成手順とを画像生成システムに実行させることを特徴とする制御プログラム。
A control program for an image generation system including a display device that displays a virtual object to a user, and a photographing device that photographs a user performing performance on the virtual object,
An imaging position acquisition procedure for acquiring a position on the virtual space corresponding to the position of the imaging device in the real space;
A virtual image generation procedure for generating an image of a virtual object viewed from the position acquired in the shooting position acquisition procedure;
A control program for causing an image generation system to execute a composite image generation procedure for combining an image captured by the imaging device and an image of a virtual object generated by the virtual image generation procedure.
現実空間のユーザの視点位置に対応する仮想空間上の位置を取得する視点位置取得手順をさらに有し、
前記仮想画像生成手順では、前記視点位置取得手順で取得された位置から視た仮想対象物の画像が生成されて、前記表示装置に表示されることを特徴とする請求項7に記載の制御プログラム。
A viewpoint position acquisition procedure for acquiring a position in the virtual space corresponding to the viewpoint position of the user in the real space;
The control program according to claim 7, wherein in the virtual image generation procedure, an image of a virtual object viewed from the position acquired in the viewpoint position acquisition procedure is generated and displayed on the display device. .
前記撮影装置によって撮影されたユーザの画像に基づき、ユーザのモーションに関する情報を取得するモーション認識手順をさらに有し、
前記仮想画像生成手順では、前記モーション認識手順で取得された情報に基づき、仮想対象物の動きが設定されることを特徴とする請求項7又は8に記載の制御プログラム。
Further comprising a motion recognition procedure for obtaining information on the user's motion based on the user's image captured by the imaging device;
The control program according to claim 7 or 8, wherein in the virtual image generation procedure, a motion of a virtual object is set based on information acquired in the motion recognition procedure.
仮想対象物に対するユーザのパフォーマンスを評価する評価手順をさらに有し、
前記評価手順では、前記合成画像生成手順で生成された画像に基づき、前記ユーザが所定の動作を行った時点が特定され、当該時点における仮想対象物の動作に応じて、ユーザのパフォーマンスが評価されることを特徴とする請求項7乃至9のいずれか1項に記載の制御プログラム。
Further comprising an evaluation procedure for evaluating a user's performance on the virtual object;
In the evaluation procedure, a point in time when the user performs a predetermined operation is specified based on the image generated in the composite image generation procedure, and the user's performance is evaluated according to the operation of the virtual object at that point. The control program according to any one of claims 7 to 9, wherein:
前記合成画像生成手順では、ユーザが所定の動作を行う以前の時刻から前記所定の動作を完了する時刻までの時間に得られた合成画像が、ユーザに対して表示されることを特徴とする請求項7乃至10のいずれか1項に記載の制御プログラム。   In the composite image generation procedure, a composite image obtained from a time before a user performs a predetermined operation until a time at which the predetermined operation is completed is displayed to the user. Item 11. The control program according to any one of Items 7 to 10. 前記合成画像生成手順では、仮想対象物が所定の動作を行う時間に得られた合成画像が、ユーザに対して表示されることを特徴とする請求項7乃至11のいずれか1項に記載の制御プログラム。   12. The composite image generation procedure according to claim 7, wherein a composite image obtained at a time when the virtual object performs a predetermined operation is displayed to a user. Control program. 請求項7乃至12のいずれか1項に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。   The computer-readable recording medium which recorded the control program of any one of Claims 7 thru | or 12.
JP2009187492A 2009-08-12 2009-08-12 Image generation system, control program, and recording medium Expired - Fee Related JP5446572B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009187492A JP5446572B2 (en) 2009-08-12 2009-08-12 Image generation system, control program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009187492A JP5446572B2 (en) 2009-08-12 2009-08-12 Image generation system, control program, and recording medium

Publications (2)

Publication Number Publication Date
JP2011036483A true JP2011036483A (en) 2011-02-24
JP5446572B2 JP5446572B2 (en) 2014-03-19

Family

ID=43764910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009187492A Expired - Fee Related JP5446572B2 (en) 2009-08-12 2009-08-12 Image generation system, control program, and recording medium

Country Status (1)

Country Link
JP (1) JP5446572B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105100962A (en) * 2015-08-29 2015-11-25 天脉聚源(北京)科技有限公司 Method and device for generating interaction signal parallel-series single
CN105100918A (en) * 2015-08-29 2015-11-25 天脉聚源(北京)科技有限公司 Method and device for displaying interaction result
WO2017058733A1 (en) * 2015-09-29 2017-04-06 BinaryVR, Inc. Head-mounted display with facial expression detecting capability
WO2017094356A1 (en) * 2015-12-01 2017-06-08 シャープ株式会社 Video producing device, method for controlling video producing device, display system, video production control program, and computer-readable recording medium
KR20180078619A (en) * 2016-12-30 2018-07-10 서울대학교산학협력단 Method, system and readable recording medium of creating visual stimulation using virtual model
WO2021095537A1 (en) * 2019-11-12 2021-05-20 ソニーグループ株式会社 Information processing device, information processing method, and program
JP7071018B1 (en) 2021-02-16 2022-05-18 Necプラットフォームズ株式会社 Evaluation equipment, methods and programs
JP2024031158A (en) * 2022-08-25 2024-03-07 株式会社ネクストベース Judgment system, judgment method and computer program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05309174A (en) * 1992-05-11 1993-11-22 Adetsuku:Kk Simulation device
JPH0850661A (en) * 1994-08-05 1996-02-20 Casio Comput Co Ltd Image controller
JPH11128534A (en) * 1997-10-27 1999-05-18 Sony Corp Method and device for posture detecting game
JP2001307124A (en) * 2000-02-15 2001-11-02 Sega Corp Image processing system, image processor and image pickup device
JP2002041038A (en) * 2000-07-31 2002-02-08 Taito Corp Virtual musical instrument playing device
JP2005218757A (en) * 2004-02-09 2005-08-18 Vr Sports:Kk Virtual reality tennis game system
JP2005319191A (en) * 2004-05-11 2005-11-17 Namco Ltd Game system, program, information storage medium, and image generating method
WO2006003870A1 (en) * 2004-06-30 2006-01-12 Sony Computer Entertainment Inc. Information processing device for controlling movement of a game character by using a player image and game character movement control method
JP2006155148A (en) * 2004-11-29 2006-06-15 Namco Bandai Games Inc Image processing system, program, information storage medium and image processing method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05309174A (en) * 1992-05-11 1993-11-22 Adetsuku:Kk Simulation device
JPH0850661A (en) * 1994-08-05 1996-02-20 Casio Comput Co Ltd Image controller
JPH11128534A (en) * 1997-10-27 1999-05-18 Sony Corp Method and device for posture detecting game
JP2001307124A (en) * 2000-02-15 2001-11-02 Sega Corp Image processing system, image processor and image pickup device
JP2002041038A (en) * 2000-07-31 2002-02-08 Taito Corp Virtual musical instrument playing device
JP2005218757A (en) * 2004-02-09 2005-08-18 Vr Sports:Kk Virtual reality tennis game system
JP2005319191A (en) * 2004-05-11 2005-11-17 Namco Ltd Game system, program, information storage medium, and image generating method
WO2006003870A1 (en) * 2004-06-30 2006-01-12 Sony Computer Entertainment Inc. Information processing device for controlling movement of a game character by using a player image and game character movement control method
JP2006155148A (en) * 2004-11-29 2006-06-15 Namco Bandai Games Inc Image processing system, program, information storage medium and image processing method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105100962A (en) * 2015-08-29 2015-11-25 天脉聚源(北京)科技有限公司 Method and device for generating interaction signal parallel-series single
CN105100918A (en) * 2015-08-29 2015-11-25 天脉聚源(北京)科技有限公司 Method and device for displaying interaction result
WO2017058733A1 (en) * 2015-09-29 2017-04-06 BinaryVR, Inc. Head-mounted display with facial expression detecting capability
US10089522B2 (en) 2015-09-29 2018-10-02 BinaryVR, Inc. Head-mounted display with facial expression detecting capability
WO2017094356A1 (en) * 2015-12-01 2017-06-08 シャープ株式会社 Video producing device, method for controlling video producing device, display system, video production control program, and computer-readable recording medium
KR20180078619A (en) * 2016-12-30 2018-07-10 서울대학교산학협력단 Method, system and readable recording medium of creating visual stimulation using virtual model
KR101907181B1 (en) 2016-12-30 2018-10-12 서울대학교산학협력단 Method, system and readable recording medium of creating visual stimulation using virtual model
WO2021095537A1 (en) * 2019-11-12 2021-05-20 ソニーグループ株式会社 Information processing device, information processing method, and program
US11954269B2 (en) 2019-11-12 2024-04-09 Sony Group Corporation Information processing apparatus, information processing method, and program for generating location data
JP7071018B1 (en) 2021-02-16 2022-05-18 Necプラットフォームズ株式会社 Evaluation equipment, methods and programs
JP2022124826A (en) * 2021-02-16 2022-08-26 Necプラットフォームズ株式会社 Evaluation device, method and program
JP2024031158A (en) * 2022-08-25 2024-03-07 株式会社ネクストベース Judgment system, judgment method and computer program

Also Published As

Publication number Publication date
JP5446572B2 (en) 2014-03-19

Similar Documents

Publication Publication Date Title
JP5446572B2 (en) Image generation system, control program, and recording medium
US11263919B2 (en) Feedback signals from image data of athletic performance
US20210166010A1 (en) Systems and methods for determining reduced player performance in sporting events
US10010778B2 (en) Systems and methods for tracking dribbling and passing performance in sporting environments
US11354939B2 (en) Tracking of handheld sporting implements using computer vision
US10121065B2 (en) Athletic attribute determinations from image data
US10300362B2 (en) Virtual reality sports training systems and methods
US9886624B1 (en) Systems and methods for tracking dribbling in sporting environments
US20200098113A1 (en) Stereoscopic image capture with performance outcome prediction in sporting environments
WO2011009302A1 (en) Method for identifying actions of human body based on multiple trace points
WO2020010040A1 (en) Systems and methods for determining reduced player performance in sporting events
KR20100033205A (en) System suppporting golf practice and method therefor
Yeo et al. Augmented learning for sports using wearable head-worn and wrist-worn devices
KR101864039B1 (en) System for providing solution of justice on martial arts sports and analyzing bigdata using augmented reality, and Drive Method of the Same
KR101723011B1 (en) A management system for training fencer and method thereof
US20220334257A1 (en) System and method for evaluating the physical skills of a person
US20220343649A1 (en) Machine learning for basketball rule violations and other actions
JP2021082954A (en) Tactile metadata generation device, video tactile interlocking system, and program
Sotheran Real-time analysis and feedback of performance indicators in elite diving
JP2022062313A (en) Tactile sensation meta data generation apparatus, video tactile sensation linkage system and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20110222

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131216

R150 Certificate of patent or registration of utility model

Ref document number: 5446572

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees