JP2006318385A - Image generation system, program, and information storage medium - Google Patents

Image generation system, program, and information storage medium Download PDF

Info

Publication number
JP2006318385A
JP2006318385A JP2005142818A JP2005142818A JP2006318385A JP 2006318385 A JP2006318385 A JP 2006318385A JP 2005142818 A JP2005142818 A JP 2005142818A JP 2005142818 A JP2005142818 A JP 2005142818A JP 2006318385 A JP2006318385 A JP 2006318385A
Authority
JP
Japan
Prior art keywords
image
teaching
viewpoint
image generation
generation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005142818A
Other languages
Japanese (ja)
Inventor
Naoki Watabe
直樹 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2005142818A priority Critical patent/JP2006318385A/en
Publication of JP2006318385A publication Critical patent/JP2006318385A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image generation system capable of simply and appropriately displaying a photographed image and an instruction image. <P>SOLUTION: The image generation system comprises an input part 160 to input viewpoint setting information which indicates a viewpoint, a storage part 120 to store 3D motion data 121 indicating operations of an instructor and photographing data 123 indicating operations of a photograph target person, and an image generation part 111 to generate an instruction image showing operations of the instructor captured from a specified viewpoint from the viewpoint setting information and the 3D motion data 121, and to generate a photographed image showing operations of the photograph target person from the photographing data 123. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、教示画像を生成する画像生成システム、プログラムおよび情報記憶媒体に関する。   The present invention relates to an image generation system, a program, and an information storage medium that generate a teaching image.

例えば、ゴルフのスイングやダンス等を行うユーザーは、教示画像における教師の動作をまねる場合、教示画像としてビデオ画像を再生していた。   For example, a user who performs a golf swing, dance, or the like reproduces a video image as a teaching image when imitating a teacher's motion in the teaching image.

しかし、この手法では、ユーザーは、教示画像における教師の動作と自分の動作が適合しているかどうかを判断することは困難である。   However, with this method, it is difficult for the user to determine whether the teacher's motion in the teaching image matches his / her motion.

このような適合性を判断する場合、例えば、ユーザーが、自分の動作をビデオ等で撮像して当該撮像画像を再生することにより、教師の動作と自分の動作が適合しているかどうかを比較することが考えられる。   When judging such suitability, for example, the user compares his / her teacher's motion with his / her motion by capturing his / her motion with a video and playing the captured image. It is possible.

しかし、一般的に、教示画像の視点、教示画像内の教師の大きさ等と、撮像画像の視点、撮像画像内のユーザーの大きさ等とは一致しておらず、ユーザーは、適切に比較することは困難であった。   However, in general, the viewpoint of the teaching image, the size of the teacher in the teaching image, etc. do not match the viewpoint of the captured image, the size of the user in the captured image, etc. It was difficult to do.

このような問題を解決するためには、ユーザーが、自分の動作をモーションデータ化することが考えられる。例えば、特許文献1では、自分の手足等にマーカーを取り付ける手法が記載されており、特許文献2では、複数のカメラを用いる手法が記載されている。
特開平7−185131号公報 特開2001−293120号公報
In order to solve such a problem, it is conceivable that the user converts his / her motion into motion data. For example, Patent Document 1 describes a method of attaching a marker to his / her limbs, and Patent Document 2 describes a method of using a plurality of cameras.
JP 7-185131 A JP 2001-293120 A

しかし、特許文献1、2の手法では、ユーザーは、自分の手足等にマーカーを取り付けたり、複数のカメラを、モーションデータを適切に得るために適切な位置に配置する必要があり、多大な手間がかかる上、大きな設備も必要となり、家庭で気軽に行える作業ではなかった。   However, in the methods of Patent Documents 1 and 2, the user needs to attach a marker to his / her limbs or the like, and to arrange a plurality of cameras at appropriate positions in order to obtain motion data appropriately. In addition, it required large equipment and was not easy to do at home.

本発明の目的は、撮像画像と教示画像とを簡易かつ適切に提示することが可能な画像生成システム、プログラムおよび情報記憶媒体を提供することにある。   An object of the present invention is to provide an image generation system, a program, and an information storage medium capable of easily and appropriately presenting a captured image and a teaching image.

上記課題を解決するため、本発明に係る画像生成システムは、
視点を示す視点設定情報を入力する入力部と、
教示者の動作を示す3次元モーションデータと、撮像対象者の動作を示す撮像データとを記憶する記憶部と、
前記視点設定情報と、前記3次元モーションデータとに基づき、前記視点から見た場合の前記教示者の動作を示す教示画像を生成するとともに、前記撮像データに基づき、前記撮像対象者の動作を示す撮像画像を生成する画像生成部と、
を含むことを特徴とする。
In order to solve the above-described problems, an image generation system according to the present invention includes:
An input unit for inputting viewpoint setting information indicating a viewpoint;
A storage unit for storing three-dimensional motion data indicating the operation of the teacher and imaging data indicating the operation of the imaging subject;
Based on the viewpoint setting information and the three-dimensional motion data, a teaching image indicating the operation of the instructor when viewed from the viewpoint is generated, and the operation of the imaging subject is illustrated based on the imaging data. An image generation unit for generating a captured image;
It is characterized by including.

また、本発明に係るプログラムは、
コンピュータを、
視点を示す視点設定情報を入力する入力部と、
教示者の動作を示す3次元モーションデータと、撮像対象者の動作を示す撮像データとを記憶する記憶部と、
前記視点設定情報と、前記3次元モーションデータとに基づき、前記視点から見た場合の前記教示者の動作を示す教示画像を生成するとともに、前記撮像データに基づき、前記撮像対象者の動作を示す撮像画像を生成する画像生成部として機能させることを特徴とする。
The program according to the present invention is
Computer
An input unit for inputting viewpoint setting information indicating a viewpoint;
A storage unit for storing three-dimensional motion data indicating the operation of the teacher and imaging data indicating the operation of the imaging subject;
Based on the viewpoint setting information and the three-dimensional motion data, a teaching image indicating the operation of the instructor when viewed from the viewpoint is generated, and the operation of the imaging subject is illustrated based on the imaging data. It is made to function as an image generation part which produces | generates a captured image.

また、本発明に係る情報記憶媒体は、コンピュータ読み取り可能な情報記憶媒体であって、上記プログラムを記憶したことを特徴とする。   An information storage medium according to the present invention is a computer-readable information storage medium and stores the above program.

本発明によれば、画像生成システムは、教示者の動作を示す3次元モーションデータを用いることにより、ユーザーの所望の視点から見た場合の教示者の動作を示す教示画像を生成することができる。これにより、ユーザーは、自分の撮像画像の視点に合わせた視点から教示者の動作を確認することができる。   According to the present invention, the image generation system can generate a teaching image indicating a teacher's operation when viewed from a user's desired viewpoint by using the three-dimensional motion data indicating the teacher's operation. . Thereby, the user can confirm the operation | movement of a teacher from the viewpoint match | combined with the viewpoint of his captured image.

したがって、画像生成システムは、撮像画像と教示画像とを簡易かつ適切に提示することができる。   Therefore, the image generation system can present the captured image and the teaching image simply and appropriately.

また、前記画像生成システム、前記プログラムおよび前記情報記憶媒体において、
前記教示画像における前記教示者以外の部分は、透明または半透明であって、
前記画像生成部は、前記教示画像と前記撮像画像とを重ねた比較画像を生成してもよい。
In the image generation system, the program, and the information storage medium,
The part other than the teacher in the teaching image is transparent or translucent,
The image generation unit may generate a comparative image in which the teaching image and the captured image are overlapped.

これによれば、画像生成システムは、教示画像と撮像画像とを重ねた比較画像を生成することにより、撮像画像と教示画像の両者の相違をわかりやすく提示することができる。   According to this, the image generation system can present the difference between the captured image and the teaching image in an easy-to-understand manner by generating a comparative image in which the teaching image and the captured image are superimposed.

また、前記画像生成システムは、前記教示画像における前記教示者を構成する少なくとも1つの色と、前記撮像画像における前記動作対象者を構成する少なくとも1つの色とが一致するかどうかを判定する判定部を含み、
前記画像生成部は、前記判定部によって色が一致すると判定された場合、前記教示画像または前記撮像画像における一致した色の部分を別の色に変更して前記比較画像を生成してもよい。
Further, the image generation system determines whether at least one color constituting the teacher in the teaching image matches at least one color constituting the operation subject in the captured image. Including
When the determination unit determines that the colors match, the image generation unit may generate the comparative image by changing a portion of the matching color in the teaching image or the captured image to another color.

また、前記プログラムおよび前記情報記憶媒体は、前記教示画像における前記教示者を構成する少なくとも1つの色と、前記撮像画像における前記動作対象者を構成する少なくとも1つの色とが一致するかどうかを判定する判定部としてコンピュータを機能させ、
前記画像生成部は、前記判定部によって色が一致すると判定された場合、前記教示画像または前記撮像画像における一致した色の部分を別の色に変更して前記比較画像を生成してもよい。
Further, the program and the information storage medium determine whether at least one color constituting the teacher in the teaching image matches at least one color constituting the operation target in the captured image. Make the computer function as a determination unit
When the determination unit determines that the colors match, the image generation unit may generate the comparative image by changing a portion of the matching color in the teaching image or the captured image to another color.

これによれば、画像生成システムは、色を変更することにより、教示画像と撮像画像とを重ねた比較画像を生成する場合に、撮像画像と教示画像の両者の相違をよりわかりやすく提示することができる。   According to this, when the image generation system generates a comparative image in which the teaching image and the captured image are overlapped by changing the color, the difference between the captured image and the teaching image can be presented in an easily understandable manner. Can do.

また、前記画像生成システム、前記プログラムおよび前記情報記憶媒体において、
前記画像生成部は、前記教示画像と前記撮像画像とがそれぞれ異なる領域に配置された比較画像を生成してもよい。
In the image generation system, the program, and the information storage medium,
The image generation unit may generate a comparative image in which the teaching image and the captured image are arranged in different regions.

これによれば、画像生成システムは、教示画像と撮像画像とをそれぞれ異なる領域に配置することにより、撮像画像と教示画像の両者の相違をわかりやすく提示することができる。   According to this, the image generation system can present the difference between the captured image and the teaching image in an easily understandable manner by arranging the teaching image and the captured image in different regions.

また、前記画像生成システム、前記プログラムおよび前記情報記憶媒体において、
前記記憶部は、前記3次元モーションデータのうち、前記教示画像の少なくとも1つのキーフレームとなる部分のアドレスを示すアドレスデータを記憶し、
前記入力部は、前記キーフレームを示す指定情報を入力し、
前記画像生成部は、前記指定情報と、前記アドレスデータと、前記3次元モーションデータとに基づき、前記キーフレームを基準とする部分の前記教示画像を生成してもよい。
In the image generation system, the program, and the information storage medium,
The storage unit stores address data indicating an address of a portion serving as at least one key frame of the teaching image in the three-dimensional motion data,
The input unit inputs designation information indicating the key frame,
The image generation unit may generate the teaching image of a portion based on the key frame based on the designation information, the address data, and the three-dimensional motion data.

これによれば、画像生成システムは、ユーザー等の指定に応じてキーフレームを基準とする部分の教示画像をスムーズに生成することができる。   According to this, the image generation system can smoothly generate a teaching image of a part based on the key frame in accordance with a user's designation.

以下、本発明を、画像生成システムとして機能する携帯電話に適用した場合を例に採り、図面を参照しつつ説明する。なお、以下に示す実施例は、特許請求の範囲に記載された発明の内容を何ら限定するものではない。また、以下の実施例に示す構成のすべてが、特許請求の範囲に記載された発明の解決手段として必須であるとは限らない。   Hereinafter, a case where the present invention is applied to a mobile phone functioning as an image generation system will be described as an example with reference to the drawings. In addition, the Example shown below does not limit the content of the invention described in the claim at all. In addition, all the configurations shown in the following embodiments are not necessarily essential as means for solving the invention described in the claims.

図1は、本実施例における画像生成システムが用いられるシステムの全体図である。   FIG. 1 is an overall view of a system in which the image generation system in the present embodiment is used.

図1に示すシステムは、画像生成システムとして機能する携帯電話10と、サーバー20と、ネットワーク30とを含んで構成されている。   The system shown in FIG. 1 includes a mobile phone 10 that functions as an image generation system, a server 20, and a network 30.

携帯電話10は、ネットワーク30を介してサーバー20と種々の情報を送受信する。携帯電話10のユーザーは、携帯電話10のディスプレイに種々の画像を表示する。本実施例では、ユーザーは、携帯電話10のカメラを用いて自分のダンスの動作を撮像した後、携帯電話10のディスプレイにダンスの動作を比較するための比較画像を表示する。   The mobile phone 10 transmits and receives various information to and from the server 20 via the network 30. The user of the mobile phone 10 displays various images on the display of the mobile phone 10. In this embodiment, the user images his / her dance operation using the camera of the mobile phone 10, and then displays a comparison image for comparing the dance operation on the display of the mobile phone 10.

図2は、本実施例における比較画像200の一例を示す図である。   FIG. 2 is a diagram illustrating an example of the comparative image 200 in the present embodiment.

比較画像200では、上半分の領域に教示者の動作を示す教示画像210が表示され、下半分の領域にユーザー(撮像対象者)の動作を示す撮像画像220が表示される。   In the comparative image 200, a teaching image 210 indicating a teacher's operation is displayed in the upper half area, and a captured image 220 indicating a user's (imaging target) operation is displayed in the lower half area.

このように、携帯電話10は、教示画像210と、撮像画像220を並べて表示することにより、ユーザーに自分の動作が教示者の動作と適合しているか簡易に確認させることができる。   As described above, the mobile phone 10 displays the teaching image 210 and the captured image 220 side by side, thereby allowing the user to easily check whether the user's operation is compatible with the operation of the teacher.

また、本実施例における教示画像210は、任意の視点から教示者の動作を確認することができるように、3次元モーションデータ(以下、「3Dモーションデータ」という。)から生成される。これにより、ユーザーは、撮像画像220の視点に合わせて教示画像210の視点を調整することができ、図2に示すように、ほぼ同じ視点に設定された教示画像210と撮像画像220を比較しながら動作の適合性を判断することができる。   In addition, the teaching image 210 in the present embodiment is generated from three-dimensional motion data (hereinafter referred to as “3D motion data”) so that the operation of the teacher can be confirmed from an arbitrary viewpoint. As a result, the user can adjust the viewpoint of the teaching image 210 in accordance with the viewpoint of the captured image 220. As shown in FIG. 2, the user compares the teaching image 210 and the captured image 220 set at substantially the same viewpoint. The suitability of the operation can be determined.

次に、このような機能を携帯電話10に実装する場合の機能ブロックについて説明する。   Next, functional blocks when such a function is implemented in the mobile phone 10 will be described.

図3は、本実施例における携帯電話10の機能ブロック図である。   FIG. 3 is a functional block diagram of the mobile phone 10 in the present embodiment.

携帯電話10は、画像生成等を行う処理部110と、種々のデータを記憶する記憶部120と、視点を示す視点設定情報等を入力する入力部160と、撮像部170と、ディスプレイ191と、音出力部192と、通信部196と、情報記憶媒体180とを含んで構成されている。   The mobile phone 10 includes a processing unit 110 that performs image generation, a storage unit 120 that stores various data, an input unit 160 that inputs viewpoint setting information indicating a viewpoint, an imaging unit 170, a display 191, A sound output unit 192, a communication unit 196, and an information storage medium 180 are included.

また、処理部110は、種々の画像を生成する画像生成部111と、種々の判定を行う判定部112と、撮像部170等を制御する制御部113と、データを更新する更新部114と、音情報を生成する音生成部115とを含んで構成されている。   Further, the processing unit 110 includes an image generation unit 111 that generates various images, a determination unit 112 that performs various determinations, a control unit 113 that controls the imaging unit 170 and the like, an update unit 114 that updates data, And a sound generation unit 115 that generates sound information.

また、記憶部120は、教示者の動作を示す3Dモーションデータ121、3Dモーションデータ121のうちの教示画像のキーフレームとなる部分のアドレスを示すアドレスデータ122、撮像部170によって生成される撮像データ123等を記憶している。   In addition, the storage unit 120 includes 3D motion data 121 indicating a teacher's operation, address data 122 indicating the address of a part of the 3D motion data 121 serving as a key frame of the teaching image, and imaging data generated by the imaging unit 170. 123 and the like are stored.

なお、3Dモーションデータ121は、光学式、磁気式、機械式等のモーションキャプチャーシステムによって教示者の動作を示す3次元化されたデータとして生成されたものである。   Note that the 3D motion data 121 is generated as three-dimensional data indicating the operation of the teacher by an optical, magnetic, mechanical, or other motion capture system.

画像生成部111は、画像を生成し、ディスプレイ191は、画像生成部111によって生成される画像を表示する。また、音生成部115は、音情報を生成し、音出力部192は、当該音情報に基づいて効果音等を出力する。   The image generation unit 111 generates an image, and the display 191 displays the image generated by the image generation unit 111. The sound generation unit 115 generates sound information, and the sound output unit 192 outputs sound effects and the like based on the sound information.

なお、図3に示す各部は、例えば、処理部110としては、CPU、画像処理回路等、記憶部120としては、RAM、HDD等、入力部160としては、ボタン等、撮像部170としては、CMOSカメラ、CCDカメラ等、ディスプレイ191としては、一般的に用いられているLCD等、音出力部192としては、スピーカー等、通信部196としては、無線通信モジュール等を用いてコンピュータに実装できる。   3 include, for example, a CPU and an image processing circuit as the processing unit 110, a RAM and an HDD as the storage unit 120, a button as the input unit 160, and an imaging unit 170 as the imaging unit 170. A CMOS camera, a CCD camera, or the like can be mounted on a computer using a generally used LCD or the like as a display 191, a speaker or the like as a sound output unit 192, and a wireless communication module or the like as a communication unit 196.

さらに、コンピュータが、情報記憶媒体180やサーバー20から通信部196を介してプログラムを読み取ることにより、画像生成部111等の機能を実装することも可能である。なお、情報記憶媒体180としては、例えば、CD−ROM、DVD−ROM、ICカード、ROM、RAM、メモリカード、HDD等のレーザーや磁気等を用いた記憶媒体を適用できる。また、情報記憶媒体180からのプログラムの読み取り方式は、接触式でも非接触式でもよい。   Furthermore, it is also possible for the computer to implement functions such as the image generation unit 111 by reading a program from the information storage medium 180 or the server 20 via the communication unit 196. As the information storage medium 180, for example, a CD-ROM, DVD-ROM, IC card, ROM, RAM, memory card, HDD, or other storage medium using laser or magnetism can be applied. Further, the method of reading the program from the information storage medium 180 may be a contact type or a non-contact type.

次に、これらの各部を用いた確認処理から比較処理までの処理の流れについて説明する。なお、ユーザーは、最初に教示者の動作を確認してから教示者の動作と自分の動作が適合しているかどうかを判断する。   Next, the flow of processing from confirmation processing to comparison processing using these units will be described. Note that the user first confirms the operation of the teacher, and then determines whether or not the operation of the teacher is compatible with the user's operation.

図4は、本実施例における確認処理から比較処理までの処理の流れを示すフローチャートである。   FIG. 4 is a flowchart showing the flow of processing from the confirmation processing to the comparison processing in the present embodiment.

まず、携帯電話10は、確認処理を実行する(ステップS1)。   First, the mobile phone 10 performs a confirmation process (step S1).

図5は、本実施例における確認処理のフローチャートである。   FIG. 5 is a flowchart of the confirmation process in the present embodiment.

判定部112は、入力部160からの操作情報に基づき、教示画像210の表示指示があるかどうかを判定する(ステップS11)。   The determination unit 112 determines whether there is an instruction to display the teaching image 210 based on the operation information from the input unit 160 (step S11).

表示指示があった場合、判定部112は、入力部160からの操作情報に視点設定情報が含まれるかどうか、すなわち、視点変更指示があるかどうかを判定する(ステップS12)。   When there is a display instruction, the determination unit 112 determines whether or not viewpoint setting information is included in the operation information from the input unit 160, that is, whether or not there is a viewpoint change instruction (step S12).

視点変更指示があった場合、画像生成部111は、視点設定情報に基づき、視点(視点位置および視線方向)を変更し(ステップS13)、3Dモーションデータ121に基づき、当該視点から見た場合の教示画像210を生成する(ステップS14)。   When there is a viewpoint change instruction, the image generation unit 111 changes the viewpoint (viewpoint position and line-of-sight direction) based on the viewpoint setting information (step S13), and when viewed from the viewpoint based on the 3D motion data 121. A teaching image 210 is generated (step S14).

一方、視点変更指示がなかった場合、画像生成部111は、3Dモーションデータ121に基づき、既定の視点から見た場合の教示画像210を生成する(ステップS14)。   On the other hand, when there is no viewpoint change instruction, the image generation unit 111 generates a teaching image 210 when viewed from a predetermined viewpoint based on the 3D motion data 121 (step S14).

そして、ディスプレイ191は、教示画像210を表示する(ステップS15)。   Then, the display 191 displays the teaching image 210 (Step S15).

以上の手順により、教示画像210が表示され、ユーザーは、教示者の動作を確認することができる。   Through the above procedure, the teaching image 210 is displayed, and the user can confirm the operation of the teacher.

ユーザーは、教示者の動作を確認した後、撮像部170を用いて自分の動作を撮像する。より具体的には、入力部160によって撮像指示の操作情報が入力された場合、制御部113は、撮像部170を制御して撮像させる。   After confirming the operation of the teacher, the user images his / her operation using the imaging unit 170. More specifically, when the operation information of the imaging instruction is input by the input unit 160, the control unit 113 controls the imaging unit 170 to perform imaging.

そして、判定部112は、撮像部170から撮像データ123の入力があるかどうかを判定する(ステップS2)。   Then, the determination unit 112 determines whether there is input of the imaging data 123 from the imaging unit 170 (step S2).

撮像データ123の入力があった場合、更新部114は、撮像データ123を記憶部120に記憶する。   When the imaging data 123 is input, the update unit 114 stores the imaging data 123 in the storage unit 120.

そして、携帯電話10は、教示者の動作とユーザーの動作を比較するための比較処理を実行する(ステップS4)。   Then, the cellular phone 10 executes a comparison process for comparing the operation of the teacher and the operation of the user (step S4).

図6は、本実施例における比較処理のフローチャートである。   FIG. 6 is a flowchart of the comparison process in the present embodiment.

判定部112は、入力部160からの操作情報に基づき、比較画像200の表示指示があるかどうかを判定する(ステップS21)。   The determination unit 112 determines whether there is an instruction to display the comparative image 200 based on the operation information from the input unit 160 (step S21).

表示指示があった場合、判定部112は、入力部160からの操作情報に視点設定情報が含まれるかどうか、すなわち、視点変更指示があるかどうかを判定する(ステップS22)。   When there is a display instruction, the determination unit 112 determines whether or not viewpoint setting information is included in the operation information from the input unit 160, that is, whether or not there is a viewpoint change instruction (step S22).

視点変更指示があった場合、画像生成部111は、視点設定情報に基づき、視点を変更し(ステップS23)、3Dモーションデータ121に基づき、撮像画像220と当該視点から見た場合の教示画像210を含む比較画像200を生成する(ステップS14)。   When there is a viewpoint change instruction, the image generation unit 111 changes the viewpoint based on the viewpoint setting information (step S23), and based on the 3D motion data 121, the captured image 220 and the teaching image 210 when viewed from the viewpoint are displayed. Is generated (step S14).

一方、視点変更指示がなかった場合、画像生成部111は、3Dモーションデータ121に基づき、撮像画像220と既定の視点から見た場合の教示画像210を含む比較画像200を生成する(ステップS24)。   On the other hand, when there is no instruction to change the viewpoint, the image generation unit 111 generates a comparison image 200 including the captured image 220 and the teaching image 210 when viewed from a predetermined viewpoint, based on the 3D motion data 121 (step S24). .

そして、ディスプレイ191は、比較画像200を表示する(ステップS25)。   Then, the display 191 displays the comparison image 200 (Step S25).

以上の手順により、比較画像200が表示され、ユーザーは、教示者の動作と、自分の動作を比較しながら確認することができる。   Through the above procedure, the comparison image 200 is displayed, and the user can confirm the operation while comparing the operation of the instructor with his own operation.

以上のように、本実施例によれば、画像生成システムは、ユーザーの所望の視点から見た場合の教示者の動作を示す教示画像210を生成することができる。これにより、ユーザーは、自分の撮像画像220の視点に合わせた視点、あるいは、自分の所望の視点から教示者の動作を確認することができる。   As described above, according to the present embodiment, the image generation system can generate the teaching image 210 indicating the operation of the teacher when viewed from the viewpoint desired by the user. Thereby, the user can confirm the operation of the teacher from the viewpoint that matches the viewpoint of the captured image 220 of the user or the desired viewpoint of the user.

これにより、ユーザーは、従来のビデオ画像等の教示画像では隠れてしまっていた部分も確認することができる。   As a result, the user can also check a portion that has been hidden in a conventional teaching image such as a video image.

また、本実施例によれば、画像生成システムは、教示画像210と撮像画像220とがそれぞれ異なる領域に配置された比較画像200を生成することにより、ユーザーは、両者の相違を把握しやすく、自分の動作が適切かどうかを容易に判別できる。   Further, according to the present embodiment, the image generation system generates the comparison image 200 in which the teaching image 210 and the captured image 220 are arranged in different regions, so that the user can easily grasp the difference between the two. You can easily determine whether your behavior is appropriate.

さらに、本実施例によれば、ユーザーは、携帯電話10に内蔵されているカメラで撮像することによって撮像画像220を簡易に生成することができる。   Furthermore, according to the present embodiment, the user can easily generate the captured image 220 by capturing an image with the camera built in the mobile phone 10.

したがって、画像生成システムは、撮像画像220と教示画像210とを簡易かつ適切に提示することができる。   Therefore, the image generation system can present the captured image 220 and the teaching image 210 simply and appropriately.

(変形例)
なお、本発明の適用は上述した実施例に限定されず、種々の変形が可能である。
(Modification)
In addition, application of this invention is not limited to the Example mentioned above, A various deformation | transformation is possible.

例えば、上述した実施例では、携帯電話10は、教示画像210と撮像画像220を上下に並べて表示したが、左右に並べて表示したり、重ねて表示したり、教示画像210と撮像画像220を交互に表示したりしてもよい。   For example, in the above-described embodiment, the mobile phone 10 displays the teaching image 210 and the captured image 220 side by side, but displays the teaching image 210 and the captured image 220 alternately. Or may be displayed.

図7は、本実施例における比較画像202の他の一例を示す図である。   FIG. 7 is a diagram illustrating another example of the comparative image 202 in the present embodiment.

比較画像202では、教示画像210における教示者の背景部分が透明(半透明でもよい。)になっている。画像生成部111は、撮像画像220に教示画像210を重ねて比較画像202を生成する。   In the comparative image 202, the background portion of the teacher in the teaching image 210 is transparent (may be translucent). The image generation unit 111 generates the comparison image 202 by superimposing the teaching image 210 on the captured image 220.

これにより、図7に示すように、教示者とユーザーが重なった状態の比較画像202が表示されるため、ユーザーは、動作の相違を判別しやすい。   As a result, as shown in FIG. 7, the comparison image 202 in a state where the teacher and the user overlap each other is displayed, so that the user can easily discriminate the difference in operation.

また、この場合、判定部112が、教示画像210における教示者を構成する少なくとも1つの色と、撮像画像220におけるユーザーを構成する少なくとも1つの色とが一致するかどうかを判定してもよい。   In this case, the determination unit 112 may determine whether at least one color constituting the teacher in the teaching image 210 matches at least one color constituting the user in the captured image 220.

そして、画像生成部111は、判定部112によって色が一致すると判定された場合、教示画像210または撮像画像220における一致した色の部分を別の色に変更して比較画像202を生成してもよい。   Then, if the determination unit 112 determines that the colors match, the image generation unit 111 may generate the comparison image 202 by changing the matching color portion in the teaching image 210 or the captured image 220 to another color. Good.

これによれば、画像生成システムは、色を変更することにより、教示画像210と撮像画像220とを重ねた比較画像202を生成する場合に、撮像画像220と教示画像210の両者の相違をよりわかりやすく提示することができる。   According to this, when the image generation system generates the comparison image 202 in which the teaching image 210 and the captured image 220 are overlapped by changing the color, the difference between the captured image 220 and the teaching image 210 is further increased. It can be presented in an easy-to-understand manner.

また、画像生成部111は、入力部160からのユーザーの操作情報に基づき、図7に示すように、比較画像202における教示者の位置をユーザーの位置とずらして比較画像202を生成してもよい。   Further, the image generation unit 111 may generate the comparison image 202 based on the user operation information from the input unit 160 by shifting the position of the teacher in the comparison image 202 from the user position, as shown in FIG. Good.

また、入力部160は、キーフレームを示す指定情報を入力してもよい。そして、画像生成部111は、指定情報と、アドレスデータ122と、3Dモーションデータ121に基づき、キーフレームを基準とする部分(例えば、キーフレームの前後数フレーム、キーフレーム以後の数フレーム、キーフレーム以前の数フレーム等)の教示画像210を生成してもよい。   Further, the input unit 160 may input designation information indicating a key frame. The image generation unit 111 then uses the key information as a reference (for example, several frames before and after the key frame, several frames after the key frame, key frame, based on the designation information, the address data 122, and the 3D motion data 121. A teaching image 210 of several previous frames or the like may be generated.

これによれば、画像生成システムは、ユーザーの指定に応じてキーフレームを基準とする部分の教示画像210をスムーズに生成することができる。   According to this, the image generation system can smoothly generate the teaching image 210 of the part based on the key frame in accordance with the user's designation.

より具体的には、例えば、ゴルフのスイング動作の場合、携帯電話10は、アドレス、トップ、インパクト、フィニッシュのそれぞれをキーフレームとして設定し、ユーザーがトップを指定した場合、トップ状態の前後数フレームの教示画像210を表示してもよい。   More specifically, for example, in the case of golf swing motion, the mobile phone 10 sets each of address, top, impact, and finish as key frames, and when the user designates the top, several frames before and after the top state The teaching image 210 may be displayed.

また、携帯電話10は、3Dモーションデータ121を用いることにより、教示者の部位(右腕、左足、頭等)ごとに教示画像210を生成したり、拡大または縮小して教示画像210を生成したり、教示画像210の再生速度を調整したり、教示画像210の再生開始位置を調整したりしてもよい。   In addition, the mobile phone 10 uses the 3D motion data 121 to generate the teaching image 210 for each part of the teacher (right arm, left foot, head, etc.), or generate the teaching image 210 by enlarging or reducing it. The playback speed of the teaching image 210 may be adjusted, or the playback start position of the teaching image 210 may be adjusted.

また、教示画像210における教示者の画像は、教示者の撮像画像であってもよいし、キャラクターの画像であってもよい。   The teacher image in the teaching image 210 may be a captured image of the teacher or a character image.

また、ユーザーの撮像データ123は、1種類だけでなく、複数種類であってもよい。例えば、画像生成部111は、ユーザーの指定された撮像データに基づく撮像画像と、最新の撮像データに基づく撮像画像を並べた比較画像を生成してもよい。これによれば、ユーザーは、自分の過去の動作と現在の動作を比較することができる。   Moreover, the user's imaging data 123 may be not only one type but also a plurality of types. For example, the image generation unit 111 may generate a comparative image in which a captured image based on user-specified imaging data and a captured image based on the latest imaging data are arranged. According to this, the user can compare his past motion with the current motion.

また、携帯電話10は、撮像データ123に基づく撮像画像220を、いわゆる待ち受け画像として用いてもよい。   The mobile phone 10 may use the captured image 220 based on the captured data 123 as a so-called standby image.

また、通信部196は、撮像データ123を他の携帯電話等に送信してもよい。そして、撮像データ123が送信された携帯電話等が撮像画像を表示してもよい。   Further, the communication unit 196 may transmit the imaging data 123 to another mobile phone or the like. A mobile phone or the like to which the imaging data 123 is transmitted may display the captured image.

また、サーバー20が、3Dモーションデータ121を携帯電話10に配信してもよい。これによれば、3Dモーションデータ121が更新されるため、教示画像210も更新されることにより、長期的にユーザーに本システムを使用させることができる。   Further, the server 20 may distribute the 3D motion data 121 to the mobile phone 10. According to this, since the 3D motion data 121 is updated, the teaching image 210 is also updated, so that the user can use the system for a long time.

また、3Dモーションデータ121をワイヤーフレームで構成してもよい。この場合、画像生成部111は、当該ワイヤーフレームにテクスチャーデータに基づくテクスチャーを貼り付けて教示画像210を生成してもよい。   Further, the 3D motion data 121 may be configured by a wire frame. In this case, the image generation unit 111 may generate the teaching image 210 by pasting a texture based on the texture data on the wire frame.

また、画像生成システムは、携帯電話10だけでなく、家庭用ゲーム装置、業務用ゲーム装置、携帯型ゲーム装置、PC、PDA等の種々の装置に実装可能である。   The image generation system can be mounted not only on the mobile phone 10 but also on various devices such as a home game device, an arcade game device, a portable game device, a PC, and a PDA.

例えば、画像生成システムを携帯型ゲーム装置に実装する場合、携帯型ゲーム装置は、デジタルビデオカメラ等で撮像されたユーザーの撮像データ123を入力することにより、上述した携帯電話10と同様の作用効果を奏することができる。   For example, when the image generation system is mounted on a portable game device, the portable game device inputs the user's image data 123 imaged with a digital video camera or the like, thereby providing the same effects as the above-described cellular phone 10. Can be played.

また、本発明の適用対象は、上述したダンスに限定されず、例えば、ゴルフ、野球等のスポーツ、バレエ、演劇、フィットネス、楽器演奏等にも本発明を適用可能である。   The application target of the present invention is not limited to the dance described above, and the present invention can be applied to sports such as golf and baseball, ballet, theater, fitness, musical instrument performance, and the like.

本実施例における画像生成システムが用いられるシステムの全体図である。1 is an overall view of a system in which an image generation system in the present embodiment is used. 本実施例における比較画像の一例を示す図である。It is a figure which shows an example of the comparative image in a present Example. 本実施例における携帯電話の機能ブロック図である。It is a functional block diagram of the mobile phone in a present Example. 本実施例における確認処理から比較処理までの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process from the confirmation process in a present Example to a comparison process. 本実施例における確認処理のフローチャートである。It is a flowchart of the confirmation process in a present Example. 本実施例における比較処理のフローチャートである。It is a flowchart of the comparison process in a present Example. 本実施例における比較画像の他の一例を示す図である。It is a figure which shows another example of the comparative image in a present Example.

符号の説明Explanation of symbols

10 携帯電話(画像生成システム)
20 サーバー
111 画像生成部
112 判定部
120 記憶部
121 3Dモーションデータ
122 アドレスデータ
123 撮像データ
160 入力部
170 撮像部
180 情報記憶媒体
196 通信部
200、202 確認画像
210 教示画像
220 撮像画像
10 Mobile phone (image generation system)
20 server 111 image generation unit 112 determination unit 120 storage unit 121 3D motion data 122 address data 123 imaging data 160 input unit 170 imaging unit 180 information storage medium 196 communication unit 200, 202 confirmation image 210 teaching image 220 captured image

Claims (7)

視点を示す視点設定情報を入力する入力部と、
教示者の動作を示す3次元モーションデータと、撮像対象者の動作を示す撮像データとを記憶する記憶部と、
前記視点設定情報と、前記3次元モーションデータとに基づき、前記視点から見た場合の前記教示者の動作を示す教示画像を生成するとともに、前記撮像データに基づき、前記撮像対象者の動作を示す撮像画像を生成する画像生成部と、
を含むことを特徴とする画像生成システム。
An input unit for inputting viewpoint setting information indicating a viewpoint;
A storage unit for storing three-dimensional motion data indicating the operation of the teacher and imaging data indicating the operation of the imaging subject;
Based on the viewpoint setting information and the three-dimensional motion data, a teaching image indicating the operation of the instructor when viewed from the viewpoint is generated, and the operation of the imaging subject is illustrated based on the imaging data. An image generation unit for generating a captured image;
An image generation system comprising:
請求項1において、
前記教示画像における前記教示者以外の部分は、透明または半透明であって、
前記画像生成部は、前記教示画像と前記撮像画像とを重ねた比較画像を生成することを特徴とする画像生成システム。
In claim 1,
The part other than the teacher in the teaching image is transparent or translucent,
The image generation system generates a comparison image in which the teaching image and the captured image are overlapped with each other.
請求項2において、
前記教示画像における前記教示者を構成する少なくとも1つの色と、前記撮像画像における前記動作対象者を構成する少なくとも1つの色とが一致するかどうかを判定する判定部を含み、
前記画像生成部は、前記判定部によって色が一致すると判定された場合、前記教示画像または前記撮像画像における一致した色の部分を別の色に変更して前記比較画像を生成することを特徴とする画像生成システム。
In claim 2,
A determination unit that determines whether at least one color constituting the teacher in the teaching image matches at least one color constituting the operation target person in the captured image;
When the determination unit determines that the colors match, the image generation unit generates the comparison image by changing a part of the matching color in the teaching image or the captured image to another color. Image generation system.
請求項1において、
前記画像生成部は、前記教示画像と前記撮像画像とがそれぞれ異なる領域に配置された比較画像を生成することを特徴とする画像生成システム。
In claim 1,
The image generation system generates a comparison image in which the teaching image and the captured image are arranged in different regions.
請求項1〜4のいずれかにおいて、
前記記憶部は、前記3次元モーションデータのうち、前記教示画像の少なくとも1つのキーフレームとなる部分のアドレスを示すアドレスデータを記憶し、
前記入力部は、前記キーフレームを示す指定情報を入力し、
前記画像生成部は、前記指定情報と、前記アドレスデータと、前記3次元モーションデータとに基づき、前記キーフレームを基準とする部分の前記教示画像を生成することを特徴とする画像生成システム。
In any one of Claims 1-4,
The storage unit stores address data indicating an address of a portion serving as at least one key frame of the teaching image in the three-dimensional motion data,
The input unit inputs designation information indicating the key frame,
The image generation system, wherein the image generation unit generates the teaching image of a portion based on the key frame based on the designation information, the address data, and the three-dimensional motion data.
コンピュータを、
視点を示す視点設定情報を入力する入力部と、
教示者の動作を示す3次元モーションデータと、撮像対象者の動作を示す撮像データとを記憶する記憶部と、
前記視点設定情報と、前記3次元モーションデータとに基づき、前記視点から見た場合の前記教示者の動作を示す教示画像を生成するとともに、前記撮像データに基づき、前記撮像対象者の動作を示す撮像画像を生成する画像生成部として機能させることを特徴とするプログラム。
Computer
An input unit for inputting viewpoint setting information indicating a viewpoint;
A storage unit for storing three-dimensional motion data indicating the operation of the teacher and imaging data indicating the operation of the imaging subject;
Based on the viewpoint setting information and the three-dimensional motion data, a teaching image indicating the operation of the instructor when viewed from the viewpoint is generated, and the operation of the imaging subject is illustrated based on the imaging data. A program that functions as an image generation unit that generates a captured image.
請求項6に記載のプログラムを記憶した、コンピュータ読み取り可能な情報記憶媒体。   A computer-readable information storage medium storing the program according to claim 6.
JP2005142818A 2005-05-16 2005-05-16 Image generation system, program, and information storage medium Withdrawn JP2006318385A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005142818A JP2006318385A (en) 2005-05-16 2005-05-16 Image generation system, program, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005142818A JP2006318385A (en) 2005-05-16 2005-05-16 Image generation system, program, and information storage medium

Publications (1)

Publication Number Publication Date
JP2006318385A true JP2006318385A (en) 2006-11-24

Family

ID=37538978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005142818A Withdrawn JP2006318385A (en) 2005-05-16 2005-05-16 Image generation system, program, and information storage medium

Country Status (1)

Country Link
JP (1) JP2006318385A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008264367A (en) * 2007-04-24 2008-11-06 Nintendo Co Ltd Training program and training apparatus
JP2011077731A (en) * 2009-09-29 2011-04-14 Jvc Kenwood Holdings Inc Photographed video image processing apparatus, control method, and program
EP2359917A1 (en) 2010-01-27 2011-08-24 NAMCO BANDAI Games Inc. Input determination device and input determination method
CN105528923A (en) * 2016-02-03 2016-04-27 张燕丽 Art teaching system
JP2016174637A (en) * 2015-03-18 2016-10-06 株式会社タイトー Dance apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008264367A (en) * 2007-04-24 2008-11-06 Nintendo Co Ltd Training program and training apparatus
JP2011077731A (en) * 2009-09-29 2011-04-14 Jvc Kenwood Holdings Inc Photographed video image processing apparatus, control method, and program
EP2359917A1 (en) 2010-01-27 2011-08-24 NAMCO BANDAI Games Inc. Input determination device and input determination method
US8784201B2 (en) 2010-01-27 2014-07-22 Namco Bandai Games Inc. Information storage medium, game system, and input determination method
JP2016174637A (en) * 2015-03-18 2016-10-06 株式会社タイトー Dance apparatus
CN105528923A (en) * 2016-02-03 2016-04-27 张燕丽 Art teaching system

Similar Documents

Publication Publication Date Title
JP5566397B2 (en) Mobile devices for augmented reality applications
US8731332B2 (en) Storage medium having image recognition program stored therein, image recognition apparatus, image recognition system, and image recognition method
JP4869430B1 (en) Image processing program, image processing apparatus, image processing system, and image processing method
JP5739671B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP5254906B2 (en) Electronics
US20120075496A1 (en) Computer-readable storage medium having stored thereon image generation program, capturing apparatus, capturing system, and image generation method
US9509907B2 (en) Information processing device, storage medium having moving image data stored thereon, information processing system, storage medium having moving image reproduction program stored thereon, and moving image reproduction method
JP2012003350A (en) Image display program, device, system, and method
JP2012139318A (en) Display control program, display control apparatu, display control system, and display control method
JP5226038B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP2012169911A (en) Display control program, display controller, display control system, and display control method
CN111028566A (en) Live broadcast teaching method, device, terminal and storage medium
JP2006318385A (en) Image generation system, program, and information storage medium
JP5583741B2 (en) Portable terminal device, terminal program, and toy
JP5602702B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
JP2023027113A (en) Program, electronic apparatus and control method
JP2005230056A (en) Game device and program
JP5723149B2 (en) Image processing system, image processing program, image processing method, and image processing apparatus
JPWO2019026919A1 (en) Image processing system, image processing method, and program
JP5770018B2 (en) Display control program, display control apparatus, display control method, and display control system
JP2020119335A (en) Program, camera work data generation method, and electronic apparatus
JP5739670B2 (en) Image display program, apparatus, system and method
JP4762050B2 (en) Display processing apparatus, display processing method, and computer program
JP2012178745A (en) Communication control device, communication control program, communication control method, and information processing system
JP2012004669A (en) Program, device, system, and method for displaying three-dimensional image

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080805