JP5066047B2 - Information processing apparatus, information processing method, program, and information storage medium - Google Patents

Information processing apparatus, information processing method, program, and information storage medium Download PDF

Info

Publication number
JP5066047B2
JP5066047B2 JP2008256597A JP2008256597A JP5066047B2 JP 5066047 B2 JP5066047 B2 JP 5066047B2 JP 2008256597 A JP2008256597 A JP 2008256597A JP 2008256597 A JP2008256597 A JP 2008256597A JP 5066047 B2 JP5066047 B2 JP 5066047B2
Authority
JP
Japan
Prior art keywords
image
distance
basic data
position coordinates
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008256597A
Other languages
Japanese (ja)
Other versions
JP2010085322A5 (en
JP2010085322A (en
Inventor
智史 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2008256597A priority Critical patent/JP5066047B2/en
Priority to EP09817726.4A priority patent/EP2343685B1/en
Priority to CN200980139029.5A priority patent/CN102171726B/en
Priority to PCT/JP2009/066749 priority patent/WO2010038693A1/en
Priority to US13/121,318 priority patent/US8724849B2/en
Publication of JP2010085322A publication Critical patent/JP2010085322A/en
Publication of JP2010085322A5 publication Critical patent/JP2010085322A5/ja
Application granted granted Critical
Publication of JP5066047B2 publication Critical patent/JP5066047B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、情報処理装置、情報処理方法、プログラム及び情報記憶媒体に関する。   The present invention relates to an information processing apparatus, an information processing method, a program, and an information storage medium.

ビデオカメラなどで撮像される人間などの移動体の動きを情報処理装置に取り込むモーションキャプチャに関する技術が知られている。例えば、ビデオカメラで移動体を撮像することにより生成される一連の画像に基づいて、その移動体の動きを示すモーションデータを生成する情報処理装置が存在する。このような情報処理装置のなかには、ユーザが、生成される画像内のいくつかの位置をマーキングし、それぞれのマークの前後関係を指定することで、移動体の立体的な動きをシミュレートしてモーションデータを生成することができるものが存在する。   A technique relating to motion capture that captures the movement of a moving body such as a human being imaged by a video camera or the like into an information processing apparatus is known. For example, there is an information processing apparatus that generates motion data indicating the movement of a moving object based on a series of images generated by imaging the moving object with a video camera. In such an information processing device, a user marks several positions in an image to be generated and specifies the context of each mark to simulate the three-dimensional movement of a moving object. There is something that can generate motion data.

しかしながら、従来の情報処理装置では、移動体の立体的な動きをシミュレートしてモーションデータを生成する際に、ユーザが画像内の位置を指定する必要があり、手間がかかっていた。   However, in the conventional information processing apparatus, when the motion data is generated by simulating the three-dimensional movement of the moving body, it is necessary for the user to specify the position in the image, which is troublesome.

本発明は、上記課題に鑑みてなされたものであって、移動体の立体的な動きをシミュレートしてモーションデータを生成する際におけるユーザの手間を軽減することができる情報処理装置、情報処理方法、プログラム及び情報記憶媒体を提供することを目的とする。   The present invention has been made in view of the above problems, and is an information processing apparatus and information processing that can reduce the user's trouble in generating motion data by simulating the three-dimensional movement of a moving object It is an object to provide a method, a program, and an information storage medium.

上記課題を解決するために、本発明に係る情報処理装置は、所定の移動体の動きを示すモーションデータを生成する情報処理装置であって、前記移動体を含む少なくとも1つの物体を撮像手段が撮像することにより生成される画像と、距離測定手段による測定結果に基づく、当該画像に表示されている物体と前記撮像手段との距離を示す距離データと、を含む基礎データを複数取得する基礎データ取得手段と、前記各基礎データに含まれる画像に基づいて、前記移動体が表示されている当該画像内の位置を特定する画像内位置特定手段と、前記画像内位置特定手段により特定される前記画像内の位置と、当該画像を含む基礎データに含まれる前記距離データと、に基づいて、前記移動体と前記撮像手段との距離を特定する距離特定手段と、前記画像内位置特定手段により特定される前記画像内の位置と、前記距離特定手段により特定される距離と、に基づいて、前記移動体の三次元空間内における位置座標を算出する位置座標算出手段と、前記各基礎データに基づいて算出される前記位置座標に基づいて、前記移動体の三次元空間内における動きを示すモーションデータを生成するモーションデータ生成手段と、を含むことを特徴とする。   In order to solve the above-described problems, an information processing apparatus according to the present invention is an information processing apparatus that generates motion data indicating a motion of a predetermined moving body, and an imaging unit captures at least one object including the moving body. Basic data for acquiring a plurality of basic data including an image generated by imaging and distance data indicating a distance between the object displayed on the image and the imaging unit based on a measurement result by the distance measuring unit Based on an image included in each of the basic data, an acquisition unit, an in-image position specifying unit that specifies a position in the image where the moving body is displayed, and the in-image position specifying unit A distance specifying means for specifying a distance between the moving body and the imaging means based on a position in the image and the distance data included in the basic data including the image; Position coordinate calculating means for calculating position coordinates in the three-dimensional space of the moving body based on the position in the image specified by the position specifying means in the image and the distance specified by the distance specifying means; And motion data generating means for generating motion data indicating the movement of the movable body in a three-dimensional space based on the position coordinates calculated based on the basic data.

また、本発明に係る情報処理方法は、所定の移動体の動きを示すモーションデータを生成する情報処理方法であって、前記移動体を含む少なくとも1つの物体を撮像手段が撮像することにより生成される画像と、距離測定手段による測定結果に基づく、当該画像に表示されている物体と前記撮像手段との距離を示す距離データと、を含む基礎データを複数取得する基礎データ取得ステップと、前記各基礎データに含まれる画像に基づいて、前記移動体が表示されている当該画像内の位置を特定する画像内位置特定ステップと、前記画像内位置特定ステップにより特定される前記画像内の位置と、当該画像を含む基礎データに含まれる前記距離データと、に基づいて、前記移動体と前記撮像手段との距離を特定する距離特定ステップと、前記画像内位置特定ステップにより特定される前記画像内の位置と、前記距離特定ステップにより特定される距離と、に基づいて、前記移動体の三次元空間内における位置座標を算出する位置座標算出ステップと、前記各基礎データに基づいて算出される前記位置座標に基づいて、前記移動体の三次元空間内における動きを示すモーションデータを生成するモーションデータ生成ステップと、を含むことを特徴とする。   The information processing method according to the present invention is an information processing method for generating motion data indicating a motion of a predetermined moving body, and is generated when an imaging unit images at least one object including the moving body. A basic data acquisition step for acquiring a plurality of basic data including an image and a distance data indicating a distance between the object displayed in the image and the imaging unit based on a measurement result by the distance measuring unit; Based on the image included in the basic data, an in-image position specifying step for specifying the position in the image where the moving body is displayed; a position in the image specified by the in-image position specifying step; A distance specifying step for specifying a distance between the moving body and the imaging means based on the distance data included in the basic data including the image; A position coordinate calculating step for calculating a position coordinate in the three-dimensional space of the moving body based on the position in the image specified by the inner position specifying step and the distance specified by the distance specifying step; And a motion data generation step of generating motion data indicating movement of the mobile body in a three-dimensional space based on the position coordinates calculated based on the basic data.

また、本発明に係るプログラムは、所定の移動体の動きを示すモーションデータを生成する情報処理装置としてコンピュータを機能させるプログラムであって、前記移動体を含む少なくとも1つの物体を撮像手段が撮像することにより生成される画像と、距離測定手段による測定結果に基づく、当該画像に表示されている物体と前記撮像手段との距離を示す距離データと、を含む基礎データを複数取得する基礎データ取得手段、前記各基礎データに含まれる画像に基づいて、前記移動体が表示されている当該画像内の位置を特定する画像内位置特定手段、前記画像内位置特定手段により特定される前記画像内の位置と、当該画像を含む基礎データに含まれる前記距離データと、に基づいて、前記移動体と前記撮像手段との距離を特定する距離特定手段、前記画像内位置特定手段により特定される前記画像内の位置と、前記距離特定手段により特定される距離と、に基づいて、前記移動体の三次元空間内における位置座標を算出する位置座標算出手段、前記各基礎データに基づいて算出される前記位置座標に基づいて、前記移動体の三次元空間内における動きを示すモーションデータを生成するモーションデータ生成手段として前記コンピュータを機能させることを特徴とする。   The program according to the present invention is a program that causes a computer to function as an information processing apparatus that generates motion data indicating a motion of a predetermined moving body, and an imaging unit images at least one object including the moving body. Basic data acquisition means for acquiring a plurality of basic data including an image generated by the measurement and distance data indicating a distance between the object displayed in the image and the imaging means based on a measurement result by the distance measurement means A position in the image that is specified by the position specifying means in the image, and a position in the image that is specified by the position specifying means in the image based on the image included in each basic data And the distance specifying the distance between the moving body and the imaging means based on the distance data included in the basic data including the image A position for calculating a position coordinate in the three-dimensional space of the moving body based on a position in the image specified by the determining means and the position specifying means in the image and a distance specified by the distance specifying means Coordinate calculation means, causing the computer to function as motion data generation means for generating motion data indicating movement of the mobile body in a three-dimensional space based on the position coordinates calculated based on the basic data. Features.

また、上記のプログラムはコンピュータ読み取り可能な情報記憶媒体に格納することもできる。   The above program can also be stored in a computer-readable information storage medium.

本発明によると、距離測定手段による測定結果に基づく距離データに基づいて、移動体の三次元空間内における位置座標が算出されるので、移動体の立体的な動きをシミュレートしてモーションデータを生成する際におけるユーザの手間を軽減することができる。   According to the present invention, since the position coordinates in the three-dimensional space of the moving object are calculated based on the distance data based on the measurement result by the distance measuring means, the motion data is simulated by simulating the three-dimensional movement of the moving object. It is possible to reduce the user's trouble in generating.

本発明の一態様では、前記移動体が複数の要素を含み、前記画像内位置特定手段が、前記移動体に含まれる要素のうちの少なくとも一部の各要素が表示されている当該画像内の位置を特定し、前記距離特定手段が、前記移動体に含まれる要素のうちの少なくとも一部の各要素と前記撮像手段との距離を特定し、前記位置座標算出手段が、前記移動体に含まれる要素のうちの少なくとも一部の各要素の三次元空間内における位置座標を算出し、前記位置座標算出手段により、前記基礎データに基づいて前記移動体に含まれる複数の要素のうちの欠落要素の位置座標が算出されない場合は、前記位置座標算出手段が、当該欠落要素の位置座標を、前記基礎データ取得手段が取得する複数の基礎データのうちの、当該基礎データとは異なる基礎データに基づいて算出することを特徴とする。こうすれば、基礎データからは三次元空間内における欠落要素の位置座標が算出されない場合に、基礎データ取得手段が取得する複数の基礎データのうちの、当該基礎データとは異なる基礎データに基づいて、この欠落要素の三次元空間内における位置座標を算出することができる。   In one aspect of the present invention, the moving body includes a plurality of elements, and the in-image position specifying unit includes at least a part of the elements included in the moving body. The position is specified, the distance specifying means specifies the distance between at least some of the elements included in the moving body and the imaging means, and the position coordinate calculating means is included in the moving body. The position coordinates in the three-dimensional space of each element of at least some of the elements to be calculated are calculated, and the position coordinate calculation unit is used to calculate a missing element among the plurality of elements included in the moving body based on the basic data If the position coordinates of the missing element are not calculated, the position coordinate calculation means calculates the position coordinates of the missing element from the basic data different from the basic data among the plurality of basic data acquired by the basic data acquisition means. And calculating on the basis of. In this way, when the position coordinates of the missing element in the three-dimensional space are not calculated from the basic data, based on the basic data different from the basic data among the plurality of basic data acquired by the basic data acquisition means. The position coordinates of the missing element in the three-dimensional space can be calculated.

また、この態様では、前記位置座標算出手段により前記欠落要素の位置座標が算出されない状態が所定時間にわたり継続する場合は、前記位置座標算出手段が、当該欠落要素の位置座標を、前記時間の前において最後に算出される当該欠落要素の位置座標と、前記時間の後において最初に算出される当該欠落要素の位置座標と、に基づいて算出してもよい。こうすれば、三次元空間内における欠落要素の位置座標の算出が所定時間にわたりできない場合に、三次元空間内におけるこれらの欠落要素の位置座標を、この所定時間の直前及び直後に算出される当該欠落要素の位置座標に基づいて算出することができる。   Further, in this aspect, when the position coordinate calculation unit does not calculate the position coordinate of the missing element continues for a predetermined time, the position coordinate calculation unit sets the position coordinate of the missing element before the time. May be calculated based on the position coordinates of the missing element calculated last in step 1 and the position coordinates of the missing element calculated first after the time. In this way, when the position coordinates of the missing elements in the three-dimensional space cannot be calculated over a predetermined time, the position coordinates of these missing elements in the three-dimensional space are calculated immediately before and after the predetermined time. It can be calculated based on the position coordinates of the missing element.

また、この態様では、前記位置座標算出手段により前記欠落要素の位置座標が算出されない場合は、当該欠落要素の位置座標を、当該基礎データとは異なる複数の基礎データそれぞれに基づいて算出される当該欠落要素の位置座標の差分に基づいて算出してもよい。こうすれば、基礎データに基づいて三次元空間内における欠落要素の位置座標が算出されない場合に、この基礎データとは異なる複数の基礎データに基づいて算出される三次元空間内における欠落要素の位置座標の差分の情報を用いて、当該欠落要素の位置座標を算出することができる。   Further, in this aspect, when the position coordinate of the missing element is not calculated by the position coordinate calculation means, the position coordinate of the missing element is calculated based on each of a plurality of basic data different from the basic data. You may calculate based on the difference of the position coordinate of a missing element. In this way, when the position coordinates of the missing element in the three-dimensional space are not calculated based on the basic data, the position of the missing element in the three-dimensional space calculated based on a plurality of basic data different from the basic data. Using the coordinate difference information, the position coordinates of the missing element can be calculated.

また、本発明の一態様では、前記基礎データが、複数の撮像手段それぞれにより生成される画像と、前記各画像を撮像した撮像手段と当該画像に表示されている物体との距離を示す距離データと、を含み、前記画像内位置特定手段が、前記基礎データに含まれる複数の画像それぞれに基づいて、それぞれの画像内の前記移動体が表示されている位置を特定し、前記距離特定手段が、前記移動体と前記各撮像手段との距離を特定し、前記位置座標算出手段が、前記画像内位置特定手段により特定される複数の前記画像内の位置と、前記距離特定手段により特定される複数の前記距離と、に基づいて、前記位置座標を算出することを特徴とする。こうすれば、撮像手段により物体を撮像する際における死角が少なくなるので、基礎データに基づいて移動体の三次元空間内における位置座標が算出されない可能性を減らすことができる。   In one embodiment of the present invention, the basic data is distance data indicating a distance between an image generated by each of a plurality of imaging units, an imaging unit that captured each of the images, and an object displayed in the image. The position specifying means in the image specifies the position where the moving body is displayed in each image based on each of the plurality of images included in the basic data, and the distance specifying means The distance between the moving body and each imaging means is specified, and the position coordinate calculating means is specified by the distance specifying means and the positions in the plurality of images specified by the in-image position specifying means. The position coordinates are calculated based on a plurality of the distances. In this way, since the blind spot when the object is imaged by the imaging means is reduced, it is possible to reduce the possibility that the position coordinates of the moving body in the three-dimensional space are not calculated based on the basic data.

以下、本発明の一実施形態について図面に基づき詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

図1は、本実施形態に係る情報処理システム1のハードウェア構成の一例を示す図である。図1に示すように、本実施形態に係る情報処理システム1は、情報処理装置2と、携帯型ゲーム装置3と、を含んでいる。そして、図2は、本実施形態に係る携帯型ゲーム装置3の一例を示す斜視図である。   FIG. 1 is a diagram illustrating an example of a hardware configuration of an information processing system 1 according to the present embodiment. As shown in FIG. 1, the information processing system 1 according to the present embodiment includes an information processing device 2 and a portable game device 3. FIG. 2 is a perspective view showing an example of the portable game apparatus 3 according to the present embodiment.

情報処理装置2は、制御部21、記憶部22、通信部23、ユーザインタフェース(UI)部24、を含んで構成される。制御部21、記憶部22、通信部23、UI部24、はバスを介して接続される。   The information processing apparatus 2 includes a control unit 21, a storage unit 22, a communication unit 23, and a user interface (UI) unit 24. The control unit 21, the storage unit 22, the communication unit 23, and the UI unit 24 are connected via a bus.

情報処理装置2の制御部21はCPU等のプログラム制御デバイスであり、情報処理装置2にインストールされるプログラムに従って動作する。   The control unit 21 of the information processing apparatus 2 is a program control device such as a CPU, and operates according to a program installed in the information processing apparatus 2.

情報処理装置2の記憶部22は、RAM等の記憶素子やハードディスクなどである。情報処理装置2の記憶部22には、情報処理装置2の制御部21によって実行されるプログラムなどが記憶される。また、情報処理装置2の記憶部22は、情報処理装置2の制御部21のワークメモリとしても動作する。   The storage unit 22 of the information processing apparatus 2 is a storage element such as a RAM or a hard disk. The storage unit 22 of the information processing device 2 stores a program executed by the control unit 21 of the information processing device 2. In addition, the storage unit 22 of the information processing device 2 also operates as a work memory of the control unit 21 of the information processing device 2.

情報処理装置2の通信部23は、例えば、ネットワークインタフェースなどであり、情報処理装置2の制御部21から入力される指示に従って、情報を送信する。また、この情報処理装置2の通信部23は、LANなどのネットワークを介して受信される情報を情報処理装置2の制御部21に出力する。   The communication unit 23 of the information processing apparatus 2 is a network interface, for example, and transmits information according to an instruction input from the control unit 21 of the information processing apparatus 2. The communication unit 23 of the information processing apparatus 2 outputs information received via a network such as a LAN to the control unit 21 of the information processing apparatus 2.

情報処理装置2のUI部24は、ディスプレイ、マイク、スピーカ、ボタンなどであり、利用者が行った操作の内容や、利用者が入力した音声を制御部21に出力する。また、この情報処理装置2のUI部24は、情報処理装置2の制御部21から入力される指示に従って情報を表示出力したり音声出力したりする。   The UI unit 24 of the information processing apparatus 2 is a display, a microphone, a speaker, a button, and the like, and outputs the content of the operation performed by the user and the voice input by the user to the control unit 21. In addition, the UI unit 24 of the information processing device 2 displays and outputs information according to an instruction input from the control unit 21 of the information processing device 2.

図2に示すように、本実施形態に係る携帯型ゲーム装置3の筐体30の形状は、箱形である。そして、図1に示すように、本実施形態に係る携帯型ゲーム装置3は、制御部31、記憶部32、通信部33、表示部34、操作部35、撮像部36、距離測定部37、を備えている。   As shown in FIG. 2, the shape of the housing 30 of the portable game apparatus 3 according to the present embodiment is a box shape. As shown in FIG. 1, the portable game apparatus 3 according to the present embodiment includes a control unit 31, a storage unit 32, a communication unit 33, a display unit 34, an operation unit 35, an imaging unit 36, a distance measurement unit 37, It has.

携帯型ゲーム装置3の制御部31はCPU等のプログラム制御デバイスであり、携帯型ゲーム装置3の記憶部32に格納されたプログラムに従って動作する。   The control unit 31 of the portable game apparatus 3 is a program control device such as a CPU, and operates according to a program stored in the storage unit 32 of the portable game apparatus 3.

携帯型ゲーム装置3の記憶部32は、RAM等の記憶素子やハードディスクなどである。携帯型ゲーム装置3の記憶部32には、携帯型ゲーム装置3の制御部31によって実行されるプログラムなどが格納される。具体的には、例えば、携帯型ゲーム装置3の制御部31で実行されるゲームプログラムが格納される。このゲームプログラムは、例えば、ディスク、CD−ROM、DVD−ROM等の情報伝達媒体を介して、あるいは、インターネット等の通信ネットワークを介して携帯型ゲーム装置3に供給される。また、携帯型ゲーム装置3の記憶部32は、携帯型ゲーム装置3の制御部31のワークメモリとしても動作する。   The storage unit 32 of the portable game apparatus 3 is a storage element such as a RAM or a hard disk. The storage unit 32 of the portable game device 3 stores a program executed by the control unit 31 of the portable game device 3. Specifically, for example, a game program executed by the control unit 31 of the portable game apparatus 3 is stored. This game program is supplied to the portable game apparatus 3 via an information transmission medium such as a disk, CD-ROM, DVD-ROM or the like, or via a communication network such as the Internet. The storage unit 32 of the portable game apparatus 3 also operates as a work memory of the control unit 31 of the portable game apparatus 3.

携帯型ゲーム装置3の通信部33は、例えば、ネットワークインタフェースなど(具体的には、例えば、無線LANモジュール)であり、携帯型ゲーム装置3の制御部31から入力される指示に従って、情報処理装置2などへ情報を送信する。また、この携帯型ゲーム装置3の通信部33は、受信される情報を携帯型ゲーム装置3の制御部31に出力する。   The communication unit 33 of the portable game apparatus 3 is, for example, a network interface or the like (specifically, for example, a wireless LAN module), and the information processing apparatus according to an instruction input from the control unit 31 of the portable game apparatus 3 Send information to 2 etc. In addition, the communication unit 33 of the portable game apparatus 3 outputs the received information to the control unit 31 of the portable game apparatus 3.

本実施形態においては、情報処理装置2の通信部23、及び、携帯型ゲーム装置3の通信部33は、LANなどのネットワークに接続されており互いに通信することができるようになっている。なお、ネットワークは有線であっても無線であっても構わない。   In the present embodiment, the communication unit 23 of the information processing device 2 and the communication unit 33 of the portable game device 3 are connected to a network such as a LAN and can communicate with each other. The network may be wired or wireless.

携帯型ゲーム装置3の表示部34は、例えば液晶ディスプレイ等であり、携帯型ゲーム装置3の制御部31からの指示に従って、画像の表示を行う。本実施形態では、携帯型ゲーム装置3の表示部34は、携帯型ゲーム装置3の筐体30の正面中央部に設けられている。ここで、携帯型ゲーム装置3の制御部31は、携帯型ゲーム装置3の表示部34に、表示される画像の解像度やアスペクト比などといった属性を併せて指示してもよい。また、携帯型ゲーム装置3の制御部31は、実行するプログラムに含まれる、画像の解像度やアスペクト比などといった属性を示す属性情報の内容に従って携帯型ゲーム装置3の表示部34に表示される画像の属性を指示してもよい。   The display unit 34 of the portable game device 3 is, for example, a liquid crystal display, and displays an image in accordance with an instruction from the control unit 31 of the portable game device 3. In the present embodiment, the display unit 34 of the portable game apparatus 3 is provided in the center of the front surface of the housing 30 of the portable game apparatus 3. Here, the control unit 31 of the portable game apparatus 3 may instruct the display unit 34 of the portable game apparatus 3 together with attributes such as the resolution and aspect ratio of the displayed image. Further, the control unit 31 of the portable game apparatus 3 displays an image displayed on the display unit 34 of the portable game apparatus 3 in accordance with the contents of attribute information indicating attributes such as image resolution and aspect ratio included in the program to be executed. You may indicate the attribute.

携帯型ゲーム装置3の操作部35は、例えば、操作部材(具体的には、例えば、十字キーやボタン)であり、当該操作部材に対する操作に応じた出力データを携帯型ゲーム装置3の制御部31に対して出力する。携帯型ゲーム装置3の制御部31は、この出力データを取得することで、当該出力データを用いてプレイヤの操作部材に対する操作に応じた処理を実行する。本実施形態では、携帯型ゲーム装置3の操作部35は、携帯型ゲーム装置3の表示部34の左右に設けられている。すなわち、携帯型ゲーム装置3の操作部35は、携帯型ゲーム装置3の筐体30の正面左側及び正面右側に分かれて配置されている。   The operation unit 35 of the portable game apparatus 3 is, for example, an operation member (specifically, for example, a cross key or a button), and output data corresponding to an operation on the operation member is output to the control unit of the portable game apparatus 3. 31 is output. The control unit 31 of the portable game apparatus 3 acquires the output data, and executes processing corresponding to the operation of the player on the operation member by using the output data. In the present embodiment, the operation unit 35 of the portable game apparatus 3 is provided on the left and right of the display unit 34 of the portable game apparatus 3. In other words, the operation unit 35 of the portable game apparatus 3 is arranged separately on the front left side and the front right side of the housing 30 of the portable game apparatus 3.

携帯型ゲーム装置3の撮像部36は、例えば、公知のデジタルカメラを含んで構成され、所定時間(例えば1/60秒)ごとに、白黒、グレイスケール又はカラーの画像(例えば、JPEG形式の画像)を生成する。なお、携帯型ゲーム装置3の撮像部36は、標準カメラであっても、望遠カメラであっても、広角カメラであっても構わない。本実施形態では、携帯型ゲーム装置3の撮像部36は、携帯型ゲーム装置3の表示部34の上側に設けられている。すなわち、携帯型ゲーム装置3の撮像部36は、筐体30の正面中央付近上側に設けられている。   The imaging unit 36 of the portable game device 3 includes, for example, a known digital camera, and is a black and white, grayscale, or color image (for example, an image in JPEG format) every predetermined time (for example, 1/60 seconds). ) Is generated. Note that the imaging unit 36 of the portable game apparatus 3 may be a standard camera, a telephoto camera, or a wide-angle camera. In the present embodiment, the imaging unit 36 of the portable game device 3 is provided on the upper side of the display unit 34 of the portable game device 3. That is, the imaging unit 36 of the portable game apparatus 3 is provided on the upper side near the front center of the housing 30.

携帯型ゲーム装置3の距離測定部37は、携帯型ゲーム装置3と、その外部に存在する外部物体との距離を測定する。携帯型ゲーム装置3の距離測定部37は、例えば、携帯型ゲーム装置3の撮像部36と、外部物体(より具体的には、例えば、外部物体の表面)との距離(以下、物体距離と呼ぶ。)を測定し、物体距離を示す距離データ44を生成する(図3参照)。なお、距離データ44の詳細については後述する。   The distance measuring unit 37 of the portable game device 3 measures the distance between the portable game device 3 and an external object existing outside the portable game device 3. The distance measuring unit 37 of the portable game apparatus 3 is, for example, a distance between the imaging unit 36 of the portable game apparatus 3 and an external object (more specifically, for example, the surface of the external object) (hereinafter referred to as object distance). The distance data 44 indicating the object distance is generated (see FIG. 3). Details of the distance data 44 will be described later.

本実施形態では、携帯型ゲーム装置3の距離測定部37は、携帯型ゲーム装置3の撮像部36によって生成される画像に含まれる各画素と、各画素に対応する物体距離とを対応づけた距離データ44を生成する。すなわち、本実施形態では、携帯型ゲーム装置3の撮像部36によって生成される画像内の画素の位置と、携帯型ゲーム装置3の距離測定部37で測定される物体距離とは一対一で対応づけられる。   In the present embodiment, the distance measuring unit 37 of the portable game apparatus 3 associates each pixel included in the image generated by the imaging unit 36 of the portable game apparatus 3 with the object distance corresponding to each pixel. Distance data 44 is generated. That is, in the present embodiment, there is a one-to-one correspondence between the pixel position in the image generated by the imaging unit 36 of the portable game device 3 and the object distance measured by the distance measurement unit 37 of the portable game device 3. It is attached.

携帯型ゲーム装置3の距離測定部37は、具体的には、例えば、複数のレンズから構成されるステレオカメラであり、それぞれのレンズの視差に基づいて、外部物体と携帯型ゲーム装置3との距離を測定する。携帯型ゲーム装置3の距離測定部37は、ステレオカメラにはもちろん限定されず、携帯型ゲーム装置3の距離測定部37は、赤外線を出力して、その赤外線が撮像対象オブジェクトに反射して戻ってくるまでの時間を測定して、その測定された時間に基づいて、外部物体と携帯型ゲーム装置3との距離を測定しても構わない。また、携帯型ゲーム装置3の距離測定部37が、焦点距離の異なる複数のレンズから構成され、これらのレンズのうち、外部物体に対してピントが合ったレンズに基づいて、外部物体と携帯型ゲーム装置3との距離を測定しても構わない。なお、本実施形態では、携帯型ゲーム装置3の距離測定部37は、携帯型ゲーム装置3の撮像部36と一体的に形成されており、表示部34の上側に設けられている。すなわち、携帯型ゲーム装置3の距離測定部37は、正面中央付近上側に設けられている。   Specifically, the distance measuring unit 37 of the portable game apparatus 3 is, for example, a stereo camera composed of a plurality of lenses. Based on the parallax of each lens, the distance between the external object and the portable game apparatus 3 is determined. Measure distance. Of course, the distance measuring unit 37 of the portable game apparatus 3 is not limited to a stereo camera, and the distance measuring unit 37 of the portable game apparatus 3 outputs infrared rays, and the infrared rays are reflected back to the imaging target object. You may measure the time until it comes and measure the distance between the external object and the portable game apparatus 3 based on the measured time. In addition, the distance measuring unit 37 of the portable game apparatus 3 includes a plurality of lenses having different focal lengths, and among these lenses, the external object and the portable type are based on a lens that is in focus with respect to the external object. The distance from the game apparatus 3 may be measured. In the present embodiment, the distance measuring unit 37 of the portable game apparatus 3 is formed integrally with the imaging unit 36 of the portable game apparatus 3 and is provided on the upper side of the display unit 34. That is, the distance measuring unit 37 of the portable game apparatus 3 is provided on the upper side near the front center.

本実施形態では、携帯型ゲーム装置3は、基礎データ40を生成し、情報処理装置2に送信する(図3参照)。図3は、基礎データ40のデータ構造の一例を示す図である。図3に示すように、基礎データ40は、ユーザ画像42と距離データ44とを含んでいる。   In the present embodiment, the portable game apparatus 3 generates basic data 40 and transmits it to the information processing apparatus 2 (see FIG. 3). FIG. 3 is a diagram illustrating an example of the data structure of the basic data 40. As shown in FIG. 3, the basic data 40 includes a user image 42 and distance data 44.

本実施形態では、携帯型ゲーム装置3の撮像部36が、所定時間(例えば1/60秒)ごとに、被写体ユーザ46の動く様子を撮像し、一連のユーザ画像42を生成する(図4A〜図4E参照)。ここで、被写体ユーザ46は移動体の一例として示しているにすぎない。撮像部36が、被写体ユーザ46以外の移動体が動く様子を撮像して、その移動体の画像を生成するようにしても構わない。   In the present embodiment, the imaging unit 36 of the portable game apparatus 3 captures the movement of the subject user 46 every predetermined time (for example, 1/60 seconds), and generates a series of user images 42 (FIGS. 4A to 4). (See FIG. 4E). Here, the subject user 46 is only shown as an example of a moving object. The imaging unit 36 may capture a moving body other than the subject user 46 and generate an image of the moving body.

本実施形態では、具体的には、例えば、撮像部36が、被写体ユーザ46を撮像し、順次第nユーザ画像42−n(n=1,2,3・・・)を生成する。図4Aに第1ユーザ画像42−1の一例を、図4Bに第2ユーザ画像42−2の一例を、図4Cに第3ユーザ画像42−3の一例を、図4Dに第4ユーザ画像42−4の一例を、図4Eに第5ユーザ画像42−5の一例を示す。そして、図4A〜図4Eに示すように、本実施形態に係るユーザ画像42には、被写体ユーザ46だけではなく、地面48も表示されている。すなわち、撮像部36により生成される画像には、被写体ユーザ46などの移動体を含む少なくとも1つの物体が表示されている。また、携帯型ゲーム装置3の距離測定部37は、被写体ユーザ46と携帯型ゲーム装置3との距離を順次測定し、第nユーザ画像42−n内の各画素に対応する物体距離を対応づけた第n距離データ44−nを生成する。そして、携帯型ゲーム装置3の制御部31が、第nユーザ画像42−nと、そのユーザ画像42に対応する第n距離データ44−nと、を含む第n基礎データ40−nを生成する。   In the present embodiment, specifically, for example, the imaging unit 36 images the subject user 46 and sequentially generates n-th user images 42-n (n = 1, 2, 3,...). 4A shows an example of the first user image 42-1, FIG. 4B shows an example of the second user image 42-2, FIG. 4C shows an example of the third user image 42-3, and FIG. 4D shows the fourth user image 42. -4, and FIG. 4E shows an example of the fifth user image 42-5. 4A to 4E, the user image 42 according to the present embodiment displays not only the subject user 46 but also the ground 48. That is, at least one object including a moving body such as the subject user 46 is displayed in the image generated by the imaging unit 36. The distance measuring unit 37 of the portable game apparatus 3 sequentially measures the distance between the subject user 46 and the portable game apparatus 3, and associates the object distance corresponding to each pixel in the nth user image 42-n. N-th distance data 44-n is generated. Then, the control unit 31 of the portable game apparatus 3 generates the nth basic data 40-n including the nth user image 42-n and the nth distance data 44-n corresponding to the user image 42. .

そして、携帯型ゲーム装置3の通信部33が基礎データ40を情報処理装置2に送信する。そして、情報処理装置2の通信部23がこの基礎データ40を受信する。   Then, the communication unit 33 of the portable game apparatus 3 transmits the basic data 40 to the information processing apparatus 2. Then, the communication unit 23 of the information processing device 2 receives the basic data 40.

次に、本実施形態に係る情報処理装置2により実現される機能を説明する。図5は、本実施形態に係る情報処理装置2の機能ブロック図である。図5に示すように、本実施形態に係る情報処理装置2は、機能的には、基礎データ取得部50、画像内位置特定部52、距離特定部54、位置座標算出部56、モーションデータ生成部58を含むものとして機能する。これらの要素は、コンピュータである情報処理装置2にインストールされたプログラムを、情報処理装置2に含まれるCPU等の制御部21で実行することにより実現されている。なお、このプログラムは、例えば、CD−ROM、DVD−ROMなどのコンピュータ可読な情報伝達媒体を介して、あるいは、インターネットなどの通信ネットワークを介して情報処理装置2に供給される。   Next, functions realized by the information processing apparatus 2 according to the present embodiment will be described. FIG. 5 is a functional block diagram of the information processing apparatus 2 according to the present embodiment. As shown in FIG. 5, the information processing apparatus 2 according to the present embodiment functionally includes a basic data acquisition unit 50, an in-image position specifying unit 52, a distance specifying unit 54, a position coordinate calculating unit 56, and motion data generation. It functions as including part 58. These elements are realized by executing a program installed in the information processing apparatus 2, which is a computer, by the control unit 21 such as a CPU included in the information processing apparatus 2. Note that this program is supplied to the information processing apparatus 2 via a computer-readable information transmission medium such as a CD-ROM or DVD-ROM or via a communication network such as the Internet.

基礎データ取得部50は、画像と距離データ44とを含む基礎データ40を複数取得する。本実施形態では、基礎データ取得部50は、携帯型ゲーム装置3の通信部33が送信して、情報処理装置2の通信部23が受信する、ユーザ画像42と距離データ44とを含む基礎データ40を順次取得する。   The basic data acquisition unit 50 acquires a plurality of basic data 40 including images and distance data 44. In the present embodiment, the basic data acquisition unit 50 includes basic data including user images 42 and distance data 44 that are transmitted by the communication unit 33 of the portable game apparatus 3 and received by the communication unit 23 of the information processing apparatus 2. 40 is acquired sequentially.

画像内位置特定部52は、基礎データ40に含まれる画像(本実施形態ではユーザ画像42)に基づいて、所定の移動体(本実施形態では被写体ユーザ46)が表示されている、画像(本実施形態ではユーザ画像42)内の位置を特定する。   The in-image position specifying unit 52 displays an image (this book) in which a predetermined moving body (subject user 46 in this embodiment) is displayed based on an image (user image 42 in this embodiment) included in the basic data 40. In the embodiment, the position in the user image 42) is specified.

本実施形態では、被写体ユーザ46は複数の要素60を含んでいる(図6参照)。本実施形態では、各要素60は、例えば、頭、胴体、左ひざ、右ひざ、左足、右足、左手、右手などといった被写体ユーザ46の体の部位に対応している。そして、画像内位置特定部52は、例えば、パターン認識技術を用いて、各要素60の、ユーザ画像42内の位置を特定する。図6は、画像内位置特定部52により特定された、第1ユーザ画像42−1内の、右手を示す右手要素60a及び胴体を示す胴体要素60bを含む各要素60の位置の一例を示す図である。   In the present embodiment, the subject user 46 includes a plurality of elements 60 (see FIG. 6). In the present embodiment, each element 60 corresponds to a body part of the subject user 46 such as a head, a torso, a left knee, a right knee, a left foot, a right foot, a left hand, and a right hand. Then, the in-image position specifying unit 52 specifies the position of each element 60 in the user image 42 using, for example, a pattern recognition technique. FIG. 6 is a diagram illustrating an example of the position of each element 60 including the right hand element 60a indicating the right hand and the torso element 60b indicating the torso in the first user image 42-1 specified by the in-image position specifying unit 52. It is.

ここで、画像内位置特定部52は、ユーザ画像42内の各画素の色に基づいて、各要素60の位置を特定するようにしても、もちろん構わない。また、画像内位置特定部52は、既存の光学式モーションキャプチャ技術などを利用して、各要素60の、ユーザ画像42内の位置を特定しても構わない。   Here, it goes without saying that the in-image position specifying unit 52 may specify the position of each element 60 based on the color of each pixel in the user image 42. The in-image position specifying unit 52 may specify the position of each element 60 in the user image 42 using an existing optical motion capture technique or the like.

なお、画像内位置特定部52が、情報処理装置2の記憶部22に予め記憶されている、被写体ユーザ46に含まれる要素60、及び、その各要素60のユーザ画像42内における位置を特定する方法を示す特定方法データを用いて、各要素の位置座標を特定するようにしても構わない。   The in-image position specifying unit 52 specifies the elements 60 included in the subject user 46 and the positions of the respective elements 60 in the user image 42, which are stored in advance in the storage unit 22 of the information processing device 2. You may make it identify the position coordinate of each element using the specific method data which show a method.

画像内位置特定部52は、各要素60を代表する代表点(例えば、各要素60が表示されている領域の重心)の位置座標を特定するようにしても構わない。本実施形態では、画像内位置特定部52は、第nユーザ画像42−n内において右手要素60aが表示されている領域の重心(右手重心)の位置座標(右手第n画像内位置座標)(X,Y)を特定する。図6に、画像内位置特定部52により特定された右手第1画像内位置座標(X,Y)を併せて示す。ここで、右手第n画像内位置座標(X,Y)は、第nユーザ画像42−nの左上の点を原点とし、下方向をX軸、右方向をY軸とする二次元座標系における位置座標で表現されている。なお、画像内位置座標の表現方法は上述の方法にもちろん限定されない。 The in-image position specifying unit 52 may specify the position coordinates of a representative point representing each element 60 (for example, the center of gravity of the area where each element 60 is displayed). In the present embodiment, the in-image position specifying unit 52 includes position coordinates (right hand nth image position coordinates) of the center of gravity (right hand center of gravity) of the area in which the right hand element 60a is displayed in the nth user image 42-n. X n, specifies the Y n). FIG. 6 also shows the right-hand first image position coordinates (X 1 , Y 1 ) specified by the image position specifying unit 52. Here, the position coordinates (X n , Y n ) in the right hand n-th image are two-dimensional coordinates with the upper left point of the n-th user image 42-n as the origin, the lower direction as the X axis, and the right direction as the Y axis. It is expressed in position coordinates in the system. Of course, the method of expressing the position coordinates in the image is not limited to the above-described method.

距離特定部54は、画像内位置特定部52により特定される画像内の位置と、その画像を含む基礎データ40に含まれる距離データ44と、に基づいて、移動体と携帯型ゲーム装置3の撮像部36との距離を特定する。本実施形態では、距離特定部54は、ユーザ画像42を含む基礎データ40に含まれる距離データ44が示す、ユーザ画像42内の各要素60の代表点の位置座標に対応づけられた物体距離を特定する。具体的には、例えば、右手第n画像内位置座標(X,Y)の画素に対応づけられる、第n距離データ44−nが示す物体距離を、右手第n物体距離Zとして特定する。図7に、右手第1物体距離Zの一例を示す図を示す。なお、距離特定部54は、上述とは異なる方法により物体距離を特定しても構わない。具体的には、例えば、第nユーザ画像42−n内において右手要素60aが表示されている領域内の各画素に対応づけられる物体距離の平均値を、右手第n物体距離Zとして特定してもよい。 The distance specifying unit 54 determines whether the mobile object and the portable game apparatus 3 are based on the position in the image specified by the in-image position specifying unit 52 and the distance data 44 included in the basic data 40 including the image. The distance from the imaging unit 36 is specified. In the present embodiment, the distance specifying unit 54 indicates the object distance associated with the position coordinates of the representative point of each element 60 in the user image 42 indicated by the distance data 44 included in the basic data 40 including the user image 42. Identify. Specifically, for example, the right hand n th-image position coordinates (X n, Y n) is associated to a pixel of the object distance indicated by the n-th distance data 44-n, specified as the right hand n th object distance Z n To do. Figure 7 shows a diagram illustrating an example of a right hand first object distance Z 1. The distance specifying unit 54 may specify the object distance by a method different from that described above. Specifically, for example, the average value of the object distance associated with each pixel in the region where the right hand element 60a is displayed in the nth user image 42- n is specified as the right hand nth object distance Zn. May be.

位置座標算出部56は、画像内位置特定部52により特定される画像内の位置と、距離特定部54により特定される距離と、に基づいて、移動体の三次元空間内における位置座標を算出する。本実施形態では、位置座標算出部56は、第nユーザ画像42−n内の各要素60の代表点の位置座標と、距離特定部54により、第n距離データ44−nに基づいて特定される、その位置座標に対応づけられた物体距離と、に基づいて、その代表点の第n三次元位置座標を算出する。より具体的には、例えば、位置座標算出部56は、右手第n画像内位置座標(X,Y)と、右手第n物体距離Zとに基づいて、右手第n三次元位置座標(x,y,z)を算出する(図8参照)。なお、位置座標算出部56は、同様の方法により、胴体第n三次元位置座標(x’,y’,z’)を算出しても構わない。なお、本実施形態では直交座標系により、三次元位置座標が表現されているが、極座標系など他の座標系により、三次元位置座標が表現されてももちろん構わない。 The position coordinate calculation unit 56 calculates the position coordinates of the moving object in the three-dimensional space based on the position in the image specified by the in-image position specifying unit 52 and the distance specified by the distance specifying unit 54. To do. In the present embodiment, the position coordinate calculation unit 56 is specified based on the position coordinates of the representative point of each element 60 in the nth user image 42-n and the distance specifying unit 54 based on the nth distance data 44-n. The nth three-dimensional position coordinate of the representative point is calculated based on the object distance associated with the position coordinate. More specifically, for example, the position coordinate calculation unit 56 determines the right hand n th three-dimensional position coordinates based on the right hand n th image position coordinates (X n , Y n ) and the right hand n th object distance Z n. (X n , y n , z n ) is calculated (see FIG. 8). Note that the position coordinate calculation unit 56 may calculate the fuselage n-th three-dimensional position coordinates (x n ′, y n ′, z n ′) by the same method. In the present embodiment, the three-dimensional position coordinates are expressed by an orthogonal coordinate system, but it is needless to say that the three-dimensional position coordinates may be expressed by another coordinate system such as a polar coordinate system.

モーションデータ生成部58は、各基礎データ40に基づいて算出される位置座標に基づいて、移動体の三次元空間内における動きを示すモーションデータを生成する。本実施形態では、各基礎データ40に基づいて算出される、被写体ユーザ46に含まれる各要素60の代表点の三次元位置座標に基づいて、被写体ユーザ46の三次元空間内における動きを示すモーションデータを生成する。より具体的には、例えば、右手第1三次元位置座標(x,y,z)、右手第2三次元位置座標(x,y,z)などの、一連の右手第n三次元位置座標(x,y,z)を組み合わせて、右手の三次元空間内における動きを示すモーションデータを生成する。 The motion data generation unit 58 generates motion data indicating the movement of the moving object in the three-dimensional space based on the position coordinates calculated based on each basic data 40. In the present embodiment, the motion indicating the movement of the subject user 46 in the three-dimensional space based on the three-dimensional position coordinates of the representative point of each element 60 included in the subject user 46 calculated based on each basic data 40. Generate data. More specifically, for example, a series of right-hand first 3D position coordinates (x 1 , y 1 , z 1 ), right-hand second 3D position coordinates (x 2 , y 2 , z 2 ), etc. n three-dimensional position coordinates (x n , y n , z n ) are combined to generate motion data indicating the movement in the right-hand three-dimensional space.

なお、モーションデータ生成部58が、例えば、情報処理装置2の記憶部22に予め記憶されている、要素60間の接続関係を示す接続関係データを用いて、図8に示すような、被写体ユーザ46のワイヤーフレームモデルデータ62を生成するようにしても構わない。このように、各要素の動きを示すモーションデータを組み合わせることで、例えば、人間が歩く様子を示すモーションデータが生成される。   For example, the motion data generation unit 58 uses the connection relationship data indicating the connection relationship between the elements 60 stored in advance in the storage unit 22 of the information processing apparatus 2 as illustrated in FIG. 46 wire frame model data 62 may be generated. In this way, by combining motion data indicating the movement of each element, for example, motion data indicating how a person walks is generated.

本実施形態では、一連の三次元位置座標に基づいてモーションデータが生成される。そのため、本実施形態に係る情報処理装置2によれば、移動体の立体的な動きがシミュレートされたモーションデータを生成することができる。   In the present embodiment, motion data is generated based on a series of three-dimensional position coordinates. Therefore, according to the information processing apparatus 2 according to the present embodiment, it is possible to generate motion data in which the three-dimensional movement of the moving object is simulated.

次に、本実施形態に係る情報処理装置2の基礎データ取得部50が取得する第n基礎データ40−nに基づいて、被写体ユーザ46に含まれる右手要素60aの三次元空間内における第n三次元位置座標(x,y,z)を算出する処理の流れの一例を、図9に示すフロー図を参照しながら説明する。 Next, on the basis of the nth basic data 40-n acquired by the basic data acquisition unit 50 of the information processing apparatus 2 according to the present embodiment, the nth tertiary in the three-dimensional space of the right hand element 60a included in the subject user 46. An example of the flow of processing for calculating the original position coordinates (x n , y n , z n ) will be described with reference to the flowchart shown in FIG.

まず、画像内位置特定部52が、第n基礎データ40−nに含まれる第nユーザ画像42−nに基づいて、右手第n画像内位置座標(X,Y)を特定する(S101)。 First, the in-image position specifying unit 52 specifies the right-hand nth in-image position coordinates (X n , Y n ) based on the nth user image 42-n included in the nth basic data 40-n (S101). ).

そして、距離特定部54が、右手第n画像内位置座標(X,Y)に対応する、基礎データ40に含まれる距離データ44に示される右手第n物体距離Zを特定する(S102)。 Then, the distance specifying unit 54 specifies the right-hand n-th object distance Z n indicated in the distance data 44 included in the basic data 40 corresponding to the position coordinates (X n , Y n ) in the right-hand n-th image (S102). ).

そして、位置座標算出部56が、右手第n画像内位置座標(X,Y)と、右手第n物体距離Zと、に基づいて、右手第n三次元位置座標(x,y,z)を算出する(S103)。 Then, the position coordinate calculation unit 56 calculates the right hand n th three-dimensional position coordinates (x n , y) based on the right hand n th image position coordinates (X n , Y n ) and the right hand n th object distance Z n. n , z n ) is calculated (S103).

そして、位置座標算出部56は、S103に示す処理により、右手第n三次元位置座標(x,y,z)が算出されたか否かを確認する(S104)。ここで、右手第n三次元位置座標(x,y,z)が算出されている場合は(S104:Y)、この処理を終了する。 Then, the position coordinate calculating unit 56, by the processing shown in S103, the right hand n th three-dimensional position coordinates (x n, y n, z n) checks whether the calculated (S104). If the right-hand nth three-dimensional position coordinates (x n , y n , z n ) have been calculated (S104: Y), this process ends.

ここで、例えば、画像内位置特定部52が、第nユーザ画像42−nに基づいて右手第n画像内位置座標(X,Y)を特定できない場合がある。より具体的には、例えば、図4Cに示すように、右手要素60aが被写体ユーザ46の陰に隠れているために、画像内位置特定部52が、第nユーザ画像42−3に基づいて、右手第3画像内位置座標(X,Y)を特定できない場合がある。また、距離特定部54が、第n距離データ44−nに基づいて、右手第n物体距離Zを特定できない場合がある。このような場合は、S104に示す処理において、第n基礎データ40−nに基づいて、右手第n三次元位置座標(x,y,z)が算出されない。 Here, for example, the in-image position specifying unit 52 may not be able to specify the right-hand nth in-image position coordinates (X n , Y n ) based on the nth user image 42-n. More specifically, for example, as shown in FIG. 4C, since the right hand element 60a is hidden behind the subject user 46, the in-image position specifying unit 52 is based on the nth user image 42-3. There are cases where the position coordinates (X 3 , Y 3 ) in the right-hand third image cannot be specified. The distance specifying unit 54, based on the first n distance data 44-n, it may not determine the right hand n th object distance Z n. In such a case, in the processing shown in S104, based on the first n basic data 40-n, the right hand n th three-dimensional position coordinates (x n, y n, z n) is not calculated.

このように、S104に示す処理において、第n基礎データ40−nに基づいて、右手第n三次元位置座標(x,y,z)が算出されていない場合は(S104:N)、この右手要素60aについては、位置座標算出部56が、基礎データ取得部50が取得する複数の基礎データ40のうち、第n基礎データ40−nとは異なる基礎データ40に基づいて、三次元位置座標を算出する(S105)。 As described above, when the right hand n-th three-dimensional position coordinates (x n , y n , z n ) are not calculated based on the n-th basic data 40-n in the process shown in S104 (S104: N). For the right-hand element 60a, the position coordinate calculation unit 56 performs a three-dimensional operation based on basic data 40 different from the nth basic data 40-n among the plurality of basic data 40 acquired by the basic data acquisition unit 50. The position coordinates are calculated (S105).

具体的には、例えば、位置座標算出部56が、胴体を示す要素60(胴体要素60b)の三次元位置座標(胴体第n三次元位置座標(x’,y’,z’))から右手第n三次元位置座標(x,y,z)へのベクトルVを用いて、S104に示す処理により算出されていない右手要素60aの第n三次元位置座標(x,y,z)を算出するようにしてもよい。図10に、位置座標算出部56が、ベクトルVを用いて第3三次元位置座標(x,y,z)を算出する方法の一例を示す。例えば、位置座標算出部56が、まず、右手第1ベクトルVと、右手第2ベクトルVとがなす角θ12に基づいて、右手第2ベクトルVと右手第3ベクトルVとがなす角θ23が等しくなり(θ12=θ23)、右手第2ベクトルV2のノルム|V|と、右手第3ベクトルVのノルム|V|が等しくなり(|V|=|V|)、右手第1ベクトルV、右手第2ベクトルV、右手第3ベクトルVが同一平面上のベクトルとなるよう、右手第3ベクトルVの値を算出する。そして、位置座標算出部56が、胴体第3三次元位置座標(x’,y’,z’)の位置ベクトルと、右手第3ベクトルVとのベクトル和に基づいて、右手第3三次元位置座標(x,y,z)を算出する。 Specifically, for example, the position coordinate calculation unit 56 performs three-dimensional position coordinates (body n-th three-dimensional position coordinates (x n ′, y n ′, z n ′)) of the element 60 (body element 60 b) indicating the body. ) from the right hand n th three-dimensional position coordinates (x n, y n, z n) using vector V n in the n-th three-dimensional position coordinates of the right hand element 60a, which are not calculated by the processing shown in S104 (x n , Y n , z n ) may be calculated. FIG. 10 shows an example of a method in which the position coordinate calculation unit 56 calculates the third three-dimensional position coordinates (x 3 , y 3 , z 3 ) using the vector V n . For example, the position coordinate calculation unit 56 first calculates the right hand second vector V 2 and the right hand third vector V 3 based on the angle θ 12 formed by the right hand first vector V 1 and the right hand second vector V 2. angle theta 23 becomes equal (θ 12 = θ 23), right norm of the second vector V2 | and the right hand third vector V 3 norm | | V 2 V 3 | is equal (| V 2 | = | V 3 |), the right hand first vector V 1, the right hand second vector V 2, so that the right hand third vector V 3 a vector coplanar, to calculate the value of the right hand third vector V 3. Then, the position coordinate calculation unit 56 calculates the right-hand first based on the vector sum of the position vector of the body third three-dimensional position coordinates (x 3 ′, y 3 ′, z 3 ′) and the right-hand third vector V 3 . 3 Three-dimensional position coordinates (x 3 , y 3 , z 3 ) are calculated.

なお、S105に示す処理における右手第n三次元位置座標(x,y,z)の算出方法は上述の方法に限定されない。例えば、位置座標算出部56は、第1三次元位置座標(x,y,z)から第2三次元位置座標(x,y,z)へのベクトル(x−x,y−y,z−z)と、第2三次元位置座標(x,y,z)の位置ベクトルとのベクトル和に基づいて、第3三次元位置座標(x,y,z)を算出するようにしても構わない((x,y,z)=(2x−x,2y−y,2z−z))。 Note that the calculation method of the right-hand n-th three-dimensional position coordinate (x n , y n , z n ) in the process shown in S105 is not limited to the above-described method. For example, the position coordinate calculation unit 56 generates a vector (x 2 −x) from the first 3D position coordinates (x 1 , y 1 , z 1 ) to the second 3D position coordinates (x 2 , y 2 , z 2 ). 1 , y 2 −y 1 , z 2 −z 1 ) and the position vector of the second 3D position coordinates (x 2 , y 2 , z 2 ), the third 3D position coordinates ( x 3 , y 3 , z 3 ) may be calculated ((x 3 , y 3 , z 3 ) = (2x 2 −x 1 , 2 y 2 −y 1 , 2z 2 −z 1 )) .

また、位置座標算出部56は、例えば、右手第2三次元位置座標(x,y,z)と、右手第4三次元位置座標(x,y,z)とに基づいて、右手第3三次元位置座標(x,y,z)を算出するようにしても構わない。より具体的には、例えば、右手第2三次元位置座標(x,y,z)と右手第4三次元位置座標(x,y,z)との中点を右手第3三次元位置座標(x,y,z)として算出するようにしても構わない。 In addition, the position coordinate calculation unit 56 is based on, for example, the right hand second 3D position coordinates (x 2 , y 2 , z 2 ) and the right hand 4th 3D position coordinates (x 4 , y 4 , z 4 ). Thus, the right-hand third three-dimensional position coordinates (x 3 , y 3 , z 3 ) may be calculated. More specifically, for example, the middle point between the right-hand second 3D position coordinates (x 2 , y 2 , z 2 ) and the right-hand fourth 3D position coordinates (x 4 , y 4 , z 4 ) It may be calculated as three three-dimensional position coordinates (x 3 , y 3 , z 3 ).

このように、位置座標算出部56により、第n基礎データ40−nに基づいて、移動体に含まれる複数の要素のうちの欠落要素の位置座標が算出されない場合は(S104参照)、位置座標算出部56が、この欠落要素の位置座標を、基礎データ取得部50が取得する複数の基礎データ40のうちの、第n基礎データ40−nとは異なる基礎データ40に基づいて算出するようにしても構わない(S105参照)。また、位置座標算出部56が、欠落要素の三次元位置座標を、三次元位置座標の差分に基づいて算出するようにしても構わない。   As described above, when the position coordinate calculation unit 56 does not calculate the position coordinates of the missing element among the plurality of elements included in the moving body based on the nth basic data 40-n (see S104), the position coordinates The calculation unit 56 calculates the position coordinates of the missing element based on basic data 40 different from the nth basic data 40-n among the plurality of basic data 40 acquired by the basic data acquisition unit 50. It does not matter (see S105). Further, the position coordinate calculation unit 56 may calculate the three-dimensional position coordinates of the missing element based on the difference of the three-dimensional position coordinates.

また、S104に示す処理において、右手第3三次元位置座標(x,y,z)と、右手第4三次元位置座標(x,y,z)とが算出されていないことが確認された場合は、S105に示す処理において、位置座標算出部56が、右手第2三次元位置座標(x,y,z)と、右手第5三次元位置座標(x,y,z)とに基づいて、右手第3三次元位置座標(x,y,z)及び右手第4三次元位置座標(x,y,z)を算出するようにしても構わない。このように、例えば、時刻t1から時刻t2にわたって欠落要素の位置座標が算出されない状態が継続する場合は、位置座標算出部56が、欠落要素の位置座標を、時刻t1より前において最後に算出される欠落要素の位置座標と、時刻t2後において最初に算出される欠落要素の位置座標と、に基づいて算出するようにしても構わない。 In the processing shown in S104, the right-hand third 3D position coordinates (x 3 , y 3 , z 3 ) and the right-hand fourth 3D position coordinates (x 4 , y 4 , z 4 ) are not calculated. In the process shown in S105, the position coordinate calculation unit 56 determines that the right hand second 3D position coordinates (x 2 , y 2 , z 2 ) and the right hand fifth 3D position coordinates (x 5 , Y 5 , z 5 ), the right hand third 3D position coordinates (x 3 , y 3 , z 3 ) and the right hand fourth 3D position coordinates (x 4 , y 4 , z 4 ) are calculated. It doesn't matter if you do. Thus, for example, when the state where the position coordinates of the missing element are not calculated continues from time t1 to time t2, the position coordinate calculation unit 56 calculates the position coordinates of the missing element last before time t1. It may be calculated based on the position coordinates of the missing element and the position coordinates of the missing element calculated first after time t2.

S105に示す処理でも三次元位置座標が特定されない場合には、情報処理装置2の制御部21が、スピーカなどの、情報処理装置2のUI部24に対してアラーム音を出力するよう指示してもよい。また、携帯型ゲーム装置3がスピーカを備えている場合は、情報処理装置2の制御部21が、情報処理装置2の通信部23を介して、携帯型ゲーム装置3のスピーカにアラーム音を出力するよう指示してもよい。   If the three-dimensional position coordinates are not specified even in the process shown in S105, the control unit 21 of the information processing device 2 instructs the UI unit 24 of the information processing device 2 such as a speaker to output an alarm sound. Also good. When the portable game device 3 includes a speaker, the control unit 21 of the information processing device 2 outputs an alarm sound to the speaker of the portable game device 3 via the communication unit 23 of the information processing device 2. You may instruct them to do so.

上記の処理例においては、右手第n三次元位置座標(x,y,z)を算出する処理例を示したが、同様の方法により、右手要素60a以外の要素60の、三次元位置座標を算出することができるのはもちろんである。 In the above processing example, the processing example for calculating the right-hand nth three-dimensional position coordinate (x n , y n , z n ) has been shown, but the three-dimensional of the elements 60 other than the right-hand element 60a is calculated in the same manner. Of course, the position coordinates can be calculated.

このように、本実施形態においては、携帯型ゲーム装置3の撮像部36により生成されるユーザ画像42と、携帯型ゲーム装置3の距離測定部37により生成される距離データ44とに基づいて、各フレームにおける移動体の三次元位置座標が算出される。そしてこの一連の三次元位置座標に基づいてモーションデータが生成されるので、移動体の立体的な動きをシミュレートしてモーションデータを生成する際におけるユーザの手間が軽減される。   As described above, in the present embodiment, based on the user image 42 generated by the imaging unit 36 of the portable game apparatus 3 and the distance data 44 generated by the distance measurement unit 37 of the portable game apparatus 3, The three-dimensional position coordinates of the moving body in each frame are calculated. Since the motion data is generated based on the series of three-dimensional position coordinates, it is possible to reduce the labor of the user when generating the motion data by simulating the three-dimensional movement of the moving body.

さらに、第n基礎データ40−nだけからでは、第n三次元位置座標が算出されず、他の基礎データ40から算出される位置座標に基づいて、第n三次元位置座標を算出する場合において、他の基礎データ40から算出される三次元の位置座標に関する情報を活用することができるので、算出される第n三次元位置座標の精度をより高めることができる。   Further, in the case of calculating the n-th three-dimensional position coordinate based on the position coordinates calculated from the other basic data 40, the n-th three-dimensional position coordinate is not calculated only from the n-th basic data 40-n. Since the information related to the three-dimensional position coordinates calculated from the other basic data 40 can be utilized, the accuracy of the calculated n-th three-dimensional position coordinates can be further increased.

なお、本発明は上述の実施形態に限定されるものではない。   In addition, this invention is not limited to the above-mentioned embodiment.

例えば、図11に示すように、複数の携帯型ゲーム装置3(第1携帯型ゲーム装置3−1、及び、第2携帯型ゲーム装置3−2)の撮像部36が互いにタイミングを合わせて、被写体ユーザ46などの移動体を撮像し、第1携帯型ゲーム装置3−1の距離測定部37が、第1携帯型ゲーム装置3−1と被写体ユーザ46などの移動体との距離を測定し、第2携帯型ゲーム装置3−2の距離測定部37が、第2携帯型ゲーム装置3−2と被写体ユーザ46などの移動体との距離を測定するようにしても構わない。このとき、それぞれの携帯型ゲーム装置3から送信される基礎データ40の組合せに基づいて、位置座標算出部56が、三次元位置座標を算出するようにしても構わない。   For example, as shown in FIG. 11, the imaging units 36 of the plurality of portable game devices 3 (the first portable game device 3-1 and the second portable game device 3-2) are synchronized with each other, The moving body such as the subject user 46 is imaged, and the distance measuring unit 37 of the first portable game apparatus 3-1 measures the distance between the first portable game apparatus 3-1 and the moving body such as the subject user 46. The distance measuring unit 37 of the second portable game apparatus 3-2 may measure the distance between the second portable game apparatus 3-2 and a moving body such as the subject user 46. At this time, the position coordinate calculation unit 56 may calculate the three-dimensional position coordinates based on the combination of the basic data 40 transmitted from each portable game apparatus 3.

具体的には、例えば、まず、第1携帯型ゲーム装置3−1の撮像部36で予め被写体ユーザ46を撮像することにより生成されるユーザ画像42を第1携帯型ゲーム装置3−1の表示部34に表示する。そして、ユーザが、このユーザ画像42内のある要素60(例えば右手要素60a)の位置を、第1携帯型ゲーム装置3−1の操作部35により指定する。そして、第1携帯型ゲーム装置3−1の制御部31が、ユーザにより指定された位置を示すデータを取得する。そして、第2携帯型ゲーム装置3−2の撮像部36で予め被写体ユーザ46を撮像することにより生成されるユーザ画像42を第2携帯型ゲーム装置3−2の表示部34に表示する。そして、ユーザが、このユーザ画像42内の要素60(例えば右手要素60a)の位置を、第2携帯型ゲーム装置3−2の操作部35により指定する。そして、第2携帯型ゲーム装置3−2の制御部31が、ユーザにより指定された位置を示すデータを取得する。このようにして、それぞれの携帯型ゲーム装置3において、互いに対応する要素60の位置を予め指定した上で、被写体ユーザ46の動く様子をそれぞれの携帯型ゲーム装置3の撮像部36で撮像して、一連のユーザ画像42を生成し、それぞれの携帯型ゲーム装置3の距離測定部37が一連の距離データ44を生成する。そしてそれぞれの携帯型ゲーム装置3がユーザ画像42と距離データ44とを含む基礎データ40を生成し、情報処理装置2へ送信する。そして、情報処理装置2がそれぞれの携帯型ゲーム装置3から送信される基礎データ40を受信して、これらの基礎データ40の組合せに基づいて、位置座標算出部56が、三次元位置座標を算出する。   Specifically, for example, first, the user image 42 generated by imaging the subject user 46 in advance by the imaging unit 36 of the first portable game apparatus 3-1 is displayed on the first portable game apparatus 3-1. Displayed on the unit 34. Then, the user designates the position of an element 60 (for example, the right hand element 60a) in the user image 42 by the operation unit 35 of the first portable game apparatus 3-1. And the control part 31 of the 1st portable game device 3-1 acquires the data which show the position designated by the user. And the user image 42 produced | generated by imaging the to-be-photographed user 46 previously with the imaging part 36 of the 2nd portable game device 3-2 is displayed on the display part 34 of the 2nd portable game device 3-2. Then, the user designates the position of the element 60 (for example, the right hand element 60a) in the user image 42 by the operation unit 35 of the second portable game apparatus 3-2. And the control part 31 of the 2nd portable game device 3-2 acquires the data which show the position designated by the user. In this way, in each portable game apparatus 3, the positions of the elements 60 corresponding to each other are designated in advance, and the movement of the subject user 46 is captured by the imaging unit 36 of each portable game apparatus 3. A series of user images 42 is generated, and the distance measuring unit 37 of each portable game apparatus 3 generates a series of distance data 44. Each portable game apparatus 3 generates basic data 40 including the user image 42 and the distance data 44 and transmits the basic data 40 to the information processing apparatus 2. Then, the information processing device 2 receives the basic data 40 transmitted from each portable game device 3, and based on the combination of the basic data 40, the position coordinate calculation unit 56 calculates the three-dimensional position coordinates. To do.

こうすれば、例えば、一方の携帯型ゲーム装置3で生成されるユーザ画像42には表示されていない要素60が、他方の携帯型ゲーム装置3で生成されるユーザ画像42には表示されているような場合があるので、上述の処理例のS105に示すような、第n基礎データ40−nとは異なる基礎データ40を用いて第n三次元位置座標を算出する場面を減らすことができる。   In this way, for example, the element 60 that is not displayed in the user image 42 generated by one portable game apparatus 3 is displayed in the user image 42 generated by the other portable game apparatus 3. Therefore, the number of scenes where the n-th three-dimensional position coordinates are calculated using the basic data 40 different from the n-th basic data 40-n as shown in S105 of the above processing example can be reduced.

なお、それぞれの携帯型ゲーム装置3が、その携帯型ゲーム装置3が配置されている位置を示すデータを基礎データ40と併せて情報処理装置2へ送信するようにしても構わない。こうすれば、それぞれの携帯型ゲーム装置3の位置を示すデータに基づいて、各要素60の三次元位置座標を算出することができる。   Each portable game apparatus 3 may transmit data indicating the position where the portable game apparatus 3 is arranged together with the basic data 40 to the information processing apparatus 2. In this way, the three-dimensional position coordinates of each element 60 can be calculated based on the data indicating the position of each portable game apparatus 3.

また、例えば、情報処理システム1が、携帯型ゲーム装置3の代わりに、撮像機能と距離測定機能を有するビデオカメラなどを含んでいても構わない。すなわち、携帯型ゲーム装置3の代わりとして、撮像機能と距離測定機能を有するビデオカメラを用いても構わない。   For example, the information processing system 1 may include a video camera having an imaging function and a distance measurement function instead of the portable game apparatus 3. That is, instead of the portable game apparatus 3, a video camera having an imaging function and a distance measurement function may be used.

また、上述の情報処理装置2と携帯型ゲーム装置3とが一つの筐体により実装されていても構わない。   Further, the information processing device 2 and the portable game device 3 described above may be mounted by a single housing.

次に、このようにして生成されるモーションデータの活用例を以下に示す。   Next, an example of using the motion data generated in this way is shown below.

例えば、生成されるモーションデータが情報処理装置2の通信部23からインターネットワークなどのネットワークを介して接続されているサーバ(図示せず)にアップロードされてもよい。その際に、ユーザが、モーションデータを使用しているゲームタイトルを示すデータ、モーションデータの作者を示すデータ、このモーションデータに基づいて生成されたCGのキャラクタを示すデータなどの属性データを関連付けてモーションデータを併せてアップロードできるようにしてもよい。そして、サーバでは、モーションデータと属性データとが関連付けられて記憶されるようにしても構わない。また、モーションデータは、既存のスクリプト言語で記述されたデータに変換された上で、サーバに記憶されるようにしてもよい。   For example, the generated motion data may be uploaded from the communication unit 23 of the information processing apparatus 2 to a server (not shown) connected via a network such as an internetwork. At that time, the user associates attribute data such as data indicating the game title using the motion data, data indicating the creator of the motion data, and data indicating the CG character generated based on the motion data. You may be able to upload motion data together. In the server, the motion data and the attribute data may be stored in association with each other. The motion data may be stored in the server after being converted into data described in an existing script language.

ユーザが、サーバに記憶されているモーションデータを、例えば、ブラウザなどで閲覧できるようにしてもよい。このとき、モーションデータが、カテゴリに分類されて表示されるようにしてもよい。また、モーションデータがアイコン化されていてもよい。具体的には、例えば、モーションデータが、ワイヤーフレームや、キャラクタなどの動きとしてブラウザで表現されるようにしてもよい。   The user may be able to view the motion data stored in the server using, for example, a browser. At this time, the motion data may be displayed after being classified into categories. Moreover, motion data may be iconified. Specifically, for example, the motion data may be expressed by a browser as a movement of a wire frame or a character.

また、モーションデータをアップロードするユーザが、このモーションデータの公開対象となるユーザを設定して、設定されたユーザのみがモーションデータを閲覧することができるようにしてもよい。   In addition, a user who uploads motion data may set a user to whom the motion data is disclosed, and only the set user can view the motion data.

そして、閲覧の対象であるモーションデータが、モーションデータのネットワークストアへのハイパーリンクとなっており、ユーザがそのハイパーリンクをクリックすることにより、モーションデータを購入することができるようになっていてもよい。   Even if the motion data to be viewed is a hyperlink to the network store of motion data, and the user can click on the hyperlink to purchase motion data Good.

また、新たにサーバにアップロードされるモーションデータを、情報処理装置2が、ネットワークを介して逐次ダウンロードして、情報処理装置2の記憶部22にキャッシュするようにしてもよい。また、例えば、ゲームのセーブデータと共に、モーションデータが情報処理装置2の記憶部22に記憶されていても構わない。   In addition, the motion data newly uploaded to the server may be sequentially downloaded via the network by the information processing device 2 and cached in the storage unit 22 of the information processing device 2. Further, for example, motion data may be stored in the storage unit 22 of the information processing apparatus 2 together with game save data.

また、例えば、情報処理装置2が、サーバに記憶されている、人間がダンスをしている様子や人間がゴルフのスイングをしている様子が示されているモーションデータと、携帯型ゲーム装置3の撮像部36で撮像される一連のユーザ画像42に基づいて生成されるモーションデータとを比較して、それぞれのモーションデータの対応度に基づく点数を算出するようにしても構わない。   In addition, for example, the information processing device 2 is stored in the server, and motion data indicating that a person is dancing or a person is performing a golf swing, and the portable game device 3 The motion data generated based on a series of user images 42 captured by the image capturing unit 36 may be compared, and the score based on the degree of correspondence of each motion data may be calculated.

本発明の一実施形態に係る情報処理システムのハードウェア構成の一例を示すハードウェア構成図である。It is a hardware block diagram which shows an example of the hardware configuration of the information processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る携帯型ゲーム装置の一例を示す斜視図である。It is a perspective view which shows an example of the portable game device which concerns on one Embodiment of this invention. 基礎データのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of basic data. 第1ユーザ画像の一例を示す図である。It is a figure which shows an example of a 1st user image. 第2ユーザ画像の一例を示す図である。It is a figure which shows an example of a 2nd user image. 第3ユーザ画像の一例を示す図である。It is a figure which shows an example of a 3rd user image. 第4ユーザ画像の一例を示す図である。It is a figure which shows an example of a 4th user image. 第5ユーザ画像の一例を示す図である。It is a figure which shows an example of a 5th user image. 本発明の一実施形態に係る情報処理装置の機能の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the function of the information processing apparatus which concerns on one Embodiment of this invention. 第1ユーザ画像内の各要素の位置の一例を示す図である。It is a figure which shows an example of the position of each element in a 1st user image. 右手第1物体距離の一例を示す図である。It is a figure which shows an example of a right hand 1st object distance. ワイヤーフレームモデルデータの一例を示す図である。It is a figure which shows an example of wire frame model data. 本発明の一実施形態に係る情報処理装置で行われる処理のフローの一例を示す図である。It is a figure which shows an example of the flow of the process performed with the information processing apparatus which concerns on one Embodiment of this invention. 第3三次元位置座標の算出方法の一例を示す図である。It is a figure which shows an example of the calculation method of a 3rd three-dimensional position coordinate. 複数の携帯型ゲーム装置の撮像部によりユーザを撮像する様子の一例を示す図である。It is a figure which shows an example of a mode that a user is imaged by the imaging part of a some portable game device.

符号の説明Explanation of symbols

1 情報処理システム、2 情報処理装置、21 制御部、22 記憶部、23 通信部、24 ユーザインタフェース(UI)部、3 携帯型ゲーム装置、30 筐体、31 制御部、32 記憶部、33 通信部、34 表示部、35 操作部、36 撮像部、37 距離測定部、40 基礎データ、42 ユーザ画像、44 距離データ、46 被写体ユーザ、48 地面、50 基礎データ取得部、52 画像内位置特定部、54 距離特定部、56 位置座標算出部、58 モーションデータ生成部、60 要素、60a 右手要素、60b 胴体要素、62 ワイヤーフレームモデルデータ。   DESCRIPTION OF SYMBOLS 1 Information processing system, 2 Information processing apparatus, 21 Control part, 22 Storage part, 23 Communication part, 24 User interface (UI) part, 3 Portable game device, 30 Case, 31 Control part, 32 Storage part, 33 Communication Unit, 34 display unit, 35 operation unit, 36 imaging unit, 37 distance measurement unit, 40 basic data, 42 user image, 44 distance data, 46 subject user, 48 ground, 50 basic data acquisition unit, 52 in-image position specifying unit , 54 Distance specifying unit, 56 Position coordinate calculating unit, 58 Motion data generating unit, 60 elements, 60a Right hand element, 60b Body element, 62 Wire frame model data.

Claims (7)

所定の移動体の動きを示すモーションデータを生成する情報処理装置であって、
前記移動体は、接続関係が定義された複数の要素を含み、
前記移動体を含む少なくとも1つの物体を撮像手段が撮像することにより生成される画像と、距離測定手段による測定結果に基づく、当該画像に表示されている物体と前記撮像手段との距離を示す距離データと、を含む基礎データを複数取得する基礎データ取得手段と、
前記各基礎データに含まれる画像に基づいて、前記移動体に含まれる要素のうちの少なくとも一部の各要素が表示されている当該画像内の位置を特定する画像内位置特定手段と、
前記画像内位置特定手段により特定される前記画像内の位置と、当該画像を含む基礎データに含まれる前記距離データと、に基づいて、前記移動体に含まれる要素のうちの少なくとも一部の各要素と前記撮像手段との距離を特定する距離特定手段と、
前記画像内位置特定手段により特定される前記画像内の位置と、前記距離特定手段により特定される距離と、に基づいて、前記移動体に含まれる要素のうちの少なくとも一部の各要素の三次元空間内における位置座標を算出する位置座標算出手段と、
前記各基礎データに基づいて算出される前記位置座標に基づいて、前記移動体の三次元空間内における動きを示すモーションデータを生成するモーションデータ生成手段と、を含み、
前記位置座標算出手段により、前記基礎データに基づいて前記移動体に含まれる複数の要素のうちの欠落要素の位置座標が算出されない場合は、前記位置座標算出手段が、当該基礎データに基づいて算出される、当該欠落要素と接続されている接続要素の位置座標と、当該基礎データとは異なる基礎データに基づいて算出される、当該欠落要素及び前記接続要素のうちの一方の位置座標から他方の位置座標へのベクトルと、に基づいて、当該欠落要素の位置座標を算出する、
ことを特徴とする情報処理装置。
An information processing apparatus that generates motion data indicating the movement of a predetermined moving body,
The mobile body includes a plurality of elements in which connection relationships are defined,
A distance indicating the distance between the object displayed in the image and the imaging unit based on an image generated by the imaging unit imaging at least one object including the moving body and a measurement result by the distance measuring unit Basic data acquisition means for acquiring a plurality of basic data including data,
In-image position specifying means for specifying a position in the image where at least some of the elements included in the moving body are displayed based on an image included in each basic data;
Based on the position in the image specified by the position specifying means in the image and the distance data included in the basic data including the image , each of at least some of the elements included in the moving body Distance specifying means for specifying the distance between the element and the imaging means ;
Based on the position in the image specified by the position specifying means in the image and the distance specified by the distance specifying means, a tertiary of at least some of the elements included in the moving body Position coordinate calculation means for calculating position coordinates in the original space ;
Motion data generating means for generating motion data indicating the movement of the movable body in a three-dimensional space based on the position coordinates calculated based on the basic data ,
When the position coordinate calculation means does not calculate the position coordinates of the missing element among the plurality of elements included in the moving body based on the basic data, the position coordinate calculation means calculates based on the basic data. Calculated from the position coordinates of the connection element connected to the missing element and the basic data different from the basic data, and from the position coordinates of one of the missing element and the connection element to the other Calculate the position coordinates of the missing element based on the vector to the position coordinates,
An information processing apparatus characterized by that.
前記位置座標算出手段により前記欠落要素の位置座標が算出されない状態が所定時間にわたり継続する場合は、前記位置座標算出手段が、当該欠落要素の位置座標を、前記時間の前において最後に算出される当該欠落要素の位置座標と、前記時間の後において最初に算出される当該欠落要素の位置座標と、に基づいて算出する、
ことを特徴とする請求項に記載の情報処理装置。
When the state where the position coordinate of the missing element is not calculated by the position coordinate calculation unit continues for a predetermined time, the position coordinate calculation unit calculates the position coordinate of the missing element last before the time. Calculate based on the position coordinates of the missing element and the position coordinates of the missing element calculated first after the time,
The information processing apparatus according to claim 1 .
前記位置座標算出手段により前記欠落要素の位置座標が算出されない場合は、当該欠落要素の位置座標を、当該基礎データとは異なる複数の基礎データそれぞれに基づいて算出される当該欠落要素の位置座標の差分に基づいて算出する、
ことを特徴とする請求項又はに記載の情報処理装置。
When the position coordinate of the missing element is not calculated by the position coordinate calculation means, the position coordinate of the missing element is calculated based on each of the plurality of basic data different from the basic data. Calculate based on the difference,
The information processing apparatus according to claim 1 or 2 .
前記基礎データが、複数の撮像手段それぞれにより生成される画像と、前記各画像を撮像した撮像手段と当該画像に表示されている物体との距離を示す距離データと、を含み、
前記画像内位置特定手段が、前記基礎データに含まれる複数の画像それぞれに基づいて、それぞれの画像内の前記移動体が表示されている位置を特定し、
前記距離特定手段が、前記移動体と前記各撮像手段との距離を特定し、
前記位置座標算出手段が、前記画像内位置特定手段により特定される複数の前記画像内の位置と、前記距離特定手段により特定される複数の前記距離と、に基づいて、前記位置座標を算出する、
ことを特徴とする請求項1乃至のいずれか一項に記載の画像処理装置。
The basic data includes an image generated by each of a plurality of imaging means, distance data indicating a distance between an imaging means that has captured each image and an object displayed in the image, and
The position specifying means in the image specifies a position where the moving body is displayed in each image based on each of the plurality of images included in the basic data,
The distance specifying means specifies a distance between the moving body and each imaging means;
The position coordinate calculating means calculates the position coordinates based on the positions in the plurality of images specified by the in-image position specifying means and the plurality of distances specified by the distance specifying means. ,
The image processing apparatus according to any one of claims 1 to 3, characterized in that.
所定の移動体の動きを示すモーションデータを生成する情報処理方法であって、
前記移動体は、接続関係が定義された複数の要素を含み、
前記移動体を含む少なくとも1つの物体を撮像手段が撮像することにより生成される画像と、距離測定手段による測定結果に基づく、当該画像に表示されている物体と前記撮像手段との距離を示す距離データと、を含む基礎データを複数取得する基礎データ取得ステップと、
前記各基礎データに含まれる画像に基づいて、前記移動体に含まれる要素のうちの少なくとも一部の各要素が表示されている当該画像内の位置を特定する画像内位置特定ステップと、
前記画像内位置特定ステップにより特定される前記画像内の位置と、当該画像を含む基礎データに含まれる前記距離データと、に基づいて、前記移動体に含まれる要素のうちの少なくとも一部の各要素と前記撮像手段との距離を特定する距離特定ステップと、
前記画像内位置特定ステップにより特定される前記画像内の位置と、前記距離特定ステップにより特定される距離と、に基づいて、前記移動体に含まれる要素のうちの少なくとも一部の各要素の三次元空間内における位置座標を算出する位置座標算出ステップと、
前記各基礎データに基づいて算出される前記位置座標に基づいて、前記移動体の三次元空間内における動きを示すモーションデータを生成するモーションデータ生成ステップと、を含み、
前記位置座標算出ステップにより、前記基礎データに基づいて前記移動体に含まれる複数の要素のうちの欠落要素の位置座標が算出されない場合は、当該基礎データに基づいて算出される、当該欠落要素と接続されている接続要素の位置座標と、当該基礎データとは異なる基礎データに基づいて算出される、当該欠落要素及び前記接続要素のうちの一方の位置座標から他方の位置座標へのベクトルと、に基づいて、当該欠落要素の位置座標を算出する、
を含むことを特徴とする情報処理方法。
An information processing method for generating motion data indicating movement of a predetermined moving body,
The mobile body includes a plurality of elements in which connection relationships are defined,
A distance indicating the distance between the object displayed in the image and the imaging unit based on an image generated by the imaging unit imaging at least one object including the moving body and a measurement result by the distance measuring unit A basic data acquisition step for acquiring a plurality of basic data including data,
An in-image position specifying step for specifying a position in the image in which at least some of the elements included in the moving body are displayed based on the image included in the basic data;
Based on the position in the image specified by the position specifying step in the image and the distance data included in the basic data including the image, each of at least some of the elements included in the moving body A distance identifying step for identifying a distance between an element and the imaging means;
Based on the position in the image specified by the position specifying step in the image and the distance specified by the distance specifying step, a tertiary of at least some of the elements included in the moving body A position coordinate calculation step for calculating position coordinates in the original space;
A motion data generating step for generating motion data indicating a movement of the movable body in a three-dimensional space based on the position coordinates calculated based on the basic data;
When the position coordinates of the missing element among the plurality of elements included in the moving body are not calculated based on the basic data by the position coordinate calculating step, the missing element calculated based on the basic data and A position coordinate of the connected connection element and a vector from one position coordinate of the missing element and the connection element to the other position coordinate calculated based on basic data different from the basic data; On the basis of the position coordinates of the missing element,
An information processing method comprising:
所定の移動体の動きを示すモーションデータを生成する情報処理装置としてコンピュータを機能させるプログラムであって、
前記移動体は、接続関係が定義された複数の要素を含み、
前記移動体を含む少なくとも1つの物体を撮像手段が撮像することにより生成される画像と、距離測定手段による測定結果に基づく、当該画像に表示されている物体と前記撮像手段との距離を示す距離データと、を含む基礎データを複数取得する基礎データ取得手段、
前記各基礎データに含まれる画像に基づいて、前記移動体に含まれる要素のうちの少なくとも一部の各要素が表示されている当該画像内の位置を特定する画像内位置特定手段、
前記画像内位置特定手段により特定される前記画像内の位置と、当該画像を含む基礎データに含まれる前記距離データと、に基づいて、前記移動体に含まれる要素のうちの少なくとも一部の各要素と前記撮像手段との距離を特定する距離特定手段、
前記画像内位置特定手段により特定される前記画像内の位置と、前記距離特定手段により特定される距離と、に基づいて、前記移動体に含まれる要素のうちの少なくとも一部の各要素の三次元空間内における位置座標を算出する位置座標算出手段、
前記各基礎データに基づいて算出される前記位置座標に基づいて、前記移動体の三次元空間内における動きを示すモーションデータを生成するモーションデータ生成手段、として前記コンピュータを機能させ、
前記位置座標算出手段により、前記基礎データに基づいて前記移動体に含まれる複数の要素のうちの欠落要素の位置座標が算出されない場合は、前記位置座標算出手段が、当該基礎データに基づいて算出される、当該欠落要素と接続されている接続要素の位置座標と、当該基礎データとは異なる基礎データに基づいて算出される、当該欠落要素及び前記接続要素のうちの一方の位置座標から他方の位置座標へのベクトルと、に基づいて、当該欠落要素の位置座標を算出する、
ことを特徴とするプログラム。
A program that causes a computer to function as an information processing device that generates motion data indicating the movement of a predetermined moving body,
The mobile body includes a plurality of elements in which connection relationships are defined,
A distance indicating the distance between the object displayed in the image and the imaging unit based on an image generated by the imaging unit imaging at least one object including the moving body and a measurement result by the distance measuring unit Basic data acquisition means for acquiring a plurality of basic data including data,
In-image position specifying means for specifying the position in the image where at least some of the elements included in the moving body are displayed based on the image included in each basic data;
Based on the position in the image specified by the position specifying means in the image and the distance data included in the basic data including the image, each of at least some of the elements included in the moving body Distance specifying means for specifying the distance between the element and the imaging means;
Based on the position in the image specified by the position specifying means in the image and the distance specified by the distance specifying means, a tertiary of at least some of the elements included in the moving body Position coordinate calculation means for calculating position coordinates in the original space;
Based on the position coordinates calculated based on the basic data, the computer is caused to function as motion data generating means for generating motion data indicating the movement of the moving body in a three-dimensional space,
When the position coordinate calculation means does not calculate the position coordinates of the missing element among the plurality of elements included in the moving body based on the basic data, the position coordinate calculation means calculates based on the basic data. Calculated from the position coordinates of the connection element connected to the missing element and the basic data different from the basic data, and from the position coordinates of one of the missing element and the connection element to the other Calculate the position coordinates of the missing element based on the vector to the position coordinates,
A program characterized by that.
請求項に記載のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。 A computer-readable information storage medium storing the program according to claim 6 .
JP2008256597A 2008-10-01 2008-10-01 Information processing apparatus, information processing method, program, and information storage medium Active JP5066047B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2008256597A JP5066047B2 (en) 2008-10-01 2008-10-01 Information processing apparatus, information processing method, program, and information storage medium
EP09817726.4A EP2343685B1 (en) 2008-10-01 2009-09-28 Information processing device, information processing method, program, and information storage medium
CN200980139029.5A CN102171726B (en) 2008-10-01 2009-09-28 Information processing device, information processing method, program, and information storage medium
PCT/JP2009/066749 WO2010038693A1 (en) 2008-10-01 2009-09-28 Information processing device, information processing method, program, and information storage medium
US13/121,318 US8724849B2 (en) 2008-10-01 2009-09-28 Information processing device, information processing method, program, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008256597A JP5066047B2 (en) 2008-10-01 2008-10-01 Information processing apparatus, information processing method, program, and information storage medium

Publications (3)

Publication Number Publication Date
JP2010085322A JP2010085322A (en) 2010-04-15
JP2010085322A5 JP2010085322A5 (en) 2011-11-17
JP5066047B2 true JP5066047B2 (en) 2012-11-07

Family

ID=42249411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008256597A Active JP5066047B2 (en) 2008-10-01 2008-10-01 Information processing apparatus, information processing method, program, and information storage medium

Country Status (1)

Country Link
JP (1) JP5066047B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112015007054B4 (en) 2015-11-20 2019-11-28 Mitsubishi Electric Corp. TRAVEL SUPPORT DEVICE, TRAVEL SUPPORT SYSTEM, TRAVEL SUPPORT PROCEDURE AND TRAVEL SUPPORT PROGRAM

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259984A (en) * 2001-03-01 2002-09-13 Matsushita Electric Ind Co Ltd Motion analyzing device and motion analyzing method
JP4193519B2 (en) * 2003-02-27 2008-12-10 セイコーエプソン株式会社 Object identification method and object identification apparatus
JP2004344418A (en) * 2003-05-22 2004-12-09 Anima Kk Three-dimensional motion analyzing device
JP4148281B2 (en) * 2006-06-19 2008-09-10 ソニー株式会社 Motion capture device, motion capture method, and motion capture program

Also Published As

Publication number Publication date
JP2010085322A (en) 2010-04-15

Similar Documents

Publication Publication Date Title
WO2010038693A1 (en) Information processing device, information processing method, program, and information storage medium
CN104243951B (en) Image processing device, image processing system and image processing method
JP5081964B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP4473754B2 (en) Virtual fitting device
US8282481B2 (en) System and method for cyber training of martial art on network
JP2012058968A (en) Program, information storage medium and image generation system
KR20170134513A (en) How to Display an Object
JPWO2012147363A1 (en) Image generation device
JP6656382B2 (en) Method and apparatus for processing multimedia information
CN104252712A (en) Image generating apparatus and image generating method
JP5833526B2 (en) Video communication system and video communication method
CN107656611A (en) Somatic sensation television game implementation method and device, terminal device
US20230062973A1 (en) Image processing apparatus, image processing method, and storage medium
CN107293162A (en) Move teaching auxiliary and device, terminal device
WO2020121406A1 (en) Three-dimensional measurement device, three-dimensional measurement device, moving robot, wheelbarrow-type moving device, and three-dimensional measurement processing method
KR20020028578A (en) Method of displaying and evaluating motion data using in motion game apparatus
JP6775669B2 (en) Information processing device
JP5066047B2 (en) Information processing apparatus, information processing method, program, and information storage medium
JP2002032788A (en) Method and device for providing virtual reality and recording medium with virtual reality providing program recorded threreon
JP5759439B2 (en) Video communication system and video communication method
CN112416124A (en) Dance posture feedback method and device
JP7161200B2 (en) karaoke production system
JP5015109B2 (en) Information processing apparatus, information processing method, program, and information storage medium
WO2021166751A1 (en) Information-processing device, information-processing method, and computer program
CN214122904U (en) Dance posture feedback device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101124

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101203

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111003

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120717

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120810

R150 Certificate of patent or registration of utility model

Ref document number: 5066047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150817

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250