JP2002112286A - 複合現実感提示装置及びその方法並びに記憶媒体 - Google Patents
複合現実感提示装置及びその方法並びに記憶媒体Info
- Publication number
- JP2002112286A JP2002112286A JP2000294790A JP2000294790A JP2002112286A JP 2002112286 A JP2002112286 A JP 2002112286A JP 2000294790 A JP2000294790 A JP 2000294790A JP 2000294790 A JP2000294790 A JP 2000294790A JP 2002112286 A JP2002112286 A JP 2002112286A
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- state
- virtual object
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Farming Of Fish And Shellfish (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
り、仮想物体の状態を遷移させることで、この仮想物体
の存在感の認知を容易にすること。 【解決手段】 S=0の場合、手を左右に5回以上振っ
たら(S1502)、イルカは水面から顔を出し、状態
遷移回数L1を1つ加算する(S1504)。手を2回
以上上下に振ったら(S1503)、イルカは水面から
飛び跳ね、L1を1つ加算する(S1505)。S=1
の場合、手を左右に3回以上振ったら、イルカは引っ込
み、L1を1つ加算する(S1507)。S=2の場
合、イルカが着水したら、S=0となる(S150
9)。S=3の場合、水中に引っ込んだら、S=0とな
る(S1511)。そしてL1≧3か否かを判断し(S
1512)、L1≧3ならば、コミュニケーションレベ
ル2に移行する(S1513)。
Description
生成し、当該画像を現実空間に重畳してユーザに提示す
る複合現実感提示装置及びその方法並びに記憶媒体に関
するものである。
据え置き型のゲーム機が、一般の市場に販売されてい
る。この仮想のペットは、ゲーム機内で実行されるプロ
グラムコードと、このプログラムコードが用いるデータ
により構成され、プログラムが仮想ペットを表す画像を
所定の条件で変化させることにより、あたかも仮想ペッ
トが仮想空間内で自律的に行動し、ユーザからのメッセ
ージに応じて行動するかのようにユーザに見せる。
ージを入力する際、ユーザは、ゲーム機に接続された所
定のインターフェース(例えば、ボタン、レバーなどを
備えたパッド型インターフェース、キーボード、音声入
力マイクなど)を用いて何らかのメッセージ(例えば、
なでる、殴る、文字もしくは声を入力して話しかける
等)を仮想ペットに対して送る。
を、パッド型インターフェースを用いて仮想ペットに送
る場合、例えば、自分の手を表すカーソルを仮想ペット
が表示されるディスプレイの画面に表示し、このカーソ
ルを仮想ペットに重ね合わせ、所定のボタンを押すこと
で、仮想ペットに対して、ユーザは「なでる」行為を行
ったことになる。
セージに応じた所定の動作(例えば、喜ぶ、起こる、泣
く等)を行い、ユーザは自身が仮想ペットに対して行っ
た動作(メッセージの入力)に対するペットの動作反応
を見ることで、仮想ペットとの仮想的なコミュニケーシ
ョンを楽しむ。
在するペットに対してコミュニケーションをとるために
メッセージを送る際、このメッセージを送る装置や方法
がペットに対して間接的であり、ペットの存在感の認知
を困難にさせる原因の一つとなる。
のであり、ユーザの所定部位による所定動作により、仮
想物体の内部状態を遷移させることで、この仮想物体の
存在感の認知を容易にすることを目的とする。
ために、例えば本発明の複合現実感提示装置は以下の構
成を備える。すなわち、仮想物体の画像を生成し、当該
画像を現実空間に重畳してユーザに提示する複合現実感
提示装置であって、ユーザの所定部位の位置姿勢を計測
する計測手段と、前記計測手段の計測結果に基づいて、
前記所定部位による所定動作を検知する検知手段と、前
記検知手段による検知結果に応じて、前記仮想物体の内
部状態を、当該内部状態とは別の内部状態に遷移させる
遷移手段と、前記内部状態に基づいた仮想物体の映像を
ユーザに提示する提示手段とを備える。
と、前記撮像手段による現実空間の映像と、前記仮想物
体とを合成し、合成映像を生成する合成手段とを備え、
前記提示手段は、前記仮想物体の映像を含む前記合成手
段による合成映像を、ユーザに提示する。
と、前記仮想物体の状態遷移に関する情報とを関連づけ
て複数管理する管理手段を備え、前記遷移手段は、前記
管理手段で管理されている、前記所定部位による前記所
定動作に応じた前記仮想物体の状態遷移に関する情報を
参照することで、前記仮想物体の状態を遷移させる。
情報を格納する内容格納手段を備え、前記遷移手段は、
前記仮想物体の状態を遷移させる際、前記内容格納手段
に格納された前記情報から、前記仮想物体の状態の遷移
先に応じた情報を選択する。
発明の複合現実感提示装置は以下の構成を備える。すな
わち、複数の状態決定パラメータによって外観、動作等
可視的な状態及び/又は内部状態が決定される仮想生物
及び/又は前記仮想生物の環境の映像を現実空間もしく
はその映像に重畳してユーザに提示することにより、仮
想生物との仮想のコミュニケーションを提供する複合現
実感提示装置であって、ユーザの所定部位の位置姿勢を
計測する計測手段と、前記計測手段の計測結果に基づい
て、前記所定部位の動作を検知する検知手段と、前記検
知手段の検知結果に応じて、前記複数の状態決定パラメ
ータのうち、所定のパラメータの値を変化させる状態遷
移手段と、前記複数の状態決定パラメータに基づいて、
前記仮想生物の映像を生成する映像生成手段と、前記仮
想生物の映像を、前記現実空間もしくはその映像と重畳
してユーザに提示する提示手段とを備える。
をその好適な実施形態に従って詳細に説明する。
合現実感提示装置は、仮想空間に存在するペットとして
イルカを用い、ユーザが手を使ってイルカに対して直接
メッセージを送り、このメッセージに応じた動作を行う
イルカを仮想物体画像として表示することで複合現実空
間内で見ることができる、すなわち複合現実感をユーザ
に体感させることができる。
の3次元モデルの生成方法としてはポリゴンを用いての
公知の方法で生成するが、他の方法を採用することも可
能である。なお、このイルカのモデルのデータ(イルカ
を構成する各ポリゴンデータ等)は後述のペット状態管
理部110内の不図示のメモリ内に格納されている。
装置内部の概略構成をブロック図で示す。
れたデータやプログラムコードを用いて、本装置全体の
制御を行うと共に、後述のペット状態管理部110内の
不図示のメモリや、RAM112に格納されたデータや
プログラムコードを用いて、後述する各画像処理や数値
計算等を行う。なお、上述の各データやプログラムコー
ドの所在は、上述の通りに限定されるものではなく、例
えば本装置全体の制御プログラムコードが外部記憶装置
113やRAM112に格納されていても良い。
の頭部に装着することにより、ユーザの頭部の絶対的な
位置、姿勢(絶対座標系におけるユーザの頭部の位置、
姿勢)を示す信号を後述の位置姿勢計測部103に出力
する。上記絶対座標系を以下、世界座標系と呼ぶことが
ある。
当な位置を原点とし、z−x平面を水平面とする座標系
で、重力方向を−y方向とする。ここでは原点として、
後述する位置姿勢計測部103の位置を原点とするが、
この原点は任意に設定可能である。
図3A、図3Bに示すとおりである。なお図3Aは、ユ
ーザの頭部の右側面からの図であり、図3Bは、ユーザ
の頭部の頭頂からの図である。
位置姿勢センサ102から入力した上述の信号から、ユ
ーザの頭部の位置、姿勢を特定する。一方、後述の手の
位置姿勢センサ104より入力する信号から、世界座標
系におけるユーザの手の位置、姿勢を特定する。なお、
特定した上述のユーザの頭部の位置、姿勢のデータと、
ユーザの手の位置、姿勢のデータはCPU101に出力
される。
置姿勢センサ102と同じものを用いても良く、ユーザ
の手(イルカを登場させる部位。つまり、イルカの映像
を合成する部位)に装着することにより、世界座標系に
おけるユーザの手の位置、姿勢を示す信号を位置姿勢計
測部103に出力する。
位置、姿勢を計測する際、手のローカル座標系は図4に
示すとおりである。
ユーザの頭部の位置、姿勢及び、ユーザの手の位置、姿
勢を以下の通り表す。
手の位置、姿勢のデータがCPU101に入力される。
ここでCPU101がこれらのデータから、ユーザの手
の動きを検知する方法について説明する。
手の位置P'!は、(CPU101内で)以下の演算を
行うことで求めることができる。
の回転変換Ryの逆変換である。
t+Δtにおける手の位置P’!の移動ベクトルd!は
以下のようにして求めることができる。
うにして求めることができる。
の成分vx、vy、vzにより、ユーザの頭部を基準と
した手の動きは以下のようにして検知することができ
る。
ので、各方向成分vx、vy、vzに対する判断が、そ
の符号の正負でなく、所定の閾値以上か閾値より小さい
かで判断すると良い。つまり、この所定の閾値をεとす
ると、以下のようにして判断すれば良い。
判断の結果、ユーザの手が動いた方向が分かれば、ユー
ザの手はその方向に「振った」と判断される。又同時
に、「振った」と判断した際に、所定の時間内に、−方
向と+方向に何回振ったかをカウントする。なお、所定
の時間の計測は、不図示のクロックタイマにより計測す
ることができる。
ィスプレイ(以下、HMD)で、内部にCCD105b
と表示部105cを備え、後述の画像生成部106によ
り合成された映像(CCD105bで撮像された実写映
像と、仮想空間に存在するイルカの映像との合成映像)
を表示部105cに表示することで、このHMD105
を頭部に装着したユーザに、あたかも目の前にイルカが
存在するかのように感じさせ、その結果、現実空間内に
おけるイルカの存在感をより認知させることができる。
なお、HMD105には光学シースルーと、ビデオシー
スルーの2種類が存在し、その詳細については本実施形
態の範疇ではないのでここでは説明は省くが、本実施形
態ではビデオシースルー、つまり上述の通り、表示部1
05cにはCCD105bにより撮像された実写映像を
表示すると共に、画像生成部106で生成されたイルカ
の映像を合成して表示するHMDを用いる。なお、この
HMDは光学シースルーのタイプのHMDを用いること
も可能である。HMD105が光学シースルーのタイプ
のものであった場合、HMD105にはCCD105b
は備わっていない。
デオシースルーのタイプのものであった場合、CCD1
05bから入力した実写映像に対して任意の画像処理
(ガンマ補正、階調変換など)を行ってもよい。そし
て、ユーザの目の位置から見えるイルカの位置、姿勢に
基づいて生成されたイルカの映像に、上述の実写映像,
あるいは任意の画像処理を施された実写映像を合成した
合成映像を表示部105cに出力する。
置、姿勢はマトリクス(イルカの位置姿勢マトリクスM
d)で表現される。このマトリクスの生成にはまず、ユ
ーザの頭部の位置、姿勢のデータと、ユーザの手の位
置、姿勢のデータから夫々、ユーザの頭部の状態(位
置、姿勢)を示すマトリクスMhと、ユーザの手の状態
(位置、姿勢)を示すマトリクスMtを生成し、これら
のマトリクスを用いて生成するが、その生成方法に関し
ては公知の計算方法であるので、その説明は省略する。
なお、このマトリクスの生成(計算)はCPU101に
よって行われる。
イプのものであった場合、上述の通りHMD105には
CCD105cが備わっていないために、画像生成部1
06は、上述の方法により生成されるユーザの目の位置
から見えるイルカの映像のみを表示部105cに出力す
る。
108で生成された音声を出力する。なお、このスピー
カ107から出力されるのは音声に限定されず、他にも
例えば、イルカが行う所定の動作に応じた効果音を出力
することが可能である。
を発したりする場合、その音声を生成する。また、上述
の通り、効果音を生成することも可能である。なお、イ
ルカが発生する際の各状況における音声データ、効果音
は、夫々の状況に関連づけてペット状態管理部110内
の不図示のメモリ内にテーブルデータとして格納されて
いる。音声データ、効果音に関しては詳しくは後述す
る。
ンターフェース回路、通信端子等を含み、他のユーザに
対して上述の複合現実感を体感させている複合現実感提
示装置に対して、データ通信を行うことができる。
ではイルカの状態、例えば、後述するイルカとのコミュ
ニケーションレベルや、イルカの動作が記載された後述
のテーブル等を管理する。
の制御を行うプログラムコードやデータを格納する。ま
た、本装置が起動する際に必要となる設定や、文字を表
示部に表示するための文字コードなども格納する。
113からロードしたプログラムコードやデータなど一
時的に格納するエリアを備えていると共に、CPU10
1が各種のプログラムコードを実行する際に使用するワ
ークエリアも備えている。
−ROMやフロッピー(登録商標)ディスクなどの記憶
媒体からインストールされた各種のプログラムコードや
データなどを保存する。また、前述のRAM112内の
ワークエリアに不足が生じた場合、仮想的なワークエリ
アとしてのテンポラリファイルを、この外部記憶装置1
13内のエリアに作成することもできる。
用いて、イルカをユーザの手に呼び出す方法について図
5A、図5B、図5C、図5Dを用いて説明する。な
お、本実施形態では、イルカに対するコミュニケーショ
ンにレベルを設け、レベル1ではイルカを呼び出して
1,2回のコミュニケーションをとるまでをコミュニケ
ーションレベル1とする。
態では、イルカを呼び出す方法として、「ユーザの手を
5秒以内に左右に5回以上振る。」と規定する。
ると、上述の説明の通り、ユーザの手の速度ベクトルが
CPU101により計算され、5秒以内にvxの値が閾
値(ε)以上変化した(「振った」と判断された)回数
がカウントされる。このとき、図5Aに示すとおり、ユ
ーザの手の位置に波の映像を合成した合成映像が画像生
成部106で生成され、この合成映像はHMD105の
表示部105cに表示される。
時点で、CPU101はペット状態管理部110内の不
図示のメモリに格納されたイルカが登場する際の動きの
データ(以下、モーションデータ)を読み出して、イル
カの動きを再生する。この動きは図5Bに示すとおり、
図5Aに示した波からイルカが顔を出す動きである。
定方法について説明する。ペット状態管理部110内の
不図示のメモリ内には各状況に応じたイルカのモーショ
ンデータが格納されており、各モーションの長さはまち
まちである。
ば、100フレームのモーションもある。ここで、フレ
ームとは、イルカの動きの最小単位であり、例えばモー
ションAが100フレームであった場合、1フレームは
この動きの100分の1の動きに相当する。
リには図6に示すテーブルが格納されており、601は
各モーションを特定するための番号MT(モーション番
号)で、602は夫々のモーションを格納するテーブル
の先頭アドレスである。
状態管理部110内の不図示のメモリ内のメモリ領域で
あり、例えばモーション番号0で特定されるモーション
データアドレスは、図6より0x005Aなので、CP
U101は図7のメモリ領域内で0x005Aから始ま
るデータを読み込めばよい。なお、図7に示したとお
り、モーションデータアドレス0x005Aから始まる
領域の先頭には、モーション番号0のモーションのフレ
ーム数が格納されている。よってCPU101は、この
フレーム数が格納された次のアドレスからフレーム数分
だけ、データ(モーションデータ)を読み込むことで、
イルカにモーション番号0で特定されるモーションを与
えることができる。
所定の位置を原点としたローカル座標系(本実施形態で
はユーザの手の位置がこの原点となる)におけるイルカ
の位置、姿勢、イルカの様々な格好に応じたイルカの各
パーツ(尾ひれ、口、目など)の位置、姿勢等である。
号を特定することで、イルカに様々なモーションを与え
ることができる。
状態を示す番号S(状態番号)に応じて決まり、例え
ば、コミュニケーションレベル1ではイルカの状態とし
て、以下の3つを規定する。
の状態番号Sを0とする。また、状態番号は以上の4つ
に限定されるものではなく、このほかの状態を設けるこ
ともできる。そのためにはその状態に応じた状態番号S
を用意すればよい。
じたモーションを、以下のように規定する。
のモーション番号MTを0とする。また、各状態番号S
に応じたモーション番号の特定には、図8に示すテーブ
ルを用いる。同図では1つのイルカの状態に対して1つ
のモーションが対応しているが、1つのイルカの状態に
対して複数のイルカのモーションが存在する場合、例え
ば、S=4を「イルカが喜んでいる」状態と規定し、
「水面から顔を出して笑う」モーションを追加し、この
「水面から顔を出して笑う」モーションのモーション番
号MTをMT=4とした場合、図9に示すとおり、S=
4に対してMT=2,4としてもよい。この場合、イル
カの状態が「イルカが喜んでいる」状態であったときに
(S=4)、まずMT=2で示されるモーション「水面
から飛び跳ねる(着水する)」を実行した後に、MT=
4で示されるモーション「水面から顔を出して笑う」を
実行する。なお、この場合、2つのモーション(MT=
2,MT=4)間のつなぎのモーションは公知の方法に
より補間され、全体として滑らかなモーションとなる。
対して1つのモーションが割り当てられている場合、イ
ルカの状態番号Sをモーション番号MTとして用いても
良い。
ト状態管理部110内の不図示のメモリ内に格納され
る。
ら図5Bの状態に変化したとき、イルカの状態番号Sは
S:0→1となり、その結果、イルカのモーション番号
MTはMT:0→1となる。なお、このモーション番号
MTの変化に伴ったモーションの変化も、上述のモーシ
ョン補間により、滑らかになる。
「ユーザの手を3秒以内に左右に3回以上振ると、イル
カは引っ込む」としたとき、ユーザが手を3秒以内に3
回振ると、イルカを呼びだしたときと同じように、ユー
ザが手を左右に3回「振った」と判断され、イルカは引
っ込む。なお、このときにイルカの状態番号Sの変化は
S:1→3、モーション番号MTの変化はMT:1→3
となる。
示すように、「ユーザが手を上下に2回振る」と、図5
Dに示すように「イルカがはねる」としたとき、ユーザ
が上下に2回手を振ったら、イルカの状態番号SはS:
0→2となり、モーション番号MTは、MT:0→2と
なる。また、図5Bの状態から図5Dの状態に変化する
場合も考えられ、その場合、状態番号SはS:1→2、
モーション番号MTはMT:1→2となる。
カの状態遷移則を図10に示す。なお同図において、
「水面から飛び跳ねる(着水する)」状態(S=2,M
T=2)から初期状態(S=0,MT=0)、もしく
は、「引っ込む」状態(S=3,MT=3)から初期状
態(S=0,MT=0)には無条件で状態遷移するもの
とする。
イルカの状態は遷移し、状態の遷移に応じたモーション
番号MTで特定されるモーションデータを再生すること
で、イルカに対する操作感(コミュニケーション)がよ
り直感的となる。
ョンを、コミュニケーションレベル1と呼び、ユーザと
イルカとのコミュニケーションにおける前段のレベルで
ある。
ケーションレベル1において、無条件の状態遷移を除く
状態遷移の回数が、例えば3回以上となった場合、コミ
ュニケーションレベル2に移行する。そして、コミュニ
ケーションレベル2に移行した場合、このレベルにおけ
るイルカの初期状態を「水面から顔を出す」(状態番号
S=1)とする。つまり、コミュニケーションレベル2
における初期状態は、図5Bに示した状態となる。
けるイルカの状態として、コミュニケーションレベル1
における3つに加えて更に以下の2つを例として規定す
る。
番号(モーション番号)MTを、コミュニケーションレ
ベル1における3つに加えて、更に以下の2つを例とし
て規定する。
T=1)で、例えば、「ユーザが手を2秒以内に前後も
しくは左右に2回以上振ると、イルカはユーザの方を見
る。」とすると、ユーザが手を2秒以内に前後もしくは
左右に2回以上振れば、状態番号S:1→4となり、モ
ーション番号MT:1→4となる。なお、ユーザが手を
2秒以内に前後もしくは左右に2回振ったと判断された
ときには、前述の通り、手の速度ベクトルvx、もしく
はvzが2秒以内に2回以上、閾値ε以上変化したと判
断された場合である。
MT=4で特定されるモーションを再生すると共に、イ
ルカをユーザの方に向けなくてはいけないので、イルカ
から見たユーザの方向が必要となる。この場合、状態番
号Sが4となった時点で、イルカの位置(ユーザの手の
位置)のデータ、とユーザの頭部の位置のデータを用い
てイルカの位置から見たユーザの頭部の位置への方向を
計算する。
手を(手のローカル座標系においてz軸周りに)30度
以上傾けると、イルカはあわてる」とすると、手の位置
姿勢センサ104が位置姿勢計測部103に出力したユ
ーザの手の位置、姿勢を示す信号に基づいて位置姿勢計
測部103が計測し、その結果手が30度以上傾いてい
た場合、イルカの状態番号SはS:1→5となり、それ
に伴って、モーション番号MTもMT:1→5となる。
ように、ユーザの手の動きに応じてイルカの状態は遷移
し、それに伴ってイルカのモーションは変化するので、
コミュニケーションレベル1と同様に、ユーザはイルカ
に対する操作感(コミュニケーション)を直感的にとら
えることができる。
ベル2におけるユーザの動作に応じたイルカの状態遷移
則を図11に示す。同図において、「ユーザの方を見
る」状態(S=4)では、MT=4で特定される「ユー
ザの方を見る」モーションが終了すれば、無条件で初期
状態に戻る。また、「あわてる」状態(S=5)は、ユ
ーザの手の傾きが30度以上である間は、ずっと続いて
いており、「あわてる」モーションもその間はずっと続
いている。そして、ユーザの手の傾きが30度以内にな
り、且つ、「あわてる」モーションが終了したら、初期
状態に戻る。
て、コミュニケーションレベル1で示した状態番号と同
じ番号(例えばS=2)で示される状態となっても、コ
ミュニケーションレベル1と同じモーション(MT=
2)でなく、他のモーションを用いても良い。
ョンを、コミュニケーションレベル2と呼び、ユーザと
イルカとの初歩的なコミュニケーションであり、こちら
からのコミュニケーションにイルカが行動で応じるレベ
ルである。
ケーションレベル2において、無条件の状態遷移を除く
状態遷移の回数が、例えば5回以上となった場合、コミ
ュニケーションレベル3に移行する。そして、コミュニ
ケーションレベル3における初期状態もコミュニケーシ
ョンレベル2と同様に、「水面から顔を出す」(状態番
号S=1)とする。つまり、コミュニケーションレベル
3においても、その初期状態は、図5Bに示した状態と
なる。
は自発的にユーザに対して話しかけるようになり、イル
カが話す内容は予めテーブル(発声内容テーブル)とし
て複数格納しておき、例えばユーザが一定時間何もしな
ければ、ランダムにこのテーブルからイルカが話す内容
が選択され、この内容に基づいた音声データが音声合成
部108において生成され、スピーカ107からこの音
声データが音声として出力される。また、ちらちらとユ
ーザの方を見たりもする。なお、この発声内容テーブル
はペット状態管理部110内の不図示のメモリ内に格納
され、CPU101により参照される。
けるイルカの状態として、コミュニケーションレベル
1,2に加えて更に、2つを追加する。
番号(モーション番号)MTを、コミュニケーションレ
ベル1,2に加えて、更に2つ追加する。
1)で、例えば、「ユーザが手を3秒以内に前後もしく
は左右に3回振ると、イルカはうれしそうに笑う」とす
ると、ユーザが手を3秒以内に前後もしくは左右に3回
以上振れば、状態番号S:1→6となり、モーション番
号MT:1→6となる。なお、ユーザが手を3秒以内に
前後もしくは左右に3回振ったと判断されたときには、
状態番号S=4となるときに説明したように、手の速度
ベクトルvx、もしくはvzを用いて判断する。
述の発声内容テーブルを参照し、複数の笑う声からラン
ダムに選択して上述のとおり音声としてスピーカ107
に出力する。又、笑う声を選択する際には、例えば図1
3に示すように、状態番号Sを声の種類のグループ番号
1301とした構成をとる発声内容テーブルを作成す
る。そして、S=6の場合、グループ番号が6になるの
で、発声内容データのうち1304で示す範囲内の発声
内容データが候補として選択され、サブ番号1302
(S=6の場合、1〜3)をランダムに選択すること
で、笑う声のデータが特定される。S=7の場合も同様
に、1305で示される範囲内の発声内容データが候補
となり、そのうち、サブ番号1302をランダムに選択
することで、文句の発声内容が選択される。なお、この
テーブルには音声内容データ以外に効果音を同様に格納
してもよく、上述の説明による発声内容の特定方法を適
用しても良いことは明白である。なお図13に示したテ
ーブルはペット状態管理部110内の不図示のメモリ内
に格納される。
を(手のローカル座標系においてz軸周りに)30度以
上傾けると、イルカは文句を言う」とすると、状態番号
S=5の時に説明したとおり、手の位置姿勢センサ10
4,位置姿勢計測部103によって、手の角度が計測さ
れ、計測された手の傾きが30度以上であった場合、イ
ルカの状態番号SはS:1→7となり、それに伴って、
モーション番号MTもMT:1→7となる。又、状態番
号S=7に応じた文句の内容が、上述の発生内容テーブ
ルに格納されているので、このテーブルから発生する内
容をランダムに選択し、この内容に基づいた音声データ
が音声合成部108によって生成され、スピーカ107
からこの音声データが音声として出力される。
同じように、ユーザの手の動きに応じてイルカの状態は
遷移し、それに伴ってイルカのモーションは変化するの
で、コミュニケーションレベル1、2と同様に、ユーザ
はイルカに対する操作感(コミュニケーション)を直感
的にとらえることができる。
3におけるユーザの動作に応じたイルカの状態遷移則を
図12に示す。同図において、「うれしそうに笑う」状
態(S=6)において、イルカの「うれしそうに笑う」
モーション(MT=6)が終了すると、無条件に初期状
態(S=1,MT=1)に状態遷移する。なおこの状態
遷移に伴って、「うれしそうに笑う」声も停止する。
ョンを、コミュニケーションレベル3と呼び、コミュニ
ケーションレベル2よりもユーザとイルカとのコミュニ
ケーションがインタラクティブに行われ、イルカが音声
を発するレベルである。
てイルカの発声する内容は、スピーカ107を介して音
声として出力されたが、図13に示した発声内容データ
を音声データではなく、文字として同図に示したテーブ
ルに記載し、このテーブルを参照することで、イルカの
発声内容を吹き出しとして画像形式でHMD105に出
力し、表示部105cに表示しても良い。
ションレベルに関係なく、ユーザはイルカとのコミュニ
ケーションを終了することができる。その方法として例
えば、「ユーザの手を一定の高さ以上に上げ、左右に振
る(手を挙げて、バイバイとするような仕草)と、イル
カは水面下に消え、イルカとのコミュニケーションを終
了する。」とする。
中に引っ込む)とし(モーション番号MTはMT=3と
なる)、その後、コミュニケーションレベル1において
も説明したとおり、無条件にS=0となる(モーション
番号MT=0となる)。
限らずに、ユーザが上述のコミュニケーション終了の動
作を行った場合、例えば「イルカがバイバイと手を振っ
て、水中に引っ込む。」とすると、この時のイルカの状
態番号SをS=99とし、これに応じたイルカのモーシ
ョン番号MTをMT=99とすることもできる。なお、
このモーション番号MT(=99)で特定されるモーシ
ョンは、「イルカがバイバイと手を振って、水中に引っ
込む。」となる。そして、モーション番号MT=99で
特定されるモーションが終了すると、無条件に状態番号
S、モーション番号MTは共に0となる。
が行う処理>以上の各処理を行う本実施形態における複
合現実感提示装置が行う処理のフローチャートを図14
〜17に示す。なお、同図に示したフローチャートに従
ったプログラムコードはRAM112(もしくはROM
111でもよいが)に格納され、CPU101により読
み出され、実行される。
提示装置がメインに行う処理のフローチャートである。
ば、コミュニケーションレベルを1に設定したり、イル
カのモデルデータを読み出したり、イルカの状態番号
S、モーション番号MTを共に0にしたり、各コミュニ
ケーションレベルにおいて、状態遷移回数を0にしたり
する処理を行う(ステップS1401)。
(ステップS1402)。計測の方法については上述の
通りで、計測された結果から、上述のマトリクスMh、
Mtを生成する。また、ユーザが所定時間内に手を左
右、上下に振った回数もカウントする。そして一定時間
手を「振った」と判定されなくなった場合、このカウン
ト数はリセットされる。
た、夫々のサブルーチン(ステップS1404,S14
05,S1406)へ処理を分岐させる(ステップS1
403)。
る処理の結果、決定したモーション番号MTに応じたモ
ーションを特定し、イルカの位置姿勢マトリクスMdを
生成すると共に(ステップS1407)、イルカのモデ
ルを表示させる(ステップS1408)。
否かを判断して、終了しないのであれば(上述の終了の
動作をユーザが行わなかったら)、処理をステップS1
402に移行する。
ル1における本実施形態における複合現実感提示装置が
行う処理のフローチャートを示す。なお、本フローチャ
ートにおける処理は、図10に示した状態遷移の処理で
もある。また以下で、ユーザが手を左右に振った回数を
示す変数としてNLR、上下に振った回数を示す変数とし
てNUPを用い、コミュニケーションレベル1における状
態遷移回数を示す変数をL1とする。
応じた処理に分岐させる(ステップS1501)。
いて説明する。上述の通り、NLR≧5(ユーザの手を左
右に5回以上振る)ならば(ステップS1502)、S
=1,MT=1(水面から顔を出す)となり、状態遷移
回数を1つ加算(L1=L1+1)する(ステップS1
504)。一方、NLR<5で、NUP≧2(ユーザの手を
2回以上上下に振る)ならば(ステップS1503)、
S=2,MT=2(水面から飛び跳ねる(着水する))
となり、状態遷移回数を1つ加算する(ステップS15
05)。
3,MT=3、L1=L1+1となる(ステップS15
07)。
ねている状態なので、飛び跳ねているモーション(モー
ション番号MT=2)が終了したか否か(イルカが着水
したか否か)を判断して(ステップS1508)、終了
したら、S=0,MT=0となる(ステップS150
9)。なお、この状態遷移S:2→0は、無条件で行わ
れるために、状態遷移回数L1はカウントされない。
の時と同様に、水中に引っ込むモーション(モーション
番号MT=3)が終了したか否かを判断し(ステップS
1510)、終了したら、S=0,MT=0となる(ス
テップS1511)。
を判断し(ステップS1512)、L1<3ならば、処
理をステップS1501に移行し、L1≧3ならば、コ
ミュニケーションレベルを1つ上げ、コミュニケーショ
ンレベル2に移行する(ステップS1513)。
ル2における本実施形態における複合現実感提示装置が
行う処理のフローチャートを示す。なお、本フローチャ
ートにおける処理は、図11に示した状態遷移の処理で
もある。また、コミュニケーションレベル2における状
態遷移回数を示す変数をL2とする。
図15に示したコミュニケーションレベル1における処
理と同様に、状態番号Sにより、イルカの各状態に応じ
た処理に分岐させ(ステップS1601)、上述の通
り、ユーザの手の動きに応じて、状態番号Sと、モーシ
ョン番号MTを変更させ、無条件の状態遷移でない場合
の状態遷移回数L2をカウントする。そしてこの状態遷
移回数L2がL2≧5ならば(ステップS1612)、
コミュニケーションレベルを1つ上げ、コミュニケーシ
ョンレベル3に移行する(ステップS1613)。
ル3における本実施形態における複合現実感提示装置が
行う処理のフローチャートを示す。なお、本フローチャ
ートにおける処理は、図12に示した状態遷移の処理で
もある。
図15、16に示した夫々コミュニケーションレベル
1、2における処理と同様に、状態番号Sにより、イル
カの各状態に応じた処理に分岐させ(ステップS170
1)、上述の通り、ユーザの手の動きに応じて、状態番
号Sと、モーション番号MTを変更させる。また、コミ
ュニケーションレベル3においては、音声(もしくは効
果音でも良いが)の出力があり、ステップS1707,
ステップS1711において、夫々上述の通り、状態番
号Sをグループ番号とする図13に示したテーブルを用
いて、出力する音声を特定し、スピーカ107に出力す
る。
感提示装置及びその方法を用いることで、ユーザは自身
の手の動きによって、仮想物体としてのイルカに対して
メッセージを送ることができる。また、このユーザから
のメッセージを受けたイルカは、受けたメッセージに応
じた行動をとったり、音声を発したりし、ユーザはより
直感的にイルカとのコミュニケーションをとることがで
きる複合現実感を体感することができる。
ユーザの手の状態を計測するセンサとして、位置、姿勢
のみであったが、ユーザの手に、例えば、光スイッチ、
データグローブ(これらをまとめて、以下では、手の開
閉センサと呼ぶ)などを装着することにより、ユーザの
指の状態(位置、姿勢)を計測することができ、例え
ば、「手を握る」、「手を開く」なども計測することが
できる。なお、この手の開閉センサは、位置姿勢計測部
103に接続することで、手の開閉センサから入力し
た、ユーザの手の開閉を示す信号を解析し、ユーザの手
の開閉の状態をマトリクスとして表現することができ
る。
とで、仮想空間におけるユーザの各指(もしくは各指の
各関節)の位置を特定することができ、この位置と、イ
ルカの位置情報から、ユーザの手とイルカとの接触の度
合いが計算できる。その結果、例えば、ユーザが手をだ
んだん握っていくことで、「イルカが苦しがる」とい
う、ユーザとイルカとの新たなコミュニケーションを、
ユーザに提供することができる。
定する状態番号Sと、この状態の動きを示すモーショ
ン、このモーションを特定するモーション番号MTを新
たに用意し、モーションのデータを図7に示したペット
状態管理部110内の不図示のメモリ内に追加して格納
し、この格納したアドレスと共に、このモーションを特
定するモーション番号MTを図6に示すテーブルに追加
する。また、図8に示すテーブルに、この状態番号S
と、モーション番号MTを追加して格納する。このよう
にすることで、この状態に遷移する条件を設定すれば、
ユーザがこの条件を満たす行動を行うことで、イルカは
苦しがる。
これに限らず、他にもユーザが手を開くと「イルカは喜
ぶ」といった状態を生成することも、上述の説明によ
り、実現可能であることは明白である。
一人のユーザとこのユーザが有するペット(イルカ)と
のコミュニケーションの為の複合現実感提示装置及びそ
の方法を示した。本実施形態では、複数のユーザが同空
間内に存在し、これら複数のユーザに対して第1の実施
形態で示した複合現実感を提供することができる複合現
実感提供システムを示す。
ムの概略構成を図18に示す。同図の通り、本実施形態
における複合現実感提供システムは、1つのサーバ(1
801)と4つの複合現実感提示装置(A,B,C,
D)から構成され、サーバと複合現実感提示装置との間
は、イーサネット(登録商標)などのネットワークで接
続されている。
これら4つのポートP1,P2,P3,P4には夫々、
複合現実感提示装置A、B、C、Dが自身のデータ通信
部109を介して接続されている。又、図示していない
が、夫々の複合現実感提示装置A,B,C,Dを使用し
ているユーザを夫々以下、ユーザA、B、C、Dと呼
ぶ。
OM1804内に格納されているプログラムコードやデ
ータを用いて、サーバ1801全体の制御を行うと共
に、接続された4つの複合現実感提示装置A、B、C、
Dとの通信制御を行う。
御するプログラムコードやデータが格納されており、ま
た、文字コードなども格納している。
やフロッピーディスクなどの記憶媒体からインストール
された各種のドライバやプログラムコードやデータなど
を保存する。
02を格納すると共に、CPU1803が後述の各処理
を実行する際のワークエリアとしても用いられている。
実感提示装置A、B、C、Dとの通信を行うためのイン
ターフェースである。
このテーブル1802には、各複合現実感提示装置を使
用しているユーザに関する情報(1802a〜1802
d)と、各ユーザのイルカに関する情報(1802e〜
1802g)が記載されている。また、所有フラグ18
02hは、イルカを所有しているユーザには1、所有し
ていないユーザには0が割り当てられる。
する情報として、ユーザの頭部及び手の位置は、全ユー
ザが存在する共通の空間内での絶対座標値であって、こ
の位置の計測のための原点は、第1の実施形態では、位
置姿勢計測部103の位置であった。しかし、本実施形
態における原点は全ユーザに共通でなくてはいけない。
よって、所定の1点を設定し、この1点の位置を原点と
する。
02の他にも、第1の実施形態で説明したモーションデ
ータや、発声内容テーブルなどをRAM1802内に格
納している。
示装置(複合現実感提示装置A,B,C,D)は、第1
の実施形態において説明した複合現実感提示装置からペ
ット状態管理部110を取り外した複合現実感提示装置
であって、各複合現実感提示装置から取り外されたペッ
ト状態管理部110内の情報の一部をテーブル化したも
のが、テーブル1802である。そして本実施形態にお
ける複合現実感提示装置A,B,C,Dは、このテーブ
ル1802を参照することで、各装置を使用しているユ
ーザの状態、イルカの状態を把握することができ、各装
置のユーザに対して第1の実施形態で説明した複合現実
感を体感させることができる。
参照することができるため、例えば装置Bを使用してい
るユーザBは、他のユーザが操作しているイルカを見る
ことができる。このことは、装置Bが、他のユーザのイ
ルカの情報をテーブル1802を参照することで把握で
きることに起因する。
ることで、ユーザ同士でペットの交換を行うことができ
る。例えばユーザBが、ユーザCに対してペットを譲渡
する行為のことである。ここで、このペット交換を行う
ためのユーザがとるべき動作として、本実施形態では以
下のように規定する。
手を20センチ程近づけ、ペットを譲渡するユーザ(ユ
ーザ甲)の手を、ペットを譲渡されるユーザ(ユーザ
乙)の手よりも5センチ程上に動かす。」 なお、以下のペット交換は、所有フラグが1のユーザか
ら所有フラグか0のユーザに対してのみ行われ得るもの
とする。しかし、テーブル1802の構成方法によって
は、個人で複数のイルカを所有することができる(本実
施形態の範疇ではないので、ここではその方法について
は省略する)。よって、その場合、ペット交換は任意の
ユーザ間で行うことができる。
動作を実行することで、ユーザ甲の手からペットが飛び
出て、ユーザ乙の手に飛び移り、ユーザ甲が所有してい
たペットがユーザ乙に譲渡される。
ユーザB、ユーザ乙をユーザCとするが、これに限らず
に、ユーザ甲、乙がいずれのユーザであっても良いこと
は後述により明白である。。
ムが、このペット交換を実現する際に行う処理につい
て、図19A〜図19Dを用いて説明する。
図19Aに示すように、ユーザB、Cが互いの手を20
センチ程に近づける。互いの手の間の距離の計測方法と
しては、テーブル1802にはユーザB、Cの手の座標
値が記載されており、又常に更新されているので(装置
B、Cで計測された手の座標値をサーバ1801が読み
とってテーブル1802を更新する)、サーバ1801
はこの夫々のユーザB、Cの手の座標値から、互いの手
の間の距離をCPU1803により計算する。そして、
図19Aに示すように、互いの手の間の距離が20セン
チ程になったら、ユーザB、Cが使用する装置B、Cに
対して、サーバ1801はモード変更信号を出力する。
この信号を受けた装置B、Cは夫々ペット交換のモード
に変更される。詳細は後述する。
すように、ユーザCの手は動かさずに、ユーザBの手を
5センチ程上に移動させると、図19Cに示すように、
ユーザBの手の位置から、ユーザBのイルカがユーザC
の手の位置に飛び出す。
(ここでは50とする)と、この状態番号Sに応じたイ
ルカのモーションとして「20センチ前に飛び出す」モ
ーションと、このモーションを特定する番号MTを第2
の実施形態において説明したとおりに各テーブルに登録
し、上述の譲渡動作をS=50となるための条件とする
ことで、ユーザB、Cが夫々上述の譲渡動作を行った時
点で、図19Cに示した上述の譲渡が行われる。
ル1802において、ユーザBの所有フラグは0とな
り、ユーザCの所有フラグは1となる。又、ユーザBの
イルカに関する情報はそのままユーザCのイルカに関す
る情報として、図18においてユーザCの行にコピーさ
れる。
1が行う処理について、この処理のフローチャートを示
す図21を用いて説明する。なお同図に示されたフロー
チャートにプログラムコードはRAM1802内に格納
され、CPU1803により読み出され、実行される。
報(頭部の位置姿勢、手の位置姿勢)を各ユーザの使用
する装置から読み出して、テーブル1802を定期的に
更新している(ステップS2101)。そして上述の通
り、それぞれの手の間隔が20センチ程となっているユ
ーザ2名をテーブル1802(手の状態が記載されてい
る列1802d)に基づいて探し、それぞれの手の間隔
が20センチ程となっているユーザ2名がいた場合(ス
テップS2102)、これらのユーザが使用している装
置に対して上述のモード変更信号を出力する(ステップ
S2103)。
装置(上述の例ではユーザBが使用する装置)のメイン
の処理のフローチャートとして、図14に示したフロー
チャートにおいて、ステップS1401で更に、複合現
実感提示装置の動作モードをノーマルモード(図14に
示したフローチャートに従った処理を行うモード)に設
定し、ステップS1402の次の処理で、動作モード
が、ペット交換モードになっていないか否かを判断し、
ペット交換モードの場合には、新たに処理を図20に示
すフローチャートに移行するフローチャートとなる。な
お同図において、ユーザBの所有フラグをFs、ユーザ
Cの所有フラグをFrとする。
手の位置に飛んでいるモーションの最中か否かを判断す
る(ステップS2001)。ここでモーションの最中で
ないならば、次に、イルカがユーザCの手の位置に飛ん
でいるモーションが終了したところか否かを判断する
(ステップS2002)。ここで、モーションが終了と
ころでない、つまり、イルカの譲渡をまだ行っていなけ
れば、テーブル1802を参照し、ユーザB、Cの所有
フラグを確認する。つまり、Fs(ユーザBの所有フラ
グ)が1で、Fr(ユーザCの所有フラグ)は0である
か否かを判断する(ステップS2003)。
手の位置よりも5センチ程上か否かを判断し(ステップ
S2004)、5センチ程上であった場合には、イルカ
の状態番号S及びモーション番号MTを設定(上記の例
ではS=50とそれに応じたモーション番号に設定)し
(ステップS2005)、処理をステップS1407に
移行する。つまり、設定したモーション番号に応じたモ
ーションを実行する。
ションが終了したら、サーバ1801に格納されている
テーブル1802に記載の所有フラグFs、Frの書き
換えを行う。つまり、Fs:1→0、Fr:0→1とす
る(ステップS2006)。
ーチャート(図20を含む)に従ったプログラムコード
は、RAM112(もしくはROM111でもよいが)
に格納され、CPU101により読み出され、実行され
る。
ステムは、複数のユーザがイルカとのコミュニケーショ
ンをとる複合現実感を体感できるだけでなく、ユーザ間
で互いのイルカを見ることができたり、イルカの交換を
行うこともできる。また、テーブルなど比較的メモリの
容量を圧迫しかねないデータをサーバに格納すること
で、各複合現実感提示装置が負担するメモリ容量をより
少なくする事ができる。 [他の実施形態]本発明の目的は、前述した実施形態の
機能を実現するソフトウェアのプログラムコードを記録
した記憶媒体(または記録媒体)を、システムあるいは
装置に供給し、そのシステムあるいは装置のコンピュー
タ(またはCPUやMPU)が記憶媒体に格納されたプログラ
ムコードを読み出し実行することによっても、達成され
ることは言うまでもない。この場合、記憶媒体から読み
出されたプログラムコード自体が前述した実施形態の機
能を実現することになり、そのプログラムコードを記憶
した記憶媒体は本発明を構成することになる。また、コ
ンピュータが読み出したプログラムコードを実行するこ
とにより、前述した実施形態の機能が実現されるだけで
なく、そのプログラムコードの指示に基づき、コンピュ
ータ上で稼働しているオペレーティングシステム(OS)な
どが実際の処理の一部または全部を行い、その処理によ
って前述した実施形態の機能が実現される場合も含まれ
ることは言うまでもない。
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
の記憶媒体には、先に説明した(図14〜図17に示
す)フローチャート、及び/又は第3の実施形態で説明
した図20を含むフローチャートに対応するプログラム
コードが格納されることになる。
ユーザの所定の部位による所定の動作により、仮想物体
の状態を遷移させることで、この仮想物体の存在感の認
知を容易にすることができる。
示装置の内部の概略構成を示すブロック図である。
ザの頭部のローカル座標系を示す図である。
の頭部のローカル座標系を示す図である。
カを呼び出す状態を示す図である。
カが顔を出した状態を示す図である。
る。
イルカが飛び跳ねる状態を示す図である。
ンが格納されたアドレスとが対応して記載されたテーブ
ルを示す図である。
110内の不図示のメモリ内のメモリ領域を示す図であ
る。
されたテーブルを示す図である。
する場合を説明する図である。
の動作に応じたイルカの状態遷移則を示す図である。
の動作に応じたイルカの状態遷移則を示す図である。
の動作に応じたイルカの状態遷移則を示す図である。
提示装置がメインに行う処理のフローチャートである。
提示装置がメインが、コミュニケーションレベル1にお
いて行う処理のフローチャートである。
提示装置がメインが、コミュニケーションレベル2にお
いて行う処理のフローチャートである。
提示装置がメインが、コミュニケーションレベル3にお
いて行う処理のフローチャートである。
提供システムの概略構成を示す図である。
示す図である。
う動作を示す図である。
ある。
ある。
感提示装置が行う処理のフローチャートである。
う処理のフローチャートである。
Claims (16)
- 【請求項1】 仮想物体の画像を生成し、当該画像を現
実空間に重畳してユーザに提示する複合現実感提示装置
であって、 ユーザの所定部位の位置姿勢を計測する計測手段と、 前記計測手段の計測結果に基づいて、前記所定部位によ
る所定動作を検知する検知手段と、 前記検知手段による検知結果に応じて、前記仮想物体の
内部状態を、当該内部状態とは別の内部状態に遷移させ
る遷移手段と、 前記内部状態に基づいた仮想物体の映像をユーザに提示
する提示手段とを備えることを特徴とする複合現実感提
示装置。 - 【請求項2】 更に、現実空間の映像を撮像する撮像手
段と、 前記撮像手段による現実空間の映像と、前記仮想物体と
を合成し、合成映像を生成する合成手段とを備え、前記
提示手段は、前記仮想物体の映像を含む前記合成手段に
よる合成映像を、ユーザに提示することを特徴とする請
求項1に記載の複合現実感提示装置。 - 【請求項3】 更に、前記所定部位による前記所定動作
と、前記仮想物体の状態遷移に関する情報とを関連づけ
て複数管理する管理手段を備え、 前記遷移手段は、前記管理手段で管理されている、前記
所定部位による前記所定動作に応じた前記仮想物体の状
態遷移に関する情報を参照することで、前記仮想物体の
状態を遷移させることを特徴とする請求項1又は2に記
載の複合現実感提示装置。 - 【請求項4】 更に、前記仮想物体が発する内容に関す
る情報を格納する内容格納手段を備え、 前記遷移手段は、前記仮想物体の状態を遷移させる際、
前記内容格納手段に格納された前記情報から、前記仮想
物体の状態の遷移先に応じた情報を選択することを特徴
とする請求項1乃至3のいずれか1項に記載の複合現実
感提示装置。 - 【請求項5】 前記仮想物体が発する内容に関する情報
は、当該内容を発声する音声のデータ、当該内容を示す
文字のデータのいずれかを含むことを特徴とする請求項
4に記載の複合現実感提示装置。 - 【請求項6】 複数の状態決定パラメータによって外
観、動作等可視的な状態及び/又は内部状態が決定され
る仮想生物及び/又は前記仮想生物の環境の映像を現実
空間もしくはその映像に重畳してユーザに提示すること
により、仮想生物との仮想のコミュニケーションを提供
する複合現実感提示装置であって、 ユーザの所定部位の位置姿勢を計測する計測手段と、 前記計測手段の計測結果に基づいて、前記所定部位の動
作を検知する検知手段と、 前記検知手段の検知結果に応じて、前記複数の状態決定
パラメータのうち、所定のパラメータの値を変化させる
状態遷移手段と、 前記複数の状態決定パラメータに基づいて、前記仮想生
物の映像を生成する映像生成手段と、 前記仮想生物の映像を、前記現実空間もしくはその映像
と重畳してユーザに提示する提示手段とを備えることを
特徴とする複合現実感提示装置。 - 【請求項7】 仮想物体の画像を生成し、当該画像を現
実空間に重畳してユーザに提示する複合現実感提示方法
であって、 ユーザの所定部位の位置姿勢を計測する計測工程と、 前記計測工程の計測結果に基づいて、前記所定部位によ
る所定動作を検知する検知工程と、 前記検知工程による検知結果に応じて、前記仮想物体の
内部状態を、当該内部状態とは別の内部状態に遷移させ
る遷移工程と、 前記内部状態に基づいた仮想物体の映像をユーザに提示
する提示工程とを備えることを特徴とする複合現実感提
示方法。 - 【請求項8】 更に、現実空間の映像を所定の撮像手段
で撮像する撮像工程と、 前記撮像工程による現実空間の映像と、前記仮想物体と
を合成し、合成映像を生成する合成工程とを備え、前記
提示工程では、前記仮想物体の映像を含む前記合成工程
による合成映像を、ユーザに提示することを特徴とする
請求項7に記載の複合現実感提示方法。 - 【請求項9】 更に、前記所定部位による前記所定動作
と、前記仮想物体の状態遷移に関する情報とを関連づけ
て所定の管理手段に複数管理する管理工程を備え、 前記遷移工程では、前記所定の管理手段で管理されてい
る、前記所定部位による前記所定動作に応じた前記仮想
物体の状態遷移に関する情報を参照することで、前記仮
想物体の状態を遷移させることを特徴とする請求項7又
は8に記載の複合現実感提示方法。 - 【請求項10】 更に、前記仮想物体が発する内容に関
する情報を所定の格納手段に格納する内容格納工程を備
え、 前記遷移工程では、前記仮想物体の状態を遷移させる
際、前記所定の格納手段に格納された前記情報から、前
記仮想物体の状態の遷移先に応じた情報を選択すること
を特徴とする請求項7乃至9のいずれか1項に記載の複
合現実感提示方法。 - 【請求項11】 複数の状態決定パラメータによって外
観、動作等可視的な状態及び/又は内部状態が決定され
る仮想生物及び/又は前記仮想生物の環境の映像を現実
空間もしくはその映像に重畳してユーザに提示すること
により、仮想生物との仮想のコミュニケーションを提供
する複合現実感提示方法であって、 ユーザの所定部位の位置姿勢を計測する計測工程と、 前記計測工程の計測結果に基づいて、前記所定部位の動
作を検知する検知工程と、 前記検知工程の検知結果に応じて、前記複数の状態決定
パラメータのうち、所定のパラメータの値を変化させる
状態遷移工程と、 前記複数の状態決定パラメータに基づいて、前記仮想生
物の映像を生成する映像生成工程と、 前記仮想生物の映像を、前記現実空間もしくはその映像
と重畳してユーザに提示する提示工程とを備えることを
特徴とする複合現実感提示方法。 - 【請求項12】 仮想物体の画像を生成し、当該画像を
現実空間に重畳してユーザに提示する複合現実感提示処
理のプログラムコードを格納する記憶媒体であって、 ユーザの所定部位の位置姿勢を計測する計測工程のプロ
グラムコードと、 前記計測工程の計測結果に基づいて、前記所定部位によ
る所定動作を検知する検知工程のプログラムコードと、 前記検知工程による検知結果に応じて、前記仮想物体の
内部状態を、当該内部状態とは別の内部状態に遷移させ
る遷移工程のプログラムコードと、 前記内部状態に基づいた仮想物体の映像をユーザに提示
する提示工程のプログラムコードとを備えることを特徴
とする記憶媒体。 - 【請求項13】 更に、現実空間の映像を所定の撮像手
段で撮像する撮像工程のプログラムコードと、 前記撮像工程による現実空間の映像と、前記仮想物体と
を合成し、合成映像を生成する合成工程のプログラムコ
ードとを備え、前記提示工程では、前記仮想物体の映像
を含む前記合成工程による合成映像を、ユーザに提示す
ることを特徴とする請求項12に記載の記憶媒体。 - 【請求項14】 更に、前記所定部位による前記所定動
作と、前記仮想物体の状態遷移に関する情報とを関連づ
けて所定の管理手段に複数管理する管理工程のプログラ
ムコードを備え、 前記遷移工程では、前記所定の管理手段で管理されてい
る、前記所定部位による前記所定動作に応じた前記仮想
物体の状態遷移に関する情報を参照することで、前記仮
想物体の状態を遷移させることを特徴とする請求項12
又は13に記載の記憶媒体。 - 【請求項15】 更に、前記仮想物体が発する内容に関
する情報を所定の格納手段に格納する内容格納工程のプ
ログラムコードを備え、 前記遷移工程では、前記仮想物体の状態を遷移させる
際、前記所定の格納手段に格納された前記情報から、前
記仮想物体の状態の遷移先に応じた情報を選択すること
を特徴とする請求項12乃至14のいずれか1項に記載
の記憶媒体。 - 【請求項16】 複数の状態決定パラメータによって外
観、動作等可視的な状態及び/又は内部状態が決定され
る仮想生物及び/又は前記仮想生物の環境の映像を現実
空間もしくはその映像に重畳してユーザに提示すること
により、仮想生物との仮想のコミュニケーションを提供
する複合現実感提示処理のプログラムコードを格納する
記憶媒体であって、 ユーザの所定部位の位置姿勢を計測する計測工程のプロ
グラムコードと、 前記計測工程の計測結果に基づいて、前記所定部位の動
作を検知する検知工程のプログラムコードと、 前記検知工程の検知結果に応じて、前記複数の状態決定
パラメータのうち、所定のパラメータの値を変化させる
状態遷移工程のプログラムコードと、 前記複数の状態決定パラメータに基づいて、前記仮想生
物の映像を生成する映像生成工程のプログラムコード
と、 前記仮想生物の映像を、前記現実空間もしくはその映像
と重畳してユーザに提示する提示工程のプログラムコー
ドとを備えることを特徴とする記憶媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000294790A JP3517639B2 (ja) | 2000-09-27 | 2000-09-27 | 複合現実感提示装置及びその方法並びに記憶媒体 |
US09/812,675 US6685566B2 (en) | 2000-09-27 | 2001-03-21 | Compound reality presentation apparatus, method therefor, and storage medium |
EP01303055A EP1193651A3 (en) | 2000-09-27 | 2001-03-30 | Compound reality presentation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000294790A JP3517639B2 (ja) | 2000-09-27 | 2000-09-27 | 複合現実感提示装置及びその方法並びに記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002112286A true JP2002112286A (ja) | 2002-04-12 |
JP3517639B2 JP3517639B2 (ja) | 2004-04-12 |
Family
ID=18777320
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000294790A Expired - Fee Related JP3517639B2 (ja) | 2000-09-27 | 2000-09-27 | 複合現実感提示装置及びその方法並びに記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US6685566B2 (ja) |
EP (1) | EP1193651A3 (ja) |
JP (1) | JP3517639B2 (ja) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004171543A (ja) * | 2002-11-07 | 2004-06-17 | Matsushita Electric Ind Co Ltd | 画像処理方法及びその装置 |
JP2005293142A (ja) * | 2004-03-31 | 2005-10-20 | Canon Inc | 画像処理方法および画像処理装置 |
JP2007286851A (ja) * | 2006-04-14 | 2007-11-01 | Canon Inc | 画像処理システム、画像処理装置、撮像装置、及びそれらの制御方法 |
JP2008299429A (ja) * | 2007-05-29 | 2008-12-11 | Canon Inc | 情報処理装置、情報処理方法 |
JP2011191899A (ja) * | 2010-03-12 | 2011-09-29 | Konami Digital Entertainment Co Ltd | 画像処理装置、画像処理方法、ならびに、プログラム |
JP2012203786A (ja) * | 2011-03-28 | 2012-10-22 | Tomy Co Ltd | 情報処理装置および情報処理プログラム |
KR101279869B1 (ko) | 2012-03-23 | 2013-06-28 | 국방과학연구소 | 두부 장착형 디스플레이를 이용한 비행 시뮬레이터 영상 시현 장치 및 방법 |
WO2013145614A1 (ja) * | 2012-03-27 | 2013-10-03 | パナソニック株式会社 | 情報処理装置、サーバ装置、情報処理方法、およびプログラム |
JP2014010838A (ja) * | 2012-06-29 | 2014-01-20 | Disney Enterprises Inc | 拡張現実感シミュレーション連続体 |
WO2014016992A1 (ja) * | 2012-07-27 | 2014-01-30 | Necソフト株式会社 | 3次元ユーザインタフェース装置及び3次元操作方法 |
JP2014187559A (ja) * | 2013-03-25 | 2014-10-02 | Yasuaki Iwai | 仮想現実提示システム、仮想現実提示方法 |
WO2014171200A1 (ja) * | 2013-04-16 | 2014-10-23 | ソニー株式会社 | 情報処理装置及び情報処理方法、表示装置及び表示方法、並びに情報処理システム |
JP2016033800A (ja) * | 2014-07-31 | 2016-03-10 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理システム、その制御方法及びプログラム |
JP2017182460A (ja) * | 2016-03-30 | 2017-10-05 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム |
JP2017199404A (ja) * | 2017-06-21 | 2017-11-02 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理システム、その制御方法及びプログラム |
JP2019046455A (ja) * | 2018-07-06 | 2019-03-22 | 株式会社コロプラ | 仮想体験を提供するためにコンピュータで実行される方法、プログラム及びコンピュータ |
WO2019087564A1 (ja) * | 2017-11-01 | 2019-05-09 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2019116689A1 (ja) * | 2017-12-15 | 2019-06-20 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10643390B2 (en) | 2016-03-30 | 2020-05-05 | Seiko Epson Corporation | Head mounted display, method for controlling head mounted display, and computer program |
WO2021079615A1 (ja) * | 2019-10-21 | 2021-04-29 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
JP7571731B2 (ja) | 2019-10-21 | 2024-10-23 | ソニーグループ株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6789109B2 (en) * | 2001-02-22 | 2004-09-07 | Sony Corporation | Collaborative computer-based production system including annotation, versioning and remote interaction |
JP4054585B2 (ja) * | 2002-02-18 | 2008-02-27 | キヤノン株式会社 | 情報処理装置および方法 |
JP2005071256A (ja) * | 2003-08-27 | 2005-03-17 | Sony Corp | 画像表示装置及び画像表示方法 |
US8585476B2 (en) | 2004-11-16 | 2013-11-19 | Jeffrey D Mullen | Location-based games and augmented reality systems |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US9658473B2 (en) | 2005-10-07 | 2017-05-23 | Percept Technologies Inc | Enhanced optical and perceptual digital eyewear |
WO2007095314A2 (en) * | 2006-02-14 | 2007-08-23 | Jakks Pacific, Inc. | Portable interactive game device with separate console for enhanced features and alternate display capability |
JP4883774B2 (ja) * | 2006-08-07 | 2012-02-22 | キヤノン株式会社 | 情報処理装置及びその制御方法、プログラム |
US8128500B1 (en) * | 2007-07-13 | 2012-03-06 | Ganz | System and method for generating a virtual environment for land-based and underwater virtual characters |
US9703369B1 (en) * | 2007-10-11 | 2017-07-11 | Jeffrey David Mullen | Augmented reality video game systems |
JP5403974B2 (ja) * | 2008-09-09 | 2014-01-29 | キヤノン株式会社 | 三次元cadシステム |
JP5493456B2 (ja) * | 2009-05-01 | 2014-05-14 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
JP5414380B2 (ja) | 2009-06-23 | 2014-02-12 | キヤノン株式会社 | 画像処理方法及び画像処理装置 |
US10955665B2 (en) * | 2013-06-18 | 2021-03-23 | Microsoft Technology Licensing, Llc | Concurrent optimal viewing of virtual objects |
US9710067B2 (en) | 2013-09-05 | 2017-07-18 | Atheer, Inc. | Method and apparatus for manipulating content in an interface |
US9703383B2 (en) * | 2013-09-05 | 2017-07-11 | Atheer, Inc. | Method and apparatus for manipulating content in an interface |
US10921898B2 (en) | 2013-09-05 | 2021-02-16 | Atheer, Inc. | Method and apparatus for manipulating content in an interface |
WO2015139002A1 (en) | 2014-03-14 | 2015-09-17 | Sony Computer Entertainment Inc. | Gaming device with volumetric sensing |
KR20160024168A (ko) * | 2014-08-25 | 2016-03-04 | 삼성전자주식회사 | 전자 장치의 디스플레이 제어 방법 및 전자 장치 |
US10635895B2 (en) | 2018-06-27 | 2020-04-28 | Facebook Technologies, Llc | Gesture-based casting and manipulation of virtual content in artificial-reality environments |
US10783712B2 (en) * | 2018-06-27 | 2020-09-22 | Facebook Technologies, Llc | Visual flairs for emphasizing gestures in artificial-reality environments |
US10712901B2 (en) | 2018-06-27 | 2020-07-14 | Facebook Technologies, Llc | Gesture-based content sharing in artificial reality environments |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6411266B1 (en) * | 1993-08-23 | 2002-06-25 | Francis J. Maguire, Jr. | Apparatus and method for providing images of real and virtual objects in a head mounted display |
US6278418B1 (en) * | 1995-12-29 | 2001-08-21 | Kabushiki Kaisha Sega Enterprises | Three-dimensional imaging system, game device, method for same and recording medium |
-
2000
- 2000-09-27 JP JP2000294790A patent/JP3517639B2/ja not_active Expired - Fee Related
-
2001
- 2001-03-21 US US09/812,675 patent/US6685566B2/en not_active Expired - Lifetime
- 2001-03-30 EP EP01303055A patent/EP1193651A3/en not_active Withdrawn
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004171543A (ja) * | 2002-11-07 | 2004-06-17 | Matsushita Electric Ind Co Ltd | 画像処理方法及びその装置 |
JP2005293142A (ja) * | 2004-03-31 | 2005-10-20 | Canon Inc | 画像処理方法および画像処理装置 |
JP4522129B2 (ja) * | 2004-03-31 | 2010-08-11 | キヤノン株式会社 | 画像処理方法および画像処理装置 |
JP2007286851A (ja) * | 2006-04-14 | 2007-11-01 | Canon Inc | 画像処理システム、画像処理装置、撮像装置、及びそれらの制御方法 |
US8345952B2 (en) | 2006-04-14 | 2013-01-01 | Canon Kabushiki Kaisha | Image processing system, image processing apparatus, image sensing apparatus, and control method thereof |
JP2008299429A (ja) * | 2007-05-29 | 2008-12-11 | Canon Inc | 情報処理装置、情報処理方法 |
JP2011191899A (ja) * | 2010-03-12 | 2011-09-29 | Konami Digital Entertainment Co Ltd | 画像処理装置、画像処理方法、ならびに、プログラム |
JP2012203786A (ja) * | 2011-03-28 | 2012-10-22 | Tomy Co Ltd | 情報処理装置および情報処理プログラム |
KR101279869B1 (ko) | 2012-03-23 | 2013-06-28 | 국방과학연구소 | 두부 장착형 디스플레이를 이용한 비행 시뮬레이터 영상 시현 장치 및 방법 |
US9240076B2 (en) | 2012-03-27 | 2016-01-19 | Panasonic Intellectual Property Management Co., Ltd. | Information processing apparatus, server apparatus, information processing method |
WO2013145614A1 (ja) * | 2012-03-27 | 2013-10-03 | パナソニック株式会社 | 情報処理装置、サーバ装置、情報処理方法、およびプログラム |
JP2014010838A (ja) * | 2012-06-29 | 2014-01-20 | Disney Enterprises Inc | 拡張現実感シミュレーション連続体 |
CN104662587A (zh) * | 2012-07-27 | 2015-05-27 | 日本电气方案创新株式会社 | 三维用户界面装置以及三维操作方法 |
WO2014016992A1 (ja) * | 2012-07-27 | 2014-01-30 | Necソフト株式会社 | 3次元ユーザインタフェース装置及び3次元操作方法 |
JP5871345B2 (ja) * | 2012-07-27 | 2016-03-01 | Necソリューションイノベータ株式会社 | 3次元ユーザインタフェース装置及び3次元操作方法 |
JPWO2014016992A1 (ja) * | 2012-07-27 | 2016-07-07 | Necソリューションイノベータ株式会社 | 3次元ユーザインタフェース装置及び3次元操作方法 |
US9541997B2 (en) | 2012-07-27 | 2017-01-10 | Nec Solution Innovators, Ltd. | Three-dimensional user interface apparatus and three-dimensional operation method |
CN104662587B (zh) * | 2012-07-27 | 2017-07-04 | 日本电气方案创新株式会社 | 三维用户界面装置以及三维操作方法 |
JP2014187559A (ja) * | 2013-03-25 | 2014-10-02 | Yasuaki Iwai | 仮想現実提示システム、仮想現実提示方法 |
WO2014171200A1 (ja) * | 2013-04-16 | 2014-10-23 | ソニー株式会社 | 情報処理装置及び情報処理方法、表示装置及び表示方法、並びに情報処理システム |
CN105144248A (zh) * | 2013-04-16 | 2015-12-09 | 索尼公司 | 信息处理设备和信息处理方法、显示设备和显示方法与信息处理系统 |
US10269180B2 (en) | 2013-04-16 | 2019-04-23 | Sony Corporation | Information processing apparatus and information processing method, display apparatus and display method, and information processing system |
JPWO2014171200A1 (ja) * | 2013-04-16 | 2017-02-16 | ソニー株式会社 | 情報処理装置及び情報処理方法、表示装置及び表示方法、並びに情報処理システム |
JP2016033800A (ja) * | 2014-07-31 | 2016-03-10 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理システム、その制御方法及びプログラム |
US10643390B2 (en) | 2016-03-30 | 2020-05-05 | Seiko Epson Corporation | Head mounted display, method for controlling head mounted display, and computer program |
JP2017182460A (ja) * | 2016-03-30 | 2017-10-05 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム |
JP2017199404A (ja) * | 2017-06-21 | 2017-11-02 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理システム、その制御方法及びプログラム |
JPWO2019087564A1 (ja) * | 2017-11-01 | 2020-11-26 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2019087564A1 (ja) * | 2017-11-01 | 2019-05-09 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US11049325B2 (en) | 2017-11-01 | 2021-06-29 | Sony Corporation | Information processing apparatus, information processing method, and program |
JP7283388B2 (ja) | 2017-11-01 | 2023-05-30 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2019116689A1 (ja) * | 2017-12-15 | 2019-06-20 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US11514604B2 (en) | 2017-12-15 | 2022-11-29 | Sony Corporation | Information processing device and information processing method |
JP2019046455A (ja) * | 2018-07-06 | 2019-03-22 | 株式会社コロプラ | 仮想体験を提供するためにコンピュータで実行される方法、プログラム及びコンピュータ |
JP7166813B2 (ja) | 2018-07-06 | 2022-11-08 | 株式会社コロプラ | 仮想体験を提供するためにコンピュータで実行される方法、プログラム及びコンピュータ |
WO2021079615A1 (ja) * | 2019-10-21 | 2021-04-29 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
JP7571731B2 (ja) | 2019-10-21 | 2024-10-23 | ソニーグループ株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP3517639B2 (ja) | 2004-04-12 |
EP1193651A3 (en) | 2005-09-28 |
US6685566B2 (en) | 2004-02-03 |
US20020037768A1 (en) | 2002-03-28 |
EP1193651A2 (en) | 2002-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2002112286A (ja) | 複合現実感提示装置及びその方法並びに記憶媒体 | |
JP6276882B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
EP0840256B1 (en) | Apparatus and method for generating skeleton-based dynamic picture images as well as medium storing therein program for generation of such picture images | |
KR100492215B1 (ko) | 화상처리장치 및 게임기 | |
US7468728B2 (en) | Apparatus for controlling a virtual environment | |
JP3068205B2 (ja) | 画像処理装置、この処理装置を用いたゲーム機及び画像処理方法並びに媒体 | |
CN110262730A (zh) | 游戏虚拟资源的编辑方法、装置、设备和存储介质 | |
CN102622774B (zh) | 起居室电影创建 | |
WO2019130864A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
CN111158469A (zh) | 视角切换方法、装置、终端设备及存储介质 | |
CN103971401A (zh) | 信息处理装置、终端装置以及信息处理方法 | |
JP2010022646A (ja) | プログラム、情報記憶媒体および画像生成システム | |
US12059632B2 (en) | Augmented reality system for enhancing the experience of playing with toys | |
JP2008295970A (ja) | ゲーム装置、ゲーム装置の制御方法及びプログラム | |
JP7569603B2 (ja) | アニメーション制作システム | |
JP2992499B2 (ja) | 画像処理方法及び装置、記録媒体 | |
JP6398938B2 (ja) | 投影制御装置、及びプログラム | |
JP5220350B2 (ja) | プログラム、情報記憶媒体及び画像生成システム | |
JP6856572B2 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2009020818A (ja) | 画像生成装置、画像生成方法、ならびに、プログラム | |
JP4960942B2 (ja) | ゲーム装置、ゲーム装置の制御方法及びプログラム | |
JP4233065B2 (ja) | ゲーム装置及び情報記憶媒体 | |
JP2000172875A (ja) | ゲーム装置及び情報記憶媒体 | |
JP2021157601A (ja) | プログラム、情報処理装置および方法 | |
KR20240098501A (ko) | 사용자 움직임 기록 기반의 영상 제작 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040126 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080130 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090130 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090130 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100130 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110130 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120130 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130130 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140130 Year of fee payment: 10 |
|
LAPS | Cancellation because of no payment of annual fees |