JP2014167771A - 3次元アニメーション表示システム及び3次元アニメーション表示方法 - Google Patents
3次元アニメーション表示システム及び3次元アニメーション表示方法 Download PDFInfo
- Publication number
- JP2014167771A JP2014167771A JP2013040126A JP2013040126A JP2014167771A JP 2014167771 A JP2014167771 A JP 2014167771A JP 2013040126 A JP2013040126 A JP 2013040126A JP 2013040126 A JP2013040126 A JP 2013040126A JP 2014167771 A JP2014167771 A JP 2014167771A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional animation
- motion
- state transition
- touch panel
- transition graph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】ユーザが直感的に、状態が遷移する被写体をシミュレーションにより操作できるようにする。
【解決手段】被写体2000の複数の動作パターンに係るアニメーションを取得する取得部1222と、前記被写体の複数の動作パターンにおける状態遷移グラフを作成する作成部1223と、前記被写体の各動作パターン毎にアニメーションにおける前記被写体の動作を解析してその動作の開始位置及び方向を決定してジェスチャーデータを生成する決定部1224と、1つの動作パターンに係るアニメーションをタッチパネルに表示する表示処理部1322と、前記状態遷移グラフに基づいて前記1つの動作パターンにおける次の動作パターン候補のジェスチャーデータをタッチパネルに表示する表示処理部1324と、タッチパネルに対するユーザの入力に基づいて選択された次の動作パターンに係るアニメーションをタッチパネルに表示する表示処理部1325を備える。
【選択図】図3
【解決手段】被写体2000の複数の動作パターンに係るアニメーションを取得する取得部1222と、前記被写体の複数の動作パターンにおける状態遷移グラフを作成する作成部1223と、前記被写体の各動作パターン毎にアニメーションにおける前記被写体の動作を解析してその動作の開始位置及び方向を決定してジェスチャーデータを生成する決定部1224と、1つの動作パターンに係るアニメーションをタッチパネルに表示する表示処理部1322と、前記状態遷移グラフに基づいて前記1つの動作パターンにおける次の動作パターン候補のジェスチャーデータをタッチパネルに表示する表示処理部1324と、タッチパネルに対するユーザの入力に基づいて選択された次の動作パターンに係るアニメーションをタッチパネルに表示する表示処理部1325を備える。
【選択図】図3
Description
本発明は、対象物の複数の動作パターンに係る3次元アニメーションを表示する処理を行う3次元アニメーション表示システム及び3次元アニメーション表示方法に関するものである。
従来から、コンピュータの表示画面上に、3次元アニメーションを表示する技術が提案されている(例えば、下記の特許文献1参照)。
しかしながら、従来の技術では、ユーザにジェスチャー入力を促して、タッチインタフェースを用いたユーザの直感的なジェスチャー入力により、状態が遷移する対象物の3次元アニメーションを表示する技術が存在しなかった。
これにより、ユーザが直感的に、状態が遷移する対象物をシミュレーションにより操作することが困難であるという問題があった。
本発明は、このような問題点に鑑みてなされたものであり、ユーザが直感的に、状態が遷移する対象物をシミュレーションにより操作することが可能な仕組みを提供することを目的とする。
本発明の3次元アニメーション表示システムは、対象物の複数の動作パターンに係る3次元アニメーションを取得する3次元アニメーション取得手段と、前記対象物の前記複数の動作パターンにおける状態遷移グラフを作成する状態遷移グラフ作成手段と、前記対象物の前記複数の動作パターンにおける各動作パターン毎に、前記3次元アニメーションにおける前記対象物の動作を解析して、その動作の開始位置および方向を決定する決定手段と、前記3次元アニメーション取得手段で取得した前記対象物の前記複数の動作パターンに係る3次元アニメーションのうち、1つの動作パターンに係る3次元アニメーションを、タッチパネルに表示する処理を行う最初の3次元アニメーション表示処理手段と、前記状態遷移グラフ作成手段で作成した状態遷移グラフに基づいて、前記1つの動作パターンにおける次の動作パターン候補を特定する次の動作パターン候補特定手段と、前記決定手段で決定した動作の開始位置および方向であって前記次の動作パターン候補における動作の開始位置および方向を定めるジェスチャーデータを、前記タッチパネルに表示する処理を行うジェスチャーデータ表示処理手段と、前記タッチパネルに対するユーザの入力に基づいて前記次の動作パターン候補の中から次の動作パターンを選択し、当該選択した次の動作パターンに係る前記3次元アニメーションを前記タッチパネルに表示する処理を行う次の3次元アニメーション表示処理手段とを有する。
また、本発明は、上述した3次元アニメーション表示システムによる3次元アニメーション表示方法を含む。
また、本発明は、上述した3次元アニメーション表示システムによる3次元アニメーション表示方法を含む。
本発明によれば、ユーザが直感的に、状態が遷移する対象物をシミュレーションにより操作することが可能となる。
以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。
図1は、本発明の実施形態に係る3次元アニメーション表示システム1000の装置構成の一例を示す外観図である。
本実施形態に係る3次元アニメーション表示システム1000は、図1に示すように、撮影装置1100、情報処理装置1200、及び、携帯端末装置1300を有して構成されている。
撮影装置1100は、状態が遷移する対象物である被写体2000の複数の動作パターンを撮影する処理を行う。ここで、図1に示す例では、被写体2000として、円錐2010及び球2020からなる3次元の実在物体を適用した例が示されている。
情報処理装置1200は、撮影装置1100による撮影処理により得られた被写体2000の複数の動作パターンに係る3次元アニメーションを取得するとともに、各種の処理を行う。例えば、情報処理装置1200は、パーソナル・コンピュータ(PC)等からなる。ここで、図1に示す例では、情報処理装置1200は、撮影装置1100と有線により通信接続されているが、本実施形態においてはこの態様に限らず、撮影装置1100と無線により通信接続されていてもよい。
携帯端末装置1300は、タッチインタフェースであるタッチパネル1300aを備えて構成されている。この携帯端末装置1300は、情報処理装置1200から被写体2000の複数の動作パターンに係る3次元アニメーションを取得するとともに、ユーザの操作入力に応じて被写体2000の3次元アニメーションを表示する処理等を行う。例えば、携帯端末装置1300は、スマートフォンやタブレット端末装置等からなる。ここで、図1に示す例では、携帯端末装置1300は、情報処理装置1200と無線により通信接続されているが、本実施形態においてはこの態様に限らず、情報処理装置1200と有線により通信接続されていてもよい。
図2は、本発明の実施形態に係る3次元アニメーション表示システム1000を構成する各装置のハードウェア構成の一例を示すブロック図である。
撮影装置1100は、図2に示すように、CPU1111、RAM1112、ROM1113、外部メモリ1114、撮像部1115、入力デバイス1116、表示部1117、通信I/F(通信インタフェース)1118、及び、バス1119の各ハードウェア構成を有して構成されている。
CPU1111は、例えば、ROM1113或いは外部メモリ1114に記憶されたプログラムやデータや情報を用いて、当該撮影装置1100の動作を統括的に制御する。
RAM1112は、SDRAM、DRAMなどによって構成され、ROM1113或いは外部メモリ1114からロードされたプログラムやデータや情報を一時的に記憶するエリアを備えるとともに、CPU1111が各種の処理を行うために必要とするワークエリアを備える。
ROM1113は、変更を必要としないプログラムや各種のデータや各種の情報等を格納している。
外部メモリ1114は、例えば、オペレーティングシステム(OS)やCPU1111が実行するプログラム、更には、本実施形態の撮影装置1100において既知としているデータや情報等を記憶している。なお、本実施形態においては、本発明の実施形態に係る処理を実行するためのプログラムは、外部メモリ1114に記憶されているものとするが、例えばROM1113に記憶されている形態であっても適用可能である。
撮像部1115は、被写体2000を撮像する処理を行う。
入力デバイス1116は、例えば、当該撮影装置1100に備え付けられたスイッチやボタン、表示部1117上に設けられた透明なタッチパネル等で構成されている。
表示部1117は、例えばCPU1111の制御に基づいて、各種の画像や各種の情報を表示する。
通信I/F1118は、当該撮影装置1100と情報処理装置1200との間で行われる各種の情報や各種の信号等の送受信を司るものである。
バス1119は、CPU1111、RAM1112、ROM1113、外部メモリ1114、撮像部1115、入力デバイス1116、表示部1117及び通信I/F1118を相互に通信可能に接続する。
RAM1112は、SDRAM、DRAMなどによって構成され、ROM1113或いは外部メモリ1114からロードされたプログラムやデータや情報を一時的に記憶するエリアを備えるとともに、CPU1111が各種の処理を行うために必要とするワークエリアを備える。
ROM1113は、変更を必要としないプログラムや各種のデータや各種の情報等を格納している。
外部メモリ1114は、例えば、オペレーティングシステム(OS)やCPU1111が実行するプログラム、更には、本実施形態の撮影装置1100において既知としているデータや情報等を記憶している。なお、本実施形態においては、本発明の実施形態に係る処理を実行するためのプログラムは、外部メモリ1114に記憶されているものとするが、例えばROM1113に記憶されている形態であっても適用可能である。
撮像部1115は、被写体2000を撮像する処理を行う。
入力デバイス1116は、例えば、当該撮影装置1100に備え付けられたスイッチやボタン、表示部1117上に設けられた透明なタッチパネル等で構成されている。
表示部1117は、例えばCPU1111の制御に基づいて、各種の画像や各種の情報を表示する。
通信I/F1118は、当該撮影装置1100と情報処理装置1200との間で行われる各種の情報や各種の信号等の送受信を司るものである。
バス1119は、CPU1111、RAM1112、ROM1113、外部メモリ1114、撮像部1115、入力デバイス1116、表示部1117及び通信I/F1118を相互に通信可能に接続する。
情報処理装置1200は、図2に示すように、CPU1211、RAM1212、ROM1213、外部メモリ1214、通信I/F(通信インタフェース)1215、入力デバイス1216、表示部1217、及び、バス1218の各ハードウェア構成を有して構成されている。
CPU1211は、例えば、ROM1213或いは外部メモリ1214に記憶されたプログラムやデータや情報を用いて、当該情報処理装置1200の動作を統括的に制御する。
RAM1212は、SDRAM、DRAMなどによって構成され、ROM1213或いは外部メモリ1214からロードされたプログラムやデータや情報を一時的に記憶するエリアを備えるとともに、CPU1211が各種の処理を行うために必要とするワークエリアを備える。
ROM1213は、変更を必要としないプログラムや各種のデータや各種の情報等を格納している。
外部メモリ1214は、例えば、オペレーティングシステム(OS)やCPU1211が実行するプログラム、更には、本実施形態の情報処理装置1200において既知としているデータや情報等を記憶している。なお、本実施形態においては、本発明の実施形態に係る処理を実行するためのプログラムは、外部メモリ1214に記憶されているものとするが、例えばROM1213に記憶されている形態であっても適用可能である。
通信I/F1215は、当該情報処理装置1200と撮影装置1100及び携帯端末装置1300との間で行われる各種の情報や各種の信号等の送受信を司るものである。
入力デバイス1216は、例えば、当該情報処理装置1200に備え付けられたキーボードやマウス等で構成されている。
表示部1217は、例えばCPU1211の制御に基づいて、各種の画像や各種の情報を表示する。
バス1218は、CPU1211、RAM1212、ROM1213、外部メモリ1214、通信I/F1215、入力デバイス1116及び表示部1117を相互に通信可能に接続する。
RAM1212は、SDRAM、DRAMなどによって構成され、ROM1213或いは外部メモリ1214からロードされたプログラムやデータや情報を一時的に記憶するエリアを備えるとともに、CPU1211が各種の処理を行うために必要とするワークエリアを備える。
ROM1213は、変更を必要としないプログラムや各種のデータや各種の情報等を格納している。
外部メモリ1214は、例えば、オペレーティングシステム(OS)やCPU1211が実行するプログラム、更には、本実施形態の情報処理装置1200において既知としているデータや情報等を記憶している。なお、本実施形態においては、本発明の実施形態に係る処理を実行するためのプログラムは、外部メモリ1214に記憶されているものとするが、例えばROM1213に記憶されている形態であっても適用可能である。
通信I/F1215は、当該情報処理装置1200と撮影装置1100及び携帯端末装置1300との間で行われる各種の情報や各種の信号等の送受信を司るものである。
入力デバイス1216は、例えば、当該情報処理装置1200に備え付けられたキーボードやマウス等で構成されている。
表示部1217は、例えばCPU1211の制御に基づいて、各種の画像や各種の情報を表示する。
バス1218は、CPU1211、RAM1212、ROM1213、外部メモリ1214、通信I/F1215、入力デバイス1116及び表示部1117を相互に通信可能に接続する。
携帯端末装置1300は、図2に示すように、CPU1311、RAM1312、ROM1313、外部メモリ1314、通信I/F(通信インタフェース)1315、入力デバイス1316、表示部1317、及び、バス1318の各ハードウェア構成を有して構成されている。
CPU1311は、例えば、ROM1313或いは外部メモリ1314に記憶されたプログラムやデータや情報を用いて、当該携帯端末装置1300の動作を統括的に制御する。
RAM1312は、SDRAM、DRAMなどによって構成され、ROM1313或いは外部メモリ1314からロードされたプログラムやデータや情報を一時的に記憶するエリアを備えるとともに、CPU1311が各種の処理を行うために必要とするワークエリアを備える。
ROM1313は、変更を必要としないプログラムや各種のデータや各種の情報等を格納している。
外部メモリ1314は、例えば、オペレーティングシステム(OS)やCPU1311が実行するプログラム、更には、本実施形態の携帯端末装置1300において既知としているデータや情報等を記憶している。なお、本実施形態においては、本発明の実施形態に係る処理を実行するためのプログラムは、外部メモリ1314に記憶されているものとするが、例えばROM1313に記憶されている形態であっても適用可能である。
通信I/F1315は、当該携帯端末装置1300と情報処理装置1200との間で行われる各種の情報や各種の信号等の送受信を司るものである。
入力デバイス1316は、例えば、当該携帯端末装置1300に備え付けられたスイッチやボタン、表示部1317上に設けられた透明なタッチパネル等で構成されている。
表示部1317は、例えばCPU1311の制御に基づいて、各種の画像や各種の情報を表示する。
バス1318は、CPU1311、RAM1312、ROM1313、外部メモリ1314、通信I/F1315、入力デバイス1316及び表示部1317を相互に通信可能に接続する。
なお、図1に示すタッチパネル1300aは、図2に示す表示部1317及び入力デバイス1316から構成されている。
RAM1312は、SDRAM、DRAMなどによって構成され、ROM1313或いは外部メモリ1314からロードされたプログラムやデータや情報を一時的に記憶するエリアを備えるとともに、CPU1311が各種の処理を行うために必要とするワークエリアを備える。
ROM1313は、変更を必要としないプログラムや各種のデータや各種の情報等を格納している。
外部メモリ1314は、例えば、オペレーティングシステム(OS)やCPU1311が実行するプログラム、更には、本実施形態の携帯端末装置1300において既知としているデータや情報等を記憶している。なお、本実施形態においては、本発明の実施形態に係る処理を実行するためのプログラムは、外部メモリ1314に記憶されているものとするが、例えばROM1313に記憶されている形態であっても適用可能である。
通信I/F1315は、当該携帯端末装置1300と情報処理装置1200との間で行われる各種の情報や各種の信号等の送受信を司るものである。
入力デバイス1316は、例えば、当該携帯端末装置1300に備え付けられたスイッチやボタン、表示部1317上に設けられた透明なタッチパネル等で構成されている。
表示部1317は、例えばCPU1311の制御に基づいて、各種の画像や各種の情報を表示する。
バス1318は、CPU1311、RAM1312、ROM1313、外部メモリ1314、通信I/F1315、入力デバイス1316及び表示部1317を相互に通信可能に接続する。
なお、図1に示すタッチパネル1300aは、図2に示す表示部1317及び入力デバイス1316から構成されている。
図3は、本発明の実施形態に係る3次元アニメーション表示システム1000を構成する各装置の機能構成の一例を示すブロック図である。図3において、図2に示す構成と同様の構成については、同じ符号を付している。
撮影装置1100は、図3に示すように、撮影処理部1121、及び、送信部1122の各機能構成を有して構成されている。
撮影処理部1121は、被写体2000の複数の動作パターンを動画撮影する処理を行う。撮影処理部1121は、この撮影処理により、被写体2000の複数の動作パターンに係る3次元アニメーションを生成する。この撮影処理部1121は、例えば、図2に示すCPU1111及び外部メモリ1114に記憶されているプログラム、並びに、撮像部1115から構成される。
送信部1122は、情報処理装置1200に対して、撮影処理部1121による撮影処理により得られた被写体2000の複数の動作パターンに係る3次元アニメーションを送信する処理を行う。この送信部1122は、例えば、図2に示すCPU1111及び外部メモリ1114に記憶されているプログラム、並びに、通信I/F1118から構成される。
情報処理装置1200は、図3に示すように、受信部1221、3次元アニメーション取得部1222、状態遷移グラフ作成部1223、動作開始位置・動作方向決定部1224、及び、送信部1225の各機能構成を有して構成されている。
受信部1221は、撮影装置1100の送信部1122から送られた、被写体2000の複数の動作パターンに係る3次元アニメーションを受信する処理を行う。この受信部1221は、例えば、図2に示すCPU1211及び外部メモリ1214に記憶されているプログラム、並びに、通信I/F1215から構成される。
3次元アニメーション取得部1222は、被写体2000の複数の動作パターンに係る3次元アニメーションを取得する処理を行う。この3次元アニメーション取得部1222は、例えば、図2に示すCPU1211及び外部メモリ1214に記憶されているプログラムから構成される。
状態遷移グラフ作成部1223は、例えば情報処理装置1200の操作者からの操作入力に基づいて、撮影処理部1121で動画撮影された被写体2000の複数の動作パターンにおける状態遷移グラフを作成する処理を行う。この状態遷移グラフは、各動作パターンの互いの関連性が定義されたグラフである。また、この状態遷移グラフは、3次元アニメーションの最初のフレームをノードとして作成される。状態遷移グラフ作成部1223は、例えば、図2に示すCPU1211及び外部メモリ1214に記憶されているプログラム、並びに、入力デバイス1216から構成される。
なお、本実施形態においては、状態遷移グラフ作成部1223は、情報処理装置1200の操作者からの操作入力に基づいて状態遷移グラフを作成することとしているが、本発明においてはこの形態に限定されるものではない。例えば、撮影装置1100の送信部1122から、撮影処理部1121で動画撮影された被写体2000の複数の動作パターンにおける状態遷移情報を送信し、受信部1221においてこの状態遷移情報を受信する。そして、状態遷移グラフ作成部1223は、受信部1221で受信した状態遷移情報に基づいて、撮影処理部1121で動画撮影された被写体2000の複数の動作パターンにおける状態遷移グラフを作成する処理を行うようにしてもよい。
なお、本実施形態においては、状態遷移グラフ作成部1223は、情報処理装置1200の操作者からの操作入力に基づいて状態遷移グラフを作成することとしているが、本発明においてはこの形態に限定されるものではない。例えば、撮影装置1100の送信部1122から、撮影処理部1121で動画撮影された被写体2000の複数の動作パターンにおける状態遷移情報を送信し、受信部1221においてこの状態遷移情報を受信する。そして、状態遷移グラフ作成部1223は、受信部1221で受信した状態遷移情報に基づいて、撮影処理部1121で動画撮影された被写体2000の複数の動作パターンにおける状態遷移グラフを作成する処理を行うようにしてもよい。
動作開始位置・動作方向決定部1224は、状態遷移グラフ作成部1223により作成された状態遷移グラフの各動作パターン毎に、3次元アニメーション取得部1222で取得した3次元アニメーションにおける被写体2000の運動解析を行い、当該3次元アニメーションにおける被写体2000の動作の開始位置及び方向を決定する処理を行う。そして、動作開始位置・動作方向決定部1224は、状態遷移グラフの各動作パターン毎に決定した、3次元アニメーションにおける被写体2000の動作の開始位置及び方向を定めるジェスチャーデータを生成する。この動作開始位置・動作方向決定部1224は、例えば、図2に示すCPU1211及び外部メモリ1214に記憶されているプログラムから構成される。
送信部1225は、携帯端末装置1300に対して、3次元アニメーション取得部1222で取得した被写体2000の複数の動作パターンに係る3次元アニメーションのデータ(3次元アニメーションデータ)、状態遷移グラフ作成部1223で作成した状態遷移グラフのデータ(状態遷移グラフデータ)、及び、動作開始位置・動作方向決定部1224で生成したジェスチャーデータを送信する処理を行う。この送信部1225は、例えば、図2に示すCPU1211及び外部メモリ1214に記憶されているプログラム、並びに、通信I/F1215から構成される。
携帯端末装置1300は、図3に示すように、受信部1321、最初の3次元アニメーション表示処理部1322、次の動作パターン候補特定部1323、ジェスチャーデータ表示処理部1324、次の3次元アニメーション表示処理部1325、入力デバイス1316、及び、表示部1317の各機能構成を有して構成されている。
受信部1321は、情報処理装置1200の送信部1225から送られた、3次元アニメーションデータ、状態遷移グラフデータ、及び、ジェスチャーデータを受信する処理を行う。この受信部1321は、例えば、図2に示すCPU1311及び外部メモリ1314に記憶されているプログラム、並びに、通信I/F1315から構成される。
最初の3次元アニメーション表示処理部1322は、情報処理装置1200の3次元アニメーション取得部1222で取得した被写体2000の複数の動作パターンに係る3次元アニメーションのうち、1つの動作パターンに係る最初の3次元アニメーションを、表示部1317(図1ではタッチパネル1300a)に表示する処理を行う。本実施形態においては、表示部1317(図1ではタッチパネル1300a)に最初に表示する3次元アニメーションとして、情報処理装置1200の状態遷移グラフ作成部1223で作成した状態遷移グラフにおける初期状態の動作パターンに係る3次元アニメーションを適用する。より具体的に、最初の3次元アニメーション表示処理部1322は、状態遷移グラフ作成部1223で作成された状態遷移グラフを構成するノードのうち、1つのノードを、表示部1317(図1ではタッチパネル1300a)に表示する処理を行う。この最初の3次元アニメーション表示処理部1322は、例えば、図2に示すCPU1311及び外部メモリ1314に記憶されているプログラムから構成される。
次の動作パターン候補特定部1323は、情報処理装置1200の状態遷移グラフ作成部1223で作成した状態遷移グラフに基づいて、前記1つの動作パターン(本実施形態では、前記初期状態の動作パターン)における次の動作パターン候補を特定する処理を行う。より具体的に、次の動作パターン候補特定部1323は、最初の3次元アニメーション表示処理部1322により表示されたノードにおける次のノード候補に係る次の動作パターン候補を特定する処理を行う。この次の動作パターン候補特定部1323は、例えば、図2に示すCPU1311及び外部メモリ1314に記憶されているプログラムから構成される。
ジェスチャーデータ表示処理部1324は、情報処理装置1200の動作開始位置・動作方向決定部1224で決定した動作の開始位置及び方向であって前記次の動作パターン候補における動作の開始位置及び方向を定めるジェスチャーデータを、表示部1317(図1ではタッチパネル1300a)に表示する処理を行う。即ち、ジェスチャーデータ表示処理部1324は、情報処理装置1200の動作開始位置・動作方向決定部1224で生成したジェスチャーデータのうち、前記次の動作パターン候補における動作の開始位置及び方向を定めるジェスチャーデータを、表示部1317(図1ではタッチパネル1300a)に表示する処理を行う。このジェスチャーデータ表示処理部1324は、例えば、図2に示すCPU1311及び外部メモリ1314に記憶されているプログラムから構成される。
次の3次元アニメーション表示処理部1325は、入力デバイス1316(図1ではタッチパネル1300a)に対するユーザの入力に基づいて前記次の動作パターン候補の中から次の動作パターンを選択し、当該選択した次の動作パターンに係る3次元アニメーションを表示部1317(図1ではタッチパネル1300a)に表示する処理を行う。この次の3次元アニメーション表示処理部1325は、例えば、図2に示すCPU1311及び外部メモリ1314に記憶されているプログラムから構成される。
次に、本実施形態に係る3次元アニメーション表示システム1000による3次元アニメーション表示方法の処理手順の一例について説明する。
図4は、本発明の実施形態に係る3次元アニメーション表示システム1000による3次元アニメーション表示方法の処理手順の一例を示すフローチャートである。この図4に示すフローチャートの説明においては、図3に示す各機能構成を用いた説明を行う。
図4は、本発明の実施形態に係る3次元アニメーション表示システム1000による3次元アニメーション表示方法の処理手順の一例を示すフローチャートである。この図4に示すフローチャートの説明においては、図3に示す各機能構成を用いた説明を行う。
まず、図4のステップS1において、撮影装置1100の撮影処理部1121は、被写体2000の複数の動作パターンを動画撮影する処理を行う。ここで、撮影処理部1121は、この撮影処理により、被写体2000の複数の動作パターンに係る3次元アニメーションを生成する。より具体的に、撮影処理部1121は、3次元アニメーションの各フレームを3次元点群データとして生成する。
その後、撮影装置1100の送信部1122から、情報処理装置1200の受信部1221に対して、被写体2000の複数の動作パターンに係る3次元アニメーションの各フレーム(3次元点群データ)が送信される。
続いて、図4のステップS2において、情報処理装置1200の3次元アニメーション取得部1222は、ステップS1で得られた被写体2000の複数の動作パターンに係る3次元アニメーションの各フレームの3次元点群データをポリゴン化処理する。これにより、3次元アニメーション取得部1222は、被写体2000の複数の動作パターンに係る3次元アニメーションデータを生成して取得する。ここで、ステップS2におけるポリゴン化処理の一例を図5を用いて説明する。
図5は、図4のステップS2におけるポリゴン化処理の一例を示す図である。
図5(a)は、図4のステップS1で得られた被写体2000のあるフレームの3次元点群データを示している。そして、図5(b)は、図5(a)に示す3次元点群データに対して、図4のステップS2におけるポリゴン化処理を行うことにより得られた画像データである。なお、図5に示す例では、被写体2000を2次元で簡略化して図示しているが、実際には3次元のデータである。
図5(a)は、図4のステップS1で得られた被写体2000のあるフレームの3次元点群データを示している。そして、図5(b)は、図5(a)に示す3次元点群データに対して、図4のステップS2におけるポリゴン化処理を行うことにより得られた画像データである。なお、図5に示す例では、被写体2000を2次元で簡略化して図示しているが、実際には3次元のデータである。
ここで、再び、図4の説明に戻る。
図4のステップS2の処理が終了すると、図4のステップS3に進む。
図4のステップS3に進むと、情報処理装置1200の状態遷移グラフ作成部1223は、例えば情報処理装置1200の操作者からの操作入力に基づいて、図4のステップS1で動画撮影された被写体2000の複数の動作パターンにおける状態遷移グラフを作成する処理を行う。この際、状態遷移グラフは、3次元アニメーションの最初のフレームをノードとして作成される。ここで、ステップS3における状態遷移グラフ作成処理の一例を図6を用いて説明する。
図4のステップS2の処理が終了すると、図4のステップS3に進む。
図4のステップS3に進むと、情報処理装置1200の状態遷移グラフ作成部1223は、例えば情報処理装置1200の操作者からの操作入力に基づいて、図4のステップS1で動画撮影された被写体2000の複数の動作パターンにおける状態遷移グラフを作成する処理を行う。この際、状態遷移グラフは、3次元アニメーションの最初のフレームをノードとして作成される。ここで、ステップS3における状態遷移グラフ作成処理の一例を図6を用いて説明する。
図6は、図4のステップS3における状態遷移グラフ作成処理の一例を示す図である。
図6に示す例では、被写体2000の動作パターンD1〜D5における状態遷移グラフが示されている。また、図6に示す例では、被写体2000を2次元で簡略化して図示しているが、実際には3次元のデータである。
図6に示す例では、被写体2000の動作パターンD1〜D5における状態遷移グラフが示されている。また、図6に示す例では、被写体2000を2次元で簡略化して図示しているが、実際には3次元のデータである。
動作パターンD1は、状態遷移グラフにおける初期状態の動作パターンを示している。ここで、動作パターンD1は、本例では1つのフレームからなるものとするが、本実施形態においてはこの態様に限定されるものではなく、複数のフレームからなるものであってもよい。動作パターンD1には、被写体2000が初期状態の円錐2011及び球2021が示されている。
図6に示す例では、動作パターンD1の次の動作パターン候補として、動作パターンD2及び動作パターンD3が示されている。この動作パターンD2及び動作パターンD3は、例えば、複数のフレームからなるものである。
動作パターンD2は、動作パターンD1の状態(初期状態)から、円錐2011が右方向に動いて円錐2012の位置に移動し、また、球2021は移動しない3次元アニメーションを示している。
また、動作パターンD3は、動作パターンD1の状態(初期状態)から、球2021が左上方向に動いて球2022の位置に移動し、また、円錐2011は移動しない3次元アニメーションを示している。
動作パターンD2は、動作パターンD1の状態(初期状態)から、円錐2011が右方向に動いて円錐2012の位置に移動し、また、球2021は移動しない3次元アニメーションを示している。
また、動作パターンD3は、動作パターンD1の状態(初期状態)から、球2021が左上方向に動いて球2022の位置に移動し、また、円錐2011は移動しない3次元アニメーションを示している。
図6に示す例では、動作パターンD2の次の動作パターン候補として、動作パターンD4及び動作パターンD1が示されている。
動作パターンD4は、動作パターンD2の状態から、球2021が左上方向に動いて球2022の位置に移動し、また、円錐2012は移動しない動作パターンを示している。
また、動作パターンD1は、動作パターンD2の状態から、円錐2011が左方向に動いて円錐2011の位置に移動し、また、球2021は移動しない動作パターンを示している。
動作パターンD4は、動作パターンD2の状態から、球2021が左上方向に動いて球2022の位置に移動し、また、円錐2012は移動しない動作パターンを示している。
また、動作パターンD1は、動作パターンD2の状態から、円錐2011が左方向に動いて円錐2011の位置に移動し、また、球2021は移動しない動作パターンを示している。
図6に示す例では、動作パターンD3の次の動作パターン候補として、動作パターンD4、動作パターンD5及び動作パターンD1が示されている。
動作パターンD4は、動作パターンD3の状態から、円錐2011が右方向に動いて円錐2012の位置に移動し、また、球2022は移動しない動作パターンを示している。さらに、図6に示す例では、この動作パターンD4の次の動作パターン候補として、動作パターンD2及び動作パターンD3が示されている。
また、動作パターンD5は、動作パターンD3の状態から、球2022が左下方向に動いて球2023の位置に移動し、また、円錐2011は移動しない動作パターンを示している。さらに、図6に示す例では、この動作パターンD5の次の動作パターン候補として、動作パターンD3が示されている。
また、動作パターンD1は、動作パターンD3の状態から、球2021が右下方向に動いて球2021の位置に移動し、また、円錐2011は移動しない動作パターンを示している。
動作パターンD4は、動作パターンD3の状態から、円錐2011が右方向に動いて円錐2012の位置に移動し、また、球2022は移動しない動作パターンを示している。さらに、図6に示す例では、この動作パターンD4の次の動作パターン候補として、動作パターンD2及び動作パターンD3が示されている。
また、動作パターンD5は、動作パターンD3の状態から、球2022が左下方向に動いて球2023の位置に移動し、また、円錐2011は移動しない動作パターンを示している。さらに、図6に示す例では、この動作パターンD5の次の動作パターン候補として、動作パターンD3が示されている。
また、動作パターンD1は、動作パターンD3の状態から、球2021が右下方向に動いて球2021の位置に移動し、また、円錐2011は移動しない動作パターンを示している。
ここで、再び、図4の説明に戻る。
図4のステップS3の処理が終了すると、図4のステップS4に進む。
図4のステップS4に進むと、情報処理装置1200の動作開始位置・動作方向決定部1224は、図4のステップS3で作成された状態遷移グラフの各動作パターン毎に、3次元アニメーション取得部1222で取得した3次元アニメーションにおける被写体2000の運動解析を行い、当該3次元アニメーションにおける被写体2000の動作の開始位置及び方向を決定する処理を行う。そして、動作開始位置・動作方向決定部1224は、状態遷移グラフの各動作パターン毎に決定した、3次元アニメーションにおける被写体2000の動作の開始位置及び方向を定めるジェスチャーデータを生成する。ここで、ステップS4における動作開始位置及び動作方向決定処理の一例を図7を用いて説明する。
図4のステップS3の処理が終了すると、図4のステップS4に進む。
図4のステップS4に進むと、情報処理装置1200の動作開始位置・動作方向決定部1224は、図4のステップS3で作成された状態遷移グラフの各動作パターン毎に、3次元アニメーション取得部1222で取得した3次元アニメーションにおける被写体2000の運動解析を行い、当該3次元アニメーションにおける被写体2000の動作の開始位置及び方向を決定する処理を行う。そして、動作開始位置・動作方向決定部1224は、状態遷移グラフの各動作パターン毎に決定した、3次元アニメーションにおける被写体2000の動作の開始位置及び方向を定めるジェスチャーデータを生成する。ここで、ステップS4における動作開始位置及び動作方向決定処理の一例を図7を用いて説明する。
図7は、図4のステップS4における動作開始位置及び動作方向決定処理の一例を示す図である。
図7に示す例は、図6の動作パターンD1の状態から動作パターンD3に遷移した際の3次元アニメーションにおける被写体2000の動作の開始位置及び方向を決定する処理を示している。なお、図7に示す例では、図6に示す例と同様に、被写体2000を2次元で簡略化して図示しているが、実際には3次元のデータである。
図7に示す例は、図6の動作パターンD1の状態から動作パターンD3に遷移した際の3次元アニメーションにおける被写体2000の動作の開始位置及び方向を決定する処理を示している。なお、図7に示す例では、図6に示す例と同様に、被写体2000を2次元で簡略化して図示しているが、実際には3次元のデータである。
図7に示す例では、図6の動作パターンD3の3次元アニメーションが3つのフレームからなるものが示されている。具体的には、第1のフレームは、動作パターンD1の状態(初期状態)から、球2021が左上方向に動いて球2022aの位置に移動し、円錐2011は移動しない画像である。また、第2のフレームは、第1のフレームから、球2022aが左上方向に動いて球2022bの位置に移動し、円錐2011は移動しない画像である。また、第3のフレームは、第2のフレームから、球2022bが左上方向に動いて球2022の位置に移動し、円錐2011は移動しない画像である。
このような図7に示す動作パターンD3の3次元アニメーションの場合、まず、動作開始位置・動作方向決定部1224は、当該3次元アニメーションにおける被写体2000の運動解析を行って、その動作の軌跡701を求める。そして、動作開始位置・動作方向決定部1224は、求めた軌跡701に基づいて当該3次元アニメーションにおける被写体2000の動作の開始位置及び方向を決定し、当該決定した被写体2000の動作の開始位置及び方向を定める矢印であるジェスチャーデータ702を生成する。
図7には、図6に示す状態遷移グラフを構成する動作パターンのうち、動作パターンD1の状態から動作パターンD3に遷移した際の3次元アニメーションにおけるジェスチャーデータ702を生成する例を示したが、図4のステップS4では、ステップS3で作成された状態遷移グラフで定められる他の動作パターンの3次元アニメーションにおけるジェスチャーデータの生成も、図7に示す場合と同様に行う。
ここで、再び、図4の説明に戻る。
図4のステップS4の処理が終了すると、情報処理装置1200の送信部1225から、携帯端末装置1300の受信部1321に対して、3次元アニメーション取得部1222で取得した被写体2000の複数の動作パターンに係る3次元アニメーションのデータ(3次元アニメーションデータ)、状態遷移グラフ作成部1223で作成した状態遷移グラフのデータ(状態遷移グラフデータ)、及び、動作開始位置・動作方向決定部1224で生成したジェスチャーデータが送信される。その後、図4のステップS5に進む。
図4のステップS4の処理が終了すると、情報処理装置1200の送信部1225から、携帯端末装置1300の受信部1321に対して、3次元アニメーション取得部1222で取得した被写体2000の複数の動作パターンに係る3次元アニメーションのデータ(3次元アニメーションデータ)、状態遷移グラフ作成部1223で作成した状態遷移グラフのデータ(状態遷移グラフデータ)、及び、動作開始位置・動作方向決定部1224で生成したジェスチャーデータが送信される。その後、図4のステップS5に進む。
図4のステップS5に進むと、携帯端末装置1300の最初の3次元アニメーション表示処理部1322は、情報処理装置1200の3次元アニメーション取得部1222で取得した3次元アニメーションのうち、ステップS3で作成された状態遷移グラフにおける初期状態の動作パターンに係る3次元アニメーションを、表示部1317(図1ではタッチパネル1300a)に表示する処理を行う。より具体的に、最初の3次元アニメーション表示処理部1322は、状態遷移グラフ作成部1223で作成された状態遷移グラフを構成するノードのうち、1つのノードを、表示部1317(図1ではタッチパネル1300a)に表示する処理を行う。ここで、ステップS5における初期状態3次元アニメーション表示処理の一例を図8を用いて説明する。
図8は、図4のステップS5における初期状態3次元アニメーション表示処理の一例を示す図である。なお、図8に示す例では、図6及び図7に示す例と同様に、被写体2000を2次元で簡略化して図示しているが、実際には3次元のデータである。
この図8には、携帯端末装置1300のタッチパネル1300aに、図6に示す状態遷移グラフにおける初期状態の動作パターンである動作パターンD1の3次元アニメーションが表示されている。
この図8には、携帯端末装置1300のタッチパネル1300aに、図6に示す状態遷移グラフにおける初期状態の動作パターンである動作パターンD1の3次元アニメーションが表示されている。
ここで、再び、図4の説明に戻る。
図4のステップS5の処理が終了すると、図4のステップS6に進む。
図4のステップS6に進むと、携帯端末装置1300の次の動作パターン候補特定部1323は、ステップS3で作成された状態遷移グラフに基づいて、前記初期状態の動作パターンにおける次の動作パターン候補を特定する処理を行う。より具体的に、次の動作パターン候補特定部1323は、最初の3次元アニメーション表示処理部1322により表示されたノードにおける次のノード候補に係る次の動作パターン候補を特定する処理を行う。例えば、図6に示す例では、初期状態の動作パターンである動作パターンD1の次の動作パターン候補として、動作パターンD2及び動作パターンD3が特定されることになる。
図4のステップS5の処理が終了すると、図4のステップS6に進む。
図4のステップS6に進むと、携帯端末装置1300の次の動作パターン候補特定部1323は、ステップS3で作成された状態遷移グラフに基づいて、前記初期状態の動作パターンにおける次の動作パターン候補を特定する処理を行う。より具体的に、次の動作パターン候補特定部1323は、最初の3次元アニメーション表示処理部1322により表示されたノードにおける次のノード候補に係る次の動作パターン候補を特定する処理を行う。例えば、図6に示す例では、初期状態の動作パターンである動作パターンD1の次の動作パターン候補として、動作パターンD2及び動作パターンD3が特定されることになる。
続いて、図4のステップS7において、携帯端末装置1300のジェスチャーデータ表示処理部1324は、ステップS4で決定された動作の開始位置及び方向であって前記次の動作パターン候補における動作の開始位置及び方向を定めるジェスチャーデータを、表示部1317(図1ではタッチパネル1300a)に表示する処理を行う。ここで、ステップS7におけるジェスチャーデータ表示処理(第1のジェスチャーデータ表示処理)の一例を図9を用いて説明する。
図9は、図4のステップS7におけるジェスチャーデータ表示処理(第1のジェスチャーデータ表示処理)の一例を示す図である。なお、図9に示す例では、図6〜図8に示す例と同様に、被写体2000を2次元で簡略化して図示しているが、実際には3次元のデータである。
この図9には、携帯端末装置1300のタッチパネル1300aに、図8に示す状態に対して、ジェスチャーデータ901及び902が追加されて表示されている。ここで、ジェスチャーデータ901は、図6に示す状態遷移グラフにおける初期状態の動作パターンである動作パターンD1の次の動作パターン候補である動作パターンD2における被写体2000の動作の開始位置及び方向を定める矢印である。また、ジェスチャーデータ902は、図6に示す状態遷移グラフにおける初期状態の動作パターンである動作パターンD1の次の動作パターン候補である動作パターンD3における被写体2000の動作の開始位置及び方向を定める矢印である。
この図9には、携帯端末装置1300のタッチパネル1300aに、図8に示す状態に対して、ジェスチャーデータ901及び902が追加されて表示されている。ここで、ジェスチャーデータ901は、図6に示す状態遷移グラフにおける初期状態の動作パターンである動作パターンD1の次の動作パターン候補である動作パターンD2における被写体2000の動作の開始位置及び方向を定める矢印である。また、ジェスチャーデータ902は、図6に示す状態遷移グラフにおける初期状態の動作パターンである動作パターンD1の次の動作パターン候補である動作パターンD3における被写体2000の動作の開始位置及び方向を定める矢印である。
ここで、再び、図4の説明に戻る。
図4のステップS7の処理が終了すると、図4のステップS8に進む。
図4のステップS8に進むと、携帯端末装置1300の次の3次元アニメーション表示処理部1325は、入力デバイス1316(図1ではタッチパネル1300a)に対するユーザの入力に基づいて前記次の動作パターン候補の中から次の動作パターンを選択し、当該選択した次の動作パターンに係る3次元アニメーションを表示部1317(図1ではタッチパネル1300a)に表示する処理を行う。ここで、ステップS8における次の3次元アニメーション表示処理の一例を図10を用いて説明する。
図4のステップS7の処理が終了すると、図4のステップS8に進む。
図4のステップS8に進むと、携帯端末装置1300の次の3次元アニメーション表示処理部1325は、入力デバイス1316(図1ではタッチパネル1300a)に対するユーザの入力に基づいて前記次の動作パターン候補の中から次の動作パターンを選択し、当該選択した次の動作パターンに係る3次元アニメーションを表示部1317(図1ではタッチパネル1300a)に表示する処理を行う。ここで、ステップS8における次の3次元アニメーション表示処理の一例を図10を用いて説明する。
図10は、図4のステップS8における次の3次元アニメーション表示処理の一例を示す図である。なお、図10に示す例では、図6〜図9に示す例と同様に、被写体2000を2次元で簡略化して図示しているが、実際には3次元のデータである。
具体的に、図10は、図9に示すジェスチャーデータ902がユーザにより選択された場合(例えば、ユーザがジェスチャーデータ902の矢印を指等でなぞるようにジェスチャー入力した場合)に、携帯端末装置1300のタッチパネル1300aに、次の3次元アニメーションが表示される例が示されている。この場合、ジェスチャーデータ902が選択されているため、携帯端末装置1300のタッチパネル1300aには、図6に示す状態遷移グラフにおける動作パターンD1の状態から動作パターンD3に遷移した際の3次元アニメーションが表示されている。
具体的に、図10は、図9に示すジェスチャーデータ902がユーザにより選択された場合(例えば、ユーザがジェスチャーデータ902の矢印を指等でなぞるようにジェスチャー入力した場合)に、携帯端末装置1300のタッチパネル1300aに、次の3次元アニメーションが表示される例が示されている。この場合、ジェスチャーデータ902が選択されているため、携帯端末装置1300のタッチパネル1300aには、図6に示す状態遷移グラフにおける動作パターンD1の状態から動作パターンD3に遷移した際の3次元アニメーションが表示されている。
ここで、再び、図4の説明に戻る。
図4のステップS8の処理が終了すると、図4のステップS9に進む。
図4のステップS9に進むと、携帯端末装置1300(例えば次の動作パターン候補特定部1323)は、入力デバイス1316に対するユーザの入力に基づいて、3次元アニメーション表示処理を終了するか否かを判断する。
図4のステップS8の処理が終了すると、図4のステップS9に進む。
図4のステップS9に進むと、携帯端末装置1300(例えば次の動作パターン候補特定部1323)は、入力デバイス1316に対するユーザの入力に基づいて、3次元アニメーション表示処理を終了するか否かを判断する。
図4のステップS9の判断の結果、3次元アニメーション表示処理を終了しない場合には(S9/NO)、図4のステップS6に遷移する。
そして、図4のステップS6に遷移すると、携帯端末装置1300の次の動作パターン候補特定部1323は、ステップS3で作成された状態遷移グラフに基づいて、前記次の動作パターンにおけるその次の動作パターン候補を特定する処理を行う。より具体的に、次の動作パターン候補特定部1323は、現在のノードである次のノードにおけるその次のノード候補に係るその次の動作パターン候補を特定する処理を行う。例えば、図6に示す例では、前記次の動作パターンである動作パターンD3におけるその次の動作パターン候補として、動作パターンD4、動作パターンD5及び動作パターンD1が特定されることになる。
そして、図4のステップS6に遷移すると、携帯端末装置1300の次の動作パターン候補特定部1323は、ステップS3で作成された状態遷移グラフに基づいて、前記次の動作パターンにおけるその次の動作パターン候補を特定する処理を行う。より具体的に、次の動作パターン候補特定部1323は、現在のノードである次のノードにおけるその次のノード候補に係るその次の動作パターン候補を特定する処理を行う。例えば、図6に示す例では、前記次の動作パターンである動作パターンD3におけるその次の動作パターン候補として、動作パターンD4、動作パターンD5及び動作パターンD1が特定されることになる。
続いて、図4のステップS7において、携帯端末装置1300のジェスチャーデータ表示処理部1324は、ステップS4で決定された動作の開始位置及び方向であって前記その次の動作パターン候補における動作の開始位置及び方向を定めるジェスチャーデータを、表示部1317(図1ではタッチパネル1300a)に表示する処理を行う。ここで、ステップS7におけるジェスチャーデータ表示処理(第2のジェスチャーデータ表示処理)の一例を図11を用いて説明する。
図11は、図4のステップS7におけるジェスチャーデータ表示処理(第2のジェスチャーデータ表示処理)の一例を示す図である。なお、図11に示す例では、図6〜図10に示す例と同様に、被写体2000を2次元で簡略化して図示しているが、実際には3次元のデータである。
この図11には、携帯端末装置1300のタッチパネル1300aに、図10に示す状態に対して、ジェスチャーデータ1101、1102及び1103が追加されて表示されている。ここで、ジェスチャーデータ1101は、図6に示す状態遷移グラフにおける前記次の動作パターンである動作パターンD3のその次の動作パターン候補である動作パターンD4における被写体2000の動作の開始位置及び方向を定める矢印である。また、ジェスチャーデータ1102は、図6に示す状態遷移グラフにおける前記次の動作パターンである動作パターンD3のその次の動作パターン候補である動作パターンD5における被写体2000の動作の開始位置及び方向を定める矢印である。また、ジェスチャーデータ1103は、図6に示す状態遷移グラフにおける前記次の動作パターンである動作パターンD3のその次の動作パターン候補である動作パターンD1における被写体2000の動作の開始位置及び方向を定める矢印である。
この図11には、携帯端末装置1300のタッチパネル1300aに、図10に示す状態に対して、ジェスチャーデータ1101、1102及び1103が追加されて表示されている。ここで、ジェスチャーデータ1101は、図6に示す状態遷移グラフにおける前記次の動作パターンである動作パターンD3のその次の動作パターン候補である動作パターンD4における被写体2000の動作の開始位置及び方向を定める矢印である。また、ジェスチャーデータ1102は、図6に示す状態遷移グラフにおける前記次の動作パターンである動作パターンD3のその次の動作パターン候補である動作パターンD5における被写体2000の動作の開始位置及び方向を定める矢印である。また、ジェスチャーデータ1103は、図6に示す状態遷移グラフにおける前記次の動作パターンである動作パターンD3のその次の動作パターン候補である動作パターンD1における被写体2000の動作の開始位置及び方向を定める矢印である。
ここで、再び、図4の説明に戻る。
図4のステップS7の処理が終了すると、図4のステップS8に進む。
図4のステップS8に進むと、携帯端末装置1300の次の3次元アニメーション表示処理部1325は、入力デバイス1316(図1ではタッチパネル1300a)に対するユーザの入力に基づいて前記その次の動作パターン候補の中からその次の動作パターンを選択し、当該選択したその次の動作パターンに係る3次元アニメーションを表示部1317(図1ではタッチパネル1300a)に表示する処理を行う。
例えば、図11に示すジェスチャーデータ1101がユーザにより選択された場合(例えば、ユーザがジェスチャーデータ1101の矢印を指等でなぞるようにジェスチャー入力した場合)には、携帯端末装置1300のタッチパネル1300aに、前記その次の動作パターンに係る3次元アニメーションとして、図6に示す状態遷移グラフにおける動作パターンD3の状態から動作パターンD4に遷移する3次元アニメーションが表示される。
また、例えば、図11に示すジェスチャーデータ1102がユーザにより選択された場合(例えば、ユーザがジェスチャーデータ1102の矢印を指等でなぞるようにジェスチャー入力した場合)には、携帯端末装置1300のタッチパネル1300aに、前記その次の動作パターンに係る3次元アニメーションとして、図6に示す状態遷移グラフにおける動作パターンD3の状態から動作パターンD5に遷移する3次元アニメーションが表示される。
また、例えば、図11に示すジェスチャーデータ1103がユーザにより選択された場合(例えば、ユーザがジェスチャーデータ1103の矢印を指等でなぞるようにジェスチャー入力した場合)には、携帯端末装置1300のタッチパネル1300aに、前記その次の動作パターンに係る3次元アニメーションとして、図6に示す状態遷移グラフにおける動作パターンD3の状態から動作パターンD1に遷移する3次元アニメーションが表示される。
その後、図4のステップS9に進む。
図4のステップS7の処理が終了すると、図4のステップS8に進む。
図4のステップS8に進むと、携帯端末装置1300の次の3次元アニメーション表示処理部1325は、入力デバイス1316(図1ではタッチパネル1300a)に対するユーザの入力に基づいて前記その次の動作パターン候補の中からその次の動作パターンを選択し、当該選択したその次の動作パターンに係る3次元アニメーションを表示部1317(図1ではタッチパネル1300a)に表示する処理を行う。
例えば、図11に示すジェスチャーデータ1101がユーザにより選択された場合(例えば、ユーザがジェスチャーデータ1101の矢印を指等でなぞるようにジェスチャー入力した場合)には、携帯端末装置1300のタッチパネル1300aに、前記その次の動作パターンに係る3次元アニメーションとして、図6に示す状態遷移グラフにおける動作パターンD3の状態から動作パターンD4に遷移する3次元アニメーションが表示される。
また、例えば、図11に示すジェスチャーデータ1102がユーザにより選択された場合(例えば、ユーザがジェスチャーデータ1102の矢印を指等でなぞるようにジェスチャー入力した場合)には、携帯端末装置1300のタッチパネル1300aに、前記その次の動作パターンに係る3次元アニメーションとして、図6に示す状態遷移グラフにおける動作パターンD3の状態から動作パターンD5に遷移する3次元アニメーションが表示される。
また、例えば、図11に示すジェスチャーデータ1103がユーザにより選択された場合(例えば、ユーザがジェスチャーデータ1103の矢印を指等でなぞるようにジェスチャー入力した場合)には、携帯端末装置1300のタッチパネル1300aに、前記その次の動作パターンに係る3次元アニメーションとして、図6に示す状態遷移グラフにおける動作パターンD3の状態から動作パターンD1に遷移する3次元アニメーションが表示される。
その後、図4のステップS9に進む。
一方、図4のステップS9の判断の結果、3次元アニメーション表示処理を終了する場合には(S9/NO)、図4のフローチャートにおける処理を終了する。
上述した本発明の実施形態に係る3次元アニメーション表示システム1000では、状態が遷移する対象物である被写体2000の複数の動作パターンに係る3次元アニメーションを取得し、被写体2000の複数の動作パターンにおける状態遷移グラフを作成し、被写体2000の複数の動作パターンにおける各動作パターン毎に、前記3次元アニメーションにおける被写体2000の動作を解析してその動作の開始位置及び方向を決定する。その後、状態遷移グラフにおける初期状態の動作パターンに係る3次元アニメーションをタッチパネルに表示するとともに、次の動作パターン候補の動作の開始位置及び方向を定めるジェスチャーデータをタッチパネルに表示する。そして、タッチパネルに対するユーザのジェスチャー入力に基づいて前記次の動作パターン候補の中から次の動作パターンを選択し、当該選択した次の動作パターンに係る3次元アニメーションをタッチパネルに表示する。
かかる構成によれば、ユーザにジェスチャー入力を促して、タッチインタフェースを用いたユーザの直感的なジェスチャー入力により、状態が遷移する対象物の3次元アニメーションを表示することができる。これにより、ユーザが直感的に、状態が遷移する対象物をシミュレーションにより操作することが可能となる。
かかる構成によれば、ユーザにジェスチャー入力を促して、タッチインタフェースを用いたユーザの直感的なジェスチャー入力により、状態が遷移する対象物の3次元アニメーションを表示することができる。これにより、ユーザが直感的に、状態が遷移する対象物をシミュレーションにより操作することが可能となる。
なお、上述した本発明の実施形態では、被写体2000の複数の動作パターンにおける各動作パターンの互いの関連性を定義した状態遷移グラフとして、図6に示すような簡単なモデルを例に挙げて説明を行ったが、より状態の遷移が複雑なモデルを適用することも可能である。
また、上述した本発明の実施形態では、状態が遷移する対象物である被写体2000として、円錐2010及び球2020からなる3次元の実在物体を適用した例を挙げて説明を行ったが、本発明においては、様々な3次元物体を適用することができる。例えば、被写体2000のその他の一例として、複合機や、ユーザ自身を含む動物、折り紙、プラモデル等を挙げることができる。
例えば、被写体2000として複合機を適用した場合には、複合機の動作パターンとして、以下の状態遷移モデルの例が挙げられる。
1.未操作の状態(初期状態)
2.「1」の状態からスキャナ機構を持ち上げて開く(その後、「1」の状態に遷移することも可能)
3.「1」の状態からフロントカバーを開く(その後、「1」の状態に遷移することも可能)
4.「1」の状態から用紙トレイを開く(その後、「1」の状態に遷移することも可能)
5.「3」の状態から内部のトナーを取り出す(その後、「3」の状態に遷移することも可能)
6.「4」の状態から中の用紙を取り出す(その後、「4」の状態に遷移することも可能)
1.未操作の状態(初期状態)
2.「1」の状態からスキャナ機構を持ち上げて開く(その後、「1」の状態に遷移することも可能)
3.「1」の状態からフロントカバーを開く(その後、「1」の状態に遷移することも可能)
4.「1」の状態から用紙トレイを開く(その後、「1」の状態に遷移することも可能)
5.「3」の状態から内部のトナーを取り出す(その後、「3」の状態に遷移することも可能)
6.「4」の状態から中の用紙を取り出す(その後、「4」の状態に遷移することも可能)
(その他の実施形態)
上述した本発明の実施形態では、3次元アニメーション表示システム1000の装置構成として、撮影装置1100、情報処理装置1200及び携帯端末装置1300からなるものを例示したが、本発明においてはこの形態に限定されるものではない。例えば、情報処理装置1200及び携帯端末装置1300を、タッチパネルを搭載する1つの携帯端末装置で構成するようにしてもよい。更には、撮影装置1100、情報処理装置1200及び携帯端末装置1300を、撮像部及びタッチパネルを搭載する1つの携帯端末装置で構成するようにしてもよい。
上述した本発明の実施形態では、3次元アニメーション表示システム1000の装置構成として、撮影装置1100、情報処理装置1200及び携帯端末装置1300からなるものを例示したが、本発明においてはこの形態に限定されるものではない。例えば、情報処理装置1200及び携帯端末装置1300を、タッチパネルを搭載する1つの携帯端末装置で構成するようにしてもよい。更には、撮影装置1100、情報処理装置1200及び携帯端末装置1300を、撮像部及びタッチパネルを搭載する1つの携帯端末装置で構成するようにしてもよい。
また、上述した本発明の実施形態では、図4のステップS5において、最初の3次元アニメーション表示処理部1322が表示処理する最初の3次元アニメーションとして、状態遷移グラフ作成部1223で作成した状態遷移グラフにおける初期状態の動作パターンに係る3次元アニメーションを適用した例を示したが、本発明においてはこの形態に限定されるものではない。例えば、状態遷移グラフ作成部1223で作成した状態遷移グラフで定められる他の動作パターンに係る3次元アニメーションを、最初の3次元アニメーションとして表示処理する形態も適用可能である。この場合、図4のステップS6において、次の動作パターン候補特定部1323は、状態遷移グラフ作成部1223で作成した状態遷移グラフに基づいて、前記他の動作パターンにおける次の動作パターン候補を特定する処理を行う形態を採る。
また、被写体2000の座標系で3次元空間を分割し、分割したそれぞれの空間毎に、被写体2000の動作の開始位置及び方向の決定や状態遷移先を設定する等の処理を行う形態も、本発明の範疇である。
また、本発明は、以下の処理を実行することによっても実現される。
即ち、上述した本発明の実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記録媒体は、本発明に含まれる。
即ち、上述した本発明の実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記録媒体は、本発明に含まれる。
なお、上述した本発明の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
1000:3次元アニメーション表示システム、1100:撮影装置、1121:撮影処理部、1122:送信部、1200:情報処理装置、1221:受信部、1222:3次元アニメーション取得部、1223:状態遷移グラフ作成部、1224:動作開始位置・動作方向決定部、1225:送信部、1300:携帯端末装置、1316:入力デバイス、1317:表示部、1321:受信部、1322:最初の3次元アニメーション表示処理部、1323:次の動作パターン候補特定部、1324:ジェスチャーデータ表示処理部、1325:次の3次元アニメーション表示処理部、2000:被写体
Claims (8)
- 対象物の複数の動作パターンに係る3次元アニメーションを取得する3次元アニメーション取得手段と、
前記対象物の前記複数の動作パターンにおける状態遷移グラフを作成する状態遷移グラフ作成手段と、
前記対象物の前記複数の動作パターンにおける各動作パターン毎に、前記3次元アニメーションにおける前記対象物の動作の開始位置および方向を決定する決定手段と、
前記状態遷移グラフを構成するノードのうち、1つのノードを、タッチパネルに表示する処理を行う最初の3次元アニメーション表示処理手段と、
前記状態遷移グラフ作成手段で作成した状態遷移グラフに基づいて、前記1つのノードにおける次のノード候補に係る次の動作パターン候補を特定する次の動作パターン候補特定手段と、
前記決定手段で決定した動作の開始位置および方向であって前記次の動作パターン候補における動作の開始位置および方向を定めるジェスチャーデータを、前記タッチパネルに表示する処理を行うジェスチャーデータ表示処理手段と、
前記タッチパネルに対するユーザの入力に基づいて前記次の動作パターン候補の中から次の動作パターンを選択し、当該選択した次の動作パターンに係る前記3次元アニメーションを前記タッチパネルに表示する処理を行う次の3次元アニメーション表示処理手段と
を有することを特徴とする3次元アニメーション表示システム。 - 前記次の動作パターン候補特定手段は、前記状態遷移グラフ作成手段で作成した状態遷移グラフに基づいて、前記次のノード候補の中の次のノードにおけるその次のノード候補に係るその次の動作パターン候補を特定する処理を更に行い、
前記ジェスチャーデータ表示処理手段は、前記決定手段で決定した動作の開始位置および方向であって前記その次の動作パターン候補における動作の開始位置および方向を定めるジェスチャーデータを、前記タッチパネルに表示する処理を更に行い、
前記次の3次元アニメーション表示処理手段は、前記タッチパネルに対するユーザの入力に基づいて前記その次の動作パターン候補の中からその次の動作パターンを選択し、当該選択したその次の動作パターンに係る前記3次元アニメーションを前記タッチパネルに表示する処理を更に行うことを特徴とする請求項1に記載の3次元アニメーション表示システム。 - 前記対象物の前記複数の動作パターンを撮影する処理を行う撮影処理手段を更に有し、
前記3次元アニメーション取得手段は、前記撮影処理手段による撮影処理により得られた前記対象物の前記複数の動作パターンに係る3次元アニメーションを取得することを特徴とする請求項1または2に記載の3次元アニメーション表示システム。 - 前記決定手段は、前記撮影処理手段で得られた3次元アニメーションを解析することで、前記3次元アニメーションにおける前記対象物の動作の開始位置および方向を決定することを特徴とする請求項3に記載の3次元アニメーション表示システム。
- 対象物の複数の動作パターンに係る3次元アニメーションを取得する3次元アニメーション取得ステップと、
前記対象物の前記複数の動作パターンにおける状態遷移グラフを作成する状態遷移グラフ作成ステップと、
前記対象物の前記複数の動作パターンにおける各動作パターン毎に、前記3次元アニメーションにおける前記対象物の動作の開始位置および方向を決定する決定ステップと、
前記状態遷移グラフを構成するノードのうち、1つのノードを、タッチパネルに表示する処理を行う最初の3次元アニメーション表示処理ステップと、
前記状態遷移グラフ作成ステップで作成した状態遷移グラフに基づいて、前記1つのノードにおける次のノード候補に係る次の動作パターン候補を特定する次の動作パターン候補特定ステップと、
前記決定ステップで決定した動作の開始位置および方向であって前記次の動作パターン候補における動作の開始位置および方向を定めるジェスチャーデータを、前記タッチパネルに表示する処理を行う第1のジェスチャーデータ表示処理ステップと、
前記タッチパネルに対するユーザの入力に基づいて前記次の動作パターン候補の中から次の動作パターンを選択し、当該選択した次の動作パターンに係る前記3次元アニメーションを前記タッチパネルに表示する処理を行う次の3次元アニメーション表示処理ステップと
を有することを特徴とする3次元アニメーション表示方法。 - 前記状態遷移グラフ作成ステップで作成した状態遷移グラフに基づいて、前記次のノード候補の中の次のノードにおけるその次のノード候補に係るその次の動作パターン候補を特定するその次の動作パターン候補特定ステップと、
前記決定ステップで決定した動作の開始位置および方向であって前記その次の動作パターン候補における動作の開始位置および方向を定めるジェスチャーデータを、前記タッチパネルに表示する処理を行う第2のジェスチャーデータ表示処理ステップと、
前記タッチパネルに対するユーザの入力に基づいて前記その次の動作パターン候補の中からその次の動作パターンを選択し、当該選択したその次の動作パターンに係る前記3次元アニメーションを前記タッチパネルに表示する処理を行うその次の3次元アニメーション表示処理ステップと
を更に有することを特徴とする請求項5に記載の3次元アニメーション表示方法。 - 前記対象物の前記複数の動作パターンを撮影する処理を行う撮影処理ステップを更に有し、
前記3次元アニメーション取得ステップでは、前記撮影処理ステップによる撮影処理により得られた前記対象物の前記複数の動作パターンに係る3次元アニメーションを取得することを特徴とする請求項5または6に記載の3次元アニメーション表示方法。 - 前記決定ステップでは、前記撮影処理ステップで得られた3次元アニメーションを解析することで、前記3次元アニメーションにおける前記対象物の動作の開始位置および方向を決定することを特徴とする請求項7に記載の3次元アニメーション表示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013040126A JP2014167771A (ja) | 2013-02-28 | 2013-02-28 | 3次元アニメーション表示システム及び3次元アニメーション表示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013040126A JP2014167771A (ja) | 2013-02-28 | 2013-02-28 | 3次元アニメーション表示システム及び3次元アニメーション表示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014167771A true JP2014167771A (ja) | 2014-09-11 |
Family
ID=51617411
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013040126A Pending JP2014167771A (ja) | 2013-02-28 | 2013-02-28 | 3次元アニメーション表示システム及び3次元アニメーション表示方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014167771A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7480076B2 (ja) | 2021-01-28 | 2024-05-09 | 株式会社日立システムズ | コンテンツ作成システム及び方法 |
-
2013
- 2013-02-28 JP JP2013040126A patent/JP2014167771A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7480076B2 (ja) | 2021-01-28 | 2024-05-09 | 株式会社日立システムズ | コンテンツ作成システム及び方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9399290B2 (en) | Enhancing sensor data by coordinating and/or correlating data attributes | |
JP6469706B2 (ja) | 深度センサを用いた構造のモデル化 | |
JP6609994B2 (ja) | 表示制御方法、情報処理装置及び表示制御プログラム | |
EP3090424A1 (en) | Assigning virtual user interface to physical object | |
KR20170112406A (ko) | 증강 현실 아바타 사진 촬영 장치 및 방법 | |
JP2016518647A (ja) | 体験コンテンツデータセットに関するキャンペーン最適化 | |
JP2016512363A (ja) | コンテンツ作成ツール | |
JP6183099B2 (ja) | 入力支援装置、入力支援方法及び入力支援プログラム | |
Alshaal et al. | Enhancing virtual reality systems with smart wearable devices | |
JP6325659B2 (ja) | 操作画面表示装置、操作画面表示方法およびプログラム | |
US20160364321A1 (en) | Emulating a user performing spatial gestures | |
CN111798549A (zh) | 舞蹈的编辑方法、装置及计算机存储介质 | |
US11978252B2 (en) | Communication system, display apparatus, and display control method | |
JP2019049899A (ja) | 情報処理装置及びプログラム | |
JP6376591B2 (ja) | データ出力装置、データ出力方法及び3次元物体製造システム | |
JP5266416B1 (ja) | テストシステム及びテストプログラム | |
CN112579144B (zh) | 数据处理方法及装置 | |
JP5665396B2 (ja) | 情報処理装置およびその制御方法 | |
JP2014167771A (ja) | 3次元アニメーション表示システム及び3次元アニメーション表示方法 | |
KR101211178B1 (ko) | 증강 현실 컨텐츠 재생 시스템 및 방법 | |
CN105302310B (zh) | 一种手势识别装置、系统及方法 | |
CN111639611A (zh) | 一种历史文物的展示控制方法及装置 | |
CN111696179A (zh) | 卡通三维模型和虚拟仿真人的生成方法、装置和存储介质 | |
JP2020126358A (ja) | 計測方法、計測装置、およびプログラム | |
JP6193180B2 (ja) | プレゼンテーション用端末及びプレゼンテーション方法 |