JP2017176673A - 表示制御装置およびプログラム - Google Patents
表示制御装置およびプログラム Download PDFInfo
- Publication number
- JP2017176673A JP2017176673A JP2016071678A JP2016071678A JP2017176673A JP 2017176673 A JP2017176673 A JP 2017176673A JP 2016071678 A JP2016071678 A JP 2016071678A JP 2016071678 A JP2016071678 A JP 2016071678A JP 2017176673 A JP2017176673 A JP 2017176673A
- Authority
- JP
- Japan
- Prior art keywords
- posture
- virtual person
- determination
- target
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】マーカ等の検出部材の追加や処理負荷の増加をすることなく、歌唱者に相当する仮想人物を適正な姿勢で表示させることが可能な表示制御装置を提供する。【解決手段】三次元空間に存在するユーザUSの姿勢に対応した仮想人物PGを示す画像を表示させる場合に、仮想人物PGの所定の部位と対応するユーザUSの対応部位と、所定の部位の姿勢の変更を行うか否かの判断に用いられるユーザUSの少なくとも一つの判断部位と、判断部位の位置を示す所定の条件と、ユーザUSの対応部位と対応する仮想人物PGの所定の部位の適正姿勢を示す目標姿勢と、を関連付けて記憶する。ユーザUSの身体の部位の三次元空間での位置の検出結果に基づいて、少なくとも1つの判断部位の位置が所定の条件を満たすか否かを判定し、少なくとも1つの判断部位の位置が条件を満たす場合に、仮想人物PGの所定の部位の姿勢を目標姿勢に変更して表示させる。【選択図】図1
Description
本発明は、表示制御装置およびプログラムの技術分野に属する。より詳細には、対象者の姿勢に対応した姿勢をする仮想人物の画像を表示面に表示させる表示制御装置および表示制御装置用のプログラムの技術分野に属する。
近年、たとえばカラオケの歌唱者の動作をカメラで検出し、その検出結果に基づいて、その者と同じ動きをする仮想人物またはキャラクタを表示して楽しむカラオケ装置が開発されている(たとえば、特許文献1)。この特許文献1に記載の技術では、歌唱者の身体表面に設けられたマーカを検知して歌唱者の身体の部位を推定し、その推定結果に基づいてコンピュータグラフィックの手法により仮想人物の画像を生成してモニタに表示させる構成とされている。
しかしながら、特許文献1に記載の技術のように、ユーザの身体の部位を検出する場合、検出結果に誤差があるため、その検出結果を用いて表示される画像における仮想人物の身体の一部の部位の状態や姿勢が、実際に人物が取り得る状態や姿勢とは異なる誤った状態や姿勢で表示されてしまう場合がある。そして検出精度を上げるようとすると、上記マーカやセンサ或いはカメラなどの検出部材の台数を増やすことが必要となり、更には検出部材の台数が増えることにより、それらの検出結果を用いた画像処理の負荷も増加するという問題点があった。
そこで本発明は、以上の各問題点に鑑みて為されたものであり、マーカやカメラ等の検出部材の追加や処理負荷の増加をすることなく、歌唱者に相当する仮想人物を人物が取り得る適正な姿勢で表示させることを可能とする表示制御装置およびプログラムを提供する。
上記課題を解決するために、請求項1に記載の発明は、三次元空間に存在する対象者の姿勢に対応した姿勢をする仮想人物を示す画像を表示させる表示制御装置であって、前記画像により示される前記仮想人物の所定の部位と対応する前記対象者の身体の部位を示す対応部位と、前記所定の部位の姿勢の変更を行うか否かの判断に用いられる前記対象者の身体の部位を示す少なくとも1つの判断部位と、前記対象者の姿勢における前記判断部位の位置を示す所定の条件と、前記対応部位と対応する前記仮想人物の前記所定の部位の適正姿勢として予め設定された姿勢を示す目標姿勢データと、を関連付けて記憶する記憶手段と、前記対象者の身体の部位の三次元空間での位置の検出結果を取得する取得手段と、前記取得手段により取得された前記検出結果に基づいて、前記判断部位の位置が前記条件を満たすか否かを判定する判定手段と、少なくとも1つの前記判断部位の位置が前記条件を満たすと前記判定手段により判定された場合に、前記対応部位に対応する前記仮想人物の前記所定の部位の姿勢を、満たされた前記条件に関連付けられている前記目標姿勢データが示す姿勢に変更する変更手段と、前記取得手段により取得された前記検出結果における前記位置に基づいて、前記変更手段により変更された姿勢を含む前記仮想人物の前記画像を表示させる表示制御手段と、を備えることを特徴とする。
上記の課題を解決するために、請求項2に記載の発明は、請求項1に記載の表示制御装置において、前記記憶手段は、前記判断部位として、前記所定の部位の姿勢の変更を行うか否かの判断に用いられる前記対象者の身体の複数の部位を示す複数の前記判断部位を記憶し、さらに、前記条件として、前記対象者の姿勢における複数の前記判断部位の位置関係を示す関係条件を記憶するものであり、前記判定手段は、前記取得手段により取得された前記検出結果に基づいて、複数の前記判断部位の位置関係が前記関係条件を満たすか否かを判定し、前記変更手段は、複数の前記判断部位の位置関係が前記関係条件を満たすと前記判定手段により判定された場合に、前記対応部位に対応する前記仮想人物の前記所定の部位の姿勢を、満たされた前記関係条件に関連付けられている前記目標姿勢データが示す姿勢に変更することを特徴とする。
上記の課題を解決するために、請求項3に記載の発明は、請求項1または請求項2に記載の表示制御装置において、前記判断部位の位置が前記条件を満たすと前記判定手段により判定された場合に、前記変更手段は、前記仮想人物の前記所定の部位の姿勢を、前記取得手段により取得された前記検出結果の位置に基づく前記対象部位の姿勢に対応する前記所定の部位の姿勢から回転させることにより、満たされた前記条件に関連付けられている前記目標姿勢データが示す姿勢に変更することを特徴とする。
上記の課題を解決するために、請求項4に記載の発明は、請求項1から請求項3のいずれか一項に記載の表示制御装置において、前記判断部位の位置が前記条件を満たすと前記判定手段により判定された場合に、前記変更手段は、前記仮想人物の手首および手を前記所定の部位として、前記仮想人物の前記手首および前記手の姿勢を、満たされた前記条件に関連付けられている前記目標姿勢データが示す姿勢に変更することを特徴とする。
上記の課題を解決するために、請求項5に記載の発明は、請求項1から請求項3のいずれか一項に記載の表示制御装置において、前記判断部位の位置が前記条件を満たすと前記判定手段により判定された場合に、前記変更手段は、前記仮想人物の手首および肘を前記所定の部位として、前記仮想人物の肘の姿勢を前記肘に対応し且つ満たされた前記条件に関連付けられている前記目標姿勢データが示す姿勢に変更し、さらに、前記仮想人物の前記肘の姿勢が前記肘に対応する前記目的姿勢データが示す姿勢に変更された前記仮想人物の姿勢に対し、前記仮想人物における手首の姿勢を、前記手首に対応し且つ満たされた前記条件に関連付けられている前記目標姿勢データが示す姿勢に変更することを特徴とする。
上記の課題を解決するために、請求項6に記載の発明は、請求項1から請求項5のいずれか一項に記載の表示制御装置において、前記対象者はカラオケ曲を歌唱する者であり、前記変更手段は、前記カラオケ曲の内容に基づいて前記対象者が歌唱すると判断された場合に、前記仮想人物の前記所定の部位として、手首および手の姿勢を、マイクを前記仮想人物の口元に向けて所持する前記目標姿勢データが示す姿勢にそれぞれ変更し、前記表示制御手段は、前記カラオケ曲の内容に基づいて前記対象者が歌唱すると判断され、前記変更手段によりマイクを前記仮想人物の口元に向けて所持する前記目標姿勢データが示す姿勢へ前記仮想人物の前記手首および前記手の姿勢が変更されたとき、変更された前記姿勢の前記仮想人物の前記画像を表示させることを特徴とする。
上記の課題を解決するために、請求項7に記載の発明は、請求項1から請求項5のいずれか一項に記載の表示制御装置において、前記対象者はカラオケ曲を歌唱する者であり、前記変更手段は、前記取得手段により取得された前記検出結果に基づいて前記対象者が歌唱すると判断された場合に、前記仮想人物の前記所定の部位として、手首および手の姿勢を、マイクを前記仮想人物の口元に向けて所持する前記目標姿勢データが示す姿勢にそれぞれ変更し、前記表示制御手段は、前記取得手段により取得された前記検出結果に基づいて前記対象者が歌唱すると判断され、前記変更手段によりマイクを前記仮想人物の口元に向けて所持する前記目標姿勢データが示す姿勢へ前記仮想人物の前記手首および前記手の姿勢が変更されたとき、変更された前記姿勢の前記仮想人物の前記画像を表示させることを特徴とする。
上記の課題を解決するために、請求項8に記載の発明は、三次元空間に存在する対象者の姿勢に対応した姿勢をする仮想人物を示す画像を表示させる表示制御装置であって、前記画像により示される前記仮想人物の所定の部位と対応する前記対象者の身体の部位を示す対応部位と、前記所定の部位の姿勢の変更を行うか否かの判断に用いられる前記対象者の身体の部位を示す少なくとも1つの判断部位と、前記対象者の姿勢における前記判断部位の位置を示す所定の条件と、前記対応部位と対応する前記仮想人物の前記所定の部位の適正姿勢として予め設定された姿勢を示す目標姿勢データと、を関連付けて記憶する記憶手段を備える表示制御装置に含まれるコンピュータに、前記対象者の身体の部位の三次元空間での位置の検出結果を取得する取得ステップと、前記取得ステップにおいて取得された前記検出結果に基づいて、前記判断部位の位置が前記条件を満たすか否かを判定する判定ステップと、少なくとも1つの前記判断部位の位置が前記条件を満たすと前記判定ステップにおいて判定された場合に、前記対応部位に対応する前記仮想人物の前記所定の部位の姿勢を、満たされた前記条件に関連付けられている前記目標姿勢データが示す姿勢に変更する変更ステップと、前記取得ステップにおいて取得された前記検出結果における前記位置に基づいて、前記変更ステップにおいて変更された姿勢を含む前記仮想人物の前記画像を表示させる表示制御ステップと、を実行させることを特徴とする。
請求項1または請求項8に記載の発明によれば、他の構成部材の追加や処理負荷の増加をすることなく、対象者が取り得る適正な姿勢の仮想人物の画像を表示させることができる。
請求項2に記載の発明によれば、複数の判断部位の位置関係を示す条件で、対象者の部位の位置状態を適切に判断し、対象者が取り得る適正な姿勢の仮想人物の画像を表示させることができる。
請求項3に記載の発明によれば、仮想人物の姿勢における変更部位を回転により正しい姿勢へと変更することができる。
請求項4に記載の発明によれば、空間的な位置検出において誤差が出易い手等の部位についても、正しい姿勢として仮想人物の画像を表示させることができる。
請求項5に記載の発明によれば、手首および肘それぞれについて違和感がない姿勢の仮想人物を表示させることができる。
請求項6または請求項7に記載の発明によれば、カラオケを歌唱する対象者の仮想人物を、より歌唱時の実際の状態に近い形で表示させることができる。
以下、本発明の実施形態を図面に基づいて説明する。
1.投影システムの構成および動作概要
はじめに、図1および図2を参照して、本実施形態の投影システムの構成および動作概要について説明する。本実施形態の投影システムSは、図1に示すように、楽曲データベース10が接続されたカラオケ演奏装置1、再生制御装置2、センサ3およびプロジェクタP等を備えて構成される。図1等において、「データベース」は単に「DB」と示されている。ここで、再生制御装置2は本発明の表示制御装置の一例である。投影システムSは、たとえばカラオケ店舗等のアミューズメント施設における部屋で、カラオケ曲を歌唱するユーザUSに利用される。ユーザUSは本発明の対象者の一例である。プロジェクタP、カラオケ演奏装置1及びセンサ3はそれぞれ、有線または無線を介して再生制御装置2と接続される。また、カラオケ演奏装置1と再生制御装置2の少なくとも何れか一方には、有線または無線を介して、マイクMおよび図示しないスピーカ並びに操作指示用の図示しない操作デバイスが接続される。
はじめに、図1および図2を参照して、本実施形態の投影システムの構成および動作概要について説明する。本実施形態の投影システムSは、図1に示すように、楽曲データベース10が接続されたカラオケ演奏装置1、再生制御装置2、センサ3およびプロジェクタP等を備えて構成される。図1等において、「データベース」は単に「DB」と示されている。ここで、再生制御装置2は本発明の表示制御装置の一例である。投影システムSは、たとえばカラオケ店舗等のアミューズメント施設における部屋で、カラオケ曲を歌唱するユーザUSに利用される。ユーザUSは本発明の対象者の一例である。プロジェクタP、カラオケ演奏装置1及びセンサ3はそれぞれ、有線または無線を介して再生制御装置2と接続される。また、カラオケ演奏装置1と再生制御装置2の少なくとも何れか一方には、有線または無線を介して、マイクMおよび図示しないスピーカ並びに操作指示用の図示しない操作デバイスが接続される。
カラオケ演奏装置1は、カラオケ曲等の楽曲を再生する装置である。カラオケ演奏装置1に接続されている楽曲データベース10は、複数の楽曲ファイルを、カラオケ演奏装置1から読み出し可能に記憶する。楽曲ファイルは、楽曲の楽曲データと、その楽曲をカラオケ曲として歌唱する際に表示される画像の画像データと、を関連付けて格納する。楽曲ファイルには、楽曲の歌詞に相当する歌詞データが合わせて格納されていてもよい。各楽曲ファイルには、たとえば、楽曲の楽曲IDが対応付けられる。カラオケ演奏装置1は、上記操作デバイスにおいて指定された楽曲の楽曲IDおよび再生指示をその操作デバイスから受信すると、再生指示された楽曲の楽曲データを楽曲データベース10から読み出して再生し、そのオーディオ信号を上記スピーカへ出力する。またカラオケ演奏装置1は、再生指示された楽曲の楽曲ファイルから画像データを読み出し、再生制御装置2へ送信する。再生制御装置2は、カラオケ演奏装置1から送信された画像データを、プロジェクタPを介して、投影画像Gとして予め設けられている投影面に投影する。この投影画像Gには図1に例示するように、上記歌詞データとして含まれていたその楽曲の歌詞が含まれていてもよい。ユーザUSは、カラオケ演奏装置1による楽曲の再生中に、投影面に投影された投影画像G中の歌詞を見ながら、マイクMを持って、その楽曲をカラオケ曲として歌唱する。この場合にカラオケ演奏装置1は、楽曲のオーディオ信号と、マイクMにより集音されたユーザUSの歌唱音声信号とをミキシングして上記スピーカへ出力して放音させる。このとき投影画像Gには図1に示すように、上記画像データに相当する画像および歌詞に加えて、本実施形態のキャラクタCHや本実施形態の仮想人物PGが含まれている。
本実施形態のキャラクタCHは、楽曲に対応して再生制御装置2内の後述するキャラクタデータベース26に予め記憶されていた人物様のキャラクタに相当する画像が、プロジェクタPを介して投影画像G内に含まれて投影されるものである。また本実施形態の仮想人物PGは、カラオケを歌唱するユーザUSの歌唱時の三次元空間における動きをセンサ3で検出して得られた後述の検出結果に基づいて、投影画像G内でカラオケの歌唱に合わせてユーザUSの動きと同じ動きをする仮想的な人物の画像である。これによりユーザUSは、自分と同じ動きをする仮想人物PGが上記キャラクタCHと共にカラオケ曲を楽しんでいるかのような体験を得ることができる。ここで上記「ユーザUSの動き」とは、たとえば、マイクMを持った手H等を動かしながらカラオケ曲を歌唱する際の動き、カラオケ曲の歌唱に合わせて振られる手Hの動き、または、カラオケ曲の歌唱に合わせたユーザUSの身体全体の動き等が該当する。
本実施形態のセンサ3には、たとえば、RGB(Red Green Blue)カメラおよび深度カメラが用いられる。センサ3は、RGBカメラにより、ユーザUSを含み且つその画角に収まる撮像範囲を連続的に撮像することで、RGBカメラの画角内にいるユーザUSのRGB画像を連続的に取得する。深度カメラは、赤外線レーザなどによる深度センサである。センサ3は、深度カメラにより上記撮像範囲を連続的に撮像することで、いわゆるデプス画像を連続的に取得する。デプス画像には、センサ3の撮像範囲内の三次元空間における投影面上の各位置の三次元位置座標(X,Y,Z)を示す。たとえば図1の場合、センサ3の撮像範囲内の三次元空間にはカラオケ曲を歌唱するユーザUSが存在するので、デプス画像は、センサ3の撮像範囲内の三次元空間にいるユーザUSの表面上の各位置の三次元位置座標、およびユーザUSのたとえば背景にある壁面等上の各位置の三次元位置座標を含む。また図1の例の場合、センサ3は、取得したデプス画像からユーザUSを検出(認識)し、検出したユーザUSの輪郭や骨格を形成する各部位の位置を示す部位情報を取得する。センサ3は、上記取得したRGB画像、上記取得したデプス画像、および上記検出したユーザUSの部位情報を連続的に再生制御装置2へ送信する。センサ3は、少なくとも検出したユーザUSの部位情報を連続的に再生制御装置2へ送信するものであってもよい。なお、再生制御装置2が、デプス画像からユーザUSを検出し、検出したユーザUSの部位情報を取得してもよい。
ここでユーザUSの部位情報は、たとえば、ユーザUSの輪郭や骨格を形成する部位毎に、三次元位置座標(X,Y,Z)が対応付けられた情報であり、デプス画像に示される各位置までの深度から特定することが可能である。具体的には、深度カメラにより取得された各位置までの深度を、ユーザUSの輪郭や骨格を形成する各部位の位置を判断するための人物位置パターンデータと比較することにより、人物の輪郭や骨格を形成する各部位が特定される。上記人物位置パターンデータは、たとえば、予め所定のデータベース等に記憶された多数の種類の人物位置パターンから、デプス画像に示される各位置の深度に応じた所定のパターンデータを読み出して用いられる。ここで特定されるユーザUSの上記各部位の例としては、頭部、左肩部、右肩部、左肘部、右肘部、左手部、右手部、首部、胴部、腰部、左尻部、右尻部、左膝部、右膝部、左足部、および右足部等が挙げられる。このような部位情報には、部位の回転角Θが含まれる。部位の回転角Θとは、その部位に連結される他の部位を基準とする所定位置に対する角度を示す回転角Θである。もしくは、部位の回転角Θとは、その部位と間接的に連結される特定の部位の位置を基準とした回転角Θであってもよい。たとえば、頭部の回転角Θは、頭部に連結される首部を基準とする回転角Θである。首部の回転角Θは、首部に連結される胴部を基準とする回転角Θである。右手部または左手部の回転角Θは、右手部または左手部に連結される右肘部または左肘部を基準とする回転角Θである。回転角Θを含む部位情報は(X,Y,Z,Θ)というように表される。なお、人物の頭部の部位情報は、人物の頭を球体としたときの中心座標を示してもよいし、人物の頭の表面上にある複数の部位それぞれの位置座標を示してもよい。
プロジェクタPは、投影対象の映像を再生する装置である。プロジェクタPは、再生制御装置2から送信された画像データおよび投影指示を受信すると、投影指示された映像を再生し、その画像信号に応じた投影光を発光部から発することにより映像を出力する。これによりプロジェクタPは、その投影角に収まる投影範囲の投影面に上記投影映像Gを投影する。
再生制御装置2は、楽曲の再生制御および映像の投影制御等を行うと共に、本実施形態の映像表示処理を行う装置である。再生制御装置2は図1に示すように、インターフェース20、インターフェース21およびインターフェース22、制御部23および記憶部24を備える。インターフェース20、インターフェース21およびインターフェース22、制御部23および記憶部24は、バス27に接続されている。記憶部24は本発明の記憶手段の一例であり、インターフェース22は本発明の取得手段の一例である。インターフェース20は、プロジェクタPと再生制御装置2との間のインターフェースである。インターフェース21は、カラオケ演奏装置1と再生制御装置2との間のインターフェースである。インターフェース22は、センサ3と再生制御装置2との間のインターフェースである。記憶部24は、たとえばハードディスクドライブにより構成される。記憶部24には、OS(Operating System)、本実施形態の姿勢変更情報データベース25およびキャラクタデータベース26並びに本実施形態のプログラム等が記憶される。本実施形態のプログラムは、後述する映像表示処理をCPUに実行させるプログラムである。
ここで本実施形態の映像表示処理において制御部23は、仮想人物PGの画像における所定の部位の姿勢を、その所定の部位についての適正姿勢として姿勢変更情報データベース25に予め記憶されている情報により示される予め設定された姿勢に変更する。具体的にたとえば、仮想人物PGにおいてその頭部より上に上げて振られているその左手部または右手部の姿勢が、センサ3から取得された左手部または右手部の姿勢に拘わらず、その手の平を正面に向けた適正姿勢に変更される。また、仮想人物PGにおいてマイクMを持って歌唱している際のその左手部および左肘部または右手部および右肘部の姿勢が、センサ3から取得された左手部および左肘部または右手部および右肘部の姿勢に拘わらず、マイクMを正しく口元に向けた適正姿勢に変更される。このため記憶部24には、キャラクタデータベース26に加えて、本実施形態の映像表示処理としての上記姿勢の変更のための姿勢変更情報データベース25が記憶されている。
制御部23は、コンピュータとしてのCPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)等により構成される。制御部23は、本発明の判定手段、変更手段および表示制御手段の一例である。制御部23は、本発明のプログラムに従って映像表示処理を実行する。具体的には制御部23は、ユーザUSの頭部等の位置および姿勢等を所定の三次元空間において特定する。ここで所定の三次元空間は、制御部23により認識される仮想的な三次元空間であり、センサ3から取得されたデプス画像が示す三次元位置座標から特定される。換言すると、この三次元空間は、ユーザUSの動きに対応した仮想人物PGが投影された投影画像Gを観察可能な範囲の三次元空間である。ユーザUSの頭部の位置は、センサ3から取得された「ユーザUSの頭部の部位情報」が示す三次元位置座標により特定される。またユーザUSの左肘部の位置は、センサ3から取得された「ユーザUSの左肘部の部位情報」が示す三次元位置座標により特定される。以下同様に、ユーザUSの各部位の位置は、センサ3から取得された「その部位の部位情報」が示す三次元位置座標により特定される。
記憶部24に記憶されているキャラクタデータベース26には、上記仮想人物PGやキャラクタCHを投影画像Gとして投影するための各部位の画像データ等が、相互に識別されつつ記憶されている。
次に、記憶部24に姿勢制御情報データベース25として記憶されている各データベース等について、図2を用いて説明する。
図2に示すように、本実施形態の姿勢制御情報データベース25には、姿勢変更用情報データベース250と、部位別基準ベクトルデータベース251と、変更条件データベース252と、特定部位姿勢変更処理データベース253と、演奏状態データベース254と、が記憶されている。
姿勢変更用情報データベース250には図2(a)に例示するように、「変更用情報ID」と、「目標姿勢」と、「第1判断用部位」と、「第2判断用部位」と、「変更条件ID」と、「第1変更部位」と、「第2変更部位」と、「第3変更部位」と、「特定部位姿勢変更処理ID」と、「優先順位」と、が、関連付けられた本実施形態の姿勢変更用情報が記憶されている。このとき変更用情報IDは、一つの目標姿勢に関連付けられている姿勢変更用情報を他の目標姿勢に関連付けられている姿勢変更用情報から識別するための識別情報である。目標姿勢は、本実施形態の映像表示処理により適正姿勢とされるユーザUSの姿勢を示す情報である。たとえば、仮想人物PGにおいてその頭部より上に上げて振られているその左手部または右手部の姿勢は、その手の平を正面に向けた姿勢が適正姿勢(目標姿勢)である。また、仮想人物PGにおいてマイクMを持って歌唱している際のその左手部および左肘部または右手部および右肘部の姿勢は、マイクMを正しく口元に向けた姿勢が適正姿勢(目標姿勢)である。第1判断用部位は、適正姿勢とするために仮想人物PGの画像において姿勢を変更するか否かの判断の基準とされるユーザUSの身体の部位である。第2判断用部位は、適正姿勢とするために仮想人物PGの画像において姿勢を変更するか否かの判断の対象とされるユーザUSの身体の部位である。すなわち第1判断用部位および第2判断用部位は、適正姿勢とするために仮想人物PGの画像において姿勢を変更するか否かの判断に用いられるユーザUSの身体の部位である。これら第1判断用部位および第2判断用部位が本発明の判断部位の一例である。なお、第1判断用部位および第2判断用部位のうち、本発明の判断部位の一例である第2判断用部位のみが記憶されていてもよい。変更条件IDは、適正姿勢とするために仮想人物PGの画像において姿勢を変更すると判定される場合に第1判断用部位と第2判断用部位とが備えるべき三次元空間内の位置関係を示す変更条件を他の変更条件から識別するための識別情報である。第1変更部位ないし第3変更部位は、適正姿勢とするために姿勢が変更される仮想人物PGの部位に対応するユーザUSの部位である。この第1変更部位ないし第3変更部位が本発明の対応部位の一例である。第1変更部位ないし第3変更部位のうち、いずれか1つの変更部位が定められるものであってもよい。特定部位姿勢変更処理IDは、適正姿勢とするために仮想人物PGの画像において姿勢を変更する際の具体的な処理内容を他の処理内容から識別するための識別情報である。優先順位は、変更用情報IDにより識別される姿勢変更用情報が複数ある場合に、それらを適用する優先順位を示す情報である。たとえば図2(a)に例示する場合、ユーザUSが頭より上に手を上げて左右に振る「手振り姿勢」を仮想人物PGにおいて適正姿勢として投影させるための姿勢変更用情報が、「I1」なる変更用情報IDにより他と区別して記憶されている。そして、変更用情報ID「I1」の姿勢変更用情報としては、第1判断用部位としての肘(以下、「Elbow」と称する)と第2判断用部位としての手部(以下、「Wrist」と称する)とが「C1」なる変更条件IDにより識別される上記位置関係等にあるとき、第1変更部位としてのElbowの姿勢が「P1」なる特定部位姿勢変更処理IDにより識別される処理内容により変更されることが記述されている。また同様に、歌唱中のユーザUSが口元に向けてマイクMを持つ「マイク姿勢」を仮想人物PGにおいて適正姿勢として投影させるための姿勢変更用情報が、「I2」なる変更用情報IDにより他と区別して記憶されている。変更用情報ID「I2」の姿勢変更用情報としては、第1判断用部位としてのWristと第2判断用部位としての頭部(以下、「Head」と称する)とが「C2」なる変更条件IDにより識別される上記位置関係にあるとき、第1変更部位としてのWristの姿勢、第2変更部位としてのElbowの姿勢および第3変更部位としての手の形(以下、「Fingers」と称する)が「P2」なる特定部位姿勢変更処理IDにより識別される処理内容により変更されることが記述されている。また、変更用情報ID「I1」の姿勢変更用情報の適用の優先度が、変更用情報ID「I2」の姿勢変更用情報の適用の優先度より低いことが、優先順位として記述されている。
次に部位別基準ベクトルデータベース251には図2(b)に例示するように、ユーザUSの部位ごとの本実施形態の基準ベクトルが、上記三次元位置座標を用いてそれぞれ記述されている。ここで本実施形態の基準ベクトルとは、仮想人物PGの画像において両手Hを手の平を正面に向けて水平且つ左右に拡げ、両脚を揃えて直立し、更に頭部を正面に向けた姿勢(いわゆる「Tポーズ」)を取った場合の各部位の姿勢を定義する、上記三次元位置座標で表されたベクトルである。図2に例示する場合には、本実施形態の基準ベクトルが、WristおよびElbow共に(0、−1、0)であることが部位別基準ベクトルデータベース251として記述されている。この基準ベクトルについては、後ほど詳述する。
次に変更条件データベース252には図2(c)に例示するように、上記変更条件ID(上記「C1」等)およびサブIDごとに、変更条件としての上記位置関係等が、その種別と共に上記三次元位置座標を用いて記述されている。ここで、一つの変更条件IDに複数のサブIDが関連付けられている場合、その各サブIDにより識別される条件種別および条件が全て満たされた場合に、その変更条件IDにより識別される位置関係が満たされていることになる。
次に特定部位姿勢変更処理データベース253には図2(d)に例示するように、上記特定部位姿勢変更処理ID(上記「P1等」)および特定部位姿勢変更処理サブIDごとに、仮想人物PGの画像において姿勢を変更する際の具体的な処理内容が、変更されるユーザUSの部位と共に記述されている。ここで、一つの特定部位姿勢変更処理IDに複数の特定部位姿勢変更処理サブIDが関連付けられている場合、その各特定部位姿勢変更処理サブIDにより識別される変更部位および処理の内容が、特定部位姿勢変更処理IDにより識別される処理として実行される。なお、図2(d)における「目標ベクトル」についても、上記基準ベクトルと共に後ほど詳述する。
最後に演奏状態データベース254には図2(e)に例示するように、上記変更情報データベース252を構成する条件として記述されるカラオケ曲の演奏状態が、状態IDにより識別されつつ記述されている。ここで、図2(e)に例示する場合、「非演奏状態」とはカラオケ演奏装置1によるカラオケ曲の演奏がされていない状態をいう。「歌唱状態」とはカラオケ曲の演奏と共にユーザUSが実際に歌唱をしている状態をいう。「間奏状態」とはカラオケ曲は演奏されているがユーザUSは歌唱していない状態をいい、カラオケ曲として前奏である状態および後奏である状態を含む。
以上それぞれ説明した姿勢変更情報データベース25に基づいて制御部23は、後述するように本実施形態の映像表示処理を行う。
2.本実施形態の映像表示処理
次に、制御部23を中心として実行される本実施形態の映像表示処理について、具体的に図3ないし図8を用いて説明する。本実施形態の映像表示処理は、たとえば、再生制御装置2の電源スイッチをオンとしたタイミングから開始される。図3(a)に示すように、本実施形態の映像表示処理において制御部23は、はじめにセンサ3を起動し(ステップS1)、従来と同様の手法により、投影画像Gに含める仮想人物PG、キャラクタCHおよびその他のオブジェクト(たとえば背景画像やマイクMの画像等)を暫定的に生成する(ステップS2)。このステップS2において制御部23は、キャラクタデータベース26に記憶されている画像データ等を読み出して、必要な仮想人物PGおよびキャラクタCH等を生成する。またステップS2では、仮想人物PG等の実際の描画および投影までは行わない。
次に、制御部23を中心として実行される本実施形態の映像表示処理について、具体的に図3ないし図8を用いて説明する。本実施形態の映像表示処理は、たとえば、再生制御装置2の電源スイッチをオンとしたタイミングから開始される。図3(a)に示すように、本実施形態の映像表示処理において制御部23は、はじめにセンサ3を起動し(ステップS1)、従来と同様の手法により、投影画像Gに含める仮想人物PG、キャラクタCHおよびその他のオブジェクト(たとえば背景画像やマイクMの画像等)を暫定的に生成する(ステップS2)。このステップS2において制御部23は、キャラクタデータベース26に記憶されている画像データ等を読み出して、必要な仮想人物PGおよびキャラクタCH等を生成する。またステップS2では、仮想人物PG等の実際の描画および投影までは行わない。
次に制御部23は、センサ3の撮像範囲内にユーザUSが検出されたか否かを判定する(ステップS3)。ステップS3の判定においてユーザUSが検出されない場合(ステップS3:NO)、制御部23は後述するステップS6に移行する。一方ステップS3の判定において、センサ3の撮像範囲内にユーザUSが検出された場合(ステップS3:YES)、制御部23はセンサ3からユーザUSにおける各部位についての上記三次元位置座標を関節情報としてそれぞれ取得する(ステップS4)。すなわち制御部23は、ユーザUSの身体の部位の三次元空間での位置の検出結果を取得する。次に制御部23は、上記適正姿勢とするための仮想人物PGの姿勢計算処理を行う(ステップS5)。このステップS5については、後ほど詳述する。
次に制御部23は、ステップS5の姿勢計算結果を用いて仮想人物PG等を含む投影画像Gの描画処理、並びにプロジェクタPを介した投影処理を実行する(ステップS6)。すなわち制御部23は、ステップS5の姿勢計算結果による姿勢を含む仮想人物PG等の画像を作成し、プロジェクタPを介して投影させる。
そして制御部23は、上記図示しない操作デバイスから本実施形態の映像表示処理を終了する指示があったか否かを判定する(ステップS7)。ステップS7の判定において終了指示がない場合(ステップS7:NO)、制御部23は上記ステップS3に戻ってそれ以降の処理を繰り返す。一方ステップS7の判定において終了指示があった場合(ステップS7:YES)、制御部23はそのまま本実施形態の映像表示処理を終了する。
次に、図3(a)ステップS5の姿勢計算処理について、図3(b)を用いて更に説明する。
上記ステップS5において制御部23は、ステップS4で取得した関節情報に基づいて、仮想人物PGの画像における各部位の姿勢を暫定的に計算する(ステップS50)。このステップS50の処理自体は、従来の仮想人物PGにおける姿勢の計算処理と同様の処理である。
次に制御部23は、図2(a)に例示する姿勢変更用情報における優先順位を示すパラメータiを「1」として初期化し(ステップS51)、次にi番目の姿勢変更用情報を姿勢変更用情報データベース250から取得する(ステップS52)。このステップS52としては、たとえば再生制御装置2の電源スイッチを入れて最初に本実施形態の映像表示処理を実行する場合、変更用情報IDが「I2」である姿勢変更用情報を姿勢変更用情報データベース250から取得する。次に制御部23は、図3(a)ステップS4で取得した関節情報により示される各判断用部位の位置関係やカラオケ曲のその時点での演奏状態が、ステップS52で取得した姿勢変更用情報に記述されている変更条件IDにより識別される位置関係等に合致しているか否かを判定する(ステップS53)。すなわち制御部23は、図3(a)ステップS4で取得した関節情報により示される各判断用部位の位置関係等に基づいて、各判断用部位の位置関係が変更条件IDにより識別される位置関係等を満たすか否かを判定する。ここで、演奏状態データベース254として記述されている演奏条件は、たとえば、カラオケ曲自体の内容に基づいてユーザUSの歌唱状態等が判定される。歌唱状態は、具体的には歌唱中の有無の状態である。またこの場合、ユーザUSの姿勢等の検出結果を示す部位情報に基づいてユーザUSの歌唱状態を判定してもよい。ステップS53の判定において、図3(a)ステップS4で取得した関節情報により示される各判断用部位の位置関係等が変更条件IDにより識別される位置関係等に合致していない場合(ステップS53:NO)、制御部23はパラメータiを「1」だけインクリメントする(ステップS55)。その後処理部23は、上記ステップS52に戻る。ステップS53の判定において、図3(a)ステップS4で取得した関節情報により示される各判断用部位の位置関係等が変更条件IDにより識別される位置関係等に合致している場合(ステップS53:YES)、制御部23は、その姿勢変更用情報に含まれている処理を実行して仮想人物PGの画像における必要な部位の姿勢を適正姿勢に変更する(ステップS54)。すなわち制御部23は、各判断用部位の位置関係が変更条件IDにより識別される位置関係等を満たすと判定された場合に、仮想人物PGの所定の部位の姿勢を、満たされた条件に関連付けられている目標姿勢に変更する。その後制御部23は、図3(a)ステップS6に移行する。
次に、図3(b)ステップS54の姿勢変更処理について、仮想人物PGの画像における手の平の姿勢を図2(a)に例示する「手振り姿勢」としての適正姿勢とする場合の処理を第1実施例として更に説明する。また、仮想人物PGの画像におけるマイクMを持つ姿勢を図2(a)に例示する「マイク姿勢」としての適正姿勢とする場合の処理を第2実施例として更に説明する。
(I)第1実施例(手振り姿勢の適正化)
第1実施例としてのステップS54では、制御部23は先ず、図3(b)ステップS50で暫定的に計算されたWristの姿勢を示すWrist姿勢変更情報を、Wristの姿勢を上記Tポーズに対応した初期姿勢とするために取得する(ステップS540)。ここで上記初期姿勢とは、TポーズにおけるElbowに対するWristの姿勢をいう。次に制御部23は、仮想人物PGの画像における前方方向のベクトルを、Elbowの姿勢変更のための目標ベクトルに設定し(ステップS541)、第1実施例のElbow姿勢変更情報計算処理を実行する(ステップS542)。その後制御部23は、ステップS542の計算結果としての適正姿勢を仮想人物PGの画像におけるElbowに適用して(ステップS543)、図3(a)ステップS6に移行する。
第1実施例としてのステップS54では、制御部23は先ず、図3(b)ステップS50で暫定的に計算されたWristの姿勢を示すWrist姿勢変更情報を、Wristの姿勢を上記Tポーズに対応した初期姿勢とするために取得する(ステップS540)。ここで上記初期姿勢とは、TポーズにおけるElbowに対するWristの姿勢をいう。次に制御部23は、仮想人物PGの画像における前方方向のベクトルを、Elbowの姿勢変更のための目標ベクトルに設定し(ステップS541)、第1実施例のElbow姿勢変更情報計算処理を実行する(ステップS542)。その後制御部23は、ステップS542の計算結果としての適正姿勢を仮想人物PGの画像におけるElbowに適用して(ステップS543)、図3(a)ステップS6に移行する。
次に、ステップS542のElbow姿勢変更情報計算処理について、図4(b)および図5を用いて説明する。なお、図5(a)および図5(b)は、三次元位置座標において上から見た図である。
上記ステップS542において制御部23は、はじめに、図3(a)ステップS4で取得した関節情報に基づいて、Elbowの位置からWristの位置に向かう前腕ベクトルを計算する(ステップS5420)。ここで図5(a)左に例示する三次元位置座標系において、図5(a)右に示す前腕HGに対応したElbowの位置PS1の三次元位置座標が(−0.3、1.5、0)であり、Wristの位置PS2の三次元位置座標が(−0.6、1.8、−0.2)であったとする。この場合に制御部23は上記ステップS5420として、位置PS1から位置PS2に向かう前腕ベクトルAVを(−0.3、0.3、−0.2)と計算し、その大きさ(長さ)を「0.47」と計算する。次に制御部23は、現在のElbow基準ベクトルSVを計算する(ステップS5421)。ここで、Elbow基準ベクトルの初期値は上述したように(0、−1、0)で表されるが、ステップS5420で計算された前腕ベクトルAVの現在のElbow基準ベクトルSVが(−0.28、−0.96、0)で表され、主として−y方向を向いているとする。このとき、一般にベクトルaとベクトルbとの内積がそれらの為す角をθとして「┃a┃×┃b┃×cosθ」で表されることから、前腕ベクトルAVとElbow基準ベクトルSVとの内積は「−0.20」となる。
次に制御部23は、垂直Elbow基準ベクトルVSVを計算する(ステップS5422)。この垂直Elbow基準ベクトルVSVとは、前腕ベクトルAVに対する上記Elbow基準ベクトルSVの垂直成分である。ここで、前腕ベクトルAV(以下の式において単に「AV」とする)に対するElbow基準ベクトルSV(以下の式において単に「SV」とする)の水平成分hは、Elbow基準ベクトルSVと前腕ベクトルAVとの為す角をθとし、Elbow基準ベクトルSVと前腕ベクトルAVとの内積を「(AV・SV)」と表すとすると、以下の式で算出される。
h=┃h┃×AV/┃AV┃
=┃SV┃×cosθ×AV/┃AV┃
={(AV・SV)/┃AV┃}×AV/┃AV┃
={(AV・SV)/┃AV┃2}×AV
=(0.28、−0.28、0.19)
よって、上記垂直Elbow基準ベクトルVSVは、以下の式で算出される。
=┃SV┃×cosθ×AV/┃AV┃
={(AV・SV)/┃AV┃}×AV/┃AV┃
={(AV・SV)/┃AV┃2}×AV
=(0.28、−0.28、0.19)
よって、上記垂直Elbow基準ベクトルVSVは、以下の式で算出される。
垂直Elbow基準ベクトルVSV=SV−h
=SV−{(AV・SV)/┃AV┃2}×AV
=(−0.56、−0.68、−0.19)
なおこのとき、垂直Elbow基準ベクトルVSVの大きさは「0.90」となる。
=SV−{(AV・SV)/┃AV┃2}×AV
=(−0.56、−0.68、−0.19)
なおこのとき、垂直Elbow基準ベクトルVSVの大きさは「0.90」となる。
次に制御部23は、図5(b)に示すように、手の平を前に向けた目標姿勢に対応する目標ベクトルOVを取得する(ステップS5423)。この場合の目標ベクトルOVは、手の平を前に向けた姿勢に相当することから、(0、0、−1)で表されるベクトルとなる。次に制御部23は、ステップS5423で取得した目標ベクトルOVに基づいて、上記垂直Elbow基準ベクトルVSVの場合と同様にして、目標ベクトルOVと前腕ベクトルAVとの間の内積および目標ベクトルOVの前腕ベクトルAVに対する水平成分を求める。そして制御部23は、これらを用いて、目標ベクトルOVの前腕ベクトルAVに対する垂直成分である垂直目標ベクトルVOVを計算する(ステップS5424)。
その後制御部23は、図5(c)に例示するように、垂直Elbow基準ベクトルVSVと垂直目標ベクトルVOVとの間の角度である変更角度を計算する(ステップS5425)。なお図5(c)は、前腕ベクトルAVに垂直な面から且つユーザUSの頭側から見た図である。この変更角度が、ステップS50で計算されたElbowの姿勢(すなわち手の平の向き)から回転させてElbowの適正姿勢とするための角度となる。上述した垂直Elbow基準ベクトルVSVと垂直目標ベクトルVOVの場合は、その間の余弦の値が「0.23」となることから、上記変更角度は「76.8度」となる。このとき制御部23は、Elbowを回転させる方向を、前腕ベクトルAVと、垂直Elbow基準ベクトルVSVと垂直目標ベクトルVOVとの外積の向きと、から算出する。次に制御部23は、前腕ベクトルAVとステップS5425で計算された変更角度から、Elbowの回転に関する姿勢変更クォータニオン(四元数)を計算する(ステップS5426)。
ここで、姿勢変更クォータニオンの計算に際し、いわゆる正規化軸ベクトルを(x、y、z)とし、上記変更角度(回転させる角度)をθとすると、回転を表すクォータニオンQは、以下の式で計算される。
Q=(cos(θ/2);x×sin(θ/2)、y×sin(θ/2)、z×sin(θ/2))
そして、Elbowの回転姿勢を表すクォータニオンをL、変形後のElbowの回転姿勢を表すクォータニオンをL’とすると、
L’=Q×L
となる。
そして、Elbowの回転姿勢を表すクォータニオンをL、変形後のElbowの回転姿勢を表すクォータニオンをL’とすると、
L’=Q×L
となる。
その後制御部23は、ステップS50で計算されたElbowの姿勢と上記姿勢変更クォータニオンとに基づいて、Elbowとしての変更姿勢を計算する(ステップS5427)。その後制御部23は、図4(a)ステップS543に移行する。
以上説明した第1実施例によると、投影画像G中の仮想人物PGの手Hは、図6(a)に例示する誤った方向から、図6(b)に例示するように手Hとしての適正姿勢である前方を向くことになる。
(II)第2実施例(マイク姿勢の適正化)
第2実施例としてのステップS54では、マイクMが正しく口元に向いた仮想人物PGの画像となるように、Wrist、ElbowおよびFingersの姿勢をそれぞれ変更する。すなわち制御部23は、第2実施例としてのステップS54では先ず、図7(a)に示すように、図3(b)ステップS50で暫定的に計算されたWristの姿勢を正しく変更するためのWrist姿勢変更情報計算処理を行う(ステップS550)。このステップS550については、後ほど詳述する。
第2実施例としてのステップS54では、マイクMが正しく口元に向いた仮想人物PGの画像となるように、Wrist、ElbowおよびFingersの姿勢をそれぞれ変更する。すなわち制御部23は、第2実施例としてのステップS54では先ず、図7(a)に示すように、図3(b)ステップS50で暫定的に計算されたWristの姿勢を正しく変更するためのWrist姿勢変更情報計算処理を行う(ステップS550)。このステップS550については、後ほど詳述する。
次に制御部23は、ステップS550の計算結果に対応した姿勢変更後のWrist基準ベクトルを、Elbowの目標ベクトルとして設定する(ステップS551)。このときの基準ベクトルおよび目標ベクトルそれぞれの定義は、第1実施例の場合と同様である。次に制御部23は、図4(b)および図5を用いて説明したElbow姿勢変更情報計算処理(図4(b)参照)と同様のElbow姿勢変更情報計算処理を、ステップS551で設定したElbowの目標ベクトルを用いて実行する(ステップS552)。次に制御部23は、ステップS552に対応するFingersの形をマイクMを握る形に変更するためのFingers姿勢変更情報を、たとえばキャラクタデータベース26から取得する(ステップS553)。次に制御部23は、ステップS550、ステップS552およびステップS553の各計算結果としての適正姿勢を仮想人物PGの画像におけるWrist、ElbowおよびFingersに適用する(ステップS554)。そして制御部23は、マイクMに対応したマイクオブジェクトを適正姿勢となったFingersにおける親指側にマイクの頭が向くように生成し(ステップS555)、図3(a)ステップS6に移行する。なおこの場合のマイクオブジェクトは、適正姿勢となったFingersに関連付けられて、仮想人物PGの口元側を向くことになる。
次に、ステップS550のWrist姿勢変更情報計算処理について、図7(b)を用いて説明する。
上記ステップS550において制御部23は、はじめに、予め設定された初期姿勢から手を縦向きにした姿勢である第1目標姿勢を取得し(ステップS5501)、その第1目標姿勢におけるWrist基準ベクトルを計算する(ステップS5502)。ステップS5502におけるWrist基準ベクトルの計算方法は、図4(b)に示す場合と同様である。次に制御部23は、WristからHeadに向かうベクトルとして目標ベクトルを計算する(ステップS5503)。この目標ベクトル自体の意味は第1実施例の場合と同様である。次に制御部23は、ステップS5502で計算されたWrist基準ベクトルとステップS5503で計算された目標ベクトルを用いて、仮想人物PGの画像におけるWristの姿勢を適正姿勢とするための姿勢変更クォータニオンを計算する(ステップS5504)。このステップS5504における姿勢変更クォータニオンの計算方法も、図4(b)に示す場合と同様である。
その後制御部23は、ステップS5501で取得した第1目標姿勢とステップ5504で計算した姿勢変更クォータニオンに基づいて、Wristとしての変更姿勢を計算する(ステップS5505)。その後制御部23は、図7(a)ステップS551に移行する。
以上説明した第2実施例によると、投影画像G中の仮想人物PGのマイクMに対応するマイクオブジェクトMOは、図8(a)に例示する誤った位置および方向から、図8(b)に例示するように、マイクオブジェクトMOとしての適正姿勢である口元を向くことになる。第2実施例によれば、ユーザUSがカラオケを歌唱する者である場合に、そのカラオケの原曲の歌手における感情表現等を正しく再現することができる。
以上説明したように、上記実施形態によれば、ユーザUSの身体の部位の三次元的な位置の検出結果に基づき、各判断用部位の位置関係が既定の条件を満たすか否かを判定する。そして、各判断用部位の位置関係が既定の条件を満たすと判定された場合に、仮想人物PGの画像における所定部位の姿勢を、上記既定の条件に関連付けられている目標姿勢に変更し、その変更後の姿勢を含む仮想人物PGの画像を投影する。よって、他の構成部材の追加や処理負荷の増加をすることなく、正しい姿勢の仮想人物PGの画像を表示させることができる。
なお上述した実施形態では、仮想人物PGの画像における必要な部位の姿勢を変更するか否かの判定のために2つの判断用部位の位置を用いたが、3つ以上の判断用部位の位置を検出して、仮想人物PGの画像の姿勢を変更するか否かの判定を行ってもよい。たとえば、ユーザUSの両方のElbowの位置とHeadの位置を検出して仮想人物PGの画像における特定の部位の姿勢を変更するか否かを判定する場合、判断用部位の数は3となる。また、両手の形を検出して仮想人物PGの画像における特定の部位の姿勢を変更するか否かの判定をする場合、判断用部位の数は、両方の肩部、両方のElbowおよび両方のWristの、合計6つとなる。さらに、ユーザUSの全身の判断用部位の位置を検出して、仮想人物PGの画像における特定の部位の姿勢を変更するか否かの判定に用いる場合も考えられる。
さらにまた、1つの判断用部位のみの位置と、他の判断用部位の位置以外の予め設定された基準との関係を用いて、仮想人物PGの画像における必要な部位の姿勢を変更するか否かの判定を行ってもよい。この場合の「予め設定された基準」とは、たとえば、「手(Wrist)の位置が、仮想人物PGの立っている面から1.5メートル以上の位置にある」といった基準となる。
また上記実施形態においては、投影画像GにはユーザUSに相当する仮想人物PGまたはキャラクタCHと表示する場合を例にとって説明したが、これら以外の、人以外の物等に相当する画像を投影画像Gに表示する場合に適用することができる。
1 カラオケ演奏装置
2 再生制御装置
3 センサ
10 楽曲データベース
20、21、22 インターフェース
23 制御部
24 記憶部
25 姿勢変更情報データベース
26 キャラクタデータベース
250 姿勢変更用情報データベース
251 部位別基準ベクトルデータベース
252 変更条件データベース
253 特定部位姿勢変更処理データベース
254 演奏状態データベース
S 投影システム
P プロジェクタ
M マイク
G 投影画像
US ユーザ
CH キャラクタ
PG 仮想人物
H 手
HG 前腕
PS1、PS2 位置
AV 前腕ベクトル
SV Elbow基準ベクトル
VSV 垂直Elbow基準ベクトル
OV 目標ベクトル
VOV 垂直目標ベクトル
MO マイクオブジェクト
2 再生制御装置
3 センサ
10 楽曲データベース
20、21、22 インターフェース
23 制御部
24 記憶部
25 姿勢変更情報データベース
26 キャラクタデータベース
250 姿勢変更用情報データベース
251 部位別基準ベクトルデータベース
252 変更条件データベース
253 特定部位姿勢変更処理データベース
254 演奏状態データベース
S 投影システム
P プロジェクタ
M マイク
G 投影画像
US ユーザ
CH キャラクタ
PG 仮想人物
H 手
HG 前腕
PS1、PS2 位置
AV 前腕ベクトル
SV Elbow基準ベクトル
VSV 垂直Elbow基準ベクトル
OV 目標ベクトル
VOV 垂直目標ベクトル
MO マイクオブジェクト
Claims (8)
- 三次元空間に存在する対象者の姿勢に対応した姿勢をする仮想人物を示す画像を表示させる表示制御装置であって、
前記画像により示される前記仮想人物の所定の部位と対応する前記対象者の身体の部位を示す対応部位と、前記所定の部位の姿勢の変更を行うか否かの判断に用いられる前記対象者の身体の部位を示す少なくとも1つの判断部位と、前記対象者の姿勢における前記判断部位の位置を示す所定の条件と、前記対応部位と対応する前記仮想人物の前記所定の部位の適正姿勢として予め設定された姿勢を示す目標姿勢データと、を関連付けて記憶する記憶手段と、
前記対象者の身体の部位の三次元空間での位置の検出結果を取得する取得手段と、
前記取得手段により取得された前記検出結果に基づいて、前記判断部位の位置が前記条件を満たすか否かを判定する判定手段と、
少なくとも1つの前記判断部位の位置が前記条件を満たすと前記判定手段により判定された場合に、前記対応部位に対応する前記仮想人物の前記所定の部位の姿勢を、満たされた前記条件に関連付けられている前記目標姿勢データが示す姿勢に変更する変更手段と、
前記取得手段により取得された前記検出結果における前記位置に基づいて、前記変更手段により変更された姿勢を含む前記仮想人物の前記画像を表示させる表示制御手段と、
を備えることを特徴とする表示制御装置。 - 請求項1に記載の表示制御装置において、
前記記憶手段は、前記判断部位として、前記所定の部位の姿勢の変更を行うか否かの判断に用いられる前記対象者の身体の複数の部位を示す複数の前記判断部位を記憶し、さらに、前記条件として、前記対象者の姿勢における複数の前記判断部位の位置関係を示す関係条件を記憶するものであり、
前記判定手段は、前記取得手段により取得された前記検出結果に基づいて、複数の前記判断部位の位置関係が前記関係条件を満たすか否かを判定し、
前記変更手段は、複数の前記判断部位の位置関係が前記関係条件を満たすと前記判定手段により判定された場合に、前記対応部位に対応する前記仮想人物の前記所定の部位の姿勢を、満たされた前記関係条件に関連付けられている前記目標姿勢データが示す姿勢に変更することを特徴とする表示制御装置。 - 請求項1または請求項2に記載の表示制御装置において、
前記判断部位の位置が前記条件を満たすと前記判定手段により判定された場合に、前記変更手段は、前記仮想人物の前記所定の部位の姿勢を、前記取得手段により取得された前記検出結果の位置に基づく前記対象部位の姿勢に対応する前記所定の部位の姿勢から回転させることにより、満たされた前記条件に関連付けられている前記目標姿勢データが示す姿勢に変更することを特徴とする表示制御装置。 - 請求項1から請求項3のいずれか一項に記載の表示制御装置において、
前記判断部位の位置が前記条件を満たすと前記判定手段により判定された場合に、前記変更手段は、前記仮想人物の手首および手を前記所定の部位として、前記仮想人物の前記手首および前記手の姿勢を、満たされた前記条件に関連付けられている前記目標姿勢データが示す姿勢に変更することを特徴とする表示制御装置。 - 請求項1から請求項3のいずれか一項に記載の表示制御装置において、
前記判断部位の位置が前記条件を満たすと前記判定手段により判定された場合に、前記変更手段は、前記仮想人物の手首および肘を前記所定の部位として、前記仮想人物の肘の姿勢を前記肘に対応し且つ満たされた前記条件に関連付けられている前記目標姿勢データが示す姿勢に変更し、さらに、前記仮想人物の前記肘の姿勢が前記肘に対応する前記目的姿勢データが示す姿勢に変更された前記仮想人物の姿勢に対し、前記仮想人物における手首の姿勢を、前記手首に対応し且つ満たされた前記条件に関連付けられている前記目標姿勢データが示す姿勢に変更することを特徴とする表示制御装置。 - 請求項1から請求項5のいずれか一項に記載の表示制御装置において、
前記対象者はカラオケ曲を歌唱する者であり、
前記変更手段は、前記カラオケ曲の内容に基づいて前記対象者が歌唱すると判断された場合に、前記仮想人物の前記所定の部位として、手首および手の姿勢を、マイクを前記仮想人物の口元に向けて所持する前記目標姿勢データが示す姿勢にそれぞれ変更し、
前記表示制御手段は、前記カラオケ曲の内容に基づいて前記対象者が歌唱すると判断され、前記変更手段によりマイクを前記仮想人物の口元に向けて所持する前記目標姿勢データが示す姿勢へ前記仮想人物の前記手首および前記手の姿勢が変更されたとき、変更された前記姿勢の前記仮想人物の前記画像を表示させることを特徴とする表示制御装置。 - 請求項1から請求項5のいずれか一項に記載の表示制御装置において、
前記対象者はカラオケ曲を歌唱する者であり、
前記変更手段は、前記取得手段により取得された前記検出結果に基づいて前記対象者が歌唱すると判断された場合に、前記仮想人物の前記所定の部位として、手首および手の姿勢を、マイクを前記仮想人物の口元に向けて所持する前記目標姿勢データが示す姿勢にそれぞれ変更し、
前記表示制御手段は、前記取得手段により取得された前記検出結果に基づいて前記対象者が歌唱すると判断され、前記変更手段によりマイクを前記仮想人物の口元に向けて所持する前記目標姿勢データが示す姿勢へ前記仮想人物の前記手首および前記手の姿勢が変更されたとき、変更された前記姿勢の前記仮想人物の前記画像を表示させることを特徴とする表示制御装置。 - 三次元空間に存在する対象者の姿勢に対応した姿勢をする仮想人物を示す画像を表示させる表示制御装置であって、前記画像により示される前記仮想人物の所定の部位と対応する前記対象者の身体の部位を示す対応部位と、前記所定の部位の姿勢の変更を行うか否かの判断に用いられる前記対象者の身体の部位を示す少なくとも1つの判断部位と、前記対象者の姿勢における前記判断部位の位置を示す所定の条件と、前記対応部位と対応する前記仮想人物の前記所定の部位の適正姿勢として予め設定された姿勢を示す目標姿勢データと、を関連付けて記憶する記憶手段を備える表示制御装置に含まれるコンピュータに、
前記対象者の身体の部位の三次元空間での位置の検出結果を取得する取得ステップと、
前記取得ステップにおいて取得された前記検出結果に基づいて、前記判断部位の位置が前記条件を満たすか否かを判定する判定ステップと、
少なくとも1つの前記判断部位の位置が前記条件を満たすと前記判定ステップにおいて判定された場合に、前記対応部位に対応する前記仮想人物の前記所定の部位の姿勢を、満たされた前記条件に関連付けられている前記目標姿勢データが示す姿勢に変更する変更ステップと、
前記取得ステップにおいて取得された前記検出結果における前記位置に基づいて、前記変更ステップにおいて変更された姿勢を含む前記仮想人物の前記画像を表示させる表示制御ステップと、
を実行させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016071678A JP2017176673A (ja) | 2016-03-31 | 2016-03-31 | 表示制御装置およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016071678A JP2017176673A (ja) | 2016-03-31 | 2016-03-31 | 表示制御装置およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017176673A true JP2017176673A (ja) | 2017-10-05 |
Family
ID=60003142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016071678A Pending JP2017176673A (ja) | 2016-03-31 | 2016-03-31 | 表示制御装置およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017176673A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114422832A (zh) * | 2022-01-17 | 2022-04-29 | 上海哔哩哔哩科技有限公司 | 主播虚拟形象生成方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012528390A (ja) * | 2009-05-29 | 2012-11-12 | マイクロソフト コーポレーション | キャラクターにアニメーションまたはモーションを加えるシステムおよび方法 |
-
2016
- 2016-03-31 JP JP2016071678A patent/JP2017176673A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012528390A (ja) * | 2009-05-29 | 2012-11-12 | マイクロソフト コーポレーション | キャラクターにアニメーションまたはモーションを加えるシステムおよび方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114422832A (zh) * | 2022-01-17 | 2022-04-29 | 上海哔哩哔哩科技有限公司 | 主播虚拟形象生成方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20170221379A1 (en) | Information terminal, motion evaluating system, motion evaluating method, and recording medium | |
US8414393B2 (en) | Game device, control method for a game device, and a non-transitory information storage medium | |
US11083950B2 (en) | Information processing apparatus and information processing method | |
JP5256269B2 (ja) | データ生成装置、データ生成装置の制御方法、及びプログラム | |
JP2011189066A (ja) | ゲーム装置、ゲーム装置の制御方法、及びプログラム | |
JP2016205974A (ja) | 測定システムおよびユーザインタフェース装置 | |
JP2015186531A (ja) | 動作情報処理装置、及びプログラム | |
JP2010240185A (ja) | 動作学習支援装置 | |
JP2007072194A (ja) | 人型映像制御装置 | |
WO2016033717A1 (zh) | 一种组合式运动捕捉系统 | |
JP6431259B2 (ja) | カラオケ装置、ダンス採点方法、およびプログラム | |
JP2022153509A (ja) | 測定支援システム | |
JP2017176673A (ja) | 表示制御装置およびプログラム | |
JP6585866B1 (ja) | 位置データ処理装置およびプログラム | |
JP6398938B2 (ja) | 投影制御装置、及びプログラム | |
KR102095647B1 (ko) | 스마트기기를 이용한 동작 비교장치 및 동작 비교장치를 통한 댄스 비교방법 | |
KR102366102B1 (ko) | 3차원 캐릭터 기반 실감형 인터렉티브 운동 컨텐츠 제공 시스템 | |
TW201301080A (zh) | 具有動態圖像校正功能的電子裝置及方法 | |
JP5928279B2 (ja) | 運動支援装置及びプログラム | |
JP6354620B2 (ja) | 制御装置、プログラム、及び投影システム | |
KR20160125098A (ko) | 암벽 등반 교육을 위한 애니메이션 제작 방법 및 장치, 이를 수행하기 위한 기록매체 | |
KR20040084173A (ko) | 실시간 동작비교 방법 및 시스템 | |
US20240212306A1 (en) | Performance Recording System, Performance Recording Method, and Recording Medium | |
JP5909208B2 (ja) | プログラム、重心測定方法及び重心測定装置 | |
JP2021029738A (ja) | ショット管理システム、ショット管理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180807 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190219 |