JP2014044655A - 拡張現実システム、映像合成装置、映像合成方法及びプログラム - Google Patents
拡張現実システム、映像合成装置、映像合成方法及びプログラム Download PDFInfo
- Publication number
- JP2014044655A JP2014044655A JP2012187747A JP2012187747A JP2014044655A JP 2014044655 A JP2014044655 A JP 2014044655A JP 2012187747 A JP2012187747 A JP 2012187747A JP 2012187747 A JP2012187747 A JP 2012187747A JP 2014044655 A JP2014044655 A JP 2014044655A
- Authority
- JP
- Japan
- Prior art keywords
- video
- unit
- operation information
- terminal device
- composite
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000000203 mixture Substances 0.000 title claims abstract description 132
- 230000003190 augmentative effect Effects 0.000 title claims description 54
- 238000000034 method Methods 0.000 title claims description 27
- 239000002131 composite material Substances 0.000 claims abstract description 116
- 230000005540 biological transmission Effects 0.000 claims abstract description 37
- 238000003384 imaging method Methods 0.000 claims description 59
- 230000002194 synthesizing effect Effects 0.000 claims description 35
- 230000008859 change Effects 0.000 claims description 33
- 238000009877 rendering Methods 0.000 claims description 17
- 230000015572 biosynthetic process Effects 0.000 claims description 16
- 238000003786 synthesis reaction Methods 0.000 claims description 16
- 230000000694 effects Effects 0.000 description 29
- 239000003550 marker Substances 0.000 description 23
- 238000004364 calculation method Methods 0.000 description 22
- 230000033001 locomotion Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 15
- 230000009471 action Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 210000000988 bone and bone Anatomy 0.000 description 3
- 230000010365 information processing Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【解決手段】端末装置100は、映像受信部101が受信した合成映像を表示する映像表示部102と、合成映像に対する操作を示す操作情報の入力を受け付ける操作部104とを備える。映像合成装置300は、操作情報受信部301が受信した操作情報に基づいてオブジェクトの仮想空間における位置及び形状を決定するオブジェクト決定部305と、映像合成部308が生成した合成映像を、端末装置100に送信する映像送信部310とを備える。
【選択図】図2
Description
図1は、本発明の一実施形態による拡張現実システムの構成を示す概略図である。
拡張現実システムは、複数の端末装置100、撮像装置200、映像合成装置300を備える。映像合成装置300と端末装置100とはネットワークを介して接続されている。
端末装置100は、映像受信部101、映像表示部102、オブジェクト表示部103、操作部104、操作情報送信部105を備える。
映像受信部101は、映像合成装置300から合成映像を受信する。
映像表示部102は、映像受信部101が受信した合成映像をタッチパネルに表示する。
オブジェクト表示部103は、操作部104の操作に応じて、合成映像に含まれるオブジェクトを操作するための操作ペインをタッチパネルに表示する。
操作部104は、利用者からタッチパネルのタッチ入力による操作を受け付ける。
操作情報送信部105は、操作部104が受け付けた操作を示す操作情報を映像合成装置300に送信する。操作情報には、操作種別とオプション情報とが含まれる。操作種別とは、合成映像のオブジェクトに対する操作(例えば、オブジェクトの生成、移動、変形、削除など)の種別を示す情報である。オプション情報は、操作種別に応じて必要となる情報である。
端末装置100のタッチパネルには、映像受信部101が受信した合成映像と、操作種別を特定するための複数のボタンが表示される。操作部104は、利用者がタッチしたボタンに応じて、操作種別を決定する。操作部104は、利用者がボタンをタッチしたとき、またはボタンをタッチした後に所定のタッチ操作をしたときに、操作情報を生成する。
映像合成装置300は、操作情報受信部301、操作情報記憶部302、座標特定部303、計数部304、オブジェクト決定部305、仮想空間計算部306、映像取得部307、映像合成部308、解像度取得部309、映像送信部310、変更命令入力部311、操作情報変更部312を備える。
操作情報記憶部302は、操作種別と、操作に用いるオプション情報と、オブジェクトに対する操作の内容とを関連付けて記憶する。
操作情報記憶部302は、操作種別に関連付けて、オプション情報及び操作の内容を記憶する。
本実施形態では、操作種別「1」を示す操作情報には、オプション情報としてタッチ座標が含まれる。そして、当該操作情報を受信した場合、「タッチ座標に対応する位置に花火オブジェクトを表示させる」という操作を実行する。
また、操作種別「2」を示す操作情報には、オプション情報としてタッチ座標が含まれる。そして、当該操作情報を受信した場合、「タッチされたオブジェクトに関連付けられたアクションを実行する」という操作を実行する。
また、操作種別「3」を示す操作情報には、オプション情報としてタッチ座標が含まれる。そして、当該操作情報を受信した場合、「タッチされたマーカーにエフェクトオブジェクトを表示させる」という操作を実行する。なお、マーカーとは、被写体に取り付けてその三次元座標を特定するための目印となるものである。
また、操作種別「4」を示す操作情報には、オプション情報が含まれない。そして、当該操作情報を受信した場合、「操作情報の受信回数に応じて風船を膨らませる」という操作を実行する。
また、操作種別「6」を示す操作情報には、オプション情報としてジェスチャ情報が含まれる。そして、当該操作情報を受信した場合、「所定時間の間、ジェスチャ『○』とジェスチャ『×』を受け付け、数が多いものに関連付けられたオブジェクトを表示させる」という操作を実行する。
また、操作種別「7」を示す操作情報には、オプション情報が含まれない。そして、当該操作情報を受信した場合、「表示されているエフェクトオブジェクトを変更させる」という操作を実行する。
また、操作種別「8」を示す操作情報には、オプション情報として関節ID及び角度情報が含まれる。そして、当該操作情報を受信した場合、「対象となるオブジェクトの関節の角度を角度情報が示す角度に変形させる」という操作を実行する。
なお、図4の例では、操作の内容を文章で記載しているが、操作情報記憶部302は、実際にはオブジェクト決定部305に実行させるコマンドスクリプトなどを記憶する。
計数部304は、所定の操作種別を示す操作情報の受信回数を計数する。
仮想空間計算部306は、オブジェクト決定部305が決定した位置及び形状に基づいて仮想空間上のオブジェクトの制御を行う。
映像合成部308は、撮像装置200が撮像した映像と仮想空間計算部306が計算した仮想空間上のオブジェクトとを合成し、合成映像を生成する。
映像送信部310は、映像合成部308が合成した合成映像を解像度取得部309が取得した解像度の映像に変換し、当該合成映像を端末装置100に送信する。
操作情報変更部312は、操作情報記憶部302において、変更命令の操作種別に関連付けられた操作の内容を、変更命令の操作の内容に書き換える。
つまり、撮像装置200が撮像した映像の場面の切り替わりのタイミングで、管理者が映像合成装置300に変更命令を入力することで、利用者は、場面にマッチしたオブジェクトの操作を実行することができる。
図5は、本実施形態による拡張現実システムの動作を示すシーケンス図である。
まず、端末装置100が映像合成装置300にアクセスすると、映像合成装置300の解像度取得部309は、端末装置100からタッチパネルの解像度を取得する(ステップS1)。
以降、撮像装置200が撮像する映像が終了するまで、以下に示すステップS2〜S13の処理を実行する。
次に、操作部104は、利用者からのタッチ操作の入力があるか否かを判定する(ステップS7)。操作部104が、タッチ操作の入力が無いと判定した場合(ステップS7:NO)、端末装置100は、次の合成映像の受信を待機する。
図6は、拡張現実システムによる第1の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図6(A)に示すように利用者が「花火」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「花火」ボタンに関連付けられた操作種別(ここでは操作種別「1」)の操作であると特定する。図4に示すとおり、操作種別「1」のオプション情報にはタッチ座標が含まれるため、操作部104は、次に花火オブジェクトを表示させる座標の入力を受け付ける。
これにより、映像合成装置300は、図6(C)に示すように、タッチされた座標に花火オブジェクトを配置した合成映像を生成する。
図7は、映像合成装置300による第1の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「1」の操作の内容を読み出すと、座標特定部303は、操作情報受信部301が受信した操作情報に含まれるタッチ座標と解像度取得部309が取得した解像度とに基づいて、タッチされた座標の相対位置を特定する(ステップS101)。具体的には、タッチ座標のX座標及びY座標をそれぞれX方向の解像度とY方向の解像度で除算することで算出する。
図8は、拡張現実システムによる第2の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図8(A)に示すように利用者が「アクション」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「アクション」ボタンに関連付けられた操作種別(ここでは操作種別「2」)の操作であると特定する。図4に示すとおり、操作種別「2」のオプション情報にはタッチ座標が含まれるため、操作部104は、次にアクションを実行させるオブジェクトが存在する座標の入力を受け付ける。
これにより、映像合成装置300は、図8(C)に示すように、タッチされた座標に存在するオブジェクトにアクションを実行させた合成映像を生成する。
図9は、映像合成装置300による第2の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「2」の操作の内容を読み出すと、座標特定部303は、操作情報受信部301が受信した操作情報に含まれるタッチ座標と解像度取得部309が取得した解像度とに基づいて、タッチされた座標の相対位置を特定する(ステップS201)。
図10は、拡張現実システムによる第3の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図10(A)に示すように利用者が「エフェクト表示」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「エフェクト表示」ボタンに関連付けられた操作種別(ここでは操作種別「3」)の操作であると特定する。図4に示すとおり、操作種別「3」のオプション情報にはタッチ座標が含まれるため、操作部104は、次にエフェクトを表示させるマーカーが存在する座標の入力を受け付ける。なお、マーカーとは、被写体に取り付けてその三次元座標を特定するための目印となるものである。
これにより、映像合成装置300は、図10(C)に示すように、タッチされた座標の周辺に存在するマーカーの位置に所定のエフェクトオブジェクトを配置した合成映像を生成する。
図11は、映像合成装置300による第3の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「3」の操作の内容を読み出すと、座標特定部303は、操作情報受信部301が受信した操作情報に含まれるタッチ座標と解像度取得部309が取得した解像度とに基づいて、タッチされた座標の相対位置を特定する(ステップS301)。
図12は、拡張現実システムによる第4の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図12(A)に示すように利用者が「風船」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「風船」ボタンに関連付けられた操作種別(ここでは操作種別「4」)の操作であると特定し、操作種別を「4」とする操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
図13は、映像合成装置300による第4の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「4」の操作の内容を読み出すと、まずオブジェクト決定部305は、仮想空間計算部306が計算する仮想空間に風船オブジェクトが存在するか否かを判定する(ステップS401)。オブジェクト決定部305は、仮想空間に風船オブジェクトが存在しないと判定した場合(ステップS401:NO)、処理を終了する。
他方、オブジェクト決定部305は、受信回数が第2の閾値を達したと判定した場合(ステップS404:YES)、風船オブジェクトの位置及び形状を、風船オブジェクトが破裂したときの状態として予め定められた位置及び形状に決定する(ステップS406)。
このように、計数部304が計数した値に基づいてオブジェクトの位置及び形状を決定することで、映像合成装置300と通信を行う端末装置100の数が多い場合にも、合成映像に表示させるオブジェクトが煩雑にならないようにすることができる。
図14は、拡張現実システムによる第5の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図14(B)に示すように利用者が「応援」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「応援」ボタンに関連付けられた操作種別(ここでは操作種別「5」)の操作であると特定し、操作種別を「5」とする操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
映像合成装置300の映像合成部308は、図14(A)に示すように「READY…」の文字を表示し、その所定時間後に、図14(B)に示すように「CHEER!」の文字を表示する合成映像を生成する。そして、映像合成装置300は、合成映像に「CHEER!」の文字が表示されるタイミングで「応援」ボタンがタッチされた数が所定の閾値(例えば、100回)に達する場合に、図12(C)に示すように所定のエフェクトオブジェクトを配置した合成映像を生成するというものである。
図15は、映像合成装置300による第5の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「5」の操作の内容を読み出すと、計数部304は、現在時刻が、映像合成部308が「CHEER!」の文字を含む合成映像を生成してから所定の制限時間(例えば、1秒)内の時刻であるか否かを判定する(ステップS501)。計数部304が、現在時刻が所定の制限時間内の時刻でないと判定した場合(ステップS501:NO)、処理を終了する。
図16は、拡張現実システムによる第6の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図16(A)に示すように利用者が「○×」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「○×」ボタンに関連付けられた操作種別(ここでは操作種別「6」)の操作であると特定する。図4に示すとおり、操作種別「6」のオプション情報にはジェスチャ情報が含まれるため、操作部104は、次にタッチ操作によるジェスチャの入力を受け付ける。
これにより、映像合成装置300は、図16(C)に示すように、ジェスチャ情報が示す入力の多数決の結果を示すオブジェクトを含む合成映像を生成する。
図17は、映像合成装置300による第6の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「6」の操作の内容を読み出すと、計数部304は、受信した操作情報のジェスチャ情報を読み出し、該当するジェスチャ情報(○または×)の受付数に1を加算する(ステップS601)。
次に、計数部304は、現在時刻が操作種別「6」の操作情報の受け付けの締め切り時刻に達したか否かを判定する(ステップS602)。計数部304は、現在時刻が操作種別「6」の操作情報の受け付けの締め切り時刻に達していないと判定した場合(ステップS602:NO)、処理を終了する。
図18は、拡張現実システムによる第7の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図18(A)に示すように利用者が「エフェクト変更」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「エフェクト変更」ボタンに関連付けられた操作種別(ここでは操作種別「7」)の操作であると特定し、操作種別を「7」とする操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
これにより、映像合成装置300は、図18(B)に示すように、エフェクトオブジェクトを変更した合成映像を生成する。
図19は、映像合成装置300による第7の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「7」の操作の内容を読み出すと、まずオブジェクト決定部305は、仮想空間計算部306が計算する仮想空間にエフェクトオブジェクトが存在するか否かを判定する(ステップS701)。オブジェクト決定部305は、仮想空間にエフェクトオブジェクトが存在しないと判定した場合(ステップS701:NO)、処理を終了する。
図20は、拡張現実システムによる第8の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図20(A)に示すように利用者が「キャラクタ操作」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「キャラクタ操作」ボタンに関連付けられた操作種別(ここでは操作種別「8」)の操作であると特定する。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「8」の操作の内容を読み出すと、オブジェクト決定部305は、対応するキャラクタオブジェクトの関節のうち、操作情報に含まれる関節IDが示すものを、操作情報に含まれる角度情報が示す角度だけ回転させる。つまり、オブジェクト決定部305は、利用者によるドラッグ操作においてドラッグされたオブジェクトの一部の位置及び形状を、ドラッグ後の位置及び形状に変更する。そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、利用者の操作と同期してオブジェクトの位置及び形状を変化させた合成映像を生成する。
例えば、合成映像の操作は上述した8つの制御例に限られず、その他の制御を行っても良い。
また、本発明において前記オブジェクト決定部は、前記計数部が計数した受信回数が第1の閾値以上となった場合に、当該操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を第1の位置及び形状に変更し、前記計数部が計数した受信回数が第2の閾値以上となった場合に、当該操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を第2の位置及び形状に変更することを特徴とする。
また、本発明において前記計数部は、複数の種類の操作情報の受信回数を計数し、前記オブジェクト決定部は、前記制限時間が経過したときに、前記計数部が計数した受信回数が最も多い操作情報に関連付けられたオブジェクトを生成し、当該オブジェクトを所定の位置に配置することを特徴とする。
また、本発明において前記座標特定部は、前記撮像装置が撮像した映像における前記操作情報が示す二次元座標の周辺の所定の範囲内にマーカーが存在する場合、当該マーカーが存在する三次元座標を特定し、前記オブジェクト決定部は、前記座標特定部が特定した三次元座標が示す位置にオブジェクトを配置することを特徴とする。
前記操作部は、前記操作情報として、前記オブジェクト表示部が表示する前記操作ペイン内のオブジェクトの部位をドラッグする操作を受け付け、前記オブジェクト決定部は、前記操作においてタッチされた部位の基準となる関節を特定し、前記操作情報が示すドラッグ操作の移動量に対応する前記関節の回転角に基づいて前記ドラッグ操作においてドラッグされたオブジェクトの一部の位置及び形状を、ドラッグ後の位置及び形状に変更することを特徴とする。
Claims (18)
- 撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置と、前記合成映像を表示する1または複数の端末装置とを備える拡張現実システムであって、
前記端末装置は、
前記映像合成装置から合成映像を受信する映像受信部と、
前記映像受信部が受信した合成映像を表示する映像表示部と、
前記映像表示部に表示された合成映像に対する操作を示す操作情報の入力を受け付ける操作部と、
前記操作部が受け付けた操作情報を前記映像合成装置に送信する操作情報送信部と
を備え、
前記映像合成装置は、
前記端末装置から前記操作情報を受信する操作情報受信部と、
前記操作情報受信部が受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を決定するオブジェクト決定部と、
前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部と、
前記映像合成部が生成した合成映像を、前記端末装置に送信する映像送信部と
を備えることを特徴とする拡張現実システム。 - 前記映像合成装置は、前記操作情報受信部が受信した操作情報のうち、同一の操作を示す操作情報の受信回数を計数する計数部を備え、
前記オブジェクト決定部は、前記計数部が計数した受信回数が所定の閾値以上となった場合に、当該操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を決定する
ことを特徴とする請求項1に記載の拡張現実システム。 - 前記計数部は、所定の制限時間内に前記操作情報受信部が受信した同一の操作を示す操作情報の受信回数を計数する
ことを特徴とする請求項2に記載の拡張現実システム。 - 前記操作部は、前記操作情報として所定の操作を実行させる前記映像表示部が表示する合成映像上の二次元座標の指定を受け付け、
前記映像合成装置は、前記操作情報が示す二次元座標に対応する前記仮想空間上の三次元座標を特定する座標特定部を備え、
前記オブジェクト決定部は、前記座標特定部が特定した三次元座標が示す位置における前記オブジェクトの位置及び形状を決定する
ことを特徴とする請求項1から請求項3の何れか1項に記載の拡張現実システム。 - 前記座標特定部は、前記操作情報が示す二次元座標を前記仮想空間に投影した直線上に前記オブジェクトが存在する場合、当該オブジェクトが存在する三次元座標を特定し、
前記オブジェクト決定部は、前記座標特定部が特定した三次元座標が示す位置に存在する前記オブジェクトの位置及び形状を決定する
ことを特徴とする請求項4に記載の拡張現実システム。 - 前記座標特定部は、前記操作情報が示す二次元座標と当該操作情報の送信元の端末装置のディスプレイ解像度とに基づいて、前記操作情報が示す二次元座標に対応する前記仮想空間上の三次元座標を特定する
ことを特徴とする請求項4または請求項5に記載の拡張現実システム。 - 前記映像合成装置は、
前記操作情報に関連付けて当該操作情報が示す操作の内容を記憶する操作情報記憶部と、
前記操作情報の内容の変更を示す操作内容変更命令の入力を受け付ける変更命令入力部と、
前記操作情報記憶部が記憶する操作の内容を前記変更命令入力部が入力した内容に変更する操作情報変更部と
を備え、
前記オブジェクト決定部は、前記操作情報受信部が受信した操作情報に関連付けられた操作の内容を前記操作情報記憶部から取得し、当該操作の内容に基づいて前記オブジェクトの仮想空間における位置及び形状を決定する
ことを特徴とする請求項1から請求項6の何れか1項に記載の拡張現実システム。 - 前記映像合成装置は、前記端末装置から当該端末装置のディスプレイ解像度を取得する解像度取得部を備え、
前記映像送信部は、前記映像合成部が生成した合成映像を、前記解像度取得部が取得した解像度に変換して前記端末装置に送信する
ことを特徴とする請求項1から請求項7の何れか1項に記載の拡張現実システム。 - 映像合成部は、前記撮像装置の撮像対象の三次元位置情報を検出する三次元位置センサから、前記撮像対象の位置情報を取得し、当該位置情報に基づいて前記仮想空間に配置されたオブジェクトを前記映像に合成する
ことを特徴とする請求項1から請求項8の何れか1項に記載の拡張現実システム。 - 前記端末装置は、前記映像受信部が受信した合成映像に含まれるオブジェクトを表示するオブジェクト表示部を備え、
前記操作部は、前記操作情報として、前記オブジェクト表示部が表示するオブジェクトの一部をドラッグする操作を受け付け、
前記オブジェクト決定部は、前記操作情報が示すドラッグ操作においてドラッグされたオブジェクトの一部の位置及び形状を、ドラッグ後の位置及び形状に変更する
ことを特徴とする請求項1から請求項9の何れか1項に記載の拡張現実システム。 - 前記オブジェクト表示部は、利用者の操作に従って前記オブジェクトを描画するレンダリングカメラのパラメータを変更することを特徴とする請求項10に記載の拡張現実システム。
- 前記操作部は、タッチパネル上のタッチ操作の入力を受け付け、当該タッチ操作の軌跡に対応する操作情報を特定する
ことを特徴とする請求項1から請求項11の何れか1項に記載の拡張現実システム。 - 撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置から合成映像を受信する映像受信部と、
前記映像受信部が受信した合成映像を表示する映像表示部と、
前記映像表示部に表示された合成映像に対する操作を示す操作情報の入力を受け付ける操作部と、
前記操作部が受け付けた操作情報を前記映像合成装置に送信する操作情報送信部と
を備えることを特徴とする端末装置。 - 端末装置が、撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置から合成映像を受信し、
前記端末装置が、受信した合成映像を表示し、
前記端末装置が、前記表示した合成映像に対する操作を示す操作情報の入力を受け付け、
前記端末装置が、前記受け付けた操作情報を前記映像合成装置に送信する
ことを特徴とする拡張現実制御方法。 - コンピュータを、
撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置から合成映像を受信する映像受信部、
前記映像受信部が受信した合成映像を表示する映像表示部、
前記映像表示部に表示された合成映像に対する操作を示す操作情報の入力を受け付ける操作部、
前記操作部が受け付けた操作情報を前記映像合成装置に送信する操作情報送信部
として機能させるためのプログラム。 - 撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置であって、
端末装置から前記合成映像に対する操作を示す操作情報を受信する操作情報受信部と、
前記操作情報受信部が受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を決定するオブジェクト決定部と、
前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部と、
前記映像合成部が生成した合成映像を、前記端末装置に送信する映像送信部と
を備えることを特徴とする映像合成装置。 - 撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置が、端末装置から前記合成映像に対する操作を示す操作情報を受信し、
前記映像合成装置が、前記受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を決定し、
前記映像合成装置が、前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成し、
前記映像合成装置が、前記生成した合成映像を前記端末装置に送信する
ことを特徴とする映像合成方法。 - コンピュータを、
端末装置から、撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像に対する操作を示す操作情報を受信する操作情報受信部、
前記操作情報受信部が受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を決定するオブジェクト決定部、
前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部、
前記映像合成部が生成した合成映像を、前記端末装置に送信する映像送信部
として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012187747A JP5568610B2 (ja) | 2012-08-28 | 2012-08-28 | 拡張現実システム、映像合成装置、映像合成方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012187747A JP5568610B2 (ja) | 2012-08-28 | 2012-08-28 | 拡張現実システム、映像合成装置、映像合成方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014044655A true JP2014044655A (ja) | 2014-03-13 |
JP5568610B2 JP5568610B2 (ja) | 2014-08-06 |
Family
ID=50395857
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012187747A Active JP5568610B2 (ja) | 2012-08-28 | 2012-08-28 | 拡張現実システム、映像合成装置、映像合成方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5568610B2 (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015186402A1 (ja) * | 2014-06-06 | 2015-12-10 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理方法及び画像処理プログラム |
JP2015230685A (ja) * | 2014-06-06 | 2015-12-21 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理システム、端末装置、画像処理方法及び画像処理プログラム |
JP6275310B1 (ja) * | 2017-05-26 | 2018-02-07 | 株式会社テクテック | 拡張現実表示システム、プログラム及び方法 |
JP2019154045A (ja) * | 2014-10-22 | 2019-09-12 | 華為技術有限公司Huawei Technologies Co.,Ltd. | インタラクティブな動画生成 |
JP2019207509A (ja) * | 2018-05-28 | 2019-12-05 | 株式会社 ディー・エヌ・エー | 動画を作成するためのシステム、方法、及びプログラム |
WO2020027226A1 (ja) * | 2018-07-31 | 2020-02-06 | 株式会社ニコン | 表示制御システム、表示制御方法、及び、表示制御プログラム |
JP2021007042A (ja) * | 2015-11-04 | 2021-01-21 | ソニー株式会社 | 情報処理装置およびプログラム |
WO2023017627A1 (ja) * | 2021-08-10 | 2023-02-16 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2023526110A (ja) * | 2020-05-21 | 2023-06-20 | 北京字節跳動網絡技術有限公司 | ビデオ特殊効果配置方法、ビデオ特殊効果装置、デバイス、及び記憶媒体 |
JP7513262B2 (ja) | 2020-07-16 | 2024-07-09 | Popopo株式会社 | 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム |
JP7535621B2 (ja) | 2019-03-29 | 2024-08-16 | 株式会社バンダイナムコエンターテインメント | サーバシステム、動画配信システムおよびコンピュータシステム |
US12133013B2 (en) | 2020-05-21 | 2024-10-29 | Beijing Bytedance Network Technology Co., Ltd. | Video special effect configuration method, device, equipment and storage medium |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11494986B2 (en) | 2017-04-20 | 2022-11-08 | Samsung Electronics Co., Ltd. | System and method for two dimensional application usage in three dimensional virtual reality environment |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0819664A (ja) * | 1994-07-05 | 1996-01-23 | Namco Ltd | マルチプレーヤ式ゲーム装置 |
JP2005049996A (ja) * | 2003-07-30 | 2005-02-24 | Canon Inc | 画像表示方法及び装置 |
JP2006252185A (ja) * | 2005-03-10 | 2006-09-21 | Nintendo Co Ltd | ゲームプログラムおよびゲーム装置 |
JP2006270690A (ja) * | 2005-03-25 | 2006-10-05 | Funai Electric Co Ltd | データ伝送システム |
JP2012048597A (ja) * | 2010-08-30 | 2012-03-08 | Univ Of Tokyo | 複合現実感表示システム、画像提供画像提供サーバ、表示装置及び表示プログラム |
-
2012
- 2012-08-28 JP JP2012187747A patent/JP5568610B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0819664A (ja) * | 1994-07-05 | 1996-01-23 | Namco Ltd | マルチプレーヤ式ゲーム装置 |
JP2005049996A (ja) * | 2003-07-30 | 2005-02-24 | Canon Inc | 画像表示方法及び装置 |
JP2006252185A (ja) * | 2005-03-10 | 2006-09-21 | Nintendo Co Ltd | ゲームプログラムおよびゲーム装置 |
JP2006270690A (ja) * | 2005-03-25 | 2006-10-05 | Funai Electric Co Ltd | データ伝送システム |
JP2012048597A (ja) * | 2010-08-30 | 2012-03-08 | Univ Of Tokyo | 複合現実感表示システム、画像提供画像提供サーバ、表示装置及び表示プログラム |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015230685A (ja) * | 2014-06-06 | 2015-12-21 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理システム、端末装置、画像処理方法及び画像処理プログラム |
WO2015186402A1 (ja) * | 2014-06-06 | 2015-12-10 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理方法及び画像処理プログラム |
JP2019154045A (ja) * | 2014-10-22 | 2019-09-12 | 華為技術有限公司Huawei Technologies Co.,Ltd. | インタラクティブな動画生成 |
CN112449253A (zh) * | 2014-10-22 | 2021-03-05 | 华为技术有限公司 | 交互式视频生成 |
JP7095722B2 (ja) | 2015-11-04 | 2022-07-05 | ソニーグループ株式会社 | 情報処理装置およびプログラム |
US11237717B2 (en) | 2015-11-04 | 2022-02-01 | Sony Corporation | Information processing device and information processing method |
JP2021007042A (ja) * | 2015-11-04 | 2021-01-21 | ソニー株式会社 | 情報処理装置およびプログラム |
JP2018200519A (ja) * | 2017-05-26 | 2018-12-20 | 株式会社テクテック | 拡張現実表示システム、プログラム及び方法 |
JP6275310B1 (ja) * | 2017-05-26 | 2018-02-07 | 株式会社テクテック | 拡張現実表示システム、プログラム及び方法 |
JP7373599B2 (ja) | 2018-05-28 | 2023-11-02 | 株式会社 ディー・エヌ・エー | 動画を作成するためのシステム、方法、及びプログラム |
JP2019207509A (ja) * | 2018-05-28 | 2019-12-05 | 株式会社 ディー・エヌ・エー | 動画を作成するためのシステム、方法、及びプログラム |
JP2022095625A (ja) * | 2018-05-28 | 2022-06-28 | 株式会社 ディー・エヌ・エー | 動画を作成するためのシステム、方法、及びプログラム |
JP7038602B2 (ja) | 2018-05-28 | 2022-03-18 | 株式会社 ディー・エヌ・エー | 動画を作成するためのシステム、方法、及びプログラム |
CN112513782A (zh) * | 2018-07-31 | 2021-03-16 | 株式会社尼康 | 显示控制系统、显示控制方法、以及显示控制程序 |
JP2020021225A (ja) * | 2018-07-31 | 2020-02-06 | 株式会社ニコン | 表示制御システム、表示制御方法、及び、表示制御プログラム |
WO2020027226A1 (ja) * | 2018-07-31 | 2020-02-06 | 株式会社ニコン | 表示制御システム、表示制御方法、及び、表示制御プログラム |
JP7535621B2 (ja) | 2019-03-29 | 2024-08-16 | 株式会社バンダイナムコエンターテインメント | サーバシステム、動画配信システムおよびコンピュータシステム |
JP2023526110A (ja) * | 2020-05-21 | 2023-06-20 | 北京字節跳動網絡技術有限公司 | ビデオ特殊効果配置方法、ビデオ特殊効果装置、デバイス、及び記憶媒体 |
JP7516561B2 (ja) | 2020-05-21 | 2024-07-16 | 北京字節跳動網絡技術有限公司 | ビデオ特殊効果配置方法、ビデオ特殊効果装置、デバイス、及び記憶媒体 |
US12133013B2 (en) | 2020-05-21 | 2024-10-29 | Beijing Bytedance Network Technology Co., Ltd. | Video special effect configuration method, device, equipment and storage medium |
JP7513262B2 (ja) | 2020-07-16 | 2024-07-09 | Popopo株式会社 | 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム |
WO2023017627A1 (ja) * | 2021-08-10 | 2023-02-16 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP5568610B2 (ja) | 2014-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5568610B2 (ja) | 拡張現実システム、映像合成装置、映像合成方法及びプログラム | |
JP6288084B2 (ja) | 表示制御装置、表示制御方法および記録媒体 | |
WO2014188798A1 (ja) | 表示制御装置、表示制御方法および記録媒体 | |
US9268410B2 (en) | Image processing device, image processing method, and program | |
JP6348741B2 (ja) | 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法 | |
TW201346640A (zh) | 影像處理裝置及電腦程式產品 | |
US20150070247A1 (en) | Information processing apparatus, information processing method, and program | |
JPWO2005119591A1 (ja) | 表示制御方法および装置、プログラム、並びに携帯機器 | |
GB2507510A (en) | Server-supported augmented reality with differential image region compression | |
CN111459432B (zh) | 虚拟内容的显示方法、装置、电子设备及存储介质 | |
US11107184B2 (en) | Virtual object translation | |
JP2014021570A (ja) | 動画像生成装置 | |
EP3819752A1 (en) | Personalized scene image processing method and apparatus, and storage medium | |
JP2013164697A (ja) | 画像処理装置、画像処理方法、プログラム及び画像処理システム | |
JP2017033294A (ja) | 3次元描画システム及び3次元描画プログラム | |
CN108881742B (zh) | 一种视频生成方法及终端设备 | |
JP6473048B2 (ja) | 移動装置操作端末、移動装置操作方法及び移動装置操作プログラム | |
KR102278229B1 (ko) | 전자기기 및 그 제어 방법 | |
WO2016102948A1 (en) | Coherent touchless interaction with stereoscopic 3d images | |
JP2016115230A (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
KR101434728B1 (ko) | 영상 통화 시스템에서의 영상 통화 중 드로잉 협업 방법 | |
JP5326816B2 (ja) | 遠隔会議システム、情報処理装置、及びプログラム | |
CN104580967A (zh) | 一种基于便携式投影仪的地图投影方法和用于投影的装置 | |
JP6357412B2 (ja) | 情報処理装置、情報処理システム、情報処理方法、及びプログラム | |
JP7299478B2 (ja) | オブジェクト姿勢制御プログラムおよび情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140318 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140507 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20140520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140610 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140623 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5568610 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |