JP2014044655A - 拡張現実システム、映像合成装置、映像合成方法及びプログラム - Google Patents

拡張現実システム、映像合成装置、映像合成方法及びプログラム Download PDF

Info

Publication number
JP2014044655A
JP2014044655A JP2012187747A JP2012187747A JP2014044655A JP 2014044655 A JP2014044655 A JP 2014044655A JP 2012187747 A JP2012187747 A JP 2012187747A JP 2012187747 A JP2012187747 A JP 2012187747A JP 2014044655 A JP2014044655 A JP 2014044655A
Authority
JP
Japan
Prior art keywords
video
unit
operation information
terminal device
composite
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012187747A
Other languages
English (en)
Other versions
JP5568610B2 (ja
Inventor
Kazunori Yamaji
和紀 山路
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Premium Agency Inc
Original Assignee
Premium Agency Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Premium Agency Inc filed Critical Premium Agency Inc
Priority to JP2012187747A priority Critical patent/JP5568610B2/ja
Publication of JP2014044655A publication Critical patent/JP2014044655A/ja
Application granted granted Critical
Publication of JP5568610B2 publication Critical patent/JP5568610B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】合成映像の閲覧者に、当該合成映像に含まれるオブジェクトを制御させる。
【解決手段】端末装置100は、映像受信部101が受信した合成映像を表示する映像表示部102と、合成映像に対する操作を示す操作情報の入力を受け付ける操作部104とを備える。映像合成装置300は、操作情報受信部301が受信した操作情報に基づいてオブジェクトの仮想空間における位置及び形状を決定するオブジェクト決定部305と、映像合成部308が生成した合成映像を、端末装置100に送信する映像送信部310とを備える。
【選択図】図2

Description

映像とコンピュータグラフィックスのオブジェクトとの合成映像を提供する拡張現実システム、当該拡張現実システムが備える端末装置及び映像合成装置、並びに当該拡張現実システムによる拡張現実制御方法、映像合成方法及びそのプログラムに関する。
近年、撮像装置が撮像した実空間の映像と、コンピュータグラフィックスによって表現される仮想空間のオブジェクトとを合成する「拡張現実(AR:Augmented Reality)」という技術が研究されている(例えば、非特許文献1を参照)。
具体的には、映像合成装置が、撮像装置が撮像した映像と仮想空間のオブジェクトをレンダリングした画像とを合成することで拡張現実を実現した合成映像を生成することで実現する。このとき、映像合成装置は、撮像装置に取り付けられたロータリエンコーダなどの姿勢センサから取得した情報に基づいて仮想空間におけるカメラ情報を変更することで、撮像装置の動きにオブジェクトを追従させた合成映像を生成することができる。また、撮像装置が所定のマーカーを含む映像を撮像し、映像合成装置が当該映像からマーカーの位置を特定することで、マーカーが存在する場所に所定のオブジェクトを表示させることができる。なお、マーカーとは、被写体に取り付けてその三次元座標を特定するための目印となるものである。
このような拡張現実システムにおけるオブジェクトの動作の制御方法としては、オブジェクトの動作を予め決めておく方法、映像に含まれるマーカーにオブジェクトを追従させる方法、モーションキャプチャにより得られる動作をオブジェクトに適用する方法などが挙げられる。
小島 一成、外4名、リアルタイム伝送技術を用いたキャラクター表示システムの構築、「情報処理学会研究報告.グラフィクスとCAD研究会報告」、一般社団法人情報処理学会、2011年6月20日
近年、拡張現実システムをインタラクティブに制御したいという要望がある。つまり、合成映像の閲覧者に、当該合成映像に含まれるオブジェクトを制御させたいという要望がある。しかしながら、上述したオブジェクトの動作の制御方法は、閲覧者からの入力を受け付けるものではなく、インタラクティブな制御を行うことができないという問題がある。また、合成映像の閲覧者にモーションキャプチャを適用することも考えられるが、システムが大掛かりとなってしまうという問題がある。
本発明は上記の課題を解決するためになされたものであり、撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置と、前記合成映像を表示する1または複数の端末装置とを備える拡張現実システムであって、前記端末装置は、前記映像合成装置から合成映像を受信する映像受信部と、前記映像受信部が受信した合成映像を表示する映像表示部と、前記映像表示部に表示された合成映像に対する操作を示す操作情報の入力を受け付ける操作部と、前記操作部が受け付けた操作情報を前記映像合成装置に送信する操作情報送信部とを備え、前記映像合成装置は、前記端末装置から前記操作情報を受信する操作情報受信部と、前記操作情報受信部が受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を決定するオブジェクト決定部と、前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部と、前記映像合成部が生成した合成映像を、前記端末装置に送信する映像送信部とを備えることを特徴とする。
また、本発明において前記映像合成装置は、前記操作情報受信部が受信した操作情報のうち、同一の操作を示す操作情報の受信回数を計数する計数部を備え、前記オブジェクト決定部は、前記計数部が計数した受信回数が所定の閾値以上となった場合に、当該操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を決定することを特徴とする。
また、本発明において前記計数部は、所定の制限時間内に前記操作情報受信部が受信した同一の操作を示す操作情報の受信回数を計数することを特徴とする。
また、本発明において前記操作部は、前記操作情報として所定の操作を実行させる前記映像表示部が表示する合成映像上の二次元座標の指定を受け付け、前記映像合成装置は、前記操作情報が示す二次元座標に対応する前記仮想空間上の三次元座標を特定する座標特定部を備え、前記オブジェクト決定部は、前記座標特定部が特定した三次元座標が示す位置における前記オブジェクトの位置及び形状を決定することを特徴とする。
また、本発明において前記座標特定部は、前記操作情報が示す二次元座標を前記仮想空間に投影した直線上に前記オブジェクトが存在する場合、当該オブジェクトが存在する三次元座標を特定し、前記オブジェクト決定部は、前記座標特定部が特定した三次元座標が示す位置に存在する前記オブジェクトの位置及び形状を決定することを特徴とする。
また、本発明において前記座標特定部は、前記操作情報が示す二次元座標と当該操作情報の送信元の端末装置のディスプレイ解像度とに基づいて、前記操作情報が示す二次元座標に対応する前記仮想空間上の三次元座標を特定することを特徴とする。
また、本発明において前記映像合成装置は、前記操作情報に関連付けて当該操作情報が示す操作の内容を記憶する操作情報記憶部と、前記操作情報の内容の変更を示す操作内容変更命令の入力を受け付ける変更命令入力部と、前記操作情報記憶部が記憶する操作の内容を前記変更命令入力部が入力した内容に変更する操作情報変更部とを備え、前記オブジェクト決定部は、前記操作情報受信部が受信した操作情報に関連付けられた操作の内容を前記操作情報記憶部から取得し、当該操作の内容に基づいて前記オブジェクトの仮想空間における位置及び形状を決定することを特徴とする。
また、本発明において前記映像合成装置は、前記端末装置から当該端末装置のディスプレイ解像度を取得する解像度取得部を備え、前記映像送信部は、前記映像合成部が生成した合成映像を、前記解像度取得部が取得した解像度に変換して前記端末装置に送信することを特徴とする。
また、本発明において映像合成部は、前記撮像装置の撮像対象の三次元位置情報を検出する三次元位置センサから、前記撮像対象の位置情報を取得し、当該位置情報に基づいて前記仮想空間に配置されたオブジェクトを前記映像に合成することを特徴とする。
また、本発明において前記端末装置は、前記映像受信部が受信した合成映像に含まれるオブジェクトを表示するオブジェクト表示部を備え、前記操作部は、前記操作情報として、前記オブジェクト表示部が表示するオブジェクトの一部をドラッグする操作を受け付け、前記オブジェクト決定部は、前記操作情報が示すドラッグ操作においてドラッグされたオブジェクトの一部の位置及び形状を、ドラッグ後の位置及び形状に変更することを特徴とする。
また、本発明において前記オブジェクト表示部は、利用者の操作に従って前記オブジェクトを描画するレンダリングカメラのパラメータを変更することを特徴とする。
また、本発明において前記操作部は、タッチパネル上のタッチ操作の入力を受け付け、当該タッチ操作の軌跡に対応する操作情報を特定することを特徴とする。
また、本発明は、撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置から合成映像を受信する映像受信部と、前記映像受信部が受信した合成映像を表示する映像表示部と、前記映像表示部に表示された合成映像に対する操作を示す操作情報の入力を受け付ける操作部と、前記操作部が受け付けた操作情報を前記映像合成装置に送信する操作情報送信部とを備えることを特徴とする端末装置である。
また、本発明は、端末装置が、撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置から合成映像を受信し、前記端末装置が、受信した合成映像を表示し、前記端末装置が、前記表示した合成映像に対する操作を示す操作情報の入力を受け付け、前記端末装置が、前記受け付けた操作情報を前記映像合成装置に送信することを特徴とする拡張現実制御方法である。
また、本発明は、コンピュータを、撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置から合成映像を受信する映像受信部、前記映像受信部が受信した合成映像を表示する映像表示部、前記映像表示部に表示された合成映像に対する操作を示す操作情報の入力を受け付ける操作部、前記操作部が受け付けた操作情報を前記映像合成装置に送信する操作情報送信部として機能させるためのプログラムである。
また、本発明は、撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置であって、端末装置から前記合成映像に対する操作を示す操作情報を受信する操作情報受信部と、前記操作情報受信部が受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を決定するオブジェクト決定部と、前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部と、前記映像合成部が生成した合成映像を、前記端末装置に送信する映像送信部とを備えることを特徴とする。
また、本発明は、撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置が、端末装置から前記合成映像に対する操作を示す操作情報を受信し、前記映像合成装置が、前記受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を決定し、前記映像合成装置が、前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成し、前記映像合成装置が、前記生成した合成映像を前記端末装置に送信することを特徴とする映像合成方法である。
また、本発明は、コンピュータを、端末装置から、撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像に対する操作を示す操作情報を受信する操作情報受信部、前記操作情報受信部が受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を決定するオブジェクト決定部、前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部、前記映像合成部が生成した合成映像を、前記端末装置に送信する映像送信部として機能させるためのプログラムである。
本発明によれば、端末装置に合成映像を表示させ、映像合成装置が当該端末装置からの操作を受け付けることで、オブジェクトの制御を行う。これにより、合成映像の閲覧者に、当該合成映像に含まれるオブジェクトを制御させることができる。
本発明の一実施形態による拡張現実システムの構成を示す概略図である。 端末装置及び映像合成装置のソフトウェア構成を示す概略ブロック図である。 端末装置のユーザインタフェースの例を示す図である。 操作情報記憶部が記憶する情報の例を示す図である。 本実施形態による拡張現実システムの動作を示すシーケンス図である。 拡張現実システムによる第1の制御例の概略図である。 映像合成装置による第1の制御例の動作を示すフローチャートである。 拡張現実システムによる第2の制御例の概略図である。 映像合成装置による第2の制御例の動作を示すフローチャートである。 拡張現実システムによる第3の制御例の概略図である。 映像合成装置による第3の制御例の動作を示すフローチャートである。 拡張現実システムによる第4の制御例の概略図である。 映像合成装置による第4の制御例の動作を示すフローチャートである。 拡張現実システムによる第5の制御例の概略図である。 映像合成装置による第5の制御例の動作を示すフローチャートである。 拡張現実システムによる第6の制御例の概略図である。 映像合成装置による第6の制御例の動作を示すフローチャートである。 拡張現実システムによる第7の制御例の概略図である。 映像合成装置による第7の制御例の動作を示すフローチャートである。 拡張現実システムによる第8の制御例の概略図である。
以下、図面を参照しながら本発明の実施形態について詳しく説明する。
図1は、本発明の一実施形態による拡張現実システムの構成を示す概略図である。
拡張現実システムは、複数の端末装置100、撮像装置200、映像合成装置300を備える。映像合成装置300と端末装置100とはネットワークを介して接続されている。
端末装置100は、拡張現実システムから合成映像を受信し、当該映像を表示するとともに、利用者からの操作を受け付け、当該操作を示す操作情報をTCP(Transmission Control Protocol)により映像合成装置300に送信する。なお、端末装置100は、PC(Personal Computer)、タブレット端末、携帯電話、スマートフォン、ゲーム機器などによって実現することができるが、本実施形態では、端末装置100がタッチパネルを備えるタブレット端末である場合を例に説明する。
撮像装置200は、実空間の映像を撮像し、撮像した映像を映像合成装置300に入力する。また、撮像装置200には、撮像装置200の姿勢を検出する姿勢センサと、撮像した映像の深度を検出する深度センサが備えられる。
映像合成装置300は、撮像装置200が撮像する映像にコンピュータグラフィックスのオブジェクトを合成した合成映像を生成し、当該合成映像をUDP(User Datagram Protocol)により端末装置100に送信する。
このような構成の拡張現実システムを提供することで、合成映像の閲覧者の各々が合成映像に含まれるオブジェクトの操作を行うことができる。
図2は、端末装置100及び映像合成装置300のソフトウェア構成を示す概略ブロック図である。
端末装置100は、映像受信部101、映像表示部102、オブジェクト表示部103、操作部104、操作情報送信部105を備える。
映像受信部101は、映像合成装置300から合成映像を受信する。
映像表示部102は、映像受信部101が受信した合成映像をタッチパネルに表示する。
オブジェクト表示部103は、操作部104の操作に応じて、合成映像に含まれるオブジェクトを操作するための操作ペインをタッチパネルに表示する。
操作部104は、利用者からタッチパネルのタッチ入力による操作を受け付ける。
操作情報送信部105は、操作部104が受け付けた操作を示す操作情報を映像合成装置300に送信する。操作情報には、操作種別とオプション情報とが含まれる。操作種別とは、合成映像のオブジェクトに対する操作(例えば、オブジェクトの生成、移動、変形、削除など)の種別を示す情報である。オプション情報は、操作種別に応じて必要となる情報である。
図3は、端末装置100のユーザインタフェースの例を示す図である。
端末装置100のタッチパネルには、映像受信部101が受信した合成映像と、操作種別を特定するための複数のボタンが表示される。操作部104は、利用者がタッチしたボタンに応じて、操作種別を決定する。操作部104は、利用者がボタンをタッチしたとき、またはボタンをタッチした後に所定のタッチ操作をしたときに、操作情報を生成する。
図2に戻り、次に映像合成装置300の構成について説明する。
映像合成装置300は、操作情報受信部301、操作情報記憶部302、座標特定部303、計数部304、オブジェクト決定部305、仮想空間計算部306、映像取得部307、映像合成部308、解像度取得部309、映像送信部310、変更命令入力部311、操作情報変更部312を備える。
操作情報受信部301は、端末装置100から操作情報を受信する。
操作情報記憶部302は、操作種別と、操作に用いるオプション情報と、オブジェクトに対する操作の内容とを関連付けて記憶する。
図4は、操作情報記憶部302が記憶する情報の例を示す図である。
操作情報記憶部302は、操作種別に関連付けて、オプション情報及び操作の内容を記憶する。
本実施形態では、操作種別「1」を示す操作情報には、オプション情報としてタッチ座標が含まれる。そして、当該操作情報を受信した場合、「タッチ座標に対応する位置に花火オブジェクトを表示させる」という操作を実行する。
また、操作種別「2」を示す操作情報には、オプション情報としてタッチ座標が含まれる。そして、当該操作情報を受信した場合、「タッチされたオブジェクトに関連付けられたアクションを実行する」という操作を実行する。
また、操作種別「3」を示す操作情報には、オプション情報としてタッチ座標が含まれる。そして、当該操作情報を受信した場合、「タッチされたマーカーにエフェクトオブジェクトを表示させる」という操作を実行する。なお、マーカーとは、被写体に取り付けてその三次元座標を特定するための目印となるものである。
また、操作種別「4」を示す操作情報には、オプション情報が含まれない。そして、当該操作情報を受信した場合、「操作情報の受信回数に応じて風船を膨らませる」という操作を実行する。
また、操作種別「5」を示す操作情報には、オプション情報が含まれない。そして、当該操作情報を受信した場合、「所定時間の間に受信した操作情報の数が100以上である場合に応援メッセージを表示させる」という操作を実行する。
また、操作種別「6」を示す操作情報には、オプション情報としてジェスチャ情報が含まれる。そして、当該操作情報を受信した場合、「所定時間の間、ジェスチャ『○』とジェスチャ『×』を受け付け、数が多いものに関連付けられたオブジェクトを表示させる」という操作を実行する。
また、操作種別「7」を示す操作情報には、オプション情報が含まれない。そして、当該操作情報を受信した場合、「表示されているエフェクトオブジェクトを変更させる」という操作を実行する。
また、操作種別「8」を示す操作情報には、オプション情報として関節ID及び角度情報が含まれる。そして、当該操作情報を受信した場合、「対象となるオブジェクトの関節の角度を角度情報が示す角度に変形させる」という操作を実行する。
なお、図4の例では、操作の内容を文章で記載しているが、操作情報記憶部302は、実際にはオブジェクト決定部305に実行させるコマンドスクリプトなどを記憶する。
図2に戻り、座標特定部303は、操作情報にタッチ座標が含まれる場合、当該タッチ座標が示す仮想空間上の座標を特定する。
計数部304は、所定の操作種別を示す操作情報の受信回数を計数する。
オブジェクト決定部305は、操作情報記憶部302から、操作情報受信部301が受信した操作情報に対して実行すべき操作の内容を特定し、当該操作情報、座標特定部303が特定した座標及び計数部304が計数した受信回数に基づいて、仮想空間上のオブジェクトの位置及び形状を決定する。
仮想空間計算部306は、オブジェクト決定部305が決定した位置及び形状に基づいて仮想空間上のオブジェクトの制御を行う。
映像取得部307は、撮像装置200から、撮像装置200が撮像した映像、撮像装置200の姿勢情報、及び映像の深度情報を取得する。
映像合成部308は、撮像装置200が撮像した映像と仮想空間計算部306が計算した仮想空間上のオブジェクトとを合成し、合成映像を生成する。
解像度取得部309は、端末装置100のタッチパネルの解像度を取得する。
映像送信部310は、映像合成部308が合成した合成映像を解像度取得部309が取得した解像度の映像に変換し、当該合成映像を端末装置100に送信する。
変更命令入力部311は、管理者から操作種別に関連付ける操作の内容を変更する変更命令の入力を受け付ける。変更命令は、変更の対象となる操作種別と変更後の操作の内容とを含む。
操作情報変更部312は、操作情報記憶部302において、変更命令の操作種別に関連付けられた操作の内容を、変更命令の操作の内容に書き換える。
つまり、撮像装置200が撮像した映像の場面の切り替わりのタイミングで、管理者が映像合成装置300に変更命令を入力することで、利用者は、場面にマッチしたオブジェクトの操作を実行することができる。
次に、本実施形態による拡張現実システムの全体的な動作について説明する。
図5は、本実施形態による拡張現実システムの動作を示すシーケンス図である。
まず、端末装置100が映像合成装置300にアクセスすると、映像合成装置300の解像度取得部309は、端末装置100からタッチパネルの解像度を取得する(ステップS1)。
以降、撮像装置200が撮像する映像が終了するまで、以下に示すステップS2〜S13の処理を実行する。
映像合成装置300の映像合成部308は、映像取得部307が取得した映像と仮想空間計算部306が計算するオブジェクトとを合成した合成映像を生成する(ステップS2)。映像合成部308が合成映像を生成する手順の一例としては、以下に示すものが挙げられる。まず映像合成部308は、映像取得部307が取得した撮像装置200の姿勢情報に基づいて、仮想空間計算部306が計算したオブジェクトを描画するレンダリングカメラのパラメータを決定する。レンダリングカメラのパラメータとしては、例えば、レンダリングカメラの位置、視線方向、画角などが含まれる。
次に、映像合成部308は、映像取得部307が取得した映像の各画素に、撮像装置200の深度センサが検出した深度情報を適用する。次に、映像合成部308は、仮想空間計算部306が計算したオブジェクトのうち、決定したカメラ位置からの深度が、映像の対応する画素の深度より低いもの(手前側に存在するもの)を描画する。これにより、映像合成部308は、合成映像を生成することができる。
次に、映像送信部310は、映像合成部308が生成した合成映像のサイズを、解像度取得部309が取得した解像度に合わせて変更する(ステップS3)。次に、映像送信部310は、サイズを変更した合成映像を、端末装置100に送信する(ステップS4)。
映像合成装置300が合成映像を送信すると、端末装置100の映像受信部101は、映像合成装置300から合成映像を受信する(ステップS5)。次に、映像表示部102は、映像受信部101が受信した映像をタッチパネルに表示させる(ステップS6)。
次に、操作部104は、利用者からのタッチ操作の入力があるか否かを判定する(ステップS7)。操作部104が、タッチ操作の入力が無いと判定した場合(ステップS7:NO)、端末装置100は、次の合成映像の受信を待機する。
他方、操作部104は、タッチ操作の入力があったと判定した場合(ステップS7:YES)、タッチ操作の入力を受け付け、操作情報を生成する(ステップS8)。なお、操作部104がどのようなタッチ操作の入力を受け付け、どのような操作情報を生成するかは、操作種別によって異なる。操作部104が操作情報を生成すると、操作情報送信部105は、生成した操作情報を映像合成装置300に送信する(ステップS9)。
映像合成装置300の操作情報受信部301は、端末装置100から操作情報を受信したか否かを判定する(ステップS10)。端末装置100がステップS7において操作を受け付け、操作情報を送信した場合、映像合成装置300の操作情報受信部301は、操作情報を受信する(ステップS10:YES)。この場合、オブジェクト決定部305は、操作情報受信部301が受信した操作情報の操作種別に関連付けられた操作の内容を、操作情報記憶部302から読み出す(ステップS11)。そして、オブジェクト決定部305は、読み出した操作の内容に従って、オブジェクトの位置及び形状を決定する(ステップS12)。
オブジェクト決定部305が操作の内容を実行した場合、または端末装置100がステップS7において操作を受け付けなかったために操作情報受信部301が操作情報を受信しなかった場合(ステップS10:NO)、仮想空間計算部306は、仮想空間におけるオブジェクトの位置及び形状を更新する(ステップS13)。そして、ステップS2に戻り、映像合成部308は、合成映像の生成を行う。
このように、本実施形態によれば、映像合成装置300が端末装置100に合成映像を表示させ、映像合成装置300が当該端末装置100からの操作を受け付けることで、オブジェクトの制御を行う。これにより、合成映像の閲覧者に、当該合成映像に含まれるオブジェクトを制御させることができる。
また、本実施形態によれば、映像合成装置300は、端末装置100からタッチパネルの解像度を取得し、当該解像度に合わせた合成映像を端末装置100に送信する。これにより、タッチパネルの解像度の異なる複数の端末に対して適切な合成映像を提供することができる。
次に、具体的なオブジェクトの制御についていくつかの例を示す。
《花火オブジェクトの表示》
図6は、拡張現実システムによる第1の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図6(A)に示すように利用者が「花火」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「花火」ボタンに関連付けられた操作種別(ここでは操作種別「1」)の操作であると特定する。図4に示すとおり、操作種別「1」のオプション情報にはタッチ座標が含まれるため、操作部104は、次に花火オブジェクトを表示させる座標の入力を受け付ける。
図6(B)に示すように利用者がタッチパネルのうち合成映像が表示されている範囲内をタッチすると、操作部104は、タッチされた座標(二次元座標)を特定する。これにより、操作部104は、操作種別を「1」とし、オプション情報に特定したタッチ座標を含む操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
これにより、映像合成装置300は、図6(C)に示すように、タッチされた座標に花火オブジェクトを配置した合成映像を生成する。
ここで、操作種別「1」の操作情報を受信したときの映像合成装置300の動作について説明する。
図7は、映像合成装置300による第1の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「1」の操作の内容を読み出すと、座標特定部303は、操作情報受信部301が受信した操作情報に含まれるタッチ座標と解像度取得部309が取得した解像度とに基づいて、タッチされた座標の相対位置を特定する(ステップS101)。具体的には、タッチ座標のX座標及びY座標をそれぞれX方向の解像度とY方向の解像度で除算することで算出する。
次に、座標特定部303は、仮想空間計算部306におけるレンダリングカメラの位置を原点として、視線方向から当該レンダリングカメラの画角に相対位置を乗算して得られる角度だけずらした半直線の式を算出する。当該半直線は、操作情報に含まれるタッチ座標に対応する点の集合に相当する(ステップS102)。次に、座標特定部303は、算出した半直線のうち、レンダリングカメラの位置から所定の長さにある三次元座標を、花火オブジェクトを配置する座標として特定する(ステップS103)。ここで、所定の長さとしては、映像取得部307が取得した深度情報から、撮像範囲全体の深度の平均値や、特定の対象物が存在する位置の深度等が挙げられる。
次に、オブジェクト決定部305は、花火オブジェクトを生成し、当該花火オブジェクトを仮想空間のうち座標特定部303が特定した三次元座標に配置する(ステップS104)。そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図6(C)に示すように花火オブジェクトを含む合成映像を生成することができる。
《オブジェクトに対するアクション指示》
図8は、拡張現実システムによる第2の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図8(A)に示すように利用者が「アクション」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「アクション」ボタンに関連付けられた操作種別(ここでは操作種別「2」)の操作であると特定する。図4に示すとおり、操作種別「2」のオプション情報にはタッチ座標が含まれるため、操作部104は、次にアクションを実行させるオブジェクトが存在する座標の入力を受け付ける。
図8(B)に示すように利用者がタッチパネルのうち合成映像が表示されている範囲内をタッチすると、操作部104は、タッチされた座標を特定する。これにより、操作部104は、操作種別を「2」とし、オプション情報に特定したタッチ座標を含む操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
これにより、映像合成装置300は、図8(C)に示すように、タッチされた座標に存在するオブジェクトにアクションを実行させた合成映像を生成する。
ここで、操作種別「2」の操作情報を受信したときの映像合成装置300の動作について説明する。
図9は、映像合成装置300による第2の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「2」の操作の内容を読み出すと、座標特定部303は、操作情報受信部301が受信した操作情報に含まれるタッチ座標と解像度取得部309が取得した解像度とに基づいて、タッチされた座標の相対位置を特定する(ステップS201)。
次に、座標特定部303は、仮想空間計算部306におけるレンダリングカメラの位置を原点として、視線方向から当該レンダリングカメラの画角に相対位置を乗算して得られる角度だけずらした半直線の式を算出する(ステップS202)。次に、座標特定部303は、仮想空間内に算出した半直線と交差するオブジェクトが存在するか否かを判定する(ステップS303)。
座標特定部303が、半直線と交差するオブジェクトが存在しないと判定した場合(ステップS303:NO)、オブジェクト決定部305は、いずれのオブジェクトの位置及び形状も変更せず、処理を終了する。他方、座標特定部303は、半直線と交差するオブジェクトが存在すると判定した場合(ステップS303:YES)、当該オブジェクトが存在する三次元座標を特定する。そして、オブジェクト決定部305は、座標特定部303が特定した三次元座標上に存在するオブジェクトの位置及び形状を、当該オブジェクトに所定のアクションを実行させた場合の位置及び形状に決定する(ステップS304)。
そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図8(C)に示すようにオブジェクトが所定のアクションを実行している状態を示す合成映像を生成することができる。
《マーカーにエフェクトオブジェクトを表示》
図10は、拡張現実システムによる第3の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図10(A)に示すように利用者が「エフェクト表示」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「エフェクト表示」ボタンに関連付けられた操作種別(ここでは操作種別「3」)の操作であると特定する。図4に示すとおり、操作種別「3」のオプション情報にはタッチ座標が含まれるため、操作部104は、次にエフェクトを表示させるマーカーが存在する座標の入力を受け付ける。なお、マーカーとは、被写体に取り付けてその三次元座標を特定するための目印となるものである。
図10(B)に示すように利用者がタッチパネルのうち合成映像が表示されている範囲内をタッチすると、操作部104は、タッチされた座標を特定する。これにより、操作部104は、操作種別を「3」とし、オプション情報に特定したタッチ座標を含む操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
これにより、映像合成装置300は、図10(C)に示すように、タッチされた座標の周辺に存在するマーカーの位置に所定のエフェクトオブジェクトを配置した合成映像を生成する。
ここで、操作種別「3」の操作情報を受信したときの映像合成装置300の動作について説明する。
図11は、映像合成装置300による第3の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「3」の操作の内容を読み出すと、座標特定部303は、操作情報受信部301が受信した操作情報に含まれるタッチ座標と解像度取得部309が取得した解像度とに基づいて、タッチされた座標の相対位置を特定する(ステップS301)。
次に、座標特定部303は、特定した相対位置に対応する映像取得部307が取得した映像上の座標を特定する(ステップS302)。ここで、座標特定部303は、映像取得部307が取得した映像に含まれるマーカーの座標を特定し、ステップS302で特定した座標の周辺(例えば、100画素の範囲以内)にマーカーが存在するか否かを判定する(ステップS303)。
座標特定部303が、特定した座標の周辺にマーカーが存在しないと判定した場合(ステップS303:NO)、オブジェクト決定部305は、いずれのオブジェクトの位置及び形状も変更せず、処理を終了する。他方、座標特定部303は、特定した座標の周辺にマーカーが存在すると判定した場合(ステップS303:YES)、映像取得部307が取得した深度情報からマーカーが存在する座標の深度を取得する(ステップS304)。
次に、座標特定部303は、仮想空間計算部306におけるレンダリングカメラの位置を原点として、視線方向から当該レンダリングカメラの画角に相対位置を乗算して得られる角度だけずらした半直線の式を算出する(ステップS305)。次に、座標特定部303は、算出した半直線のうち、レンダリングカメラの位置からステップS304で特定した深度の位置にあたる三次元座標を、エフェクトオブジェクトを配置する座標として特定する(ステップS306)。
次に、オブジェクト決定部305は、エフェクトオブジェクトを生成し、当該エフェクトオブジェクトを仮想空間のうち座標特定部303が特定した三次元座標に配置する(ステップS307)。そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図10(C)に示すようにエフェクトオブジェクトを含む合成映像を生成することができる。なお、本処理によってエフェクトオブジェクトを追加した以降、仮想空間計算部306は、映像取得部307が取得した映像に含まれるマーカーの位置に追従させるようエフェクトの位置の計算を行う。
なお、ここでは、被写体に取り付けて三次元座標を特定するマーカーを用いることで、映像取得部307が取得した映像に含まれる被写体にエフェクトを追従させる方法について説明したが、これに限られない。例えば、エフェクトを追従させる被写体が人物である場合、被写体にマーカーを取り付けることに代えて、被写体の骨構造を推定し、当該骨構造に基づいてエフェクトの位置の計算を行うようにしても良い。被写体の骨構造の推定方法としては、例えば、映像取得部307が取得した映像にパターンマッチングを掛ける方法や、赤外線センサなどにより撮像装置200によって撮像される空間に存在する障害物の三次元座標を算出し、当該三次元座標に基づいて障害物の中から被写体を抽出する方法などが挙げられる。
《風船オブジェクトに対するアクション》
図12は、拡張現実システムによる第4の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図12(A)に示すように利用者が「風船」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「風船」ボタンに関連付けられた操作種別(ここでは操作種別「4」)の操作であると特定し、操作種別を「4」とする操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
そして、全ての端末装置100における「風船」ボタンのタッチ回数の総数が第1の閾値(例えば10回)に達した場合、映像合成装置300は、図12(B)に示すように風船オブジェクトを膨らました合成映像を生成する。さらに、「風船」ボタンのタッチ回数の総数が第2の閾値(例えば100回)に達した場合、映像合成装置300は、図12(C)に示すように風船オブジェクトを破裂させた合成映像を生成する。
ここで、操作種別「4」の操作情報を受信したときの映像合成装置300の動作について説明する。
図13は、映像合成装置300による第4の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「4」の操作の内容を読み出すと、まずオブジェクト決定部305は、仮想空間計算部306が計算する仮想空間に風船オブジェクトが存在するか否かを判定する(ステップS401)。オブジェクト決定部305は、仮想空間に風船オブジェクトが存在しないと判定した場合(ステップS401:NO)、処理を終了する。
他方、オブジェクト決定部305が、仮想空間に風船オブジェクトが存在すると判定した場合(ステップS401:YES)、計数部304は、内部メモリに記憶する操作種別「4」の操作情報の受信回数に1を加算する(ステップS402)。
次に、オブジェクト決定部305は、計数部304が計数する操作種別「4」の操作情報の受信回数が第1の閾値に達したか否かを判定する(ステップS403)。オブジェクト決定部305は、受信回数が第1の閾値を達していないと判定した場合(ステップS403:NO)、風船オブジェクトの位置及び形状の変更を行わずに、処理を終了する。他方、オブジェクト決定部305は、受信回数が第1の閾値を達したと判定した場合(ステップS403:YES)、受信回数が第2の閾値に達したか否かを判定する(ステップS404)。
オブジェクト決定部305は、受信回数が第2の閾値を達していないと判定した場合(ステップS404:NO)、風船オブジェクトの位置及び形状を、風船オブジェクトが膨らんだときの状態として予め定められた位置及び形状に決定する(ステップS405)。
他方、オブジェクト決定部305は、受信回数が第2の閾値を達したと判定した場合(ステップS404:YES)、風船オブジェクトの位置及び形状を、風船オブジェクトが破裂したときの状態として予め定められた位置及び形状に決定する(ステップS406)。
そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図12(B)や図12(C)に示すように風船オブジェクトの状態が変化した合成映像を生成することができる。
このように、計数部304が計数した値に基づいてオブジェクトの位置及び形状を決定することで、映像合成装置300と通信を行う端末装置100の数が多い場合にも、合成映像に表示させるオブジェクトが煩雑にならないようにすることができる。
《応援アクション》
図14は、拡張現実システムによる第5の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図14(B)に示すように利用者が「応援」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「応援」ボタンに関連付けられた操作種別(ここでは操作種別「5」)の操作であると特定し、操作種別を「5」とする操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
ここで、「応援」ボタンをタッチする場面について説明する。
映像合成装置300の映像合成部308は、図14(A)に示すように「READY…」の文字を表示し、その所定時間後に、図14(B)に示すように「CHEER!」の文字を表示する合成映像を生成する。そして、映像合成装置300は、合成映像に「CHEER!」の文字が表示されるタイミングで「応援」ボタンがタッチされた数が所定の閾値(例えば、100回)に達する場合に、図12(C)に示すように所定のエフェクトオブジェクトを配置した合成映像を生成するというものである。
ここで、操作種別「5」の操作情報を受信したときの映像合成装置300の動作について説明する。
図15は、映像合成装置300による第5の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「5」の操作の内容を読み出すと、計数部304は、現在時刻が、映像合成部308が「CHEER!」の文字を含む合成映像を生成してから所定の制限時間(例えば、1秒)内の時刻であるか否かを判定する(ステップS501)。計数部304が、現在時刻が所定の制限時間内の時刻でないと判定した場合(ステップS501:NO)、処理を終了する。
他方、計数部304は、現在時刻が所定の制限時間内の時刻であると判定した場合(ステップS501:YES)、内部メモリに記憶する操作種別「5」の操作情報の受信回数に1を加算する(ステップS502)。
次に、オブジェクト決定部305は、計数部304が計数する操作種別「5」の操作情報の受信回数が所定の閾値に達したか否かを判定する(ステップS503)。オブジェクト決定部305は、受信回数が所定の閾値を達していないと判定した場合(ステップS503:NO)、いずれのオブジェクトの位置及び形状の変更も行わずに、処理を終了する。
他方、オブジェクト決定部305は、受信回数が所定の閾値を達したと判定した場合(ステップS503:YES)、エフェクトオブジェクトを生成し、当該エフェクトオブジェクトを所定の位置に配置する(ステップS504)。そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図14(C)に示すように所定のタイミングにおいて「応援」ボタンのタッチ数が所定数に達した場合に、エフェクトオブジェクトを含む合成映像を生成することができる。
《○×ジェスチャ入力》
図16は、拡張現実システムによる第6の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図16(A)に示すように利用者が「○×」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「○×」ボタンに関連付けられた操作種別(ここでは操作種別「6」)の操作であると特定する。図4に示すとおり、操作種別「6」のオプション情報にはジェスチャ情報が含まれるため、操作部104は、次にタッチ操作によるジェスチャの入力を受け付ける。
図16(B)に示すように利用者がタッチパネルにおいて所定のタッチ操作を行うと、操作部104は、タッチ操作の軌跡を特定し、当該軌跡が予め定められたジェスチャ(例えば、○、×)のうちいずれのジェスチャに該当するかを特定する。そして、操作部104は、操作種別を「6」とし、オプション情報に特定したジェスチャを示すジェスチャ情報を含む操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
これにより、映像合成装置300は、図16(C)に示すように、ジェスチャ情報が示す入力の多数決の結果を示すオブジェクトを含む合成映像を生成する。
ここで、操作種別「6」の操作情報を受信したときの映像合成装置300の動作について説明する。
図17は、映像合成装置300による第6の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「6」の操作の内容を読み出すと、計数部304は、受信した操作情報のジェスチャ情報を読み出し、該当するジェスチャ情報(○または×)の受付数に1を加算する(ステップS601)。
次に、計数部304は、現在時刻が操作種別「6」の操作情報の受け付けの締め切り時刻に達したか否かを判定する(ステップS602)。計数部304は、現在時刻が操作種別「6」の操作情報の受け付けの締め切り時刻に達していないと判定した場合(ステップS602:NO)、処理を終了する。
他方、計数部304が、現在時刻が操作種別「6」の操作情報の受け付けの締め切り時刻に達したと判定した場合(ステップS602:YES)、オブジェクト決定部305は、計数部304が受付数を計数した受付数が最も多いジェスチャ情報を特定する(ステップS603)。そして、オブジェクト決定部305は、特定したジェスチャ情報に対応するオブジェクト(例えば、図16(C)の文字オブジェクト「YES」など)を生成し、当該エフェクトオブジェクトを所定の位置に配置する(ステップS604)。
そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図16(C)に示すようにジェスチャ情報に対応するオブジェクトを含む合成映像を生成することができる。
《エフェクトオブジェクトの変更》
図18は、拡張現実システムによる第7の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図18(A)に示すように利用者が「エフェクト変更」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「エフェクト変更」ボタンに関連付けられた操作種別(ここでは操作種別「7」)の操作であると特定し、操作種別を「7」とする操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
これにより、映像合成装置300は、図18(B)に示すように、エフェクトオブジェクトを変更した合成映像を生成する。
ここで、操作種別「7」の操作情報を受信したときの映像合成装置300の動作について説明する。
図19は、映像合成装置300による第7の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「7」の操作の内容を読み出すと、まずオブジェクト決定部305は、仮想空間計算部306が計算する仮想空間にエフェクトオブジェクトが存在するか否かを判定する(ステップS701)。オブジェクト決定部305は、仮想空間にエフェクトオブジェクトが存在しないと判定した場合(ステップS701:NO)、処理を終了する。
他方、オブジェクト決定部305が、仮想空間にエフェクトオブジェクトが存在すると判定した場合(ステップS701:YES)、当該エフェクトオブジェクトの形状を、予め定められた他の形状に決定する(ステップS702)。
そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図18(B)に示すようにエフェクトオブジェクトが変化した合成映像を生成することができる。
《キャラクタオブジェクトの操作》
図20は、拡張現実システムによる第8の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図20(A)に示すように利用者が「キャラクタ操作」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「キャラクタ操作」ボタンに関連付けられた操作種別(ここでは操作種別「8」)の操作であると特定する。
次に、オブジェクト表示部103は、映像受信部101が受信した映像に含まれるキャラクタオブジェクトを含む操作ペインをタッチパネルに表示する。操作ペインには、キャラクタオブジェクトに重畳して、当該キャラクタオブジェクトの関節と関節間のつながりを示すリンク線が提示される。また、操作ペインには、キャラクタオブジェクトを回転させる回転ボタンが含まれる。
ここで、図6(B)に示すように利用者がタッチパネルに表示された操作ペイン上のキャラクタオブジェクトをタッチすると、操作部104は、タッチされたキャラクタオブジェクトの部位の基準となる関節の関節IDを特定する。そして、利用者がキャラクタオブジェクトをドラッグ操作すると、操作部104は、当該ドラッグ操作の移動量に対応する関節の回転角を算出する。そして、操作部104は、操作種別を「8」とし、オプション情報に特定した関節ID及び回転角を含む操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
ここで、操作種別「8」の操作情報を受信したときの映像合成装置300の動作について説明する。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「8」の操作の内容を読み出すと、オブジェクト決定部305は、対応するキャラクタオブジェクトの関節のうち、操作情報に含まれる関節IDが示すものを、操作情報に含まれる角度情報が示す角度だけ回転させる。つまり、オブジェクト決定部305は、利用者によるドラッグ操作においてドラッグされたオブジェクトの一部の位置及び形状を、ドラッグ後の位置及び形状に変更する。そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、利用者の操作と同期してオブジェクトの位置及び形状を変化させた合成映像を生成する。
なお、利用者が操作ペイン上の回転ボタンをタッチすると、オブジェクト表示部103は、当該タッチに応じて操作ペイン内のオブジェクトを描画するレンダリングカメラの回転角を増減させることで、操作ペイン内のキャラクタオブジェクトを回転させる。これにより、利用者は、キャラクタオブジェクトの形状を高さ方向、幅方向に加えて奥行き方向に変化させる操作を行うことができる。なお、ここでは回転ボタンのタッチにより操作ペイン内のキャラクタオブジェクトを回転させる例について説明したが、これに限られず、レンダリングカメラの位置や画角など、その他のパラメータを変更するボタンを備える構成としても良い。
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
例えば、合成映像の操作は上述した8つの制御例に限られず、その他の制御を行っても良い。
また、本実施形態では、映像合成装置300と通信を行う端末装置100が複数存在する場合について説明したが、これに限られず、映像合成装置300は1つの端末装置100と通信を行うものであっても良い。
また、本実施形態では、管理者が映像合成装置300に変更命令を直接入力する場合について説明したが、これに限られず、ネットワークを介して接続される外部装置を介して入力するものであっても良い。
また、本実施形態では、端末装置100が操作情報をTCPにより映像合成装置300に送信し、映像合成装置300がUDPにより合成映像を端末装置100に送信する場合について説明したが、これに限られない。例えば、端末装置100は、UDPやその他のプロトコルに従って操作情報を送信しても良いし、映像合成装置300は、TCPやその他のプロトコルに従って合成映像を送信しても良い。
なお、上述の端末装置100及び映像合成装置300はそれぞれ内部に、コンピュータシステムを有している。そして、上述した各処理部の動作は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
100…端末装置 101…映像受信部 102…映像表示部 103…オブジェクト表示部 104…操作部 105…操作情報送信部 200…撮像装置 300…映像合成装置 301…操作情報受信部 302…操作情報記憶部 303…座標特定部 304…計数部 305…オブジェクト決定部 306…仮想空間計算部 307…映像取得部 308…映像合成部 309…解像度取得部 310…映像送信部 311…変更命令入力部 312…操作情報変更部
映像とコンピュータグラフィックスのオブジェクトとの合成映像を提供する拡張現実システム、当該拡張現実システムが備える映像合成装置、並びに当該拡張現実システムによる映像合成方法及びそのプログラムに関する。
本発明は上記の課題を解決するためになされたものであり、撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置と、前記合成映像を表示する複数の端末装置とを備える拡張現実システムであって、前記端末装置は、前記映像合成装置から合成映像を受信する映像受信部と、前記映像受信部が受信した合成映像を表示する映像表示部と、前記映像表示部に表示された合成映像に対する操作を示す操作情報の入力を受け付ける操作部と、前記操作部が受け付けた操作情報を前記映像合成装置に送信する操作情報送信部とを備え、前記映像合成装置は、前記複数の端末装置から前記操作情報を受信する操作情報受信部と、前記操作情報受信部が前記複数の端末装置から受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を変更するオブジェクト決定部と、前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部と、前記映像合成部が生成した合成映像を、前記複数の端末装置に送信する映像送信部とを備えることを特徴とする。
また、本発明において前記映像合成装置は、前記操作情報受信部が前記複数の端末装置から受信した操作情報のうち、同一の操作を示す操作情報の受信回数を計数する計数部を備え、前記オブジェクト決定部は、前記計数部が計数した受信回数が所定の閾値以上となった場合に、当該操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を変更することを特徴とする。
また、本発明において前記オブジェクト決定部は、前記計数部が計数した受信回数が第1の閾値以上となった場合に、当該操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を第1の位置及び形状に変更し、前記計数部が計数した受信回数が第2の閾値以上となった場合に、当該操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を第2の位置及び形状に変更することを特徴とする。
また、本発明において前記計数部は、所定の制限時間内に前記操作情報受信部が前記複数の端末装置から受信した同一の操作を示す操作情報の受信回数を計数することを特徴とする。
また、本発明において前記計数部は、複数の種類の操作情報の受信回数を計数し、前記オブジェクト決定部は、前記制限時間が経過したときに、前記計数部が計数した受信回数が最も多い操作情報に関連付けられたオブジェクトを生成し、当該オブジェクトを所定の位置に配置することを特徴とする。
また、本発明において前記操作部は、前記操作情報として所定の操作を実行させる前記映像表示部が表示する合成映像上の二次元座標の指定を受け付け、前記映像合成装置は、前記操作情報が示す二次元座標に対応する前記仮想空間上の三次元座標を特定する座標特定部を備え、前記オブジェクト決定部は、前記座標特定部が特定した三次元座標が示す位置における前記オブジェクトの位置及び形状を変更することを特徴とする。
また、本発明において前記座標特定部は、前記操作情報が示す二次元座標を前記仮想空間に投影した直線上に前記オブジェクトが存在する場合、当該オブジェクトが存在する三次元座標を特定し、前記オブジェクト決定部は、前記座標特定部が特定した三次元座標が示す位置に存在する前記オブジェクトの位置及び形状を変更することを特徴とする。
また、本発明において前記座標特定部は、前記撮像装置が撮像した映像における前記操作情報が示す二次元座標の周辺の所定の範囲内にマーカーが存在する場合、当該マーカーが存在する三次元座標を特定し、前記オブジェクト決定部は、前記座標特定部が特定した三次元座標が示す位置にオブジェクトを配置することを特徴とする。
また、本発明において前記映像合成装置は、前記操作情報に関連付けて当該操作情報が示す操作の内容を記憶する操作情報記憶部と、管理者から前記操作情報の内容の変更を示す操作内容変更命令の入力を受け付ける変更命令入力部と、前記操作情報記憶部が記憶する操作の内容を前記変更命令入力部が入力した内容に変更する操作情報変更部とを備え、前記オブジェクト決定部は、前記操作情報受信部が受信した操作情報に関連付けられた操作の内容を前記操作情報記憶部から取得し、当該操作の内容に基づいて前記オブジェクトの仮想空間における位置及び形状を変更することを特徴とする。
また、本発明において前記映像合成装置は、前記複数の端末装置から当該端末装置のディスプレイ解像度を取得する解像度取得部を備え、前記映像送信部は、前記映像合成部が生成した合成映像を、前記解像度取得部が取得した解像度に変換して前記端末装置に送信することを特徴とする。
また、本発明において前記映像合成部は、前記撮像装置の撮像対象の三次元位置情報を検出する三次元位置センサから、前記撮像対象の位置情報及び撮像装置の姿勢情報を取得し、当該位置情報及び姿勢情報に基づいて前記仮想空間に配置されたオブジェクトを前記映像に合成することを特徴とする。
また、本発明において前記端末装置は、前記映像受信部が受信した合成映像に含まれるオブジェクトを当該オブジェクトの関節とともに操作ペイン内に表示するオブジェクト表示部を備え、
前記操作部は、前記操作情報として、前記オブジェクト表示部が表示する前記操作ペイン内のオブジェクトの部位をドラッグする操作を受け付け、前記オブジェクト決定部は、前記操作においてタッチされた部位の基準となる関節を特定し、前記操作情報が示すドラッグ操作の移動量に対応する前記関節の回転角に基づいて前記ドラッグ操作においてドラッグされたオブジェクトの一部の位置及び形状を、ドラッグ後の位置及び形状に変更することを特徴とする。
また、本発明において前記オブジェクト表示部は、利用者の操作に従って前記操作ペイン内の前記オブジェクトを描画するレンダリングカメラのパラメータを変更することを特徴とすることを特徴とする。
また、本発明は、撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置であって、複数の端末装置から前記合成映像に対する操作を示す操作情報を受信する操作情報受信部と、前記操作情報受信部が前記複数の端末装置から受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を変更するオブジェクト決定部と、前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部と、前記映像合成部が生成した合成映像を、前記複数の端末装置に送信する映像送信部とを備えることを特徴とする。
また、本発明は、撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置が、複数の端末装置から前記合成映像に対する操作を示す操作情報を受信し、前記映像合成装置が、前記複数の端末装置から受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を変更し、前記映像合成装置が、前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成し、前記映像合成装置が、前記生成した合成映像を前記複数の端末装置に送信することを特徴とする映像合成方法である。
また、本発明は、コンピュータを、複数の端末装置から、撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像に対する操作を示す操作情報を受信する操作情報受信部、前記操作情報受信部が前記複数の端末装置から受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を変更するオブジェクト決定部、前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部、前記映像合成部が生成した合成映像を、前記複数の端末装置に送信する映像送信部として機能させるためのプログラムである。
また、本発明において前記座標特定部は、前記撮像装置が撮像した映像における前記操作情報が示す二次元座標の周辺の所定の範囲内にマーカーが存在する場合、当該マーカーが存在する三次元座標を特定し、前記オブジェクト決定部は、前記座標特定部が特定した三次元座標が示す位置にオブジェクトを配置することを特徴とする。

Claims (18)

  1. 撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置と、前記合成映像を表示する1または複数の端末装置とを備える拡張現実システムであって、
    前記端末装置は、
    前記映像合成装置から合成映像を受信する映像受信部と、
    前記映像受信部が受信した合成映像を表示する映像表示部と、
    前記映像表示部に表示された合成映像に対する操作を示す操作情報の入力を受け付ける操作部と、
    前記操作部が受け付けた操作情報を前記映像合成装置に送信する操作情報送信部と
    を備え、
    前記映像合成装置は、
    前記端末装置から前記操作情報を受信する操作情報受信部と、
    前記操作情報受信部が受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を決定するオブジェクト決定部と、
    前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部と、
    前記映像合成部が生成した合成映像を、前記端末装置に送信する映像送信部と
    を備えることを特徴とする拡張現実システム。
  2. 前記映像合成装置は、前記操作情報受信部が受信した操作情報のうち、同一の操作を示す操作情報の受信回数を計数する計数部を備え、
    前記オブジェクト決定部は、前記計数部が計数した受信回数が所定の閾値以上となった場合に、当該操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を決定する
    ことを特徴とする請求項1に記載の拡張現実システム。
  3. 前記計数部は、所定の制限時間内に前記操作情報受信部が受信した同一の操作を示す操作情報の受信回数を計数する
    ことを特徴とする請求項2に記載の拡張現実システム。
  4. 前記操作部は、前記操作情報として所定の操作を実行させる前記映像表示部が表示する合成映像上の二次元座標の指定を受け付け、
    前記映像合成装置は、前記操作情報が示す二次元座標に対応する前記仮想空間上の三次元座標を特定する座標特定部を備え、
    前記オブジェクト決定部は、前記座標特定部が特定した三次元座標が示す位置における前記オブジェクトの位置及び形状を決定する
    ことを特徴とする請求項1から請求項3の何れか1項に記載の拡張現実システム。
  5. 前記座標特定部は、前記操作情報が示す二次元座標を前記仮想空間に投影した直線上に前記オブジェクトが存在する場合、当該オブジェクトが存在する三次元座標を特定し、
    前記オブジェクト決定部は、前記座標特定部が特定した三次元座標が示す位置に存在する前記オブジェクトの位置及び形状を決定する
    ことを特徴とする請求項4に記載の拡張現実システム。
  6. 前記座標特定部は、前記操作情報が示す二次元座標と当該操作情報の送信元の端末装置のディスプレイ解像度とに基づいて、前記操作情報が示す二次元座標に対応する前記仮想空間上の三次元座標を特定する
    ことを特徴とする請求項4または請求項5に記載の拡張現実システム。
  7. 前記映像合成装置は、
    前記操作情報に関連付けて当該操作情報が示す操作の内容を記憶する操作情報記憶部と、
    前記操作情報の内容の変更を示す操作内容変更命令の入力を受け付ける変更命令入力部と、
    前記操作情報記憶部が記憶する操作の内容を前記変更命令入力部が入力した内容に変更する操作情報変更部と
    を備え、
    前記オブジェクト決定部は、前記操作情報受信部が受信した操作情報に関連付けられた操作の内容を前記操作情報記憶部から取得し、当該操作の内容に基づいて前記オブジェクトの仮想空間における位置及び形状を決定する
    ことを特徴とする請求項1から請求項6の何れか1項に記載の拡張現実システム。
  8. 前記映像合成装置は、前記端末装置から当該端末装置のディスプレイ解像度を取得する解像度取得部を備え、
    前記映像送信部は、前記映像合成部が生成した合成映像を、前記解像度取得部が取得した解像度に変換して前記端末装置に送信する
    ことを特徴とする請求項1から請求項7の何れか1項に記載の拡張現実システム。
  9. 映像合成部は、前記撮像装置の撮像対象の三次元位置情報を検出する三次元位置センサから、前記撮像対象の位置情報を取得し、当該位置情報に基づいて前記仮想空間に配置されたオブジェクトを前記映像に合成する
    ことを特徴とする請求項1から請求項8の何れか1項に記載の拡張現実システム。
  10. 前記端末装置は、前記映像受信部が受信した合成映像に含まれるオブジェクトを表示するオブジェクト表示部を備え、
    前記操作部は、前記操作情報として、前記オブジェクト表示部が表示するオブジェクトの一部をドラッグする操作を受け付け、
    前記オブジェクト決定部は、前記操作情報が示すドラッグ操作においてドラッグされたオブジェクトの一部の位置及び形状を、ドラッグ後の位置及び形状に変更する
    ことを特徴とする請求項1から請求項9の何れか1項に記載の拡張現実システム。
  11. 前記オブジェクト表示部は、利用者の操作に従って前記オブジェクトを描画するレンダリングカメラのパラメータを変更することを特徴とする請求項10に記載の拡張現実システム。
  12. 前記操作部は、タッチパネル上のタッチ操作の入力を受け付け、当該タッチ操作の軌跡に対応する操作情報を特定する
    ことを特徴とする請求項1から請求項11の何れか1項に記載の拡張現実システム。
  13. 撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置から合成映像を受信する映像受信部と、
    前記映像受信部が受信した合成映像を表示する映像表示部と、
    前記映像表示部に表示された合成映像に対する操作を示す操作情報の入力を受け付ける操作部と、
    前記操作部が受け付けた操作情報を前記映像合成装置に送信する操作情報送信部と
    を備えることを特徴とする端末装置。
  14. 端末装置が、撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置から合成映像を受信し、
    前記端末装置が、受信した合成映像を表示し、
    前記端末装置が、前記表示した合成映像に対する操作を示す操作情報の入力を受け付け、
    前記端末装置が、前記受け付けた操作情報を前記映像合成装置に送信する
    ことを特徴とする拡張現実制御方法。
  15. コンピュータを、
    撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置から合成映像を受信する映像受信部、
    前記映像受信部が受信した合成映像を表示する映像表示部、
    前記映像表示部に表示された合成映像に対する操作を示す操作情報の入力を受け付ける操作部、
    前記操作部が受け付けた操作情報を前記映像合成装置に送信する操作情報送信部
    として機能させるためのプログラム。
  16. 撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置であって、
    端末装置から前記合成映像に対する操作を示す操作情報を受信する操作情報受信部と、
    前記操作情報受信部が受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を決定するオブジェクト決定部と、
    前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部と、
    前記映像合成部が生成した合成映像を、前記端末装置に送信する映像送信部と
    を備えることを特徴とする映像合成装置。
  17. 撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置が、端末装置から前記合成映像に対する操作を示す操作情報を受信し、
    前記映像合成装置が、前記受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を決定し、
    前記映像合成装置が、前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成し、
    前記映像合成装置が、前記生成した合成映像を前記端末装置に送信する
    ことを特徴とする映像合成方法。
  18. コンピュータを、
    端末装置から、撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像に対する操作を示す操作情報を受信する操作情報受信部、
    前記操作情報受信部が受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を決定するオブジェクト決定部、
    前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部、
    前記映像合成部が生成した合成映像を、前記端末装置に送信する映像送信部
    として機能させるためのプログラム。
JP2012187747A 2012-08-28 2012-08-28 拡張現実システム、映像合成装置、映像合成方法及びプログラム Active JP5568610B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012187747A JP5568610B2 (ja) 2012-08-28 2012-08-28 拡張現実システム、映像合成装置、映像合成方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012187747A JP5568610B2 (ja) 2012-08-28 2012-08-28 拡張現実システム、映像合成装置、映像合成方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2014044655A true JP2014044655A (ja) 2014-03-13
JP5568610B2 JP5568610B2 (ja) 2014-08-06

Family

ID=50395857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012187747A Active JP5568610B2 (ja) 2012-08-28 2012-08-28 拡張現実システム、映像合成装置、映像合成方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5568610B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015186402A1 (ja) * 2014-06-06 2015-12-10 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法及び画像処理プログラム
JP2015230685A (ja) * 2014-06-06 2015-12-21 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理システム、端末装置、画像処理方法及び画像処理プログラム
JP6275310B1 (ja) * 2017-05-26 2018-02-07 株式会社テクテック 拡張現実表示システム、プログラム及び方法
JP2019154045A (ja) * 2014-10-22 2019-09-12 華為技術有限公司Huawei Technologies Co.,Ltd. インタラクティブな動画生成
JP2019207509A (ja) * 2018-05-28 2019-12-05 株式会社 ディー・エヌ・エー 動画を作成するためのシステム、方法、及びプログラム
WO2020027226A1 (ja) * 2018-07-31 2020-02-06 株式会社ニコン 表示制御システム、表示制御方法、及び、表示制御プログラム
JP2021007042A (ja) * 2015-11-04 2021-01-21 ソニー株式会社 情報処理装置およびプログラム
WO2023017627A1 (ja) * 2021-08-10 2023-02-16 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
JP2023526110A (ja) * 2020-05-21 2023-06-20 北京字節跳動網絡技術有限公司 ビデオ特殊効果配置方法、ビデオ特殊効果装置、デバイス、及び記憶媒体
JP7513262B2 (ja) 2020-07-16 2024-07-09 Popopo株式会社 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム
JP7535621B2 (ja) 2019-03-29 2024-08-16 株式会社バンダイナムコエンターテインメント サーバシステム、動画配信システムおよびコンピュータシステム
US12133013B2 (en) 2020-05-21 2024-10-29 Beijing Bytedance Network Technology Co., Ltd. Video special effect configuration method, device, equipment and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11494986B2 (en) 2017-04-20 2022-11-08 Samsung Electronics Co., Ltd. System and method for two dimensional application usage in three dimensional virtual reality environment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0819664A (ja) * 1994-07-05 1996-01-23 Namco Ltd マルチプレーヤ式ゲーム装置
JP2005049996A (ja) * 2003-07-30 2005-02-24 Canon Inc 画像表示方法及び装置
JP2006252185A (ja) * 2005-03-10 2006-09-21 Nintendo Co Ltd ゲームプログラムおよびゲーム装置
JP2006270690A (ja) * 2005-03-25 2006-10-05 Funai Electric Co Ltd データ伝送システム
JP2012048597A (ja) * 2010-08-30 2012-03-08 Univ Of Tokyo 複合現実感表示システム、画像提供画像提供サーバ、表示装置及び表示プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0819664A (ja) * 1994-07-05 1996-01-23 Namco Ltd マルチプレーヤ式ゲーム装置
JP2005049996A (ja) * 2003-07-30 2005-02-24 Canon Inc 画像表示方法及び装置
JP2006252185A (ja) * 2005-03-10 2006-09-21 Nintendo Co Ltd ゲームプログラムおよびゲーム装置
JP2006270690A (ja) * 2005-03-25 2006-10-05 Funai Electric Co Ltd データ伝送システム
JP2012048597A (ja) * 2010-08-30 2012-03-08 Univ Of Tokyo 複合現実感表示システム、画像提供画像提供サーバ、表示装置及び表示プログラム

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015230685A (ja) * 2014-06-06 2015-12-21 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理システム、端末装置、画像処理方法及び画像処理プログラム
WO2015186402A1 (ja) * 2014-06-06 2015-12-10 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法及び画像処理プログラム
JP2019154045A (ja) * 2014-10-22 2019-09-12 華為技術有限公司Huawei Technologies Co.,Ltd. インタラクティブな動画生成
CN112449253A (zh) * 2014-10-22 2021-03-05 华为技术有限公司 交互式视频生成
JP7095722B2 (ja) 2015-11-04 2022-07-05 ソニーグループ株式会社 情報処理装置およびプログラム
US11237717B2 (en) 2015-11-04 2022-02-01 Sony Corporation Information processing device and information processing method
JP2021007042A (ja) * 2015-11-04 2021-01-21 ソニー株式会社 情報処理装置およびプログラム
JP2018200519A (ja) * 2017-05-26 2018-12-20 株式会社テクテック 拡張現実表示システム、プログラム及び方法
JP6275310B1 (ja) * 2017-05-26 2018-02-07 株式会社テクテック 拡張現実表示システム、プログラム及び方法
JP7373599B2 (ja) 2018-05-28 2023-11-02 株式会社 ディー・エヌ・エー 動画を作成するためのシステム、方法、及びプログラム
JP2019207509A (ja) * 2018-05-28 2019-12-05 株式会社 ディー・エヌ・エー 動画を作成するためのシステム、方法、及びプログラム
JP2022095625A (ja) * 2018-05-28 2022-06-28 株式会社 ディー・エヌ・エー 動画を作成するためのシステム、方法、及びプログラム
JP7038602B2 (ja) 2018-05-28 2022-03-18 株式会社 ディー・エヌ・エー 動画を作成するためのシステム、方法、及びプログラム
CN112513782A (zh) * 2018-07-31 2021-03-16 株式会社尼康 显示控制系统、显示控制方法、以及显示控制程序
JP2020021225A (ja) * 2018-07-31 2020-02-06 株式会社ニコン 表示制御システム、表示制御方法、及び、表示制御プログラム
WO2020027226A1 (ja) * 2018-07-31 2020-02-06 株式会社ニコン 表示制御システム、表示制御方法、及び、表示制御プログラム
JP7535621B2 (ja) 2019-03-29 2024-08-16 株式会社バンダイナムコエンターテインメント サーバシステム、動画配信システムおよびコンピュータシステム
JP2023526110A (ja) * 2020-05-21 2023-06-20 北京字節跳動網絡技術有限公司 ビデオ特殊効果配置方法、ビデオ特殊効果装置、デバイス、及び記憶媒体
JP7516561B2 (ja) 2020-05-21 2024-07-16 北京字節跳動網絡技術有限公司 ビデオ特殊効果配置方法、ビデオ特殊効果装置、デバイス、及び記憶媒体
US12133013B2 (en) 2020-05-21 2024-10-29 Beijing Bytedance Network Technology Co., Ltd. Video special effect configuration method, device, equipment and storage medium
JP7513262B2 (ja) 2020-07-16 2024-07-09 Popopo株式会社 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム
WO2023017627A1 (ja) * 2021-08-10 2023-02-16 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
JP5568610B2 (ja) 2014-08-06

Similar Documents

Publication Publication Date Title
JP5568610B2 (ja) 拡張現実システム、映像合成装置、映像合成方法及びプログラム
JP6288084B2 (ja) 表示制御装置、表示制御方法および記録媒体
WO2014188798A1 (ja) 表示制御装置、表示制御方法および記録媒体
US9268410B2 (en) Image processing device, image processing method, and program
JP6348741B2 (ja) 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
TW201346640A (zh) 影像處理裝置及電腦程式產品
US20150070247A1 (en) Information processing apparatus, information processing method, and program
JPWO2005119591A1 (ja) 表示制御方法および装置、プログラム、並びに携帯機器
GB2507510A (en) Server-supported augmented reality with differential image region compression
CN111459432B (zh) 虚拟内容的显示方法、装置、电子设备及存储介质
US11107184B2 (en) Virtual object translation
JP2014021570A (ja) 動画像生成装置
EP3819752A1 (en) Personalized scene image processing method and apparatus, and storage medium
JP2013164697A (ja) 画像処理装置、画像処理方法、プログラム及び画像処理システム
JP2017033294A (ja) 3次元描画システム及び3次元描画プログラム
CN108881742B (zh) 一种视频生成方法及终端设备
JP6473048B2 (ja) 移動装置操作端末、移動装置操作方法及び移動装置操作プログラム
KR102278229B1 (ko) 전자기기 및 그 제어 방법
WO2016102948A1 (en) Coherent touchless interaction with stereoscopic 3d images
JP2016115230A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
KR101434728B1 (ko) 영상 통화 시스템에서의 영상 통화 중 드로잉 협업 방법
JP5326816B2 (ja) 遠隔会議システム、情報処理装置、及びプログラム
CN104580967A (zh) 一种基于便携式投影仪的地图投影方法和用于投影的装置
JP6357412B2 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP7299478B2 (ja) オブジェクト姿勢制御プログラムおよび情報処理装置

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140507

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140610

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140623

R150 Certificate of patent or registration of utility model

Ref document number: 5568610

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250