JP5568610B2 - Augmented reality system, video composition device, video composition method, and program - Google Patents
Augmented reality system, video composition device, video composition method, and program Download PDFInfo
- Publication number
- JP5568610B2 JP5568610B2 JP2012187747A JP2012187747A JP5568610B2 JP 5568610 B2 JP5568610 B2 JP 5568610B2 JP 2012187747 A JP2012187747 A JP 2012187747A JP 2012187747 A JP2012187747 A JP 2012187747A JP 5568610 B2 JP5568610 B2 JP 5568610B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- unit
- operation information
- composite
- video composition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
映像とコンピュータグラフィックスのオブジェクトとの合成映像を提供する拡張現実システム、当該拡張現実システムが備える映像合成装置、並びに当該拡張現実システムによる映像合成方法及びそのプログラムに関する。 Augmented reality system for providing a combined image of the video and computer graphics objects, the augmented reality system is Ru with movies image synthesis apparatus, as well as movies image synthesis method and a program that by the the augmented reality system.
近年、撮像装置が撮像した実空間の映像と、コンピュータグラフィックスによって表現される仮想空間のオブジェクトとを合成する「拡張現実(AR:Augmented Reality)」という技術が研究されている(例えば、非特許文献1を参照)。 In recent years, a technique called “augmented reality (AR)” that synthesizes an image of a real space captured by an imaging device and an object of a virtual space expressed by computer graphics has been studied (for example, non-patented). Reference 1).
具体的には、映像合成装置が、撮像装置が撮像した映像と仮想空間のオブジェクトをレンダリングした画像とを合成することで拡張現実を実現した合成映像を生成することで実現する。このとき、映像合成装置は、撮像装置に取り付けられたロータリエンコーダなどの姿勢センサから取得した情報に基づいて仮想空間におけるカメラ情報を変更することで、撮像装置の動きにオブジェクトを追従させた合成映像を生成することができる。また、撮像装置が所定のマーカーを含む映像を撮像し、映像合成装置が当該映像からマーカーの位置を特定することで、マーカーが存在する場所に所定のオブジェクトを表示させることができる。なお、マーカーとは、被写体に取り付けてその三次元座標を特定するための目印となるものである。 Specifically, it is realized by generating a composite video that realizes augmented reality by the video composition device combining the video captured by the imaging device and the image obtained by rendering the object in the virtual space. At this time, the video composition device changes the camera information in the virtual space based on information acquired from a posture sensor such as a rotary encoder attached to the image capture device, thereby causing the object to follow the movement of the image capture device. Can be generated. In addition, the imaging device captures an image including a predetermined marker, and the video composition device identifies the position of the marker from the video, whereby a predetermined object can be displayed at a place where the marker exists. The marker is a mark for attaching to a subject and specifying its three-dimensional coordinates.
このような拡張現実システムにおけるオブジェクトの動作の制御方法としては、オブジェクトの動作を予め決めておく方法、映像に含まれるマーカーにオブジェクトを追従させる方法、モーションキャプチャにより得られる動作をオブジェクトに適用する方法などが挙げられる。 As a method for controlling the movement of an object in such an augmented reality system, a method for determining the movement of the object in advance, a method for causing the object to follow the marker included in the video, and a method for applying the movement obtained by motion capture to the object Etc.
近年、拡張現実システムをインタラクティブに制御したいという要望がある。つまり、合成映像の閲覧者に、当該合成映像に含まれるオブジェクトを制御させたいという要望がある。しかしながら、上述したオブジェクトの動作の制御方法は、閲覧者からの入力を受け付けるものではなく、インタラクティブな制御を行うことができないという問題がある。また、合成映像の閲覧者にモーションキャプチャを適用することも考えられるが、システムが大掛かりとなってしまうという問題がある。 In recent years, there is a desire to interactively control an augmented reality system. That is, there is a demand for the viewer of the composite video to control the object included in the composite video. However, the above-described method for controlling the movement of an object does not accept an input from a viewer, and there is a problem that interactive control cannot be performed. In addition, although it is conceivable to apply motion capture to the viewer of the composite video, there is a problem that the system becomes large.
本発明は上記の課題を解決するためになされたものであり、撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置と、前記合成映像を表示する複数の端末装置とを備える拡張現実システムであって、前記端末装置は、前記映像合成装置から合成映像を受信する映像受信部と、前記映像受信部が受信した合成映像を表示する映像表示部と、前記映像表示部に表示された合成映像に対する操作を示す操作情報の入力を受け付ける操作部と、前記操作部が受け付けた操作情報を前記映像合成装置に送信する操作情報送信部とを備え、前記映像合成装置は、前記複数の端末装置から前記操作情報を受信する操作情報受信部と、前記操作情報受信部が前記複数の端末装置から受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を変更するオブジェクト決定部と、前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部と、前記映像合成部が生成した合成映像を、前記複数の端末装置に送信する映像送信部とを備えることを特徴とする。 The present invention has been made in order to solve the above-described problems, and includes a video composition device that generates a composite video image of a video image captured by an imaging device and a computer graphics object, and a plurality of terminals that display the composite video image. An augmented reality system comprising: a video reception unit that receives a composite video from the video synthesis device; a video display unit that displays a composite video received by the video reception unit; and the video An operation unit that receives an input of operation information indicating an operation on the composite video displayed on the display unit; and an operation information transmission unit that transmits the operation information received by the operation unit to the video composition device. It is based on the operation information receiving unit from a plurality of terminal devices to receive the operation information, the operation information the operation information receiving unit has received from the plurality of terminal devices An object determination unit for changing the position and shape in the virtual space of the objects have the video combining unit, wherein the imaging device arranged in the virtual space object is synthesized video imaged, synthesis the image synthesizing unit has generated A video transmission unit configured to transmit the video to the plurality of terminal devices.
また、本発明において前記座標特定部は、前記撮像装置が撮像した映像における前記操作情報が示す二次元座標の周辺の所定の範囲内にマーカーが存在する場合、当該マーカーが存在する三次元座標を特定し、前記オブジェクト決定部は、前記座標特定部が特定した三次元座標が示す位置にオブジェクトを配置することを特徴とする。 In the present invention, when the marker is present within a predetermined range around the two-dimensional coordinate indicated by the operation information in the image captured by the imaging device, the coordinate specifying unit displays the three-dimensional coordinate where the marker exists. In particular, the object determination unit places the object at a position indicated by the three-dimensional coordinates specified by the coordinate specification unit.
また、本発明において前記座標特定部は、前記操作情報が示す二次元座標と当該操作情報の送信元の端末装置のディスプレイ解像度とに基づいて、前記操作情報が示す二次元座標に対応する前記仮想空間上の三次元座標を特定することを特徴とする。 Further, in the present invention, the coordinate specifying unit is configured to generate the virtual corresponding to the two-dimensional coordinate indicated by the operation information based on the two-dimensional coordinate indicated by the operation information and a display resolution of a terminal device that is a transmission source of the operation information. It is characterized by specifying three-dimensional coordinates in space.
また、本発明において前記映像合成装置は、前記複数の端末装置から当該端末装置のディスプレイ解像度を取得する解像度取得部を備え、前記映像送信部は、前記映像合成部が生成した合成映像を、前記解像度取得部が取得した解像度に変換して前記端末装置に送信することを特徴とする。 Further, in the present invention, the video composition device includes a resolution acquisition unit that acquires the display resolution of the terminal device from the plurality of terminal devices, and the video transmission unit generates the composite video generated by the video composition unit, The resolution is acquired by the resolution acquisition unit and transmitted to the terminal device.
また、本発明において前記操作部は、タッチパネル上のタッチ操作の入力を受け付け、当該タッチ操作の軌跡に対応する操作情報を特定することを特徴とする。 In the present invention, the operation unit receives an input of a touch operation on the touch panel and specifies operation information corresponding to a locus of the touch operation.
また、本発明は、撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置であって、複数の端末装置から前記合成映像に対する操作を示す操作情報を受信する操作情報受信部と、前記操作情報受信部が前記複数の端末装置から受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を変更するオブジェクト決定部と、前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部と、前記映像合成部が生成した合成映像を、前記複数の端末装置に送信する映像送信部とを備えることを特徴とする。 In addition, the present invention is a video composition device that generates a composite image of a video image captured by an imaging device and a computer graphics object, and an operation for receiving operation information indicating an operation on the composite image from a plurality of terminal devices. An information receiving unit, an object determining unit that changes the position and shape of the object in the virtual space based on the operation information received from the plurality of terminal devices by the operation information receiving unit, and an object arranged in the virtual space A video composition unit that synthesizes the video imaged by the imaging device, and a video transmission unit that transmits the composite video generated by the video composition unit to the plurality of terminal devices.
また、本発明は、撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置が、複数の端末装置から前記合成映像に対する操作を示す操作情報を受信し、前記映像合成装置が、前記複数の端末装置から受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を変更し、前記映像合成装置が、前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成し、前記映像合成装置が、前記生成した合成映像を前記複数の端末装置に送信することを特徴とする映像合成方法である。 Further, according to the present invention, a video composition device that generates a composite video of a video imaged by an imaging device and a computer graphics object receives operation information indicating an operation on the composite video from a plurality of terminal devices, and the video The composition device changes the position and shape of the object in the virtual space based on the operation information received from the plurality of terminal devices, and the image composition device captures the object arranged in the virtual space. The video synthesizing method is characterized in that the video synthesizing device transmits the generated synthesized video to the plurality of terminal devices.
また、本発明は、コンピュータを、複数の端末装置から、撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像に対する操作を示す操作情報を受信する操作情報受信部、前記操作情報受信部が前記複数の端末装置から受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を変更するオブジェクト決定部、前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部、前記映像合成部が生成した合成映像を、前記複数の端末装置に送信する映像送信部として機能させるためのプログラムである。 According to another aspect of the present invention, there is provided an operation information receiving unit that receives, from a plurality of terminal devices, operation information indicating operation on a composite video of a video image captured by an imaging device and a computer graphics object, and the operation information receiving unit. An object determination unit that changes the position and shape of the object in the virtual space based on the operation information received from the plurality of terminal devices, and a video that synthesizes the object arranged in the virtual space with the video captured by the imaging device It is a program for causing a synthesizing unit and a synthesized video generated by the video synthesizing unit to function as a video transmitting unit that transmits to the plurality of terminal devices.
本発明によれば、端末装置に合成映像を表示させ、映像合成装置が当該端末装置からの操作を受け付けることで、オブジェクトの制御を行う。これにより、合成映像の閲覧者に、当該合成映像に含まれるオブジェクトを制御させることができる。 According to the present invention, a synthesized video is displayed on a terminal device, and the video synthesizer receives an operation from the terminal device to control an object. As a result, the viewer of the composite video can control the objects included in the composite video.
以下、図面を参照しながら本発明の実施形態について詳しく説明する。
図1は、本発明の一実施形態による拡張現実システムの構成を示す概略図である。
拡張現実システムは、複数の端末装置100、撮像装置200、映像合成装置300を備える。映像合成装置300と端末装置100とはネットワークを介して接続されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a schematic diagram showing the configuration of an augmented reality system according to an embodiment of the present invention.
The augmented reality system includes a plurality of
端末装置100は、拡張現実システムから合成映像を受信し、当該映像を表示するとともに、利用者からの操作を受け付け、当該操作を示す操作情報をTCP(Transmission Control Protocol)により映像合成装置300に送信する。なお、端末装置100は、PC(Personal Computer)、タブレット端末、携帯電話、スマートフォン、ゲーム機器などによって実現することができるが、本実施形態では、端末装置100がタッチパネルを備えるタブレット端末である場合を例に説明する。
The
撮像装置200は、実空間の映像を撮像し、撮像した映像を映像合成装置300に入力する。また、撮像装置200には、撮像装置200の姿勢を検出する姿勢センサと、撮像した映像の深度を検出する深度センサが備えられる。
The
映像合成装置300は、撮像装置200が撮像する映像にコンピュータグラフィックスのオブジェクトを合成した合成映像を生成し、当該合成映像をUDP(User Datagram Protocol)により端末装置100に送信する。
The video synthesizing
このような構成の拡張現実システムを提供することで、合成映像の閲覧者の各々が合成映像に含まれるオブジェクトの操作を行うことができる。 By providing the augmented reality system having such a configuration, each viewer of the composite video can operate an object included in the composite video.
図2は、端末装置100及び映像合成装置300のソフトウェア構成を示す概略ブロック図である。
端末装置100は、映像受信部101、映像表示部102、オブジェクト表示部103、操作部104、操作情報送信部105を備える。
映像受信部101は、映像合成装置300から合成映像を受信する。
映像表示部102は、映像受信部101が受信した合成映像をタッチパネルに表示する。
オブジェクト表示部103は、操作部104の操作に応じて、合成映像に含まれるオブジェクトを操作するための操作ペインをタッチパネルに表示する。
操作部104は、利用者からタッチパネルのタッチ入力による操作を受け付ける。
操作情報送信部105は、操作部104が受け付けた操作を示す操作情報を映像合成装置300に送信する。操作情報には、操作種別とオプション情報とが含まれる。操作種別とは、合成映像のオブジェクトに対する操作(例えば、オブジェクトの生成、移動、変形、削除など)の種別を示す情報である。オプション情報は、操作種別に応じて必要となる情報である。
FIG. 2 is a schematic block diagram illustrating software configurations of the
The
The
The
The
The
The operation
図3は、端末装置100のユーザインタフェースの例を示す図である。
端末装置100のタッチパネルには、映像受信部101が受信した合成映像と、操作種別を特定するための複数のボタンが表示される。操作部104は、利用者がタッチしたボタンに応じて、操作種別を決定する。操作部104は、利用者がボタンをタッチしたとき、またはボタンをタッチした後に所定のタッチ操作をしたときに、操作情報を生成する。
FIG. 3 is a diagram illustrating an example of a user interface of the
On the touch panel of the
図2に戻り、次に映像合成装置300の構成について説明する。
映像合成装置300は、操作情報受信部301、操作情報記憶部302、座標特定部303、計数部304、オブジェクト決定部305、仮想空間計算部306、映像取得部307、映像合成部308、解像度取得部309、映像送信部310、変更命令入力部311、操作情報変更部312を備える。
Returning to FIG. 2, the configuration of the
The
操作情報受信部301は、端末装置100から操作情報を受信する。
操作情報記憶部302は、操作種別と、操作に用いるオプション情報と、オブジェクトに対する操作の内容とを関連付けて記憶する。
The operation
The operation
図4は、操作情報記憶部302が記憶する情報の例を示す図である。
操作情報記憶部302は、操作種別に関連付けて、オプション情報及び操作の内容を記憶する。
本実施形態では、操作種別「1」を示す操作情報には、オプション情報としてタッチ座標が含まれる。そして、当該操作情報を受信した場合、「タッチ座標に対応する位置に花火オブジェクトを表示させる」という操作を実行する。
また、操作種別「2」を示す操作情報には、オプション情報としてタッチ座標が含まれる。そして、当該操作情報を受信した場合、「タッチされたオブジェクトに関連付けられたアクションを実行する」という操作を実行する。
また、操作種別「3」を示す操作情報には、オプション情報としてタッチ座標が含まれる。そして、当該操作情報を受信した場合、「タッチされたマーカーにエフェクトオブジェクトを表示させる」という操作を実行する。なお、マーカーとは、被写体に取り付けてその三次元座標を特定するための目印となるものである。
また、操作種別「4」を示す操作情報には、オプション情報が含まれない。そして、当該操作情報を受信した場合、「操作情報の受信回数に応じて風船を膨らませる」という操作を実行する。
FIG. 4 is a diagram illustrating an example of information stored in the operation
The operation
In the present embodiment, the operation information indicating the operation type “1” includes touch coordinates as option information. When the operation information is received, an operation of “display a firework object at a position corresponding to the touch coordinates” is executed.
The operation information indicating the operation type “2” includes touch coordinates as option information. When the operation information is received, an operation “execute an action associated with the touched object” is executed.
The operation information indicating the operation type “3” includes touch coordinates as option information. When the operation information is received, an operation of “display effect object on touched marker” is executed. The marker is a mark for attaching to a subject and specifying its three-dimensional coordinates.
The operation information indicating the operation type “4” does not include option information. And when the said operation information is received, operation which "inflates a balloon according to the frequency | count of reception of operation information" is performed.
また、操作種別「5」を示す操作情報には、オプション情報が含まれない。そして、当該操作情報を受信した場合、「所定時間の間に受信した操作情報の数が100以上である場合に応援メッセージを表示させる」という操作を実行する。
また、操作種別「6」を示す操作情報には、オプション情報としてジェスチャ情報が含まれる。そして、当該操作情報を受信した場合、「所定時間の間、ジェスチャ『○』とジェスチャ『×』を受け付け、数が多いものに関連付けられたオブジェクトを表示させる」という操作を実行する。
また、操作種別「7」を示す操作情報には、オプション情報が含まれない。そして、当該操作情報を受信した場合、「表示されているエフェクトオブジェクトを変更させる」という操作を実行する。
また、操作種別「8」を示す操作情報には、オプション情報として関節ID及び角度情報が含まれる。そして、当該操作情報を受信した場合、「対象となるオブジェクトの関節の角度を角度情報が示す角度に変形させる」という操作を実行する。
なお、図4の例では、操作の内容を文章で記載しているが、操作情報記憶部302は、実際にはオブジェクト決定部305に実行させるコマンドスクリプトなどを記憶する。
The operation information indicating the operation type “5” does not include option information. When the operation information is received, an operation of “display a support message when the number of operation information received during a predetermined time is 100 or more” is executed.
The operation information indicating the operation type “6” includes gesture information as option information. Then, when the operation information is received, an operation of “accepting a gesture“ ◯ ”and a gesture“ × ”for a predetermined time and displaying an object associated with a large number of objects” is executed.
The operation information indicating the operation type “7” does not include option information. Then, when the operation information is received, an operation “change the displayed effect object” is executed.
The operation information indicating the operation type “8” includes joint ID and angle information as option information. When the operation information is received, an operation of “deform the joint angle of the target object to the angle indicated by the angle information” is executed.
In the example of FIG. 4, the contents of the operation are written in text, but the operation
図2に戻り、座標特定部303は、操作情報にタッチ座標が含まれる場合、当該タッチ座標が示す仮想空間上の座標を特定する。
計数部304は、所定の操作種別を示す操作情報の受信回数を計数する。
Returning to FIG. 2, when the operation information includes touch coordinates, the coordinate specifying
The
オブジェクト決定部305は、操作情報記憶部302から、操作情報受信部301が受信した操作情報に対して実行すべき操作の内容を特定し、当該操作情報、座標特定部303が特定した座標及び計数部304が計数した受信回数に基づいて、仮想空間上のオブジェクトの位置及び形状を決定する。
仮想空間計算部306は、オブジェクト決定部305が決定した位置及び形状に基づいて仮想空間上のオブジェクトの制御を行う。
The
The virtual
映像取得部307は、撮像装置200から、撮像装置200が撮像した映像、撮像装置200の姿勢情報、及び映像の深度情報を取得する。
映像合成部308は、撮像装置200が撮像した映像と仮想空間計算部306が計算した仮想空間上のオブジェクトとを合成し、合成映像を生成する。
The
The
解像度取得部309は、端末装置100のタッチパネルの解像度を取得する。
映像送信部310は、映像合成部308が合成した合成映像を解像度取得部309が取得した解像度の映像に変換し、当該合成映像を端末装置100に送信する。
The
The
変更命令入力部311は、管理者から操作種別に関連付ける操作の内容を変更する変更命令の入力を受け付ける。変更命令は、変更の対象となる操作種別と変更後の操作の内容とを含む。
操作情報変更部312は、操作情報記憶部302において、変更命令の操作種別に関連付けられた操作の内容を、変更命令の操作の内容に書き換える。
つまり、撮像装置200が撮像した映像の場面の切り替わりのタイミングで、管理者が映像合成装置300に変更命令を入力することで、利用者は、場面にマッチしたオブジェクトの操作を実行することができる。
The change
The operation
That is, when the administrator inputs a change command to the
次に、本実施形態による拡張現実システムの全体的な動作について説明する。
図5は、本実施形態による拡張現実システムの動作を示すシーケンス図である。
まず、端末装置100が映像合成装置300にアクセスすると、映像合成装置300の解像度取得部309は、端末装置100からタッチパネルの解像度を取得する(ステップS1)。
以降、撮像装置200が撮像する映像が終了するまで、以下に示すステップS2〜S13の処理を実行する。
Next, the overall operation of the augmented reality system according to the present embodiment will be described.
FIG. 5 is a sequence diagram showing the operation of the augmented reality system according to the present embodiment.
First, when the
Thereafter, the following processes of steps S2 to S13 are executed until the video imaged by the
映像合成装置300の映像合成部308は、映像取得部307が取得した映像と仮想空間計算部306が計算するオブジェクトとを合成した合成映像を生成する(ステップS2)。映像合成部308が合成映像を生成する手順の一例としては、以下に示すものが挙げられる。まず映像合成部308は、映像取得部307が取得した撮像装置200の姿勢情報に基づいて、仮想空間計算部306が計算したオブジェクトを描画するレンダリングカメラのパラメータを決定する。レンダリングカメラのパラメータとしては、例えば、レンダリングカメラの位置、視線方向、画角などが含まれる。
The
次に、映像合成部308は、映像取得部307が取得した映像の各画素に、撮像装置200の深度センサが検出した深度情報を適用する。次に、映像合成部308は、仮想空間計算部306が計算したオブジェクトのうち、決定したカメラ位置からの深度が、映像の対応する画素の深度より低いもの(手前側に存在するもの)を描画する。これにより、映像合成部308は、合成映像を生成することができる。
Next, the
次に、映像送信部310は、映像合成部308が生成した合成映像のサイズを、解像度取得部309が取得した解像度に合わせて変更する(ステップS3)。次に、映像送信部310は、サイズを変更した合成映像を、端末装置100に送信する(ステップS4)。
Next, the
映像合成装置300が合成映像を送信すると、端末装置100の映像受信部101は、映像合成装置300から合成映像を受信する(ステップS5)。次に、映像表示部102は、映像受信部101が受信した映像をタッチパネルに表示させる(ステップS6)。
次に、操作部104は、利用者からのタッチ操作の入力があるか否かを判定する(ステップS7)。操作部104が、タッチ操作の入力が無いと判定した場合(ステップS7:NO)、端末装置100は、次の合成映像の受信を待機する。
When the
Next, the
他方、操作部104は、タッチ操作の入力があったと判定した場合(ステップS7:YES)、タッチ操作の入力を受け付け、操作情報を生成する(ステップS8)。なお、操作部104がどのようなタッチ操作の入力を受け付け、どのような操作情報を生成するかは、操作種別によって異なる。操作部104が操作情報を生成すると、操作情報送信部105は、生成した操作情報を映像合成装置300に送信する(ステップS9)。
On the other hand, when it is determined that the touch operation has been input (step S7: YES), the
映像合成装置300の操作情報受信部301は、端末装置100から操作情報を受信したか否かを判定する(ステップS10)。端末装置100がステップS7において操作を受け付け、操作情報を送信した場合、映像合成装置300の操作情報受信部301は、操作情報を受信する(ステップS10:YES)。この場合、オブジェクト決定部305は、操作情報受信部301が受信した操作情報の操作種別に関連付けられた操作の内容を、操作情報記憶部302から読み出す(ステップS11)。そして、オブジェクト決定部305は、読み出した操作の内容に従って、オブジェクトの位置及び形状を決定する(ステップS12)。
The operation
オブジェクト決定部305が操作の内容を実行した場合、または端末装置100がステップS7において操作を受け付けなかったために操作情報受信部301が操作情報を受信しなかった場合(ステップS10:NO)、仮想空間計算部306は、仮想空間におけるオブジェクトの位置及び形状を更新する(ステップS13)。そして、ステップS2に戻り、映像合成部308は、合成映像の生成を行う。
When the
このように、本実施形態によれば、映像合成装置300が端末装置100に合成映像を表示させ、映像合成装置300が当該端末装置100からの操作を受け付けることで、オブジェクトの制御を行う。これにより、合成映像の閲覧者に、当該合成映像に含まれるオブジェクトを制御させることができる。
As described above, according to the present embodiment, the
また、本実施形態によれば、映像合成装置300は、端末装置100からタッチパネルの解像度を取得し、当該解像度に合わせた合成映像を端末装置100に送信する。これにより、タッチパネルの解像度の異なる複数の端末に対して適切な合成映像を提供することができる。
Further, according to the present embodiment, the
次に、具体的なオブジェクトの制御についていくつかの例を示す。 Next, some examples of specific object control will be described.
《花火オブジェクトの表示》
図6は、拡張現実システムによる第1の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図6(A)に示すように利用者が「花火」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「花火」ボタンに関連付けられた操作種別(ここでは操作種別「1」)の操作であると特定する。図4に示すとおり、操作種別「1」のオプション情報にはタッチ座標が含まれるため、操作部104は、次に花火オブジェクトを表示させる座標の入力を受け付ける。
《Display fireworks object》
FIG. 6 is a schematic diagram of a first control example by the augmented reality system.
When the user interface shown in FIG. 3 is displayed on the touch panel of the
図6(B)に示すように利用者がタッチパネルのうち合成映像が表示されている範囲内をタッチすると、操作部104は、タッチされた座標(二次元座標)を特定する。これにより、操作部104は、操作種別を「1」とし、オプション情報に特定したタッチ座標を含む操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
これにより、映像合成装置300は、図6(C)に示すように、タッチされた座標に花火オブジェクトを配置した合成映像を生成する。
As shown in FIG. 6B, when the user touches within the range of the touch panel where the synthesized video is displayed, the
As a result, the
ここで、操作種別「1」の操作情報を受信したときの映像合成装置300の動作について説明する。
図7は、映像合成装置300による第1の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「1」の操作の内容を読み出すと、座標特定部303は、操作情報受信部301が受信した操作情報に含まれるタッチ座標と解像度取得部309が取得した解像度とに基づいて、タッチされた座標の相対位置を特定する(ステップS101)。具体的には、タッチ座標のX座標及びY座標をそれぞれX方向の解像度とY方向の解像度で除算することで算出する。
Here, the operation of the
FIG. 7 is a flowchart showing the operation of the first control example by the
When the
次に、座標特定部303は、仮想空間計算部306におけるレンダリングカメラの位置を原点として、視線方向から当該レンダリングカメラの画角に相対位置を乗算して得られる角度だけずらした半直線の式を算出する。当該半直線は、操作情報に含まれるタッチ座標に対応する点の集合に相当する(ステップS102)。次に、座標特定部303は、算出した半直線のうち、レンダリングカメラの位置から所定の長さにある三次元座標を、花火オブジェクトを配置する座標として特定する(ステップS103)。ここで、所定の長さとしては、映像取得部307が取得した深度情報から、撮像範囲全体の深度の平均値や、特定の対象物が存在する位置の深度等が挙げられる。
Next, the coordinate specifying
次に、オブジェクト決定部305は、花火オブジェクトを生成し、当該花火オブジェクトを仮想空間のうち座標特定部303が特定した三次元座標に配置する(ステップS104)。そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図6(C)に示すように花火オブジェクトを含む合成映像を生成することができる。
Next, the
《オブジェクトに対するアクション指示》
図8は、拡張現実システムによる第2の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図8(A)に示すように利用者が「アクション」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「アクション」ボタンに関連付けられた操作種別(ここでは操作種別「2」)の操作であると特定する。図4に示すとおり、操作種別「2」のオプション情報にはタッチ座標が含まれるため、操作部104は、次にアクションを実行させるオブジェクトが存在する座標の入力を受け付ける。
<< Action instructions for objects >>
FIG. 8 is a schematic diagram of a second control example by the augmented reality system.
When the user interface shown in FIG. 3 is displayed on the touch panel of the
図8(B)に示すように利用者がタッチパネルのうち合成映像が表示されている範囲内をタッチすると、操作部104は、タッチされた座標を特定する。これにより、操作部104は、操作種別を「2」とし、オプション情報に特定したタッチ座標を含む操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
これにより、映像合成装置300は、図8(C)に示すように、タッチされた座標に存在するオブジェクトにアクションを実行させた合成映像を生成する。
As shown in FIG. 8B, when the user touches the touch panel within the range where the synthesized video is displayed, the
As a result, as shown in FIG. 8C, the
ここで、操作種別「2」の操作情報を受信したときの映像合成装置300の動作について説明する。
図9は、映像合成装置300による第2の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「2」の操作の内容を読み出すと、座標特定部303は、操作情報受信部301が受信した操作情報に含まれるタッチ座標と解像度取得部309が取得した解像度とに基づいて、タッチされた座標の相対位置を特定する(ステップS201)。
Here, the operation of the
FIG. 9 is a flowchart showing the operation of the second control example by the
When the
次に、座標特定部303は、仮想空間計算部306におけるレンダリングカメラの位置を原点として、視線方向から当該レンダリングカメラの画角に相対位置を乗算して得られる角度だけずらした半直線の式を算出する(ステップS202)。次に、座標特定部303は、仮想空間内に算出した半直線と交差するオブジェクトが存在するか否かを判定する(ステップS303)。
Next, the coordinate specifying
座標特定部303が、半直線と交差するオブジェクトが存在しないと判定した場合(ステップS303:NO)、オブジェクト決定部305は、いずれのオブジェクトの位置及び形状も変更せず、処理を終了する。他方、座標特定部303は、半直線と交差するオブジェクトが存在すると判定した場合(ステップS303:YES)、当該オブジェクトが存在する三次元座標を特定する。そして、オブジェクト決定部305は、座標特定部303が特定した三次元座標上に存在するオブジェクトの位置及び形状を、当該オブジェクトに所定のアクションを実行させた場合の位置及び形状に決定する(ステップS304)。
When the coordinate specifying
そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図8(C)に示すようにオブジェクトが所定のアクションを実行している状態を示す合成映像を生成することができる。
Then, when the virtual
《マーカーにエフェクトオブジェクトを表示》
図10は、拡張現実システムによる第3の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図10(A)に示すように利用者が「エフェクト表示」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「エフェクト表示」ボタンに関連付けられた操作種別(ここでは操作種別「3」)の操作であると特定する。図4に示すとおり、操作種別「3」のオプション情報にはタッチ座標が含まれるため、操作部104は、次にエフェクトを表示させるマーカーが存在する座標の入力を受け付ける。なお、マーカーとは、被写体に取り付けてその三次元座標を特定するための目印となるものである。
《Display effect object on marker》
FIG. 10 is a schematic diagram of a third control example by the augmented reality system.
When the user interface shown in FIG. 3 is displayed on the touch panel of the
図10(B)に示すように利用者がタッチパネルのうち合成映像が表示されている範囲内をタッチすると、操作部104は、タッチされた座標を特定する。これにより、操作部104は、操作種別を「3」とし、オプション情報に特定したタッチ座標を含む操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
これにより、映像合成装置300は、図10(C)に示すように、タッチされた座標の周辺に存在するマーカーの位置に所定のエフェクトオブジェクトを配置した合成映像を生成する。
As shown in FIG. 10B, when the user touches within the range where the synthesized video is displayed on the touch panel, the
As a result, as shown in FIG. 10C, the
ここで、操作種別「3」の操作情報を受信したときの映像合成装置300の動作について説明する。
図11は、映像合成装置300による第3の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「3」の操作の内容を読み出すと、座標特定部303は、操作情報受信部301が受信した操作情報に含まれるタッチ座標と解像度取得部309が取得した解像度とに基づいて、タッチされた座標の相対位置を特定する(ステップS301)。
Here, the operation of the
FIG. 11 is a flowchart showing the operation of the third control example by the
When the
次に、座標特定部303は、特定した相対位置に対応する映像取得部307が取得した映像上の座標を特定する(ステップS302)。ここで、座標特定部303は、映像取得部307が取得した映像に含まれるマーカーの座標を特定し、ステップS302で特定した座標の周辺(例えば、100画素の範囲以内)にマーカーが存在するか否かを判定する(ステップS303)。
Next, the coordinate specifying
座標特定部303が、特定した座標の周辺にマーカーが存在しないと判定した場合(ステップS303:NO)、オブジェクト決定部305は、いずれのオブジェクトの位置及び形状も変更せず、処理を終了する。他方、座標特定部303は、特定した座標の周辺にマーカーが存在すると判定した場合(ステップS303:YES)、映像取得部307が取得した深度情報からマーカーが存在する座標の深度を取得する(ステップS304)。
When the coordinate specifying
次に、座標特定部303は、仮想空間計算部306におけるレンダリングカメラの位置を原点として、視線方向から当該レンダリングカメラの画角に相対位置を乗算して得られる角度だけずらした半直線の式を算出する(ステップS305)。次に、座標特定部303は、算出した半直線のうち、レンダリングカメラの位置からステップS304で特定した深度の位置にあたる三次元座標を、エフェクトオブジェクトを配置する座標として特定する(ステップS306)。
Next, the coordinate specifying
次に、オブジェクト決定部305は、エフェクトオブジェクトを生成し、当該エフェクトオブジェクトを仮想空間のうち座標特定部303が特定した三次元座標に配置する(ステップS307)。そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図10(C)に示すようにエフェクトオブジェクトを含む合成映像を生成することができる。なお、本処理によってエフェクトオブジェクトを追加した以降、仮想空間計算部306は、映像取得部307が取得した映像に含まれるマーカーの位置に追従させるようエフェクトの位置の計算を行う。
Next, the
なお、ここでは、被写体に取り付けて三次元座標を特定するマーカーを用いることで、映像取得部307が取得した映像に含まれる被写体にエフェクトを追従させる方法について説明したが、これに限られない。例えば、エフェクトを追従させる被写体が人物である場合、被写体にマーカーを取り付けることに代えて、被写体の骨構造を推定し、当該骨構造に基づいてエフェクトの位置の計算を行うようにしても良い。被写体の骨構造の推定方法としては、例えば、映像取得部307が取得した映像にパターンマッチングを掛ける方法や、赤外線センサなどにより撮像装置200によって撮像される空間に存在する障害物の三次元座標を算出し、当該三次元座標に基づいて障害物の中から被写体を抽出する方法などが挙げられる。
Here, although a method has been described in which the effect is made to follow the subject included in the video acquired by the
《風船オブジェクトに対するアクション》
図12は、拡張現実システムによる第4の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図12(A)に示すように利用者が「風船」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「風船」ボタンに関連付けられた操作種別(ここでは操作種別「4」)の操作であると特定し、操作種別を「4」とする操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
《Action against balloon object》
FIG. 12 is a schematic diagram of a fourth control example by the augmented reality system.
When the user interface shown in FIG. 3 is displayed on the touch panel of the
そして、全ての端末装置100における「風船」ボタンのタッチ回数の総数が第1の閾値(例えば10回)に達した場合、映像合成装置300は、図12(B)に示すように風船オブジェクトを膨らました合成映像を生成する。さらに、「風船」ボタンのタッチ回数の総数が第2の閾値(例えば100回)に達した場合、映像合成装置300は、図12(C)に示すように風船オブジェクトを破裂させた合成映像を生成する。
When the total number of touches of the “balloon” button in all the
ここで、操作種別「4」の操作情報を受信したときの映像合成装置300の動作について説明する。
図13は、映像合成装置300による第4の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「4」の操作の内容を読み出すと、まずオブジェクト決定部305は、仮想空間計算部306が計算する仮想空間に風船オブジェクトが存在するか否かを判定する(ステップS401)。オブジェクト決定部305は、仮想空間に風船オブジェクトが存在しないと判定した場合(ステップS401:NO)、処理を終了する。
Here, the operation of the
FIG. 13 is a flowchart showing the operation of the fourth control example by the
When the
他方、オブジェクト決定部305が、仮想空間に風船オブジェクトが存在すると判定した場合(ステップS401:YES)、計数部304は、内部メモリに記憶する操作種別「4」の操作情報の受信回数に1を加算する(ステップS402)。
On the other hand, when the
次に、オブジェクト決定部305は、計数部304が計数する操作種別「4」の操作情報の受信回数が第1の閾値に達したか否かを判定する(ステップS403)。オブジェクト決定部305は、受信回数が第1の閾値を達していないと判定した場合(ステップS403:NO)、風船オブジェクトの位置及び形状の変更を行わずに、処理を終了する。他方、オブジェクト決定部305は、受信回数が第1の閾値を達したと判定した場合(ステップS403:YES)、受信回数が第2の閾値に達したか否かを判定する(ステップS404)。
Next, the
オブジェクト決定部305は、受信回数が第2の閾値を達していないと判定した場合(ステップS404:NO)、風船オブジェクトの位置及び形状を、風船オブジェクトが膨らんだときの状態として予め定められた位置及び形状に決定する(ステップS405)。
他方、オブジェクト決定部305は、受信回数が第2の閾値を達したと判定した場合(ステップS404:YES)、風船オブジェクトの位置及び形状を、風船オブジェクトが破裂したときの状態として予め定められた位置及び形状に決定する(ステップS406)。
When the
On the other hand, when the
そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図12(B)や図12(C)に示すように風船オブジェクトの状態が変化した合成映像を生成することができる。
このように、計数部304が計数した値に基づいてオブジェクトの位置及び形状を決定することで、映像合成装置300と通信を行う端末装置100の数が多い場合にも、合成映像に表示させるオブジェクトが煩雑にならないようにすることができる。
Then, the virtual
In this way, by determining the position and shape of the object based on the value counted by the
《応援アクション》
図14は、拡張現実システムによる第5の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図14(B)に示すように利用者が「応援」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「応援」ボタンに関連付けられた操作種別(ここでは操作種別「5」)の操作であると特定し、操作種別を「5」とする操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
《Support action》
FIG. 14 is a schematic diagram of a fifth control example by the augmented reality system.
When the user interface shown in FIG. 3 is displayed on the touch panel of the
ここで、「応援」ボタンをタッチする場面について説明する。
映像合成装置300の映像合成部308は、図14(A)に示すように「READY…」の文字を表示し、その所定時間後に、図14(B)に示すように「CHEER!」の文字を表示する合成映像を生成する。そして、映像合成装置300は、合成映像に「CHEER!」の文字が表示されるタイミングで「応援」ボタンがタッチされた数が所定の閾値(例えば、100回)に達する場合に、図12(C)に示すように所定のエフェクトオブジェクトを配置した合成映像を生成するというものである。
Here, a scene where the “support” button is touched will be described.
The
ここで、操作種別「5」の操作情報を受信したときの映像合成装置300の動作について説明する。
図15は、映像合成装置300による第5の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「5」の操作の内容を読み出すと、計数部304は、現在時刻が、映像合成部308が「CHEER!」の文字を含む合成映像を生成してから所定の制限時間(例えば、1秒)内の時刻であるか否かを判定する(ステップS501)。計数部304が、現在時刻が所定の制限時間内の時刻でないと判定した場合(ステップS501:NO)、処理を終了する。
Here, the operation of the
FIG. 15 is a flowchart showing the operation of the fifth control example by the
When the
他方、計数部304は、現在時刻が所定の制限時間内の時刻であると判定した場合(ステップS501:YES)、内部メモリに記憶する操作種別「5」の操作情報の受信回数に1を加算する(ステップS502)。
On the other hand, when the
次に、オブジェクト決定部305は、計数部304が計数する操作種別「5」の操作情報の受信回数が所定の閾値に達したか否かを判定する(ステップS503)。オブジェクト決定部305は、受信回数が所定の閾値を達していないと判定した場合(ステップS503:NO)、いずれのオブジェクトの位置及び形状の変更も行わずに、処理を終了する。
Next, the
他方、オブジェクト決定部305は、受信回数が所定の閾値を達したと判定した場合(ステップS503:YES)、エフェクトオブジェクトを生成し、当該エフェクトオブジェクトを所定の位置に配置する(ステップS504)。そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図14(C)に示すように所定のタイミングにおいて「応援」ボタンのタッチ数が所定数に達した場合に、エフェクトオブジェクトを含む合成映像を生成することができる。
On the other hand, when the
《○×ジェスチャ入力》
図16は、拡張現実システムによる第6の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図16(A)に示すように利用者が「○×」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「○×」ボタンに関連付けられた操作種別(ここでは操作種別「6」)の操作であると特定する。図4に示すとおり、操作種別「6」のオプション情報にはジェスチャ情報が含まれるため、操作部104は、次にタッチ操作によるジェスチャの入力を受け付ける。
《○ × gesture input》
FIG. 16 is a schematic diagram of a sixth control example by the augmented reality system.
When the user interface shown in FIG. 3 is displayed on the touch panel of the
図16(B)に示すように利用者がタッチパネルにおいて所定のタッチ操作を行うと、操作部104は、タッチ操作の軌跡を特定し、当該軌跡が予め定められたジェスチャ(例えば、○、×)のうちいずれのジェスチャに該当するかを特定する。そして、操作部104は、操作種別を「6」とし、オプション情報に特定したジェスチャを示すジェスチャ情報を含む操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
これにより、映像合成装置300は、図16(C)に示すように、ジェスチャ情報が示す入力の多数決の結果を示すオブジェクトを含む合成映像を生成する。
As shown in FIG. 16B, when the user performs a predetermined touch operation on the touch panel, the
As a result, the
ここで、操作種別「6」の操作情報を受信したときの映像合成装置300の動作について説明する。
図17は、映像合成装置300による第6の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「6」の操作の内容を読み出すと、計数部304は、受信した操作情報のジェスチャ情報を読み出し、該当するジェスチャ情報(○または×)の受付数に1を加算する(ステップS601)。
次に、計数部304は、現在時刻が操作種別「6」の操作情報の受け付けの締め切り時刻に達したか否かを判定する(ステップS602)。計数部304は、現在時刻が操作種別「6」の操作情報の受け付けの締め切り時刻に達していないと判定した場合(ステップS602:NO)、処理を終了する。
Here, the operation of the
FIG. 17 is a flowchart showing the operation of the sixth control example by the
When the
Next, the
他方、計数部304が、現在時刻が操作種別「6」の操作情報の受け付けの締め切り時刻に達したと判定した場合(ステップS602:YES)、オブジェクト決定部305は、計数部304が受付数を計数した受付数が最も多いジェスチャ情報を特定する(ステップS603)。そして、オブジェクト決定部305は、特定したジェスチャ情報に対応するオブジェクト(例えば、図16(C)の文字オブジェクト「YES」など)を生成し、当該エフェクトオブジェクトを所定の位置に配置する(ステップS604)。
On the other hand, when the
そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図16(C)に示すようにジェスチャ情報に対応するオブジェクトを含む合成映像を生成することができる。
Then, when the virtual
《エフェクトオブジェクトの変更》
図18は、拡張現実システムによる第7の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図18(A)に示すように利用者が「エフェクト変更」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「エフェクト変更」ボタンに関連付けられた操作種別(ここでは操作種別「7」)の操作であると特定し、操作種別を「7」とする操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
これにより、映像合成装置300は、図18(B)に示すように、エフェクトオブジェクトを変更した合成映像を生成する。
《Change effect object》
FIG. 18 is a schematic diagram of a seventh control example by the augmented reality system.
When the user interface shown in FIG. 3 is displayed on the touch panel of the
As a result, the
ここで、操作種別「7」の操作情報を受信したときの映像合成装置300の動作について説明する。
図19は、映像合成装置300による第7の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「7」の操作の内容を読み出すと、まずオブジェクト決定部305は、仮想空間計算部306が計算する仮想空間にエフェクトオブジェクトが存在するか否かを判定する(ステップS701)。オブジェクト決定部305は、仮想空間にエフェクトオブジェクトが存在しないと判定した場合(ステップS701:NO)、処理を終了する。
Here, the operation of the
FIG. 19 is a flowchart showing the operation of the seventh control example by the
When the
他方、オブジェクト決定部305が、仮想空間にエフェクトオブジェクトが存在すると判定した場合(ステップS701:YES)、当該エフェクトオブジェクトの形状を、予め定められた他の形状に決定する(ステップS702)。
On the other hand, when the
そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図18(B)に示すようにエフェクトオブジェクトが変化した合成映像を生成することができる。
Then, when the virtual
《キャラクタオブジェクトの操作》
図20は、拡張現実システムによる第8の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図20(A)に示すように利用者が「キャラクタ操作」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「キャラクタ操作」ボタンに関連付けられた操作種別(ここでは操作種別「8」)の操作であると特定する。
<Manipulating character objects>
FIG. 20 is a schematic diagram of an eighth control example by the augmented reality system.
When the user interface shown in FIG. 3 is displayed on the touch panel of the
次に、オブジェクト表示部103は、映像受信部101が受信した映像に含まれるキャラクタオブジェクトを含む操作ペインをタッチパネルに表示する。操作ペインには、キャラクタオブジェクトに重畳して、当該キャラクタオブジェクトの関節と関節間のつながりを示すリンク線が提示される。また、操作ペインには、キャラクタオブジェクトを回転させる回転ボタンが含まれる。
Next, the
ここで、図6(B)に示すように利用者がタッチパネルに表示された操作ペイン上のキャラクタオブジェクトをタッチすると、操作部104は、タッチされたキャラクタオブジェクトの部位の基準となる関節の関節IDを特定する。そして、利用者がキャラクタオブジェクトをドラッグ操作すると、操作部104は、当該ドラッグ操作の移動量に対応する関節の回転角を算出する。そして、操作部104は、操作種別を「8」とし、オプション情報に特定した関節ID及び回転角を含む操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
Here, as shown in FIG. 6B, when the user touches the character object on the operation pane displayed on the touch panel, the
ここで、操作種別「8」の操作情報を受信したときの映像合成装置300の動作について説明する。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「8」の操作の内容を読み出すと、オブジェクト決定部305は、対応するキャラクタオブジェクトの関節のうち、操作情報に含まれる関節IDが示すものを、操作情報に含まれる角度情報が示す角度だけ回転させる。つまり、オブジェクト決定部305は、利用者によるドラッグ操作においてドラッグされたオブジェクトの一部の位置及び形状を、ドラッグ後の位置及び形状に変更する。そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、利用者の操作と同期してオブジェクトの位置及び形状を変化させた合成映像を生成する。
Here, the operation of the
When the
なお、利用者が操作ペイン上の回転ボタンをタッチすると、オブジェクト表示部103は、当該タッチに応じて操作ペイン内のオブジェクトを描画するレンダリングカメラの回転角を増減させることで、操作ペイン内のキャラクタオブジェクトを回転させる。これにより、利用者は、キャラクタオブジェクトの形状を高さ方向、幅方向に加えて奥行き方向に変化させる操作を行うことができる。なお、ここでは回転ボタンのタッチにより操作ペイン内のキャラクタオブジェクトを回転させる例について説明したが、これに限られず、レンダリングカメラの位置や画角など、その他のパラメータを変更するボタンを備える構成としても良い。
When the user touches the rotation button on the operation pane, the
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
例えば、合成映像の操作は上述した8つの制御例に限られず、その他の制御を行っても良い。
As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to
For example, the operation of the composite video is not limited to the eight control examples described above, and other controls may be performed.
また、本実施形態では、映像合成装置300と通信を行う端末装置100が複数存在する場合について説明したが、これに限られず、映像合成装置300は1つの端末装置100と通信を行うものであっても良い。
In this embodiment, the case where there are a plurality of
また、本実施形態では、管理者が映像合成装置300に変更命令を直接入力する場合について説明したが、これに限られず、ネットワークを介して接続される外部装置を介して入力するものであっても良い。
Further, in the present embodiment, the case where the administrator directly inputs a change command to the
また、本実施形態では、端末装置100が操作情報をTCPにより映像合成装置300に送信し、映像合成装置300がUDPにより合成映像を端末装置100に送信する場合について説明したが、これに限られない。例えば、端末装置100は、UDPやその他のプロトコルに従って操作情報を送信しても良いし、映像合成装置300は、TCPやその他のプロトコルに従って合成映像を送信しても良い。
In the present embodiment, the case has been described in which the
なお、上述の端末装置100及び映像合成装置300はそれぞれ内部に、コンピュータシステムを有している。そして、上述した各処理部の動作は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
Note that the
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.
100…端末装置 101…映像受信部 102…映像表示部 103…オブジェクト表示部 104…操作部 105…操作情報送信部 200…撮像装置 300…映像合成装置 301…操作情報受信部 302…操作情報記憶部 303…座標特定部 304…計数部 305…オブジェクト決定部 306…仮想空間計算部 307…映像取得部 308…映像合成部 309…解像度取得部 310…映像送信部 311…変更命令入力部 312…操作情報変更部
DESCRIPTION OF
Claims (7)
前記端末装置は、
前記映像合成装置から合成映像を受信する映像受信部と、
前記映像受信部が受信した合成映像を表示する映像表示部と、
前記映像表示部に表示された合成映像に対する操作を示す操作情報として所定の操作を実行させる前記映像表示部が表示する合成映像上の二次元座標の指定を受け付ける操作部と、
前記操作部が受け付けた操作情報を前記映像合成装置に送信する操作情報送信部と
を備え、
前記映像合成装置は、
前記複数の端末装置から前記操作情報を受信する操作情報受信部と、
前記撮像装置が撮像した映像における前記操作情報が示す二次元座標の周辺の所定の範囲内にマーカーが存在する場合、当該マーカーが存在する三次元座標を特定する座標特定部と、
前記座標特定部が特定した三次元座標が示す位置にオブジェクトを配置するオブジェクト決定部と、
前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部と、
前記映像合成部が生成した合成映像を、前記複数の端末装置に送信する映像送信部と
を備えることを特徴とする拡張現実システム。 An augmented reality system comprising: a video composition device that generates a composite video of a video captured by an imaging device and a computer graphics object; and a plurality of terminal devices that display the composite video,
The terminal device
A video receiver for receiving a composite video from the video synthesizer;
A video display unit for displaying the composite video received by the video receiving unit;
An operation unit that accepts designation of two-dimensional coordinates on the composite video displayed by the video display unit that performs a predetermined operation as operation information indicating an operation on the composite video displayed on the video display unit;
An operation information transmission unit that transmits operation information received by the operation unit to the video composition device;
The video composition device
An operation information receiving unit for receiving the operation information from the plurality of terminal devices;
When a marker is present within a predetermined range around the two-dimensional coordinate indicated by the operation information in the image captured by the imaging device, a coordinate specifying unit that specifies the three-dimensional coordinate where the marker exists;
An object determining unit that arranges an object at a position indicated by the three-dimensional coordinates specified by the coordinate specifying unit;
A video synthesis unit that synthesizes an object placed in the virtual space with a video captured by the imaging device;
An augmented reality system comprising: a video transmission unit configured to transmit the composite video generated by the video synthesis unit to the plurality of terminal devices.
ことを特徴とする請求項1に記載の拡張現実システム。 The coordinate specifying unit is configured to generate a three-dimensional map in the virtual space corresponding to the two-dimensional coordinates indicated by the operation information based on the two-dimensional coordinates indicated by the operation information and the display resolution of the terminal device that is the transmission source of the operation information. The augmented reality system according to claim 1, wherein coordinates are specified.
前記映像送信部は、前記映像合成部が生成した合成映像を、前記解像度取得部が取得した解像度に変換して前記端末装置に送信する
ことを特徴とする請求項1または請求項2に記載の拡張現実システム。 The video composition device includes a resolution acquisition unit that acquires the display resolution of the terminal device from the plurality of terminal devices,
The video transmitting unit, a combined image in which the image combining unit has generated, by converting the resolution the resolution acquiring unit has acquired as claimed in claim 1 or claim 2, characterized in that transmitting to the terminal device Augmented reality system.
ことを特徴とする請求項1から請求項3の何れか1項に記載の拡張現実システム。 The augmented reality according to any one of claims 1 to 3 , wherein the operation unit receives an input of a touch operation on a touch panel and specifies operation information corresponding to a locus of the touch operation. system.
複数の端末装置から前記合成映像上の二次元座標の指定を示す操作情報を受信する操作情報受信部と、
前記撮像装置が撮像した映像における前記操作情報が示す二次元座標の周辺の所定の範囲内にマーカーが存在する場合、当該マーカーが存在する三次元座標を特定する座標特定部と、
前記座標特定部が特定した三次元座標が示す位置にオブジェクトを配置するオブジェクト決定部と、
前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部と、
前記映像合成部が生成した合成映像を、前記複数の端末装置に送信する映像送信部と
を備えることを特徴とする映像合成装置。 A video compositing device that generates a composite video of an image captured by an imaging device and a computer graphics object,
An operation information receiving unit for receiving operation information indicating designation of two-dimensional coordinates on the composite video from a plurality of terminal devices;
When a marker is present within a predetermined range around the two-dimensional coordinate indicated by the operation information in the image captured by the imaging device, a coordinate specifying unit that specifies the three-dimensional coordinate where the marker exists;
An object determining unit that arranges an object at a position indicated by the three-dimensional coordinates specified by the coordinate specifying unit;
A video synthesis unit that synthesizes an object placed in the virtual space with a video captured by the imaging device;
A video synthesizing apparatus comprising: a video transmitting unit configured to transmit the synthesized video generated by the video synthesizing unit to the plurality of terminal devices.
前記映像合成装置が、前記撮像装置が撮像した映像における前記操作情報が示す二次元座標の周辺の所定の範囲内にマーカーが存在する場合、当該マーカーが存在する三次元座標を特定し、
前記映像合成装置が、特定した三次元座標が示す位置にオブジェクトを配置し、
前記映像合成装置が、前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成し、
前記映像合成装置が、前記生成した合成映像を前記複数の端末装置に送信する
ことを特徴とする映像合成方法。 A video composition device that generates a composite image of the image captured by the imaging device and a computer graphics object, receives operation information indicating designation of two-dimensional coordinates on the composite image from a plurality of terminal devices;
When the video composition device has a marker within a predetermined range around the two-dimensional coordinate indicated by the operation information in the video imaged by the imaging device, the three-dimensional coordinate where the marker exists is specified,
The video composition device places an object at a position indicated by the identified three-dimensional coordinates,
The video composition device synthesizes an object arranged in the virtual space with a video imaged by the imaging device,
The video composition method, wherein the video composition device transmits the generated composite video to the plurality of terminal devices.
複数の端末装置から前記合成映像上の二次元座標の指定を示す操作情報を受信する操作情報受信部、
前記撮像装置が撮像した映像における前記操作情報が示す二次元座標の周辺の所定の範囲内にマーカーが存在する場合、当該マーカーが存在する三次元座標を特定する座標特定部、
前記座標特定部が特定した三次元座標が示す位置にオブジェクトを配置するオブジェクト決定部、
前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部、
前記映像合成部が生成した合成映像を、前記複数の端末装置に送信する映像送信部
として機能させるためのプログラム。 Computer
An operation information receiving unit that receives operation information indicating designation of two-dimensional coordinates on the composite video from a plurality of terminal devices,
When a marker is present within a predetermined range around the two-dimensional coordinate indicated by the operation information in the image captured by the imaging device, a coordinate specifying unit that specifies the three-dimensional coordinate where the marker exists,
An object determining unit that arranges an object at a position indicated by the three-dimensional coordinates specified by the coordinate specifying unit;
A video synthesis unit that synthesizes an object placed in the virtual space with a video captured by the imaging device;
A program for causing a synthesized video generated by the video synthesizing unit to function as a video transmitting unit that transmits the synthesized video to the plurality of terminal devices.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012187747A JP5568610B2 (en) | 2012-08-28 | 2012-08-28 | Augmented reality system, video composition device, video composition method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012187747A JP5568610B2 (en) | 2012-08-28 | 2012-08-28 | Augmented reality system, video composition device, video composition method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014044655A JP2014044655A (en) | 2014-03-13 |
JP5568610B2 true JP5568610B2 (en) | 2014-08-06 |
Family
ID=50395857
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012187747A Active JP5568610B2 (en) | 2012-08-28 | 2012-08-28 | Augmented reality system, video composition device, video composition method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5568610B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11494986B2 (en) | 2017-04-20 | 2022-11-08 | Samsung Electronics Co., Ltd. | System and method for two dimensional application usage in three dimensional virtual reality environment |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015230685A (en) * | 2014-06-06 | 2015-12-21 | 株式会社ソニー・コンピュータエンタテインメント | Image processor, image processing system, terminal device, image processing method and image processing program |
WO2015186402A1 (en) * | 2014-06-06 | 2015-12-10 | 株式会社ソニー・コンピュータエンタテインメント | Image processing device, image processing method, and image processing program |
EP3790284A1 (en) * | 2014-10-22 | 2021-03-10 | Huawei Technologies Co., Ltd. | Interactive video generation |
JP6777089B2 (en) | 2015-11-04 | 2020-10-28 | ソニー株式会社 | Information processing equipment, information processing methods and programs |
JP6275310B1 (en) * | 2017-05-26 | 2018-02-07 | 株式会社テクテック | Augmented reality display system, program and method |
JP7038602B2 (en) * | 2018-05-28 | 2022-03-18 | 株式会社 ディー・エヌ・エー | Systems, methods, and programs for creating videos |
JP2020021225A (en) * | 2018-07-31 | 2020-02-06 | 株式会社ニコン | Display control system, display control method, and display control program |
WO2023017627A1 (en) * | 2021-08-10 | 2023-02-16 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3377304B2 (en) * | 1994-07-05 | 2003-02-17 | 株式会社ナムコ | Game device |
JP4262011B2 (en) * | 2003-07-30 | 2009-05-13 | キヤノン株式会社 | Image presentation method and apparatus |
JP4244040B2 (en) * | 2005-03-10 | 2009-03-25 | 任天堂株式会社 | Input processing program and input processing apparatus |
JP2006270690A (en) * | 2005-03-25 | 2006-10-05 | Funai Electric Co Ltd | Data transmission system |
JP2012048597A (en) * | 2010-08-30 | 2012-03-08 | Univ Of Tokyo | Mixed reality display system, image providing server, display device and display program |
-
2012
- 2012-08-28 JP JP2012187747A patent/JP5568610B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11494986B2 (en) | 2017-04-20 | 2022-11-08 | Samsung Electronics Co., Ltd. | System and method for two dimensional application usage in three dimensional virtual reality environment |
Also Published As
Publication number | Publication date |
---|---|
JP2014044655A (en) | 2014-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5568610B2 (en) | Augmented reality system, video composition device, video composition method, and program | |
JP5145444B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP5942456B2 (en) | Image processing apparatus, image processing method, and program | |
WO2014188798A1 (en) | Display control device, display control method, and recording medium | |
WO2014188797A1 (en) | Display control device, display control method, and recording medium | |
CN111045511B (en) | Gesture-based control method and terminal equipment | |
US20130057574A1 (en) | Storage medium recorded with program, information processing apparatus, information processing system, and information processing method | |
JP2014021570A (en) | Moving image generation device | |
GB2507510A (en) | Server-supported augmented reality with differential image region compression | |
JP7353782B2 (en) | Information processing device, information processing method, and program | |
US20210274145A1 (en) | Methods, systems, and media for generating and rendering immersive video content | |
US20210082084A1 (en) | Virtual object translation | |
WO2020149270A1 (en) | Method for generating 3d object arranged in augmented reality space | |
CN111161396B (en) | Virtual content control method, device, terminal equipment and storage medium | |
JP2017033294A (en) | Three-dimensional drawing system and three-dimensional drawing program | |
KR20210046759A (en) | Image display methods, devices and systems | |
WO2021196973A1 (en) | Virtual content display method and apparatus, and electronic device and storage medium | |
CN109814704B (en) | Video data processing method and device | |
WO2016102948A1 (en) | Coherent touchless interaction with stereoscopic 3d images | |
CN114816088A (en) | Online teaching method, electronic equipment and communication system | |
JP5326816B2 (en) | Remote conference system, information processing apparatus, and program | |
KR20130127704A (en) | Method for view point remote control in video telephone system | |
JP2017084215A (en) | Information processing system, control method thereof, and program | |
JP2016115230A (en) | Information processing apparatus, information processing system, control method thereof, and program | |
JP2013152642A (en) | Terminal device, display system, control method of terminal device, control program of terminal device and recording medium storing the control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140318 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140507 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20140520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140610 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140623 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5568610 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |