JP5568610B2 - Augmented reality system, video composition device, video composition method, and program - Google Patents

Augmented reality system, video composition device, video composition method, and program Download PDF

Info

Publication number
JP5568610B2
JP5568610B2 JP2012187747A JP2012187747A JP5568610B2 JP 5568610 B2 JP5568610 B2 JP 5568610B2 JP 2012187747 A JP2012187747 A JP 2012187747A JP 2012187747 A JP2012187747 A JP 2012187747A JP 5568610 B2 JP5568610 B2 JP 5568610B2
Authority
JP
Japan
Prior art keywords
video
unit
operation information
composite
video composition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012187747A
Other languages
Japanese (ja)
Other versions
JP2014044655A (en
Inventor
和紀 山路
Original Assignee
株式会社プレミアムエージェンシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社プレミアムエージェンシー filed Critical 株式会社プレミアムエージェンシー
Priority to JP2012187747A priority Critical patent/JP5568610B2/en
Publication of JP2014044655A publication Critical patent/JP2014044655A/en
Application granted granted Critical
Publication of JP5568610B2 publication Critical patent/JP5568610B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

映像とコンピュータグラフィックスのオブジェクトとの合成映像を提供する拡張現実システム、当該拡張現実システムが備える映像合成装置、並びに当該拡張現実システムによる映像合成方法及びそのプログラムに関する。 Augmented reality system for providing a combined image of the video and computer graphics objects, the augmented reality system is Ru with movies image synthesis apparatus, as well as movies image synthesis method and a program that by the the augmented reality system.

近年、撮像装置が撮像した実空間の映像と、コンピュータグラフィックスによって表現される仮想空間のオブジェクトとを合成する「拡張現実(AR:Augmented Reality)」という技術が研究されている(例えば、非特許文献1を参照)。   In recent years, a technique called “augmented reality (AR)” that synthesizes an image of a real space captured by an imaging device and an object of a virtual space expressed by computer graphics has been studied (for example, non-patented). Reference 1).

具体的には、映像合成装置が、撮像装置が撮像した映像と仮想空間のオブジェクトをレンダリングした画像とを合成することで拡張現実を実現した合成映像を生成することで実現する。このとき、映像合成装置は、撮像装置に取り付けられたロータリエンコーダなどの姿勢センサから取得した情報に基づいて仮想空間におけるカメラ情報を変更することで、撮像装置の動きにオブジェクトを追従させた合成映像を生成することができる。また、撮像装置が所定のマーカーを含む映像を撮像し、映像合成装置が当該映像からマーカーの位置を特定することで、マーカーが存在する場所に所定のオブジェクトを表示させることができる。なお、マーカーとは、被写体に取り付けてその三次元座標を特定するための目印となるものである。   Specifically, it is realized by generating a composite video that realizes augmented reality by the video composition device combining the video captured by the imaging device and the image obtained by rendering the object in the virtual space. At this time, the video composition device changes the camera information in the virtual space based on information acquired from a posture sensor such as a rotary encoder attached to the image capture device, thereby causing the object to follow the movement of the image capture device. Can be generated. In addition, the imaging device captures an image including a predetermined marker, and the video composition device identifies the position of the marker from the video, whereby a predetermined object can be displayed at a place where the marker exists. The marker is a mark for attaching to a subject and specifying its three-dimensional coordinates.

このような拡張現実システムにおけるオブジェクトの動作の制御方法としては、オブジェクトの動作を予め決めておく方法、映像に含まれるマーカーにオブジェクトを追従させる方法、モーションキャプチャにより得られる動作をオブジェクトに適用する方法などが挙げられる。   As a method for controlling the movement of an object in such an augmented reality system, a method for determining the movement of the object in advance, a method for causing the object to follow the marker included in the video, and a method for applying the movement obtained by motion capture to the object Etc.

小島 一成、外4名、リアルタイム伝送技術を用いたキャラクター表示システムの構築、「情報処理学会研究報告.グラフィクスとCAD研究会報告」、一般社団法人情報処理学会、2011年6月20日Kazunari Kojima, 4 others, construction of character display system using real-time transmission technology, "Information Processing Society Research Report. Graphics and CAD Research Report", Information Processing Society of Japan, June 20, 2011

近年、拡張現実システムをインタラクティブに制御したいという要望がある。つまり、合成映像の閲覧者に、当該合成映像に含まれるオブジェクトを制御させたいという要望がある。しかしながら、上述したオブジェクトの動作の制御方法は、閲覧者からの入力を受け付けるものではなく、インタラクティブな制御を行うことができないという問題がある。また、合成映像の閲覧者にモーションキャプチャを適用することも考えられるが、システムが大掛かりとなってしまうという問題がある。   In recent years, there is a desire to interactively control an augmented reality system. That is, there is a demand for the viewer of the composite video to control the object included in the composite video. However, the above-described method for controlling the movement of an object does not accept an input from a viewer, and there is a problem that interactive control cannot be performed. In addition, although it is conceivable to apply motion capture to the viewer of the composite video, there is a problem that the system becomes large.

本発明は上記の課題を解決するためになされたものであり、撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置と、前記合成映像を表示する複数の端末装置とを備える拡張現実システムであって、前記端末装置は、前記映像合成装置から合成映像を受信する映像受信部と、前記映像受信部が受信した合成映像を表示する映像表示部と、前記映像表示部に表示された合成映像に対する操作を示す操作情報の入力を受け付ける操作部と、前記操作部が受け付けた操作情報を前記映像合成装置に送信する操作情報送信部とを備え、前記映像合成装置は、前記複数の端末装置から前記操作情報を受信する操作情報受信部と、前記操作情報受信部が前記複数の端末装置から受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を変更するオブジェクト決定部と、前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部と、前記映像合成部が生成した合成映像を、前記複数の端末装置に送信する映像送信部とを備えることを特徴とする。 The present invention has been made in order to solve the above-described problems, and includes a video composition device that generates a composite video image of a video image captured by an imaging device and a computer graphics object, and a plurality of terminals that display the composite video image. An augmented reality system comprising: a video reception unit that receives a composite video from the video synthesis device; a video display unit that displays a composite video received by the video reception unit; and the video An operation unit that receives an input of operation information indicating an operation on the composite video displayed on the display unit; and an operation information transmission unit that transmits the operation information received by the operation unit to the video composition device. It is based on the operation information receiving unit from a plurality of terminal devices to receive the operation information, the operation information the operation information receiving unit has received from the plurality of terminal devices An object determination unit for changing the position and shape in the virtual space of the objects have the video combining unit, wherein the imaging device arranged in the virtual space object is synthesized video imaged, synthesis the image synthesizing unit has generated A video transmission unit configured to transmit the video to the plurality of terminal devices.

また、本発明において前記座標特定部は、前記撮像装置が撮像した映像における前記操作情報が示す二次元座標の周辺の所定の範囲内にマーカーが存在する場合、当該マーカーが存在する三次元座標を特定し、前記オブジェクト決定部は、前記座標特定部が特定した三次元座標が示す位置にオブジェクトを配置することを特徴とする。   In the present invention, when the marker is present within a predetermined range around the two-dimensional coordinate indicated by the operation information in the image captured by the imaging device, the coordinate specifying unit displays the three-dimensional coordinate where the marker exists. In particular, the object determination unit places the object at a position indicated by the three-dimensional coordinates specified by the coordinate specification unit.

また、本発明において前記座標特定部は、前記操作情報が示す二次元座標と当該操作情報の送信元の端末装置のディスプレイ解像度とに基づいて、前記操作情報が示す二次元座標に対応する前記仮想空間上の三次元座標を特定することを特徴とする。   Further, in the present invention, the coordinate specifying unit is configured to generate the virtual corresponding to the two-dimensional coordinate indicated by the operation information based on the two-dimensional coordinate indicated by the operation information and a display resolution of a terminal device that is a transmission source of the operation information. It is characterized by specifying three-dimensional coordinates in space.

また、本発明において前記映像合成装置は、前記複数の端末装置から当該端末装置のディスプレイ解像度を取得する解像度取得部を備え、前記映像送信部は、前記映像合成部が生成した合成映像を、前記解像度取得部が取得した解像度に変換して前記端末装置に送信することを特徴とする。 Further, in the present invention, the video composition device includes a resolution acquisition unit that acquires the display resolution of the terminal device from the plurality of terminal devices, and the video transmission unit generates the composite video generated by the video composition unit, The resolution is acquired by the resolution acquisition unit and transmitted to the terminal device.

また、本発明において前記操作部は、タッチパネル上のタッチ操作の入力を受け付け、当該タッチ操作の軌跡に対応する操作情報を特定することを特徴とする。   In the present invention, the operation unit receives an input of a touch operation on the touch panel and specifies operation information corresponding to a locus of the touch operation.

また、本発明は、撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置であって、複数の端末装置から前記合成映像に対する操作を示す操作情報を受信する操作情報受信部と、前記操作情報受信部が前記複数の端末装置から受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を変更するオブジェクト決定部と、前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部と、前記映像合成部が生成した合成映像を、前記複数の端末装置に送信する映像送信部とを備えることを特徴とする。 In addition, the present invention is a video composition device that generates a composite image of a video image captured by an imaging device and a computer graphics object, and an operation for receiving operation information indicating an operation on the composite image from a plurality of terminal devices. An information receiving unit, an object determining unit that changes the position and shape of the object in the virtual space based on the operation information received from the plurality of terminal devices by the operation information receiving unit, and an object arranged in the virtual space A video composition unit that synthesizes the video imaged by the imaging device, and a video transmission unit that transmits the composite video generated by the video composition unit to the plurality of terminal devices.

また、本発明は、撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置が、複数の端末装置から前記合成映像に対する操作を示す操作情報を受信し、前記映像合成装置が、前記複数の端末装置から受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を変更し、前記映像合成装置が、前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成し、前記映像合成装置が、前記生成した合成映像を前記複数の端末装置に送信することを特徴とする映像合成方法である。 Further, according to the present invention, a video composition device that generates a composite video of a video imaged by an imaging device and a computer graphics object receives operation information indicating an operation on the composite video from a plurality of terminal devices, and the video The composition device changes the position and shape of the object in the virtual space based on the operation information received from the plurality of terminal devices, and the image composition device captures the object arranged in the virtual space. The video synthesizing method is characterized in that the video synthesizing device transmits the generated synthesized video to the plurality of terminal devices.

また、本発明は、コンピュータを、複数の端末装置から、撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像に対する操作を示す操作情報を受信する操作情報受信部、前記操作情報受信部が前記複数の端末装置から受信した操作情報に基づいて前記オブジェクトの仮想空間における位置及び形状を変更するオブジェクト決定部、前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部、前記映像合成部が生成した合成映像を、前記複数の端末装置に送信する映像送信部として機能させるためのプログラムである。 According to another aspect of the present invention, there is provided an operation information receiving unit that receives, from a plurality of terminal devices, operation information indicating operation on a composite video of a video image captured by an imaging device and a computer graphics object, and the operation information receiving unit. An object determination unit that changes the position and shape of the object in the virtual space based on the operation information received from the plurality of terminal devices, and a video that synthesizes the object arranged in the virtual space with the video captured by the imaging device It is a program for causing a synthesizing unit and a synthesized video generated by the video synthesizing unit to function as a video transmitting unit that transmits to the plurality of terminal devices.

本発明によれば、端末装置に合成映像を表示させ、映像合成装置が当該端末装置からの操作を受け付けることで、オブジェクトの制御を行う。これにより、合成映像の閲覧者に、当該合成映像に含まれるオブジェクトを制御させることができる。   According to the present invention, a synthesized video is displayed on a terminal device, and the video synthesizer receives an operation from the terminal device to control an object. As a result, the viewer of the composite video can control the objects included in the composite video.

本発明の一実施形態による拡張現実システムの構成を示す概略図である。It is the schematic which shows the structure of the augmented reality system by one Embodiment of this invention. 端末装置及び映像合成装置のソフトウェア構成を示す概略ブロック図である。It is a schematic block diagram which shows the software structure of a terminal device and a video synthesizing | combining apparatus. 端末装置のユーザインタフェースの例を示す図である。It is a figure which shows the example of the user interface of a terminal device. 操作情報記憶部が記憶する情報の例を示す図である。It is a figure which shows the example of the information which an operation information storage part memorize | stores. 本実施形態による拡張現実システムの動作を示すシーケンス図である。It is a sequence diagram which shows operation | movement of the augmented reality system by this embodiment. 拡張現実システムによる第1の制御例の概略図である。It is the schematic of the 1st example of control by an augmented reality system. 映像合成装置による第1の制御例の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 1st control example by a video synthesizing | combining apparatus. 拡張現実システムによる第2の制御例の概略図である。It is the schematic of the 2nd control example by an augmented reality system. 映像合成装置による第2の制御例の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 2nd control example by a video synthesizing | combining apparatus. 拡張現実システムによる第3の制御例の概略図である。It is the schematic of the 3rd control example by an augmented reality system. 映像合成装置による第3の制御例の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 3rd control example by a video synthesizing | combining apparatus. 拡張現実システムによる第4の制御例の概略図である。It is the schematic of the 4th control example by an augmented reality system. 映像合成装置による第4の制御例の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 4th control example by a video synthesizing | combining apparatus. 拡張現実システムによる第5の制御例の概略図である。It is the schematic of the 5th control example by an augmented reality system. 映像合成装置による第5の制御例の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 5th control example by a video synthesizing | combining apparatus. 拡張現実システムによる第6の制御例の概略図である。It is the schematic of the 6th control example by an augmented reality system. 映像合成装置による第6の制御例の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 6th control example by a video synthesizing | combining apparatus. 拡張現実システムによる第7の制御例の概略図である。It is the schematic of the 7th control example by an augmented reality system. 映像合成装置による第7の制御例の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 7th control example by a video synthesizing | combining apparatus. 拡張現実システムによる第8の制御例の概略図である。It is the schematic of the 8th control example by an augmented reality system.

以下、図面を参照しながら本発明の実施形態について詳しく説明する。
図1は、本発明の一実施形態による拡張現実システムの構成を示す概略図である。
拡張現実システムは、複数の端末装置100、撮像装置200、映像合成装置300を備える。映像合成装置300と端末装置100とはネットワークを介して接続されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a schematic diagram showing the configuration of an augmented reality system according to an embodiment of the present invention.
The augmented reality system includes a plurality of terminal devices 100, an imaging device 200, and a video composition device 300. The video composition device 300 and the terminal device 100 are connected via a network.

端末装置100は、拡張現実システムから合成映像を受信し、当該映像を表示するとともに、利用者からの操作を受け付け、当該操作を示す操作情報をTCP(Transmission Control Protocol)により映像合成装置300に送信する。なお、端末装置100は、PC(Personal Computer)、タブレット端末、携帯電話、スマートフォン、ゲーム機器などによって実現することができるが、本実施形態では、端末装置100がタッチパネルを備えるタブレット端末である場合を例に説明する。   The terminal device 100 receives the composite video from the augmented reality system, displays the video, accepts an operation from the user, and transmits operation information indicating the operation to the video composition device 300 by TCP (Transmission Control Protocol). To do. The terminal device 100 can be realized by a PC (Personal Computer), a tablet terminal, a mobile phone, a smartphone, a game device, or the like. However, in the present embodiment, the terminal device 100 is a tablet terminal including a touch panel. Explained as an example.

撮像装置200は、実空間の映像を撮像し、撮像した映像を映像合成装置300に入力する。また、撮像装置200には、撮像装置200の姿勢を検出する姿勢センサと、撮像した映像の深度を検出する深度センサが備えられる。   The imaging device 200 captures an image of real space and inputs the captured image to the image composition device 300. In addition, the imaging apparatus 200 includes an attitude sensor that detects the attitude of the imaging apparatus 200 and a depth sensor that detects the depth of the captured video.

映像合成装置300は、撮像装置200が撮像する映像にコンピュータグラフィックスのオブジェクトを合成した合成映像を生成し、当該合成映像をUDP(User Datagram Protocol)により端末装置100に送信する。   The video synthesizing device 300 generates a synthesized video obtained by synthesizing a computer graphics object with the video imaged by the imaging device 200, and transmits the synthesized video to the terminal device 100 by UDP (User Datagram Protocol).

このような構成の拡張現実システムを提供することで、合成映像の閲覧者の各々が合成映像に含まれるオブジェクトの操作を行うことができる。   By providing the augmented reality system having such a configuration, each viewer of the composite video can operate an object included in the composite video.

図2は、端末装置100及び映像合成装置300のソフトウェア構成を示す概略ブロック図である。
端末装置100は、映像受信部101、映像表示部102、オブジェクト表示部103、操作部104、操作情報送信部105を備える。
映像受信部101は、映像合成装置300から合成映像を受信する。
映像表示部102は、映像受信部101が受信した合成映像をタッチパネルに表示する。
オブジェクト表示部103は、操作部104の操作に応じて、合成映像に含まれるオブジェクトを操作するための操作ペインをタッチパネルに表示する。
操作部104は、利用者からタッチパネルのタッチ入力による操作を受け付ける。
操作情報送信部105は、操作部104が受け付けた操作を示す操作情報を映像合成装置300に送信する。操作情報には、操作種別とオプション情報とが含まれる。操作種別とは、合成映像のオブジェクトに対する操作(例えば、オブジェクトの生成、移動、変形、削除など)の種別を示す情報である。オプション情報は、操作種別に応じて必要となる情報である。
FIG. 2 is a schematic block diagram illustrating software configurations of the terminal device 100 and the video composition device 300.
The terminal device 100 includes a video reception unit 101, a video display unit 102, an object display unit 103, an operation unit 104, and an operation information transmission unit 105.
The video receiving unit 101 receives the composite video from the video composition device 300.
The video display unit 102 displays the composite video received by the video receiving unit 101 on the touch panel.
The object display unit 103 displays an operation pane for operating an object included in the composite video on the touch panel in accordance with the operation of the operation unit 104.
The operation unit 104 receives an operation by touch input on the touch panel from a user.
The operation information transmission unit 105 transmits operation information indicating the operation accepted by the operation unit 104 to the video composition device 300. The operation information includes an operation type and option information. The operation type is information indicating the type of operation (for example, creation, movement, deformation, deletion, etc.) of an object of a composite video. The option information is information required according to the operation type.

図3は、端末装置100のユーザインタフェースの例を示す図である。
端末装置100のタッチパネルには、映像受信部101が受信した合成映像と、操作種別を特定するための複数のボタンが表示される。操作部104は、利用者がタッチしたボタンに応じて、操作種別を決定する。操作部104は、利用者がボタンをタッチしたとき、またはボタンをタッチした後に所定のタッチ操作をしたときに、操作情報を生成する。
FIG. 3 is a diagram illustrating an example of a user interface of the terminal device 100.
On the touch panel of the terminal device 100, a composite video received by the video receiving unit 101 and a plurality of buttons for specifying the operation type are displayed. The operation unit 104 determines the operation type according to the button touched by the user. The operation unit 104 generates operation information when the user touches a button or when a predetermined touch operation is performed after the button is touched.

図2に戻り、次に映像合成装置300の構成について説明する。
映像合成装置300は、操作情報受信部301、操作情報記憶部302、座標特定部303、計数部304、オブジェクト決定部305、仮想空間計算部306、映像取得部307、映像合成部308、解像度取得部309、映像送信部310、変更命令入力部311、操作情報変更部312を備える。
Returning to FIG. 2, the configuration of the video composition device 300 will be described next.
The video composition device 300 includes an operation information reception unit 301, an operation information storage unit 302, a coordinate specification unit 303, a counting unit 304, an object determination unit 305, a virtual space calculation unit 306, a video acquisition unit 307, a video composition unit 308, and resolution acquisition. A unit 309, a video transmission unit 310, a change command input unit 311, and an operation information change unit 312.

操作情報受信部301は、端末装置100から操作情報を受信する。
操作情報記憶部302は、操作種別と、操作に用いるオプション情報と、オブジェクトに対する操作の内容とを関連付けて記憶する。
The operation information receiving unit 301 receives operation information from the terminal device 100.
The operation information storage unit 302 stores operation types, option information used for operations, and details of operations on objects in association with each other.

図4は、操作情報記憶部302が記憶する情報の例を示す図である。
操作情報記憶部302は、操作種別に関連付けて、オプション情報及び操作の内容を記憶する。
本実施形態では、操作種別「1」を示す操作情報には、オプション情報としてタッチ座標が含まれる。そして、当該操作情報を受信した場合、「タッチ座標に対応する位置に花火オブジェクトを表示させる」という操作を実行する。
また、操作種別「2」を示す操作情報には、オプション情報としてタッチ座標が含まれる。そして、当該操作情報を受信した場合、「タッチされたオブジェクトに関連付けられたアクションを実行する」という操作を実行する。
また、操作種別「3」を示す操作情報には、オプション情報としてタッチ座標が含まれる。そして、当該操作情報を受信した場合、「タッチされたマーカーにエフェクトオブジェクトを表示させる」という操作を実行する。なお、マーカーとは、被写体に取り付けてその三次元座標を特定するための目印となるものである。
また、操作種別「4」を示す操作情報には、オプション情報が含まれない。そして、当該操作情報を受信した場合、「操作情報の受信回数に応じて風船を膨らませる」という操作を実行する。
FIG. 4 is a diagram illustrating an example of information stored in the operation information storage unit 302.
The operation information storage unit 302 stores option information and operation contents in association with the operation type.
In the present embodiment, the operation information indicating the operation type “1” includes touch coordinates as option information. When the operation information is received, an operation of “display a firework object at a position corresponding to the touch coordinates” is executed.
The operation information indicating the operation type “2” includes touch coordinates as option information. When the operation information is received, an operation “execute an action associated with the touched object” is executed.
The operation information indicating the operation type “3” includes touch coordinates as option information. When the operation information is received, an operation of “display effect object on touched marker” is executed. The marker is a mark for attaching to a subject and specifying its three-dimensional coordinates.
The operation information indicating the operation type “4” does not include option information. And when the said operation information is received, operation which "inflates a balloon according to the frequency | count of reception of operation information" is performed.

また、操作種別「5」を示す操作情報には、オプション情報が含まれない。そして、当該操作情報を受信した場合、「所定時間の間に受信した操作情報の数が100以上である場合に応援メッセージを表示させる」という操作を実行する。
また、操作種別「6」を示す操作情報には、オプション情報としてジェスチャ情報が含まれる。そして、当該操作情報を受信した場合、「所定時間の間、ジェスチャ『○』とジェスチャ『×』を受け付け、数が多いものに関連付けられたオブジェクトを表示させる」という操作を実行する。
また、操作種別「7」を示す操作情報には、オプション情報が含まれない。そして、当該操作情報を受信した場合、「表示されているエフェクトオブジェクトを変更させる」という操作を実行する。
また、操作種別「8」を示す操作情報には、オプション情報として関節ID及び角度情報が含まれる。そして、当該操作情報を受信した場合、「対象となるオブジェクトの関節の角度を角度情報が示す角度に変形させる」という操作を実行する。
なお、図4の例では、操作の内容を文章で記載しているが、操作情報記憶部302は、実際にはオブジェクト決定部305に実行させるコマンドスクリプトなどを記憶する。
The operation information indicating the operation type “5” does not include option information. When the operation information is received, an operation of “display a support message when the number of operation information received during a predetermined time is 100 or more” is executed.
The operation information indicating the operation type “6” includes gesture information as option information. Then, when the operation information is received, an operation of “accepting a gesture“ ◯ ”and a gesture“ × ”for a predetermined time and displaying an object associated with a large number of objects” is executed.
The operation information indicating the operation type “7” does not include option information. Then, when the operation information is received, an operation “change the displayed effect object” is executed.
The operation information indicating the operation type “8” includes joint ID and angle information as option information. When the operation information is received, an operation of “deform the joint angle of the target object to the angle indicated by the angle information” is executed.
In the example of FIG. 4, the contents of the operation are written in text, but the operation information storage unit 302 actually stores a command script to be executed by the object determination unit 305.

図2に戻り、座標特定部303は、操作情報にタッチ座標が含まれる場合、当該タッチ座標が示す仮想空間上の座標を特定する。
計数部304は、所定の操作種別を示す操作情報の受信回数を計数する。
Returning to FIG. 2, when the operation information includes touch coordinates, the coordinate specifying unit 303 specifies coordinates in the virtual space indicated by the touch coordinates.
The counting unit 304 counts the number of times operation information indicating a predetermined operation type is received.

オブジェクト決定部305は、操作情報記憶部302から、操作情報受信部301が受信した操作情報に対して実行すべき操作の内容を特定し、当該操作情報、座標特定部303が特定した座標及び計数部304が計数した受信回数に基づいて、仮想空間上のオブジェクトの位置及び形状を決定する。
仮想空間計算部306は、オブジェクト決定部305が決定した位置及び形状に基づいて仮想空間上のオブジェクトの制御を行う。
The object determination unit 305 specifies the content of the operation to be performed on the operation information received by the operation information reception unit 301 from the operation information storage unit 302, and the operation information, the coordinates and counts specified by the coordinate specification unit 303 Based on the number of receptions counted by the unit 304, the position and shape of the object in the virtual space are determined.
The virtual space calculation unit 306 controls objects in the virtual space based on the position and shape determined by the object determination unit 305.

映像取得部307は、撮像装置200から、撮像装置200が撮像した映像、撮像装置200の姿勢情報、及び映像の深度情報を取得する。
映像合成部308は、撮像装置200が撮像した映像と仮想空間計算部306が計算した仮想空間上のオブジェクトとを合成し、合成映像を生成する。
The video acquisition unit 307 acquires the video captured by the imaging device 200, the posture information of the imaging device 200, and the depth information of the video from the imaging device 200.
The video composition unit 308 synthesizes the video imaged by the imaging apparatus 200 and the object in the virtual space calculated by the virtual space calculation unit 306 to generate a composite video.

解像度取得部309は、端末装置100のタッチパネルの解像度を取得する。
映像送信部310は、映像合成部308が合成した合成映像を解像度取得部309が取得した解像度の映像に変換し、当該合成映像を端末装置100に送信する。
The resolution acquisition unit 309 acquires the resolution of the touch panel of the terminal device 100.
The video transmission unit 310 converts the synthesized video synthesized by the video synthesis unit 308 into a video having the resolution acquired by the resolution acquisition unit 309, and transmits the synthesized video to the terminal device 100.

変更命令入力部311は、管理者から操作種別に関連付ける操作の内容を変更する変更命令の入力を受け付ける。変更命令は、変更の対象となる操作種別と変更後の操作の内容とを含む。
操作情報変更部312は、操作情報記憶部302において、変更命令の操作種別に関連付けられた操作の内容を、変更命令の操作の内容に書き換える。
つまり、撮像装置200が撮像した映像の場面の切り替わりのタイミングで、管理者が映像合成装置300に変更命令を入力することで、利用者は、場面にマッチしたオブジェクトの操作を実行することができる。
The change command input unit 311 receives an input of a change command for changing the content of the operation associated with the operation type from the administrator. The change command includes the operation type to be changed and the content of the operation after the change.
The operation information changing unit 312 rewrites the operation content associated with the operation type of the change command in the operation information storage unit 302 to the operation content of the change command.
That is, when the administrator inputs a change command to the video composition device 300 at the timing of switching the scene of the video captured by the imaging device 200, the user can execute an operation of the object that matches the scene. .

次に、本実施形態による拡張現実システムの全体的な動作について説明する。
図5は、本実施形態による拡張現実システムの動作を示すシーケンス図である。
まず、端末装置100が映像合成装置300にアクセスすると、映像合成装置300の解像度取得部309は、端末装置100からタッチパネルの解像度を取得する(ステップS1)。
以降、撮像装置200が撮像する映像が終了するまで、以下に示すステップS2〜S13の処理を実行する。
Next, the overall operation of the augmented reality system according to the present embodiment will be described.
FIG. 5 is a sequence diagram showing the operation of the augmented reality system according to the present embodiment.
First, when the terminal device 100 accesses the video composition device 300, the resolution acquisition unit 309 of the video composition device 300 acquires the resolution of the touch panel from the terminal device 100 (step S1).
Thereafter, the following processes of steps S2 to S13 are executed until the video imaged by the imaging device 200 is completed.

映像合成装置300の映像合成部308は、映像取得部307が取得した映像と仮想空間計算部306が計算するオブジェクトとを合成した合成映像を生成する(ステップS2)。映像合成部308が合成映像を生成する手順の一例としては、以下に示すものが挙げられる。まず映像合成部308は、映像取得部307が取得した撮像装置200の姿勢情報に基づいて、仮想空間計算部306が計算したオブジェクトを描画するレンダリングカメラのパラメータを決定する。レンダリングカメラのパラメータとしては、例えば、レンダリングカメラの位置、視線方向、画角などが含まれる。   The video synthesizing unit 308 of the video synthesizing device 300 generates a synthesized video obtained by synthesizing the video acquired by the video acquiring unit 307 and the object calculated by the virtual space calculating unit 306 (step S2). The following is an example of a procedure in which the video composition unit 308 generates a composite video. First, the video composition unit 308 determines the parameters of the rendering camera that renders the object calculated by the virtual space calculation unit 306 based on the attitude information of the imaging device 200 acquired by the video acquisition unit 307. The rendering camera parameters include, for example, the position of the rendering camera, the line-of-sight direction, and the angle of view.

次に、映像合成部308は、映像取得部307が取得した映像の各画素に、撮像装置200の深度センサが検出した深度情報を適用する。次に、映像合成部308は、仮想空間計算部306が計算したオブジェクトのうち、決定したカメラ位置からの深度が、映像の対応する画素の深度より低いもの(手前側に存在するもの)を描画する。これにより、映像合成部308は、合成映像を生成することができる。   Next, the video composition unit 308 applies the depth information detected by the depth sensor of the imaging device 200 to each pixel of the video acquired by the video acquisition unit 307. Next, the video composition unit 308 renders the objects calculated by the virtual space calculation unit 306 whose depth from the determined camera position is lower than the depth of the corresponding pixel of the video (present on the near side). To do. Thereby, the video composition unit 308 can generate a composite video.

次に、映像送信部310は、映像合成部308が生成した合成映像のサイズを、解像度取得部309が取得した解像度に合わせて変更する(ステップS3)。次に、映像送信部310は、サイズを変更した合成映像を、端末装置100に送信する(ステップS4)。   Next, the video transmission unit 310 changes the size of the synthesized video generated by the video synthesis unit 308 according to the resolution acquired by the resolution acquisition unit 309 (step S3). Next, the video transmission unit 310 transmits the composite video whose size has been changed to the terminal device 100 (step S4).

映像合成装置300が合成映像を送信すると、端末装置100の映像受信部101は、映像合成装置300から合成映像を受信する(ステップS5)。次に、映像表示部102は、映像受信部101が受信した映像をタッチパネルに表示させる(ステップS6)。
次に、操作部104は、利用者からのタッチ操作の入力があるか否かを判定する(ステップS7)。操作部104が、タッチ操作の入力が無いと判定した場合(ステップS7:NO)、端末装置100は、次の合成映像の受信を待機する。
When the video synthesizing device 300 transmits the synthesized video, the video receiving unit 101 of the terminal device 100 receives the synthesized video from the video synthesizing device 300 (step S5). Next, the video display unit 102 displays the video received by the video receiving unit 101 on the touch panel (step S6).
Next, the operation unit 104 determines whether or not there is a touch operation input from the user (step S7). When the operation unit 104 determines that there is no touch operation input (step S7: NO), the terminal device 100 waits for reception of the next composite video.

他方、操作部104は、タッチ操作の入力があったと判定した場合(ステップS7:YES)、タッチ操作の入力を受け付け、操作情報を生成する(ステップS8)。なお、操作部104がどのようなタッチ操作の入力を受け付け、どのような操作情報を生成するかは、操作種別によって異なる。操作部104が操作情報を生成すると、操作情報送信部105は、生成した操作情報を映像合成装置300に送信する(ステップS9)。   On the other hand, when it is determined that the touch operation has been input (step S7: YES), the operation unit 104 receives the touch operation input and generates operation information (step S8). Note that what touch operation input the operation unit 104 receives and what operation information is generated differ depending on the operation type. When the operation unit 104 generates operation information, the operation information transmission unit 105 transmits the generated operation information to the video composition device 300 (step S9).

映像合成装置300の操作情報受信部301は、端末装置100から操作情報を受信したか否かを判定する(ステップS10)。端末装置100がステップS7において操作を受け付け、操作情報を送信した場合、映像合成装置300の操作情報受信部301は、操作情報を受信する(ステップS10:YES)。この場合、オブジェクト決定部305は、操作情報受信部301が受信した操作情報の操作種別に関連付けられた操作の内容を、操作情報記憶部302から読み出す(ステップS11)。そして、オブジェクト決定部305は、読み出した操作の内容に従って、オブジェクトの位置及び形状を決定する(ステップS12)。   The operation information receiving unit 301 of the video composition device 300 determines whether operation information has been received from the terminal device 100 (step S10). When the terminal device 100 accepts the operation in step S7 and transmits the operation information, the operation information receiving unit 301 of the video composition device 300 receives the operation information (step S10: YES). In this case, the object determining unit 305 reads out the operation content associated with the operation type of the operation information received by the operation information receiving unit 301 from the operation information storage unit 302 (step S11). Then, the object determination unit 305 determines the position and shape of the object according to the content of the read operation (step S12).

オブジェクト決定部305が操作の内容を実行した場合、または端末装置100がステップS7において操作を受け付けなかったために操作情報受信部301が操作情報を受信しなかった場合(ステップS10:NO)、仮想空間計算部306は、仮想空間におけるオブジェクトの位置及び形状を更新する(ステップS13)。そして、ステップS2に戻り、映像合成部308は、合成映像の生成を行う。   When the object determination unit 305 executes the content of the operation or when the operation information receiving unit 301 does not receive the operation information because the terminal device 100 did not accept the operation in step S7 (step S10: NO), the virtual space The calculation unit 306 updates the position and shape of the object in the virtual space (step S13). Then, returning to step S2, the video composition unit 308 generates a composite video.

このように、本実施形態によれば、映像合成装置300が端末装置100に合成映像を表示させ、映像合成装置300が当該端末装置100からの操作を受け付けることで、オブジェクトの制御を行う。これにより、合成映像の閲覧者に、当該合成映像に含まれるオブジェクトを制御させることができる。   As described above, according to the present embodiment, the video composition device 300 displays the composite video on the terminal device 100, and the video composition device 300 receives an operation from the terminal device 100, thereby controlling the object. As a result, the viewer of the composite video can control the objects included in the composite video.

また、本実施形態によれば、映像合成装置300は、端末装置100からタッチパネルの解像度を取得し、当該解像度に合わせた合成映像を端末装置100に送信する。これにより、タッチパネルの解像度の異なる複数の端末に対して適切な合成映像を提供することができる。   Further, according to the present embodiment, the video composition device 300 acquires the resolution of the touch panel from the terminal device 100 and transmits the composite video that matches the resolution to the terminal device 100. Thereby, a suitable synthetic | combination image | video can be provided with respect to the some terminal from which the resolution of a touchscreen differs.

次に、具体的なオブジェクトの制御についていくつかの例を示す。   Next, some examples of specific object control will be described.

《花火オブジェクトの表示》
図6は、拡張現実システムによる第1の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図6(A)に示すように利用者が「花火」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「花火」ボタンに関連付けられた操作種別(ここでは操作種別「1」)の操作であると特定する。図4に示すとおり、操作種別「1」のオプション情報にはタッチ座標が含まれるため、操作部104は、次に花火オブジェクトを表示させる座標の入力を受け付ける。
《Display fireworks object》
FIG. 6 is a schematic diagram of a first control example by the augmented reality system.
When the user interface shown in FIG. 3 is displayed on the touch panel of the terminal device 100, when the user touches the “fireworks” button as shown in FIG. 6A, the operation unit 104 of the terminal device 100 The operation is identified as an operation of the operation type (here, operation type “1”) associated with the “fireworks” button. As shown in FIG. 4, since the option information of the operation type “1” includes touch coordinates, the operation unit 104 receives input of coordinates for displaying the firework object next.

図6(B)に示すように利用者がタッチパネルのうち合成映像が表示されている範囲内をタッチすると、操作部104は、タッチされた座標(二次元座標)を特定する。これにより、操作部104は、操作種別を「1」とし、オプション情報に特定したタッチ座標を含む操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
これにより、映像合成装置300は、図6(C)に示すように、タッチされた座標に花火オブジェクトを配置した合成映像を生成する。
As shown in FIG. 6B, when the user touches within the range of the touch panel where the synthesized video is displayed, the operation unit 104 specifies the touched coordinates (two-dimensional coordinates). Thereby, the operation unit 104 sets the operation type to “1”, and generates operation information including the touch coordinates specified in the option information. Then, the operation information transmission unit 105 transmits the operation information generated by the operation unit 104 to the video composition device 300.
As a result, the video composition device 300 generates a composite video in which the firework objects are arranged at the touched coordinates, as shown in FIG.

ここで、操作種別「1」の操作情報を受信したときの映像合成装置300の動作について説明する。
図7は、映像合成装置300による第1の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「1」の操作の内容を読み出すと、座標特定部303は、操作情報受信部301が受信した操作情報に含まれるタッチ座標と解像度取得部309が取得した解像度とに基づいて、タッチされた座標の相対位置を特定する(ステップS101)。具体的には、タッチ座標のX座標及びY座標をそれぞれX方向の解像度とY方向の解像度で除算することで算出する。
Here, the operation of the video composition device 300 when the operation information of the operation type “1” is received will be described.
FIG. 7 is a flowchart showing the operation of the first control example by the video composition device 300.
When the object determination unit 305 of the video composition device 300 reads the content of the operation type “1” in step S <b> 11 described above, the coordinate specification unit 303 displays the touch coordinates included in the operation information received by the operation information reception unit 301. Based on the resolution acquired by the resolution acquisition unit 309, the relative position of the touched coordinate is specified (step S101). Specifically, the calculation is performed by dividing the X coordinate and Y coordinate of the touch coordinates by the resolution in the X direction and the resolution in the Y direction, respectively.

次に、座標特定部303は、仮想空間計算部306におけるレンダリングカメラの位置を原点として、視線方向から当該レンダリングカメラの画角に相対位置を乗算して得られる角度だけずらした半直線の式を算出する。当該半直線は、操作情報に含まれるタッチ座標に対応する点の集合に相当する(ステップS102)。次に、座標特定部303は、算出した半直線のうち、レンダリングカメラの位置から所定の長さにある三次元座標を、花火オブジェクトを配置する座標として特定する(ステップS103)。ここで、所定の長さとしては、映像取得部307が取得した深度情報から、撮像範囲全体の深度の平均値や、特定の対象物が存在する位置の深度等が挙げられる。   Next, the coordinate specifying unit 303 sets a half-line equation that is shifted from the line-of-sight direction by the angle obtained by multiplying the angle of view of the rendering camera by the relative position, with the position of the rendering camera in the virtual space calculation unit 306 as the origin. calculate. The half line corresponds to a set of points corresponding to the touch coordinates included in the operation information (step S102). Next, the coordinate specifying unit 303 specifies three-dimensional coordinates having a predetermined length from the position of the rendering camera among the calculated half lines as coordinates for arranging the firework object (step S103). Here, examples of the predetermined length include an average value of the depth of the entire imaging range, a depth of a position where a specific object exists, and the like from the depth information acquired by the video acquisition unit 307.

次に、オブジェクト決定部305は、花火オブジェクトを生成し、当該花火オブジェクトを仮想空間のうち座標特定部303が特定した三次元座標に配置する(ステップS104)。そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図6(C)に示すように花火オブジェクトを含む合成映像を生成することができる。   Next, the object determination unit 305 generates a firework object and places the firework object at the three-dimensional coordinates specified by the coordinate specification unit 303 in the virtual space (step S104). Then, when the virtual space calculation unit 306 updates the object in the virtual space in step S13 described above, the video composition unit 308 may generate a composite video including the firework object as illustrated in FIG. it can.

《オブジェクトに対するアクション指示》
図8は、拡張現実システムによる第2の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図8(A)に示すように利用者が「アクション」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「アクション」ボタンに関連付けられた操作種別(ここでは操作種別「2」)の操作であると特定する。図4に示すとおり、操作種別「2」のオプション情報にはタッチ座標が含まれるため、操作部104は、次にアクションを実行させるオブジェクトが存在する座標の入力を受け付ける。
<< Action instructions for objects >>
FIG. 8 is a schematic diagram of a second control example by the augmented reality system.
When the user interface shown in FIG. 3 is displayed on the touch panel of the terminal device 100, when the user touches the “action” button as shown in FIG. 8A, the operation unit 104 of the terminal device 100 The operation is identified as an operation of the operation type (here, operation type “2”) associated with the “action” button. As shown in FIG. 4, since the option information of the operation type “2” includes touch coordinates, the operation unit 104 receives input of coordinates where an object to be executed next is present.

図8(B)に示すように利用者がタッチパネルのうち合成映像が表示されている範囲内をタッチすると、操作部104は、タッチされた座標を特定する。これにより、操作部104は、操作種別を「2」とし、オプション情報に特定したタッチ座標を含む操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
これにより、映像合成装置300は、図8(C)に示すように、タッチされた座標に存在するオブジェクトにアクションを実行させた合成映像を生成する。
As shown in FIG. 8B, when the user touches the touch panel within the range where the synthesized video is displayed, the operation unit 104 specifies the touched coordinates. Thereby, the operation unit 104 sets the operation type to “2” and generates operation information including the touch coordinates specified in the option information. Then, the operation information transmission unit 105 transmits the operation information generated by the operation unit 104 to the video composition device 300.
As a result, as shown in FIG. 8C, the video composition device 300 generates a composite video in which an action is performed on an object existing at the touched coordinates.

ここで、操作種別「2」の操作情報を受信したときの映像合成装置300の動作について説明する。
図9は、映像合成装置300による第2の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「2」の操作の内容を読み出すと、座標特定部303は、操作情報受信部301が受信した操作情報に含まれるタッチ座標と解像度取得部309が取得した解像度とに基づいて、タッチされた座標の相対位置を特定する(ステップS201)。
Here, the operation of the video composition device 300 when the operation information of the operation type “2” is received will be described.
FIG. 9 is a flowchart showing the operation of the second control example by the video composition device 300.
When the object determination unit 305 of the video composition device 300 reads the content of the operation type “2” in step S <b> 11 described above, the coordinate specification unit 303 displays the touch coordinates included in the operation information received by the operation information reception unit 301. Based on the resolution acquired by the resolution acquisition unit 309, the relative position of the touched coordinate is specified (step S201).

次に、座標特定部303は、仮想空間計算部306におけるレンダリングカメラの位置を原点として、視線方向から当該レンダリングカメラの画角に相対位置を乗算して得られる角度だけずらした半直線の式を算出する(ステップS202)。次に、座標特定部303は、仮想空間内に算出した半直線と交差するオブジェクトが存在するか否かを判定する(ステップS303)。   Next, the coordinate specifying unit 303 sets a half-line equation that is shifted from the line-of-sight direction by the angle obtained by multiplying the angle of view of the rendering camera by the relative position, with the position of the rendering camera in the virtual space calculation unit 306 as the origin. Calculate (step S202). Next, the coordinate specification unit 303 determines whether there is an object that intersects the calculated half line in the virtual space (step S303).

座標特定部303が、半直線と交差するオブジェクトが存在しないと判定した場合(ステップS303:NO)、オブジェクト決定部305は、いずれのオブジェクトの位置及び形状も変更せず、処理を終了する。他方、座標特定部303は、半直線と交差するオブジェクトが存在すると判定した場合(ステップS303:YES)、当該オブジェクトが存在する三次元座標を特定する。そして、オブジェクト決定部305は、座標特定部303が特定した三次元座標上に存在するオブジェクトの位置及び形状を、当該オブジェクトに所定のアクションを実行させた場合の位置及び形状に決定する(ステップS304)。   When the coordinate specifying unit 303 determines that there is no object that intersects the half line (step S303: NO), the object determining unit 305 does not change the position and shape of any object, and ends the process. On the other hand, when it is determined that there is an object that intersects the half line (step S303: YES), the coordinate specifying unit 303 specifies the three-dimensional coordinates where the object exists. Then, the object determining unit 305 determines the position and shape of the object existing on the three-dimensional coordinates specified by the coordinate specifying unit 303 as the position and shape when the object is caused to execute a predetermined action (step S304). ).

そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図8(C)に示すようにオブジェクトが所定のアクションを実行している状態を示す合成映像を生成することができる。   Then, when the virtual space calculation unit 306 updates the object in the virtual space in step S13 described above, the video composition unit 308 is in a state where the object is executing a predetermined action as shown in FIG. 8C. Can be generated.

《マーカーにエフェクトオブジェクトを表示》
図10は、拡張現実システムによる第3の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図10(A)に示すように利用者が「エフェクト表示」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「エフェクト表示」ボタンに関連付けられた操作種別(ここでは操作種別「3」)の操作であると特定する。図4に示すとおり、操作種別「3」のオプション情報にはタッチ座標が含まれるため、操作部104は、次にエフェクトを表示させるマーカーが存在する座標の入力を受け付ける。なお、マーカーとは、被写体に取り付けてその三次元座標を特定するための目印となるものである。
《Display effect object on marker》
FIG. 10 is a schematic diagram of a third control example by the augmented reality system.
When the user interface shown in FIG. 3 is displayed on the touch panel of the terminal device 100, when the user touches the “effect display” button as shown in FIG. 10A, the operation unit 104 of the terminal device 100 is displayed. The operation is identified as an operation of the operation type (here, operation type “3”) associated with the “effect display” button. As shown in FIG. 4, since the touch information is included in the option information of the operation type “3”, the operation unit 104 receives an input of a coordinate where a marker for displaying an effect next exists. The marker is a mark for attaching to a subject and specifying its three-dimensional coordinates.

図10(B)に示すように利用者がタッチパネルのうち合成映像が表示されている範囲内をタッチすると、操作部104は、タッチされた座標を特定する。これにより、操作部104は、操作種別を「3」とし、オプション情報に特定したタッチ座標を含む操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
これにより、映像合成装置300は、図10(C)に示すように、タッチされた座標の周辺に存在するマーカーの位置に所定のエフェクトオブジェクトを配置した合成映像を生成する。
As shown in FIG. 10B, when the user touches within the range where the synthesized video is displayed on the touch panel, the operation unit 104 specifies the touched coordinates. Thereby, the operation unit 104 sets the operation type to “3” and generates operation information including the touch coordinates specified in the option information. Then, the operation information transmission unit 105 transmits the operation information generated by the operation unit 104 to the video composition device 300.
As a result, as shown in FIG. 10C, the video composition device 300 generates a composite video in which a predetermined effect object is arranged at the position of a marker existing around the touched coordinates.

ここで、操作種別「3」の操作情報を受信したときの映像合成装置300の動作について説明する。
図11は、映像合成装置300による第3の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「3」の操作の内容を読み出すと、座標特定部303は、操作情報受信部301が受信した操作情報に含まれるタッチ座標と解像度取得部309が取得した解像度とに基づいて、タッチされた座標の相対位置を特定する(ステップS301)。
Here, the operation of the video composition device 300 when the operation information of the operation type “3” is received will be described.
FIG. 11 is a flowchart showing the operation of the third control example by the video composition device 300.
When the object determination unit 305 of the video composition device 300 reads the content of the operation type “3” in step S <b> 11 described above, the coordinate specification unit 303 displays the touch coordinates included in the operation information received by the operation information reception unit 301. Based on the resolution acquired by the resolution acquisition unit 309, the relative position of the touched coordinate is specified (step S301).

次に、座標特定部303は、特定した相対位置に対応する映像取得部307が取得した映像上の座標を特定する(ステップS302)。ここで、座標特定部303は、映像取得部307が取得した映像に含まれるマーカーの座標を特定し、ステップS302で特定した座標の周辺(例えば、100画素の範囲以内)にマーカーが存在するか否かを判定する(ステップS303)。   Next, the coordinate specifying unit 303 specifies the coordinates on the video acquired by the video acquisition unit 307 corresponding to the specified relative position (step S302). Here, the coordinate specifying unit 303 specifies the coordinates of the marker included in the video acquired by the video acquisition unit 307, and whether the marker exists around the coordinate specified in step S302 (for example, within a range of 100 pixels). It is determined whether or not (step S303).

座標特定部303が、特定した座標の周辺にマーカーが存在しないと判定した場合(ステップS303:NO)、オブジェクト決定部305は、いずれのオブジェクトの位置及び形状も変更せず、処理を終了する。他方、座標特定部303は、特定した座標の周辺にマーカーが存在すると判定した場合(ステップS303:YES)、映像取得部307が取得した深度情報からマーカーが存在する座標の深度を取得する(ステップS304)。   When the coordinate specifying unit 303 determines that there is no marker around the specified coordinates (step S303: NO), the object determining unit 305 ends the process without changing the position and shape of any object. On the other hand, if the coordinate specifying unit 303 determines that there is a marker around the specified coordinate (step S303: YES), the coordinate specifying unit 303 acquires the depth of the coordinate where the marker exists from the depth information acquired by the video acquisition unit 307 (step S303). S304).

次に、座標特定部303は、仮想空間計算部306におけるレンダリングカメラの位置を原点として、視線方向から当該レンダリングカメラの画角に相対位置を乗算して得られる角度だけずらした半直線の式を算出する(ステップS305)。次に、座標特定部303は、算出した半直線のうち、レンダリングカメラの位置からステップS304で特定した深度の位置にあたる三次元座標を、エフェクトオブジェクトを配置する座標として特定する(ステップS306)。   Next, the coordinate specifying unit 303 sets a half-line equation that is shifted from the line-of-sight direction by the angle obtained by multiplying the angle of view of the rendering camera by the relative position, with the position of the rendering camera in the virtual space calculation unit 306 as the origin. Calculate (step S305). Next, the coordinate specifying unit 303 specifies the three-dimensional coordinates corresponding to the position of the depth specified in step S304 from the position of the rendering camera among the calculated half lines as coordinates for arranging the effect object (step S306).

次に、オブジェクト決定部305は、エフェクトオブジェクトを生成し、当該エフェクトオブジェクトを仮想空間のうち座標特定部303が特定した三次元座標に配置する(ステップS307)。そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図10(C)に示すようにエフェクトオブジェクトを含む合成映像を生成することができる。なお、本処理によってエフェクトオブジェクトを追加した以降、仮想空間計算部306は、映像取得部307が取得した映像に含まれるマーカーの位置に追従させるようエフェクトの位置の計算を行う。   Next, the object determination unit 305 generates an effect object and places the effect object in the three-dimensional coordinates specified by the coordinate specification unit 303 in the virtual space (step S307). Then, when the virtual space calculation unit 306 updates the object in the virtual space in step S13 described above, the video composition unit 308 may generate a composite video including the effect object as illustrated in FIG. it can. Note that after the effect object is added by this processing, the virtual space calculation unit 306 calculates the position of the effect so as to follow the position of the marker included in the video acquired by the video acquisition unit 307.

なお、ここでは、被写体に取り付けて三次元座標を特定するマーカーを用いることで、映像取得部307が取得した映像に含まれる被写体にエフェクトを追従させる方法について説明したが、これに限られない。例えば、エフェクトを追従させる被写体が人物である場合、被写体にマーカーを取り付けることに代えて、被写体の骨構造を推定し、当該骨構造に基づいてエフェクトの位置の計算を行うようにしても良い。被写体の骨構造の推定方法としては、例えば、映像取得部307が取得した映像にパターンマッチングを掛ける方法や、赤外線センサなどにより撮像装置200によって撮像される空間に存在する障害物の三次元座標を算出し、当該三次元座標に基づいて障害物の中から被写体を抽出する方法などが挙げられる。   Here, although a method has been described in which the effect is made to follow the subject included in the video acquired by the video acquisition unit 307 by using a marker that is attached to the subject and identifies the three-dimensional coordinates, the present invention is not limited thereto. For example, when the subject to be effected is a person, instead of attaching a marker to the subject, the bone structure of the subject may be estimated, and the position of the effect may be calculated based on the bone structure. As a method for estimating the bone structure of the subject, for example, a method of applying pattern matching to an image acquired by the image acquisition unit 307, or a three-dimensional coordinate of an obstacle existing in a space imaged by the imaging device 200 using an infrared sensor or the like. A method of calculating and extracting a subject from an obstacle based on the three-dimensional coordinates is exemplified.

《風船オブジェクトに対するアクション》
図12は、拡張現実システムによる第4の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図12(A)に示すように利用者が「風船」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「風船」ボタンに関連付けられた操作種別(ここでは操作種別「4」)の操作であると特定し、操作種別を「4」とする操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
《Action against balloon object》
FIG. 12 is a schematic diagram of a fourth control example by the augmented reality system.
When the user interface shown in FIG. 3 is displayed on the touch panel of the terminal device 100, when the user touches the “balloon” button as shown in FIG. 12A, the operation unit 104 of the terminal device 100 The operation is identified as an operation of the operation type (here, operation type “4”) associated with the “balloon” button, and operation information with the operation type “4” is generated. Then, the operation information transmission unit 105 transmits the operation information generated by the operation unit 104 to the video composition device 300.

そして、全ての端末装置100における「風船」ボタンのタッチ回数の総数が第1の閾値(例えば10回)に達した場合、映像合成装置300は、図12(B)に示すように風船オブジェクトを膨らました合成映像を生成する。さらに、「風船」ボタンのタッチ回数の総数が第2の閾値(例えば100回)に達した場合、映像合成装置300は、図12(C)に示すように風船オブジェクトを破裂させた合成映像を生成する。   When the total number of touches of the “balloon” button in all the terminal devices 100 reaches the first threshold (for example, 10 times), the video composition device 300 displays the balloon object as shown in FIG. Generate inflated composite video. Further, when the total number of touches of the “balloon” button reaches a second threshold (for example, 100 times), the video composition device 300 displays a composite video obtained by rupturing the balloon object as shown in FIG. Generate.

ここで、操作種別「4」の操作情報を受信したときの映像合成装置300の動作について説明する。
図13は、映像合成装置300による第4の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「4」の操作の内容を読み出すと、まずオブジェクト決定部305は、仮想空間計算部306が計算する仮想空間に風船オブジェクトが存在するか否かを判定する(ステップS401)。オブジェクト決定部305は、仮想空間に風船オブジェクトが存在しないと判定した場合(ステップS401:NO)、処理を終了する。
Here, the operation of the video composition device 300 when the operation information of the operation type “4” is received will be described.
FIG. 13 is a flowchart showing the operation of the fourth control example by the video composition device 300.
When the object determination unit 305 of the video composition device 300 reads the operation type “4” in step S <b> 11 described above, the object determination unit 305 first has a balloon object in the virtual space calculated by the virtual space calculation unit 306. It is determined whether or not to perform (step S401). If the object determination unit 305 determines that there is no balloon object in the virtual space (step S401: NO), the process ends.

他方、オブジェクト決定部305が、仮想空間に風船オブジェクトが存在すると判定した場合(ステップS401:YES)、計数部304は、内部メモリに記憶する操作種別「4」の操作情報の受信回数に1を加算する(ステップS402)。   On the other hand, when the object determination unit 305 determines that a balloon object is present in the virtual space (step S401: YES), the counting unit 304 sets the reception count of the operation type “4” stored in the internal memory to “1”. Add (step S402).

次に、オブジェクト決定部305は、計数部304が計数する操作種別「4」の操作情報の受信回数が第1の閾値に達したか否かを判定する(ステップS403)。オブジェクト決定部305は、受信回数が第1の閾値を達していないと判定した場合(ステップS403:NO)、風船オブジェクトの位置及び形状の変更を行わずに、処理を終了する。他方、オブジェクト決定部305は、受信回数が第1の閾値を達したと判定した場合(ステップS403:YES)、受信回数が第2の閾値に達したか否かを判定する(ステップS404)。   Next, the object determination unit 305 determines whether or not the reception count of the operation information of the operation type “4” counted by the counting unit 304 has reached the first threshold (step S403). If the object determination unit 305 determines that the number of receptions has not reached the first threshold (step S403: NO), the object determination unit 305 ends the process without changing the position and shape of the balloon object. On the other hand, when the object determination unit 305 determines that the number of receptions has reached the first threshold (step S403: YES), the object determination unit 305 determines whether the number of receptions has reached the second threshold (step S404).

オブジェクト決定部305は、受信回数が第2の閾値を達していないと判定した場合(ステップS404:NO)、風船オブジェクトの位置及び形状を、風船オブジェクトが膨らんだときの状態として予め定められた位置及び形状に決定する(ステップS405)。
他方、オブジェクト決定部305は、受信回数が第2の閾値を達したと判定した場合(ステップS404:YES)、風船オブジェクトの位置及び形状を、風船オブジェクトが破裂したときの状態として予め定められた位置及び形状に決定する(ステップS406)。
When the object determination unit 305 determines that the number of receptions has not reached the second threshold (step S404: NO), the position and shape of the balloon object are determined in advance as the state when the balloon object is inflated. Then, the shape is determined (step S405).
On the other hand, when the object determination unit 305 determines that the number of receptions has reached the second threshold (step S404: YES), the position and shape of the balloon object are determined in advance as the state when the balloon object bursts. The position and shape are determined (step S406).

そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図12(B)や図12(C)に示すように風船オブジェクトの状態が変化した合成映像を生成することができる。
このように、計数部304が計数した値に基づいてオブジェクトの位置及び形状を決定することで、映像合成装置300と通信を行う端末装置100の数が多い場合にも、合成映像に表示させるオブジェクトが煩雑にならないようにすることができる。
Then, the virtual space calculation unit 306 updates the object in the virtual space in the above-described step S13, so that the video composition unit 308 has a balloon object state as shown in FIGS. 12B and 12C. A changed composite image can be generated.
In this way, by determining the position and shape of the object based on the value counted by the counting unit 304, the object to be displayed in the synthesized video even when the number of terminal devices 100 communicating with the video synthesizing device 300 is large. Can be avoided.

《応援アクション》
図14は、拡張現実システムによる第5の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図14(B)に示すように利用者が「応援」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「応援」ボタンに関連付けられた操作種別(ここでは操作種別「5」)の操作であると特定し、操作種別を「5」とする操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
《Support action》
FIG. 14 is a schematic diagram of a fifth control example by the augmented reality system.
When the user interface shown in FIG. 3 is displayed on the touch panel of the terminal device 100, when the user touches the “support” button as shown in FIG. 14B, the operation unit 104 of the terminal device 100 The operation is identified as an operation of the operation type (here, operation type “5”) associated with the “support” button, and operation information with the operation type “5” is generated. Then, the operation information transmission unit 105 transmits the operation information generated by the operation unit 104 to the video composition device 300.

ここで、「応援」ボタンをタッチする場面について説明する。
映像合成装置300の映像合成部308は、図14(A)に示すように「READY…」の文字を表示し、その所定時間後に、図14(B)に示すように「CHEER!」の文字を表示する合成映像を生成する。そして、映像合成装置300は、合成映像に「CHEER!」の文字が表示されるタイミングで「応援」ボタンがタッチされた数が所定の閾値(例えば、100回)に達する場合に、図12(C)に示すように所定のエフェクトオブジェクトを配置した合成映像を生成するというものである。
Here, a scene where the “support” button is touched will be described.
The video composition unit 308 of the video composition device 300 displays the characters “READY...” As shown in FIG. 14 (A), and after a predetermined time, the characters “CHEER!” As shown in FIG. 14 (B). Generate a composite image that displays. Then, when the number of touches of the “cheer” button reaches the predetermined threshold (for example, 100 times) at the timing when the characters “CHEER!” Are displayed on the composite video, the video composition device 300 is displayed in FIG. As shown in (C), a composite video in which predetermined effect objects are arranged is generated.

ここで、操作種別「5」の操作情報を受信したときの映像合成装置300の動作について説明する。
図15は、映像合成装置300による第5の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「5」の操作の内容を読み出すと、計数部304は、現在時刻が、映像合成部308が「CHEER!」の文字を含む合成映像を生成してから所定の制限時間(例えば、1秒)内の時刻であるか否かを判定する(ステップS501)。計数部304が、現在時刻が所定の制限時間内の時刻でないと判定した場合(ステップS501:NO)、処理を終了する。
Here, the operation of the video composition device 300 when the operation information of the operation type “5” is received will be described.
FIG. 15 is a flowchart showing the operation of the fifth control example by the video composition device 300.
When the object determination unit 305 of the video composition device 300 reads the content of the operation type “5” in step S11 described above, the counting unit 304 includes the current time and the video composition unit 308 includes the characters “CHEER!”. It is determined whether the time is within a predetermined time limit (for example, 1 second) after the composite video is generated (step S501). If the counting unit 304 determines that the current time is not within the predetermined time limit (step S501: NO), the process ends.

他方、計数部304は、現在時刻が所定の制限時間内の時刻であると判定した場合(ステップS501:YES)、内部メモリに記憶する操作種別「5」の操作情報の受信回数に1を加算する(ステップS502)。   On the other hand, when the counting unit 304 determines that the current time is within the predetermined time limit (step S501: YES), the counting unit 304 adds 1 to the number of times of reception of the operation information of the operation type “5” stored in the internal memory. (Step S502).

次に、オブジェクト決定部305は、計数部304が計数する操作種別「5」の操作情報の受信回数が所定の閾値に達したか否かを判定する(ステップS503)。オブジェクト決定部305は、受信回数が所定の閾値を達していないと判定した場合(ステップS503:NO)、いずれのオブジェクトの位置及び形状の変更も行わずに、処理を終了する。   Next, the object determining unit 305 determines whether or not the number of times of receiving operation information of the operation type “5” counted by the counting unit 304 has reached a predetermined threshold (step S503). If the object determination unit 305 determines that the number of receptions has not reached the predetermined threshold (step S503: NO), the object determination unit 305 ends the process without changing the position and shape of any object.

他方、オブジェクト決定部305は、受信回数が所定の閾値を達したと判定した場合(ステップS503:YES)、エフェクトオブジェクトを生成し、当該エフェクトオブジェクトを所定の位置に配置する(ステップS504)。そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図14(C)に示すように所定のタイミングにおいて「応援」ボタンのタッチ数が所定数に達した場合に、エフェクトオブジェクトを含む合成映像を生成することができる。   On the other hand, when the object determination unit 305 determines that the number of receptions has reached a predetermined threshold (step S503: YES), the object determination unit 305 generates an effect object and places the effect object at a predetermined position (step S504). Then, the virtual space calculation unit 306 updates the object in the virtual space in step S13 described above, so that the video composition unit 308 touches the “support” button at a predetermined timing as shown in FIG. When the predetermined number is reached, a composite video including an effect object can be generated.

《○×ジェスチャ入力》
図16は、拡張現実システムによる第6の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図16(A)に示すように利用者が「○×」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「○×」ボタンに関連付けられた操作種別(ここでは操作種別「6」)の操作であると特定する。図4に示すとおり、操作種別「6」のオプション情報にはジェスチャ情報が含まれるため、操作部104は、次にタッチ操作によるジェスチャの入力を受け付ける。
《○ × gesture input》
FIG. 16 is a schematic diagram of a sixth control example by the augmented reality system.
When the user interface shown in FIG. 3 is displayed on the touch panel of the terminal device 100, when the user touches the “XX” button as shown in FIG. 16A, the operation unit 104 of the terminal device 100 is displayed. The operation is identified as an operation of the operation type (here, operation type “6”) associated with the “Ox” button. As shown in FIG. 4, since the option information of the operation type “6” includes gesture information, the operation unit 104 next receives an input of a gesture by a touch operation.

図16(B)に示すように利用者がタッチパネルにおいて所定のタッチ操作を行うと、操作部104は、タッチ操作の軌跡を特定し、当該軌跡が予め定められたジェスチャ(例えば、○、×)のうちいずれのジェスチャに該当するかを特定する。そして、操作部104は、操作種別を「6」とし、オプション情報に特定したジェスチャを示すジェスチャ情報を含む操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
これにより、映像合成装置300は、図16(C)に示すように、ジェスチャ情報が示す入力の多数決の結果を示すオブジェクトを含む合成映像を生成する。
As shown in FIG. 16B, when the user performs a predetermined touch operation on the touch panel, the operation unit 104 identifies a trajectory of the touch operation, and a gesture in which the trajectory is predetermined (for example, ◯, ×). Of which gesture is applicable. Then, the operation unit 104 sets the operation type to “6” and generates operation information including gesture information indicating the gesture specified in the option information. Then, the operation information transmission unit 105 transmits the operation information generated by the operation unit 104 to the video composition device 300.
As a result, the video composition device 300 generates a composite video including an object indicating the result of the majority of inputs indicated by the gesture information, as shown in FIG.

ここで、操作種別「6」の操作情報を受信したときの映像合成装置300の動作について説明する。
図17は、映像合成装置300による第6の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「6」の操作の内容を読み出すと、計数部304は、受信した操作情報のジェスチャ情報を読み出し、該当するジェスチャ情報(○または×)の受付数に1を加算する(ステップS601)。
次に、計数部304は、現在時刻が操作種別「6」の操作情報の受け付けの締め切り時刻に達したか否かを判定する(ステップS602)。計数部304は、現在時刻が操作種別「6」の操作情報の受け付けの締め切り時刻に達していないと判定した場合(ステップS602:NO)、処理を終了する。
Here, the operation of the video composition device 300 when the operation information of the operation type “6” is received will be described.
FIG. 17 is a flowchart showing the operation of the sixth control example by the video composition apparatus 300.
When the object determination unit 305 of the video composition device 300 reads the content of the operation type “6” in step S11 described above, the counting unit 304 reads the gesture information of the received operation information, and the corresponding gesture information (◯ or 1 is added to the number of receptions of (x) (step S601).
Next, the counting unit 304 determines whether or not the current time has reached the deadline for accepting operation information of the operation type “6” (step S602). When the counting unit 304 determines that the current time has not reached the deadline for accepting operation information of the operation type “6” (step S602: NO), the processing ends.

他方、計数部304が、現在時刻が操作種別「6」の操作情報の受け付けの締め切り時刻に達したと判定した場合(ステップS602:YES)、オブジェクト決定部305は、計数部304が受付数を計数した受付数が最も多いジェスチャ情報を特定する(ステップS603)。そして、オブジェクト決定部305は、特定したジェスチャ情報に対応するオブジェクト(例えば、図16(C)の文字オブジェクト「YES」など)を生成し、当該エフェクトオブジェクトを所定の位置に配置する(ステップS604)。   On the other hand, when the counting unit 304 determines that the current time has reached the deadline for accepting operation information of the operation type “6” (step S602: YES), the object determining unit 305 indicates that the counting unit 304 indicates the number of acceptances. The gesture information having the largest number of received receptions is identified (step S603). Then, the object determining unit 305 generates an object (for example, a character object “YES” in FIG. 16C) corresponding to the specified gesture information, and places the effect object at a predetermined position (step S604). .

そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図16(C)に示すようにジェスチャ情報に対応するオブジェクトを含む合成映像を生成することができる。   Then, when the virtual space calculation unit 306 updates the object in the virtual space in step S13 described above, the video composition unit 308 displays a composite video including the object corresponding to the gesture information as illustrated in FIG. Can be generated.

《エフェクトオブジェクトの変更》
図18は、拡張現実システムによる第7の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図18(A)に示すように利用者が「エフェクト変更」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「エフェクト変更」ボタンに関連付けられた操作種別(ここでは操作種別「7」)の操作であると特定し、操作種別を「7」とする操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。
これにより、映像合成装置300は、図18(B)に示すように、エフェクトオブジェクトを変更した合成映像を生成する。
《Change effect object》
FIG. 18 is a schematic diagram of a seventh control example by the augmented reality system.
When the user interface shown in FIG. 3 is displayed on the touch panel of the terminal device 100, when the user touches the “change effect” button as shown in FIG. 18A, the operation unit 104 of the terminal device 100 is displayed. The operation is identified as an operation of the operation type (here, operation type “7”) associated with the “change effect” button, and operation information with the operation type “7” is generated. Then, the operation information transmission unit 105 transmits the operation information generated by the operation unit 104 to the video composition device 300.
As a result, the video composition device 300 generates a composite video in which the effect object is changed, as shown in FIG.

ここで、操作種別「7」の操作情報を受信したときの映像合成装置300の動作について説明する。
図19は、映像合成装置300による第7の制御例の動作を示すフローチャートである。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「7」の操作の内容を読み出すと、まずオブジェクト決定部305は、仮想空間計算部306が計算する仮想空間にエフェクトオブジェクトが存在するか否かを判定する(ステップS701)。オブジェクト決定部305は、仮想空間にエフェクトオブジェクトが存在しないと判定した場合(ステップS701:NO)、処理を終了する。
Here, the operation of the video composition device 300 when the operation information of the operation type “7” is received will be described.
FIG. 19 is a flowchart showing the operation of the seventh control example by the video composition apparatus 300.
When the object determination unit 305 of the video composition device 300 reads the operation type “7” in step S11 described above, the object determination unit 305 first has an effect object in the virtual space calculated by the virtual space calculation unit 306. It is determined whether or not to perform (step S701). If the object determination unit 305 determines that there is no effect object in the virtual space (step S701: NO), the process ends.

他方、オブジェクト決定部305が、仮想空間にエフェクトオブジェクトが存在すると判定した場合(ステップS701:YES)、当該エフェクトオブジェクトの形状を、予め定められた他の形状に決定する(ステップS702)。   On the other hand, when the object determination unit 305 determines that an effect object exists in the virtual space (step S701: YES), the shape of the effect object is determined to be another predetermined shape (step S702).

そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、映像合成部308は、図18(B)に示すようにエフェクトオブジェクトが変化した合成映像を生成することができる。   Then, when the virtual space calculation unit 306 updates the object in the virtual space in step S13 described above, the video composition unit 308 generates a composite video in which the effect object is changed as illustrated in FIG. Can do.

《キャラクタオブジェクトの操作》
図20は、拡張現実システムによる第8の制御例の概略図である。
端末装置100のタッチパネルに、図3に示すユーザインタフェースが表示されている場合において、図20(A)に示すように利用者が「キャラクタ操作」ボタンをタッチすると、端末装置100の操作部104は、当該操作が「キャラクタ操作」ボタンに関連付けられた操作種別(ここでは操作種別「8」)の操作であると特定する。
<Manipulating character objects>
FIG. 20 is a schematic diagram of an eighth control example by the augmented reality system.
When the user interface shown in FIG. 3 is displayed on the touch panel of the terminal device 100, when the user touches the “character operation” button as shown in FIG. The operation is specified as an operation of the operation type (here, operation type “8”) associated with the “character operation” button.

次に、オブジェクト表示部103は、映像受信部101が受信した映像に含まれるキャラクタオブジェクトを含む操作ペインをタッチパネルに表示する。操作ペインには、キャラクタオブジェクトに重畳して、当該キャラクタオブジェクトの関節と関節間のつながりを示すリンク線が提示される。また、操作ペインには、キャラクタオブジェクトを回転させる回転ボタンが含まれる。   Next, the object display unit 103 displays an operation pane including a character object included in the video received by the video receiving unit 101 on the touch panel. In the operation pane, a link line indicating the connection between the joints of the character object is displayed in a manner superimposed on the character object. The operation pane also includes a rotation button for rotating the character object.

ここで、図6(B)に示すように利用者がタッチパネルに表示された操作ペイン上のキャラクタオブジェクトをタッチすると、操作部104は、タッチされたキャラクタオブジェクトの部位の基準となる関節の関節IDを特定する。そして、利用者がキャラクタオブジェクトをドラッグ操作すると、操作部104は、当該ドラッグ操作の移動量に対応する関節の回転角を算出する。そして、操作部104は、操作種別を「8」とし、オプション情報に特定した関節ID及び回転角を含む操作情報を生成する。そして、操作情報送信部105は、操作部104が生成した操作情報を映像合成装置300に送信する。   Here, as shown in FIG. 6B, when the user touches the character object on the operation pane displayed on the touch panel, the operation unit 104 displays the joint ID of the joint serving as a reference for the part of the touched character object. Is identified. When the user performs a drag operation on the character object, the operation unit 104 calculates a rotation angle of the joint corresponding to the movement amount of the drag operation. Then, the operation unit 104 sets the operation type to “8”, and generates operation information including the joint ID and the rotation angle specified in the option information. Then, the operation information transmission unit 105 transmits the operation information generated by the operation unit 104 to the video composition device 300.

ここで、操作種別「8」の操作情報を受信したときの映像合成装置300の動作について説明する。
上述したステップS11で映像合成装置300のオブジェクト決定部305が操作種別「8」の操作の内容を読み出すと、オブジェクト決定部305は、対応するキャラクタオブジェクトの関節のうち、操作情報に含まれる関節IDが示すものを、操作情報に含まれる角度情報が示す角度だけ回転させる。つまり、オブジェクト決定部305は、利用者によるドラッグ操作においてドラッグされたオブジェクトの一部の位置及び形状を、ドラッグ後の位置及び形状に変更する。そして、仮想空間計算部306が上述したステップS13により仮想空間のオブジェクトの更新を行うことで、利用者の操作と同期してオブジェクトの位置及び形状を変化させた合成映像を生成する。
Here, the operation of the video composition device 300 when the operation information of the operation type “8” is received will be described.
When the object determination unit 305 of the video composition device 300 reads the content of the operation of the operation type “8” in step S11 described above, the object determination unit 305 includes the joint ID included in the operation information among the joints of the corresponding character object. Is rotated by the angle indicated by the angle information included in the operation information. That is, the object determination unit 305 changes the position and shape of a part of the object dragged by the drag operation by the user to the position and shape after dragging. Then, the virtual space calculation unit 306 updates the object in the virtual space in step S13 described above, thereby generating a composite image in which the position and shape of the object are changed in synchronization with the user's operation.

なお、利用者が操作ペイン上の回転ボタンをタッチすると、オブジェクト表示部103は、当該タッチに応じて操作ペイン内のオブジェクトを描画するレンダリングカメラの回転角を増減させることで、操作ペイン内のキャラクタオブジェクトを回転させる。これにより、利用者は、キャラクタオブジェクトの形状を高さ方向、幅方向に加えて奥行き方向に変化させる操作を行うことができる。なお、ここでは回転ボタンのタッチにより操作ペイン内のキャラクタオブジェクトを回転させる例について説明したが、これに限られず、レンダリングカメラの位置や画角など、その他のパラメータを変更するボタンを備える構成としても良い。   When the user touches the rotation button on the operation pane, the object display unit 103 increases or decreases the rotation angle of the rendering camera that draws the object in the operation pane in response to the touch, so that the character in the operation pane is displayed. Rotate the object. Accordingly, the user can perform an operation of changing the shape of the character object in the depth direction in addition to the height direction and the width direction. Here, an example in which the character object in the operation pane is rotated by touching the rotation button has been described. However, the present invention is not limited to this, and the configuration may include a button for changing other parameters such as the position and angle of view of the rendering camera. good.

以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
例えば、合成映像の操作は上述した8つの制御例に限られず、その他の制御を行っても良い。
As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to
For example, the operation of the composite video is not limited to the eight control examples described above, and other controls may be performed.

また、本実施形態では、映像合成装置300と通信を行う端末装置100が複数存在する場合について説明したが、これに限られず、映像合成装置300は1つの端末装置100と通信を行うものであっても良い。   In this embodiment, the case where there are a plurality of terminal devices 100 that communicate with the video composition device 300 has been described. However, the present invention is not limited to this, and the video composition device 300 communicates with one terminal device 100. May be.

また、本実施形態では、管理者が映像合成装置300に変更命令を直接入力する場合について説明したが、これに限られず、ネットワークを介して接続される外部装置を介して入力するものであっても良い。   Further, in the present embodiment, the case where the administrator directly inputs a change command to the video composition device 300 has been described. However, the present invention is not limited to this, and is input via an external device connected via a network. Also good.

また、本実施形態では、端末装置100が操作情報をTCPにより映像合成装置300に送信し、映像合成装置300がUDPにより合成映像を端末装置100に送信する場合について説明したが、これに限られない。例えば、端末装置100は、UDPやその他のプロトコルに従って操作情報を送信しても良いし、映像合成装置300は、TCPやその他のプロトコルに従って合成映像を送信しても良い。   In the present embodiment, the case has been described in which the terminal device 100 transmits the operation information to the video composition device 300 using TCP, and the video composition device 300 transmits the composite video to the terminal device 100 using UDP. Absent. For example, the terminal device 100 may transmit operation information according to UDP or another protocol, and the video composition device 300 may transmit composite video according to TCP or another protocol.

なお、上述の端末装置100及び映像合成装置300はそれぞれ内部に、コンピュータシステムを有している。そして、上述した各処理部の動作は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。   Note that the terminal device 100 and the video composition device 300 described above each have a computer system. The operation of each processing unit described above is stored in a computer-readable recording medium in the form of a program, and the above processing is performed by the computer reading and executing this program. Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.

また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

100…端末装置 101…映像受信部 102…映像表示部 103…オブジェクト表示部 104…操作部 105…操作情報送信部 200…撮像装置 300…映像合成装置 301…操作情報受信部 302…操作情報記憶部 303…座標特定部 304…計数部 305…オブジェクト決定部 306…仮想空間計算部 307…映像取得部 308…映像合成部 309…解像度取得部 310…映像送信部 311…変更命令入力部 312…操作情報変更部   DESCRIPTION OF SYMBOLS 100 ... Terminal device 101 ... Image | video receiving part 102 ... Image | video display part 103 ... Object display part 104 ... Operation part 105 ... Operation information transmission part 200 ... Imaging device 300 ... Image composition apparatus 301 ... Operation information receiving part 302 ... Operation information storage part 303 ... Coordinate specifying unit 304 ... Counting unit 305 ... Object determining unit 306 ... Virtual space calculation unit 307 ... Video acquisition unit 308 ... Video composition unit 309 ... Resolution acquisition unit 310 ... Video transmission unit 311 ... Change command input unit 312 ... Operation information Change part

Claims (7)

撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置と、前記合成映像を表示する複数の端末装置とを備える拡張現実システムであって、
前記端末装置は、
前記映像合成装置から合成映像を受信する映像受信部と、
前記映像受信部が受信した合成映像を表示する映像表示部と、
前記映像表示部に表示された合成映像に対する操作を示す操作情報として所定の操作を実行させる前記映像表示部が表示する合成映像上の二次元座標の指定を受け付ける操作部と、
前記操作部が受け付けた操作情報を前記映像合成装置に送信する操作情報送信部と
を備え、
前記映像合成装置は、
前記複数の端末装置から前記操作情報を受信する操作情報受信部と、
前記撮像装置が撮像した映像における前記操作情報が示す二次元座標の周辺の所定の範囲内にマーカーが存在する場合、当該マーカーが存在する三次元座標を特定する座標特定部と、
前記座標特定部が特定した三次元座標が示す位置にオブジェクトを配置するオブジェクト決定部と、
前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部と、
前記映像合成部が生成した合成映像を、前記複数の端末装置に送信する映像送信部と
を備えることを特徴とする拡張現実システム。
An augmented reality system comprising: a video composition device that generates a composite video of a video captured by an imaging device and a computer graphics object; and a plurality of terminal devices that display the composite video,
The terminal device
A video receiver for receiving a composite video from the video synthesizer;
A video display unit for displaying the composite video received by the video receiving unit;
An operation unit that accepts designation of two-dimensional coordinates on the composite video displayed by the video display unit that performs a predetermined operation as operation information indicating an operation on the composite video displayed on the video display unit;
An operation information transmission unit that transmits operation information received by the operation unit to the video composition device;
The video composition device
An operation information receiving unit for receiving the operation information from the plurality of terminal devices;
When a marker is present within a predetermined range around the two-dimensional coordinate indicated by the operation information in the image captured by the imaging device, a coordinate specifying unit that specifies the three-dimensional coordinate where the marker exists;
An object determining unit that arranges an object at a position indicated by the three-dimensional coordinates specified by the coordinate specifying unit;
A video synthesis unit that synthesizes an object placed in the virtual space with a video captured by the imaging device;
An augmented reality system comprising: a video transmission unit configured to transmit the composite video generated by the video synthesis unit to the plurality of terminal devices.
前記座標特定部は、前記操作情報が示す二次元座標と当該操作情報の送信元の端末装置のディスプレイ解像度とに基づいて、前記操作情報が示す二次元座標に対応する前記仮想空間上の三次元座標を特定する
ことを特徴とする請求項1に記載の拡張現実システム。
The coordinate specifying unit is configured to generate a three-dimensional map in the virtual space corresponding to the two-dimensional coordinates indicated by the operation information based on the two-dimensional coordinates indicated by the operation information and the display resolution of the terminal device that is the transmission source of the operation information. The augmented reality system according to claim 1, wherein coordinates are specified.
前記映像合成装置は、前記複数の端末装置から当該端末装置のディスプレイ解像度を取得する解像度取得部を備え、
前記映像送信部は、前記映像合成部が生成した合成映像を、前記解像度取得部が取得した解像度に変換して前記端末装置に送信する
ことを特徴とする請求項1または請求項2に記載の拡張現実システム。
The video composition device includes a resolution acquisition unit that acquires the display resolution of the terminal device from the plurality of terminal devices,
The video transmitting unit, a combined image in which the image combining unit has generated, by converting the resolution the resolution acquiring unit has acquired as claimed in claim 1 or claim 2, characterized in that transmitting to the terminal device Augmented reality system.
前記操作部は、タッチパネル上のタッチ操作の入力を受け付け、当該タッチ操作の軌跡に対応する操作情報を特定する
ことを特徴とする請求項1から請求項3の何れか1項に記載の拡張現実システム。
The augmented reality according to any one of claims 1 to 3 , wherein the operation unit receives an input of a touch operation on a touch panel and specifies operation information corresponding to a locus of the touch operation. system.
撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置であって、
複数の端末装置から前記合成映像上の二次元座標の指定を示す操作情報を受信する操作情報受信部と、
前記撮像装置が撮像した映像における前記操作情報が示す二次元座標の周辺の所定の範囲内にマーカーが存在する場合、当該マーカーが存在する三次元座標を特定する座標特定部と、
前記座標特定部が特定した三次元座標が示す位置にオブジェクトを配置するオブジェクト決定部と、
前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部と、
前記映像合成部が生成した合成映像を、前記複数の端末装置に送信する映像送信部と
を備えることを特徴とする映像合成装置。
A video compositing device that generates a composite video of an image captured by an imaging device and a computer graphics object,
An operation information receiving unit for receiving operation information indicating designation of two-dimensional coordinates on the composite video from a plurality of terminal devices;
When a marker is present within a predetermined range around the two-dimensional coordinate indicated by the operation information in the image captured by the imaging device, a coordinate specifying unit that specifies the three-dimensional coordinate where the marker exists;
An object determining unit that arranges an object at a position indicated by the three-dimensional coordinates specified by the coordinate specifying unit;
A video synthesis unit that synthesizes an object placed in the virtual space with a video captured by the imaging device;
A video synthesizing apparatus comprising: a video transmitting unit configured to transmit the synthesized video generated by the video synthesizing unit to the plurality of terminal devices.
撮像装置が撮像した映像とコンピュータグラフィックスのオブジェクトとの合成映像を生成する映像合成装置が、複数の端末装置から前記合成映像上の二次元座標の指定を示す操作情報を受信し、
前記映像合成装置が、前記撮像装置が撮像した映像における前記操作情報が示す二次元座標の周辺の所定の範囲内にマーカーが存在する場合、当該マーカーが存在する三次元座標を特定し、
前記映像合成装置が、特定した三次元座標が示す位置にオブジェクトを配置し、
前記映像合成装置が、前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成し、
前記映像合成装置が、前記生成した合成映像を前記複数の端末装置に送信する
ことを特徴とする映像合成方法。
A video composition device that generates a composite image of the image captured by the imaging device and a computer graphics object, receives operation information indicating designation of two-dimensional coordinates on the composite image from a plurality of terminal devices;
When the video composition device has a marker within a predetermined range around the two-dimensional coordinate indicated by the operation information in the video imaged by the imaging device, the three-dimensional coordinate where the marker exists is specified,
The video composition device places an object at a position indicated by the identified three-dimensional coordinates,
The video composition device synthesizes an object arranged in the virtual space with a video imaged by the imaging device,
The video composition method, wherein the video composition device transmits the generated composite video to the plurality of terminal devices.
コンピュータを、
複数の端末装置から前記合成映像上の二次元座標の指定を示す操作情報を受信する操作情報受信部、
前記撮像装置が撮像した映像における前記操作情報が示す二次元座標の周辺の所定の範囲内にマーカーが存在する場合、当該マーカーが存在する三次元座標を特定する座標特定部、
前記座標特定部が特定した三次元座標が示す位置にオブジェクトを配置するオブジェクト決定部、
前記仮想空間に配置されたオブジェクトを前記撮像装置が撮像した映像に合成する映像合成部、
前記映像合成部が生成した合成映像を、前記複数の端末装置に送信する映像送信部
として機能させるためのプログラム。
Computer
An operation information receiving unit that receives operation information indicating designation of two-dimensional coordinates on the composite video from a plurality of terminal devices,
When a marker is present within a predetermined range around the two-dimensional coordinate indicated by the operation information in the image captured by the imaging device, a coordinate specifying unit that specifies the three-dimensional coordinate where the marker exists,
An object determining unit that arranges an object at a position indicated by the three-dimensional coordinates specified by the coordinate specifying unit;
A video synthesis unit that synthesizes an object placed in the virtual space with a video captured by the imaging device;
A program for causing a synthesized video generated by the video synthesizing unit to function as a video transmitting unit that transmits the synthesized video to the plurality of terminal devices.
JP2012187747A 2012-08-28 2012-08-28 Augmented reality system, video composition device, video composition method, and program Active JP5568610B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012187747A JP5568610B2 (en) 2012-08-28 2012-08-28 Augmented reality system, video composition device, video composition method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012187747A JP5568610B2 (en) 2012-08-28 2012-08-28 Augmented reality system, video composition device, video composition method, and program

Publications (2)

Publication Number Publication Date
JP2014044655A JP2014044655A (en) 2014-03-13
JP5568610B2 true JP5568610B2 (en) 2014-08-06

Family

ID=50395857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012187747A Active JP5568610B2 (en) 2012-08-28 2012-08-28 Augmented reality system, video composition device, video composition method, and program

Country Status (1)

Country Link
JP (1) JP5568610B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11494986B2 (en) 2017-04-20 2022-11-08 Samsung Electronics Co., Ltd. System and method for two dimensional application usage in three dimensional virtual reality environment

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015230685A (en) * 2014-06-06 2015-12-21 株式会社ソニー・コンピュータエンタテインメント Image processor, image processing system, terminal device, image processing method and image processing program
WO2015186402A1 (en) * 2014-06-06 2015-12-10 株式会社ソニー・コンピュータエンタテインメント Image processing device, image processing method, and image processing program
EP3790284A1 (en) * 2014-10-22 2021-03-10 Huawei Technologies Co., Ltd. Interactive video generation
JP6777089B2 (en) 2015-11-04 2020-10-28 ソニー株式会社 Information processing equipment, information processing methods and programs
JP6275310B1 (en) * 2017-05-26 2018-02-07 株式会社テクテック Augmented reality display system, program and method
JP7038602B2 (en) * 2018-05-28 2022-03-18 株式会社 ディー・エヌ・エー Systems, methods, and programs for creating videos
JP2020021225A (en) * 2018-07-31 2020-02-06 株式会社ニコン Display control system, display control method, and display control program
WO2023017627A1 (en) * 2021-08-10 2023-02-16 ソニーグループ株式会社 Information processing device, information processing method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3377304B2 (en) * 1994-07-05 2003-02-17 株式会社ナムコ Game device
JP4262011B2 (en) * 2003-07-30 2009-05-13 キヤノン株式会社 Image presentation method and apparatus
JP4244040B2 (en) * 2005-03-10 2009-03-25 任天堂株式会社 Input processing program and input processing apparatus
JP2006270690A (en) * 2005-03-25 2006-10-05 Funai Electric Co Ltd Data transmission system
JP2012048597A (en) * 2010-08-30 2012-03-08 Univ Of Tokyo Mixed reality display system, image providing server, display device and display program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11494986B2 (en) 2017-04-20 2022-11-08 Samsung Electronics Co., Ltd. System and method for two dimensional application usage in three dimensional virtual reality environment

Also Published As

Publication number Publication date
JP2014044655A (en) 2014-03-13

Similar Documents

Publication Publication Date Title
JP5568610B2 (en) Augmented reality system, video composition device, video composition method, and program
JP5145444B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP5942456B2 (en) Image processing apparatus, image processing method, and program
WO2014188798A1 (en) Display control device, display control method, and recording medium
WO2014188797A1 (en) Display control device, display control method, and recording medium
CN111045511B (en) Gesture-based control method and terminal equipment
US20130057574A1 (en) Storage medium recorded with program, information processing apparatus, information processing system, and information processing method
JP2014021570A (en) Moving image generation device
GB2507510A (en) Server-supported augmented reality with differential image region compression
JP7353782B2 (en) Information processing device, information processing method, and program
US20210274145A1 (en) Methods, systems, and media for generating and rendering immersive video content
US20210082084A1 (en) Virtual object translation
WO2020149270A1 (en) Method for generating 3d object arranged in augmented reality space
CN111161396B (en) Virtual content control method, device, terminal equipment and storage medium
JP2017033294A (en) Three-dimensional drawing system and three-dimensional drawing program
KR20210046759A (en) Image display methods, devices and systems
WO2021196973A1 (en) Virtual content display method and apparatus, and electronic device and storage medium
CN109814704B (en) Video data processing method and device
WO2016102948A1 (en) Coherent touchless interaction with stereoscopic 3d images
CN114816088A (en) Online teaching method, electronic equipment and communication system
JP5326816B2 (en) Remote conference system, information processing apparatus, and program
KR20130127704A (en) Method for view point remote control in video telephone system
JP2017084215A (en) Information processing system, control method thereof, and program
JP2016115230A (en) Information processing apparatus, information processing system, control method thereof, and program
JP2013152642A (en) Terminal device, display system, control method of terminal device, control program of terminal device and recording medium storing the control program

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140507

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140610

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140623

R150 Certificate of patent or registration of utility model

Ref document number: 5568610

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250