JP7294667B2 - VIDEO TRANSMISSION SYSTEM, OPERATION METHOD OF VIDEO TRANSMISSION SYSTEM, AND OPERATION PROGRAM OF VIDEO TRANSMISSION SYSTEM - Google Patents
VIDEO TRANSMISSION SYSTEM, OPERATION METHOD OF VIDEO TRANSMISSION SYSTEM, AND OPERATION PROGRAM OF VIDEO TRANSMISSION SYSTEM Download PDFInfo
- Publication number
- JP7294667B2 JP7294667B2 JP2020179828A JP2020179828A JP7294667B2 JP 7294667 B2 JP7294667 B2 JP 7294667B2 JP 2020179828 A JP2020179828 A JP 2020179828A JP 2020179828 A JP2020179828 A JP 2020179828A JP 7294667 B2 JP7294667 B2 JP 7294667B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- information
- object image
- selected area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本システムは、セキュリティを確保した映像送信のための技術および方法等に関する。 The present system relates to techniques, methods, and the like for secure video transmission.
保守作業時に、スマートグラス等のウェアラブルデバイスを含むスマートデバイスを用いた遠隔作業支援が実用化されている。この遠隔作業支援により、作業者と支援者(監督者)が作業状況をリアルタイムで共有することができるため、迅速かつ正確な作業を行うことができ、また移動コストがかからず技術伝承やスキルアップが期待されるなど多くの効果が期待できる。 During maintenance work, remote work support using smart devices including wearable devices such as smart glasses has been put into practical use. With this remote work support, workers and supporters (supervisors) can share the work status in real time, so work can be done quickly and accurately. Many effects can be expected, such as an increase is expected.
しかしながら、保守作業で対象となる装置が例えばデータセンターやオフィス内である場合、社外秘情報等が映りこんでしまう恐れがあり、顧客が策定したセキュリティポリシー(情報セキュリティに関する方針)を遵守するため、顧客によってはスマートデバイスを用いた遠隔作業支援を適用できないケースがあった。 However, if the target device for maintenance work is in a data center or office, for example, there is a risk that confidential information will be reflected in the image. In some cases, remote work support using smart devices could not be applied.
特許文献1には、携帯端末で撮影した画像と予め記憶した画像(配信が可能な画像)を照合比較し、一致しなかった部分についてはマスク処理した上で遠隔支援者に配信することで、セキュリティを確保しつつ作業実施を可能にする旨が記載されている。
In
なお、上記先行技術文献の各開示を、本書に引用をもって繰り込むものとする。以下の
分析は、本発明者らによってなされたものである。
In addition, each disclosure of the above prior art documents is incorporated into this document by reference. The following analysis was made by the inventors.
上記の通り、配信が可能な部分の画像に基づいて映像をマスク処理することでセキュリティを確保しつつ遠隔支援者等に映像の配信をすることが可能である。 As described above, by masking the image based on the image of the part that can be delivered, it is possible to deliver the image to the remote support person or the like while ensuring security.
しかしながら、特許文献1の技術では、予め配信可能な保守作業装置の画像を登録しておくことが必要となる。また作業を行う際は、様々な角度から映像配信を行い、情報共有しなければ十分に効率良く作業を実施することはできない。つまり、特許文献1において、多くの機器を保守対象とする場合には、一機種ごとに複数の角度から撮影した画像を予め登録しておく必要があり、事前設定に大きな手間が生じてしまう。もし登録漏れが生じてしまい、特定の角度における画像を登録していなかった場合には、その画像を遠隔支援者と共有することができず、作業を円滑に進めることができなくなってしまうという危険性がある。
However, with the technique disclosed in
本発明の一視点において、保守対象の存在する環境に応じて配信可能な空間領域が選択可能であり、選択領域以外の部分をマスク処理することでセキュリティが確保された配信に寄与する映像送信システム、映像送信システムの動作方法、および映像送信システムの動作プログラムを提供することを目的とする。 In one aspect of the present invention, a video transmission system that can select a spatial area that can be distributed according to the environment in which the maintenance target exists, and contributes to security-ensured distribution by masking the area other than the selected area. , an operation method of a video transmission system, and an operation program of the video transmission system.
本発明の第一の視点によれば、携帯端末とウェアラブル端末とを有する映像送信システムであって、携帯端末は、位置情報を取得する位置情報取得部と、取得した前記位置情報を基点とした対象物を含む空間領域を選択した選択領域を特定する選択領域情報を生成する選択領域情報生成部と、取得された前記位置情報と前記選択領域情報とを前記ウェアラブル端末へ送信する送信部と、を有し、前記ウェアラブル端末は、対象物を含む映像である対象物映像を取得する対象物映像取得部と、携帯端末から前記位置情報と前記選択領域情報とを受信する受信部と、前記位置情報と、前記選択領域情報とを用いて、前記選択領域を前記対象物映像内にマッピングして対象物映像内領域映像を生成する対象物映像内領域映像生成部と、前記対象物映像内領域映像以外の領域を不可視化するマスクを生成するマスク生成部と、生成された前記マスクと、前記対象物映像とを合成する合成部と、合成された映像を出力する出力部と、を有する映像送信システムが提供される。 According to a first aspect of the present invention, there is provided a video transmission system having a mobile terminal and a wearable terminal, wherein the mobile terminal includes a position information acquisition unit for acquiring position information and a a selected area information generating unit that generates selected area information specifying a selected area in which a spatial area including an object is selected; a transmitting unit that transmits the acquired position information and the selected area information to the wearable terminal; , the wearable terminal includes a target object image acquiring unit that acquires an object image that is an image including the object, a receiving unit that receives the position information and the selected area information from the mobile terminal, and the position an intra-target image area image generation unit that generates an intra-object image area image by mapping the selected area in the target object image using information and the selected area information; An image comprising a mask generation unit that generates a mask that makes an area other than the image invisible, a synthesis unit that synthesizes the generated mask and the object image, and an output unit that outputs the synthesized image. A transmission system is provided.
本発明の第二の視点によれば、携帯端末とウェアラブル端末とを有する映像送信システムの動作方法であって、前記携帯端末は、位置情報を取得する位置情報取得ステップと、取得した前記位置情報を基点とした対象物を含む空間領域を選択した選択領域を特定する選択領域情報を生成する選択領域情報生成ステップと、取得された前記位置情報と前記選択領域情報とをウェアラブル端末へ送信する送信ステップと、を有し、前記ウェアラブル端末は、前記対象物を含む映像である対象物映像を取得する対象物映像取得ステップと、前記携帯端末から前記位置情報と前記選択領域情報とを受信する受信ステップと、前記位置情報と、前記選択領域情報を用いて、前記選択領域を前記対象物映像内にマッピングして対象物映像内領域映像を生成する対象物映像内領域映像生成ステップと、前記対象物映像内領域映像以外の領域を不可視化するマスクを生成するマスク生成ステップと、前記マスクと、前記対象物映像とを合成する合成ステップと、合成された映像を出力する出力ステップと、を有する映像送信システムの動作方法が提供される。 According to a second aspect of the present invention, there is provided a method of operating a video transmission system having a mobile terminal and a wearable terminal, wherein the mobile terminal acquires location information; a selection area information generating step of generating selection area information specifying a selection area in which a spatial area including an object is selected with the base point as a selected area; and transmission of transmitting the acquired position information and the selection area information to a wearable terminal. wherein the wearable terminal has a step of obtaining a target object image that is a video including the target object, and a receiving step of receiving the position information and the selected area information from the portable terminal. a step of generating an area image within an object image for generating an area image within an object image by mapping the selected area within the object image using the position information and the selected area information; a mask generation step of generating a mask for making an area other than the object image intra-area image invisible; a synthesis step of synthesizing the mask and the object image; and an output step of outputting the synthesized image. A method of operating a video transmission system is provided.
本発明の第三の視点によれば、携帯端末とウェアラブル端末とを有する映像送信システムの動作プログラムであって、前記携帯端末は、位置情報を取得する処理と、取得した前記位置情報を基点とした対象物を含む空間領域を選択した選択領域を特定する選択領域情報を生成する処理と、取得された前記位置情報と前記選択領域情報とを前記ウェアラブル端末へ送信する処理と、を実行し、前記ウェアラブル端末は、前記対象物を含む映像である対象物映像を取得する処理と、前記携帯端末から前記位置情報と前記選択領域情報とを受信する処理と、前記位置情報と、前記選択領域情報とを用いて、前記選択領域を前記対象物映像内にマッピングして対象物映像内領域映像を生成する処理と、前記対象物映像内領域映像以外の領域を不可視化するマスクを生成する処理と、生成された前記マスクと、前記対象物映像とを合成する処理と、合成された映像を出力する処理と、を実行させるための映像送信システムの動作プログラムが提供される。 According to a third aspect of the present invention, there is provided an operation program for a video transmission system having a mobile terminal and a wearable terminal, wherein the mobile terminal performs a process of acquiring location information, and performing a process of generating selected area information specifying a selected area in which the spatial area including the target object is selected, and a process of transmitting the acquired position information and the selected area information to the wearable terminal; The wearable terminal performs a process of acquiring an object image that is an image including the object, a process of receiving the position information and the selected area information from the mobile terminal, the position information, and the selected area information. a process of mapping the selected area within the object image to generate an area image within the object image, and a process of generating a mask for making the area other than the area image within the object image invisible. , a process of synthesizing the generated mask and the object image, and a process of outputting the synthesized image are provided.
なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。 This program can be recorded in a computer-readable storage medium. The storage medium can be non-transient such as semiconductor memory, hard disk, magnetic recording medium, optical recording medium, and the like. The invention can also be embodied as a computer program product.
本発明の各視点によれば、保守対象の存在する環境に応じて配信可能な空間領域が選択可能であり、選択領域以外の部分をマスク処理することでセキュリティが確保された配信に寄与する映像送信システム、映像送信システムの動作方法、および映像送信システムの動作プログラムが提供される。 According to each aspect of the present invention, it is possible to select a distributable spatial area according to the environment in which the maintenance target exists, and by masking the portion other than the selected area, video that contributes to security-ensured distribution. A transmission system, a method of operating a video transmission system, and an operation program for a video transmission system are provided.
初めに、一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。 First, an overview of one embodiment will be described. It should be noted that the drawing reference numerals added to this outline are added to each element for convenience as an example to aid understanding, and the description of this outline does not intend any limitation.
図1に一実施形態の映像送信システムの構成の一例を示したブロック図を示す。一実施形態の映像送信システム4は、携帯端末1と、ウェアラブル端末2とからなる。携帯端末1は、位置情報を取得する位置情報取得部11と、取得した前記位置情報を基点とした対象物を含む空間領域を選択した選択領域を特定する情報を生成する選択領域情報生成部12と、取得された位置情報と選択領域情報とをウェアラブル端末へ送信する送信部13と、を有する。ウェアラブル端末2は、対象物を含む映像である対象物映像を取得する対象物映像取得部21と、携帯端末1からの、位置情報と選択領域情報とを受信する受信部22と、受信した位置情報と、選択領域情報とを用いて、選択領域を前記対象物映像内にマッピングして対象物映像内領域映像を生成する対象物映像内領域映像生成部23と、生成された対象物映像内領域映像以外の領域を不可視化するマスクを生成するマスク生成部24と、生成されたマスクと、対象物映像とを合成する合成部25と、合成された映像を出力する出力部26と、を有する。
FIG. 1 shows a block diagram showing an example of the configuration of a video transmission system according to one embodiment. A
上記一実施形態の映像送信システムでは、携帯端末にて位置情報を取得し、取得された位置情報を基点として、配信可能な空間領域の選択を受け付けることにより、選択領域情報を生成する。位置情報と選択領域情報はウェアラブル端末に送られる。ウェアラブル端末では、同端末にて取得した映像に対して選択領域をマッピングすることにより、同映像内に選択領域を設けることができる(対象物映像内領域映像)。選択領域以外の領域を不可視としてマスクを生成し、同映像と合成することにより選択領域のみを視ることができ、それ以外の領域はマスク処理されて視ることができない映像を生成することが可能である。 In the video transmission system of the above-described embodiment, position information is acquired by the mobile terminal, and selection area information is generated by accepting selection of a distributable spatial area using the acquired position information as a base point. The location information and selection area information are sent to the wearable terminal. In the wearable terminal, by mapping the selection area on the image acquired by the wearable terminal, it is possible to provide the selection area within the image (area image within the target object image). By generating a mask that renders areas other than the selected area invisible and synthesizing it with the same image, only the selected area can be seen, and other areas are masked to create an invisible image. It is possible.
上記一実施形態の映像送信システムは、対象物が写った対象物映像内において配信可能な領域の選択を、携帯端末により取得した位置情報を基点とし、空間領域の選択を行うことで可能である。これにより対象物映像内にて対象物を撮影する方向が変化して対象物の映像が変化しても、対象物が含まれる空間領域を選択しているため対象物の同一性が維持できる。このため、あらかじめ方向を変えて何枚も対象物の映像を撮影することなく、遠隔地の支援者等と映像を共有することが可能であり、作業を円滑に進めることができる。 The video transmission system of the above-described embodiment can select a distributable area in the target object video in which the target object is captured by selecting the spatial region based on the position information acquired by the mobile terminal. . As a result, even if the direction in which the object is photographed changes in the object image and the image of the object changes, the sameness of the object can be maintained because the spatial region including the object is selected. For this reason, it is possible to share images with a remote supporter or the like without taking multiple images of the object by changing the direction in advance, and the work can proceed smoothly.
以下に具体的な実施の形態について、図面を参照してさらに詳しく説明する。なお、各実施形態において同一構成要素には同一の符号を付し、その説明を省略する。 Specific embodiments will be described in more detail below with reference to the drawings. In addition, the same code|symbol is attached|subjected to the same component in each embodiment, and the description is abbreviate|omitted.
[第1の実施形態]
[装置の概略]
図2は本実施形態の映像送信システムの概略を示す図である。この図に示すように、ウェアラブル端末と携帯端末とを有している。携帯端末は位置情報を取得している。携帯端末により、配信可能な空間領域であり、対象物が含まれる選択領域が指定される。ここでは一例として、携帯端末を原点として、X軸、Y軸、Z軸方向の線分の長さを指定して選択する直方体形状の空間領域を特定している。当該特定する情報は、選択領域情報として、位置情報と共にウェアラブル端末へ送られる。ウェアラブル端末では位置情報と選択領域情報とに基づいて、ウェアラブル端末が撮影している対象物映像内に選択領域をマッピングする。マッピングされた映像にマスク処理を施して、元の対象物映像と合成する。このようにして送信する映像が生成される。送信された映像は遠隔地端末等により受信されて、遠隔地よりセキュリティ上問題となる映像部分をマスクしたまま作業支援を行うことができる。なお、本概略は一例であり、本実施形態の映像送信システムはこの概略に限定されない。
[First embodiment]
[Outline of equipment]
FIG. 2 is a diagram showing an outline of the video transmission system of this embodiment. As shown in this figure, it has a wearable terminal and a portable terminal. The mobile terminal acquires location information. A mobile terminal designates a selected area that is a spatial area that can be delivered and that includes an object. Here, as an example, a rectangular parallelepiped space area to be selected is specified by designating the length of line segments in the X-axis, Y-axis, and Z-axis directions with the mobile terminal as the origin. The information to specify is sent to the wearable terminal together with the position information as selected area information. Based on the position information and the selection area information, the wearable terminal maps the selection area within the object image captured by the wearable terminal. The mapped image is masked and synthesized with the original object image. The image to be transmitted is generated in this way. The transmitted image is received by a remote terminal or the like, and work support can be provided from a remote location while masking the image portion that poses a security problem. Note that this outline is an example, and the video transmission system of the present embodiment is not limited to this outline.
[システムの構成]
図3は本実施形態の映像送信システムの構成の一例を示すブロック図である。この図にあるように、本実施形態の映像送信システム4は携帯端末1と、ウェアラブル端末2とを有する。なお、ウェアラブル端末2は遠隔地端末3と接続されていてもよい。携帯端末1は位置情報取得部11と、選択領域情報生成部12と、送信部13と、を有する。ウェアラブル端末2は対象物映像取得部21と、受信部22と、対象物映像内領域映像生成部23と、マスク生成部24と、合成部25と、出力部26と、を有する。遠隔地端末3は受信部31と、映像出力部32と、音声入出力部33と、送信部34と、を有する。
[System configuration]
FIG. 3 is a block diagram showing an example of the configuration of the video transmission system of this embodiment. As shown in this figure, the
携帯端末1の一例としてはスマートフォンが挙げられる。ウェアラブル端末2の一例としてはスマートグラスが挙げられる。
An example of the
位置情報取得部11は携帯端末1において、位置情報を取得する。位置情報とは、携帯端末の位置を特定する情報であり、GPS等の測位装置などにより取得できる。測位に関してはGPSを使用するものをはじめ、無線LANの電波を使用するものやBluetooth(登録商標)やBLE(Blutooth Low Energy)などの近距離無線、レーザーや赤外線による測位等を用いてもよい。取得された位置情報は送信部13に渡される。
The location
位置情報取得部11は必ずしも携帯端末1に内蔵されている必要はない。携帯端末1と通信可能な専用装置であってもよい。
The location
GPS等による測位では標高方向の位置情報が取得できない場合があるが、利用者が目視で見積もった高さを携帯端末1により入力したり、対象物や携帯端末1が写っている映像の縮尺より高さを推定したり、する構成でもよい。 Positional information in the direction of elevation may not be obtained by positioning using GPS or the like. The height may be estimated or configured to be performed.
選択領域情報生成部12は携帯端末1において、取得した前記位置情報を基点とした対象物を含む空間領域を選択した選択領域を特定する情報を生成する。「位置情報を基点とした」とは、位置情報取得部11を構成する、位置情報を取得した携帯端末1やこれに接続されたデバイス等を基準点とすることを意味する。図2で例示したように、携帯端末の位置を原点とすることで携帯端末の位置が「基点」となっている。「対象物」とは、撮影して送信可能な機器等を指し、マスク処理によりマスクがかからない機器等を指す。「空間領域」とは、図2で例示したような直方体形状等の空間領域を指す。「選択領域を特定する情報」とは、例えばx軸/y軸/z軸上の線分の長さの数値で特定する情報(30cm、40cm、50cm)であってもよい。この場合携帯端末1を原点とした座標系において、30cm×40cmの長方形を底面とする高さ50cmの直方体の内側が選択領域となる。
In the
空間領域の選択は上記のような直方体形状に限られず種々の方法で特定可能である。例えば、図4に示すような円柱形状の内側の空間に設定することも可能である。この場合は、携帯端末1の位置を中心とする半径rの円に対してz軸方向の長さを設定することで形成することが可能である。
Selection of the spatial region is not limited to the rectangular parallelepiped shape as described above, and can be specified by various methods. For example, it is possible to set the space inside a cylindrical shape as shown in FIG. In this case, it can be formed by setting the length in the z-axis direction for a circle with a radius r centered at the position of the
また、対象物だけでなく、作業スペースや対象物のレイアウトも含めて映像を共有したい場合には、図5に示すように対象物近傍に載置された携帯端末1の位置を基準点として、x軸方向、y軸方向、z軸方向ともに対象物から十分離れた座標を頂点とする空間領域を選択領域としてもよい。
Also, if you want to share not only the target but also the work space and the layout of the target, use the position of the
空間領域の選択はタッチパネル操作や物理ボタン操作で携帯端末1に入力可能であり、選択領域の範囲を任意で設定できる入力手段である。例えば上記の通り数値情報を入力することにより行うものであってもよいし、対象物を撮影してタッチパネルやポインティングデバイス等を用いて映像内の範囲を直接特定するものであってもよい。
The selection of the spatial area can be input to the
選択領域を特定するために入力された情報は選択領域情報として後述する送信部13を介して携帯端末1に送信される。
Information input to specify the selected area is transmitted to the
送信部13は携帯端末1において取得された位置情報と選択領域情報とをウェアラブル端末へ送信する。具体的には近距離無線等を用いて位置情報と選択領域情報を送信する。例えば携帯端末1はBLE信号を送信するビーコン機能を有しており、送信部13は、この信号によりウェアラブル端末2に対して、位置情報と選択領域情報を送信してもよい。送信された情報はウェアラブル端末2の受信部22にて受信される。
The transmitting
上記構成の他、携帯端末1は、領域選択を行った範囲や数値を確認するためのディスプレイ等の表示部(図示せず)等を有していてもよい。
In addition to the above configuration, the
対象物映像取得部21はウェアラブル端末2において、対象物を含む映像である対象物映像を取得する。「取得」には映像を撮影する処理が含まれる。同部にはカメラやビデオカード等のデバイスが含まれる。取得された映像は、後述する対象物映像内領域映像生成部23と、合成部25に送られる。
The object
受信部22は、ウェアラブル端末2において、携帯端末からの、位置情報と選択領域情報とを受信する。受信した位置情報と選択領域情報とは、後述する対象物映像内領域映像生成部23に送られる。
The receiving
対象物映像内領域映像生成部23は、ウェアラブル端末2において、受信した位置情報と、選択領域情報とを用いて、選択領域を前記対象物映像内にマッピングして対象物映像内領域映像を生成する。「マッピング」とは、選択領域を対象物映像内に配置することを意味する。具体的には、位置情報と選択領域情報とを用いて対象物映像内における選択領域の配置を特定する情報を演算により求める処理を実行する。選択領域の配置を特定する情報を用いて、後述するマスク生成部24がマスク生成のために用いる映像を生成する処理を行う。生成された映像はマスク生成部24に送られる。
In the
上記演算には既存技術であるいわゆるロケーションベースのAR(Augmented Reality)で用いられる方法など(例えば特許文献5に記載の方法)による対象物の対象物映像内での位置特定等が採用できる。上記方法を用いるため、ウェアラブル端末2はウェアラブル端末2の位置や方向を特定するためのGPSや磁気センサ、加速度センサ、方位センサ等を有していてもよい。なおこの方法を用いるためには選択領域はウェアラブル端末2のカメラと正対していると仮定する。
For the above calculation, it is possible to employ a method such as a method used in an existing technology, the so-called location-based AR (Augmented Reality) (for example, the method described in Patent Document 5) to specify the position of the object in the object image. In order to use the above method, the
図6は本実施形態のマスク処理を説明するための概略図である。対象物映像内領域映像生成部23では対象物映像61を読み込み、受信された位置情報と選択領域情報等を用いて、選択領域65を対象物映像内に配置し、対象物映像内領域映像62を生成する。
FIG. 6 is a schematic diagram for explaining the mask processing of this embodiment. The object image inner area
マスク生成部24は、ウェアラブル端末2において、生成された対象物映像内領域映像以外の領域を不可視化するマスクを生成する。具体的には、図6のマスク映像63のような対象物映像内領域を切り抜いたマスクを生成する。生成されたマスク映像は後述する合成部25に送られ、合成処理を実行し、対象物以外の空間領域を不可視化した映像64が生成される。
The
合成部25はウェアラブル端末2において、生成されたマスクと、対象物映像とを合成する。合成は、種々の方法が考えられるが、一例として、対象物映像の各フレームに対して、マスク処理された映像をオーバレイする処理が挙げられる。
The synthesizing
出力部26は合成された映像を出力する。「出力」には、映像として各種のデバイスに出力する処理に限られず、通信により送信する処理等、が含まれる。
The
なお、ウェアラブル端末2は、取得した対象物映像や、受信した位置情報と選択領域情報、その他演算処理に必要な記憶域を提供する記憶部(図示せず)を有していてもよい。
Note that the
映像送信システム4は、ウェアラブル端末2と遠隔地端末3とをネットワークを介して接続することで、遠隔支援システムとして、セキュリティを確保しながら遠隔作業を支援することを可能とする。遠隔地端末3は、受信部31と、映像出力部32と、音声入出力部33と、送信部34と、を有する。映像に合わせて音声も受信している場合には、音声入出力部33より音声が出力される。
By connecting the
受信部31は、遠隔地端末3において、ウェアラブル端末2の出力部26の映像データを受信する。受信したデータは映像出力部32に送られ、ディスプレイ等のデバイスに映像として表示される。遠隔地端末3は、作業指示等の音声を、ウェアラブル端末2を装着している作業者に対して送信するための音声入出力部33および送信部34を有していてもよい。
The receiving
[処理の流れ]
図7および図8は、本実施形態の映像送信システム4の処理の一例を説明するためのフローチャートである。図7は位置情報と選択領域を携帯端末1にて取得し、ウェアラブル端末2へ送信し、記憶域に格納するまでの処理を示している。この処理の流れは一つの対象物に対して一度だけ実行する必要があるものである。
[Process flow]
7 and 8 are flowcharts for explaining an example of processing of the
まず携帯端末1にて位置情報を取得する(ステップS01)。次に選択領域の指定を受け付ける(ステップS02)。次に選択領域情報を生成する(ステップS03)。次に位置情報と選択領域情報とを送信する(ステップS04)。ウェアラブル端末2は、携帯端末1から送られた位置情報と選択領域情報とを受信する(ステップS05)。受信した位置情報と選択領域情報とを記憶域に格納する(ステップS06)。
First, the
図8は対象物をウェアラブル端末2にて撮影しながら作業等を行っているときのウェアラブル端末2における処理の流れである。この図にあるように、まず記憶域に格納されている位置情報と選択領域情報とを呼出す(ステップS11)。次に対象物映像を取得する(ステップS12)。次に位置情報と選択領域情報とに基づいて、対象物映像内領域映像を生成する(ステップS13)。生成された対象物映像内領域映像を用いてマスクを生成する(ステップS14)。生成されたマスク映像と対象物映像とを合成する(ステップS15)。次に合成された映像を出力する(ステップS17)。撮影を終了するか否かを判断し、終了であれば処理が完了し、撮影を続ける場合には対象物映像の取得処理(ステップS12)に戻って処理を続行する。
FIG. 8 shows the flow of processing in the
上記「映像」は動画であれば「フレーム」に相当する。対象物映像のフレームごとに一連の処理を実行してもよい。あるいは、所定のフレーム数を単位として、その単位ごとに対象物映像内領域映像を生成し、マスクを生成して、合成するものであってもよい。また所定の時間ごとに対象物映像内領域映像を生成し、マスクを生成して、合成するものであってもよい。 The above "video" corresponds to a "frame" in the case of a moving image. A series of processes may be performed for each frame of the object image. Alternatively, a predetermined number of frames may be used as a unit, and an intra-object image area image may be generated for each unit, a mask may be generated, and the images may be synthesized. Further, it is also possible to generate a region image within the target object image at predetermined time intervals, generate a mask, and synthesize the mask.
また本実施形態の映像送信システム4は携帯端末1とウェアラブル端末2との構成をまとめて単一の映像送信装置として構成してもよい。
In addition, the
[ハードウエア構成]
次に、本実施形態に係る映像送信システムを構成する各種装置のハードウエア構成を説明する。図9は、本実施形態に係る映像送信システム4のハードウエア構成の一例を示すブロック図である。
[Hardware configuration]
Next, the hardware configuration of various devices that make up the video transmission system according to this embodiment will be described. FIG. 9 is a block diagram showing an example of the hardware configuration of the
映像送信システムを構成する携帯端末1およびウェアラブル端末2は、共に図9に例示する構成を少なくとも備える。例えば、携帯端末1およびウェアラブル端末2は、内部バス107により相互に接続される、CPU(Central Processing Unit)101、メモリ102、入出力インタフェース103及び通信手段である無線通信モジュール104、位置情報を取得するGPSモジュール105、映像を取得するカメラモジュール106等を備える。
The
但し、図9に示す構成は、携帯端末1およびウェアラブル端末2のハードウエア構成を限定する趣旨ではない。携帯端末1およびウェアラブル端末2は、図示しないハードウエアを含んでもよい。また、両端末に含まれるCPU等の数も図9の例示に限定する趣旨ではなく、例えば、複数のCPUが両端末に含まれていてもよい。例えば携帯端末1や、ウェアラブル端末2は、必要に応じて加速度センサや磁気センサ、方位センサ等の各種センサを有していてもよい。
However, the configuration shown in FIG. 9 is not intended to limit the hardware configuration of the
メモリ102は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)である。
The
入出力インタフェース103は、図示しない表示装置や入力装置のインタフェースとなる手段である。表示装置は、例えば、タッチパネルディスプレイ等である。入力装置は、同じくタッチパネルディスプレイ等である。
The input/
携帯端末1の機能は、処理モジュールである位置情報取得プログラムと、選択領域情報生成プログラムと、送信プログラム等、により実現される。ウェアラブル端末2は、対象物映像取得プログラムと、受信プログラムと、対象物映像内領域映像生成プログラムと、マスク生成プログラムと、合成プログラムと、出力プログラム等で実現される。当該処理モジュールは、例えば、メモリ102に格納された各種プログラムをCPU101が実行することで実現される。また、そのプログラムは、ネットワークを介してダウンロードするか、あるいは、プログラムを記憶した記憶媒体を用いて、更新することができる。さらに、上記処理モジュールは、半導体チップにより実現されてもよい。即ち、上記処理モジュールが行う機能を何らかのハードウエア、及び/又は、ソフトウエアで実行する手段があればよい。
The functions of the
[ハードウエアの動作]
まず、撮影を始める前に位置情報の取得処理と領域選択情報とを生成する処理を実行する。位置情報取得プログラムがメモリ102からCPU101に呼び出され、実行状態となる。同プログラムはGPSモジュールを制御して位置情報Pが取得される。次に選択領域情報生成プログラムがCPU101で実行状態となり、入出力インタフェースを介して送信が可能な空間領域の指定を受け付ける。タッチパネルディスプレイより空間領域の大きさを数値(x,y,z)で入力することで選択領域をしていればその数値(x,y,z)が選択領域情報となる。また、タッチパネルディスプレイに表示されている配信可能な空間領域をドラッグ動作などで選択した場合には、映像内の選択領域の各辺の長さから選択領域の実際の長さ(x,y,z)をCPU101による演算により求めて、これを選択領域情報とする。次に送信プログラムがCPU101にて実行状態となり、位置情報Pと選択領域情報(x,y,z)を、無線通信モジュール104を介してウェアラブル端末2へ向け送信する。
[Hardware operation]
First, a process of acquiring position information and a process of generating area selection information are executed before shooting is started. A position information acquisition program is called from the
ウェアラブル端末2では受信プログラムがCPU101にて実行状態となっており、携帯端末1より送信された位置情報Pと選択領域情報(x,y,z)とを無線通信モジュール104を介して受信する。受信された位置情報Pと選択領域情報(x,y,z)とはメモリ102に格納される。
In the
撮影を開始すると対象物映像取得プログラムがCPU101にて実行状態となり、カメラモジュール106を制御することで映像を取得する。取得された映像(フレーム)は一時的にメモリ102に格納されてもよい。
When shooting is started, the
次に対象物映像内領域映像生成プログラムがCPU101にて実行状態となり、メモリ102に格納されている位置情報Pと選択領域情報(x,y,z)と、映像のフレームと、を読み込む。次に同プログラムはCPU101による演算処理により、位置情報Pと選択領域情報(x,y,z)、必要であればウェアラブル端末2が有するGPSモジュール105からウェアラブル端末2の位置情報を取得して、選択領域を対象物映像のフレーム内に配置し、その映像内での範囲(座標)を取得する。取得の方法に関しては種々の方法が考えられるが、既存技術による方法では、選択領域がカメラに正対していると仮定して、位置情報Pとウェアラブル端末2の位置情報とで、Pとウェアラブル端末の相対距離を算出し、所定高さを中心点としてウェアラブル端末2のカメラモジュール106のカメラの水平方向視野角および垂直方向視野角および映像サイズに基づいて原点から算出された相対距離に定まる矩形平面上に選択領域を投影する処理を行うことにより選択領域のフレーム上での範囲(座標)を算出することが可能である。算出された範囲(座標)を元に、フレーム上に範囲指定を行い対象物映像内領域映像として、メモリ102へ一時的に格納する。
Next, the
次に、マスク生成プログラムがCPU101上で実行状態となり、メモリ102上の対象物映像内領域映像を読み込む。同プログラムは対象物映像内領域以外の領域をマスク領域として不可視化し、対象物映像内領域内の領域を透明化し、マスク映像を作成する。マスク映像はメモリ102上に一時的に格納される。
Next, the mask generation program is executed on the
次に合成プログラムがCPU101上で実行状態となり、メモリ102上に格納されている対象物映像のフレームとマスク映像とを読み込む。同プログラムは対象物映像のフレームにマスク映像をオーバレイ処理し、処理された映像をメモリ102上に一時的に格納する。
Next, the synthesizing program is executed on the
次に出力プログラムがCPU101上で実行状態となり、メモリ102上に格納されているオーバレイ処理された映像データを無線通信モジュール等により送信する。
[効果の説明]
Next, the output program is executed on the
[Explanation of effect]
本実施形態の映像送信システムによると、セキュリティ上配信が可能な領域を限定するために、位置情報と選択領域情報を用いることで、選択された空間領域を配信可能領域として指定することが可能である。指定された空間領域に基づいて、マスクを生成する処理を実行する。これにより、撮影する距離や方向が変化しても、一度の指定で配信可能な領域を指定可能であり、円滑な遠隔支援等が可能である。 According to the video transmission system of this embodiment, it is possible to designate a selected spatial area as a distributable area by using position information and selection area information in order to limit the area where distribution is possible for security reasons. be. Performs a process to generate a mask based on a specified spatial region. As a result, even if the shooting distance or direction changes, it is possible to specify a deliveryable area with a single specification, and smooth remote support or the like is possible.
上記の実施形態の一部又は全部は、以下のようにも記載され得るが、以下には限られな
い。
[形態1]
上述の第一の視点に係る映像送信システムのとおりである。
[形態2]
前記選択領域情報生成部は、前記空間領域の選択を、数値情報を入力することにより行う、好ましくは形態1に記載の映像送信システム。
[形態3]
前記選択領域情報生成部は、前記空間領域の選択を、ポインティングデバイスを用いて範囲を特定することにより行う、好ましくは形態1に記載の映像送信システム。
[形態4]
前記選択領域情報生成部は、基点を頂点とする直方体もしくは立方体の内の空間領域を前記選択領域とする、好ましくは形態1から3のいずれか一に記載の映像送信システム。
[形態5]
前記選択領域情報生成部は、基点を中心とした円を底面もしくは上面とする円柱の内の空間領域を前記選択領域とする、好ましくは形態1から4のいずれか一に記載の映像送信システム。
[形態6]
前記対象物映像内領域映像生成部は、動画である映像の所定数のフレームごとに対象物映像内領域映像を生成し、
前記合成部は、所定数のフレームごとに同一のマスクを合成する、好ましくは請求項1から5のいずれか一に記載の映像送信システム。
[形態7]
前記対象物映像内領域映像生成部は、所定時間ごとに前記対象物映像内領域映像を生成し、
合成部は、所定時間ごとに同一のマスクを合成する、好ましくは形態1から5のいずれか一に記載の映像送信システム。
[形態8]
位置情報を取得する位置情報取得部と、
取得した前記位置情報を基点とした対象物を含む空間領域を選択した選択領域を特定する選択領域情報を生成する選択領域情報生成部と、
対象物を含む映像である対象物映像を取得する対象物映像取得部と、
受信した前記位置情報と、前記選択領域情報とを用いて、前記選択領域を前記対象物映像内にマッピングして対象物映像内領域映像を生成する対象物映像内領域映像生成部と、
対象物映像内領域映像以外の領域を不可視化するマスクを生成するマスク生成部と、
前記マスクと、前記対象物映像とを合成する合成部と、
合成された映像を出力する出力部と、
を有する映像送信装置。
[形態9]
上記第二の視点に係る方法のとおりである。
[形態10]
上記第三の視点に係るプログラムのとおりである。
Some or all of the above embodiments may also be described as follows, but are not limited to the following.
[Mode 1]
This is the video transmission system according to the first viewpoint described above.
[Mode 2]
Preferably, the video transmission system according to
[Mode 3]
Preferably, the video transmission system according to
[Mode 4]
Preferably, the video transmission system according to any one of
[Mode 5]
5. Preferably, the video transmission system according to any one of
[Mode 6]
The object image inner area image generation unit generates an object image inner area image for each predetermined number of frames of a moving image,
6. The video transmission system according to any one of
[Mode 7]
The object image inner area image generation unit generates the object image inner area image at predetermined time intervals,
Preferably, the video transmission system according to any one of
[Mode 8]
a location information acquisition unit that acquires location information;
a selected area information generating unit that generates selected area information specifying a selected area in which a spatial area including an object based on the acquired position information is selected;
an object image acquisition unit that acquires an object image that is an image including the object;
an intra-target image area image generation unit that generates an intra-object image area image by mapping the selected area within the target object image using the received position information and the selected area information;
a mask generation unit that generates a mask that makes an area other than the area image within the object image invisible;
a synthesizing unit that synthesizes the mask and the target object image;
an output unit that outputs the synthesized video;
A video transmission device having
[Mode 9]
This is the method according to the second aspect above.
[Mode 10]
It is as described in the program related to the third viewpoint above.
1 携帯端末
2 ウェアラブル端末
3 遠隔地端末
4 映像送信システム
11 位置情報取得部
12 選択領域情報生成部
13 送信部
21 対象物映像取得部
22 受信部
23 対象物映像内領域映像生成部
24 マスク生成部
25 合成部
26 出力部
31 受信部
32 映像出力部
33 音声入出力部
34 送信部
101 CPU
102 メモリ
103 入出力インタフェース
104 無線通信モジュール
105 GPSモジュール
106 カメラモジュール
107 内部バス
1
102
Claims (10)
前記携帯端末は、
位置情報を取得する位置情報取得部と、
取得した前記位置情報を基点とした対象物を含む空間領域を選択した選択領域を特定する選択領域情報を生成する選択領域情報生成部と、
取得された前記位置情報と前記選択領域情報とを前記ウェアラブル端末へ送信する送信部と、
を有し、
前記ウェアラブル端末は、
前記対象物を含む映像である対象物映像を取得する対象物映像取得部と、
前記携帯端末から前記位置情報と前記選択領域情報とを受信する受信部と、
前記位置情報と、前記選択領域情報とを用いて、前記選択領域を前記対象物映像内にマッピングして対象物映像内領域映像を生成する対象物映像内領域映像生成部と、
前記対象物映像内領域映像以外の領域を不可視化するマスクを生成するマスク生成部と、
生成された前記マスクと、前記対象物映像とを合成する合成部と、
合成された映像を出力する出力部と、
を有する映像送信システム。 A video transmission system having a mobile terminal and a wearable terminal,
The mobile terminal is
a location information acquisition unit that acquires location information;
a selected area information generating unit that generates selected area information specifying a selected area in which a spatial area including an object based on the acquired position information is selected;
a transmission unit that transmits the acquired position information and the selected area information to the wearable terminal;
has
The wearable terminal is
an object image acquisition unit that acquires an object image that is an image including the object;
a receiving unit that receives the location information and the selected area information from the mobile terminal;
an intra-target image region image generation unit that generates an intra-target image region image by mapping the selected region within the target object image using the position information and the selected region information;
a mask generation unit that generates a mask that makes an area other than the intra-object image area image invisible;
a synthesizing unit that synthesizes the generated mask and the target object image;
an output unit that outputs the synthesized video;
A video transmission system having
前記合成部は、所定数のフレームごとに同一のマスクを合成する請求項1から5のいずれか一に記載の映像送信システム。 The object image inner area image generating unit generates the object image inner area image for each predetermined number of frames of a moving image,
6. The video transmission system according to any one of claims 1 to 5, wherein the synthesizing unit synthesizes the same mask every predetermined number of frames.
合成部は、所定時間ごとに同一のマスクを合成する請求項1から5のいずれか一に記載の映像送信システム。 The object image inner area image generation unit generates the object image inner area image at predetermined time intervals,
6. The video transmission system according to any one of claims 1 to 5, wherein the synthesizing unit synthesizes the same mask every predetermined time.
取得した前記位置情報を基点とした対象物を含む空間領域を選択した選択領域を特定する選択領域情報を生成する選択領域情報生成部と、
対象物を含む映像である対象物映像を取得する対象物映像取得部と、
受信した前記位置情報と、前記選択領域情報とを用いて、前記選択領域を前記対象物映像内にマッピングして対象物映像内領域映像を生成する対象物映像内領域映像生成部と、
対象物映像内領域映像以外の領域を不可視化するマスクを生成するマスク生成部と、
前記マスクと、前記対象物映像とを合成する合成部と、
合成された映像を出力する出力部と、
を有する映像送信装置。 a location information acquisition unit that acquires location information;
a selected area information generating unit that generates selected area information specifying a selected area in which a spatial area including an object based on the acquired position information is selected;
an object image acquisition unit that acquires an object image that is an image including the object;
an intra-target image area image generation unit that generates an intra-object image area image by mapping the selected area within the target object image using the received position information and the selected area information;
a mask generation unit that generates a mask that makes an area other than the area image within the object image invisible;
a synthesizing unit that synthesizes the mask and the target object image;
an output unit that outputs the synthesized video;
A video transmission device having
前記携帯端末は、
位置情報を取得する位置情報取得ステップと、
取得した前記位置情報を基点とした対象物を含む空間領域を選択した選択領域を特定する選択領域情報を生成する選択領域情報生成ステップと、
取得された前記位置情報と前記選択領域情報とをウェアラブル端末へ送信する送信ステップと、
を有し、
前記ウェアラブル端末は、
前記対象物を含む映像である対象物映像を取得する対象物映像取得ステップと、
前記携帯端末から前記位置情報と前記選択領域情報とを受信する受信ステップと、
前記位置情報と、前記選択領域情報を用いて、前記選択領域を前記対象物映像内にマッピングして対象物映像内領域映像を生成する対象物映像内領域映像生成ステップと、
前記対象物映像内領域映像以外の領域を不可視化するマスクを生成するマスク生成ステップと、
前記マスクと、前記対象物映像とを合成する合成ステップと、
合成された映像を出力する出力ステップと、
を有する映像送信システムの動作方法。 A method of operating a video transmission system having a mobile terminal and a wearable terminal,
The mobile terminal is
a location information acquisition step of acquiring location information;
a selected area information generating step of generating selected area information specifying a selected area in which a spatial area including an object based on the acquired position information is selected;
a transmission step of transmitting the acquired position information and the selected area information to the wearable terminal;
has
The wearable terminal is
an object image acquisition step of acquiring an object image that is an image including the object;
a receiving step of receiving the location information and the selected area information from the mobile terminal;
an area image generation step of mapping the selected area within the object image using the position information and the selected area information to generate an area image within the object image;
a mask generation step of generating a mask for making an area other than the intra-object image area image invisible;
a synthesizing step of synthesizing the mask and the object image;
an output step for outputting the synthesized video;
A method of operating a video transmission system having
前記携帯端末は、
位置情報を取得する処理と、
取得した前記位置情報を基点とした対象物を含む空間領域を選択した選択領域を特定する選択領域情報を生成する処理と、
取得された前記位置情報と前記選択領域情報とを前記ウェアラブル端末へ送信する処理と、
を実行し、
前記ウェアラブル端末は、
前記対象物を含む映像である対象物映像を取得する処理と、
前記携帯端末から前記位置情報と前記選択領域情報とを受信する処理と、
前記位置情報と、前記選択領域情報とを用いて、前記選択領域を前記対象物映像内にマッピングして対象物映像内領域映像を生成する処理と、
前記対象物映像内領域映像以外の領域を不可視化するマスクを生成する処理と、
生成された前記マスクと、前記対象物映像とを合成する処理と、
合成された映像を出力する処理と、
を実行させるための映像送信システムの動作プログラム。 An operating program for a video transmission system having a mobile terminal and a wearable terminal,
The mobile terminal is
a process of acquiring location information;
a process of generating selected area information specifying a selected area in which a spatial area including an object is selected based on the acquired position information;
a process of transmitting the acquired position information and the selected area information to the wearable terminal;
and run
The wearable terminal is
a process of acquiring an object image that is an image including the object;
a process of receiving the location information and the selected area information from the mobile terminal;
a process of mapping the selected area within the target object image using the position information and the selected area information to generate an area image within the target object image;
a process of generating a mask that makes an area other than the intra-object image area image invisible;
a process of synthesizing the generated mask and the object image;
a process of outputting the synthesized video;
An operation program of the video transmission system for executing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020179828A JP7294667B2 (en) | 2020-10-27 | 2020-10-27 | VIDEO TRANSMISSION SYSTEM, OPERATION METHOD OF VIDEO TRANSMISSION SYSTEM, AND OPERATION PROGRAM OF VIDEO TRANSMISSION SYSTEM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020179828A JP7294667B2 (en) | 2020-10-27 | 2020-10-27 | VIDEO TRANSMISSION SYSTEM, OPERATION METHOD OF VIDEO TRANSMISSION SYSTEM, AND OPERATION PROGRAM OF VIDEO TRANSMISSION SYSTEM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022070653A JP2022070653A (en) | 2022-05-13 |
JP7294667B2 true JP7294667B2 (en) | 2023-06-20 |
Family
ID=81535096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020179828A Active JP7294667B2 (en) | 2020-10-27 | 2020-10-27 | VIDEO TRANSMISSION SYSTEM, OPERATION METHOD OF VIDEO TRANSMISSION SYSTEM, AND OPERATION PROGRAM OF VIDEO TRANSMISSION SYSTEM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7294667B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003198918A (en) | 2001-12-25 | 2003-07-11 | Sony Corp | Method and device for recording and reproducing picture |
JP2004357126A (en) | 2003-05-30 | 2004-12-16 | Toshiba Corp | Imaging apparatus, system, and method |
JP2018207271A (en) | 2017-06-02 | 2018-12-27 | 富士通株式会社 | Terminal, image processing system, image processing program, and method for processing image |
JP2020156083A (en) | 2019-03-18 | 2020-09-24 | Scsk株式会社 | Generation system and generation program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018036812A (en) * | 2016-08-31 | 2018-03-08 | 株式会社日立システムズ | System and method for remotely supporting it operation work |
JP7179583B2 (en) * | 2018-11-05 | 2022-11-29 | 株式会社東芝 | Image processing device and image processing method |
-
2020
- 2020-10-27 JP JP2020179828A patent/JP7294667B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003198918A (en) | 2001-12-25 | 2003-07-11 | Sony Corp | Method and device for recording and reproducing picture |
JP2004357126A (en) | 2003-05-30 | 2004-12-16 | Toshiba Corp | Imaging apparatus, system, and method |
JP2018207271A (en) | 2017-06-02 | 2018-12-27 | 富士通株式会社 | Terminal, image processing system, image processing program, and method for processing image |
JP2020156083A (en) | 2019-03-18 | 2020-09-24 | Scsk株式会社 | Generation system and generation program |
Also Published As
Publication number | Publication date |
---|---|
JP2022070653A (en) | 2022-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2888943C (en) | Augmented reality system and method for positioning and mapping | |
US20140192164A1 (en) | System and method for determining depth information in augmented reality scene | |
JP2016057108A (en) | Arithmetic device, arithmetic system, arithmetic method and program | |
CN109155055B (en) | Region-of-interest image generating device | |
CN114127794A (en) | Information terminal device and position identification sharing method | |
TW202046064A (en) | Maintenance assistance system, maintenance assistance method, program, processed image generation method, and processed image | |
US11250540B2 (en) | Image processing apparatus, image capturing system, image processing method, and recording medium | |
JP7179583B2 (en) | Image processing device and image processing method | |
JP7335335B2 (en) | Information processing device, information processing method, and program | |
JP7294667B2 (en) | VIDEO TRANSMISSION SYSTEM, OPERATION METHOD OF VIDEO TRANSMISSION SYSTEM, AND OPERATION PROGRAM OF VIDEO TRANSMISSION SYSTEM | |
JP6938904B2 (en) | Transmission control program, transmission control method and information processing device | |
US20230089061A1 (en) | Space recognition system, space recognition method, information terminal, and server apparatus | |
JP5514062B2 (en) | Electronic device, imaging screen display method with information, and program | |
CN112528699A (en) | Method and system for obtaining identification information of a device or its user in a scene | |
US20200167948A1 (en) | Control system, method of performing analysis and storage medium | |
WO2011093031A1 (en) | Portable terminal, action history depiction method, and action history depiction system | |
JP2017227957A (en) | Information processing apparatus and information processing system | |
KR20160023362A (en) | System and Method for realtime 3D tactical intelligence display | |
JP7225016B2 (en) | AR Spatial Image Projection System, AR Spatial Image Projection Method, and User Terminal | |
JP6719435B2 (en) | Terminal device and program | |
KR20170021689A (en) | System and method for supporting design/manufacture of marine structure using argumented reality | |
JP2020046798A (en) | Unmanned flying device, imaging system and imaging method | |
JP7082175B2 (en) | A system including a terminal device for displaying a virtual object and a server device, and the server device. | |
US20240112422A1 (en) | Communication management server, communication system, and method for managing communication | |
JP7213204B2 (en) | TERMINAL DEVICE, METHOD AND PROGRAM IN TERMINAL DEVICE |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230601 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7294667 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |