JP7294667B2 - VIDEO TRANSMISSION SYSTEM, OPERATION METHOD OF VIDEO TRANSMISSION SYSTEM, AND OPERATION PROGRAM OF VIDEO TRANSMISSION SYSTEM - Google Patents

VIDEO TRANSMISSION SYSTEM, OPERATION METHOD OF VIDEO TRANSMISSION SYSTEM, AND OPERATION PROGRAM OF VIDEO TRANSMISSION SYSTEM Download PDF

Info

Publication number
JP7294667B2
JP7294667B2 JP2020179828A JP2020179828A JP7294667B2 JP 7294667 B2 JP7294667 B2 JP 7294667B2 JP 2020179828 A JP2020179828 A JP 2020179828A JP 2020179828 A JP2020179828 A JP 2020179828A JP 7294667 B2 JP7294667 B2 JP 7294667B2
Authority
JP
Japan
Prior art keywords
image
area
information
object image
selected area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020179828A
Other languages
Japanese (ja)
Other versions
JP2022070653A (en
Inventor
雅人 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Fielding Ltd
Original Assignee
NEC Fielding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Fielding Ltd filed Critical NEC Fielding Ltd
Priority to JP2020179828A priority Critical patent/JP7294667B2/en
Publication of JP2022070653A publication Critical patent/JP2022070653A/en
Application granted granted Critical
Publication of JP7294667B2 publication Critical patent/JP7294667B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本システムは、セキュリティを確保した映像送信のための技術および方法等に関する。 The present system relates to techniques, methods, and the like for secure video transmission.

保守作業時に、スマートグラス等のウェアラブルデバイスを含むスマートデバイスを用いた遠隔作業支援が実用化されている。この遠隔作業支援により、作業者と支援者(監督者)が作業状況をリアルタイムで共有することができるため、迅速かつ正確な作業を行うことができ、また移動コストがかからず技術伝承やスキルアップが期待されるなど多くの効果が期待できる。 During maintenance work, remote work support using smart devices including wearable devices such as smart glasses has been put into practical use. With this remote work support, workers and supporters (supervisors) can share the work status in real time, so work can be done quickly and accurately. Many effects can be expected, such as an increase is expected.

しかしながら、保守作業で対象となる装置が例えばデータセンターやオフィス内である場合、社外秘情報等が映りこんでしまう恐れがあり、顧客が策定したセキュリティポリシー(情報セキュリティに関する方針)を遵守するため、顧客によってはスマートデバイスを用いた遠隔作業支援を適用できないケースがあった。 However, if the target device for maintenance work is in a data center or office, for example, there is a risk that confidential information will be reflected in the image. In some cases, remote work support using smart devices could not be applied.

特許文献1には、携帯端末で撮影した画像と予め記憶した画像(配信が可能な画像)を照合比較し、一致しなかった部分についてはマスク処理した上で遠隔支援者に配信することで、セキュリティを確保しつつ作業実施を可能にする旨が記載されている。 In Patent Document 1, an image captured by a mobile terminal and an image stored in advance (an image that can be distributed) are collated and compared, and parts that do not match are masked before being distributed to a remote supporter. It states that work can be carried out while ensuring security.

特開2018-036812号公報JP 2018-036812 A 特開2005-277680号公報Japanese Patent Application Laid-Open No. 2005-277680 特開2010-193227号公報JP 2010-193227 A 特開2017-108263号公報JP 2017-108263 A 特開2010-238098号公報Japanese Patent Application Laid-Open No. 2010-238098

なお、上記先行技術文献の各開示を、本書に引用をもって繰り込むものとする。以下の
分析は、本発明者らによってなされたものである。
In addition, each disclosure of the above prior art documents is incorporated into this document by reference. The following analysis was made by the inventors.

上記の通り、配信が可能な部分の画像に基づいて映像をマスク処理することでセキュリティを確保しつつ遠隔支援者等に映像の配信をすることが可能である。 As described above, by masking the image based on the image of the part that can be delivered, it is possible to deliver the image to the remote support person or the like while ensuring security.

しかしながら、特許文献1の技術では、予め配信可能な保守作業装置の画像を登録しておくことが必要となる。また作業を行う際は、様々な角度から映像配信を行い、情報共有しなければ十分に効率良く作業を実施することはできない。つまり、特許文献1において、多くの機器を保守対象とする場合には、一機種ごとに複数の角度から撮影した画像を予め登録しておく必要があり、事前設定に大きな手間が生じてしまう。もし登録漏れが生じてしまい、特定の角度における画像を登録していなかった場合には、その画像を遠隔支援者と共有することができず、作業を円滑に進めることができなくなってしまうという危険性がある。 However, with the technique disclosed in Patent Document 1, it is necessary to register images of maintenance work devices that can be distributed in advance. In addition, when performing work, it is not possible to perform work efficiently without distributing videos from various angles and sharing information. In other words, in Patent Literature 1, when many devices are to be maintained, it is necessary to register images captured from multiple angles for each model in advance, which requires a great deal of time and effort in setting up in advance. If there is an omission in registration and the image at a specific angle is not registered, the image cannot be shared with the remote supporter, and there is a danger that the work will not be able to proceed smoothly. have a nature.

本発明の一視点において、保守対象の存在する環境に応じて配信可能な空間領域が選択可能であり、選択領域以外の部分をマスク処理することでセキュリティが確保された配信に寄与する映像送信システム、映像送信システムの動作方法、および映像送信システムの動作プログラムを提供することを目的とする。 In one aspect of the present invention, a video transmission system that can select a spatial area that can be distributed according to the environment in which the maintenance target exists, and contributes to security-ensured distribution by masking the area other than the selected area. , an operation method of a video transmission system, and an operation program of the video transmission system.

本発明の第一の視点によれば、携帯端末とウェアラブル端末とを有する映像送信システムであって、携帯端末は、位置情報を取得する位置情報取得部と、取得した前記位置情報を基点とした対象物を含む空間領域を選択した選択領域を特定する選択領域情報を生成する選択領域情報生成部と、取得された前記位置情報と前記選択領域情報とを前記ウェアラブル端末へ送信する送信部と、を有し、前記ウェアラブル端末は、対象物を含む映像である対象物映像を取得する対象物映像取得部と、携帯端末から前記位置情報と前記選択領域情報とを受信する受信部と、前記位置情報と、前記選択領域情報とを用いて、前記選択領域を前記対象物映像内にマッピングして対象物映像内領域映像を生成する対象物映像内領域映像生成部と、前記対象物映像内領域映像以外の領域を不可視化するマスクを生成するマスク生成部と、生成された前記マスクと、前記対象物映像とを合成する合成部と、合成された映像を出力する出力部と、を有する映像送信システムが提供される。 According to a first aspect of the present invention, there is provided a video transmission system having a mobile terminal and a wearable terminal, wherein the mobile terminal includes a position information acquisition unit for acquiring position information and a a selected area information generating unit that generates selected area information specifying a selected area in which a spatial area including an object is selected; a transmitting unit that transmits the acquired position information and the selected area information to the wearable terminal; , the wearable terminal includes a target object image acquiring unit that acquires an object image that is an image including the object, a receiving unit that receives the position information and the selected area information from the mobile terminal, and the position an intra-target image area image generation unit that generates an intra-object image area image by mapping the selected area in the target object image using information and the selected area information; An image comprising a mask generation unit that generates a mask that makes an area other than the image invisible, a synthesis unit that synthesizes the generated mask and the object image, and an output unit that outputs the synthesized image. A transmission system is provided.

本発明の第二の視点によれば、携帯端末とウェアラブル端末とを有する映像送信システムの動作方法であって、前記携帯端末は、位置情報を取得する位置情報取得ステップと、取得した前記位置情報を基点とした対象物を含む空間領域を選択した選択領域を特定する選択領域情報を生成する選択領域情報生成ステップと、取得された前記位置情報と前記選択領域情報とをウェアラブル端末へ送信する送信ステップと、を有し、前記ウェアラブル端末は、前記対象物を含む映像である対象物映像を取得する対象物映像取得ステップと、前記携帯端末から前記位置情報と前記選択領域情報とを受信する受信ステップと、前記位置情報と、前記選択領域情報を用いて、前記選択領域を前記対象物映像内にマッピングして対象物映像内領域映像を生成する対象物映像内領域映像生成ステップと、前記対象物映像内領域映像以外の領域を不可視化するマスクを生成するマスク生成ステップと、前記マスクと、前記対象物映像とを合成する合成ステップと、合成された映像を出力する出力ステップと、を有する映像送信システムの動作方法が提供される。 According to a second aspect of the present invention, there is provided a method of operating a video transmission system having a mobile terminal and a wearable terminal, wherein the mobile terminal acquires location information; a selection area information generating step of generating selection area information specifying a selection area in which a spatial area including an object is selected with the base point as a selected area; and transmission of transmitting the acquired position information and the selection area information to a wearable terminal. wherein the wearable terminal has a step of obtaining a target object image that is a video including the target object, and a receiving step of receiving the position information and the selected area information from the portable terminal. a step of generating an area image within an object image for generating an area image within an object image by mapping the selected area within the object image using the position information and the selected area information; a mask generation step of generating a mask for making an area other than the object image intra-area image invisible; a synthesis step of synthesizing the mask and the object image; and an output step of outputting the synthesized image. A method of operating a video transmission system is provided.

本発明の第三の視点によれば、携帯端末とウェアラブル端末とを有する映像送信システムの動作プログラムであって、前記携帯端末は、位置情報を取得する処理と、取得した前記位置情報を基点とした対象物を含む空間領域を選択した選択領域を特定する選択領域情報を生成する処理と、取得された前記位置情報と前記選択領域情報とを前記ウェアラブル端末へ送信する処理と、を実行し、前記ウェアラブル端末は、前記対象物を含む映像である対象物映像を取得する処理と、前記携帯端末から前記位置情報と前記選択領域情報とを受信する処理と、前記位置情報と、前記選択領域情報とを用いて、前記選択領域を前記対象物映像内にマッピングして対象物映像内領域映像を生成する処理と、前記対象物映像内領域映像以外の領域を不可視化するマスクを生成する処理と、生成された前記マスクと、前記対象物映像とを合成する処理と、合成された映像を出力する処理と、を実行させるための映像送信システムの動作プログラムが提供される。 According to a third aspect of the present invention, there is provided an operation program for a video transmission system having a mobile terminal and a wearable terminal, wherein the mobile terminal performs a process of acquiring location information, and performing a process of generating selected area information specifying a selected area in which the spatial area including the target object is selected, and a process of transmitting the acquired position information and the selected area information to the wearable terminal; The wearable terminal performs a process of acquiring an object image that is an image including the object, a process of receiving the position information and the selected area information from the mobile terminal, the position information, and the selected area information. a process of mapping the selected area within the object image to generate an area image within the object image, and a process of generating a mask for making the area other than the area image within the object image invisible. , a process of synthesizing the generated mask and the object image, and a process of outputting the synthesized image are provided.

なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。 This program can be recorded in a computer-readable storage medium. The storage medium can be non-transient such as semiconductor memory, hard disk, magnetic recording medium, optical recording medium, and the like. The invention can also be embodied as a computer program product.

本発明の各視点によれば、保守対象の存在する環境に応じて配信可能な空間領域が選択可能であり、選択領域以外の部分をマスク処理することでセキュリティが確保された配信に寄与する映像送信システム、映像送信システムの動作方法、および映像送信システムの動作プログラムが提供される。 According to each aspect of the present invention, it is possible to select a distributable spatial area according to the environment in which the maintenance target exists, and by masking the portion other than the selected area, video that contributes to security-ensured distribution. A transmission system, a method of operating a video transmission system, and an operation program for a video transmission system are provided.

一実施形態の映像送信システムにおける構成の一例を示すブロック図である。1 is a block diagram showing an example of a configuration in a video transmission system of one embodiment; FIG. 実施形態1の映像送信システムの概略を示す図である。1 is a diagram showing an outline of a video transmission system according to Embodiment 1; FIG. 実施形態1の映像送信システムの構成の一例を示すブロック図である。1 is a block diagram showing an example of the configuration of a video transmission system according to Embodiment 1; FIG. 空間領域の選択方法の一例を説明するための概略図である。FIG. 4 is a schematic diagram for explaining an example of a method of selecting a spatial region; 空間領域の選択方法の一例を説明するための概略図である。FIG. 4 is a schematic diagram for explaining an example of a method of selecting a spatial region; 実施形態1の映像送信システムにおけるマスク処理を説明するための概略図である。4 is a schematic diagram for explaining mask processing in the video transmission system of Embodiment 1. FIG. 実施形態1の映像送信システムの処理の一例を説明するためのフローチャートである。4 is a flowchart for explaining an example of processing of the video transmission system of Embodiment 1; 実施形態1の映像送信システムの処理の一例を説明するためのフローチャートである。4 is a flowchart for explaining an example of processing of the video transmission system of Embodiment 1; 実施形態1の映像送信システムのハードウエア構成の一例を示すブロック図である。2 is a block diagram showing an example of the hardware configuration of the video transmission system of Embodiment 1; FIG.

初めに、一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。 First, an overview of one embodiment will be described. It should be noted that the drawing reference numerals added to this outline are added to each element for convenience as an example to aid understanding, and the description of this outline does not intend any limitation.

図1に一実施形態の映像送信システムの構成の一例を示したブロック図を示す。一実施形態の映像送信システム4は、携帯端末1と、ウェアラブル端末2とからなる。携帯端末1は、位置情報を取得する位置情報取得部11と、取得した前記位置情報を基点とした対象物を含む空間領域を選択した選択領域を特定する情報を生成する選択領域情報生成部12と、取得された位置情報と選択領域情報とをウェアラブル端末へ送信する送信部13と、を有する。ウェアラブル端末2は、対象物を含む映像である対象物映像を取得する対象物映像取得部21と、携帯端末1からの、位置情報と選択領域情報とを受信する受信部22と、受信した位置情報と、選択領域情報とを用いて、選択領域を前記対象物映像内にマッピングして対象物映像内領域映像を生成する対象物映像内領域映像生成部23と、生成された対象物映像内領域映像以外の領域を不可視化するマスクを生成するマスク生成部24と、生成されたマスクと、対象物映像とを合成する合成部25と、合成された映像を出力する出力部26と、を有する。 FIG. 1 shows a block diagram showing an example of the configuration of a video transmission system according to one embodiment. A video transmission system 4 of one embodiment includes a mobile terminal 1 and a wearable terminal 2 . The mobile terminal 1 includes a position information acquisition unit 11 that acquires position information, and a selected region information generation unit 12 that generates information specifying a selected region in which a spatial region including an object based on the acquired position information is selected. and a transmission unit 13 that transmits the acquired position information and selected area information to the wearable terminal. The wearable terminal 2 includes an object image acquiring unit 21 that acquires an object image that is an image including the object, a receiving unit 22 that receives the position information and the selected area information from the mobile terminal 1, and the received position information. an intra-object image area image generating unit 23 for generating an intra-object image area image by mapping a selected area in the object image using information and selected area information; A mask generating unit 24 that generates a mask that makes an area other than the area image invisible, a synthesizing unit 25 that synthesizes the generated mask and the object image, and an output unit 26 that outputs the synthesized image. have.

上記一実施形態の映像送信システムでは、携帯端末にて位置情報を取得し、取得された位置情報を基点として、配信可能な空間領域の選択を受け付けることにより、選択領域情報を生成する。位置情報と選択領域情報はウェアラブル端末に送られる。ウェアラブル端末では、同端末にて取得した映像に対して選択領域をマッピングすることにより、同映像内に選択領域を設けることができる(対象物映像内領域映像)。選択領域以外の領域を不可視としてマスクを生成し、同映像と合成することにより選択領域のみを視ることができ、それ以外の領域はマスク処理されて視ることができない映像を生成することが可能である。 In the video transmission system of the above-described embodiment, position information is acquired by the mobile terminal, and selection area information is generated by accepting selection of a distributable spatial area using the acquired position information as a base point. The location information and selection area information are sent to the wearable terminal. In the wearable terminal, by mapping the selection area on the image acquired by the wearable terminal, it is possible to provide the selection area within the image (area image within the target object image). By generating a mask that renders areas other than the selected area invisible and synthesizing it with the same image, only the selected area can be seen, and other areas are masked to create an invisible image. It is possible.

上記一実施形態の映像送信システムは、対象物が写った対象物映像内において配信可能な領域の選択を、携帯端末により取得した位置情報を基点とし、空間領域の選択を行うことで可能である。これにより対象物映像内にて対象物を撮影する方向が変化して対象物の映像が変化しても、対象物が含まれる空間領域を選択しているため対象物の同一性が維持できる。このため、あらかじめ方向を変えて何枚も対象物の映像を撮影することなく、遠隔地の支援者等と映像を共有することが可能であり、作業を円滑に進めることができる。 The video transmission system of the above-described embodiment can select a distributable area in the target object video in which the target object is captured by selecting the spatial region based on the position information acquired by the mobile terminal. . As a result, even if the direction in which the object is photographed changes in the object image and the image of the object changes, the sameness of the object can be maintained because the spatial region including the object is selected. For this reason, it is possible to share images with a remote supporter or the like without taking multiple images of the object by changing the direction in advance, and the work can proceed smoothly.

以下に具体的な実施の形態について、図面を参照してさらに詳しく説明する。なお、各実施形態において同一構成要素には同一の符号を付し、その説明を省略する。 Specific embodiments will be described in more detail below with reference to the drawings. In addition, the same code|symbol is attached|subjected to the same component in each embodiment, and the description is abbreviate|omitted.

[第1の実施形態]
[装置の概略]
図2は本実施形態の映像送信システムの概略を示す図である。この図に示すように、ウェアラブル端末と携帯端末とを有している。携帯端末は位置情報を取得している。携帯端末により、配信可能な空間領域であり、対象物が含まれる選択領域が指定される。ここでは一例として、携帯端末を原点として、X軸、Y軸、Z軸方向の線分の長さを指定して選択する直方体形状の空間領域を特定している。当該特定する情報は、選択領域情報として、位置情報と共にウェアラブル端末へ送られる。ウェアラブル端末では位置情報と選択領域情報とに基づいて、ウェアラブル端末が撮影している対象物映像内に選択領域をマッピングする。マッピングされた映像にマスク処理を施して、元の対象物映像と合成する。このようにして送信する映像が生成される。送信された映像は遠隔地端末等により受信されて、遠隔地よりセキュリティ上問題となる映像部分をマスクしたまま作業支援を行うことができる。なお、本概略は一例であり、本実施形態の映像送信システムはこの概略に限定されない。
[First embodiment]
[Outline of equipment]
FIG. 2 is a diagram showing an outline of the video transmission system of this embodiment. As shown in this figure, it has a wearable terminal and a portable terminal. The mobile terminal acquires location information. A mobile terminal designates a selected area that is a spatial area that can be delivered and that includes an object. Here, as an example, a rectangular parallelepiped space area to be selected is specified by designating the length of line segments in the X-axis, Y-axis, and Z-axis directions with the mobile terminal as the origin. The information to specify is sent to the wearable terminal together with the position information as selected area information. Based on the position information and the selection area information, the wearable terminal maps the selection area within the object image captured by the wearable terminal. The mapped image is masked and synthesized with the original object image. The image to be transmitted is generated in this way. The transmitted image is received by a remote terminal or the like, and work support can be provided from a remote location while masking the image portion that poses a security problem. Note that this outline is an example, and the video transmission system of the present embodiment is not limited to this outline.

[システムの構成]
図3は本実施形態の映像送信システムの構成の一例を示すブロック図である。この図にあるように、本実施形態の映像送信システム4は携帯端末1と、ウェアラブル端末2とを有する。なお、ウェアラブル端末2は遠隔地端末3と接続されていてもよい。携帯端末1は位置情報取得部11と、選択領域情報生成部12と、送信部13と、を有する。ウェアラブル端末2は対象物映像取得部21と、受信部22と、対象物映像内領域映像生成部23と、マスク生成部24と、合成部25と、出力部26と、を有する。遠隔地端末3は受信部31と、映像出力部32と、音声入出力部33と、送信部34と、を有する。
[System configuration]
FIG. 3 is a block diagram showing an example of the configuration of the video transmission system of this embodiment. As shown in this figure, the video transmission system 4 of this embodiment has a mobile terminal 1 and a wearable terminal 2 . Note that the wearable terminal 2 may be connected to the remote terminal 3 . The mobile terminal 1 has a position information acquisition section 11 , a selection area information generation section 12 and a transmission section 13 . The wearable terminal 2 includes an object image acquisition unit 21 , a reception unit 22 , an object image inner region image generation unit 23 , a mask generation unit 24 , a synthesis unit 25 , and an output unit 26 . The remote terminal 3 has a receiving section 31 , a video output section 32 , an audio input/output section 33 and a transmitting section 34 .

携帯端末1の一例としてはスマートフォンが挙げられる。ウェアラブル端末2の一例としてはスマートグラスが挙げられる。 An example of the mobile terminal 1 is a smart phone. An example of the wearable terminal 2 is smart glasses.

位置情報取得部11は携帯端末1において、位置情報を取得する。位置情報とは、携帯端末の位置を特定する情報であり、GPS等の測位装置などにより取得できる。測位に関してはGPSを使用するものをはじめ、無線LANの電波を使用するものやBluetooth(登録商標)やBLE(Blutooth Low Energy)などの近距離無線、レーザーや赤外線による測位等を用いてもよい。取得された位置情報は送信部13に渡される。 The location information acquisition unit 11 acquires location information in the mobile terminal 1 . Positional information is information that specifies the position of a mobile terminal, and can be obtained by a positioning device such as GPS. Positioning may be performed using GPS, wireless LAN radio waves, short-range wireless such as Bluetooth (registered trademark) or BLE (Bluetooth Low Energy), laser, or infrared. The acquired position information is passed to the transmission unit 13 .

位置情報取得部11は必ずしも携帯端末1に内蔵されている必要はない。携帯端末1と通信可能な専用装置であってもよい。 The location information acquisition unit 11 does not necessarily have to be built into the mobile terminal 1 . A dedicated device that can communicate with the mobile terminal 1 may be used.

GPS等による測位では標高方向の位置情報が取得できない場合があるが、利用者が目視で見積もった高さを携帯端末1により入力したり、対象物や携帯端末1が写っている映像の縮尺より高さを推定したり、する構成でもよい。 Positional information in the direction of elevation may not be obtained by positioning using GPS or the like. The height may be estimated or configured to be performed.

選択領域情報生成部12は携帯端末1において、取得した前記位置情報を基点とした対象物を含む空間領域を選択した選択領域を特定する情報を生成する。「位置情報を基点とした」とは、位置情報取得部11を構成する、位置情報を取得した携帯端末1やこれに接続されたデバイス等を基準点とすることを意味する。図2で例示したように、携帯端末の位置を原点とすることで携帯端末の位置が「基点」となっている。「対象物」とは、撮影して送信可能な機器等を指し、マスク処理によりマスクがかからない機器等を指す。「空間領域」とは、図2で例示したような直方体形状等の空間領域を指す。「選択領域を特定する情報」とは、例えばx軸/y軸/z軸上の線分の長さの数値で特定する情報(30cm、40cm、50cm)であってもよい。この場合携帯端末1を原点とした座標系において、30cm×40cmの長方形を底面とする高さ50cmの直方体の内側が選択領域となる。 In the portable terminal 1, the selected area information generating unit 12 generates information specifying a selected area in which a spatial area including the object is selected based on the acquired position information. “Based on the position information” means that the mobile terminal 1, which constitutes the position information acquisition unit 11 and has acquired the position information, a device connected thereto, or the like, is used as the reference point. As illustrated in FIG. 2, the position of the mobile terminal is set as the "base point" by setting the position of the mobile terminal as the origin. The “target object” refers to a device or the like that can be photographed and transmitted, and refers to a device or the like that is not masked by mask processing. A “spatial region” refers to a spatial region such as a rectangular parallelepiped shape as illustrated in FIG. The "information specifying the selected area" may be, for example, information specifying numerical values of the lengths of line segments on the x-axis/y-axis/z-axis (30 cm, 40 cm, 50 cm). In this case, in the coordinate system with the portable terminal 1 as the origin, the selected area is the inside of a 50 cm high rectangular parallelepiped with a 30 cm×40 cm rectangle as the base.

空間領域の選択は上記のような直方体形状に限られず種々の方法で特定可能である。例えば、図4に示すような円柱形状の内側の空間に設定することも可能である。この場合は、携帯端末1の位置を中心とする半径rの円に対してz軸方向の長さを設定することで形成することが可能である。 Selection of the spatial region is not limited to the rectangular parallelepiped shape as described above, and can be specified by various methods. For example, it is possible to set the space inside a cylindrical shape as shown in FIG. In this case, it can be formed by setting the length in the z-axis direction for a circle with a radius r centered at the position of the mobile terminal 1 .

また、対象物だけでなく、作業スペースや対象物のレイアウトも含めて映像を共有したい場合には、図5に示すように対象物近傍に載置された携帯端末1の位置を基準点として、x軸方向、y軸方向、z軸方向ともに対象物から十分離れた座標を頂点とする空間領域を選択領域としてもよい。 Also, if you want to share not only the target but also the work space and the layout of the target, use the position of the mobile terminal 1 placed near the target as a reference point as shown in FIG. The selected area may be a spatial area whose vertices are coordinates that are sufficiently distant from the object in the x-axis, y-axis, and z-axis directions.

空間領域の選択はタッチパネル操作や物理ボタン操作で携帯端末1に入力可能であり、選択領域の範囲を任意で設定できる入力手段である。例えば上記の通り数値情報を入力することにより行うものであってもよいし、対象物を撮影してタッチパネルやポインティングデバイス等を用いて映像内の範囲を直接特定するものであってもよい。 The selection of the spatial area can be input to the mobile terminal 1 by touch panel operation or physical button operation, and is an input means that can arbitrarily set the range of the selected area. For example, it may be performed by inputting numerical information as described above, or it may be performed by photographing an object and directly specifying the range in the image using a touch panel, pointing device, or the like.

選択領域を特定するために入力された情報は選択領域情報として後述する送信部13を介して携帯端末1に送信される。 Information input to specify the selected area is transmitted to the portable terminal 1 as selected area information via the transmission unit 13, which will be described later.

送信部13は携帯端末1において取得された位置情報と選択領域情報とをウェアラブル端末へ送信する。具体的には近距離無線等を用いて位置情報と選択領域情報を送信する。例えば携帯端末1はBLE信号を送信するビーコン機能を有しており、送信部13は、この信号によりウェアラブル端末2に対して、位置情報と選択領域情報を送信してもよい。送信された情報はウェアラブル端末2の受信部22にて受信される。 The transmitting unit 13 transmits the position information and the selected area information acquired in the mobile terminal 1 to the wearable terminal. Specifically, position information and selected area information are transmitted using short-range radio or the like. For example, the mobile terminal 1 has a beacon function that transmits a BLE signal, and the transmission unit 13 may transmit position information and selection area information to the wearable terminal 2 using this signal. The transmitted information is received by the receiving section 22 of the wearable terminal 2 .

上記構成の他、携帯端末1は、領域選択を行った範囲や数値を確認するためのディスプレイ等の表示部(図示せず)等を有していてもよい。 In addition to the above configuration, the mobile terminal 1 may have a display unit (not shown) such as a display for confirming the range and numerical values in which the region is selected.

対象物映像取得部21はウェアラブル端末2において、対象物を含む映像である対象物映像を取得する。「取得」には映像を撮影する処理が含まれる。同部にはカメラやビデオカード等のデバイスが含まれる。取得された映像は、後述する対象物映像内領域映像生成部23と、合成部25に送られる。 The object image acquisition unit 21 acquires an object image, which is an image including the object, in the wearable terminal 2 . "Acquisition" includes the process of shooting an image. This includes devices such as cameras and video cards. The acquired image is sent to an object image inner area image generating unit 23 and a synthesizing unit 25, which will be described later.

受信部22は、ウェアラブル端末2において、携帯端末からの、位置情報と選択領域情報とを受信する。受信した位置情報と選択領域情報とは、後述する対象物映像内領域映像生成部23に送られる。 The receiving unit 22 receives the location information and the selected area information from the mobile terminal in the wearable terminal 2 . The received position information and selected area information are sent to the object image intra-area image generation unit 23, which will be described later.

対象物映像内領域映像生成部23は、ウェアラブル端末2において、受信した位置情報と、選択領域情報とを用いて、選択領域を前記対象物映像内にマッピングして対象物映像内領域映像を生成する。「マッピング」とは、選択領域を対象物映像内に配置することを意味する。具体的には、位置情報と選択領域情報とを用いて対象物映像内における選択領域の配置を特定する情報を演算により求める処理を実行する。選択領域の配置を特定する情報を用いて、後述するマスク生成部24がマスク生成のために用いる映像を生成する処理を行う。生成された映像はマスク生成部24に送られる。 In the wearable terminal 2, the object image inner area image generation unit 23 maps the selected area within the object image using the received position information and the selected area information to generate an object image inner area image. do. "Mapping" means placing the selected area in the object image. Specifically, a process of calculating information specifying the arrangement of the selected area in the target object image using the position information and the selected area information is executed. Using the information specifying the arrangement of the selected regions, the mask generation unit 24, which will be described later, performs processing for generating an image used for mask generation. The generated image is sent to the mask generation unit 24 .

上記演算には既存技術であるいわゆるロケーションベースのAR(Augmented Reality)で用いられる方法など(例えば特許文献5に記載の方法)による対象物の対象物映像内での位置特定等が採用できる。上記方法を用いるため、ウェアラブル端末2はウェアラブル端末2の位置や方向を特定するためのGPSや磁気センサ、加速度センサ、方位センサ等を有していてもよい。なおこの方法を用いるためには選択領域はウェアラブル端末2のカメラと正対していると仮定する。 For the above calculation, it is possible to employ a method such as a method used in an existing technology, the so-called location-based AR (Augmented Reality) (for example, the method described in Patent Document 5) to specify the position of the object in the object image. In order to use the above method, the wearable terminal 2 may have GPS, a magnetic sensor, an acceleration sensor, an orientation sensor, etc. for specifying the position and direction of the wearable terminal 2 . In order to use this method, it is assumed that the selected area faces the camera of the wearable terminal 2 directly.

図6は本実施形態のマスク処理を説明するための概略図である。対象物映像内領域映像生成部23では対象物映像61を読み込み、受信された位置情報と選択領域情報等を用いて、選択領域65を対象物映像内に配置し、対象物映像内領域映像62を生成する。 FIG. 6 is a schematic diagram for explaining the mask processing of this embodiment. The object image inner area image generation unit 23 reads the object image 61, uses the received position information and selection area information, etc. to arrange the selection area 65 in the object image, and generates the object image inner area image 62. to generate

マスク生成部24は、ウェアラブル端末2において、生成された対象物映像内領域映像以外の領域を不可視化するマスクを生成する。具体的には、図6のマスク映像63のような対象物映像内領域を切り抜いたマスクを生成する。生成されたマスク映像は後述する合成部25に送られ、合成処理を実行し、対象物以外の空間領域を不可視化した映像64が生成される。 The mask generation unit 24 generates a mask for making the area other than the generated area image within the object image invisible in the wearable terminal 2 . Specifically, a mask such as the mask image 63 in FIG. 6 is generated by cutting out the region within the object image. The generated mask image is sent to the synthesizing unit 25, which will be described later, and synthesizing processing is performed to generate an image 64 in which the spatial region other than the target object is made invisible.

合成部25はウェアラブル端末2において、生成されたマスクと、対象物映像とを合成する。合成は、種々の方法が考えられるが、一例として、対象物映像の各フレームに対して、マスク処理された映像をオーバレイする処理が挙げられる。 The synthesizing unit 25 synthesizes the generated mask and the target object image in the wearable terminal 2 . Various methods are conceivable for synthesis, and one example is a process of overlaying a masked image on each frame of the object image.

出力部26は合成された映像を出力する。「出力」には、映像として各種のデバイスに出力する処理に限られず、通信により送信する処理等、が含まれる。 The output unit 26 outputs the synthesized video. "Output" includes not only processing to output to various devices as video, but also processing to transmit via communication.

なお、ウェアラブル端末2は、取得した対象物映像や、受信した位置情報と選択領域情報、その他演算処理に必要な記憶域を提供する記憶部(図示せず)を有していてもよい。 Note that the wearable terminal 2 may have a storage unit (not shown) that provides the acquired object video, the received position information and selected area information, and other storage areas necessary for arithmetic processing.

映像送信システム4は、ウェアラブル端末2と遠隔地端末3とをネットワークを介して接続することで、遠隔支援システムとして、セキュリティを確保しながら遠隔作業を支援することを可能とする。遠隔地端末3は、受信部31と、映像出力部32と、音声入出力部33と、送信部34と、を有する。映像に合わせて音声も受信している場合には、音声入出力部33より音声が出力される。 By connecting the wearable terminal 2 and the remote terminal 3 via a network, the video transmission system 4 makes it possible to support remote work as a remote support system while ensuring security. The remote terminal 3 has a receiving section 31 , a video output section 32 , an audio input/output section 33 and a transmitting section 34 . When audio is also being received along with the video, the audio is output from the audio input/output unit 33 .

受信部31は、遠隔地端末3において、ウェアラブル端末2の出力部26の映像データを受信する。受信したデータは映像出力部32に送られ、ディスプレイ等のデバイスに映像として表示される。遠隔地端末3は、作業指示等の音声を、ウェアラブル端末2を装着している作業者に対して送信するための音声入出力部33および送信部34を有していてもよい。 The receiving unit 31 receives video data from the output unit 26 of the wearable terminal 2 in the remote terminal 3 . The received data is sent to the video output unit 32 and displayed as video on a device such as a display. The remote terminal 3 may have a voice input/output unit 33 and a transmission unit 34 for transmitting voice such as work instructions to the worker wearing the wearable terminal 2 .

[処理の流れ]
図7および図8は、本実施形態の映像送信システム4の処理の一例を説明するためのフローチャートである。図7は位置情報と選択領域を携帯端末1にて取得し、ウェアラブル端末2へ送信し、記憶域に格納するまでの処理を示している。この処理の流れは一つの対象物に対して一度だけ実行する必要があるものである。
[Process flow]
7 and 8 are flowcharts for explaining an example of processing of the video transmission system 4 of this embodiment. FIG. 7 shows the process of acquiring the position information and the selected area by the portable terminal 1, transmitting them to the wearable terminal 2, and storing them in the storage area. This process flow needs to be executed only once for one object.

まず携帯端末1にて位置情報を取得する(ステップS01)。次に選択領域の指定を受け付ける(ステップS02)。次に選択領域情報を生成する(ステップS03)。次に位置情報と選択領域情報とを送信する(ステップS04)。ウェアラブル端末2は、携帯端末1から送られた位置情報と選択領域情報とを受信する(ステップS05)。受信した位置情報と選択領域情報とを記憶域に格納する(ステップS06)。 First, the mobile terminal 1 acquires position information (step S01). Next, the specification of the selection area is received (step S02). Next, select area information is generated (step S03). Next, position information and selected area information are transmitted (step S04). The wearable terminal 2 receives the position information and the selected area information sent from the mobile terminal 1 (step S05). The received position information and selected area information are stored in the storage area (step S06).

図8は対象物をウェアラブル端末2にて撮影しながら作業等を行っているときのウェアラブル端末2における処理の流れである。この図にあるように、まず記憶域に格納されている位置情報と選択領域情報とを呼出す(ステップS11)。次に対象物映像を取得する(ステップS12)。次に位置情報と選択領域情報とに基づいて、対象物映像内領域映像を生成する(ステップS13)。生成された対象物映像内領域映像を用いてマスクを生成する(ステップS14)。生成されたマスク映像と対象物映像とを合成する(ステップS15)。次に合成された映像を出力する(ステップS17)。撮影を終了するか否かを判断し、終了であれば処理が完了し、撮影を続ける場合には対象物映像の取得処理(ステップS12)に戻って処理を続行する。 FIG. 8 shows the flow of processing in the wearable terminal 2 when performing work or the like while photographing an object with the wearable terminal 2 . As shown in this figure, first, the position information and selection area information stored in the storage area are called (step S11). Next, an object image is obtained (step S12). Next, based on the position information and the selected area information, an area image within the object image is generated (step S13). A mask is generated using the generated area image within the object image (step S14). The generated mask image and object image are synthesized (step S15). Next, the synthesized video is output (step S17). It is determined whether or not to end the photographing. If so, the process is completed. If the photographing is to be continued, the process returns to the object image acquisition process (step S12) to continue the process.

上記「映像」は動画であれば「フレーム」に相当する。対象物映像のフレームごとに一連の処理を実行してもよい。あるいは、所定のフレーム数を単位として、その単位ごとに対象物映像内領域映像を生成し、マスクを生成して、合成するものであってもよい。また所定の時間ごとに対象物映像内領域映像を生成し、マスクを生成して、合成するものであってもよい。 The above "video" corresponds to a "frame" in the case of a moving image. A series of processes may be performed for each frame of the object image. Alternatively, a predetermined number of frames may be used as a unit, and an intra-object image area image may be generated for each unit, a mask may be generated, and the images may be synthesized. Further, it is also possible to generate a region image within the target object image at predetermined time intervals, generate a mask, and synthesize the mask.

また本実施形態の映像送信システム4は携帯端末1とウェアラブル端末2との構成をまとめて単一の映像送信装置として構成してもよい。 In addition, the video transmission system 4 of the present embodiment may combine the configurations of the mobile terminal 1 and the wearable terminal 2 into a single video transmission device.

[ハードウエア構成]
次に、本実施形態に係る映像送信システムを構成する各種装置のハードウエア構成を説明する。図9は、本実施形態に係る映像送信システム4のハードウエア構成の一例を示すブロック図である。
[Hardware configuration]
Next, the hardware configuration of various devices that make up the video transmission system according to this embodiment will be described. FIG. 9 is a block diagram showing an example of the hardware configuration of the video transmission system 4 according to this embodiment.

映像送信システムを構成する携帯端末1およびウェアラブル端末2は、共に図9に例示する構成を少なくとも備える。例えば、携帯端末1およびウェアラブル端末2は、内部バス107により相互に接続される、CPU(Central Processing Unit)101、メモリ102、入出力インタフェース103及び通信手段である無線通信モジュール104、位置情報を取得するGPSモジュール105、映像を取得するカメラモジュール106等を備える。 The mobile terminal 1 and the wearable terminal 2 that constitute the video transmission system both have at least the configuration illustrated in FIG. For example, the mobile terminal 1 and the wearable terminal 2 are connected to each other by an internal bus 107, and include a CPU (Central Processing Unit) 101, a memory 102, an input/output interface 103, a wireless communication module 104 as communication means, and a position information acquisition module. A GPS module 105 for capturing images, a camera module 106 for capturing images, and the like.

但し、図9に示す構成は、携帯端末1およびウェアラブル端末2のハードウエア構成を限定する趣旨ではない。携帯端末1およびウェアラブル端末2は、図示しないハードウエアを含んでもよい。また、両端末に含まれるCPU等の数も図9の例示に限定する趣旨ではなく、例えば、複数のCPUが両端末に含まれていてもよい。例えば携帯端末1や、ウェアラブル端末2は、必要に応じて加速度センサや磁気センサ、方位センサ等の各種センサを有していてもよい。 However, the configuration shown in FIG. 9 is not intended to limit the hardware configuration of the mobile terminal 1 and wearable terminal 2 . The mobile terminal 1 and the wearable terminal 2 may include hardware (not shown). Also, the number of CPUs included in both terminals is not limited to the example in FIG. 9, and for example, multiple CPUs may be included in both terminals. For example, the mobile terminal 1 and the wearable terminal 2 may have various sensors such as an acceleration sensor, a magnetic sensor, and an orientation sensor, if necessary.

メモリ102は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)である。 The memory 102 is a RAM (Random Access Memory), a ROM (Read Only Memory), an auxiliary storage device (such as a hard disk).

入出力インタフェース103は、図示しない表示装置や入力装置のインタフェースとなる手段である。表示装置は、例えば、タッチパネルディスプレイ等である。入力装置は、同じくタッチパネルディスプレイ等である。 The input/output interface 103 is a means that serves as an interface for a display device and an input device (not shown). The display device is, for example, a touch panel display or the like. The input device is similarly a touch panel display or the like.

携帯端末1の機能は、処理モジュールである位置情報取得プログラムと、選択領域情報生成プログラムと、送信プログラム等、により実現される。ウェアラブル端末2は、対象物映像取得プログラムと、受信プログラムと、対象物映像内領域映像生成プログラムと、マスク生成プログラムと、合成プログラムと、出力プログラム等で実現される。当該処理モジュールは、例えば、メモリ102に格納された各種プログラムをCPU101が実行することで実現される。また、そのプログラムは、ネットワークを介してダウンロードするか、あるいは、プログラムを記憶した記憶媒体を用いて、更新することができる。さらに、上記処理モジュールは、半導体チップにより実現されてもよい。即ち、上記処理モジュールが行う機能を何らかのハードウエア、及び/又は、ソフトウエアで実行する手段があればよい。 The functions of the mobile terminal 1 are realized by a position information acquisition program, a selected area information generation program, a transmission program, etc., which are processing modules. The wearable terminal 2 is implemented by an object image acquisition program, a reception program, an object image inner area image generation program, a mask generation program, a synthesis program, an output program, and the like. The processing module is implemented by the CPU 101 executing various programs stored in the memory 102, for example. Also, the program can be downloaded via a network or updated using a storage medium storing the program. Furthermore, the processing module may be realized by a semiconductor chip. In other words, it is sufficient if there is means for executing the functions performed by the processing module by some kind of hardware and/or software.

[ハードウエアの動作]
まず、撮影を始める前に位置情報の取得処理と領域選択情報とを生成する処理を実行する。位置情報取得プログラムがメモリ102からCPU101に呼び出され、実行状態となる。同プログラムはGPSモジュールを制御して位置情報Pが取得される。次に選択領域情報生成プログラムがCPU101で実行状態となり、入出力インタフェースを介して送信が可能な空間領域の指定を受け付ける。タッチパネルディスプレイより空間領域の大きさを数値(x,y,z)で入力することで選択領域をしていればその数値(x,y,z)が選択領域情報となる。また、タッチパネルディスプレイに表示されている配信可能な空間領域をドラッグ動作などで選択した場合には、映像内の選択領域の各辺の長さから選択領域の実際の長さ(x,y,z)をCPU101による演算により求めて、これを選択領域情報とする。次に送信プログラムがCPU101にて実行状態となり、位置情報Pと選択領域情報(x,y,z)を、無線通信モジュール104を介してウェアラブル端末2へ向け送信する。
[Hardware operation]
First, a process of acquiring position information and a process of generating area selection information are executed before shooting is started. A position information acquisition program is called from the memory 102 by the CPU 101 and is put into an execution state. The program controls the GPS module to acquire position information P. Next, the selected area information generation program is executed by the CPU 101 and accepts the specification of the spatial area that can be transmitted via the input/output interface. If a selected area is selected by inputting numerical values (x, y, z) of the size of the spatial area from the touch panel display, the numerical values (x, y, z) become selected area information. Also, when a distributable spatial area displayed on the touch panel display is selected by a drag operation, etc., the actual length of the selected area (x, y, z ) is calculated by the CPU 101 and used as selected area information. Next, the CPU 101 executes the transmission program, and transmits the position information P and the selected area information (x, y, z) to the wearable terminal 2 via the wireless communication module 104 .

ウェアラブル端末2では受信プログラムがCPU101にて実行状態となっており、携帯端末1より送信された位置情報Pと選択領域情報(x,y,z)とを無線通信モジュール104を介して受信する。受信された位置情報Pと選択領域情報(x,y,z)とはメモリ102に格納される。 In the wearable terminal 2 , the CPU 101 is executing a reception program, and receives the position information P and the selected area information (x, y, z) transmitted from the mobile terminal 1 via the wireless communication module 104 . The received position information P and selected area information (x, y, z) are stored in the memory 102 .

撮影を開始すると対象物映像取得プログラムがCPU101にて実行状態となり、カメラモジュール106を制御することで映像を取得する。取得された映像(フレーム)は一時的にメモリ102に格納されてもよい。 When shooting is started, the CPU 101 executes the object image acquisition program, and controls the camera module 106 to acquire an image. The captured video (frame) may be temporarily stored in memory 102 .

次に対象物映像内領域映像生成プログラムがCPU101にて実行状態となり、メモリ102に格納されている位置情報Pと選択領域情報(x,y,z)と、映像のフレームと、を読み込む。次に同プログラムはCPU101による演算処理により、位置情報Pと選択領域情報(x,y,z)、必要であればウェアラブル端末2が有するGPSモジュール105からウェアラブル端末2の位置情報を取得して、選択領域を対象物映像のフレーム内に配置し、その映像内での範囲(座標)を取得する。取得の方法に関しては種々の方法が考えられるが、既存技術による方法では、選択領域がカメラに正対していると仮定して、位置情報Pとウェアラブル端末2の位置情報とで、Pとウェアラブル端末の相対距離を算出し、所定高さを中心点としてウェアラブル端末2のカメラモジュール106のカメラの水平方向視野角および垂直方向視野角および映像サイズに基づいて原点から算出された相対距離に定まる矩形平面上に選択領域を投影する処理を行うことにより選択領域のフレーム上での範囲(座標)を算出することが可能である。算出された範囲(座標)を元に、フレーム上に範囲指定を行い対象物映像内領域映像として、メモリ102へ一時的に格納する。 Next, the CPU 101 executes the object image inner area image generation program, and reads the position information P, the selected area information (x, y, z) and the image frame stored in the memory 102 . Next, the program acquires the position information P and the selected area information (x, y, z), and if necessary, the position information of the wearable terminal 2 from the GPS module 105 of the wearable terminal 2 through arithmetic processing by the CPU 101, The selected area is placed in the frame of the object image, and the range (coordinates) within the image is obtained. Various acquisition methods are conceivable, but in the existing technology method, assuming that the selected area faces the camera, the position information P and the position information of the wearable terminal 2 are used to obtain P and the wearable terminal A rectangular plane determined by the relative distance calculated from the origin based on the horizontal viewing angle and vertical viewing angle of the camera of the camera module 106 of the wearable terminal 2 and the image size with a predetermined height as the center point It is possible to calculate the range (coordinates) of the selected area on the frame by performing the process of projecting the selected area upward. Based on the calculated range (coordinates), a range is specified on the frame and temporarily stored in the memory 102 as a region image within the object image.

次に、マスク生成プログラムがCPU101上で実行状態となり、メモリ102上の対象物映像内領域映像を読み込む。同プログラムは対象物映像内領域以外の領域をマスク領域として不可視化し、対象物映像内領域内の領域を透明化し、マスク映像を作成する。マスク映像はメモリ102上に一時的に格納される。 Next, the mask generation program is executed on the CPU 101, and the intra-object image area image on the memory 102 is read. The program makes the area outside the object image area invisible as a mask area, and makes the area inside the object image area transparent to create a mask image. The mask image is temporarily stored on memory 102 .

次に合成プログラムがCPU101上で実行状態となり、メモリ102上に格納されている対象物映像のフレームとマスク映像とを読み込む。同プログラムは対象物映像のフレームにマスク映像をオーバレイ処理し、処理された映像をメモリ102上に一時的に格納する。 Next, the synthesizing program is executed on the CPU 101, and the frame of the object image and the mask image stored in the memory 102 are read. The program overlays the mask image on the object image frame and temporarily stores the processed image on the memory 102 .

次に出力プログラムがCPU101上で実行状態となり、メモリ102上に格納されているオーバレイ処理された映像データを無線通信モジュール等により送信する。
[効果の説明]
Next, the output program is executed on the CPU 101, and the overlaid video data stored in the memory 102 is transmitted by a wireless communication module or the like.
[Explanation of effect]

本実施形態の映像送信システムによると、セキュリティ上配信が可能な領域を限定するために、位置情報と選択領域情報を用いることで、選択された空間領域を配信可能領域として指定することが可能である。指定された空間領域に基づいて、マスクを生成する処理を実行する。これにより、撮影する距離や方向が変化しても、一度の指定で配信可能な領域を指定可能であり、円滑な遠隔支援等が可能である。 According to the video transmission system of this embodiment, it is possible to designate a selected spatial area as a distributable area by using position information and selection area information in order to limit the area where distribution is possible for security reasons. be. Performs a process to generate a mask based on a specified spatial region. As a result, even if the shooting distance or direction changes, it is possible to specify a deliveryable area with a single specification, and smooth remote support or the like is possible.

上記の実施形態の一部又は全部は、以下のようにも記載され得るが、以下には限られな
い。
[形態1]
上述の第一の視点に係る映像送信システムのとおりである。
[形態2]
前記選択領域情報生成部は、前記空間領域の選択を、数値情報を入力することにより行う、好ましくは形態1に記載の映像送信システム。
[形態3]
前記選択領域情報生成部は、前記空間領域の選択を、ポインティングデバイスを用いて範囲を特定することにより行う、好ましくは形態1に記載の映像送信システム。
[形態4]
前記選択領域情報生成部は、基点を頂点とする直方体もしくは立方体の内の空間領域を前記選択領域とする、好ましくは形態1から3のいずれか一に記載の映像送信システム。
[形態5]
前記選択領域情報生成部は、基点を中心とした円を底面もしくは上面とする円柱の内の空間領域を前記選択領域とする、好ましくは形態1から4のいずれか一に記載の映像送信システム。
[形態6]
前記対象物映像内領域映像生成部は、動画である映像の所定数のフレームごとに対象物映像内領域映像を生成し、
前記合成部は、所定数のフレームごとに同一のマスクを合成する、好ましくは請求項1から5のいずれか一に記載の映像送信システム。
[形態7]
前記対象物映像内領域映像生成部は、所定時間ごとに前記対象物映像内領域映像を生成し、
合成部は、所定時間ごとに同一のマスクを合成する、好ましくは形態1から5のいずれか一に記載の映像送信システム。
[形態8]
位置情報を取得する位置情報取得部と、
取得した前記位置情報を基点とした対象物を含む空間領域を選択した選択領域を特定する選択領域情報を生成する選択領域情報生成部と、
対象物を含む映像である対象物映像を取得する対象物映像取得部と、
受信した前記位置情報と、前記選択領域情報とを用いて、前記選択領域を前記対象物映像内にマッピングして対象物映像内領域映像を生成する対象物映像内領域映像生成部と、
対象物映像内領域映像以外の領域を不可視化するマスクを生成するマスク生成部と、
前記マスクと、前記対象物映像とを合成する合成部と、
合成された映像を出力する出力部と、
を有する映像送信装置。
[形態9]
上記第二の視点に係る方法のとおりである。
[形態10]
上記第三の視点に係るプログラムのとおりである。
Some or all of the above embodiments may also be described as follows, but are not limited to the following.
[Mode 1]
This is the video transmission system according to the first viewpoint described above.
[Mode 2]
Preferably, the video transmission system according to form 1, wherein the selected area information generation unit selects the spatial area by inputting numerical information.
[Mode 3]
Preferably, the video transmission system according to form 1, wherein the selection area information generation unit selects the spatial area by specifying a range using a pointing device.
[Mode 4]
Preferably, the video transmission system according to any one of modes 1 to 3, wherein the selection area information generation unit defines the selection area as a spatial area within a rectangular parallelepiped or cube having a base point as a vertex.
[Mode 5]
5. Preferably, the video transmission system according to any one of modes 1 to 4, wherein the selection area information generation unit defines the selection area as a space area within a cylinder having a base or top as a circle centered on a base point.
[Mode 6]
The object image inner area image generation unit generates an object image inner area image for each predetermined number of frames of a moving image,
6. The video transmission system according to any one of claims 1 to 5, wherein said synthesizing unit synthesizes the same mask every predetermined number of frames.
[Mode 7]
The object image inner area image generation unit generates the object image inner area image at predetermined time intervals,
Preferably, the video transmission system according to any one of modes 1 to 5, wherein the synthesizing unit synthesizes the same mask every predetermined time.
[Mode 8]
a location information acquisition unit that acquires location information;
a selected area information generating unit that generates selected area information specifying a selected area in which a spatial area including an object based on the acquired position information is selected;
an object image acquisition unit that acquires an object image that is an image including the object;
an intra-target image area image generation unit that generates an intra-object image area image by mapping the selected area within the target object image using the received position information and the selected area information;
a mask generation unit that generates a mask that makes an area other than the area image within the object image invisible;
a synthesizing unit that synthesizes the mask and the target object image;
an output unit that outputs the synthesized video;
A video transmission device having
[Mode 9]
This is the method according to the second aspect above.
[Mode 10]
It is as described in the program related to the third viewpoint above.

1 携帯端末
2 ウェアラブル端末
3 遠隔地端末
4 映像送信システム
11 位置情報取得部
12 選択領域情報生成部
13 送信部
21 対象物映像取得部
22 受信部
23 対象物映像内領域映像生成部
24 マスク生成部
25 合成部
26 出力部
31 受信部
32 映像出力部
33 音声入出力部
34 送信部
101 CPU
102 メモリ
103 入出力インタフェース
104 無線通信モジュール
105 GPSモジュール
106 カメラモジュール
107 内部バス
1 mobile terminal 2 wearable terminal 3 remote terminal 4 image transmission system 11 position information acquisition unit 12 selected area information generation unit 13 transmission unit 21 target object image acquisition unit 22 reception unit 23 target object image inner area image generation unit 24 mask generation unit 25 synthesis unit 26 output unit 31 reception unit 32 video output unit 33 audio input/output unit 34 transmission unit 101 CPU
102 memory 103 input/output interface 104 wireless communication module 105 GPS module 106 camera module 107 internal bus

Claims (10)

携帯端末とウェアラブル端末とを有する映像送信システムであって、
前記携帯端末は、
位置情報を取得する位置情報取得部と、
取得した前記位置情報を基点とした対象物を含む空間領域を選択した選択領域を特定する選択領域情報を生成する選択領域情報生成部と、
取得された前記位置情報と前記選択領域情報とを前記ウェアラブル端末へ送信する送信部と、
を有し、
前記ウェアラブル端末は、
前記対象物を含む映像である対象物映像を取得する対象物映像取得部と、
前記携帯端末から前記位置情報と前記選択領域情報とを受信する受信部と、
前記位置情報と、前記選択領域情報とを用いて、前記選択領域を前記対象物映像内にマッピングして対象物映像内領域映像を生成する対象物映像内領域映像生成部と、
前記対象物映像内領域映像以外の領域を不可視化するマスクを生成するマスク生成部と、
生成された前記マスクと、前記対象物映像とを合成する合成部と、
合成された映像を出力する出力部と、
を有する映像送信システム。
A video transmission system having a mobile terminal and a wearable terminal,
The mobile terminal is
a location information acquisition unit that acquires location information;
a selected area information generating unit that generates selected area information specifying a selected area in which a spatial area including an object based on the acquired position information is selected;
a transmission unit that transmits the acquired position information and the selected area information to the wearable terminal;
has
The wearable terminal is
an object image acquisition unit that acquires an object image that is an image including the object;
a receiving unit that receives the location information and the selected area information from the mobile terminal;
an intra-target image region image generation unit that generates an intra-target image region image by mapping the selected region within the target object image using the position information and the selected region information;
a mask generation unit that generates a mask that makes an area other than the intra-object image area image invisible;
a synthesizing unit that synthesizes the generated mask and the target object image;
an output unit that outputs the synthesized video;
A video transmission system having
前記選択領域情報生成部は、前記空間領域の選択を、数値情報を入力することにより行う請求項1に記載の映像送信システム。 2. The video transmission system according to claim 1, wherein said selected area information generator selects said spatial area by inputting numerical information. 前記選択領域情報生成部は、前記空間領域の選択を、ポインティングデバイスを用いて範囲を特定することにより行う請求項1記載の映像送信システム。 2. The video transmission system according to claim 1, wherein said selection area information generating section selects said spatial area by specifying a range using a pointing device. 前記選択領域情報生成部は、基点を頂点とする直方体もしくは立方体の内の空間領域を前記選択領域とする請求項1から3のいずれか一に記載の映像送信システム。 4. The video transmission system according to any one of claims 1 to 3, wherein the selected area information generation unit uses a spatial area within a rectangular parallelepiped or cube with a base point as a vertex as the selected area. 前記選択領域情報生成部は、基点を中心とした円を底面もしくは上面とする円柱の内の空間領域を前記選択領域とする請求項1から4のいずれか一に記載の映像送信システム。 5. The video transmission system according to any one of claims 1 to 4, wherein the selection area information generation unit uses, as the selection area, a space area within a cylinder having a bottom surface or top surface that is a circle centered on a base point. 前記対象物映像内領域映像生成部は、動画である映像の所定数のフレームごとに前記対象物映像内領域映像を生成し、
前記合成部は、所定数のフレームごとに同一のマスクを合成する請求項1から5のいずれか一に記載の映像送信システム。
The object image inner area image generating unit generates the object image inner area image for each predetermined number of frames of a moving image,
6. The video transmission system according to any one of claims 1 to 5, wherein the synthesizing unit synthesizes the same mask every predetermined number of frames.
前記対象物映像内領域映像生成部は、所定時間ごとに前記対象物映像内領域映像を生成し、
合成部は、所定時間ごとに同一のマスクを合成する請求項1から5のいずれか一に記載の映像送信システム。
The object image inner area image generation unit generates the object image inner area image at predetermined time intervals,
6. The video transmission system according to any one of claims 1 to 5, wherein the synthesizing unit synthesizes the same mask every predetermined time.
位置情報を取得する位置情報取得部と、
取得した前記位置情報を基点とした対象物を含む空間領域を選択した選択領域を特定する選択領域情報を生成する選択領域情報生成部と、
対象物を含む映像である対象物映像を取得する対象物映像取得部と、
受信した前記位置情報と、前記選択領域情報とを用いて、前記選択領域を前記対象物映像内にマッピングして対象物映像内領域映像を生成する対象物映像内領域映像生成部と、
対象物映像内領域映像以外の領域を不可視化するマスクを生成するマスク生成部と、
前記マスクと、前記対象物映像とを合成する合成部と、
合成された映像を出力する出力部と、
を有する映像送信装置。
a location information acquisition unit that acquires location information;
a selected area information generating unit that generates selected area information specifying a selected area in which a spatial area including an object based on the acquired position information is selected;
an object image acquisition unit that acquires an object image that is an image including the object;
an intra-target image area image generation unit that generates an intra-object image area image by mapping the selected area within the target object image using the received position information and the selected area information;
a mask generation unit that generates a mask that makes an area other than the area image within the object image invisible;
a synthesizing unit that synthesizes the mask and the target object image;
an output unit that outputs the synthesized video;
A video transmission device having
携帯端末とウェアラブル端末とを有する映像送信システムの動作方法であって、
前記携帯端末は、
位置情報を取得する位置情報取得ステップと、
取得した前記位置情報を基点とした対象物を含む空間領域を選択した選択領域を特定する選択領域情報を生成する選択領域情報生成ステップと、
取得された前記位置情報と前記選択領域情報とをウェアラブル端末へ送信する送信ステップと、
を有し、
前記ウェアラブル端末は、
前記対象物を含む映像である対象物映像を取得する対象物映像取得ステップと、
前記携帯端末から前記位置情報と前記選択領域情報とを受信する受信ステップと、
前記位置情報と、前記選択領域情報を用いて、前記選択領域を前記対象物映像内にマッピングして対象物映像内領域映像を生成する対象物映像内領域映像生成ステップと、
前記対象物映像内領域映像以外の領域を不可視化するマスクを生成するマスク生成ステップと、
前記マスクと、前記対象物映像とを合成する合成ステップと、
合成された映像を出力する出力ステップと、
を有する映像送信システムの動作方法。
A method of operating a video transmission system having a mobile terminal and a wearable terminal,
The mobile terminal is
a location information acquisition step of acquiring location information;
a selected area information generating step of generating selected area information specifying a selected area in which a spatial area including an object based on the acquired position information is selected;
a transmission step of transmitting the acquired position information and the selected area information to the wearable terminal;
has
The wearable terminal is
an object image acquisition step of acquiring an object image that is an image including the object;
a receiving step of receiving the location information and the selected area information from the mobile terminal;
an area image generation step of mapping the selected area within the object image using the position information and the selected area information to generate an area image within the object image;
a mask generation step of generating a mask for making an area other than the intra-object image area image invisible;
a synthesizing step of synthesizing the mask and the object image;
an output step for outputting the synthesized video;
A method of operating a video transmission system having
携帯端末とウェアラブル端末とを有する映像送信システムの動作プログラムであって、
前記携帯端末は、
位置情報を取得する処理と、
取得した前記位置情報を基点とした対象物を含む空間領域を選択した選択領域を特定する選択領域情報を生成する処理と、
取得された前記位置情報と前記選択領域情報とを前記ウェアラブル端末へ送信する処理と、
を実行し、
前記ウェアラブル端末は、
前記対象物を含む映像である対象物映像を取得する処理と、
前記携帯端末から前記位置情報と前記選択領域情報とを受信する処理と、
前記位置情報と、前記選択領域情報とを用いて、前記選択領域を前記対象物映像内にマッピングして対象物映像内領域映像を生成する処理と、
前記対象物映像内領域映像以外の領域を不可視化するマスクを生成する処理と、
生成された前記マスクと、前記対象物映像とを合成する処理と、
合成された映像を出力する処理と、
を実行させるための映像送信システムの動作プログラム。
An operating program for a video transmission system having a mobile terminal and a wearable terminal,
The mobile terminal is
a process of acquiring location information;
a process of generating selected area information specifying a selected area in which a spatial area including an object is selected based on the acquired position information;
a process of transmitting the acquired position information and the selected area information to the wearable terminal;
and run
The wearable terminal is
a process of acquiring an object image that is an image including the object;
a process of receiving the location information and the selected area information from the mobile terminal;
a process of mapping the selected area within the target object image using the position information and the selected area information to generate an area image within the target object image;
a process of generating a mask that makes an area other than the intra-object image area image invisible;
a process of synthesizing the generated mask and the object image;
a process of outputting the synthesized video;
An operation program of the video transmission system for executing
JP2020179828A 2020-10-27 2020-10-27 VIDEO TRANSMISSION SYSTEM, OPERATION METHOD OF VIDEO TRANSMISSION SYSTEM, AND OPERATION PROGRAM OF VIDEO TRANSMISSION SYSTEM Active JP7294667B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020179828A JP7294667B2 (en) 2020-10-27 2020-10-27 VIDEO TRANSMISSION SYSTEM, OPERATION METHOD OF VIDEO TRANSMISSION SYSTEM, AND OPERATION PROGRAM OF VIDEO TRANSMISSION SYSTEM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020179828A JP7294667B2 (en) 2020-10-27 2020-10-27 VIDEO TRANSMISSION SYSTEM, OPERATION METHOD OF VIDEO TRANSMISSION SYSTEM, AND OPERATION PROGRAM OF VIDEO TRANSMISSION SYSTEM

Publications (2)

Publication Number Publication Date
JP2022070653A JP2022070653A (en) 2022-05-13
JP7294667B2 true JP7294667B2 (en) 2023-06-20

Family

ID=81535096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020179828A Active JP7294667B2 (en) 2020-10-27 2020-10-27 VIDEO TRANSMISSION SYSTEM, OPERATION METHOD OF VIDEO TRANSMISSION SYSTEM, AND OPERATION PROGRAM OF VIDEO TRANSMISSION SYSTEM

Country Status (1)

Country Link
JP (1) JP7294667B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003198918A (en) 2001-12-25 2003-07-11 Sony Corp Method and device for recording and reproducing picture
JP2004357126A (en) 2003-05-30 2004-12-16 Toshiba Corp Imaging apparatus, system, and method
JP2018207271A (en) 2017-06-02 2018-12-27 富士通株式会社 Terminal, image processing system, image processing program, and method for processing image
JP2020156083A (en) 2019-03-18 2020-09-24 Scsk株式会社 Generation system and generation program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036812A (en) * 2016-08-31 2018-03-08 株式会社日立システムズ System and method for remotely supporting it operation work
JP7179583B2 (en) * 2018-11-05 2022-11-29 株式会社東芝 Image processing device and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003198918A (en) 2001-12-25 2003-07-11 Sony Corp Method and device for recording and reproducing picture
JP2004357126A (en) 2003-05-30 2004-12-16 Toshiba Corp Imaging apparatus, system, and method
JP2018207271A (en) 2017-06-02 2018-12-27 富士通株式会社 Terminal, image processing system, image processing program, and method for processing image
JP2020156083A (en) 2019-03-18 2020-09-24 Scsk株式会社 Generation system and generation program

Also Published As

Publication number Publication date
JP2022070653A (en) 2022-05-13

Similar Documents

Publication Publication Date Title
CA2888943C (en) Augmented reality system and method for positioning and mapping
US20140192164A1 (en) System and method for determining depth information in augmented reality scene
JP2016057108A (en) Arithmetic device, arithmetic system, arithmetic method and program
CN109155055B (en) Region-of-interest image generating device
CN114127794A (en) Information terminal device and position identification sharing method
TW202046064A (en) Maintenance assistance system, maintenance assistance method, program, processed image generation method, and processed image
US11250540B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP7179583B2 (en) Image processing device and image processing method
JP7335335B2 (en) Information processing device, information processing method, and program
JP7294667B2 (en) VIDEO TRANSMISSION SYSTEM, OPERATION METHOD OF VIDEO TRANSMISSION SYSTEM, AND OPERATION PROGRAM OF VIDEO TRANSMISSION SYSTEM
JP6938904B2 (en) Transmission control program, transmission control method and information processing device
US20230089061A1 (en) Space recognition system, space recognition method, information terminal, and server apparatus
JP5514062B2 (en) Electronic device, imaging screen display method with information, and program
CN112528699A (en) Method and system for obtaining identification information of a device or its user in a scene
US20200167948A1 (en) Control system, method of performing analysis and storage medium
WO2011093031A1 (en) Portable terminal, action history depiction method, and action history depiction system
JP2017227957A (en) Information processing apparatus and information processing system
KR20160023362A (en) System and Method for realtime 3D tactical intelligence display
JP7225016B2 (en) AR Spatial Image Projection System, AR Spatial Image Projection Method, and User Terminal
JP6719435B2 (en) Terminal device and program
KR20170021689A (en) System and method for supporting design/manufacture of marine structure using argumented reality
JP2020046798A (en) Unmanned flying device, imaging system and imaging method
JP7082175B2 (en) A system including a terminal device for displaying a virtual object and a server device, and the server device.
US20240112422A1 (en) Communication management server, communication system, and method for managing communication
JP7213204B2 (en) TERMINAL DEVICE, METHOD AND PROGRAM IN TERMINAL DEVICE

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230601

R151 Written notification of patent or utility model registration

Ref document number: 7294667

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151