JP2020123990A - Multiple video distribution system - Google Patents

Multiple video distribution system Download PDF

Info

Publication number
JP2020123990A
JP2020123990A JP2020086364A JP2020086364A JP2020123990A JP 2020123990 A JP2020123990 A JP 2020123990A JP 2020086364 A JP2020086364 A JP 2020086364A JP 2020086364 A JP2020086364 A JP 2020086364A JP 2020123990 A JP2020123990 A JP 2020123990A
Authority
JP
Japan
Prior art keywords
line
signal
imaging
distribution system
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020086364A
Other languages
Japanese (ja)
Inventor
政弘 井筒
Masahiro Izutsu
政弘 井筒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DAP Realize Co Ltd
Original Assignee
DAP Realize Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DAP Realize Co Ltd filed Critical DAP Realize Co Ltd
Priority to JP2020086364A priority Critical patent/JP2020123990A/en
Publication of JP2020123990A publication Critical patent/JP2020123990A/en
Pending legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

To provide a multiple video distribution system that allows a large number of users to simultaneously observe an imaging target present in a limited area without causing device congestion in the vicinity of the imaging target.SOLUTION: A multiple video distribution system includes: a plurality of slave devices for imaging an imaging target from different perspectives and/or gaze directions and generating and transmitting an imaging signal; and a master device for generating and transmitting "video signals of a plurality of systems having different display ranges" on the basis of the imaging signal. The master device has a function to generate three-dimensional mapping data of the surface of the imaging target on the basis of "the imaging signal received from each of the slave devices", and "the positional information on each slave device and gaze direction information", and generate "a video signal corresponding to 'a view obtained by viewing the imaging target from a predetermined view position and the gaze direction'" on the basis of the three-dimensional mapping data.SELECTED DRAWING: Figure 1

Description

本発明は、多重映像配信システムに関し、特に、複数のユーザが、表示範囲が異なる映像を同時に楽しむことができる多重映像配信システムに関する。 The present invention relates to a multiplex video distribution system, and more particularly to a multiplex video distribution system that allows a plurality of users to simultaneously enjoy videos with different display ranges.

複数のユーザが、表示範囲が異なる映像を同時に楽しむことができる多重映像配信システムとしては、従来、特許文献1や特許文献2に記載されているような、
「『撮像対象がある現地』に存在する子装置」と「『遠隔地にいるユーザ』が使用する端末装置」とを対応付けた上で、子装置が撮像対象を撮像して生成した撮像信号を、「現地に存在する親装置」が映像信号に変換した上で、端末装置に送信する多重映像配信システム
が提案されている。
As a multiplex video distribution system in which a plurality of users can enjoy videos with different display ranges at the same time, as described in Patent Document 1 and Patent Document 2 in the related art,
An imaging signal generated by the child device imaging the imaging target after associating the “child device existing in “the site where the imaging target is located”” with the “terminal device used by the “user in a remote location”” A multiplex video distribution system has been proposed in which the “local device existing in the field” converts the video signal into a video signal and transmits the video signal to the terminal device.

しかし、従来のシステムでは、端末装置と子装置とが一対一又は略一対一に対応づけられることが通常であるため、端末装置を使用するユーザの数が増えると子装置の数も増えてしまい、現地で輻輳してしまうという問題が生じる。そして、この問題は、多数のユーザが、限られた領域内に存在する撮像対象(例えば、洞窟内の生物、劇場で演じられる演劇、スタジアムで実施されるスポーツイベントやコンサートなど)の映像を同時に楽しもうとする場合、より深刻になる。 However, in the conventional system, since the terminal device and the child device are usually associated with each other in a one-to-one or approximately one-to-one relationship, the number of child devices also increases as the number of users who use the terminal device increases. However, the problem of congestion at the site arises. And, this problem is that many users can simultaneously capture images of imaging targets (for example, creatures in a cave, plays performed in a theater, sports events and concerts performed in a stadium, etc.) that exist in a limited area. When you try to have fun, you get more serious.

また、従来のシステムでは、「現地に存在する子装置」からの撮像信号や、「現地に存在する親装置」からの映像信号は、リアルタイムでライブ配信されるのが通常であるため、「撮像対象がある現地」と「ユーザのいる遠隔地」との間に時差がある場合、遠隔地にいるユーザは、例えば、現地で日中に行われているイベントを深夜でないと楽しめないという問題が生じる。 In addition, in the conventional system, the image pickup signal from the "child device existing in the field" and the video signal from the "parent device existing in the field" are usually delivered live in real time. When there is a time difference between "the target site" and "the remote place where the user is", there is a problem that the user at the remote place can enjoy the event that is being performed locally during the daytime only at midnight. Occurs.

特許第6089256号公報Patent No. 6089256 特開2017−103796号公報JP, 2017-103796, A

本発明は、このような事情に鑑みてなされたものであり、撮像対象の付近で装置の輻輳を生じさせることなく、多数のユーザが、限られた領域内に存在する撮像対象を同時に観察することができる多重映像配信システムを提供することを目的とする。 The present invention has been made in view of such circumstances, and a large number of users simultaneously observe the imaging target existing in a limited area without causing congestion of the device near the imaging target. An object of the present invention is to provide a multiplex video distribution system capable of performing the above.

また、本発明は、「撮像対象がある現地」と「ユーザのいる遠隔地」の間に時差がある場合でも、「ユーザのいる遠隔地」の時刻に近い時刻(ただし日付は前日であることもある)での撮像対象の状態を観察することができる多重映像配信システムを提供することを目的とする。 Further, according to the present invention, even when there is a time difference between the “local where the imaging target is located” and the “remote location where the user is”, a time close to the time of the “remote location where the user is” (however, the date is the previous day). It is an object of the present invention to provide a multiplex video distribution system capable of observing the state of an image pickup target in (see also).

上記目的を達成するために、多重映像配信システムに係る本発明の第1の様態は、
3次元的に配置され、異なる視座及び/又は視線方向から撮像対象を撮像して撮像信号を生成し、必要な変換を行った上で後記親装置に送信する複数の子装置と;
前記子装置の各々から受信した撮像信号に基づいて「表示範囲が異なる複数系統の映像信号」を生成・送信する親装置と;
から構成される多重映像配信システムであって、
前記親装置は、「前記子装置の各々から受信した撮像信号」及び「前記子装置の各々の位置情報と視線方向情報」に基づいて、撮像対象の表面を3次元空間内にマッピングした3次元マッピングデータを生成し、該3次元マッピングデータに基づいて「『所定の視座と視線方向から撮像対象を見た視像』に相当する映像信号」を生成する機能を有する、
ように構成した。
In order to achieve the above object, a first aspect of the present invention related to a multiplex video distribution system is
A plurality of child devices which are three-dimensionally arranged, generate an image pickup signal by picking up an image pickup target from different viewpoints and/or line-of-sight directions, perform necessary conversion, and then transmit the parent signal to a parent device described later;
A parent device that generates and transmits “a plurality of systems of video signals having different display ranges” based on the imaging signals received from each of the child devices;
A multi-video distribution system consisting of
The parent device is a three-dimensional map in which the surface of the imaging target is mapped in a three-dimensional space based on the “imaging signal received from each of the child devices” and “position information and line-of-sight direction information of each of the child devices”. It has a function of generating mapping data and generating a "video signal corresponding to "a visual image of an object to be imaged viewed from a predetermined viewpoint and line-of-sight direction"" based on the three-dimensional mapping data
As configured.

本発明の第1の様態において、子装置は、入射光を光電変換するイメージセンサー(CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等)から構成される撮像手段と、該撮像手段からの電気信号(以下「撮像電気信号」と略記する)を、デジタルRGB、LVDS(Low Voltage Differential Signaling)(又はLDI(LVDS Display Interface))、GVIF(GigabitVideo InterFace)、USB(Universal Serial Bus)、DisplayPort、WirelessHD(High Definition)、WHDI(Wireless Home Digital Interface)、WiGig(Wireless Gigabit)などの方式で伝送される非圧縮の映像信号(以下「非圧縮映像信号」という)に変換し、さらに、該非圧縮映像信号を、H.261、H.263、H.264、MPEG(Moving Picture Experts Group)−1、MPEG−2、MPEG−4等の規格によって圧縮符号化された映像信号(以下「圧縮映像信号」という)に変換する信号変換手段と、該圧縮映像信号を親装置に送信する通信手段によって構成することができる。 In the first aspect of the present invention, the child device includes an image pickup unit configured by an image sensor (CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor)) that photoelectrically converts incident light, and an image pickup unit including the image pickup unit. Electrical signals (hereinafter abbreviated as “imaging electrical signals”) of digital RGB, LVDS (Low Voltage Differential Signaling) (or LDI (LVDS Display Interface)), GVIF (GigabitVideo InterFace), USB (Universal Serial Bus), DisplayPort , WirelessHD (High Definition), WHDI (Wireless Home Digital Interface), WiGig (Wireless Gigabit), and other uncompressed video signals (hereinafter referred to as "uncompressed video signals") are transmitted, and the uncompressed A video signal that is compression-encoded by a standard such as H.261, H.263, H.264, MPEG (Moving Picture Experts Group)-1, MPEG-2, MPEG-4 (hereinafter, "compressed video signal"). ")) and a communication means for transmitting the compressed video signal to the parent device.

なお、子装置は、上記の構成に替えて、信号変換手段での変換を、非圧縮映像信号までに留める構成とすることもできる。そして、この構成を取る場合、通信手段は親装置に該非圧縮映像信を送信することになる。 Note that the child device may have a configuration in which the conversion by the signal conversion unit is limited to the non-compressed video signal instead of the above configuration. Then, in the case of adopting this configuration, the communication means will transmit the uncompressed video signal to the parent device.

また、子装置の位置情報としては、子装置の撮像手段の視座の鉛直下方の地面点の緯度・経度と子装置の撮像手段の視座の高度を使用することができる。また、子装置の視線方向情報としては、子装置の撮像手段の視線の鉛直方向の傾斜角θと水平方向の回転角φとを使用することができる。 Further, as the position information of the child device, the latitude/longitude of the ground point vertically below the viewpoint of the imaging device of the child device and the altitude of the viewpoint of the imaging device of the child device can be used. Further, as the line-of-sight direction information of the child device, the vertical inclination angle θ and the horizontal rotation angle φ of the line-of-sight of the image pickup means of the child device can be used.

なお、本明細書及び特許請求の範囲でいう撮像手段の「視座」「視座の高度」「視座の鉛直下方の地面点」「視線」「視線の鉛直方向の傾斜角θ」「視線の水平方向の回転角φ」「撮像範囲」「視点(撮像範囲の中心)」等の意味するところは、図5に示した通りである。 In the present specification and claims, "viewpoint", "altitude of viewpoint", "ground point vertically below the viewpoint", "line of sight", "angle of inclination in the vertical direction of line of sight", and "horizontal direction of line of sight" in the description and claims. The rotation angle φ, the “imaging range”, the “viewpoint (center of the imaging range)”, etc. are as shown in FIG.

また、本明細書及び特許請求の範囲でいう「所定の視座と視線方向から撮像対象を見た視像」や「該視像に相当する映像信号」等の意味するところは、図6に示した通りである。 In addition, what is meant in the present specification and claims such as "a visual image of a subject viewed from a predetermined visual point and line-of-sight direction" and "a video signal corresponding to the visual image" is shown in FIG. That's right.

上記目的を達成するために、多重映像配信システムに係る本発明の第2の様態は、第1の様態の多重映像配信システムにおいて、
複数の端末装置から受信した表示範囲設定信号に基づいて「表示範囲が異なる複数系統の映像信号」を生成する機能と;
生成した各々の系統の映像信号を、「該系統の映像信号がそれに基づいて生成された表示範囲設定信号を生成した端末装置」宛に送信する機能と;
を有する、
するように構成した。
In order to achieve the above object, a second aspect of the present invention relating to a multiplex video distribution system is the multiplex video distribution system of the first aspect,
A function of generating "a plurality of video signals of different display ranges" based on display range setting signals received from a plurality of terminal devices;
A function of transmitting the generated video signal of each system to the "terminal device that generated the display range setting signal generated based on the video signal of the system";
Has,
Configured to do so.

上記目的を達成するために、多重映像配信システムに係る本発明の第3の様態は、第2の様態の多重映像配信システムにおいて、
前記親装置は、
前記端末装置から受信した視座設定信号と視線方向設定信号に基づいて視座と視線方向を設定した上で、「該視座と該視線方向から撮像対象を見た視像』に相当する映像信号」を生成する機能と;
生成した映像信号を、「該系統の映像信号がそれに基づいて生成された視座設定信号と視線方向設定信号を生成した端末装置」宛に送信する機能と;
を有する、
するように構成した。
In order to achieve the above object, a third aspect of the present invention relating to a multiplex video distribution system is the multiplex video distribution system according to the second aspect.
The parent device is
After setting the viewpoint and the line-of-sight direction based on the viewpoint setting signal and the line-of-sight direction setting signal received from the terminal device, a "video signal corresponding to the "view image of the imaging target viewed from the viewpoint and the line-of-sight direction"" Function to generate;
A function of transmitting the generated video signal to “a terminal device that has generated the viewpoint setting signal and the line-of-sight direction setting signal generated based on the video signal of the system”;
Has,
Configured to do so.

上記目的を達成するために、多重映像配信システムに係る本発明の第4の様態は、第3の様態の多重映像配信システムにおいて、
前記親装置は、「両眼の視座のずれを反映した2系統の映像信号」を生成する機能を有する、
を有する、
ように構成した。
In order to achieve the above object, a fourth aspect of the present invention relating to a multiplex video distribution system is the multiplex video distribution system according to the third aspect,
The parent device has a function of generating “two systems of video signals that reflect the displacement of the binocular visual point”.
Has,
As configured.

上記目的を達成するために、多重映像配信システムに係る本発明の第5の様態は、第2乃至第4のいずれか一つの様態の多重映像配信システムにおいて、
前記親装置は、
過去の前記3次元マッピングデータを蓄積する機能と;
前記端末装置から表示範囲設定信号を受信した時点より以前の3次元マッピングデータに基づいて映像信号を生成する機能と;
を有する、
ように構成した。
In order to achieve the above object, a fifth aspect of the present invention relating to a multiplex video distribution system is the multiplex video distribution system according to any one of the second to fourth aspects,
The parent device is
A function of accumulating the past three-dimensional mapping data;
A function of generating a video signal based on three-dimensional mapping data before the time when the display range setting signal is received from the terminal device;
Has,
As configured.

本発明の多重映像配信システムによれば、所定の領域内に存在する撮像対象の表面をくまなく撮像できるだけの数の子装置だけを用意すれば、該領域における撮像対象の表面の形状及び各表面点の色を表現する3次元マッピングデータを生成することができ、また、3次元マッピングデータが作成できれば、いかなる視座と視線方向が設定されたとしても、『該視座と視線方向から撮像対象を見た視像』に相当する映像信号を生成することができるため、端末装置を使用するユーザの数が増えても子装置を増やす必要がなく、したがって、撮像対象の付近で小装置が輻輳することはなくなる。 According to the multiplex video distribution system of the present invention, by preparing only a sufficient number of child devices that can image the surface of the imaging target existing in a predetermined area, the shape of the surface of the imaging target in each area and the surface points As long as it is possible to generate three-dimensional mapping data that expresses a color, and if three-dimensional mapping data can be created, no matter what viewpoint or line-of-sight direction is set, the "viewing point of view of the imaging target from the viewpoint and line-of-sight direction" Since it is possible to generate a video signal equivalent to "image", it is not necessary to increase the number of child devices even if the number of users who use the terminal device increases, and therefore, the small device does not become congested near the imaging target. ..

特に、本発明の第5の様態の多重映像配信システムによれば、ユーザが端末装置を操作している時点よりも以前の撮像対象を観察した視像に相当する映像をタイムシフト生成することができるため、「撮像対象がある現地」と「ユーザのいる遠隔地」の間に時差がある場合でも、「ユーザのいる遠隔地」の時刻に近い時刻での撮像対象の状態を観察することができる。 Particularly, according to the multiplex video distribution system of the fifth aspect of the present invention, it is possible to time-shift and generate a video corresponding to a visual image of an imaging target observed before the time when the user operates the terminal device. Therefore, even if there is a time difference between "the site where the image is captured" and "the remote location where the user is", it is possible to observe the state of the image capture target at a time close to the time of the "remote location where the user is". it can.

本発明の実施例1に係る多重映像配信システムの構成及び機能を説明するためのブロック図である。It is a block diagram for explaining a configuration and a function of the multiplex video distribution system according to the first embodiment of the present invention. 本発明の実施例1に係る多重映像配信システムの構成及び機能を説明するためのイメージ図である。It is an image diagram for explaining the configuration and function of the multiplex video distribution system according to the first embodiment of the present invention. 本発明の実施例1に係る多重映像配信システムにおける、子装置の配備原則を説明するための説明図である。FIG. 3 is an explanatory diagram for explaining a deployment principle of child devices in the multiplex video distribution system according to the first embodiment of the present invention. 本発明の実施例1に係る多重映像配信システムにおける、撮像対象の表面点の3次元空間へのマッピング方法を説明するための説明図である。FIG. 5 is an explanatory diagram for explaining a method of mapping surface points of an imaging target onto a three-dimensional space in the multiplex video distribution system according to the first embodiment of the present invention. 本明細書及び特許請求の範囲でいう撮像手段の「視座」「視座の高度」「視座の鉛直下方の地面点」「視線」「視線の鉛直方向の傾斜角θ」「視線の水平方向の回転角φ」「撮像範囲」「視点(撮像範囲の中心)」等の意味を説明するための説明図である。"Sight", "elevation altitude", "ground point vertically below the sight", "line of sight", "angle of inclination in the vertical direction of the line of sight" "rotation of the line of sight in the horizontal direction" of the image pickup means in the present specification and claims. It is explanatory drawing for demonstrating meaning, such as an angle (phi), "imaging range," "a viewpoint (center of an imaging range)." 本明細書及び特許請求の範囲でいう「所定の視座と視線方向から撮像対象を見た視像」や「該視像に相当する映像信号」を説明するための説明図である。FIG. 3 is an explanatory diagram for explaining “a view image of an image pickup target viewed from a predetermined viewpoint and line-of-sight direction” and “a video signal corresponding to the view image” in the present specification and claims.

以下、図面を参照して本発明の実施形態について説明する。ただし、本発明はかかる実
施形態に限定されず、その技術思想の範囲内で種々の変更が可能である。
Embodiments of the present invention will be described below with reference to the drawings. However, the present invention is not limited to such an embodiment, and various modifications can be made within the scope of the technical idea thereof.

図1は、本発明の実施例1に係る多重映像配信システムの構成及び機能を説明するためのブロック図である。
また、図2は、本発明の実施例1に係る多重映像配信システムの構成及び機能を説明するためのイメージ図であり、特に、本発明の実施例1に係る多重映像配信システムを用いてエジプトのスフィンクスの映像を多重同時配信する場合の子装置の配備方法を例示している。
FIG. 1 is a block diagram for explaining the configuration and function of the multiplex video distribution system according to the first embodiment of the present invention.
FIG. 2 is an image diagram for explaining the configuration and function of the multiplex video distribution system according to the first embodiment of the present invention. In particular, the multiplex video distribution system according to the first embodiment of the present invention It illustrates an example of a method of deploying a child device in the case where a sphinx image is simultaneously distributed.

本実施例においては、多重映像配信システムは、子装置α_1α〜子装置ζ_1ζと親装置2から構成され、親装置2は、さらにインターフェース部21とサーバ22から構成される。また、サーバ22は、ユーザが使用する端末装置A_4A〜端末装置H_4Hとインターネット3を介して接続されている。 In the present embodiment, the multiplex video distribution system includes a child device α_1α to a child device ζ_1ζ and a parent device 2, and the parent device 2 further includes an interface unit 21 and a server 22. The server 22 is also connected to the terminal devices A_4A to H_4H used by the user via the Internet 3.

子装置のうち、子装置α_1α、子装置β_1β及び子装置ζ_1ζは、撮像対象であるスフィンクスの周りの地上に固定されている。一方、子装置γ_1γ、子装置δ_1δ及び子装置ε_1εは撮像手段を搭載したドローンであって、スフィンクスの周りの空中を浮遊している。 Among the child devices, the child device α_1α, the child device β_1β, and the child device ζ_1ζ are fixed to the ground around the sphinx that is the imaging target. On the other hand, the child device γ_1γ, the child device δ_1δ, and the child device ε_1ε are drones equipped with image pickup means and are floating in the air around the sphinx.

また、各子装置は、CMOSカメラモジュールである撮像手段と、CMOSカメラモジュールのイメージセンサーからの撮像電気信号を非圧縮映像信号に変換し、該圧縮映像信号をさらに圧縮映像信号に変換する信号変換手段と、該圧縮映像信号を親装置2に送信する通信手段を備えている。そして、子装置α_1α、子装置β_1β及び子装置ζ_1ζは、生成した圧縮映像信号を通信手段からケーブルを介して親装置2に送信し、子装置γ_1γ、子装置δ_1δ及び子装置ε_1εは、生成した圧縮映像信号を通信手段から無線通信によって親装置2に送信する。 Further, each child device is a signal conversion unit that converts an image pickup electrical signal from an image pickup unit that is a CMOS camera module and an image sensor of the CMOS camera module into a non-compressed video signal, and further converts the compressed video signal into a compressed video signal. And a communication means for transmitting the compressed video signal to the parent device 2. Then, the child device α_1α, the child device β_1β and the child device ζ_1ζ transmit the generated compressed video signal from the communication means to the parent device 2 via the cable, and the child device γ_1γ, the child device δ_1δ and the child device ε_1ε generate the The compressed video signal is transmitted from the communication means to the parent device 2 by wireless communication.

さらに、各子装置は、付属する撮像手段の視座の水平位置を測定するGPSセンサー、高度を測定する高度センサー、及び、撮像手段の視線方向の傾斜角θと回転角φを測定するジャイロセンサーを搭載しており、それらのセンサーによる測定結果を伝達する信号(以下「位置・視線方向信号」と総称する)を通信手段から親装置2に送信する。 Furthermore, each child device includes a GPS sensor that measures the horizontal position of the visual point of the attached image pickup means, an altitude sensor that measures the altitude, and a gyro sensor that measures the inclination angle θ and the rotation angle φ of the image pickup means in the line-of-sight direction. Signals (hereinafter, collectively referred to as “position/line-of-sight direction signals”) that are mounted and transmit the measurement results of these sensors are transmitted from the communication means to the parent device 2.

なお、図中には、紙上での表現の都合上、子装置α_1α〜子装置ζ_1ζの6つの子装置しか記載されていないが、子装置の配備原則は下記の通りであり、この原則を全うするために必要な数の子装置が配備される。
[子装置の配備原則]
「撮像対象のすべての表面点が、複数の子装置の撮像手段の撮像可能範囲に入っていること」
Note that, in the figure, for convenience of expression on paper, only six child devices, namely, child devices α_1α to child devices ζ_1ζ are shown, but the principle of deploying the child devices is as follows, and this principle is fulfilled. The required number of child devices are deployed.
[Principle of deploying child devices]
"All surface points to be imaged are within the image-capable range of the image-capturing means of a plurality of child devices."

以下では、図3を用いて、上記の子装置の配備原則を説明する。
図3では、撮像対象はA〜Fの側面を持つが、これらの側面は、下記の通り、いずれも複数の子装置の撮像可能範囲に入っている。
側面A……子装置i+子装置ii
側面B……子装置ii+子装置iii
側面C……子装置iii+子装置iv
側面D……子装置iii+子装置iv
側面E……子装置iii+子装置iv+子装置v
側面F……子装置i+子装置v
Hereinafter, the deployment principle of the above-mentioned child device will be described with reference to FIG.
In FIG. 3, the imaging target has side surfaces A to F, but these side surfaces are all within the image-capable range of a plurality of child devices as described below.
Side A... Child device i + Child device ii
Side B... Child device ii + Child device iii
Side C... Child device iii + Child device iv
Side D... Child device iii + Child device iv
Side E... Child device iii+Child device iv+Child device v
Side F... Child device i + Child device v

一方、親装置2は、インターフェース部21によって、子装置α_1α〜子装置ζ_1ζから送信される圧縮映像信号及び位置・視線方向信号を受信してサーバ22に転送する。サーバ22では、これらの複数の子装置からの信号に基づいて、撮像対象の表面点を3次元空間内にマッピングするとともに、各表面点の色をRGB値又はHSV値によって定義する。 On the other hand, the parent device 2 receives the compressed video signal and the position/gaze direction signal transmitted from the child device α_1α to the child device ζ_1ζ by the interface unit 21 and transfers them to the server 22. The server 22 maps the surface points of the imaging target in the three-dimensional space based on the signals from the plurality of child devices, and defines the color of each surface point by the RGB value or the HSV value.

以下では、図4を用いて、撮像対象の表面点(図では★で記している)の3次元空間内へのマッピング方法の手順を説明する。なお、図3の撮像対象は図2と同じであるが、記述を簡略にするため、図3に記されていた子装置iii〜子装置vは表示していない。 In the following, the procedure of the mapping method of the surface points (indicated by * in the figure) of the imaging target in the three-dimensional space will be described with reference to FIG. Note that the imaging target in FIG. 3 is the same as that in FIG. 2, but the child devices iii to v described in FIG. 3 are not shown for the sake of simplicity.

(1)3次元空間座標軸の設定
撮像対象の表面点をマッピングする3次元空間のデカルト座標軸を下記のように設定する。
X軸……緯度方向(東方向が正)
Y軸……経度方向(北方向が正)
Z軸……鉛直方向(上方向が正)
原点……撮像対象の中心の鉛直下方の地面点
(1) Setting of three-dimensional space coordinate axes The Cartesian coordinate axes of the three-dimensional space for mapping the surface points of the imaging target are set as follows.
X-axis: Latitude direction (east direction is positive)
Y axis: Longitudinal direction (north direction is positive)
Z axis: Vertical direction (upward is positive)
Origin: Ground point vertically below the center of the imaged object

(2)子装置iと子装置iiの各々の撮像手段の視座の座標の算出
上記の通り、側面Aにある表面点★は、子装置iと子装置iiの双方によって撮像される。一方、子装置iと子装置iiの各々の撮像手段の視座の位置情報(撮像手段の視座の高度と鉛直下方の地面点の緯度・経度)は、子装置iと子装置iiの各々から送信される位置・視線方向信号に含まれている。この情報に基づいて、子装置iと子装置iiの各々の撮像手段の視座の座標を算出する。
子装置iの撮像手段の視座の座標……(x1,y1,z1)
子装置iiの撮像手段の視座の座標……(x2,y2,z2)
(2) Calculation of the Coordinates of the Perspectives of the Image Pickup Units of the Child Devices i and ii As described above, the surface point ★ on the side surface A is imaged by both the child devices i and ii. On the other hand, the position information of the viewpoint of the image pickup means of each of the child devices i and ii (the altitude of the view point of the image pickup means and the latitude/longitude of the ground point vertically below) is transmitted from each of the child devices i and ii. Included in the position/line-of-sight direction signal. Based on this information, the coordinates of the viewpoints of the imaging devices of the child devices i and ii are calculated.
Coordinates of the viewpoint of the image pickup means of the child device i (x1, y1, z1)
Coordinates of the viewpoint of the image pickup means of the child device ii (x2, y2, z2)

(3)子装置iと子装置iiの各々の撮像手段の視線の単位方向ベクトルの算出
子装置iと子装置iiの各々の撮像手段の視線方向情報(撮像手段の視線方向の傾斜角θと回転角φ)は、子装置iと子装置iiの各々から送信される位置・視線方向信号に含まれている。この情報に基づいて、子装置iと子装置iiの各々の撮像手段の視線の単位方向ベクトルを算出する。
子装置iの撮像手段の視線の単位方向ベクトル……(sinθ1・cosφ1,sinθ1・sinφ1,cosθ1)
子装置iiの撮像手段の視線の単位方向ベクトル……(sinθ2・cosφ2、sinθ2・sinφ2、cosθ2)
(3) Calculation of the unit direction vector of the line-of-sight of the image pickup means of each of the child device i and the child device ii The line-of-sight information of the image pickup means of each of the child device i and the child device ii (the inclination angle θ in the line-of-sight direction of the image pickup means and The rotation angle φ) is included in the position/line-of-sight direction signals transmitted from each of the child devices i and ii. Based on this information, the unit direction vector of the line of sight of the image pickup means of each of the child devices i and ii is calculated.
Unit direction vector of the line of sight of the image pickup means of the child device i (sin θ1 · cos φ1, sin θ1 · sin φ1, cos θ1)
Unit direction vector of the line of sight of the image pickup means of the child device ii (sinθ2・cosφ2, sinθ2・sinφ2, cosθ2)

(4)子装置iと子装置iiの各々の撮像手段による「表面点★の撮像線」の単位方向ベクトルの算出
子装置iと子装置iiの各々から送信される圧縮映像信号には、子装置iと子装置iiの各々の撮像手段の視線と、各々の撮像手段の視座から表面点★を結んだ直線(以下「表面点★の撮像線」という)との間の2次元的な偏差角度(Δθ、Δφ)の情報が含まれており、これと上記の視線方向情報を組み合わせることによって、子装置iと子装置iiの各々の撮像手段の「表面点★の撮像線」の単位方向ベクトルを算出する。
子装置iの撮像手段の「表面点★の撮像線」の単位方向ベクトル……(sin(θ1+Δθ1)・cos(φ1+Δφ1)、sin(θ1+Δθ1)・sin(φ1+Δφ1)、cos(θ1+Δθ1))
子装置iiの撮像手段の「表面点★の撮像線」の単位方向ベクトル……(sin(θ2+Δθ2)・cos(φ2+Δφ2)、sin(θ2+Δθ2)・sin(φ2+Δφ2)、cos(θ2+Δθ2))
(4) Calculation of the unit direction vector of the “imaging line of the surface point*” by the image pickup means of each of the child devices i and ii The child is included in the compressed video signal transmitted from each of the child devices i and ii. Two-dimensional deviation between the line of sight of the image pickup means of each of the device i and the child device ii and the straight line connecting the surface point ★ from the viewpoint of each image pickup means (hereinafter referred to as “image pickup line of the surface point ★”) The angle (Δθ, Δφ) information is included, and by combining this information with the above-mentioned line-of-sight direction information, the unit direction of the “imaging line of the surface point ★” of the imaging means of each of the child device i and the child device ii. Calculate the vector.
Unit direction vector of the "imaging line of the surface point★" of the imaging means of the child device i (sin(θ1+Δθ1)・cos(φ1+Δφ1), sin(θ1+Δθ1)・sin(φ1+Δφ1), cos(θ1+Δθ1))
Unit direction vector of the “imaging line of the surface point★” of the image pickup means of the child device ii ((sin(θ2+Δθ2)・cos(φ2+Δφ2), sin(θ2+Δθ2)・sin(φ2+Δφ2), cos(θ2+Δθ2))

(5)表面点★の座標の算出
上記の手順(3)と(4)から、子装置iと子装置iiの各々の撮像手段による「表面点★の撮像線」が通る点(=子装置iと子装置iiの各々の撮像手段の視座)と単位方向ベクトルが定まったため、これらから、子装置iと子装置iiの各々の撮像手段による「表面点★の撮像線」の直線の方程式が算出される。
そして、表面点★はこれら2つの直線の交点であるから、2つの直線の方程式からなる連立方程式を解くことによって、表面点★の座標が算出される。
(5) Calculation of coordinates of surface point ★ From the above steps (3) and (4), a point (=child device) through which the “imaging line of surface point ★” by the image pickup means of each of the child devices i and ii passes. Since the viewpoints of the image pickup means of i and the child device ii) and the unit direction vector are determined, the equation of the straight line of the "imaging line of the surface point ★" by the image pickup means of the child devices i and ii is determined from these. Is calculated.
Since the surface point ★ is the intersection of these two straight lines, the coordinates of the surface point ★ are calculated by solving a simultaneous equation consisting of two straight line equations.

上記の手順を撮像対象の全ての表面点に行うことで、撮像対象の表面を3次元マッピングが完成する。なお、この撮像対象の表面は、一般に複数の曲面から構成され、しかも、これらの曲面は時間tとともに変化する。これらの曲面の方程式を以下で表現する(ここで添字tは、各曲面が時間tとともに変化することを表している)。
曲面1……f1,t(x,y,z)=0
曲面2……f2,t(x,y,z)=0
曲面3……f3,t(x,y,z)=0
………
曲面n……fn,t(x,y,z)=0
By performing the above procedure on all the surface points of the imaging target, the three-dimensional mapping of the surface of the imaging target is completed. It should be noted that the surface of this imaging target is generally composed of a plurality of curved surfaces, and these curved surfaces change with time t. The equations for these curved surfaces are expressed below (where the subscript t indicates that each curved surface changes with time t).
Curved surface 1... f1, t (x, y, z)=0
Curved surface 2... f2,t(x,y,z)=0
Curved surface 3... f3,t(x,y,z)=0
………
Curved surface n...fn,t(x,y,z)=0

一方、ユーザが使用する端末装置A_4A〜端末装置H_4Hは、コントローラ、IPアドレスが付与さられた通信ユニット及び没入型3D−HMD(Head Mounted Display)から構成される。 On the other hand, the terminal devices A_4A to H_4H used by the user include a controller, a communication unit to which an IP address is assigned and an immersive 3D-HMD (Head Mounted Display).

コントローラは、ユーザが行うボタン操作、レバー操作、ダイヤル操作等に基づいて視座設定信号を生成し、該視座設定信号を通信ユニットに送信する。一方、HMDの内部には加速度センサーとジャイロセンサーが内蔵されており、HMDは、これらのセンサーの出力結果に基づいて視座設定信号を生成し、該視線方向設定信号を通信ユニットに送信する。 The controller generates a visual point setting signal based on a button operation, a lever operation, a dial operation, etc. performed by the user, and transmits the visual point setting signal to the communication unit. On the other hand, an acceleration sensor and a gyro sensor are incorporated inside the HMD, and the HMD generates a visual point setting signal based on the output results of these sensors and transmits the visual line direction setting signal to the communication unit.

通信ユニットは、コントローラから受信した視線方向設定信号とHMDから受信した視線方向設定信号を、付与されたIPアドレスを送信元IPアドレスとするインターネット・プロトコルに準拠した信号に変換し、インターネット3を介して親装置2のサーバに22に送信する。 The communication unit converts the line-of-sight direction setting signal received from the controller and the line-of-sight direction setting signal received from the HMD into a signal conforming to the Internet protocol in which the assigned IP address is the source IP address, and the signal is transmitted via the Internet 3. And sends it to the server of parent device 2 at 22.

サーバ22は、インターネット3を介して端末装置A_4A〜端末装置H_4Hの各々から受信した視座設定信号と視線方向設定信号に基づいて、前記3次元空間において、端末装置A_4A〜端末装置H_4Hの各々を使用するユーザの両眼に対して仮想的な視座と視線方向をセット設定する。その上で、「『端末装置A_4A〜端末装置H_4Hの各々を使用するユーザの右眼に対して設定された仮想的な視座と視線方向から撮像対象を見た視像』に相当する映像信号」と「『端末装置A_4A〜端末装置H_4Hの各々を使用するユーザの左眼に対して設定された仮想的な視座と視線方向から撮像対象を見た視像』に相当する映像信号」を生成する。 The server 22 uses each of the terminal devices A_4A to H_4H in the three-dimensional space based on the viewpoint setting signal and the line-of-sight direction setting signal received from each of the terminal devices A_4A to H_4H via the Internet 3. The virtual viewpoint and the line-of-sight direction are set and set for both eyes of the user. In addition, "a video signal corresponding to "a virtual image from the virtual viewpoint and the viewing direction of the imaging target viewed from the user's right eye using each of the terminal devices A_4A to H_4H"" And "a video signal corresponding to "a visual image of an imaging target viewed from a virtual viewpoint and line-of-sight direction set for the left eye of a user who uses each of the terminal devices A_4A to H_4H"". ..

一般に、図6でイメージ的に示している通り、映像信号が伝達するのは、表示範囲を構成する1つひとつの画素の色情報である。以下では、サーバ22が、「『所定の視座と視線方向から撮像対象を見た視像』に相当する映像信号」が伝達する画素の色情報の決定方法を説明する。 Generally, as shown conceptually in FIG. 6, the video signal transmits color information of each pixel constituting the display range. In the following, a method for the server 22 to determine the color information of the pixel transmitted by the “video signal corresponding to “a visual image of the imaging target viewed from the predetermined viewpoint and line-of-sight direction”” will be described.

(1)「映像信号の各画素に対応する視像線」の直線の方程式の算出
「『所定の視座と視線方向から撮像対象を見た視像』に相当する映像信号」が色情報を伝達する画素のうち、表示範囲の中心にある画素は「視線方向にある撮像対象の表面点」に対応する。そして、表示範囲のそれ以外の画素は、「視座を起点とする直線で、視線から一定の偏差角度だけずれた直線(以下「画素に対応する視像線」という)方向にある撮像対象の表面点」に対応する。
上記の通り、サーバ22は、端末装置A_4A〜端末装置H_4Hの各々から視線方向設定信号を受信するため、これ基づいて、視線の単位方向ベクトルが算出される。また、上記の通り、映像信号の各画素には視線からの偏差角度が対応づけられるから、これらの情報によって、「各画素に対応する視像線」の単位方向ベクトルが算出される。また、「各画素に対応する視像線」は視座を通り、一方、視座の座標は、端末装置A_4A〜端末装置H_4Hの各々から受信する視座設定信号に基づいて、視座の座標が算出される。したがって、端末装置A_4A〜端末装置H_4Hの各々から受信する視線方向設定信号と視座設定信号に基づいて、「画素に対応する視像線」の直線の方程式が算出される。
(1) Calculation of straight line equation of "visual line corresponding to each pixel of video signal""Video signal corresponding to "visual image of subject viewed from predetermined visual point and visual line direction" transmits color information Among the pixels, the pixel in the center of the display range corresponds to the “surface point of the imaging target in the line-of-sight direction”. Then, the other pixels in the display range are the surface of the imaging target in the direction of a “straight line starting from the viewpoint and deviating from the line of sight by a certain deviation angle (hereinafter referred to as “visual line corresponding to pixel”). "Point".
As described above, since the server 22 receives the line-of-sight direction setting signal from each of the terminal devices A_4A to H_4H, the unit direction vector of the line-of-sight is calculated based on this. Further, as described above, since each pixel of the video signal is associated with the deviation angle from the line of sight, the unit direction vector of the “visual line corresponding to each pixel” is calculated from this information. Further, the “visual line corresponding to each pixel” passes through the visual point, while the coordinate of the visual point is calculated based on the visual point setting signal received from each of the terminal devices A_4A to H_4H. .. Therefore, the straight line equation of the “visual line corresponding to the pixel” is calculated based on the line-of-sight direction setting signal and the line-of-sight setting signal received from each of the terminal devices A_4A to H_4H.

(2)映像信号の各画素に対応する表面点の特定
上記の通り、撮像対象の表面は、複数の曲面1(f1,t(x,y,z)=0)〜曲面n(fn,t(x,y,z)=0)によって構成され、特に、親装置が端末装置A_4A〜端末装置H_4Hの各々から視座設定信号と視線方向設定信号を受信した時点t0での撮像対象の表面は、処理時間を無視すると、複数の曲面1(f1,t=t0(x,y,z)=0)〜曲面n(fn,t=t0(x,y,z)=0)によって構成されるため、これらの曲面の方程式と「各画素に対応する視像線」の直線の方程式との連立方程式を解くことにより、「各画素に対応する視像線」と撮像対象の表面との交点の座標が定まる。一般に、この交点は複数存在するが、そのうち、視座からの距離が最も近い交点が、映像信号の各画素に対応する表面点となる。
(2) Identification of Surface Point Corresponding to Each Pixel of Video Signal As described above, the surface of the imaging target has a plurality of curved surfaces 1 (f1,t(x,y,z)=0) to curved surface n(fn,t). (X, y, z)=0), and in particular, the surface of the imaging target at the time point t0 when the parent device receives the viewpoint setting signal and the line-of-sight direction setting signal from each of the terminal devices A_4A to H_4H, If the processing time is ignored, it is composed of a plurality of curved surfaces 1 (f1,t=t0(x,y,z)=0) to curved surface n(fn,t=t0(x,y,z)=0). , By solving the simultaneous equations of these curved surface equations and the linear equation of the “visual line corresponding to each pixel”, the coordinates of the intersection of the “visual line corresponding to each pixel” and the surface of the imaging target Is determined. Generally, there are a plurality of intersections, and the intersection having the shortest distance from the visual point is the surface point corresponding to each pixel of the video signal.

(3)映像信号の各画素の色の決定
上記の通り、3次元空間内にマッピングされた撮像対象の各表面点には、RGB値又はHSV値によって定義によって色が定義されているから、この色が映像信号の各画素の色となる。
(3) Determining Color of Each Pixel of Video Signal As described above, since each surface point of the imaging target mapped in the three-dimensional space is defined by the RGB value or the HSV value, the color is defined. The color is the color of each pixel of the video signal.

なお、以上では、サーバ22が「子装置から受信した撮像信号と位置・視線方向信号に基づく3次元マッピングデータの生成」と「該3次元マッピングデータに基づく映像信号の生成」にタイムラグなく行われる構成を説明したが、サーバ22が、過去の3次元マッピングデータを蓄積する記憶手段を有するようにした上で、端末装置A_4A〜端末装置H_4Hの各々から視座設定信号と視線方向設定信号を受信した時点よりもΔtだけ以前の3次元マッピングデータ(具体的には、曲面の方程式:f1,t=t0−Δt(x,y,z)=0)〜fn,t=t0−Δt(x,y,z)=0)を用いる構成とすることもできる。 In the above, the server 22 performs “generation of three-dimensional mapping data based on the image pickup signal and position/gaze direction signal received from the child device” and “generation of video signal based on the three-dimensional mapping data” without a time lag. Although the configuration has been described, the server 22 has a storage means for accumulating past three-dimensional mapping data, and then receives the viewpoint setting signal and the line-of-sight direction setting signal from each of the terminal devices A_4A to H_4H. Three-dimensional mapping data before the time point by Δt (specifically, curved surface equation: f1, t=t0-Δt(x, y, z)=0) to fn, t=t0-Δt(x, y , Z)=0) may be used.

この構成においては、ユーザは、コントローラのボタン、レバー、ダイヤル等を操作することによって、自分自身が撮像対象の状態を観察したい時刻(t0−Δt)を指定することができる。そして、コントローラは、ユーザが指定した時刻に基づいて観測時点設定信号を生成し、通信手段及びインターネットを介して、サーバ22に送信する。
これによって、ユーザは、自身がコントローラを操作している時刻t0よりもΔtだけ過去に遡った時点での撮像対象の状態を観察できるようになる。
In this configuration, the user can specify the time (t0-Δt) at which he/she wants to observe the state of the imaging target by operating the buttons, levers, dials, etc. of the controller. Then, the controller generates an observation time point setting signal based on the time designated by the user, and transmits it to the server 22 via the communication means and the Internet.
As a result, the user can observe the state of the imaging target at a time point that is traced back by Δt from the time t0 at which the user is operating the controller.

親装置は、上記のようにして生成した「『端末装置A_4A〜端末装置H_4Hの各々を使用するユーザの右眼に対して設定された仮想的な視座と視線方向から撮像対象を見た視像』に相当する映像信号」と「『端末装置A_4A〜端末装置H_4Hの各々を使用するユーザの左眼に対して設定された仮想的な視座と視線方向から撮像対象を見た視像』に相当する映像信号」の2系統の映像信号を、インターネット3を介して端末装置A_4A〜端末装置H_4Hの各々に送信する。一方、端末装置A_4A〜端末装置H_4Hの各々では、前記2系統の映像信号を通信手段で受信し、該2系統の映像信号に基づく映像をHMDの左右の表示部に表示する。これによって、ユーザは、没入感のある視覚体験を楽しむことができる。 The parent device is generated as described above, and is displayed as “a virtual image from the virtual viewpoint and line-of-sight direction set for the right eye of the user who uses each of the terminal devices A_4A to H_4H. Corresponding to "a video signal corresponding to" and ""a visual image of the imaging target viewed from the virtual viewpoint and the line-of-sight direction set for the left eye of the user who uses each of the terminal devices A_4A to H_4H". Video signals of "the video signal to be executed" are transmitted to each of the terminal devices A_4A to H_4H via the Internet 3. On the other hand, each of the terminal devices A_4A to H_4H receives the video signals of the two systems by the communication means and displays the video based on the video signals of the two systems on the left and right display portions of the HMD. This allows the user to enjoy an immersive visual experience.

なお、生成した上記の2系統の映像信号と、該映像信報との対応付けは、端末装置A_4A〜端末装置H_4Hの各々の通信ユニットから受信したIPアドレスに基づいて行う。
一方、サーバ22では、受信した観測時点設定信号に基づいて、映像信号を生成する際に使用する3次元マッピングデータの時点を設定する。
The generated video signals of the two systems and the video bulletins are associated with each other based on the IP addresses received from the communication units of the terminal devices A_4A to H_4H.
On the other hand, the server 22 sets the time point of the three-dimensional mapping data used when generating the video signal based on the received observation time point setting signal.

本発明は、多重映像配信システムの子装置を構成する撮像手段、信号変換手段及び通信手段、親装置を構成するインターフェース部及びサーバ、端末装置を構成するコントローラ及びHMDに係る装置を製造する産業において利用することができる。また、多重映像配信システムを使用したサービス(特に観光サービス)を提供する産業においても利用することができる。 INDUSTRIAL APPLICABILITY The present invention relates to an industry that manufactures an image pickup unit, a signal conversion unit, and a communication unit that configure a child device of a multiplex video distribution system, an interface unit and a server that configures a parent device, a controller that configures a terminal device, and an HMD-related device. Can be used. It can also be used in industries that provide services (especially tourism services) that use the multiplex video distribution system.

1α‥‥‥子装置α
1β‥‥‥子装置β
1γ‥‥‥子装置γ
1δ‥‥‥子装置δ
1ε‥‥‥子装置ε
1ζ‥‥‥子装置ζ
2‥‥‥親装置
21‥‥‥インターフェース部
22‥‥‥サーバ
3‥‥‥インターネット
4A‥‥‥端末装置A
4B‥‥‥端末装置B
4C‥‥‥端末装置C
4D‥‥‥端末装置D
4E‥‥‥端末装置E
4F‥‥‥端末装置F
4G‥‥‥端末装置G
4H‥‥‥端末装置G
5‥‥‥撮像手段
51‥‥‥撮像手段の視座
511‥‥‥撮像手段の視座の高度
512‥‥‥撮像手段の視座の鉛直下方の地面点
52‥‥‥撮像手段の視線
522‥‥‥撮像手段の視線の鉛直方向の傾斜角
523‥‥‥撮像手段の視線の水平方向の回転角
53‥‥‥撮像手段の撮像範囲
531‥‥‥撮像手段の視点(撮像範囲の中心)
1α ··· Child device α
1β ··· Child device β
1γ ··· Child device γ
1δ ··· Child device δ
1ε ··· Child device ε
1ζ··· Child device ζ
2… Parent device
21‥‥‥ Interface section
22 ‥‥ Server
3 Internet
4A ‥‥‥ Terminal device A
4B ... Terminal device B
4C ‥‥‥ Terminal device C
4D ‥‥‥ Terminal device D
4E ··· Terminal device E
4F: Terminal device F
4G ‥‥‥ Terminal device G
4H ‥‥‥ Terminal device G
5: Imaging means
51 ‥‥‥ Perspective of the imaging means
511.. Altitude of the viewpoint of the imaging means
512 ... Ground point vertically below the viewpoint of the imaging means
52........Gaze of the imaging means
522 ‥‥‥ The vertical tilt angle of the line of sight of the imaging means
523 ... Horizontal rotation angle of the line of sight of the imaging means
53 ... Imaging range of imaging means
531 ·······Viewing point of view (center of imaging range)

Claims (5)

3次元的に配置され、異なる視座及び/又は視線方向から撮像対象を撮像して撮像信号を生成し、必要な変換を行った上で後記親装置に送信する複数の子装置と;
前記子装置の各々から受信した撮像信号に基づいて「表示範囲が異なる複数系統の映像信号」を生成・送信する親装置と;
から構成される多重映像配信システムであって、
前記親装置は、「前記子装置の各々から受信した撮像信号」及び「前記子装置の各々の位置情報と視線方向情報」に基づいて、撮像対象の表面を3次元空間内にマッピングした3次元マッピングデータを生成し、該3次元マッピングデータに基づいて「『所定の視座と視線方向から撮像対象を見た視像』に相当する映像信号」を生成する機能を有する、
ことを特徴とする多重映像配信システム。
A plurality of child devices which are three-dimensionally arranged, generate an image pickup signal by picking up an image pickup target from different viewpoints and/or line-of-sight directions, perform necessary conversion, and then transmit the parent signal to a parent device described later;
A parent device that generates and transmits “a plurality of systems of video signals having different display ranges” based on the imaging signals received from each of the child devices;
A multi-video distribution system consisting of
The parent device is a three-dimensional map in which the surface of the imaging target is mapped in a three-dimensional space based on the “imaging signal received from each of the child devices” and “position information and line-of-sight direction information of each of the child devices”. It has a function of generating mapping data and generating a “video signal corresponding to “a visual image of an object to be imaged viewed from a predetermined visual point and line-of-sight direction”” based on the three-dimensional mapping data.
A multi-video distribution system characterized by the above.
前記親装置は、
複数の端末装置から受信した表示範囲設定信号に基づいて「表示範囲が異なる複数系統の映像信号」を生成する機能と;
生成した各々の系統の映像信号を、「該系統の映像信号がそれに基づいて生成された表示範囲設定信号を生成した端末装置」宛に送信する機能と;
を有する、
ことを特徴とする、請求項1に記載の多重映像配信システム。
The parent device is
A function of generating "a plurality of video signals of different display ranges" based on display range setting signals received from a plurality of terminal devices;
A function of transmitting the generated video signal of each system to the "terminal device that generated the display range setting signal generated based on the video signal of the system";
Has,
The multiplex video distribution system according to claim 1, wherein:
前記親装置は、
前記端末装置から受信した視座設定信号と視線方向設定信号に基づいて視座と視線方向を設定した上で、「該視座と該視線方向から撮像対象を見た視像』に相当する映像信号」を生成する機能と;
生成した映像信号を、「該系統の映像信号がそれに基づいて生成された視座設定信号と視線方向設定信号を生成した端末装置」宛に送信する機能と;
を有する、
ことを特徴とする、請求項2に記載の多重映像配信システム。
The parent device is
After setting the viewpoint and the line-of-sight direction based on the viewpoint setting signal and the line-of-sight direction setting signal received from the terminal device, a “video signal corresponding to “a view of the image-capturing target from the viewpoint and the line-of-sight direction”” is obtained. Function to generate;
A function of transmitting the generated video signal to “a terminal device that has generated the viewpoint setting signal and the line-of-sight direction setting signal generated based on the video signal of the system”;
Has,
The multiplex video distribution system according to claim 2, characterized in that.
前記親装置は、「両眼の視座のずれを反映した2系統の映像信号」を生成する機能を有する、
ことを特徴とする、請求項3に記載の多重映像配信システム。
The parent device has a function of generating “two systems of video signals that reflect the displacement of the binocular visual point”.
4. The multiplex video distribution system according to claim 3, wherein:
前記親装置は、
過去の前記3次元マッピングデータを蓄積する機能と;
前記端末装置から表示範囲設定信号を受信した時点より以前の3次元マッピングデータに基づいて映像信号を生成する機能と;
を有する、
ことを特徴とする、請求項2乃至4のいずれか一項に記載の多重映像配信システム。
The parent device is
A function of accumulating the past three-dimensional mapping data;
A function of generating a video signal based on the three-dimensional mapping data before the time when the display range setting signal is received from the terminal device;
Has,
The multiplex video distribution system according to any one of claims 2 to 4, characterized in that:
JP2020086364A 2020-05-16 2020-05-16 Multiple video distribution system Pending JP2020123990A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020086364A JP2020123990A (en) 2020-05-16 2020-05-16 Multiple video distribution system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020086364A JP2020123990A (en) 2020-05-16 2020-05-16 Multiple video distribution system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017163819A Division JP2019041340A (en) 2017-08-28 2017-08-28 Multiple video distribution system

Publications (1)

Publication Number Publication Date
JP2020123990A true JP2020123990A (en) 2020-08-13

Family

ID=71993132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020086364A Pending JP2020123990A (en) 2020-05-16 2020-05-16 Multiple video distribution system

Country Status (1)

Country Link
JP (1) JP2020123990A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003199085A (en) * 2001-12-28 2003-07-11 Sony Corp Contents distributing system, provider server apparatus, terminal unit, program, recording medium and method for delivering contents
JP2016010145A (en) * 2014-06-23 2016-01-18 パナソニックIpマネジメント株式会社 Video distribution method, video reception method, server, terminal device and video distribution system
JP2017012397A (en) * 2015-06-30 2017-01-19 株式会社セガゲームス program
JP2017139725A (en) * 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 Image display method and image display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003199085A (en) * 2001-12-28 2003-07-11 Sony Corp Contents distributing system, provider server apparatus, terminal unit, program, recording medium and method for delivering contents
JP2016010145A (en) * 2014-06-23 2016-01-18 パナソニックIpマネジメント株式会社 Video distribution method, video reception method, server, terminal device and video distribution system
JP2017012397A (en) * 2015-06-30 2017-01-19 株式会社セガゲームス program
JP2017139725A (en) * 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 Image display method and image display device

Similar Documents

Publication Publication Date Title
JP7452596B2 (en) Communication terminals, display methods, programs and image communication systems
JP5454674B2 (en) Image generation apparatus, image generation program, synthesis table generation apparatus, and synthesis table generation program
JP4738870B2 (en) Information processing method, information processing apparatus, and remote mixed reality sharing apparatus
US10554883B2 (en) VR system, communication method, and non-transitory computer-readable medium
US10764513B2 (en) Communication terminal, image data communication system, and communication method
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
JP2019126082A5 (en)
JP7192592B2 (en) Imaging device, image communication system, image processing method, program
JP2019062320A (en) Communication terminal, image communication system, display method, and program
US20060023204A1 (en) Laser-GPS marking and targeting system
WO2020084951A1 (en) Image processing device and image processing method
JP6859447B2 (en) Information processing system and object information acquisition method
JP2006197068A (en) Image display and display method
JP2020123990A (en) Multiple video distribution system
KR102200115B1 (en) System for providing multi-view 360 angle vr contents
JP7379785B2 (en) 3D tour comparison display system and method
KR20180010891A (en) 360 degree opera imaging providing method by VR devices
JP2019041340A (en) Multiple video distribution system
TW201135583A (en) Telescopic observation method for virtual and augmented reality and apparatus thereof
JP4183466B2 (en) Method for generating omnidirectional binocular stereoscopic image
JP7091043B2 (en) Image processing equipment, image processing system, and image processing method
JP2007221179A (en) Image display device and image display method
JP2019139697A (en) Display device, video display system, and video display method
WO2019038885A1 (en) Information processing device and image output method
JP5670092B2 (en) Topographic display system, portable terminal, topographic display method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211102