WO2019026516A1 - 映像配信システム - Google Patents

映像配信システム Download PDF

Info

Publication number
WO2019026516A1
WO2019026516A1 PCT/JP2018/025387 JP2018025387W WO2019026516A1 WO 2019026516 A1 WO2019026516 A1 WO 2019026516A1 JP 2018025387 W JP2018025387 W JP 2018025387W WO 2019026516 A1 WO2019026516 A1 WO 2019026516A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
video
terminal device
communication device
position information
Prior art date
Application number
PCT/JP2018/025387
Other languages
English (en)
French (fr)
Inventor
貴弘 大畑
高 奥西
慎吉 沼田
翔治郎 奥
大輔 福地
遥 藤
志郎 野原
Original Assignee
株式会社リアルグローブ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社リアルグローブ filed Critical 株式会社リアルグローブ
Publication of WO2019026516A1 publication Critical patent/WO2019026516A1/ja
Priority to PH12020500181A priority Critical patent/PH12020500181A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography

Definitions

  • the present invention relates to the technical field of a video delivery system that delivers video taken by an unmanned mobile unit via a network.
  • Patent Document 1 As a system of this type, for example, a monitoring system using a drone apparatus has been proposed (see Patent Document 1).
  • the drone device when the current position of the information terminal device owned by the monitored person is transmitted to the drone device via the management server, the drone device moves to the current position of the information terminal device to transmit the image. Photograph and send the photographed image to the management server.
  • the supervisor accesses the management server from the monitoring terminal via the network, the image recorded in the management server is distributed to the monitoring terminal.
  • Patent Document 1 has a technical problem that it does not disclose a method of associating an image captured by a drone device with a captured position of the image.
  • the present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide a video distribution system which can easily associate a video with a shooting position.
  • a video distribution system includes an unmanned mobile unit having a photographing unit and a position detecting unit, an operating device capable of operating the unmanned mobile unit, and a communication device connected to the operating unit. And a server device capable of communicating with the communication device via a network, and a terminal device capable of communicating with the server device via the network, the server device comprising: (i) the server device; While acquiring the video information photographed by the photographing means in a form to which time information is added, (ii) time information is added to position information indicating the position of the unmanned mobile body detected by the position detecting means The video information and the position information are mutually exchanged based on acquisition means for acquiring in the form of time, the time information added to the video information, and the time information added to the position information. Having, an association means for associating the.
  • the photographing means and the position detection means possessed by the unmanned moving body are separate objects, the video information outputted from the photographing means and the position information outputted from the position detection means are also separate information. For this reason, in order to associate the shooting position with the video shot at the shooting position, it is necessary to associate the video information with the position information.
  • the inventor focused on time information (so-called time stamp) added to video information and position information.
  • time stamp time information
  • the acquisition unit of the server device separately acquires the video information and the position information from the unmanned mobile body
  • the association unit of the server device is the time information and the position information added to the video information.
  • the video information and the position information are associated with each other based on the time information added to.
  • the time information of each of the video information and the position information may be added not only to the photographing means and the position detecting means but also to, for example, an operation device, a communication device, a server device or the like.
  • the video information and the position information can be associated relatively easily. Therefore, according to the video distribution system, video information and position information can be associated with each other without impairing real-time performance. Although the time information added to the video information and the time information added to the position information may not match, if the difference between the two is relatively small, they may be processed as the same time. As described above, by distributing the associated video information and position information to the terminal device, the video information and the position information can be displayed on the terminal device in a mutually associated manner.
  • the server device comprises delivery means for delivering the video information and the position information associated by the association means to the terminal device; While displaying on a map the sign which shows the position based on position information, it has a display means to display the image
  • so-called live distribution and on-demand distribution can be performed.
  • a mark indicating a position that is, a shooting position
  • a video corresponding to the position are displayed. Therefore, the user of the terminal device can relatively easily know the shooting position of the distributed video.
  • the distribution unit indicates a position corresponding to a video according to the designated time when the time as a playback position of the video indicated by the video information is designated by the terminal device.
  • Information may be distributed to the terminal.
  • the display unit of the terminal device can display the photographing position at the designated time. As a result, the user of the terminal device can relatively easily know the shooting position of the video.
  • the distribution means when the position on the map is specified by the terminal device, the distribution means is an image showing an image corresponding to a position near the specified position among the positions indicated by the position information.
  • Information may be distributed to the terminal.
  • the display unit of the terminal device can display an image near the designated position.
  • a position near the designated position may be, for example, a position where the distance from the designated position is equal to or less than a predetermined distance among a plurality of positions indicated by the position information.
  • the predetermined distance may be a predetermined fixed value, or may be a variable value according to, for example, the scale of the map.
  • the display means may change the display mode of the sign indicating the position based on the position information based on the time information added to the position information.
  • the display means may change the display mode of the sign indicating the position based on the position information based on the time information added to the position information.
  • “change in display mode” includes, for example, change in color or transparency of a mark, change in size or shape of a mark, cancellation of display (that is, deletion of a mark), and the like.
  • the server device (i) generates a plurality of logical identifiers for identifying the communication device, and (ii) the communication device among the plurality of logical identifiers.
  • Identification means for associating the logical device selected by the communication device with the communication device, and identifying the communication device based on the associated logical identifier.
  • the server device is configured to automatically allocate the logical identifier to the unmanned mobile unit, the process for appropriately allocating the logical identifier becomes complicated.
  • the communication device is identified by the logical identifier selected by the communication device. That is, in the video delivery system, the logical identifier is selected by the communication device rather than allocating the logical identifier. Therefore, in the video delivery system, the process for allocating the logical identifier is unnecessary.
  • the communication device and the logical identifier are associated with each other instead of the unmanned mobile unit, the communication unit is not exchanged even if one unmanned mobile unit fails and is replaced with another unmanned mobile unit.
  • the video delivery system it can be treated as the same unmanned mobile (that is, an unmanned mobile identified by the same logical identifier before and after replacement).
  • FIG. 1 is a block diagram showing the configuration of a video delivery system according to the first embodiment.
  • the video delivery system 1 includes a drone 11, an operation device 12 capable of operating the drone 11, a communication device 13 connected to the operation device 12, a cloud server 20, and a terminal device 30. Is configured.
  • the “drone 11” and the “cloud server 20” are examples of the “unmanned mobile unit” and the “server apparatus” according to the present invention, respectively.
  • the drone 11 includes a central processing unit (CPU), a camera, a GPS (global positioning system) receiver, a gyro sensor, and a magnetic direction sensor.
  • the camera shoots an image around the drone 11.
  • the CPU detects the position and attitude of the drone 11 based on the output of the GPS receiver, the output of the gyro sensor, and the output of the magnetic direction sensor.
  • the CPU transmits the video taken by the camera to the controller 12 as video information, and transmits the detected position and attitude of the drone 11 to the controller 12 as position information.
  • the video information and the position information received by the operation device 12 are transmitted from the communication device 13 to the cloud server 20 via, for example, a network such as the Internet.
  • time information is added to each of the video information and the position information.
  • the cloud server 20 distributes the video information and the position information to the terminal device 30 via a network such as the Internet (details will be described later).
  • the camera of the drone 11 is configured to be capable of changing its optical axis direction (i.e., the direction in which the lens is facing) regardless of the posture of the drone 11.
  • the optical axis direction change of the camera is performed based on a signal from the operation device 12 (specifically, a signal resulting from an operation related to the change of the optical axis direction by the operator of the operation device 12).
  • the camera may have a zoom function. In this case, the degree of zoom is controlled based on a signal from the operation device 12 (specifically, a signal resulting from an operation related to the zoom by the operator of the operation device 12).
  • Optical axis information indicating the optical axis direction of the camera (for example, information indicating the amount of deviation from the reference optical axis direction) and angle of view information indicating the angle of view of the camera are transmitted from the communication device 13 to the cloud server 20. Time information is also added to the optical axis information and the angle of view information.
  • the angle of view of the camera is sequentially calculated based on the degree of zoom and the like, and the angle of view information is updated.
  • the optical axis information and the angle of view information may be generated by the drone 11 or may be generated by the controller device 12.
  • the identifying unit 24 of the cloud server 20 prepares (generates) a plurality of valid logical identifiers for a predetermined period (for example, several hours to several days) (step S111).
  • the identification unit 24 transmits information indicating a plurality of logical identifiers (or the range of the logical identifiers) to the communication device 13 that desires connection to the video delivery system 1.
  • the identification unit 24 determines whether or not selection information of a logical identifier (that is, information indicating the selected logical identifier) has been received from the communication device 13 (step S112). In this determination, when it is determined that the selection information is not received (step S112: No), the identification unit 24 performs the determination of step S112 again after the first predetermined time has elapsed. That is, the standby state is maintained until the selection information is received.
  • a logical identifier that is, information indicating the selected logical identifier
  • step S112 determines whether the selection information has been received (step S112: Yes). If it is determined in step S112 that the selection information has been received (step S112: Yes), the identification unit 24 determines whether the logical identifier indicated by the selection information is empty (that is, the selected logic It is determined whether or not the identifier is associated with another communication device (step S113).
  • step S113 If it is determined in step S113 that the logical identifier indicated by the selection information is not empty (step S113: No), the identification unit 24 transmits a signal indicating that to the communication device 13, and the second After the predetermined time has elapsed, the determination in step S112 is performed again. On the other hand, if it is determined in step S113 that the logical identifier indicated by the selection information is vacant (step S113: Yes), the identification unit 24 transmits a signal indicating that to the communication device 13, The logical identifier indicated by the selection information is associated with the communication device 13 (step S114).
  • Step S121 When receiving information indicating a plurality of logical identifiers (or a range of logical identifiers), the communication device 13 displays a selection screen for selecting a logical identifier based on the received information.
  • Step S121 When a logical identifier is selected by the operator of the drone 11, the communication device 13 transmits selection information indicating the selected logical identifier to the cloud server 20 (step S122).
  • the communication device 13 determines whether the selected logical identifier is free based on the signal from the cloud server 20 (step S123). In this determination, when it is determined that the selected logical identifier is not vacant (step S123: No), the communication device 13 performs the process of step S121 again. On the other hand, in this determination, when it is determined that the selected logical identifier is free (step S123: Yes), the communication device 13 ends the process.
  • each of the video information and the position information transmitted from the communication device 13 to the cloud server 20 is stored in the cloud server 20 in association with the logical identifier of the communication device 13.
  • the acquisition unit 21 of the cloud server 20 acquires position information from the communication device 13 (step S201), and acquires video information (step S202).
  • the position information is typically transmitted from the communication device 13 to the cloud server 20 by TCP (Transmission Control Protocol).
  • video information is typically transmitted from the communication device 13 to the cloud server 20 by UDP (User Datagram Protocol).
  • UDP User Datagram Protocol
  • the associating unit 22 of the cloud server 20 associates the position information and the video information with each other based on the time information added to the position information and the time information added to the video information (step S203). ).
  • the optical axis information and the angle of view information are also linked to the position information and the video information based on the time information added to each.
  • the distribution unit 23 of the cloud server 20 distributes the position information and the video information to the terminal device 30 (step S204).
  • delivery may be live delivery or on-demand delivery.
  • the CPU of the terminal device 30 displays a sign indicating the position based on the distributed position information on the map, and displays an image corresponding to the position based on the image information.
  • FIG. 4 is a diagram showing an example of a screen displayed on the terminal device according to the first embodiment.
  • signs 33 and 34 based on the position information are displayed on the map 31, and an image 32 based on the image information is displayed.
  • the sign 33 indicates the current location of the drone 11 and the direction of the drone 11 based on the position information.
  • a mark 34 indicates the trajectory of the drone 11 based on the position information.
  • the image displayed as the image 32 is an image captured at the current location (the position indicated by the sign 33) of the drone 11.
  • the characters appended to each of the image 32 and the mark 33 (here, “RG-01”) are characters associated with the above-described logical identifier.
  • Map information for displaying the map 31 may be stored in advance in the terminal device 30 or may be distributed from the cloud server 20.
  • a sign 35 indicating the imaging range based on the position information, the optical axis information, and the angle of view information is displayed. According to this configuration, the user of the terminal device 30 can intuitively understand which region on the map 31 the image displayed as the image 32 corresponds to, which is extremely advantageous practically. It is.
  • the CPU (not shown) of the terminal device 30 acquires the distributed position information (step S301), and calculates the display density of the trajectory based on the acquired position information (step S302). ).
  • the “display density” is, for example, the case where the marking 34 is displayed on the map 31 based on the area of the map 31 (for example, the image size represented by pixels) displayed on the screen of the terminal device 30 and the position information. Calculated based on the marking 34 area or number.
  • the CPU allocates the transparency of each of the plurality of signs 34 respectively corresponding to the plurality of positions indicated by the position information (step S303). Specifically, for example, on the basis of the time information added to the position information, the CPU makes the marking 34 from the current time to a predetermined time ago opaque (“255” when the transparency is represented by an ⁇ value), The transparency of the sign 34 before the current time by a predetermined time before the current time is gradually increased (if the transparency is represented by an ⁇ value, the ⁇ value is gradually decreased).
  • the "predetermined time” is determined based on the display density calculated in the process of step S302. Specifically, the higher the display density, the shorter the predetermined time. In other words, the lower the display density, the longer the predetermined time.
  • the CPU displays each mark 34 on the map 31 with the transparency assigned in the process of step S303 (step S304).
  • the “CPU of the terminal device 30” is an example of the “display unit” according to the present invention.
  • the position information and the video information are linked to each other based on the time information added to the position information and the time information added to the video information (see FIG. 3). Therefore, the position information and the video information can be linked to each other without impairing the real time property. As a result, for example, live distribution can be performed in which the shooting position and the video at the shooting position are simultaneously displayed.
  • the logical identifier selected by the communication device 13 (drone 11) connected to the video delivery system 1 is linked to the communication device 13 (see FIG. 2). Therefore, for example, as compared with a configuration in which the cloud server 20 automatically allocates the logical identifier to the communication device 13, the communication device 13 and the logical identifier can be associated more simply.
  • the communication device 13 and the logical identifier are linked to each other, even if the present drone 11 fails and replacement with another drone is necessary, the video distribution system 11 can The current drone 11 and the other drone exchanged are also treated as the same drone. The reason is that the logical identifier linked to the communication device 13 does not change before and after the exchange of the drone 11.
  • the characters (see FIG. 4) related to the logical identifier appended to each of the video 32 and the marking 33 displayed on the terminal device 30 are It does not change.
  • the user of the terminal device 30 can view the distributed video and the like without being aware of the exchange of the drone 11.
  • trajectory of the drone 11 changes according to time (refer FIG. 4, FIG. 5). For this reason, it can suppress that the visibility of the map 31 falls due to the mark 34 which shows a locus
  • the "acquisition unit 21", the "linking unit 22", the “distribution unit 23" and the “identification unit 24" are the “acquisition means”, the “association means” It is an example of a “delivery means” and an “identification means.”
  • the video distribution system 1 includes only one drone 11 and one terminal device 30 for convenience of explanation, but the video distribution system 1 may include a plurality of drone 11 and a plurality of terminal devices 30. It is possible.
  • FIGS. 6 and 7 A second embodiment of the video delivery system of the present invention will be described with reference to FIGS. 6 and 7.
  • the second embodiment is the same as the first embodiment described above except that the distribution processing is partially different.
  • the description overlapping with the first embodiment is omitted, and the same reference numerals are given to the common parts in the drawings, and only the fundamentally different points are referred to FIG. 6 and FIG. 7.
  • the CPU of the operation terminal device 30 of the terminal device 30 determines whether or not the reproduction position of the video 32 is specified (step S411). In this determination, when it is determined that the reproduction position is not specified (step S411: No), the CPU performs the determination of step S411 again after the third predetermined time has elapsed. That is, the standby state is maintained until the reproduction position is specified.
  • step S411 when it is determined in step S411 that the reproduction position is specified (step S411: Yes), the CPU transmits a signal indicating the specified reproduction position to the cloud server 20 (step S412). Thereafter, the CPU determines whether or not position information has been received from the cloud server 20 (step S413).
  • step S413: No When it is determined that the position information is not received in the determination of step S413 (step S413: No), the CPU again performs the determination of step S413 after the fourth predetermined time has elapsed. In other words, the process waits until position information is received. On the other hand, when it is determined that the position information is received in the determination of step S413 (step S413: Yes), the CPU displays a sign indicating the position based on the received position information on the map 31 (step S414). At this time, an image corresponding to the designated reproduction position is displayed.
  • the distribution unit 23 of the cloud server 20 determines whether a signal indicating a reproduction position has been received from the terminal device 30 (step S421). In this determination, when it is determined that the signal indicating the reproduction position is not received (step S421: No), the distribution unit 23 performs the determination of step S421 again after the fifth predetermined time has elapsed. In other words, it is in a standby state until a signal indicating the reproduction position is received.
  • step S421 determines whether the signal indicating the reproduction position has been received (step S421: Yes)
  • the distribution unit 23 sends position information indicating the position at the time corresponding to the reproduction position to the terminal device 30. It transmits (step S422). At this time, the distribution unit 23 also transmits the video information at the time corresponding to the reproduction position to the terminal device 30.
  • the CPU of the operation terminal device 30 of the terminal device 30 determines whether or not there is designation of a position on the map 31 (step S511). In this determination, when it is determined that the position is not specified (step S511: No), the CPU performs the determination of step S511 again after the sixth predetermined time has elapsed. That is, the standby state is maintained until the position is specified.
  • step S511 when it is determined in step S511 that there is designation of a position (step S511: Yes), the CPU transmits a signal indicating the designated position to the cloud server 20 (step S512). Thereafter, the CPU determines whether or not video information has been received from the cloud server 20 (step S513).
  • step S513: No When it is determined that the video information is not received in the determination of step S513 (step S513: No), the CPU performs the determination of step S513 again after the seventh predetermined time has elapsed. In other words, it is in a standby state until the video information is received. On the other hand, when it is determined that the video information is received in the determination of step S513 (step S513: Yes), the CPU displays a video based on the received video information (step S514). At this time, a mark indicating the shooting position of the displayed video (that is, the position based on the position information linked to the received video information) is displayed on the map 31.
  • the distribution unit 23 of the cloud server 20 determines whether a signal indicating the position on the map 31 has been received from the terminal device 30 (step S521). In this determination, when it is determined that the signal indicating the position is not received (step S521: No), the distribution unit 23 performs the determination of step S521 again after the eighth predetermined time has elapsed. In other words, it waits until it receives a signal indicating the position.
  • step S521 if it is determined in step S521 that a signal indicating a position has been received (step S521: Yes), the distribution unit 23 identifies position information indicating a position closest to the position indicated by the received signal. Do. Then, the distribution unit 23 transmits the video information linked to the specified position information to the terminal device 30 together with the position information (step S522).
  • the distribution unit 23 transmits a signal indicating that to the terminal device 30. May be sent to
  • a self-propelled robot or the like equipped with an imaging device may be used.
  • the mark indicating the locus is not limited to the dot as the mark 34 of FIG. 4 but may be, for example, a band, a broken line or the like.
  • the display mode of the locus is changed by changing the transparency, but in place of or in addition to the transparency, for example, the color, size, shape, etc. May be
  • the controller device 12 and the communication device 13 may be integrally formed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Telephonic Communication Services (AREA)

Abstract

映像配信システム(1)は、撮影手段及び位置検出手段を有する無人移動体(11)と、無人移動体を操作可能な操作装置(12)と、操作装置と接続される通信装置(13)と、通信装置とネットワークを介して通信可能なサーバ装置(20)と、サーバ装置とネットワークを介して通信可能な端末装置(30)と、を備える。サーバ装置は、(i)撮影手段により撮影された映像情報を、時刻情報が付加される形で取得するとともに、(ii)位置検出手段により検出された無人移動体の位置を示す位置情報を、時刻情報が付加される形で取得する取得手段(21)と、映像情報に付加された時刻情報及び位置情報に付加された時刻情報に基づいて、映像情報と位置情報とを互いに関連付ける関連付け手段(22)と、を有する。

Description

映像配信システム
 本発明は、無人移動体により撮影された映像を、ネットワークを介して配信する映像配信システムの技術分野に関する。
 この種のシステムとして、例えばドローン装置を用いた監視システムが提案されている(特許文献1参照)。特許文献1に記載の技術では、被監視者が所有する情報端末装置の現在位置が管理サーバを介してドローン装置に送信されると、ドローン装置は情報端末装置の現在位置へ移動して画像を撮影し、該撮影された画像を管理サーバに送信する。監視者が監視用端末からネットワークを介して管理サーバにアクセスすると、管理サーバに記録されている画像が監視用端末に配信される。
 尚、一のマルチコプタを他のマルチコプタで監視するシステムであって、他のマルチコプタにより撮影された映像が、操縦端末のモニタに表示されるシステムが提案されている(特許文献2参照)。
特開2015-207149号公報 特開2017-087916号公報
 特許文献1には、ドローン装置により撮影された画像と該画像の撮影位置との対応付け方法については開示されていないという技術的問題点がある。
 本発明は、上記問題点に鑑みてなされたものであり、映像と撮影位置との対応付けを簡便に行うことができる映像配信システムを提供することを課題とする。
 本発明の映像配信システムは、上記課題を解決するために、撮影手段及び位置検出手段を有する無人移動体と、前記無人移動体を操作可能な操作装置と、前記操作装置と接続される通信装置と、前記通信装置とネットワークを介して通信可能なサーバ装置と、前記サーバ装置とネットワークを介して通信可能な端末装置と、を備える映像配信システムであって、前記サーバ装置は、(i)前記撮影手段により撮影された映像情報を、時刻情報が付加される形で取得するとともに、(ii)前記位置検出手段により検出された前記無人移動体の位置を示す位置情報を、時刻情報が付加される形で取得する取得手段と、前記映像情報に付加された時刻情報及び前記位置情報に付加された時刻情報に基づいて、前記映像情報と前記位置情報とを互いに関連付ける関連付け手段と、を有する。
 無人移動体が有する撮影手段及び位置検出手段は別個の物であるが故に、撮影手段から出力される映像情報及び位置検出手段から出力される位置情報も別個の情報である。このため、撮影位置と、該撮影位置で撮影された映像とを対応付けるためには、映像情報と位置情報とを関連付ける必要がある。
 ただし、夫々別個に出力(取得)された映像情報及び位置情報を互いに関連付けることは困難である。特に、リアルタイム性が損なわれない程度の時間で、映像情報及び位置情報を互いに関連付けることは極めて困難である。ここで、映像配信システムが用いられる場所の一例として、災害現場等の人の立ち入りが困難な又は制限される場所が挙げられる。このような場所での利用を前提とすると、リアルタイム性が比較的低いことは、映像配信システムの商品価値を低下させてしまう。
 本願発明者は、映像情報及び位置情報に夫々付加されている時刻情報(いわゆるタイムスタンプ)に着目した。この結果、当該映像配信システムでは、サーバ装置の取得手段が、無人移動体から映像情報及び位置情報を別個に取得し、該サーバ装置の関連付け手段が、映像情報に付加された時刻情報及び位置情報に付加された時刻情報に基づいて、映像情報及び位置情報を互いに関連付ける。尚、映像情報及び位置情報各々の時刻情報は、撮影手段や位置検出手段に限らず、例えば操作装置、通信装置、サーバ装置等において付加されてよい。
 このように構成すれば、比較的容易にして映像情報と位置情報とを関連付けることができる。従って、当該映像配信システムによれば、リアルタイム性を損なうことなく、映像情報及び位置情報を互いに関連付けることができる。尚、映像情報に付加された時刻情報と位置情報に付加された時刻情報とは一致しないことがあるが、両者の差が比較的小さければ同一時刻として処理してよい。上述の如く、関連付けられた映像情報及び位置情報が端末装置に配信されることで、映像情報と位置情報とを互いに関連付けられた形で端末装置に表示することができる。
 本発明の映像配信システムの一態様では、前記サーバ装置は、前記関連付け手段により関連付けられた前記映像情報及び前記位置情報を、前記端末装置に配信する配信手段を有し、前記端末装置は、前記位置情報に基づく位置を示す標示を地図上に表示するとともに、前記映像情報に基づいて前記位置に対応する映像を表示する表示手段を有する。この態様によれば、いわゆるライブ配信やオンデマンド配信を行うことができる。当該映像配信システムでは特に、位置を示す標示(即ち、撮影位置)と、該位置に対応する映像とが表示される。このため、端末装置のユーザは、配信された映像の撮影位置を比較的容易に知ることができる。
 配信手段を有する態様では、前記配信手段は、前記端末装置により前記映像情報により示される映像の再生位置としての時刻が指定された場合、前記指定された時刻に係る映像に対応する位置を示す位置情報を、前記端末装置に配信してよい。このように構成すれば、端末装置の表示手段は、指定された時刻の撮影位置を表示することができる。この結果、端末装置のユーザは、映像の撮影位置を比較的容易に知ることができる。
 配信手段を有する態様では、前記配信手段は、前記端末装置により地図上の位置が指定された場合、前記位置情報により示される位置のうち前記指定された位置近傍の位置に対応する映像を示す映像情報を、前記端末装置に配信してよい。このように構成すれば、端末装置の表示手段は、指定された位置近傍の映像を表示することができる。ここで「指定された位置近傍の位置」は、例えば位置情報により示される複数の位置のうち、指定された位置からの距離が所定距離以下である位置とすればよい。所定距離は、予め定められた固定値であってもよいし、例えば地図の縮尺等に応じた可変値であってもよい。
 配信手段を有する態様では、前記表示手段は、前記位置情報に付加された時刻情報に基づいて、前記位置情報に基づく位置を示す標示の表示態様を変更してよい。このように構成すれば、例えばライブ配信において、無人移動体の軌跡を表示しつつ、地図の視認性の低下を抑制することができる。ここで「表示態様の変更」には、例えば標示の色や透明度の変更、標示のサイズや形状の変更、表示の中止(即ち、標示の消去)等が含まれる。
 本発明の映像配信システムの他の態様では、前記サーバ装置は、(i)前記通信装置を識別するための複数の論理識別子を生成するとともに、(ii)前記複数の論理識別子のうち前記通信装置により選択された論理識別子と前記通信装置とを関連付け、前記関連付けられた論理識別子に基づいて前記通信装置を識別する識別手段を有する。
 仮に、例えばサーバ装置が無人移動体に論理識別子を自動的に割り振る構成とすると、論理識別子を適切に割り振るための処理が複雑になってしまう。しかるに当該映像配信システムでは、通信装置により選択された論理識別子により該通信装置が識別される。つまり、当該映像配信システムでは、論理識別子を割り振るのではなく、通信装置により論理識別子が選択されるのである。このため、当該映像配信システムでは、論理識別子を割り振るための処理は不要となる。
 加えて、無人移動体ではなく、通信装置と論理識別子とが関連付けられるため、仮に一の無人移動体が故障して他の無人移動体と交換された場合であっても、通信装置が交換されない限り、当該映像配信システム上では同一の無人移動体(即ち、交換の前後で同じ論理識別子により識別される無人移動体)として扱うことができる。
 本発明の作用及び他の利得は次に説明する実施するための形態から明らかにされる。
第1実施形態に係る映像配信システムの構成を示す構成図である。 第1実施形態に係る通信装置の識別処理を示すフローチャートである。 第1実施形態に係る映像配信処理を示すフローチャートである。 第1実施形態に係る端末装置に表示される画面の一例を示す図である。 第1実施形態に係る軌跡表示処理を示すフローチャートである。 第2実施形態に係る映像の再生位置に対応する位置情報の配信処理を示すフローチャートである。 第2実施形態に係る地図上の位置に対応する映像情報の配信処理を示すフローチャートである。
 本発明の映像配信システムに係る実施形態を図面に基づいて説明する。尚、以下の実施形態では、既存の技術を適用可能な構成等に係る説明は適宜省略する。
 <第1実施形態>
 本発明の映像配信システムに係る第1実施形態について、図1乃至図5を参照して説明する。
 (構成)
 第1実施形態に係る映像配信システムの構成について図1を参照して説明する。図1は、第1実施形態に係る映像配信システムの構成を示す構成図である。
 図1において、映像配信システム1は、ドローン11と、該ドローン11を操縦可能な操作装置12と、該操作装置12と接続される通信装置13と、クラウドサーバ20と、端末装置30とを備えて構成されている。尚、「ドローン11」及び「クラウドサーバ20」は、夫々、本発明に係る「無人移動体」及び「サーバ装置」の一例である。
 ドローン11は、CPU(Central Processing Unit)、カメラ、GPS(Global Positioning System)受信機、ジャイロセンサ及び磁気方位センサを有する。カメラは、ドローン11の周囲の映像を撮影する。CPUは、GPS受信機の出力、ジャイロセンサの出力及び磁気方位センサの出力に基づいて、ドローン11の位置及び姿勢を検出する。
 CPUは、カメラにより撮影された映像を映像情報として操作装置12に送信するとともに、検出されたドローン11の位置及び姿勢を位置情報として操作装置12に送信する。操作装置12により受信された映像情報及び位置情報は、例えばインターネット等のネットワークを介して、通信装置13からクラウドサーバ20に送信される。ここで、映像情報及び位置情報には夫々時刻情報が付加されている。クラウドサーバ20は、上記映像情報及び位置情報を、例えばインターネット等のネットワークを介して、端末装置30に配信する(詳細については後述する)。
 ドローン11が有するカメラは、その光軸方向(即ち、レンズが向いている方向)をドローン11の姿勢にかかわらず変更可能に構成されている。カメラの光軸方向変更は、操作装置12からの信号(具体的には、操作装置12の操作者による光軸方向の変更に係る操作に起因する信号)に基づいて行われる。尚、カメラはズーム機能を有していてよい。この場合、ズームの程度は操作装置12からの信号(具体的には、操作装置12の操作者によるズームに係る操作に起因する信号)に基づいて制御される。
 カメラの光軸方向を示す光軸情報(例えば、基準の光軸方向からのずれ量を示す情報)及びカメラの画角を示す画角情報は、通信装置13からクラウドサーバ20に送信される。光軸情報及び画角情報にも夫々時刻情報が付加されている。尚、カメラがズーム機能を有している場合にはズームの程度等に基づいて逐次カメラの画角が計算され、画角情報が更新される。光軸情報及び画角情報は、ドローン11により生成されてもよいし、操作装置12により生成されてもよい。
 (接続機器の識別方法)
 次に、映像配信システム1に接続される機器の識別方法について説明する。ここでは特に、ドローン11の認識方法について、図2のフローチャートを参照して説明する。本実施形態では、操作装置12に接続された通信装置13を識別することにより、該操作装置12により操作されるドローン11を識別する。
 クラウドサーバ20の動作
 クラウドサーバ20の識別部24は、一定期間(例えば数時間~数日)有効な複数の論理識別子を準備(生成)する(ステップS111)。識別部24は、映像配信システム1への接続を希望する通信装置13に対し、複数の論理識別子(又は、論理識別子の範囲)を示す情報を送信する。
 その後、識別部24は、通信装置13から論理識別子の選択情報(即ち、選択された論理識別子を示す情報)を受信したか否かを判定する(ステップS112)。この判定において、選択情報を受信していないと判定された場合(ステップS112:No)、識別部24は第1所定時間経過後に、再度ステップS112の判定を行う。つまり、選択情報を受信するまで待機状態となる。
 他方、ステップS112の判定において、選択情報を受信したと判定された場合(ステップS112:Yes)、識別部24は、選択情報により示される論理識別子が空いているか否か(即ち、選択された論理識別子が他の通信装置と紐付けられていないか否か)を判定する(ステップS113)。
 ステップS113の判定において、選択情報により示される論理識別子が空いていないと判定された場合(ステップS113:No)、識別部24は、その旨を示す信号を通信装置13に送信して、第2所定時間経過後に、再度ステップS112の判定を行う。他方、ステップS113の判定において、選択情報により示される論理識別子が空いていると判定された場合(ステップS113:Yes)、識別部24は、その旨を示す信号を通信装置13に送信するとともに、選択情報により示される論理識別子と通信装置13とを紐付ける(ステップS114)。
 通信装置13の動作
 通信装置13は、複数の論理識別子(又は、論理識別子の範囲)を示す情報を受信すると、該受信された情報に基づいて、論理識別子を選択するための選択画面を表示する(ステップS121)。ドローン11の操作者により論理識別子が選択されると、通信装置13は、該選択された論理識別子を示す選択情報をクラウドサーバ20に送信する(ステップS122)。
 次に、通信装置13は、クラウドサーバ20からの信号に基づいて、選択された論理識別子が空いているか否かを判定する(ステップS123)。この判定において、選択された論理識別子が空いていないと判定された場合(ステップS123:No)、通信装置13は、再度ステップS121の処理を行う。他方、この判定において、選択された論理識別子が空いていると判定された場合(ステップS123:Yes)、通信装置13は、当該処理を終了する。
 図2に示す処理の結果、通信装置13からクラウドサーバ20に送信された映像情報及び位置情報各々は、該通信装置13に係る論理識別子と紐付けられてクラウドサーバ20に格納される。
 (映像配信)
 次に、映像配信システム1における映像配信について、図3のフローチャートを参照して説明する。
 図3において、クラウドサーバ20の取得部21は、通信装置13から位置情報を取得するとともに(ステップS201)、映像情報を取得する(ステップS202)。尚、位置情報は、典型的には、TCP(Transmission Control Protocol)により通信装置13からクラウドサーバ20に送信される。他方、映像情報は、典型的には、UDP(User Datagram Protocol)により通信装置13からクラウドサーバ20に送信される。UDPにより映像情報が送信されることにより、映像のリアルタイム性を向上させることができる。
 次に、クラウドサーバ20の紐付け部22は、位置情報に付加されている時刻情報と、映像情報に付加された時刻情報とに基づいて、位置情報と映像情報とを互いに紐付ける(ステップS203)。このとき、光軸情報及び画角情報も、夫々に付加されている時刻情報に基づいて、位置情報及び映像情報に紐付けられる。
 続いて、クラウドサーバ20の配信部23は、位置情報及び映像情報を、端末装置30に配信する(ステップS204)。尚、「配信」は、ライブ配信であってもよいし、オンデマンド配信であってもよい。
 図3に示す処理の結果、端末装置30のCPUは、配信された位置情報に基づく位置を示す標示を地図上に表示するとともに、映像情報に基づいて該位置に対応する映像を表示する。
 次に、位置情報及び映像情報が配信された端末装置30に表示される画面の一例について、図4を参照して説明する。図4は、第1実施形態に係る端末装置に表示される画面の一例を示す図である。
 図4に示すように、端末装置30の画面には、位置情報に基づく標示33及び34が地図31上に表示されるとともに、映像情報に基づく映像32が表示される。ここで、標示33は、位置情報に基づくドローン11の現在地及びドローン11の向きを示している。また、標示34は、位置情報に基づくドローン11の軌跡を示している。
 映像32として表示される映像は、ドローン11の現在地(標示33により示される位置)において撮影された映像である。尚、映像32及び標示33各々に付記されている文字(ここでは“RG-01”)は、上述の論理識別子に関連する文字である。地図31を表示するための地図情報は、端末装置30に予め格納されていてもよいし、クラウドサーバ20から配信されてもよい。
 端末装置30の画面には更に、位置情報、光軸情報及び画角情報に基づく撮影範囲を示す標示35が表示される。このように構成すれば、端末装置30のユーザが、映像32として表示される映像が、地図31上のどの領域に対応しているのかを直感的に理解することができ、実用上非常に有利である。
 ここで、軌跡を示す標示34の表示方法について、図5のフローチャートを参照して説明を加える。
 図5において、端末装置30のCPU(図示せず)は、配信された位置情報を取得して(ステップS301)、該取得された位置情報に基づいて、軌跡の表示密度を計算する(ステップS302)。「表示密度」は、例えば端末装置30の画面に表示される地図31の面積(例えばピクセルで表される画像サイズ)と、位置情報に基づいて地図31上に標示34が表示される場合の該標示34面積又は個数とに基づいて計算される。
 次に、CPUは、位置情報により示される複数の位置に夫々対応する複数の標示34各々の透明度を割り振る(ステップS303)。具体的には例えば、CPUは、位置情報に付加された時刻情報に基づいて、現在時刻から所定時間前までの標示34を不透明(透明度をα値で表す場合“255”)とする一方で、現在時刻から所定時間前の時刻より前の標示34の透明度を徐々に上げる(透明度をα値で表す場合、α値を徐々に小さくする)。
 ここで、「所定時間」は、ステップS302の処理において計算された表示密度に基づいて決定される。具体的には、表示密度が高いほど所定時間は短くなる。言い換えれば、表示密度が低いほど所定時間は長くなる。
 次に、CPUは、ステップS303の処理において割り振られた透明度で各標示34を地図31上に表示する(ステップS304)。尚、「端末装置30のCPU」は、本発明に係る「表示手段」の一例である。
 (技術的効果)
 当該映像配信システム1では、位置情報に付加された時刻情報と映像情報に付加された時刻情報とに基づいて、位置情報及び映像情報が互いに紐付けられる(図3参照)。このため、リアルタイム性を損ねることなく、位置情報及び映像情報を互いに紐付けることができる。この結果、例えば撮影位置と該撮影位置での映像とが同時に表示されるライブ配信を行うことができる。
 当該映像配信システム1では、当該映像配信システム1に接続する通信装置13(ドローン11)により選択された論理識別子と、該通信装置13とが互いに紐付けられる(図2参照)。このため、例えばクラウドサーバ20が通信装置13に論理識別子を自動的に割り振る構成に比べて、簡便に通信装置13及び論理識別子を紐付けることができる。
 特に、通信装置13及び論理識別子が互いに紐付けられているため、仮に現在のドローン11が故障し、他のドローンとの交換が必要になった場合であっても、映像配信システム11上では、現在のドローン11も交換された他のドローンも同一のドローンとして扱われる。なぜなら、通信装置13に紐付けられている論理識別子は、ドローン11の交換の前後で変わらないからである。
 従って、仮に現在のドローン11が他のドローンと交換された場合であっても、端末装置30に表示される映像32及び標示33各々に付記される論理識別子に関連する文字(図4参照)は変化しない。この結果、端末装置30のユーザは、ドローン11の交換を意識することなく、配信された映像等を見ることができる。
 当該映像配信システム1では、ドローン11の軌跡を示す標示34の表示態様(第1実施形態では透明度)が時間に応じて変化する(図4、図5参照)。このため、軌跡を示す標示34に起因して地図31の視認性が低下することを抑制することができる。
 尚、本実施形態に係る「取得部21」、「紐付け部22」、「配信部23」及び「識別部24」は、夫々、本発明に係る「取得手段」、「関連付け手段」、「配信手段」及び「識別手段」の一例である。本実施形態では、説明の便宜上、映像配信システム1がドローン11及び端末装置30を各1台しか備えていないが、当該映像配信システム1は、ドローン11及び端末装置30を夫々複数台備えることが可能である。
 <第2実施形態>
 本発明の映像配信システムに係る第2実施形態について、図6及び図7を参照して説明する。第2実施形態では、配信処理が一部異なる以外は、上述した第1実施形態と同様である。第2実施形態について、第1実施形態と重複する説明を省略すると共に、図面上における共通箇所には同一符号を付して示し、基本的に異なる点についてのみ、図6及び図7を参照して説明する。
 (映像の再生位置に対応する撮影位置の表示)
 端末装置30のユーザが、該端末装置30に表示された映像32(図4参照)の再生位置を指定した場合の処理について、図6のフローチャートを参照して説明する。
 端末装置30の動作
 端末装置30のCPUは、映像32の再生位置の指定があるか否かを判定する(ステップS411)。この判定において、再生位置の指定がないと判定された場合(ステップS411:No)、CPUは、第3所定時間経過後に、再度ステップS411の判定を行う。つまり、再生位置の指定があるまで待機状態となる。
 他方、ステップS411の判定において、再生位置の指定があると判定された場合(ステップS411:Yes)、CPUは、指定された再生位置を示す信号をクラウドサーバ20に送信する(ステップS412)。その後、CPUは、クラウドサーバ20から位置情報を受信したか否かを判定する(ステップS413)。
 ステップS413の判定において位置情報を受信していないと判定された場合(ステップS413:No)、CPUは、第4所定時間経過後に、再度ステップS413の判定を行う。つまり、位置情報が受信されるまで待機状態となる。他方、ステップS413の判定において位置情報を受信したと判定された場合(ステップS413:Yes)、CPUは、受信された位置情報に基づく位置を示す標示を地図31上に表示する(ステップS414)。このとき、指定された再生位置に対応する映像が表示される。
 クラウドサーバ20の動作
 クラウドサーバ20の配信部23は、端末装置30から再生位置を示す信号を受信したか否かを判定する(ステップS421)。この判定において、再生位置を示す信号を受信していないと判定された場合(ステップS421:No)、配信部23は、第5所定時間経過後に、再度ステップS421の判定を行う。つまり、再生位置を示す信号を受信するまで待機状態となる。
 他方、ステップS421の判定において、再生位置を示す信号を受信したと判定された場合(ステップS421:Yes)、配信部23は、再生位置に対応する時刻における位置を示す位置情報を端末装置30に送信する(ステップS422)。このとき、配信部23は、再生位置に対応する時刻における映像情報も端末装置30に送信する。
 (指定位置に対応する映像の表示)
 端末装置30のユーザが、該端末装置30に表示された地図31(図4参照)上の位置(座標)を指定した場合の処理について、図7のフローチャートを参照して説明する。
 端末装置30の動作
 端末装置30のCPUは、地図31上の位置の指定があるか否かを判定する(ステップS511)。この判定において、位置の指定がないと判定された場合(ステップS511:No)、CPUは、第6所定時間経過後に、再度ステップS511の判定を行う。つまり、位置の指定があるまで待機状態となる。
 他方、ステップS511の判定において、位置の指定があると判定された場合(ステップS511:Yes)、CPUは、指定された位置を示す信号をクラウドサーバ20に送信する(ステップS512)。その後、CPUは、クラウドサーバ20から映像情報を受信したか否かを判定する(ステップS513)。
 ステップS513の判定において映像情報を受信していないと判定された場合(ステップS513:No)、CPUは、第7所定時間経過後に、再度ステップS513の判定を行う。つまり、映像情報が受信されるまで待機状態となる。他方、ステップS513の判定において映像情報を受信したと判定された場合(ステップS513:Yes)、CPUは、受信された映像情報に基づく映像を表示する(ステップS514)。このとき、表示された映像の撮影位置(即ち、受信された映像情報に紐付けられた位置情報に基づく位置)を示す標示が地図31上に表示される。
 クラウドサーバ20の動作
 クラウドサーバ20の配信部23は、端末装置30から地図31上の位置を示す信号を受信したか否かを判定する(ステップS521)。この判定において、位置を示す信号を受信していないと判定された場合(ステップS521:No)、配信部23は、第8所定時間経過後に、再度ステップS521の判定を行う。つまり、位置を示す信号を受信するまで待機状態となる。
 他方、ステップS521の判定において、位置を示す信号を受信したと判定された場合(ステップS521:Yes)、配信部23は、受信された信号により示される位置に最も近い位置を示す位置情報を特定する。そして、配信部23は、該特定された位置情報に紐付けられた映像情報を、該位置情報と共に端末装置30に送信する(ステップS522)。
 尚、配信部23は、受信された信号により示される位置近傍に(例えば、該位置から所定範囲内に)、位置情報により示される位置が存在しない場合は、その旨を示す信号を端末装置30に送信してよい。
 (技術的効果)
 本実施形態によれば、端末装置30のユーザの要求に応えつつ、映像及びその撮影位置を互いに連動させて表示することができる。
 <変形例>
 (1)ドローン11に代えて又は加えて、例えば撮影装置を搭載した自走式のロボット等が用いられてもよい。
 (2)軌跡を示す標示は、図4の標示34のようなドットに限らず、例えば帯や破線等であってもよい。
 (3)図5に示す処理では、透明度を変更することにより軌跡の表示態様を変更しているが、透明度に代えて又は加えて、例えば軌跡を示す標示の色、サイズ、形状等が変更されてもよい。
 (4)操作装置12及び通信装置13は一体として形成されていてよい。
 本発明は、上述した実施形態に限られるものではなく、請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う映像配信システムもまた本発明の技術的範囲に含まれるものである。
 1…映像配信システム、11…ドローン、12…操作装置、13…通信装置、20…クラウドサーバ、21…取得部、22…紐付け部、23…配信部、24…識別部、30…端末装置

Claims (6)

  1.  撮影手段及び位置検出手段を有する無人移動体と、前記無人移動体を操作可能な操作装置と、前記操作装置と接続される通信装置と、前記通信装置とネットワークを介して通信可能なサーバ装置と、前記サーバ装置とネットワークを介して通信可能な端末装置と、を備える映像配信システムであって、
     前記サーバ装置は、
     (i)前記撮影手段により撮影された映像情報を、時刻情報が付加される形で取得するとともに、(ii)前記位置検出手段により検出された前記無人移動体の位置を示す位置情報を、時刻情報が付加される形で取得する取得手段と、
     前記映像情報に付加された時刻情報及び前記位置情報に付加された時刻情報に基づいて、前記映像情報と前記位置情報とを互いに関連付ける関連付け手段と、
     を有することを特徴とする映像配信システム。
  2.  前記サーバ装置は、前記関連付け手段により関連付けられた前記映像情報及び前記位置情報を、前記端末装置に配信する配信手段を有し、
     前記端末装置は、前記位置情報に基づく位置を示す標示を地図上に表示するとともに、前記映像情報に基づいて前記位置に対応する映像を表示する表示手段を有する
     ことを特徴とする請求項1に記載の映像配信システム。
  3.  前記配信手段は、前記端末装置により前記映像情報により示される映像の再生位置としての時刻が指定された場合、前記指定された時刻に係る映像に対応する位置を示す位置情報を、前記端末装置に配信することを特徴とする請求項2に記載の映像配信システム。
  4.  前記配信手段は、前記端末装置により地図上の位置が指定された場合、前記位置情報により示される位置のうち前記指定された位置近傍の位置に対応する映像を示す映像情報を、前記端末装置に配信することを特徴とする請求項2に記載の映像配信システム。
  5.  前記表示手段は、前記位置情報に付加された時刻情報に基づいて、前記位置情報に基づく位置を示す標示の表示態様を変更することを特徴とする請求項2に記載の映像配信システム。
  6.  前記サーバ装置は、(i)前記通信装置を識別するための複数の論理識別子を生成するとともに、(ii)前記複数の論理識別子のうち前記通信装置により選択された論理識別子と前記通信装置とを関連付け、前記関連付けられた論理識別子に基づいて前記通信装置を識別する識別手段を有することを特徴とする請求項1に記載の映像配信システム。
PCT/JP2018/025387 2017-08-01 2018-07-04 映像配信システム WO2019026516A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PH12020500181A PH12020500181A1 (en) 2017-08-01 2020-01-24 Image distribution system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017149110A JP6677684B2 (ja) 2017-08-01 2017-08-01 映像配信システム
JP2017-149110 2017-08-01

Publications (1)

Publication Number Publication Date
WO2019026516A1 true WO2019026516A1 (ja) 2019-02-07

Family

ID=65233964

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/025387 WO2019026516A1 (ja) 2017-08-01 2018-07-04 映像配信システム

Country Status (3)

Country Link
JP (1) JP6677684B2 (ja)
PH (1) PH12020500181A1 (ja)
WO (1) WO2019026516A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7490948B2 (ja) * 2019-11-25 2024-05-28 コベルコ建機株式会社 作業支援サーバおよび作業支援システム
JP7499663B2 (ja) 2020-09-25 2024-06-14 株式会社Nttドコモ 情報処理装置
JP7116833B1 (ja) 2021-09-28 2022-08-10 Kddi株式会社 移動体管理装置及び移動体管理方法
WO2023162267A1 (ja) * 2022-02-28 2023-08-31 パイオニア株式会社 表示装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006074513A (ja) * 2004-09-02 2006-03-16 Oki Electric Ind Co Ltd 監視システム及び監視装置
JP2007004777A (ja) * 2005-05-17 2007-01-11 Hitachi Ltd アドホックセンサノード追跡用のユーザインターフェースの処理のためのシステム、方法及びコンピュータプログラム
JP2015207149A (ja) * 2014-04-21 2015-11-19 薫 渡部 監視システム及び監視方法
WO2016203896A1 (ja) * 2015-06-16 2016-12-22 シャープ株式会社 生成装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017049597A1 (en) * 2015-09-25 2017-03-30 SZ DJI Technology Co., Ltd. System and method for video broadcasting
JP2017067834A (ja) * 2015-09-28 2017-04-06 株式会社オプティム 無人航空機の撮像画像表示装置、撮像画像表示方法、および撮像画像表示プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006074513A (ja) * 2004-09-02 2006-03-16 Oki Electric Ind Co Ltd 監視システム及び監視装置
JP2007004777A (ja) * 2005-05-17 2007-01-11 Hitachi Ltd アドホックセンサノード追跡用のユーザインターフェースの処理のためのシステム、方法及びコンピュータプログラム
JP2015207149A (ja) * 2014-04-21 2015-11-19 薫 渡部 監視システム及び監視方法
WO2016203896A1 (ja) * 2015-06-16 2016-12-22 シャープ株式会社 生成装置

Also Published As

Publication number Publication date
JP6677684B2 (ja) 2020-04-08
PH12020500181A1 (en) 2020-09-14
JP2019029889A (ja) 2019-02-21

Similar Documents

Publication Publication Date Title
WO2019026516A1 (ja) 映像配信システム
US11341752B2 (en) Vehicle video system
AU2007252840B2 (en) Methods and system for communication and displaying points-of-interest
WO2019084797A1 (zh) 一种障碍信息显示方法、显示装置、无人机及系统
US11178344B2 (en) Head-mounted display apparatus, display system, and method of controlling head-mounted display apparatus
JP6615732B2 (ja) 情報処理装置および画像生成方法
EP3629309A2 (en) Drone real-time interactive communications system
US11228737B2 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
JP2020005146A (ja) 出力制御装置、表示端末、情報処理装置、移動体、遠隔制御システム、出力制御方法、プログラムおよび撮影制御装置
JP2009010728A (ja) カメラ設置支援装置
CN111034172A (zh) 控制设备、控制系统、控制方法、程序及存储介质
US11743526B1 (en) Video system
KR20170044451A (ko) 헤드 마운트 디스플레이를 이용한 원격지 카메라 제어 시스템 및 방법
KR101556076B1 (ko) 주차 통합 관리 시스템 및 이를 이용한 주차 관리 방법
CN112099529B (zh) 虚拟现实设备控制系统和方法
JPWO2019150675A1 (ja) 情報処理装置
CN108012141A (zh) 显示装置、显示系统和显示装置的控制方法
CN111292424A (zh) 多视点360度vr内容提供系统
JP2020017898A (ja) 画像共有システム、画像共有方法
JP2019109174A (ja) 位置算出システム、位置算出装置、位置算出方法及びプログラム
JP2014014011A (ja) 静止画自動生成システム、静止画自動生成システムにおける作業者用情報処理端末及び指示者用情報処理端末、及び判定装置
KR20200114350A (ko) 증강현실 모바일 기기를 포함한 감시 카메라 시스템 및 그 제어 방법
JP2017011598A (ja) 監視システム
CN112053444A (zh) 基于光通信装置叠加虚拟对象的方法和相应的电子设备
JP2014165639A (ja) 情報端末装置、通信システム及び方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18842238

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18842238

Country of ref document: EP

Kind code of ref document: A1