WO2024023982A1 - 映像処理装置、方法およびプログラム - Google Patents

映像処理装置、方法およびプログラム Download PDF

Info

Publication number
WO2024023982A1
WO2024023982A1 PCT/JP2022/028990 JP2022028990W WO2024023982A1 WO 2024023982 A1 WO2024023982 A1 WO 2024023982A1 JP 2022028990 W JP2022028990 W JP 2022028990W WO 2024023982 A1 WO2024023982 A1 WO 2024023982A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
camera
viewpoint
video data
processing device
Prior art date
Application number
PCT/JP2022/028990
Other languages
English (en)
French (fr)
Inventor
和 宮川
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to PCT/JP2022/028990 priority Critical patent/WO2024023982A1/ja
Publication of WO2024023982A1 publication Critical patent/WO2024023982A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel

Definitions

  • One aspect of the present invention relates to a video processing device, method, and program for processing video captured by a plurality of cameras, for example, during broadcasting of an event such as sports.
  • Non-Patent Document 1 The technology described in Non-Patent Document 1 is called a time-slice photography method, in which dozens of cameras arranged in a circle around the competition court take synchronized shots of the inside of the court, and images from each camera are sequentially selected. be.
  • This shooting method it is possible to provide viewers with a video of a decisive punch scene in a boxing match, for example, shot from the most powerful perspective.
  • by sequentially selecting images from adjacent cameras it is possible to provide the viewer with images that move the viewpoint around the player.
  • Hideki Mitsumine “Research and development trends in sports video expression technology”, NHK Broadcasting Technology Research Institute, NHK Giken R&D January 2019 issue, [Retrieved June 16, 2022], Internet ⁇ URL: https://www.nhk .or.jp/strl/publica/rd/173/2.html>
  • 4DReplay which temporarily stops video playback when the viewpoint moves, thereby keeping the speed of viewpoint movement constant and ensuring that critical scenes are not missed.
  • the video delay can be recovered by skipping the time corresponding to the delay, but the temporal continuity of the video is lost, giving the viewer a sense of discomfort.
  • the video is sped up by the amount of the delay time, the temporal consistency will be lost, and the viewer will inevitably feel uncomfortable in this case as well.
  • the video is instantly switched from one camera to another, using so-called cuts to ensure that critical scenes are not missed while still being viewed live.
  • cuts are used to view video from arbitrary viewpoints using multiple cameras, the original feature of the shooting method using multiple cameras, which is dynamically moving the viewpoints, is lost.
  • This invention was made in view of the above-mentioned circumstances, and aims to provide a technology that allows live video to be viewed from an appropriate viewpoint while maintaining temporal continuity and temporal consistency.
  • one aspect of the video processing device or the video processing method according to the present invention acquires video data from each of a plurality of cameras arranged with a predetermined positional relationship with respect to an area to be photographed. At the same time, a score representing the degree of attention is given to each of the acquired video data at predetermined time intervals for each scene video at each time position. Then, based on the score and the arrangement distance between the plurality of cameras, a camera to be a viewpoint movement destination is selected for each of the time positions, a viewpoint movement schedule representing the selection order is generated, and a viewpoint movement schedule is generated that represents the selection order. Based on the viewpoint movement schedule for each time position, the scene video corresponding to the camera to which the viewpoint is moved is read from the storage medium to generate distribution video data and transmitted to the viewer. be.
  • a video of a scene with a high degree of attention for each time position can be selected as a viewpoint video and provided to the viewer. Moreover, when switching the viewpoint video to video of a scene with high attention, the distance between the cameras before and after switching is taken into consideration, and the viewpoint video is passed through multiple cameras placed between the cameras in stages. is switched to the video of the above-mentioned high-profile scene. Therefore, it is possible to provide the viewer with a distributed video in which the viewpoint can be smoothly moved.
  • the timing of delivering video data to viewers is delayed by a certain amount of time relative to the timing of receiving live video data, the video delivery does not have to be temporarily stopped or fast-forwarded to adjust the time. This makes it possible to provide viewers with images of scenes of high interest while maintaining both temporal continuity and temporal coherence.
  • FIG. 1 is a diagram showing an example of the configuration of an event relay system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing an example of the hardware configuration of a video processing device used in the event relay system shown in FIG.
  • FIG. 3 is a block diagram showing an example of the software configuration of a video processing device used in the event relay system shown in FIG. 1.
  • FIG. 4 is a flowchart showing an example of a video processing procedure and processing contents executed by the control unit of the video processing device shown in FIG.
  • FIG. 5 is a diagram illustrating an example of the arrangement of a plurality of cameras in an area to be photographed.
  • FIG. 6 is a diagram showing an example of scores given to each video obtained by a plurality of cameras.
  • FIG. 1 is a diagram showing an example of the configuration of an event relay system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing an example of the hardware configuration of a video processing device used in the event relay system shown in FIG.
  • FIG. 7 is a diagram illustrating a first example of viewpoint selection processing based on score data.
  • FIG. 8 is a diagram illustrating a second example of viewpoint selection processing based on score data.
  • FIG. 9 is a diagram illustrating a first example of viewpoint selection processing based on score data.
  • FIG. 1 is a diagram showing an example of the configuration of an event relay system according to an embodiment of the present invention.
  • the event relay system transmits video data obtained by photographing the event using a plurality of cameras CM1 to CMn to the video processing device SV via the network NW. Then, in the video processing device SV, distribution video data is generated by selectively editing each video data transmitted from the plurality of cameras CM1 to CMn, and the generated distribution video data is viewed via the network NW.
  • the information is configured to be distributed to individual monitor devices MT1 to MTm.
  • the plurality of cameras CM1 to CMn are arranged at equal intervals around the ring RE, which is the broadcast target area, as shown in FIG. 5, for example, so as to surround the ring RE. be done.
  • This example shows a case where eight cameras CM1 to CM8 are arranged.
  • Cameras CM1 to CMn are, for example, web cameras, which take pictures of the ring RE from respective predetermined viewpoints, and send live video data obtained by this shooting operation to the video processing device SV via the network NW.
  • the cameras CM1 to CMn may be provided with a tilt/pan function and a zoom function in order to adjust the viewpoint and field of view.
  • the network NW includes, for example, a wide area network centered on the Internet, and an access network for accessing this wide area network.
  • the access network for example, a wired or wireless public communication network, a wired or wireless LAN (Local Area Network), or a CATV (Cable Television) network is used.
  • the network NW may include a broadcast medium using terrestrial waves or satellites.
  • the monitor devices MT1 to MTm are television devices or personal computers owned by the viewers.
  • the monitor devices MT1 to MTm are equipped with a browser or a tuner for broadcast reception, and receive and display distributed video data distributed or broadcast from the video processing device SV via the network NW.
  • FIG. 2 is a block diagram showing an example of the hardware configuration of the video processing device SV according to an embodiment of the present invention
  • FIG. 3 is a block diagram showing an example of the software configuration of the video processing device SV.
  • the video processing device SV consists of an information processing device such as a server computer or a personal computer, and is placed, for example, in a broadcasting station or an event venue. Note that the functions of the video processing device SV may be provided in a server computer located on the Web or in the cloud.
  • the video processing device SV includes a control unit 1 using a hardware processor such as a central processing unit (CPU), and a program storage unit 2 and data storage via a bus 5 to the control unit 1.
  • a storage unit having a section 3 and a communication interface (hereinafter referred to as I/F) section 4 are connected.
  • the communication I/F unit 4 receives the video data transmitted from the cameras CM1 to CMn via the network NW, and transmits the edited distributed video data to the viewer's monitor devices MT1 to MTm via the network NW. Deliver to.
  • the communication I/F unit 4 is also used, for example, when transmitting control signals for turning on/off the cameras CM1 to CMn and adjusting various parameters to the cameras CM1 to CMn.
  • the program storage unit 2 is configured by combining, for example, a non-volatile memory such as an SSD (Solid State Drive) that can be written to and read from at any time as a storage medium, and a non-volatile memory such as a ROM (Read Only Memory).
  • a non-volatile memory such as an SSD (Solid State Drive) that can be written to and read from at any time as a storage medium
  • a non-volatile memory such as a ROM (Read Only Memory).
  • middleware such as an OS (Operating System)
  • application programs necessary for executing various control processes according to one embodiment are stored. Note that hereinafter, the OS and each application program will be collectively referred to as a program.
  • the data storage unit 3 is, for example, a combination of a nonvolatile memory such as an SSD that can be written and read at any time as a storage medium, and a volatile memory such as a RAM (Random Access Memory), and its storage area includes: A plurality of camera video storage units 31 to 3n corresponding to each of the cameras CM1 to CMn, a learning model storage unit 32, and a score data storage unit 33 are provided.
  • a nonvolatile memory such as an SSD that can be written and read at any time as a storage medium
  • a volatile memory such as a RAM (Random Access Memory)
  • the camera video storage units 31 to 3n accumulate live video data transmitted in real time from the cameras CM1 to CMn, respectively.
  • the learning model storage unit 32 stores learning models used in the scoring process.
  • the learning model is generated by using, for example, a plurality of past distributed videos related to the target event as learning data, and setting a score representing the degree of attention as a viewpoint for each scene of the distributed video as correct data.
  • the degree of attention of a viewpoint can be defined, for example, based on the instantaneous viewer rating or the degree of excitement based on the size of cheers, etc., but it cannot be defined based on other characteristic quantities such as the amount of change and speed of the subject's movement. Good too.
  • the score data storage unit 33 stores list data of scores assigned for each scene to the live video data transmitted from each camera CM1 to CMn.
  • the control unit 1 includes a plurality of camera image acquisition processing units 111 to 11n prepared corresponding to the plurality of cameras CM1 to CMn, a score assignment processing unit 12, and a score assignment processing unit 12 as processing functions necessary for implementing one embodiment. , a viewpoint video selection processing section 13, and a distribution video transmission processing section 14. These processing units 111 to 11n and 12 to 14 are all realized by causing the hardware processor of the control unit 1 to execute an application program stored in the program storage unit 2.
  • processing units 111 to 11n and 12 to 14 may be realized using hardware such as LSI (Large Scale Integration) or ASIC (Application Specific Integrated Circuit).
  • the camera video acquisition processing units 111 to 11n each receive live video data transmitted in real time from the cameras CM1 to CMn via the communication I/F unit 4, and store the received live video data in the corresponding camera video storage unit. 311 to 31n sequentially.
  • the scoring processing unit 12 extracts scene images at respective time positions at predetermined time intervals from each of the above-mentioned live image data received by the camera image acquisition processing units 111 to 11n, and performs processing on each of the extracted scene images.
  • a learning model is used to assign scores.
  • the score assignment processing section 12 stores list data of scores assigned for each scene video of each of the video data in the score data storage section 33.
  • the viewpoint video selection processing unit 13 selects a score value represented by the score list data stored in the score data storage unit 33 and a score value between each of the cameras CM1 to CMn for each same time position of each live video data. Based on the distance, the optimal camera is selected as the destination of the viewpoint, taking into consideration the high score value and the shortness of the viewpoint movement distance.
  • the distribution video transmission processing unit 14 stores the video data corresponding to the camera selected as the viewpoint movement destination by the viewpoint video selection processing unit 13 in the camera video storage unit 311 for each same time position of each of the live video data. Selectively read from ⁇ 31n. Then, the distribution video transmission processing unit 14 performs editing processing to connect the read video data in the time direction to generate distribution video data, and transmits the generated distribution video data from the communication I/F unit 4 in advance. It is distributed to the monitor devices MT1 to MTm of viewers who have registered for viewing.
  • FIG. 4 is a flowchart illustrating an example of the processing procedure and processing contents of video processing executed by the control unit 1 of the video processing device SV.
  • the control unit 1 of the video processing device SV monitors the start of event relay in step S1. In this state, when event relay is started, under the control of camera image acquisition processing units 111 to 11n, live image data transmitted in real time from each camera CM1 to CMn is transferred to communication I/F unit 4 in step S2. Receive each via. Then, the camera image acquisition processing units 111 to 11n sequentially store each of the received live image data in the corresponding camera image storage units 311 to 31n, respectively.
  • each live video data transmitted in real time from the cameras CM1 to CMn is stored in parallel in the camera video storage units 311 to 31n.
  • step S3 assigns a viewpoint to each of the above live video data.
  • the process of assigning a score representing the degree of attention to is performed as follows.
  • the scoring processing unit 12 first extracts scene images at respective time positions from each piece of live video data at predetermined time intervals. At this time, the above-mentioned time interval is set to an appropriate time such that the viewer does not feel uncomfortable when switching the viewpoint video, for example, 1 second, but is not limited to this.
  • the scoring processing unit 12 then extracts scene feature amounts from each of the extracted scene videos. Then, input the extracted feature amount to the learning model as an explanatory variable, obtain the score output as the objective variable from the learning model, and apply the obtained score to the time position of the scene video for each camera CM1 to CMn.
  • the score data is stored in the score data storage unit 33 in association with the .
  • FIG. 6 shows an example of the scores assigned to the scene video at each time position of the live video data, which is stored in the score data storage unit 33 corresponding to each camera CM1 to CMn.
  • the score data storage unit 33 corresponding to each camera CM1 to CMn.
  • the control unit 1 of the video processing device SV selects a viewpoint video to be provided to the viewer in step S4 as follows. do.
  • the viewpoint video selection processing section 13 selects the viewpoint video selection processing section 13 based on the score value represented by the score list data stored in the score data storage section 33 and the distances between the plurality of cameras CM1 to CMn for each time position. and select the optimal camera to move the viewpoint to.
  • the maximum distance between cameras CM1 to CM8 is the distance between directly facing cameras, for example, CM1 and CM5, and the viewpoint can be smoothly moved between this maximum distance.
  • the viewpoint video selection processing unit 13 delays the transmission timing of the distribution video by 4 seconds from the reception timing of the live video data, and uses this 4 seconds to select cameras so that the viewpoint position is moved in stages.
  • the viewpoint video selection processing unit 13 selects the scene video from the camera CM1 selected as the viewpoint at time position t-4 four seconds ago, for example, as shown in FIG. , a viewpoint movement schedule is set so that cameras are selected in the order of CM2, CM3, CM4, and CM5 at 1-second intervals.
  • the viewpoint video selection processing unit 13 updates the viewpoint movement schedule so as to select cameras in the order of, for example, camera CM2, CM3, CM3, CM4, and CM4.
  • the viewpoint video selection processing unit 13 determines that the viewpoint is moved to camera CM5 as shown in FIG.
  • the viewpoint movement schedule is maintained as follows.
  • the video delivered to the viewer will always be delayed by 4 seconds from the live video, but it will be possible to provide the viewer with a video with smooth viewpoint movement. Become. That is, while maintaining both temporal continuity and temporal consistency, it is possible to distribute the scene video at the time position t, which has the highest degree of attention within 4 seconds, without discarding it.
  • the distribution video transmission processing unit 14 edits and transmits the distribution video as follows. conduct.
  • step S5 the distribution video transmission processing unit 14 transmits the scene video corresponding to the camera specified as the viewpoint movement destination at the current distribution time position in the schedule according to the viewpoint movement schedule, and the corresponding camera video. Read from storage.
  • the movement destination at time position t is specified as camera CM5, so the scene image at time position t is read from the camera image storage unit 315 corresponding to camera CM5. . Then, the scene video being distributed at the time position t-1 one second ago is switched to the scene video at the time position t.
  • video editing processing may be performed, such as making changes in video at the time of switching more gradual.
  • step S6 the distribution video transmission processing unit 14 transmits the edited distribution video data from the communication I/F unit 4 to, for example, the monitor devices MT1 to MTm of the viewers who have been registered for viewing in advance. do.
  • step S7 The control unit 1 of the video processing device SV monitors the end of the event relay in step S7 while executing the series of event relay processing described above. If the event relay continues, the process returns to step S2 and repeats the series of event relay processing from step S2 to step S6 described above.
  • the control unit 1 of the video processing device SV transmits a control signal to turn off the power to the cameras CM1 to CMn, and then , the above series of event relay processing ends.
  • live video data transmitted from a plurality of cameras CM1 to CMn arranged at an event venue is received and stored in the camera video storage units 311 to 31n, and the received A score representing the degree of attention is given to each scene of each time position at predetermined time intervals to each piece of live video data.
  • a viewpoint movement schedule is generated based on the score and the distance between the cameras CM1 to CMn, and according to the generated viewpoint movement schedule, corresponding scenes are extracted from the camera video storage units 311 to 31n for each time position.
  • the video is read out and edited, and the generated distribution video data is transmitted to the viewers' monitor devices MT1 to MTm.
  • the viewpoint is The video is switched to the video of the above-mentioned scene with a high degree of attention. Therefore, it is possible to provide the viewer with a distributed video in which the viewpoint can be smoothly moved.
  • the timing of delivering video data to viewers is delayed by a certain amount of time relative to the timing of receiving live video data, the video delivery does not have to be temporarily stopped or fast-forwarded to adjust the time. This makes it possible to provide viewers with images of scenes of high interest while maintaining both temporal continuity and temporal coherence.
  • a learning model that has been trained in advance using past live video data is used for the scoring process.
  • the learning model may be further learned based on live video data received in this relay processing. By doing so, it is possible to further improve the accuracy of the score given.
  • the viewpoint when the distance from the currently selected camera to the camera to which the viewpoint is to be moved is large, the viewpoint is moved while sequentially selecting cameras arranged between the cameras one by one.
  • the viewpoint movement step is set.
  • the step of moving the viewpoint is not limited to one camera at a time, and may be set to move every other camera or every two cameras, for example.
  • the amount of movement of the viewpoint at one time according to the viewpoint movement schedule is based on the physical arrangement interval of cameras CM1 to CMn, that is, the amount of change in viewpoint between cameras CM1 to CMn. It can be set arbitrarily within a range that does not cause discomfort.
  • Each processing function included in the video processing device may be distributed and arranged in multiple devices.
  • the installation location of the video processing device, the processing procedure and content of event relay processing, the type of event to be relayed, the arrangement pattern of cameras, etc. can be modified in various ways without departing from the gist of the present invention. It is.
  • the present invention is not limited to the above-described embodiments as they are, but can be embodied by modifying the constituent elements at the implementation stage without departing from the spirit of the invention.
  • various inventions can be formed by appropriately combining the plurality of components disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiments. Furthermore, components from different embodiments may be combined as appropriate.
  • Viewpoint video selection processing unit 14 ...Distribution video transmission processing unit 311-31n...Camera video storage unit 32
  • Learning model storage unit 33...Score data storage unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

この発明の一態様は、撮影対象領域に向けて所定の配置パターンで配置された複数のカメラから出力される映像データをそれぞれ取得して記憶媒体に記憶すると共に、取得された前記各映像データに対し、それぞれ所定の時間間隔でその各時間位置のシーン映像ごとにその注目度を表すスコアを付与する。そして、前記スコアと、前記複数のカメラ相互間の配置距離とに基づいて、前記時間位置ごとに視点の移動先となるカメラを選択して、その選択順序を表す視点移動スケジュールを生成し、前記時間位置ごとに前記視点移動スケジュールに基づいて、前記視点の移動先となるカメラに対応するシーン映像を前記記憶媒体から読み出して配信映像データを生成し、視聴者に向け送信するようにしたものである。

Description

映像処理装置、方法およびプログラム
 この発明の一態様は、例えばスポーツ等のイベントの中継において、複数のカメラが撮影した映像を処理する映像処理装置、方法およびプログラムに関する。
 例えばスポーツ中継に使用される映像処理技術には、様々な技術がある。例えば、サッカー等の球技においては、ボールを自動追尾することで1台のカメラによる自動撮影を実現する技術が知られている。この技術は、AIカメラ等と呼ばれ、例えば以下のサイトで紹介されている。 
    Pixellot;インターネット<URL: https://www.pixellot.tv/>
    Veo;インターネット<URL: https://event.veo.co/>
 しかし、上記した自動撮影技術は、ボールを中心に広いフィールドを選手が移動するような球技には有効であるが、例えばボクシングや武道等の格闘技のように、ボールのような明確な追尾対象がなく、注目すべき対象が一意に定まりにくいスポーツの自動撮影には適用することが難しい。
 一方、撮影対象エリアを囲むように複数のカメラを配置し、これらのカメラにより撮影された複数の映像の中から任意の視点の映像を逐次選択することにより、例えば格闘技のように追跡対象が一意に定まりにくい競技においても、適切な視点が得られるようにする技術が提案されている(例えば非特許文献1を参照)。
 非特許文献1に記載された技術は、タイムスライス撮影法と呼ばれ、競技コート周辺に円形に配置された数十台のカメラでコート内を同期撮影し、各カメラ映像を逐次選択するものである。この撮影法を用いると、例えばボクシングの試合における決定的なパンチシーンを最も迫力のある視点から撮影した映像を視聴者に提供することが可能となる。また、隣り合うカメラの映像を順次選択することで、選手の周囲を回りながら視点を移動するような映像を視聴者に提供することもできる。
三ッ峰秀樹、「スポーツ映像表現技術の研究開発動向」、NHK放送技術研究所、NHK技研R&D 2019年1月号、[2022年6月16日検索]、インターネット<URL: https://www.nhk.or.jp/strl/publica/rd/173/2.html>
 ところで、複数のカメラを用いた任意視点映像の撮影法では、最も適切な視点、例えば迫力のある視点や周囲の選手に阻まれずに最も明確に対象が見える視点等へカメラ映像を切替える必要がある。しかし、切替前後のカメラ間の距離が大きい場合には、視点の移動速度が速くなって、視聴者は画面移動の目まぐるしさに疲れたり、あるいは画面酔いにより気分が悪くなる可能性がある。これに対し、視聴者の視認性を考慮して視点の移動速度を制限すると、次の視点に切り替わるまでに時間が掛かり、その間に視聴者が決定的な場面を見逃してしまう可能性がある。
 一方、例えば4DReplayと呼ばれる手法のように、視点の移動時に映像の再生を一時的に止め、これにより視点の移動速度を一定に保ちつつ決定的な場面を見逃さないようにする技術がある。しかし、例えばライブ映像を視聴しているときに映像を停止すると、視聴者は、映像を停止した時間分だけ映像を遅れて視聴することになる。この場合、上記映像の遅延を回復するには遅延分の時間を飛ばせばよいが、映像の時間的連続性を失うため、視聴者には違和感が生じてしまう。また、遅延時間分の映像を早回しすると、時間的一貫性を失うため、この場合も視聴者の違和感の発生は避けられない。
 また、一般的なスポーツ中継では、あるカメラから別のカメラへ瞬時に映像を切り替える、いわゆるカット割りを行うことにより、ライブ視聴を継続しつつ決定的な場面を見逃さないように配慮している。しかし、複数のカメラによる任意視点映像の視聴においてカット割りを用いると、視点をダイナミックに移動させるという、複数カメラを用いた撮影手法の本来の持ち味が失われてしまう。
 この発明は、上記事情に着目してなされたもので、時間的連続性および時間的一貫性を維持しつつ、適切な視点のライブ映像を視聴可能とする技術を提供しようとするものである。
 上記課題を解決するために、この発明に係る映像処理装置または映像処理方法の一態様は、撮影対象領域に対し所定の位置関係を有して配置された複数のカメラからそれぞれ映像データを取得して記憶媒体に記憶すると共に、取得された前記各映像データに対し、それぞれ所定の時間間隔でその各時間位置のシーン映像ごとにその注目度を表すスコアを付与する。そして、前記スコアと、前記複数のカメラ相互間の配置距離とに基づいて、前記時間位置ごとに視点の移動先となるカメラを選択して、その選択順序を表す視点移動スケジュールを生成し、前記時間位置ごとに前記視点移動スケジュールに基づいて、前記視点の移動先となるカメラに対応するシーン映像を前記記憶媒体から読み出して配信映像データを生成し、視聴者に向け送信するようにしたものである。
 この発明の一態様によれば、複数のカメラにより撮影された映像データの中で、時間位置ごとに注目度合いの高いシーンの映像を視点映像として選択してこれを視聴者に提供することができる。しかも、視点映像を注目度の高いシーンの映像に切り替える際に、切替前後のカメラ間の距離を考慮し、当該カメラ間に配置されている複数のカメラを段階的に経由することで、視点映像を上記注目度の高いシーンの映像に切り替えるようにしている。このため、視点の移動がスムーズな配信映像を視聴者に提供することが可能となる。
 すなわち、視聴者への映像データの配信タイミングがライブ映像データの受信タイミングに対し一定時間遅延するものの、映像の配信を一時的に停止したり時間調整のために早送りしたりすることがなく、これにより時間的連続性および時間的一貫性をいずれも維持した上で、注目度の高いシーンの映像を視聴者に提供することができる。
 この発明の一態様によれば、時間的連続性および時間的一貫性を維持しつつ、適切な視点のライブ映像を視聴可能とする技術を提供することができる。
図1は、この発明の一実施形態に係るイベント中継システムの構成の一例を示す図である。 図2は、図1に示したイベント中継システムで使用される映像処理装置のハードウェア構成の一例を示すブロック図である。 図3は、図1に示したイベント中継システムで使用される映像処理装置のソフトウェア構成の一例を示すブロック図である。 図4は、図3に示した映像処理装置の制御部が実行する映像処理手順と処理内容の一例を示すフローチャートである。 図5は、撮影対象エリアに対する複数台のカメラの配置構成の一例を示す図である。 図6は、複数台のカメラにより得られた各映像に対し付与されたスコアの一例を示す図である。 図7は、スコアデータに基づく視点の選択処理の第1の例を示す図である。 図8は、スコアデータに基づく視点の選択処理の第2の例を示す図である。 図9は、スコアデータに基づく視点の選択処理の第1の例を示す図である。
 以下、図面を参照してこの発明に係わる実施形態を説明する。
 [一実施形態]
 (構成例)
 (1)システム
 図1は、この発明の一実施形態に係るイベント中継システムの構成の一例を示す図である。
 一実施形態に係るイベント中継システムは、複数のカメラCM1~CMnによりそれぞれイベントの様子を撮影し得られた映像データを、ネットワークNWを介して映像処理装置SVへ伝送する。そして、映像処理装置SVにおいて、上記複数のカメラCM1~CMnから伝送された各映像データを選択的に編集することで配信映像データを生成し、生成した上記配信映像データをネットワークNWを介して視聴者のモニタ装置MT1~MTmへ配信するように構成される。
 複数のカメラCM1~CMnは、ボクシングや柔道等の格闘技を中継する場合には、図例えば5に示すように中継対象エリアであるリングREの周囲に、当該リングREを囲むように等間隔で配置される。この例では8台のカメラCM1~CM8を配置した場合を示している。
 カメラCM1~CMnは、例えばWebカメラからなり、上記リングRE上をそれぞれ決められた視点で撮影し、この撮影動作により得られたライブ映像データを、ネットワークNWを介して映像処理装置SVへ送信する。なお、カメラCM1~CMnには、視点および視野を調整するためにチルト・パン機能およびズーム機能が備えられていてもよい。
 ネットワークNWは、例えばインターネットを中核とする広域ネットワークと、この広域ネットワークにアクセスするためのアクセスネットワークとを備える。アクセスネットワークとしては、例えば、有線または無線を使用する公衆通信ネットワーク、有線または無線を使用するLAN(Local Area Network)、CATV(Cable Television)ネットワークが使用される。また、ネットワークNWには、地上波または衛星を使用する放送媒体が含まれていてもよい。
 モニタ装置MT1~MTmは、視聴者が所有するテレビジョン装置またはパーソナルコンピュータからなる。モニタ装置MT1~MTmは、ブラウザまたは放送受信用のチューナを備え、映像処理装置SVからネットワークNWを介して配信または放送される配信映像データを受信して表示する。
 (2)映像処理装置SV
 図2はこの発明の一実施形態に係る映像処理装置SVのハードウェア構成の一例を示すブロック図、図3は上記映像処理装置SVのソフトウェア構成の一例を示すブロック図である。
 映像処理装置SVは、例えばサーバコンピュータまたはパーソナルコンピュータ等の情報処理装置からなり、例えば放送局内またはイベント会場に配置される。なお、映像処理装置SVの機能を、Webまたはクラウド上に配置されたサーバコンピュータに設けるようにしてもよい。
 映像処理装置SVは、中央処理ユニット(Central Processing Unit:CPU)等のハードウェアプロセッサを使用した制御部1を備え、この制御部1に対し、バス5を介して、プログラム記憶部2およびデータ記憶部3を有する記憶ユニットと、通信インタフェース(以後インタフェースをI/Fと略称する)部4を接続したものとなっている。
 通信I/F部4は、上記カメラCM1~CMnからそれぞれ送信される映像データをネットワークNWを介して受信すると共に、編集後の配信映像データをネットワークNWを介して視聴者のモニタ装置MT1~MTmへ配信する。なお、通信I/F部4は、例えばカメラCM1~CMnのオン/オフや各種パラメータ調整のための制御信号をカメラCM1~CMnへ送信する場合にも使用される。
 プログラム記憶部2は、例えば、記憶媒体としてSSD(Solid State Drive)等の随時書込みおよび読出しが可能な不揮発性メモリと、ROM(Read Only Memory)等の不揮発性メモリとを組み合わせて構成したもので、OS(Operating System)等のミドルウェアに加えて、一実施形態に係る各種制御処理を実行するために必要なアプリケーション・プログラムを格納する。なお、以後OSと各アプリケーション・プログラムとをまとめてプログラムと称する。
 データ記憶部3は、例えば、記憶媒体として、SSD等の随時書込みおよび読出しが可能な不揮発性メモリと、RAM(Random Access Memory)等の揮発性メモリと組み合わせたもので、その記憶領域には、各カメラCM1~CMnに対応する複数のカメラ映像記憶部31~3nと、学習モデル記憶部32と、スコアデータ記憶部33が設けられている。
 カメラ映像記憶部31~3nは、それぞれカメラCM1~CMnからリアルタイムに送信されたライブ映像データを蓄積する。
 学習モデル記憶部32は、スコア付与処理に使用する学習モデルを記憶する。学習モデルは、例えば対象イベントに係る過去の複数の配信映像を学習データとして用い、当該配信映像の各シーンに対し、視点としての注目度を表すスコアを正解データとして設定することにより生成される。視点の注目度は、例えば瞬間視聴率や、歓声の大きさ等に基づく盛り上がり度合い等により定義可能であるが、被写体の動きの変化量や速さ等のその他の特徴量に基づいて定義されてもよい。
 スコアデータ記憶部33は、各カメラCM1~CMnから送信されたライブ映像データに対しシーンごとに付与されたスコアの一覧データを記憶する。
 制御部1は、一実施形態を実施するために必要な処理機能として、複数のカメラCM1~CMnに対応して用意される複数のカメラ映像取得処理部111~11nと、スコア付与処理部12と、視点映像選択処理部13と、配信映像送信処理部14とを備える。これらの処理部111~11n,12~14は、何れもプログラム記憶部2に格納されたアプリケーション・プログラムを制御部1のハードウェアプロセッサに実行させることにより実現される。
 なお、上記各処理部111~11n,12~14の一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアを用いて実現されてもよい。
 カメラ映像取得処理部111~11nは、カメラCM1~CMnからリアルタイムに送信されるライブ映像データを通信I/F部4を介してそれぞれ受信し、受信した上記ライブ映像データを対応するカメラ映像記憶部311~31nに順次記憶する。
 スコア付与処理部12は、上記カメラ映像取得処理部111~11nにより受信された上記各ライブ映像データからそれぞれ所定の時間間隔で各々の時間位置におけるシーン映像を抽出し、抽出した各シーン映像に対し学習モデルを用いてスコアを付与する。そして、スコア付与処理部12は、上記各映像データのシーン映像ごとに付与したスコアの一覧データをスコアデータ記憶部33に記憶する。
 視点映像選択処理部13は、各ライブ映像データの同一の時間位置ごとに、上記スコアデータ記憶部33に記憶されたスコアの一覧データにより表されるスコア値と、各カメラCM1~CMn相互間の距離とに基づいて、スコア値の高さと視点移動距離の少なさを考慮して、視点の移動先として最適なカメラを選択する。
 なお、上記スコアの付与処理および視点映像選択処理の一例は、動作例において説明する。
 配信映像送信処理部14は、上記各ライブ映像データの同一の時間位置ごとに、上記視点映像選択処理部13により視点の移動先として選択されたカメラに対応する映像データを、カメラ映像記憶部311~31nから選択的に読み出す。そして、配信映像送信処理部14は、読み出した上記映像データを時間方向に接続する編集処理を行って配信映像データを生成し、生成した上記配信映像データを通信I/F部4から、事前に視聴登録された視聴者のモニタ装置MT1~MTmに向け配信する。
 (動作例)
 次に、以上のように構成された映像処理装置SVの動作例を説明する。
 図4は、映像処理装置SVの制御部1が実行する映像処理の処理手順と処理内容の一例を示すフローチャートである。
 (1)ライブ映像データの取得および記憶
 映像処理装置SVの制御部1は、ステップS1においてイベント中継の開始を監視する。この状態で、イベント中継が開始されると、カメラ映像取得処理部111~11nの制御の下、ステップS2において、各カメラCM1~CMnからリアルタイムに送信されるライブ映像データを通信I/F部4を介してそれぞれ受信する。そして、カメラ映像取得処理部111~11nは、受信した上記各ライブ映像データをそれぞれ対応するカメラ映像記憶部311~31nに順次記憶する。
 かくして、カメラ映像記憶部311~31nには、カメラCM1~CMnからそれぞれリアルタイムに送信される各ライブ映像データが並行して蓄積される。
 (2)スコアの付与
 上記ライブ映像データの受信が開始されると、映像処理装置SVの制御部1は、スコア付与処理部12の制御の下、ステップS3において、上記各ライブ映像データに対し視点の注目度を表すスコアを付与する処理を以下のように実行する。
 すなわち、スコア付与処理部12は、先ず各ライブ映像データからそれぞれ所定の時間間隔でそれぞれの時間位置におけるシーン映像を抽出する。このとき、上記時間間隔は、視点映像を切り替える際に視聴者が違和感を生じないような適切な時間、例えば1秒に設定されるが、この限りではない。
 スコア付与処理部12は、続いて、抽出した上記各シーン映像からそれぞれシーンの特徴量を抽出する。そして、抽出した上記特徴量を学習モデルに説明変数として入力し、学習モデルから目的変数として出力されるスコアを取得して、取得した上記スコアをカメラCM1~CMnごとに、上記シーン映像の時間位置に対応付けてスコアデータ記憶部33に記憶する。
 図6は、各カメラCM1~CMnに対応してスコアデータ記憶部33に記憶される、ライブ映像データの各時間位置におけるシーン映像に付与されたスコアの一例を示すものである。この例では、図5に示したようにリングREを取り囲むように等間隔で配置された8台のカメラCM1~CM8の各々について、時間位置t-n,…,t-1,tごとにスコアを記憶した場合を示している。なお、同図においてスコアは、値が高いほど注目度が高いことを表している。
 (3)視点映像の選択
 映像処理装置SVの制御部1は、次に視点映像選択処理部13の制御の下、ステップS4において、視聴者に提供すべき視点映像の選択を以下のように実行する。
 すなわち、視点映像選択処理部13は、上記時間位置ごとに、スコアデータ記憶部33に記憶されたスコアの一覧データにより表されるスコア値と、複数のカメラCM1~CMn相互間の距離とに基づいて、視点の移動先として最適なカメラを選択する。
 例えば、図5に示した場合を例にとると、カメラCM1~CM8間の最大距離は正対するカメラ、例えばCM1とCM5との間の距離であり、視点をこの最大距離間でスムーズに移動させようとすると、視点をカメラCM1から、CM2、CM3、CM4、CM5の順に段階的に移動させる必要がある。いま例えば1回の視点移動に要する時間を1秒とすると、上記移動パターンで視点をカメラCM5まで移動させるには、少なくとも4秒が必要となる。
 そこで、視点映像選択処理部13は、配信映像の送信タイミングをライブ映像データの受信タイミングより4秒遅らせ、この4秒間を利用して段階的に視点位置が移動するようにカメラを選択する。
 例えば、図6の例では、最新の時間位置tにおいて各カメラCM1~CM8から受信されたシーン映像の中で、カメラCM5のシーン映像のスコア(0.89)が最も高い。このスコアが最大のシーン映像を視点として選択するには、視点映像選択処理部13は、例えば図7に示すように、4秒前の時間位置t-4において視点として選択しているカメラCM1から、1秒間隔でCM2、CM3、CM4、CM5の順にカメラを選択するように、視点移動スケジュールを設定する。
 また、次の時間位置t+1において、例えば図8に示すように、上記カメラCM5のスコア(0.89)よりスコアが(0.92)と高いカメラCM4が見つかったとする。この場合、視点映像選択処理部13は、図8に示すように、視点を例えばカメラCM2から、CM3、CM3、CM4、CM4の順にカメラを選択するように、視点移動スケジュールを更新する。
 一方、例えば図9に示すように、次の時間位置t+1における最大スコアがカメラCM3の(0.88)だったとする。この場合、視点映像選択処理部13は、上記カメラCM3のスコア(0.88)よりカメラCM5のスコア(0.89)の方が高いので、図9に示すように視点の移動先がカメラCM5となる視点移動スケジュールを維持する。
 以上ように視点移動スケジュールを設定すると、視聴者に配信される映像はライブ映像に対し常時4秒遅延することになるものの、視点の移動がスムーズな配信映像を視聴者に提供することが可能となる。すなわち、時間的連続性および時間的一貫性をいずれも維持した上で、4秒間の中で最も注目度の高い時間位置tにおけるシーン映像を捨てることなく配信することが可能となる。
 (4)配信映像の編集および送信
 時間位置ごとに、上記視点映像選択処理部13から視点移動スケジュールが出力されると、配信映像送信処理部14が以下のように配信映像の編集および送信処理を行う。
 すなわち、配信映像送信処理部14は、先ずステップS5において、上記視点移動スケジュールに従い、当該スケジュールにおいて現在の配信時間位置の視点移動先として指定されているカメラに対応するシーン映像を、対応するカメラ映像記憶部から読み出す。
 例えば、先に図7に示した視点移動スケジュールでは、時間位置tにおける移動先はカメラCM5と指定されているので、カメラCM5に対応するカメラ映像記憶部315から上記時間位置tにおけるシーン映像を読み出す。そして、1秒前の時間位置t-1において配信中のシーン映像を、上記時間位置tにおけるシーン映像に切り替える。その際、シーン映像間の連続性をより高めるために、切替時の映像の変化を緩やかにする等の映像の編集処理が行われてもよい。
 配信映像送信処理部14は、続いてステップS6において、上記編集後の配信映像データを、通信I/F部4から、例えば事前に視聴登録されている視聴者のモニタ装置MT1~MTmに向け送信する。
 (5)イベント中継の終了
 映像処理装置SVの制御部1は、以上述べた一連のイベント中継処理を実行しながら、ステップS7においてイベント中継の終了監視を行う。そして、イベント中継が続いている場合には、ステップS2に戻って先に述べたステップS2~ステップS6による一連のイベント中継処理を繰り返す。
 これに対し、例えば管理者の端末からイベント中継の終了指示が入力されると、映像処理装置SVの制御部1は、例えばカメラCM1~CMnに対し電源をオフするための制御信号を送信した後、上記一連のイベント中継処理を終了する。
 (作用・効果)
 以上述べたように一実施形態では、イベント会場に配置された複数のカメラCM1~CMnから送信されるライブ映像データをそれぞれ受信してカメラ映像記憶部311~31nに記憶すると共に、受信された上記各ライブ映像データに対し所定の時間間隔でその各時間位置のシーンごとに注目度を表すスコアを付与する。そして、上記スコアと、上記カメラCM1~CMn相互間の距離に基づいて、視点移動スケジュールを生成し、生成した上記視点移動スケジュールに従い、時間位置ごとに上記カメラ映像記憶部311~31nから対応するシーン映像を読み出して編集し、これにより生成された配信映像データを視聴者のモニタ装置MT1~MTmに向け送信するようにしている。
 従って、複数のカメラCM1~CMnにより撮影されたライブ映像データの中で、時間位置ごとに注目度合いの高いシーンの映像を視点映像として選択してこれを視聴者に提供することができる。しかも、視点映像を注目度の高いシーンの映像に切り替える際には、切替前後のカメラ間の距離を考慮して、当該カメラ間に配置されている複数のカメラを段階的に経由して、視点映像を上記注目度の高いシーンの映像に切り替えるようにしている。このため、視点の移動がスムーズな配信映像を視聴者に提供することが可能となる。
 すなわち、視聴者への映像データの配信タイミングがライブ映像データの受信タイミングに対し一定時間遅延するものの、映像の配信を一時的に停止したり時間調整のために早送りしたりすることがなく、これにより時間的連続性および時間的一貫性をいずれも維持した上で、注目度の高いシーンの映像を視聴者に提供することができる。
 [その他の実施形態]
 (1)一実施形態では、スコアの付与処理のために、過去のライブ映像データを用いて事前に学習を行った学習モデルを用いている。しかし、イベント中継処理を行いながらこの中継処理で受信したライブ映像データをもとに上記学習モデルをさらに学習するようにしてもよい。このようにすることで、付与されるスコアの精度をさらに高めることが可能となる。
 (2)また、学習モデルの学習のために十分な映像データが得られない場合には、オブジェクト検出YOLO(You Look Only Once)等の深層学習、例えば畳み込みニューラルネットワークを用いて、シーン映像から特徴量を抽出するようにしてもよい。この手法を用いることで、シーン映像中から被写体領域を抽出し、被写体領域の重複が少なくかつ画面の手前側にある被写体領域の映像を、注目度合いの高い視点映像として抽出することが可能となる。
 (3)一実施形態では、現在選択中のカメラから視点の移動先となるカメラまでの距離が大きい場合に、上記カメラ間に配置されるカメラを1台ずつ順に選択しながら視点を移動させるように視点の移動ステップを設定している。しかし、視点の移動ステップは、カメラ1台ずつに限るものではなく、例えば1台置きまたは2台置きというように複数台ごとに移動するように設定してもよい。要するに、視点移動スケジュールによる1回の視点の移動量は、カメラCM1~CMnの物理的な配置間隔、すなわちカメラCM1~CMn間の視点の変化量に基づいて、一般的な視聴者が視点の変化に違和感を覚えない範囲で、任意に設定可能である。
 (4)映像処理装置が備える各処理機能は複数台の装置に分散配置してもよい。その他、映像処理装置の設置場所や、イベント中継処理の処理手順と処理内容、中継対象のイベントの種類、カメラの配置パターン等についても、この発明の要旨を逸脱しない範囲で種々変形して実施可能である。
 以上、この発明の実施形態を詳細に説明してきたが、前述までの説明はあらゆる点においてこの発明の例示に過ぎない。この発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、この発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。
 要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
 SV…映像処理装置
 CM1~CMn…カメラ
 MT1~MTm…モニタ装置
 NW…ネットワーク
 1…制御部
 2…プログラム記憶部
 3…データ記憶部
 4…通信I/F部
 5…バス
 111~11n…カメラ映像取得処理部
 12…スコア付与処理部
 13…視点映像選択処理部
 14…配信映像送信処理部
 311~31n…カメラ映像記憶部
 32…学習モデル記憶部
 33…スコアデータ記憶部
 

Claims (7)

  1.  撮影対象領域に対し所定の位置関係を有して配置された複数のカメラからそれぞれ映像データを取得し、取得した各映像データを記憶媒体に記憶する第1の処理部と、
     前記各映像データに対し、それぞれ所定の時間間隔でその各時間位置のシーン映像ごとにその注目度を表すスコアを付与する第2の処理部と、
     前記スコアと、前記複数のカメラ間の配置距離とに基づいて、前記時間位置ごとに視点の移動先となるカメラを選択して、その選択順序を表す視点移動スケジュールを生成する第3の処理部と、
     前記時間位置ごとに、前記視点移動スケジュールに基づいて、前記視点の移動先となるカメラに対応するシーン映像を前記記憶媒体から読み出し、読み出した前記シーン映像をもとに配信映像データを生成して、当該配信映像データを視聴者に向け送信する第4の処理部と
     を具備する映像処理装置。
  2.  前記第3の処理部は、前記時間位置ごとに、前記複数のカメラの中から前記スコアが最も高いカメラを前記視点の移動先として選択し、現在選択中の第1のカメラと前記移動先となる第2のカメラとの間に少なくとも1つの第3のカメラが介在配置されている場合に、前記視点移動スケジュールを、前記第1のカメラから前記第3のカメラを経て前記第2のカメラが順に選択されるように生成する、請求項1に記載の映像処理装置。
  3.  前記第3の処理部は、新たな時間位置において、前記視点移動スケジュールにより移動先として定義されている前記第2のカメラより、前記スコアの高い第4のカメラが検出された場合に、前記第4のカメラを前記視点の移動先とするように前記視点移動スケジュールを更新する、請求項2に記載の映像処理装置。
  4.  前記第3の処理部は、新たな時間位置において、前記視点移動スケジュールにより移動先として定義されている前記第2のカメラより、前記スコアの低い第5のカメラが検出された場合には、前記視点移動スケジュールを変更せずに維持する、請求項2に記載の映像処理装置。
  5.  前記第2の処理部は、前記映像データから前記時間位置ごとに抽出される前記シーン映像の特徴量を説明変数として入力し、前記特徴量の注目度を表す前記スコアを目的変数として出力する学習モデルを使用する、請求項1に記載の映像処理装置。
  6.  情報処理装置が実行する映像処理方法であって、
     撮影対象領域に対し所定の位置関係を有して配置された複数のカメラからそれぞれ映像データを取得し、取得した各映像データを記憶媒体に記憶する過程と、
     取得された前記各映像データに対し、それぞれ所定の時間間隔でその各時間位置のシーン映像ごとにその注目度を表すスコアを付与する過程と、
     前記スコアと、前記複数のカメラ相互間の配置距離とに基づいて、前記時間位置ごとに視点の移動先となるカメラを選択して、その選択順序を表す視点移動スケジュールを生成する過程と、
     前記時間位置ごとに、前記視点移動スケジュールに基づいて、前記視点の移動先となるカメラに対応するシーン映像を前記記憶媒体から読み出し、読み出した前記シーン映像をもとに配信映像データを生成して、当該配信映像データを視聴者に向け送信する過程と
     を具備する映像処理方法。
  7.  請求項1乃至5のいずれかに記載の映像処理装置が具備する第1の処理部乃至第4の処理部の少なくとも1つが実行する処理を、前記映像処理装置が備えるプロセッサに実行させるプログラム。
PCT/JP2022/028990 2022-07-27 2022-07-27 映像処理装置、方法およびプログラム WO2024023982A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/028990 WO2024023982A1 (ja) 2022-07-27 2022-07-27 映像処理装置、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/028990 WO2024023982A1 (ja) 2022-07-27 2022-07-27 映像処理装置、方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2024023982A1 true WO2024023982A1 (ja) 2024-02-01

Family

ID=89705667

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/028990 WO2024023982A1 (ja) 2022-07-27 2022-07-27 映像処理装置、方法およびプログラム

Country Status (1)

Country Link
WO (1) WO2024023982A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013106324A (ja) * 2011-11-16 2013-05-30 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2016123069A (ja) * 2014-12-25 2016-07-07 パナソニックIpマネジメント株式会社 映像配信方法、映像受信方法、サーバ及び端末装置
JP2016213808A (ja) * 2015-04-29 2016-12-15 パナソニックIpマネジメント株式会社 カメラ選択方法及び映像配信システム
JP2017208702A (ja) * 2016-05-18 2017-11-24 キヤノン株式会社 情報処理装置及びその制御方法、撮影システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013106324A (ja) * 2011-11-16 2013-05-30 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2016123069A (ja) * 2014-12-25 2016-07-07 パナソニックIpマネジメント株式会社 映像配信方法、映像受信方法、サーバ及び端末装置
JP2019220994A (ja) * 2014-12-25 2019-12-26 パナソニックIpマネジメント株式会社 映像配信方法及びサーバ
JP2016213808A (ja) * 2015-04-29 2016-12-15 パナソニックIpマネジメント株式会社 カメラ選択方法及び映像配信システム
JP2017208702A (ja) * 2016-05-18 2017-11-24 キヤノン株式会社 情報処理装置及びその制御方法、撮影システム

Similar Documents

Publication Publication Date Title
JP7123523B2 (ja) 自動的にテレビ番組を制作する方法及びシステム
US9751015B2 (en) Augmented reality videogame broadcast programming
US8665374B2 (en) Interactive video insertions, and applications thereof
US9794541B2 (en) Video capture system control using virtual cameras for augmented reality
JP6385139B2 (ja) 情報処理装置、情報処理方法及びプログラム
US10666861B2 (en) Method and system for producing a video production
US20080178232A1 (en) Method and apparatus for providing user control of video views
WO2018094443A1 (en) Multiple video camera system
US8885022B2 (en) Virtual camera control using motion control systems for augmented reality
JP2002271693A (ja) 画像処理装置、画像処理方法、及び制御プログラム
CN111355966A (zh) 环绕自由视角直播方法及系统
CN103051830A (zh) 一种对所拍目标多角度实时转播的系统和方法
KR102239134B1 (ko) 드론에 부착된 vr 카메라를 이용하여 촬영한 운동 경기 영상을 제공하는 방송 시스템
WO2016139898A1 (ja) ビデオ処理装置、ビデオ処理システムおよびビデオ処理方法
US11317073B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
KR100328482B1 (ko) 인터넷을 통한 중계방송 시스템
WO2024023982A1 (ja) 映像処理装置、方法およびプログラム
JP2012151688A (ja) 映像再生装置及びその制御方法、プログラム並びに記憶媒体
KR101943554B1 (ko) 스포츠 경기 정보 제공 방법 및 시스템
US10076709B1 (en) Game state-sensitive selection of media sources for media coverage of a sporting event
KR102149005B1 (ko) 객체 속도 계산 및 표시 방법 및 장치
KR102063495B1 (ko) 멀티미디어 콘텐츠 처리를 위한 장치 및 제어방법
KR101164895B1 (ko) 주자관점의 야구경기 영상 생성 장치 및 그 방법의 기록매체
KR102124194B1 (ko) 영상분석을 위한 다채널 영상 전송 시스템 및 이의 제어 방법
KR100811022B1 (ko) 방송카메라와 연동된 주문형 방송서비스방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22953076

Country of ref document: EP

Kind code of ref document: A1