WO2022137606A1 - 管理サーバ - Google Patents

管理サーバ Download PDF

Info

Publication number
WO2022137606A1
WO2022137606A1 PCT/JP2021/022285 JP2021022285W WO2022137606A1 WO 2022137606 A1 WO2022137606 A1 WO 2022137606A1 JP 2021022285 W JP2021022285 W JP 2021022285W WO 2022137606 A1 WO2022137606 A1 WO 2022137606A1
Authority
WO
WIPO (PCT)
Prior art keywords
distribution
camera
video
management server
user
Prior art date
Application number
PCT/JP2021/022285
Other languages
English (en)
French (fr)
Inventor
宗久 岡田
Original Assignee
株式会社エイリアンミュージックエンタープライズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エイリアンミュージックエンタープライズ filed Critical 株式会社エイリアンミュージックエンタープライズ
Priority to US18/258,318 priority Critical patent/US20240031618A1/en
Priority to JP2022571018A priority patent/JP7344610B2/ja
Publication of WO2022137606A1 publication Critical patent/WO2022137606A1/ja
Priority to JP2023113961A priority patent/JP2023133328A/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection

Definitions

  • This disclosure relates to a management server connected to a user terminal and a distributor terminal via a network.
  • the distributor when watching a live concert video delivered online, the distributor can switch the video taken by multiple cameras so that the user can watch the video from multiple viewpoints.
  • Patent Document 1 discloses a system that acquires audio data obtained when video data is acquired and appropriately processes the audio data according to the situation of the video data.
  • the inventor of the present application appropriately visualizes the sound of a live concert actually heard at the position of the camera and the image corresponding to the position of the camera on the user terminal. Recognized the issue of not being able to provide.
  • An object of the present disclosure is to provide a management server capable of matching the image at the position of the shooting target by the camera and the sound corresponding to the position of the shooting target according to the position of the shooting target.
  • the present disclosure is a management server connected to a user terminal and a distributor terminal via a network, and is a camera extraction unit that receives a desired camera selected by the user by operating the user terminal from the user terminal.
  • the voice extraction unit that receives the voice generation data obtained by the microphone from the voice corresponding to the shooting target shot by the desired camera from the distributor terminal, and the video generation data corresponding to the shooting target are distributed. Distribution delivered to the user terminal by calculating the distance between the video extraction unit received from the user terminal and the desired camera to the shooting target, and multiplying the voice generation data by a coefficient determined according to the distance. It has a distribution audio generation unit that generates a distribution audio unit, a distribution video generation unit that generates a distribution video to be distributed to the user terminal based on the image to be photographed and the distribution audio.
  • the management server can distribute the sound heard at the position of the desired camera together with the image corresponding to the position of the desired camera, and provide the sound at the position of the shooting target to be shot by the camera.
  • FIG. 1 It is a figure which shows the outline of the configuration example of the live screen providing system in one Embodiment of this invention.
  • (A) is a diagram showing an outline of user information stored in a user information storage unit of a management server according to an embodiment of the present invention, and (b) is a diagram showing an outline of desired distribution screen information.
  • (A) is a diagram showing an outline of distributor information stored in a distributor information storage unit of a management server according to an embodiment of the present invention, and (b) is a diagram showing an outline of voice generation data. be.
  • FIG. 1 It is a figure which shows the outline of the distributor information acquisition processing and the distributor information storage processing in one Embodiment of this invention.
  • (A) is a plan view of the stage and the venue when the video to be delivered is a live concert, and (b) is the position information of each camera, the distance from each camera to each microphone, and the audio track coefficient.
  • a chart showing the relationship between the above and (c) is a diagram showing an outline of the process of calculating the distribution audio.
  • FIG. 1 is a diagram showing an outline of a configuration example of a live screen providing system 30 according to an embodiment of the present invention.
  • the live screen providing system 30 has a user terminal 100, a distributor terminal 110, and a management server 120 connected to the user terminal 100 and the distributor terminal 110 via a network.
  • Networks include those that are built either wirelessly or wired, and those that are built both wirelessly and wiredly.
  • a plurality of user terminals 100 can be connected to the management server 120, but FIG. 1 shows a single user terminal 100 for convenience.
  • the management server 120 includes a control circuit 120A, a user information storage unit 130, a distributor information storage unit 131, a distribution audio storage unit 132, a distribution video storage unit 133, a distribution screen storage unit 134, and a distribution unit. It has an audio generation unit 140, a distribution video generation unit 150, a distribution screen generation unit 160, a distribution screen providing unit 170, and a video switching unit 180.
  • the control circuit 120A is a computer having a communication unit, an input port, an output port, a central processing unit, a comparison circuit, and the like.
  • the signal transmitted from the user terminal 100 and the distributor terminal 110 is input to the input port via the communication unit.
  • the signal output from the control circuit 120A is transmitted to the user terminal 100 and the distributor terminal 110 via the output port and the communication unit.
  • the signal is an electrical signal including information, data, video, image, sound, and the like.
  • Control circuit 120A user information storage unit 130, distributor information storage unit 131, distribution audio storage unit 132, distribution video storage unit 133, distribution screen storage unit 134, distribution audio generation unit 140, distribution video generation unit. Signals are exchanged between the 150, the distribution screen generation unit 160, the distribution screen providing unit 170, and the video switching unit 180.
  • the control circuit 120A includes a user information storage unit 130, a distributor information storage unit 131, a distribution audio storage unit 132, a distribution video storage unit 133, a distribution screen storage unit 134, a distribution audio generation unit 140, and a distribution video generation unit.
  • 150, the distribution screen generation unit 160, the distribution screen providing unit 170, and the video switching unit 180 are controlled, managed, and monitored.
  • the user information storage unit 130 stores user information 200 (described later, FIG. 2) transmitted from the user terminal 100.
  • the distributor information storage unit 131 stores the distributor information 300 (described later, FIG. 3) transmitted from the distributor terminal 110.
  • the distribution audio storage unit 132 stores distribution audio 800 (described later, FIGS. 7 and 8).
  • the distribution video storage unit 133 stores the distribution video 900 (described later, FIG. 9).
  • the distribution screen storage unit 134 stores a distribution screen 1000 (described later, FIG. 10) and a screen after switching 1300 (described later, FIG. 13).
  • the distribution voice generation unit 140 extracts the desired camera 220 based on the user information 200 stored in the user information storage unit 130, acquires the distributor information 300 from the distributor terminal 110, and obtains the distributor information 300 from the distributor information 300.
  • the voice generation data 310 is extracted, the camera position information and the microphone position information corresponding to the desired camera 220 are extracted from the voice generation data 310, and each microphone is used based on the camera position information and the microphone position information.
  • Calculate the distance calculate the inverse of the number obtained by dividing the distance from each microphone by the distance from the vocal microphone as the audio track coefficient, and multiply the audio track coefficient by the volume of the track sound collected by each microphone.
  • the audio 800 for distribution is generated by mixing the sound of each track.
  • the distribution video generation unit 150 generates the distribution video 900 based on the distributor information 300 acquired with reference to the desired camera 220 and the distribution audio 800.
  • the distribution screen generation unit 160 generates the distribution screen 1000 based on the distribution audio 800 and the distribution video 900.
  • the distribution screen providing unit 170 provides the generated distribution screen 1000 to the user terminal 100.
  • FIG. 2A is a diagram showing an outline of a configuration example of user information 200 stored in the user information storage unit 130 of the management server 120 according to the embodiment of the present invention.
  • the user information 200 is composed of items such as a user ID, a user name, an age, an address, a viewing history, and desired distribution screen information 210.
  • the user ID indicates a code for the management server 120 to identify the user.
  • the user name indicates the name of the user.
  • the address indicates the user's address.
  • FIG. 2B is a diagram showing an outline of a configuration example of the desired distribution screen information 210 of the management server 120 according to the embodiment of the present invention.
  • the desired distribution screen information 210 indicates information such as a desired ID, a viewing date and time, a distributor ID, a distribution screen ID, and a desired camera 220.
  • the desired ID indicates a code for the management server 120 to identify the user's wishes.
  • the viewing date and time indicates the date and time when the user desires to view the distribution screen 1000 (details will be described later).
  • the distributor ID indicates a code for identifying the distributor.
  • the distribution screen ID indicates a code for identifying the distribution screen 1000.
  • the “desired camera 220” indicates a camera at a shooting position desired by the user among a plurality of cameras that are shooting a video to be viewed on the distribution screen 1000.
  • the desired camera 220 is selected by the user by operating the user terminal 100.
  • the desired camera 220 includes a camera (Ct) that shoots the entire stage as shown in FIG. 7 (a), a camera (Cb) that shoots with the vocalist up, a camera (Cg) that shoots with the guitarist up, and the like. Indicates a camera selected by the user from the cameras. That is, for example, when the user wants to view the image taken by the "camera that shoots the entire stage" (Ct), the desired camera 220 at this time is "Ct".
  • the positions of the cameras Ct, Cb, and Cg in the venue 700 are different from each other.
  • FIG. 3 is a diagram showing an outline of the distributor information 300 stored in the distributor information storage unit 131 of the management server 120 according to the embodiment of the present invention.
  • the distributor information 300 is composed of items such as a distributor ID, a distributor name, distribution screen information, audio generation data 310, and video generation data.
  • the distributor ID indicates a code for the management server 120 to identify the distributor.
  • the distributor name indicates the name of the distributor.
  • the distribution screen information indicates information such as a distribution screen ID and a distribution date and time.
  • the video generation data indicates information for the management server 120 to generate a video to be displayed on the distribution screen 1000.
  • the image generation data includes various data such as information about a camera corresponding to the desired camera 220, an image of a shooting target, and image quality related to the image.
  • the shooting target can also be defined as a shooting target.
  • the voice generation data 310 is composed of items such as data ID, microphone information, microphone position information, camera information, and camera position information.
  • the data ID indicates a code for the management server 120 to identify the voice generation data 310.
  • the microphone information indicates information such as the type of microphone used for distribution by the distributor, the sound collection target, the name of the microphone, and the attributes.
  • the microphone information of the microphones is for Vo shown in FIG. 7 (a).
  • the microphone (vocal microphone) 10 is indicated as "for Vo”
  • the Gt microphone 11 is indicated as “for Gt”
  • the Ba microphone 12 is indicated as “for Ba”
  • the Dr microphone 13 is indicated as "for Dr”, and the like.
  • the positions of the Vo microphone 10, the Gt microphone 11, the Ba microphone 12, and the Dr microphone 13 are different in the venue 700.
  • Microphone position information indicates information about the position of the microphone.
  • the camera information indicates information such as the type of camera used for distribution by the distributor, the shooting target, the name of the camera, and the attributes. For example, if the cameras used by the distributor for distribution are five cameras that shoot the entire stage, vocalist, guitarist, bassist, and drummer, the camera information of the cameras is "Ct”, “Cv”, and “Cv”. It is indicated as “Cb”, "Cd” and the like.
  • Camera position information indicates information about the position of the camera.
  • the management server 120 can calculate the distance to each microphone for any camera. Then, by using the calculated distance, the management server 120 can generate the distribution voice 800 (details will be described later).
  • FIG. 4 is a diagram showing an outline of the entire process according to the embodiment of the present invention.
  • step S401 the management server 120 performs user information acquisition processing and user information storage processing (described later in FIG. 5).
  • step S402 the management server 120 performs a distributor information acquisition process and a distributor information storage process (described later in FIG. 6).
  • step S403 the management server 120 performs a distribution voice generation process (described later in FIGS. 7 and 8).
  • step S404 the management server 120 performs a distribution video generation process (described later in FIG. 9).
  • step S405 the management server 120 performs a distribution screen generation process and a distribution screen storage process (described later in FIGS. 10 and 11).
  • step S406 the management server 120 performs a distribution screen provision process (described later in FIG. 12).
  • step S407 when the user switches the video, in step S407, the management server 120 performs the video switching process (described later in FIGS. 13 and 14).
  • step S408 the management server 120 performs a screen provision process (described later in FIG. 15) after switching.
  • FIG. 5A is a diagram showing an outline of the user information storage process performed in step S401 of FIG.
  • the management server 120 stores the user information 200
  • step S501 the management server 120 provides the user information input screen to the user terminal 100.
  • step S502 the user terminal 100 causes the user information input screen to be displayed on the display 100A.
  • the user terminal 100 receives the input of the user information 200 from the user in step S503.
  • the user information 200 received from the user at this time includes the desired distribution screen information 210.
  • the information input by the user may include login information of an external account (SNS or the like) or a password.
  • step S504 the user terminal 100 transmits the user information 200 that has received the input in step S503 to the management server 120.
  • step S505 the management server 120 receives the user information 200 transmitted in step S504, so that the control circuit 120A acquires the user information 200.
  • step S506 the control circuit 120A attaches a user ID to the acquired or changed user information 200, and stores the user information 200 received for input in step S503 in the user information storage unit 130.
  • FIG. 5B is a diagram showing an outline of a user information acquisition process according to an embodiment of the present invention. Hereinafter, a method for the management server 120 to acquire the user information 200 will be described.
  • the user terminal 100 accepts the input of the user ID from the user in step S507.
  • the user ID is included in the user information 200.
  • step S508 the user terminal 100 transmits the user ID that received the input in step S507 to the management server 120.
  • step S509 the management server 120 acquires the user information 200 corresponding to the key of the user ID transmitted in step S508 from the user information storage unit 130.
  • step S505, step S506, and step S509 corresponds to the process of step S401 in FIG.
  • FIG. 6A is a diagram showing an outline of the distributor information storage process performed in step S402 of FIG.
  • the management server 120 stores the distributor information 300
  • step S601 the management server 120 provides the distributor information input screen to the distributor terminal 110.
  • step S602 the distributor terminal 110 displays the distributor information input screen on the display.
  • the distributor terminal 110 inputs the distributor information 300 to the distributor. Accept from.
  • the distributor information 300 received from the distributor at this time includes the distributor information 300.
  • the information input by the distributor may include login information of an external account (SNS or the like) or a password.
  • step S604 the distributor terminal 110 transmits the distributor information 300, which has received the input in step S603, to the management server 120.
  • step S605 the management server 120 acquires the distributor information 300 by receiving the distributor information 300 transmitted in step S604.
  • step S606 the control circuit 120A of the management server 120 attaches the distributor ID to the distributor information 300 acquired or changed, and distributes the distributor information 300 that has received the input in step S603. It is stored in the information storage unit 131.
  • FIG. 6B is a diagram showing an outline of the distributor information acquisition process performed in step S402 of FIG.
  • a method for the management server 120 to acquire the distributor information 300 will be described.
  • the distributor terminal 110 accepts the input of the distributor ID from the distributor in step S607.
  • the distributor ID is included in the distributor information 300.
  • the distributor terminal 110 transmits the distributor ID that received the input in step S607 to the management server 120.
  • step S609 the management server 120 acquires the distributor information 300 corresponding to the key of the distributor ID transmitted in step S608 from the distributor information storage unit 131.
  • FIG. 7 is a diagram showing an outline of the distribution audio 800 according to the embodiment of the present invention.
  • FIG. 7A shows an outline of a plan view of a stage and a venue when, for example, the video to be delivered is a live concert.
  • a microphone 710 is installed in the stage portion
  • a camera 720 is installed in the audience seat portion.
  • an amplifier / speaker 730 is installed at a predetermined place.
  • the venue 700 is a shooting target of the camera 720.
  • the microphone 710 may be installed in the audience seat portion.
  • the camera 720 may be installed on the stage portion.
  • the camera Ct shoots the entire stage, and the camera Cg shoots with the guitarist up. Further, the Vo microphone 10 collects vocal sounds, and the Gt microphone 11 collects guitar sounds.
  • the management server 120 can upload and shoot for each performer and collect different sounds for each performer. Further, the management server 120 can obtain microphone position information and camera position information.
  • FIG. 7B shows camera position information for each camera Cb, Cg, and Ct, a distance to each microphone (Ln), an audio track coefficient ( ⁇ ), and audio for distribution 800.
  • FIG. 7B shows an outline of the flow until the management server 120 generates the distribution voice 800.
  • the data necessary for calculating the audio track coefficient ⁇ is stored in advance in the distribution audio generation unit 140 or a storage unit (not shown).
  • the management server 120 calculates the distance (Ln) based on the microphone position and the camera position of the microphone 710 for which the audio track coefficient ⁇ is to be obtained. Next, the management server 120 calculates the reciprocal of the number obtained by dividing the distance Ln from the microphone 710 by the distance L1 from the Vo microphone as the audio track coefficient ⁇ .
  • the calculation method of the audio track coefficient ⁇ is not limited to the above.
  • the audio track coefficient ⁇ may be calculated by further multiplying “the reciprocal of the number obtained by dividing the distance Ln by the distance L1” by a predetermined constant.
  • the management server 120 multiplies the calculated audio track coefficient ⁇ by the volume of the sound collected by each microphone 10, 11, 12, and 13. By mixing each track sound obtained by this, the management server 120 generates the distribution voice 800.
  • the volume of “Vo” is the loudest, followed by “Gt” and “Ba”, and “ The volume of "Dr” is the lowest and mixed. This is because the position of the camera Ct is the closest to the microphone for Vo, followed by the microphone for Gt and the microphone for Ba, and the distance from the microphone for Dr is the longest. That is, the management server 120 generates the sound that is close to the volume balance of each musical instrument that is actually heard at the position of the camera Ct as the sound for distribution 800. For the cameras Cb and Cg, the distribution audio 800 is generated in the same manner. The closer the camera is to the microphone, the louder the volume.
  • the management server 120 can generate the audio of the live concert that is actually heard at the positions of the cameras Cb, Ct, and Cg of the camera 720 as the audio 800 for distribution.
  • FIG. 8 is a diagram showing an outline of the distribution voice generation process performed in step S403 of FIG.
  • the distribution voice generation unit 140 of the management server 120 acquires the user information 200 from the user information storage unit 130.
  • step S802 the distribution voice generation unit 140 extracts the distributor ID, the distribution screen ID, and the desired camera 220 from the desired distribution screen information 210 included in the user information 200 acquired in step S801.
  • step S803 the distribution voice generation unit 140 acquires the distributor information 300 from the distributor information storage unit 131.
  • step S804 the distribution voice generation unit 140 refers to the distributor information 300 including the distributor ID and the distribution screen ID extracted in step S802 from the distributor information 300 acquired in step S803. , The corresponding voice generation data 310 is extracted.
  • step S805 the distribution voice generation unit 140 extracts camera information and camera position information corresponding to the desired camera 220 extracted in step S802 from the voice generation data 310 acquired in step S804.
  • the audio track coefficient ⁇ is calculated from the camera information and the camera position information associated with the data ID.
  • the distribution audio generation unit 140 calculates the distance (Ln) based on the microphone position and the camera position of the microphone 710 for which the audio track coefficient ⁇ is to be obtained. Next, the distribution audio generation unit 140 calculates the reciprocal of the number obtained by dividing the distance Ln from the microphone 710 by the distance L1 from the Vo microphone 10 as the audio track coefficient ⁇ .
  • the calculation method of the audio track coefficient ⁇ is not limited to the above.
  • the audio track coefficient ⁇ may be calculated by further multiplying “the reciprocal of the number obtained by dividing the distance Ln by the distance L1” by a predetermined constant.
  • step S806 the distribution audio generation unit 140 generates the distribution audio 800 by mixing and mastering each track sound based on the audio track coefficient ⁇ calculated in step S805.
  • the distribution audio generation unit 140 multiplies the calculated audio track coefficient ⁇ by the volume of the sound collected by each microphone. By mixing the track sounds obtained in this manner, the distribution audio generation unit 140 generates the distribution audio 800.
  • step S807 the distribution voice generation unit 140 stores the distribution voice 800 generated in step S806 in the distribution voice storage unit 132.
  • step S808 the distribution audio generation unit 140 requests the distribution video generation unit 150 to generate the distribution video 900.
  • FIG. 9 is a diagram showing an outline of the video generation process for distribution performed in step S404 of FIG.
  • the distribution video generation unit 150 of the management server 120 receives the generation request for the distribution video 900 requested in step S808.
  • step S902 the distribution video generation unit 150 acquires the user information 200 of the user requesting the generation of the distribution video 900 from the user information storage unit 130.
  • step S903 the distribution video generation unit 150 extracts the distributor ID and the desired camera 220 included in the desired distribution screen information 210 of the user information 200 acquired in step S902.
  • step S904 the distribution video generation unit 150 refers to the distributor ID and the desired camera 220 extracted in step S903, acquires the corresponding distributor information 300 from the distributor information storage unit 131, and obtains the corresponding distributor information 300 from the distributor information storage unit 131.
  • the corresponding distribution voice 800 is acquired from the distribution voice storage unit 132.
  • the distribution video generation unit 150 uses the distribution audio 800 of the camera Ct for the distributor whose distributor ID is B0001. get.
  • step S905 the distribution video generation unit 150 generates the distribution video 900 based on the distributor information 300 and the distribution audio 800 acquired in step S904.
  • the distribution video 900 is generated by referring to the video generation data included in the distributor information 300 and distributing the distribution audio 800 corresponding to the desired camera 220 in synchronization with the video.
  • the distribution video generation unit 150 stores the distribution video 900 generated in step S905 in the distribution video storage unit 133.
  • step S907 the distribution video generation unit 150 requests the distribution screen generation unit 160 to generate the distribution screen 1000.
  • FIG. 10 is a diagram showing an outline of the distribution screen 1000 according to the embodiment of the present invention.
  • the distribution screen 1000 includes a video display area 1010, a desired camera display area 1020, and a video switching tab 1030.
  • the distribution screen 1000 is displayed on the display 100A of the user terminal 100.
  • the video display area 1010 displays the contents of the distribution video 900.
  • the method of displaying the video display area 1010 is not particularly limited.
  • the desired camera display area 1020 displays the contents of the desired camera 220 selected by the user. For example, when the user wants to view an image of the entire stage, the desired camera 220 is "camera Ct", and the desired camera display area 1020 is displayed by a name such as "floor”. In addition, "floor” is a name corresponding to "camera Ct”. Further, the method of displaying the desired camera display area 1020 is not particularly limited.
  • the desired camera display area 1020 has a function for the user to select a desired camera when he / she wishes to switch the image displayed on the distribution screen 1000 provided by the user. That is, a plurality of cameras Cb, Ct, and Cg are displayed in the desired camera display area 1020, and the user can select a desired camera from the plurality of cameras Cb, Ct, and Cg.
  • the video switching tab 1030 indicates a tab for notifying the management server 120 of the video switching instruction when the user wishes to switch the video displayed on the distribution screen 1000 provided. That is, when the video switching tab 1030 receives a tap or click input from the user, the management server 120 notifies the management server 120 of the video switching instruction.
  • the management server 120 displays the distribution screen 1000 that distributes the sound of the live concert actually heard at each position of the cameras Cb, Cg, and Ct in the camera 720 together with the image corresponding to the position of the camera. It can be provided to the user terminal 100.
  • FIG. 11 is a diagram showing an outline of the distribution screen generation process performed in step S405 of FIG.
  • the distribution screen generation unit 160 of the management server 120 receives the generation request for the distribution screen 1000 requested in step S907.
  • step S1102 the distribution screen generation unit 160 acquires the distribution voice 800 required for generating the distribution screen 1000 from the distribution voice storage unit 132.
  • step S1103 the distribution screen generation unit 160 acquires the distribution video 900 required for generating the distribution screen 1000 from the distribution video storage unit 133.
  • step S1104 the distribution screen generation unit 160 generates the distribution screen 1000 based on the distribution audio 800 acquired in step S1102 and the distribution video 900 acquired in step S1103.
  • step S1105 the distribution screen generation unit 160 stores the distribution screen 1000 generated in step S1104 in the distribution screen storage unit 134.
  • step S1106 the distribution screen generation unit 160 requests the distribution screen providing unit 170 to provide the distribution screen 1000.
  • FIG. 12 is a diagram showing an outline of a configuration example of the distribution screen providing process performed in step S406 of FIG.
  • the distribution screen providing unit 170 of the management server 120 receives the request for providing the distribution screen 1000 requested in step S1106.
  • step S1202 the distribution screen providing unit 170 extracts the distribution screen 1000 to be provided from the distribution screen storage unit 134.
  • the distribution screen providing unit 170 extracts the user information 200 about the user who wants to provide the distribution screen 1000 extracted in step S1202 from the user information storage unit 130.
  • step S1204 the distribution screen providing unit 170 provides the distribution screen 1000 to the user terminal 100.
  • step S1205 the user terminal 100 causes the display 100A to display the distribution screen 1000 provided by the management server 120 in step S1204.
  • step S1206 when the user terminal 100 wishes to switch the image displayed on the distribution screen 1000 provided by the user, the user terminal 100 displays a plurality of cameras Cb, Cg, Ct in the desired camera display area 1020. Among them, the selection of the desired camera 220 is accepted from the user who has selected the desired camera.
  • step S1207 the user terminal 100 determines whether or not the press input of the video switching tab 1030 has been received from the user. If the user terminal 100 determines YES in step S1207, the management server 120 performs the process of step S1208. If the user terminal 100 determines NO in step S1207, the user terminal 100 ends this process.
  • step S1208 when the management server 120 wishes to switch the video displayed on the distribution screen 1000 provided by the user, the management server 120 notifies the management server 120 of the video switching instruction. After that, the management server 120 requests the video switching unit 180 for the video switching request of the distribution screen 1000.
  • the management server 120 provides the user with the sound of the live concert actually heard at the position of the camera 720 (desired camera 220) desired by the user as the distribution screen 1000 together with the image corresponding to the position of the camera. can.
  • FIG. 13 is a diagram showing an outline of the screen after switching 1300 according to the embodiment of the present invention.
  • the post-switching screen 1300 includes a video display area 1310, a desired camera display area 1320, and a re-switching tab 1330. After switching, the screen 1300 is displayed on the display 100A of the user terminal 100.
  • the video display area 1310 displays the contents of the distribution video 900 after switching the camera.
  • the method of displaying the video display area 1310 is not particularly limited.
  • the desired camera display area 1320 displays the contents of the desired camera 220 newly selected by the user.
  • the method of displaying the desired camera display area 1320 is not particularly limited.
  • the desired camera display area 1320 has a function for the user to select a desired camera when he / she wishes to switch the image displayed on the screen 1300 after switching provided by the user again. That is, a plurality of cameras are displayed in the desired camera display area 1320, and the user can select a desired camera from the plurality of cameras.
  • the re-switching tab 1330 indicates a tab for notifying the management server 120 of the re-switching instruction when the user wishes to switch the video displayed on the screen 1300 after switching again. That is, when the re-switching tab 1330 receives a tap or click input from the user, the management server 120 notifies the management server 120 of the re-switching instruction.
  • FIG. 14 is a diagram showing an outline of the video switching process performed in step S407 of FIG.
  • the video switching unit 180 of the management server 120 receives the video switching request of the distribution screen 1000 requested in step S1207 or the reswitching request of the post-switching screen 1300 requested in step S1508.
  • step S1402 the video switching unit 180 acquires the distribution audio 800 corresponding to the desired camera 220 selected in step S1206 or step S1506 from the distribution audio storage unit 132.
  • step S1403 the video switching unit 180 acquires the distribution video 900 corresponding to the desired camera 220 selected in step S1206 or step S1506 from the distribution video storage unit 133.
  • step S1404 the video switching unit 180 generates a screen 1300 after switching based on the distribution audio 800 acquired in step S1402 and the distribution video 900 acquired in step S1403.
  • step S1405 the video switching unit 180 stores the switched screen 1300 generated in step S1404 in the distribution screen storage unit 134.
  • step S1406 the video switching unit 180 requests the distribution screen providing unit 170 to provide the screen 1300 after switching.
  • FIG. 15 is a diagram showing an outline of the post-switching screen providing process performed in step S408 of FIG.
  • the distribution screen providing unit 170 of the management server 120 receives the request for providing the screen after switching 1300 requested in step S1406.
  • step S1502 the distribution screen providing unit 170 extracts the switching screen 1300 to be provided from the distribution screen storage unit 134.
  • step S1503 the distribution screen providing unit 170 extracts the user information 200 about the user who wants to provide the switched screen 1300 extracted in step S1502 from the user information storage unit 130.
  • step S1504 the distribution screen providing unit 170 provides the screen 1300 after switching to the display 100A of the user terminal 100.
  • the user terminal 100 displays the switched screen 1300 provided by the management server 120 in step S1504 on the display of the terminal.
  • step S1506 when the user terminal 100 wishes to switch the image displayed on the screen 1300 after switching provided by the user again, among the plurality of cameras displayed in the desired camera display area 1320, the user terminal 100 wants to switch again. , Accepts the selection of the desired camera 220 from the user who has selected the desired camera.
  • step S1507 the user terminal 100 determines whether or not the push input of the re-switching tab 1330 has been received from the user. If the user terminal 100 determines YES in step S1507, the management server 120 performs the process of step S1508. If the user terminal 100 determines NO in step S1507, the user terminal 100 ends this step.
  • step S1508 when the management server 120 wishes to switch the video displayed on the screen 1300 after switching provided by the user again, the management server 120 notifies the management server 120 of the re-switching instruction. After that, the management server 120 requests the video switching unit 180 to request re-switching of the screen 1300 after switching. After that, the management server 120 proceeds to the process of step S1401 and repeats the subsequent processes.
  • the management server 120 can provide the user with the post-switching screen 1300 in which the distribution audio 800 and the distribution video 900 are switched according to the switching of the desired camera 220.
  • the configuration of the live screen providing system 30 in the second embodiment is the same as that in the first embodiment.
  • the distribution sound 810 in the present embodiment the monitor sound of the performer playing on the stage or the wearable microphone is attached to the performer, and the sound collected by the wearable microphone is adopted as it is. That is, the distribution audio 810 in the present embodiment is not generated by using the camera position, the microphone position, and the audio track coefficient as shown in FIG. 7.
  • the management server 120 distributes the sound of the live concert actually being heard by the performer uploaded by the camera 720 (desired camera 220) desired by the user, together with the image corresponding to the position of the camera. It can be provided to the user as the screen 1000.
  • the user wants a video to upload the bassist, he / she can watch the "sound that the bassist is listening to on the stage" together with the video, and the user himself stands on the stage as a bassist and listens there. You can experience the sound in a simulated manner.
  • the audio and video related to the distribution are not limited to those related to the "live concert”. That is, the audio and video related to the distribution are intended for all activities of live distribution using a camera and a microphone, such as "lectures, seminars, sports such as baseball and soccer", and are the same as in the first and second embodiments. Each process related to the system and implementation of is applicable.
  • the management server 120 can provide the user with the sound of sports or the like actually heard at the position of the camera 720 (desired camera 220) desired by the user as the distribution screen 1000 together with the image corresponding to the position of the camera.
  • the management server 120 displays the sound of the live concert actually heard at the position of the camera 720 (desired camera 220) desired by the user as an image corresponding to the position of the camera. At the same time, it can be provided to the user terminal 100 as a distribution screen 1000.
  • the management server 120 can provide the user terminal 100 with the switched screen 1300 in which the distribution audio 800 and the distribution video 900 are switched according to the switching of the desired camera 220.
  • the user simply switches the desired camera 220 in the distribution screen 1000 to present a desired viewpoint in the live concert venue, specifically, a sound heard in a predetermined direction and a predetermined position. You can experience it with a feeling.
  • FIG. 16 is a plan view showing, for example, a stage of a video to be distributed and another example of the venue 700.
  • the venue 700 there are a first area 22 where the audience is, a second area 23 where the back band is, a third area 24 where the orchestra is, and a chorus so as to surround the predetermined position P1 where the camera 20 and the microphone 21 are provided.
  • the fourth area 25 in which the user is located is divided.
  • the predetermined position P1 is located in the fifth area 26, which is outside the first area 22, the second area 23, the third area 24, and the fourth area 25.
  • the first area 22, the second area 23, the third area 24, and the fourth area 25 are located within a range of different angles within a range of 360 degrees in the circumferential direction centered on the predetermined position P1. ..
  • the predetermined position P1 is located in front of the first area 22, the second area 23, the third area 24, and the fourth area 25.
  • the first area 22 is located within a range of approximately 90 degrees on the left side centered on the predetermined position P1, and the second area is located within a range of approximately 90 degrees on the upper side centered on the predetermined position P1.
  • 23 is located
  • the third area 24 is located within a range of approximately 90 degrees on the right side centered on the predetermined position P1
  • the fourth area 25 is located within a range of approximately 90 degrees on the lower side centered on the predetermined position P1. Is located.
  • the first area 22, the second area 23, the third area 24, and the fourth area 25 do not overlap each other. Further, in FIG.
  • the first area 22, the second area 23, the third area 24, and the fourth area 25 are represented by substantially quadrangular plane shapes in the venue 700, but are circular, elliptical, triangular, and the like. But it may be. Further, the positional relationship between the first area 22, the second area 23, the third area 24, and the fourth area 25 in the circumferential direction centered on the predetermined position P1 is not limited to that shown in FIG.
  • the camera 20 and the microphone 21 may be placed on the floor or hung from the ceiling.
  • the camera 20 is a 360-degree camera, captures an omnidirectional 360-degree image centered on a predetermined position P1, and signals the image to be transmitted to the distributor terminal 110 shown in FIG. Further, the camera 20 uses the zoom function to select a subject located at an arbitrary distance from the lens among subjects having different distances from the lens to the subject in a state where the shooting direction is the same, and the image of the subject is imaged. It is possible to magnify and shoot clearly.
  • the camera 20 is displayed as a desired camera on the display 100A of the user terminal 100.
  • the management server 120 controls the direction of the video captured by the camera 20 within a range of 360 degrees centered on the camera 20, specifically.
  • the clockwise angle ⁇ 1 can be calculated for the direction Q1 having the angle ⁇ 1 with respect to the straight line P2.
  • the management server 120 can calculate the distance from the camera 20 to the subject reflected in the image in the direction Q1 taken by the camera 20.
  • the straight line P2 is a virtual line passing through the predetermined position P1 and is located at substantially the center of the first area 22 in FIG. 16 for convenience, but is not limited to this position.
  • the microphone 21 is a super-directional 360-degree microphone, has a function of recording sound in all directions of 360 degrees in all directions centered on a predetermined position P1, and has a function of recording sound within a predetermined distance range from a predetermined position P1 at each position. It has a function to record every time. The distance that can be picked up by the microphone 21 is determined by the sound picking function of the microphone 21. The microphone 21 converts the recorded voice into a signal and transmits it to the distributor terminal 110.
  • the user changes the direction Q1 as seen from the camera 20 by operating the image switching tab 1030 as shown in FIG. 13, and changes the distance L3 from the camera 20 to obtain the desired position P3. Can be selected.
  • the management server 120 when the management server 120 generates the distribution voice 800 as in FIG. 8, the camera 20 is extracted as the desired camera 220 in step S802. Further, the management server 120 generates the distribution audio 800 by processing the video information taken by the camera 20 and the audio information obtained from the microphone 21 in steps S805 and S806 of FIG.
  • the audio track coefficient is set to "1.00" at a position at a predetermined distance from the predetermined position P1, and the audio track coefficient is set to be relatively small as the distance L3 becomes relatively large.
  • the same effect as that of the other embodiments can be obtained.
  • the user terminal includes not only a smartphone but also various types of user terminals such as a notebook PC, a tablet terminal, and VR (Virtual Reality) goggles.
  • the distribution screen 1000 in FIG. 10 is displayed with VR goggles.
  • the functions of the desired camera display area 1020 and the image switching tab 1030 are achieved by a controller attached to the VR goggles, a smartphone or a tablet terminal capable of communicating with the VR goggles, or the like.
  • the screen 1300 after switching in FIG. 13 is displayed with VR goggles.
  • the functions of the desired camera display area 1320 and the re-switching tab 1330 are achieved by a controller attached to the VR goggles, a smartphone or a tablet terminal capable of communicating with the VR goggles, or the like.
  • each of the above configurations, functions, and processing units may be partially or wholly realized by hardware (for example, an integrated circuit).
  • each of the above configurations, functions, and processing units is installed-type software via a network or by a storage medium such as a disk, or a network-type application such as an ASP, in which a processor interprets and executes a program that realizes each function. It may be realized.
  • Information such as programs, tables, and files that realize each function can be placed in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
  • SSD Solid State Drive
  • the image taken by the camera may be sports, drama, or the like.
  • a camera and a microphone are installed at a predetermined position in a baseball field, and the cheering seat, bench, infield, outfield, back of the net, etc. are photographed with the camera, and the image and sound in the direction to the camera and at a predetermined distance from the camera are captured. It can be processed and provided to the user terminal.
  • the distributor terminal may be provided at either a baseball field or a television station.
  • a camera and a microphone can be mounted on a relay vehicle, the front and rear of the relay vehicle can be targeted for shooting, and the sound of the shooting target can be provided to the user terminal.
  • the distributor terminal may be provided on either a relay vehicle or a television station.
  • the position of the main stage is different from the position of the backyard and dressing room. Then, from the situation where the predetermined scene on the main stage is shot by the camera 20 and the sound is acquired by the microphone 21, the voice of some performers on the next morning is heard from the dressing room by switching the scene. There may be an audible production, or a production in which the voice of a part of the performer can be heard from the sleeves of the backyard. In such a case, the target position to be photographed by the camera 20 can be switched from the main stage to the dressing room or the sleeve of the backyard, and the sound can be acquired by the microphone 21. By switching the shooting position with the camera 20 in this way, the user who sees the display 100A on the user terminal 100 can be impressed by "Actually, such a thing was done.”
  • the predetermined position P1 may be arranged in the fifth area 26.
  • the predetermined position P1 is between the first area 22 and the second area 23, between the second area 23 and the third area 24, between the third area 24 and the fourth area 25, and the first area. It may even be located between 22 and the fourth area 25.
  • the predetermined position P1 may be arranged at any of the rear of the first area 22, the rear of the second area 23, the rear of the third area 24, and the rear of the fourth area 25.
  • the camera 20 and the microphone 21 may be arranged at different positions. In this case, if the positional relationship between the camera 20 and the microphone 21 and the distance between the camera 20 and the microphone 21 are determined, the position of the shooting target and the sound at the position of the shooting target are matched in step S404 of FIG. It is possible to perform video generation processing for distribution.
  • the camera 20 is an example of a desired camera
  • the control circuit 120A is an example of a camera extraction unit, an audio extraction unit, and a video extraction unit. be.
  • the position P3 is an example of a photographing target.
  • the shooting target can also be defined as a shooting target.
  • the audio track coefficient is an example of a predetermined coefficient.
  • the camera 20 is an example of a 360-degree camera
  • the microphone 21 is an example of a 360-degree microphone.
  • the Vo microphone 10 is an example of a vocal microphone.
  • the management server of the present disclosure can be used in the field of providing video and audio to a user terminal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】カメラで撮影する位置に応じた映像及び音声をユーザ端末に提供可能な管理サーバを構築する。 【解決手段】ユーザ端末100及び配信者端末110にネットワークを介して接続される管理サーバ120であって、希望カメラをユーザ端末100から受信するカメラ抽出部と、マイクにより入手した音声生成用データを配信者端末110から受信する音声抽出部と、撮影対象に対応する映像生成用データを配信者端末110から受信する映像抽出部と、希望カメラから撮影対象までの距離を算出し、距離に応じて定まる係数を音声生成用データに乗算することにより、ユーザ端末100に配信する配信用音声を生成する配信用音声生成部と、撮影対象の映像、及び配信用音声に基づいて、ユーザ端末100に配信する配信用映像を生成する配信用映像生成部と、を有する管理サーバ120が構成されている。

Description

管理サーバ
 本開示は、ユーザ端末及び配信者端末に対しネットワークを介して接続される管理サーバに関する。
 従来、オンラインで配信されるライブ・コンサートの映像を視聴する際、配信者が複数のカメラで撮影された映像を切り替えることで、ユーザは複数の視点からの映像を視聴できる。
 しかし、音声については、カメラの切替えと無関係にミックスされた単一の音声を聞くため、ユーザは、ライブ・コンサート会場内の任意の視点毎に異なって聞こえるはずの臨場感のある音を体験できなかった。例えば、特許文献1には、映像データを取得した際に得られた音声データを取得し、映像データの状況に応じて、音声データを適切に処理するシステムが開示されている。
特開2018-117312号公報
 本願発明者は、特許文献1に記載されているシステムによると、カメラの位置で実際に聞こえるライブ・コンサートの音声と、当該カメラの位置に応じた映像とを、適切に映像化してユーザ端末にすることが提供できない、という課題を認識した。
 本開示の目的は、カメラによる撮影対象の位置における映像と、撮影対象の位置に応じた音声とを、撮影対象の位置に追従して整合させることの可能な管理サーバを提供することである。
 本開示は、ユーザ端末及び配信者端末にネットワークを介して接続される管理サーバであって、ユーザが前記ユーザ端末を操作して選択する希望カメラを、前記ユーザ端末から受信するカメラ抽出部と、前記希望カメラによって撮影される撮影対象に対応する音声をマイクにより入手した音声生成用データを、前記配信者端末から受信する音声抽出部と、前記撮影対象に対応する映像生成用データを、前記配信者端末から受信する映像抽出部と、前記希望カメラから前記撮影対象までの距離を算出し、前記距離に応じて定まる係数を前記音声生成用データに乗算することにより、前記ユーザ端末に配信する配信用音声を生成する配信用音声生成部と、前記撮影対象の映像、及び前記配信用音声に基づいて、前記ユーザ端末に配信する配信用映像を生成する配信用映像生成部と、を有する。
 本開示によれば、管理サーバは、希望カメラの位置で聞こえる音声を、希望カメラの位置に応じた映像とともに配信し、カメラで撮影する撮影対象の位置の音声を提供できる。
本発明の一実施の形態におけるライブ画面提供システムの構成例の概要を示す図である。 (a)は、本発明の一実施の形態における管理サーバのユーザ情報記憶部に記憶されているユーザ情報の概要を示す図、(b)は、希望配信画面情報の概要を示す図である。 (a)は、本発明の一実施の形態における管理サーバの配信者情報記憶部に記憶されている配信者情報の概要を示す図、(b)は、音声生成用データの概要を示す図である。 本発明の一実施の形態における全体処理の概要を示すフローチャート図である。 本発明の一実施の形態におけるユーザ情報取得処理およびユーザ情報記憶処理の概要を示す図である。 本発明の一実施の形態における配信者情報取得処理および配信者情報記憶処理の概要を示す図である。 (a)は、配信する映像がライブ・コンサートである時の、ステージおよび会場の平面図、(b)は、各カメラの位置情報と、各カメラから各マイクまでの距離と、オーディオトラック係数との関係を示す図表、(c)は、配信用音声を算出する処理の概要を示す図である。 本発明の一実施の形態における配信用音声生成処理の概要を示すフローチャートである。 本発明の一実施の形態における配信用映像生成処理の概要を示すフローチャートである。 本発明の一実施の形態における配信画面の概要を示す図である。 本発明の一実施の形態における配信画面生成処理の概要を示すフローチャートである。 本発明の一実施の形態における配信画面提供処理の概要を示すフローチャートである。 本発明の一実施の形態における切替後画面の概要を示す図である。 本発明の一実施の形態における映像切替処理の概要を示すフローチャートである。 本発明の一実施の形態における切替後画面提供処理の概要を示すフローチャートである。 本発明の一実施の形態における切替後画面提供処理の概要を示す図である。
 以下、本発明を実施するための形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。また、実施の形態を説明するための全図において、同一部には原則として同一の符号を付し、その繰り返しの説明は省略する。
 [第1の実施形態]
 <システム構成>
 図1は、本発明の一実施の形態におけるライブ画面提供システム30の構成例の概要を示す図である。
 図1に示されるように、ライブ画面提供システム30は、ユーザ端末100と、配信者端末110と、ユーザ端末100と配信者端末110とネットワークを介して接続される管理サーバ120とを有する。ネットワークは、無線または有線の何れかによって構築されているもの、無線及び有線の両方によって構築されているもの、を含む。ユーザ端末100は、管理サーバ120に複数を接続可能であるが、図1では便宜上、単数のユーザ端末100が示されている。
 管理サーバ120は、制御回路120Aと、ユーザ情報記憶部130と、配信者情報記憶部131と、配信用音声記憶部132と、配信用映像記憶部133と、配信画面記憶部134と、配信用音声生成部140と、配信用映像生成部150と、配信画面生成部160と、配信画面提供部170と、映像切替部180と、を有する。制御回路120Aは、通信部、入力ポート、出力ポート、中央演算処理装置、比較回路等を有するコンピュータである。ユーザ端末100及び配信者端末110から送信される信号は、通信部を介して入力ポートに入力される。制御回路120Aから出力される信号は、出力ポート及び通信部を介して、ユーザ端末100及び配信者端末110へ送信される。上記信号は、情報、データ、映像、画像、音声等を含む電気信号である。
 制御回路120Aと、ユーザ情報記憶部130、配信者情報記憶部131、配信用音声記憶部132、配信用映像記憶部133、配信画面記憶部134、配信用音声生成部140、配信用映像生成部150、配信画面生成部160、配信画面提供部170、映像切替部180との間で信号の行き来が行われる。制御回路120Aは、ユーザ情報記憶部130、配信者情報記憶部131、配信用音声記憶部132、配信用映像記憶部133、配信画面記憶部134、配信用音声生成部140、配信用映像生成部150、配信画面生成部160、配信画面提供部170、映像切替部180を制御、管理及び監視する。
 ユーザ情報記憶部130には、ユーザ端末100から送信されるユーザ情報200(後述、図2)が記憶されている。配信者情報記憶部131には、配信者端末110から送信される配信者情報300(後述、図3)が記憶されている。配信用音声記憶部132には、配信用音声800(後述、図7、図8)が記憶されている。配信用映像記憶部133には、配信用映像900(後述、図9)が記憶されている。配信画面記憶部134には、配信画面1000(後述、図10)および切替後画面1300(後述、図13)が記憶されている。
 配信用音声生成部140は、ユーザ情報記憶部130に記憶されているユーザ情報200に基づいて、希望カメラ220を抽出し、配信者端末110から配信者情報300を取得し、配信者情報300から音声生成用データ310を抽出し、音声生成用データ310の中から希望カメラ220に応じたカメラ位置情報とマイク位置情報とを抽出し、カメラ位置情報とマイク位置情報とに基づいて各マイクからの距離を算出し、各マイクからの距離をボーカル用マイクからの距離で除算した数の逆数をオーディオトラック係数として算出し、オーディオトラック係数を各マイクで集音したトラック音の音量に乗算して得た各トラック音をミックスすることで配信用音声800を生成する。
 配信用映像生成部150は、希望カメラ220を参照し取得した配信者情報300と配信用音声800とに基づいて配信用映像900を生成する。配信画面生成部160は、配信用音声800と配信用映像900とに基づいて、配信画面1000を生成する。配信画面提供部170は、生成した配信画面1000をユーザ端末100に提供する。
 <ユーザ情報記憶部>
 図2(a)は、本発明の一実施の形態における管理サーバ120のユーザ情報記憶部130に記憶されているユーザ情報200の構成例の概要を示す図である。図2(a)に示されるように、ユーザ情報200は、ユーザID、ユーザ名、年齢、住所、視聴履歴、希望配信画面情報210、等の項目により構成される。ユーザIDは、管理サーバ120が、ユーザを識別するための符号を示す。ユーザ名は、ユーザの氏名を示す。住所は、ユーザの住所を示す。
 図2(b)は、本発明の一実施の形態における管理サーバ120の希望配信画面情報210の構成例の概要を示す図である。希望配信画面情報210は、希望ID、視聴日時、配信者ID、配信画面ID、希望カメラ220、等の情報を示す。
 希望IDは、管理サーバ120が、ユーザの希望を識別するための符号を示す。視聴日時は、ユーザが配信画面1000(詳細は後述する)の視聴を希望する日時を示す。配信者IDは、配信者を識別するための符号を示す。配信画面IDは、配信画面1000を識別するための符号を示す。
 「希望カメラ220」は、配信画面1000で視聴する映像を撮影している複数のカメラのうち、ユーザが視聴を希望する撮影位置にあるカメラを示す。希望カメラ220は、ユーザがユーザ端末100を操作して選択する。
 例えば、希望カメラ220は、図7(a)のようにステージ全体を撮影するカメラ(Ct)、ボーカリストをアップして撮影するカメラ(Cb)、ギタリストをアップして撮影するカメラ(Cg)等のカメラからユーザによって選定されるカメラを示す。すなわち、例えばユーザが「ステージ全体を撮影するカメラ」(Ct)で撮影された映像の視聴を希望している場合、この時の希望カメラ220は「Ct」となる。カメラCt,Cb,Cgは、会場700内における位置がそれぞれ異なる。
 <配信者情報記憶部>
 図3は、本発明の一実施の形態における管理サーバ120の配信者情報記憶部131に記憶されている配信者情報300の概要を示す図である。
 図3(a)に示されるように、配信者情報300は、配信者ID、配信者名、配信画面情報、音声生成用データ310、映像生成用データ、等の項目により構成される。
 配信者IDは、管理サーバ120が、配信者を識別するための符号を示す。配信者名は、配信者の名称を示す。配信画面情報は、配信画面IDや配信日時等の情報を示す。
 映像生成用データは、管理サーバ120が、配信画面1000に表示させる映像を生成するための情報を示す。例えば、映像生成用データは、希望カメラ220に対応するカメラについての情報や、撮影対象を撮影した映像、映像に関する画質等の各種データが含まれる。撮影対象は、撮影目標と定義することも可能である。
 図3(b)に示されるように、音声生成用データ310は、データID、マイク情報、マイク位置情報、カメラ情報、カメラ位置情報、等の項目により構成される。データIDは、管理サーバ120が、音声生成用データ310を識別するための符号を示す。
 マイク情報は、配信者が配信する際に用いるマイクの種類や集音対象、マイクの名称、属性等の情報を示す。例えば、配信者が配信する際に用いるマイクが、ボーカル、ギター、ベース、ドラムの音を集音する4本のマイクである場合、当該マイクのマイク情報は、図7(a)に示すVo用マイク(ボーカル用マイク)10が「Vo用」、Gt用マイク11が「Gt用」、Ba用マイク12が「Ba用」、Dr用マイク13が「Dr用」等と示される。Vo用マイク10、Gt用マイク11、Ba用マイク12、Dr用マイク13は、会場700内における位置がそれぞれ異なる。
 マイク位置情報は、マイクの位置についての情報を示す。例えば、マイク位置情報は、平面座標を利用して表示される。すなわち、「Vo用マイク10」のマイク位置情報は、「x=〇〇、y=〇〇」のように示される。
 カメラ情報は、配信者が配信する際に用いるカメラの種類や撮影対象、カメラの名称、属性等の情報を示す。例えば、配信者が配信する際に用いるカメラが、ステージ全体、ボーカリスト、ギタリスト、ベーシスト、ドラマーを撮影する5個のカメラである場合、当該カメラのカメラ情報は、「Ct」、「Cv」、「Cb」、「Cd」等と示される。
 カメラ位置情報は、カメラの位置についての情報を示す。例えば、カメラ位置情報は、平面座標を利用して表示される。すなわち、「Ct」のカメラ位置情報は、「x=〇〇、y=〇〇」のように示される。
 このように、マイク情報、マイク位置情報、カメラ情報、カメラ位置情報を得ることにより、管理サーバ120は、任意のカメラについて各マイクまでの距離を算出できる。そして算出した距離を利用することにより、管理サーバ120は、配信用音声800を生成できる(詳細は後述する)。
 <全体処理>
 図4は、本発明の一実施の形態における全体処理の概要を示す図である。
 まず、ステップS401にて、管理サーバ120はユーザ情報取得処理およびユーザ情報記憶処理(図5で後述する)を行う。まず、ステップS402にて、管理サーバ120は配信者情報取得処理および配信者情報記憶処理(図6で後述する)を行う。
 次に、ステップS403にて、管理サーバ120は配信用音声生成処理(図7、図8で後述する)を行う。次に、ステップS404にて、管理サーバ120は配信用映像生成処理(図9で後述する)を行う。次に、ステップS405にて、管理サーバ120は配信画面生成処理および配信画面記憶処理(図10、図11で後述する)を行う。次に、ステップS406にて、管理サーバ120は配信画面提供処理(図12で後述する)を行う。
 次に、ユーザが映像の切替を行う場合、ステップS407にて、管理サーバ120は、映像切替処理(図13、図14で後述する)を行う。次に、ステップS408にて、管理サーバ120は切替後画面提供処理(図15で後述する)を行う。
 <ユーザ情報記憶処理>
 図5(a)は、図4のステップS401で行われるユーザ情報記憶処理の概要を示す図である。以下、管理サーバ120が、ユーザ情報200を記憶する方法について説明する。
 まず、ステップS501にて、管理サーバ120は、ユーザ情報入力画面をユーザ端末100に提供する。次に、ステップS502にて、ユーザ端末100は、ユーザ情報入力画面をディスプレイ100Aに表示させる。
 その後、ユーザがライブ画面提供システム30を初めて利用する場合、または、希望配信画面情報210を変更(更新)する場合、ステップS503にて、ユーザ端末100は、ユーザ情報200の入力をユーザから受け付ける。なお、この際ユーザから受け付けたユーザ情報200は、希望配信画面情報210を含む。また、ユーザが入力する情報には、外部アカウント(SNS等)のログイン情報や、パスワードを含めても良い。
 次に、ステップS504にて、ユーザ端末100は、ステップS503で入力を受け付けたユーザ情報200を管理サーバ120に送信する。次に、ステップS505にて、管理サーバ120は、ステップS504で送信されたユーザ情報200を受信することにより、制御回路120Aがユーザ情報200を取得する。
 次に、ステップS506にて、制御回路120Aは、取得または変更したユーザ情報200にユーザIDを付して、ステップS503にて入力を受け付けたユーザ情報200をユーザ情報記憶部130に記憶させる。
 <ユーザ情報取得処理>
 図5(b)は、本発明の一実施の形態におけるユーザ情報取得処理の概要を示す図である。以下、管理サーバ120が、ユーザ情報200を取得する方法について説明する。
 ユーザがライブ画面提供システム30を2回目以降利用する場合、ステップS507にて、ユーザ端末100はユーザIDの入力をユーザから受け付ける。なお、ユーザIDは、ユーザ情報200に含まれる。
 次に、ステップS508にて、ユーザ端末100は、ステップS507で入力を受け付けたユーザIDを管理サーバ120に送信する。
 その後、ステップS509にて、管理サーバ120は、ステップS508で送信されたユーザIDのキーに対応するユーザ情報200をユーザ情報記憶部130から取得する。ステップS505,ステップS506,ステップS509の処理が、図4のステップS401の処理に相当する。
 <配信者情報記憶処理>
 図6(a)は、図4のステップS402で行われる配信者情報記憶処理の概要を示す図である。以下、管理サーバ120が、配信者情報300を記憶する方法について説明する。
 まず、ステップS601にて、管理サーバ120は、配信者情報入力画面を配信者端末110に提供する。次に、ステップS602にて、配信者端末110は、配信者情報入力画面をディスプレイに表示させる。
 その後、配信者がライブ画面提供システム30を初めて利用する場合、または、配信者情報300を変更(更新)する場合、ステップS603にて、配信者端末110は、配信者情報300の入力を配信者から受け付ける。なお、この際配信者から受け付けた配信者情報300は、配信者情報300を含む。また、配信者が入力する情報には、外部アカウント(SNS等)のログイン情報や、パスワードを含めても良い。
 次に、ステップS604にて、配信者端末110は、ステップS603で入力を受け付けた配信者情報300を管理サーバ120に送信する。次に、ステップS605にて、管理サーバ120は、ステップS604で送信された配信者情報300を受信することにより、配信者情報300を取得する。
 次に、ステップS606にて、管理サーバ120の制御回路120Aは、取得または変更した配信者情報300に配信者IDを付して、ステップS603にて入力を受け付けた配信者情報300を、配信者情報記憶部131に記憶させる。
 <配信者情報取得処理>
 図6(b)は、図4のステップS402で行われる配信者情報取得処理の概要を示す図である。以下、管理サーバ120が、配信者情報300を取得する方法について説明する。
 配信者がライブ画面提供システム30を2回目以降利用する場合、ステップS607にて、配信者端末110は配信者IDの入力を配信者から受け付ける。なお、配信者IDは、配信者情報300に含まれる。次に、ステップS608にて、配信者端末110は、ステップS607で入力を受け付けた配信者IDを管理サーバ120に送信する。
 その後、ステップS609にて、管理サーバ120は、ステップS608で送信された配信者IDのキーに対応する配信者情報300を配信者情報記憶部131から取得する。
 <配信用音声>
 図7は、本発明の一実施の形態における配信用音声800の概要を示す図である。図7(a)は、例えば、配信する映像がライブ・コンサートである時の、ステージおよび会場の平面図の概要を示す。図7(a)で示されるように、会場700には、ステージ部分にマイク710が設置され、客席部分にカメラ720が設置される。また、会場700には、所定の場所にアンプ・スピーカー730が設置される。会場700は、カメラ720の撮影対象である。なお、マイク710は客席部分に設置しても良い。また、カメラ720は、ステージ部分に設置しても良い。
 図7で示されるように、例えば、カメラCtは、ステージ全体を撮影し、カメラCgは、ギタリストをアップして撮影する。また、Vo用マイク10は、ボーカルの音を集音し、Gt用マイク11は、ギターの音を集音する。このように、各マイク710とカメラ720を会場700内の所定の位置に設置することで、管理サーバ120は、演奏者ごとにアップして撮影し、演奏者ごとに異なる音を集音できる。また、管理サーバ120は、マイク位置情報、カメラ位置情報を得ることができる。
 図7(b)は、各カメラCb,Cg,Ctについてのカメラ位置情報と、各マイクまでの距離(Ln)、オーディオトラック係数(α)、配信用音声800を示す。
 図7(b)で示されるように、例えば、カメラCtは、Vo用マイク10までの距離L1が「3.0m」であり、Gt用マイク11までの距離L2が「5.0m」であった場合、Vo用マイク10のオーディオトラック係数αを「1.00」とすると、Gt用マイク11で集音した音に対するオーディオトラック係数αの数値は「0.6」と算出される。つまり、カメラからマイクまでの距離が遠くなるほど、オーディオトラック係数は小さくなる。また、カメラCb,Cgについても、同様にオーディオトラック係数αを算出する。図7(c)は、管理サーバ120が配信用音声800を生成するまでの流れの概要を示す。オーディオトラック係数αを算出するために必要なデータは、配信用音声生成部140、または図示しない記憶部に予め記憶されている。
 まず、管理サーバ120は、オーディオトラック係数αを求めたいマイク710のマイク位置とカメラ位置とに基づいて距離(Ln)を算出する。次に、管理サーバ120は、当該マイク710からの距離LnをVo用マイクからの距離L1で除算して得た数の逆数をオーディオトラック係数αとして算出する。
 なお、オーディオトラック係数αの算出方法は上記に限られない。例えば、オーディオトラック係数αは、「距離Lnを距離L1で除算して得た数の逆数」に対してさらに所定の定数を乗算することで算出してもよい。
 次に、管理サーバ120は、算出したオーディオトラック係数αを、各マイク10,11,12,13で集音した音の音量に乗算する。これにより得た各トラック音をミックスすることで、管理サーバ120は、配信用音声800を生成する。
 図7(b)および(c)で示されるように、例えば、カメラCtについての配信用音声800(Ht)は、「Vo」の音量が最も大きく、次いで「Gt」、「Ba」となり、「Dr」の音量が最も小さくミックスされる。これは、カメラCtの位置が、Vo用マイクとの距離が最も近く、次いでGt用マイク、Ba用マイクとなり、Dr用マイクとの距離が最も遠くなっているためである。すなわち、管理サーバ120は、カメラCtの位置で実際に聞こえる各楽器の音量バランスに近似した音声を配信用音声800として生成する。カメラCb,Cgについても、同様にして配信用音声800を生成する。カメラとマイクとの距離が近いほど、音量が大きくなる。
 このようにして、管理サーバ120は、カメラ720のカメラCb,Ct,Cgの位置で、それぞれ実際に聞こえるライブ・コンサートの音声を配信用音声800として生成できる。
 <配信用音声生成処理>
 図8は、図4のステップS403で行われる配信用音声生成処理の概要を示す図である。まず、ステップS801にて、管理サーバ120の配信用音声生成部140は、ユーザ情報記憶部130からユーザ情報200を取得する。
 次に、ステップS802にて、配信用音声生成部140は、ステップS801で取得したユーザ情報200に含まれる希望配信画面情報210のうち、配信者IDと配信画面IDと希望カメラ220を抽出する。
 次に、ステップS803にて、配信用音声生成部140は、配信者情報記憶部131から配信者情報300を取得する。次に、ステップS804にて、配信用音声生成部140は、ステップS803で取得した配信者情報300の中からステップS802で抽出した配信者IDと配信画面IDとを含む配信者情報300を参照し、対応する音声生成用データ310を抽出する。
 次に、ステップS805にて、配信用音声生成部140は、ステップS804で取得した音声生成用データ310の中からステップS802で抽出した希望カメラ220に応じたカメラ情報とカメラ位置情報を抽出し、当該データIDに紐づくマイク情報とマイク位置情報とからオーディオトラック係数αを算出する。
 具体的には、まず、配信用音声生成部140は、オーディオトラック係数αを求めたいマイク710のマイク位置とカメラ位置とに基づいて距離(Ln)を算出する。次に、配信用音声生成部140は、当該マイク710からの距離LnをVo用マイク10からの距離L1で除算して得た数の逆数をオーディオトラック係数αとして算出する。
 なお、オーディオトラック係数αの算出方法は上記に限られない。例えば、オーディオトラック係数αは、「距離Lnを距離L1で除算して得た数の逆数」に対してさらに所定の定数を乗算することで算出してもよい。
 次に、ステップS806にて、配信用音声生成部140は、ステップS805で算出したオーディオトラック係数αに基づいて各トラック音をミックス及びマスタリングすることにより配信用音声800を生成する。
 具体的には、配信用音声生成部140は、算出したオーディオトラック係数αを、各マイクで集音した音の音量に乗算する。これにより得た各トラック音をミックス等することで、配信用音声生成部140は、配信用音声800を生成する。
 次に、ステップS807にて、配信用音声生成部140は、ステップS806で生成した配信用音声800を配信用音声記憶部132に記憶する。次に、ステップS808にて、配信用音声生成部140は、配信用映像900の生成を配信用映像生成部150に要求する。
 <配信用映像生成処理>
 図9は、図4のステップS404で行われる配信用映像生成処理の概要を示す図である。まず、ステップS901にて、管理サーバ120の配信用映像生成部150は、ステップS808で要求された配信用映像900の生成リクエストを受け付ける。
 次に、ステップS902にて、配信用映像生成部150は、配信用映像900の生成を要求するユーザのユーザ情報200をユーザ情報記憶部130から取得する。
 次に、ステップS903にて、配信用映像生成部150は、ステップS902で取得したユーザ情報200の希望配信画面情報210に含まれる、配信者IDと希望カメラ220を抽出する。
 次に、ステップS904にて、配信用映像生成部150は、ステップS903で抽出した配信者IDと希望カメラ220を参照し、対応する配信者情報300を配信者情報記憶部131から取得して、対応する配信用音声800を配信用音声記憶部132から取得する。
 例えば、配信者IDが「B0001」で、希望カメラ220が「カメラCt」である場合、配信用映像生成部150は、配信者IDがB0001である配信者について、カメラCtの配信用音声800を取得する。次に、ステップS905にて、配信用映像生成部150は、ステップS904で取得した配信者情報300と配信用音声800とに基づいて配信用映像900を生成する。
 具体的には、配信者情報300に含まれる映像生成用データを参照し、希望カメラ220に対応した配信用音声800を映像に同期させて配信することにより配信用映像900を生成する。次に、ステップS906にて、配信用映像生成部150は、ステップS905で生成した配信用映像900を配信用映像記憶部133に記憶する。
 次に、ステップS907にて、配信用映像生成部150は、配信画面1000の生成を配信画面生成部160に要求する。
 <配信画面>
 図10は、本発明の一実施の形態における配信画面1000の概要を示す図である。図10に示されるように、配信画面1000は、映像表示領域1010と、希望カメラ表示領域1020と、映像切替タブ1030と、を含む。なお、配信画面1000は、ユーザ端末100のディスプレイ100Aに表示される。
 映像表示領域1010は、配信用映像900の内容を表示させる。なお、映像表示領域1010の表示のさせ方については特に限定されない。
 希望カメラ表示領域1020は、ユーザが選定した希望カメラ220の内容を表示させる。例えば、ユーザがステージ全体を撮影した映像の視聴を希望している場合、希望カメラ220は「カメラCt」であり、希望カメラ表示領域1020は、「フロア」等の名称で表示させる。なお、「フロア」は、「カメラCt」に対応する名称である。また、希望カメラ表示領域1020の表示のさせ方については、特に限定されない。
 また、希望カメラ表示領域1020は、ユーザが提供された配信画面1000に表示される映像の切替えを希望する場合にユーザが所望のカメラを選択するための機能を有する。すなわち、希望カメラ表示領域1020に複数のカメラCb,Ct,Cgが表示され、その中からユーザが所望のカメラを選択することができる。
 映像切替タブ1030は、ユーザが提供された配信画面1000に表示される映像の切替えを希望する場合、映像切替指示を管理サーバ120に通知するためのタブを示す。すなわち、映像切替タブ1030がユーザからタップまたはクリックの入力を受け付けることにより、管理サーバ120は、映像切替指示を管理サーバ120に通知する。
 このようにして、管理サーバ120は、カメラ720のうちカメラCb,Cg,Ctのそれぞれの位置で実際に聞こえるライブ・コンサートの音声を、当該カメラの位置に応じた映像とともに配信する配信画面1000をユーザ端末100に提供できる。
 <配信画面生成処理>
 図11は、図4のステップS405で行われる配信画面生成処理の概要を示す図である。まず、ステップS1101にて、管理サーバ120の配信画面生成部160は、ステップS907で要求された配信画面1000の生成リクエストを受け付ける。
 次に、ステップS1102にて、配信画面生成部160は、配信画面1000の生成に必要な配信用音声800を配信用音声記憶部132から取得する。
 次に、ステップS1103にて、配信画面生成部160は、配信画面1000の生成に必要な配信用映像900を配信用映像記憶部133から取得する。次に、ステップS1104にて、配信画面生成部160は、ステップS1102で取得した配信用音声800と、ステップS1103で取得した配信用映像900とに基づいて配信画面1000を生成する。
 次に、ステップS1105にて、配信画面生成部160は、ステップS1104で生成した配信画面1000を配信画面記憶部134に記憶する。次に、ステップS1106にて、配信画面生成部160は、配信画面1000の提供を配信画面提供部170に要求する。
 <配信画面提供処理>
 図12は、図4のステップS406で行われる配信画面提供処理の構成例の概要を示す図である。まず、ステップS1201にて、管理サーバ120の配信画面提供部170は、ステップS1106で要求された配信画面1000の提供リクエストを受け付ける。
 次に、ステップS1202にて、配信画面提供部170は、提供したい配信画面1000を配信画面記憶部134から抽出する。次に、ステップS1203にて、配信画面提供部170は、ステップS1202で抽出した配信画面1000を提供したいユーザについてのユーザ情報200をユーザ情報記憶部130から抽出する。
 次に、ステップS1204にて、配信画面提供部170は、ユーザ端末100に配信画面1000を提供する。次に、ステップS1205にて、ユーザ端末100は、ステップS1204で管理サーバ120から提供された配信画面1000を、ディスプレイ100Aに表示させる。
 次に、ステップS1206にて、ユーザ端末100は、ユーザが提供された配信画面1000に表示される映像の切替えを希望する場合、希望カメラ表示領域1020に表示される複数のカメラCb,Cg,Ctのうち、所望のカメラを選択したユーザから当該希望カメラ220の選択を受け付ける。
 次に、ステップS1207にて、ユーザ端末100は、ユーザから映像切替タブ1030の押下入力を受付けたか否かを判定する。ユーザ端末100がステップS1207でYESと判断すると、管理サーバ120は、ステップS1208の処理を行う。ユーザ端末100がステップS1207でNOと判断すると、ユーザ端末100は、本工程を終了する。
 ステップS1208にて、管理サーバ120は、ユーザが提供された配信画面1000に表示される映像の切替えを希望する場合、映像切替指示を管理サーバ120に通知する。その後、管理サーバ120は、配信画面1000の映像切替リクエストを映像切替部180に要求する。
 このようにして、管理サーバ120は、ユーザの希望するカメラ720(希望カメラ220)の位置で実際に聞こえるライブ・コンサートの音声を、当該カメラの位置に応じた映像とともに配信画面1000としてユーザに提供できる。
 <切替後画面>
 図13は、本発明の一実施の形態における切替後画面1300の概要を示す図である。図13に示されるように、切替後画面1300は、映像表示領域1310と、希望カメラ表示領域1320と、再切替タブ1330と、を含む。なお、切替後画面1300は、ユーザ端末100のディスプレイ100Aに表示される。
 映像表示領域1310は、カメラを切替えた後の配信用映像900の内容を表示させる。なお、映像表示領域1310の表示のさせ方については特に限定されない。
 希望カメラ表示領域1320は、ユーザが新たに選定した希望カメラ220の内容を表示させる。なお、希望カメラ表示領域1320の表示のさせ方については特に限定されない。
 また、希望カメラ表示領域1320は、ユーザが提供された切替後画面1300に表示される映像の再度の切替えを希望する場合、ユーザが所望のカメラを選択するための機能を有する。すなわち、希望カメラ表示領域1320に複数のカメラが表示され、その中からユーザが所望のカメラを選択することができる。
 再切替タブ1330は、ユーザが提供された切替後画面1300に表示される映像の再度の切替えを希望する場合、再切替指示を管理サーバ120に通知するためのタブを示す。すなわち、再切替タブ1330がユーザからタップまたはクリックの入力を受け付けることにより、管理サーバ120は、再切替指示を管理サーバ120に通知する。
 <映像切替処理>
 図14は、図4のステップS407で行われる映像切替処理の概要を示す図である。まず、ステップS1401にて、管理サーバ120の映像切替部180は、ステップS1207で要求された配信画面1000の映像切替リクエストまたはステップS1508で要求された切替後画面1300の再切替リクエストを受け付ける。
 次に、ステップS1402にて、映像切替部180は、ステップS1206またはステップS1506で選択された希望カメラ220に対応した配信用音声800を配信用音声記憶部132から取得する。次に、ステップS1403にて、映像切替部180は、ステップS1206またはステップS1506で選択された希望カメラ220に対応した配信用映像900を配信用映像記憶部133から取得する。
 次に、ステップS1404にて、映像切替部180は、ステップS1402で取得した配信用音声800と、ステップS1403で取得した配信用映像900とに基づいて切替後画面1300を生成する。
 次に、ステップS1405にて、映像切替部180は、ステップS1404で生成した切替後画面1300を配信画面記憶部134に記憶する。次に、ステップS1406にて、映像切替部180は、切替後画面1300の提供を配信画面提供部170に要求する。
 <切替後画面提供処理>
 図15は、図4のステップS408で行われる切替後画面提供処理の概要を示す図である。まず、ステップS1501にて、管理サーバ120の配信画面提供部170は、ステップS1406で要求された切替後画面1300の提供リクエストを受け付ける。
 次に、ステップS1502にて、配信画面提供部170は、提供したい切替後画面1300を配信画面記憶部134から抽出する。次に、ステップS1503にて、配信画面提供部170は、ステップS1502で抽出した切替後画面1300を提供したいユーザについてのユーザ情報200をユーザ情報記憶部130から抽出する。
 次に、ステップS1504にて、配信画面提供部170は、ユーザ端末100のディスプレイ100Aに切替後画面1300を提供する。次に、ステップS1505にて、ユーザ端末100は、ステップS1504で管理サーバ120から提供された切替後画面1300を、端末のディスプレイに表示させる。
 次に、ステップS1506にて、ユーザ端末100は、ユーザが提供された切替後画面1300に表示される映像の再度の切替えを希望する場合、希望カメラ表示領域1320に表示される複数のカメラのうち、所望のカメラを選択したユーザから当該希望カメラ220の選択を受け付ける。
 次に、ステップS1507にて、ユーザ端末100は、ユーザから再切替タブ1330の押下入力を受付けたか否かを判定する。ユーザ端末100は、ステップS1507でYESと判断すると、管理サーバ120は、ステップS1508の処理を行う。ユーザ端末100が、ステップS1507でNOと判断すると、ユーザ端末100は、本工程を終了する。
 ステップS1508にて、管理サーバ120は、ユーザが提供された切替後画面1300に表示される映像の再度の切替えを希望する場合、再切替指示を管理サーバ120に通知する。その後、管理サーバ120は、切替後画面1300の再切替リクエストを映像切替部180に要求する。その後、管理サーバ120は、ステップS1401の工程へ進行し、以降の処理を繰り返し行う。
 このようにして、管理サーバ120は、希望カメラ220の切替えに追従して、配信用音声800および配信用映像900を切替えた切替後画面1300をユーザに提供できる。
 [第2の実施形態]
 第2の実施形態におけるライブ画面提供システム30の構成は、第1の実施形態と同様である。
<配信用音声>
 本実施形態における配信用音声810は、ステージ上で演奏している演者のモニター音、または当該演者にウェアラブルマイクを装着させ、そのウェアラブルマイクが集音した音をそのまま採用する。すなわち、本実施形態における配信用音声810は、図7で示されるようにカメラ位置、マイク位置、オーディオトラック係数を利用して生成されるものではない。
 このようにして、管理サーバ120は、ユーザの希望するカメラ720(希望カメラ220)でアップしている演者が実際に聞いているライブ・コンサートの音声を、当該カメラの位置に応じた映像とともに配信画面1000としてユーザに提供できる。
 例えば、ユーザがベーシストをアップする映像を希望している場合、当該映像とともに「ベーシストがステージ上で聞いている音」を視聴でき、ユーザ自身があたかもベーシストとしてステージ上に立って、そこで聞いている音を疑似体験することができる。
 [第3の実施形態]
 第3の実施形態におけるライブ画面提供システム30の構成は、第1および第2の実施形態と同様である。
 本実施形態において、配信に係る音声と映像は「ライブ・コンサート」についてのものに限定されない。すなわち、配信に係る音声と映像は、「講演、セミナー、野球やサッカー等のスポーツ」など、カメラとマイクを用いてライブ配信を行うあらゆる活動を対象とし、第1および第2の実施形態と同様のシステムと実施に係る各処理を適用できる。
 これにより、管理サーバ120は、ユーザの希望するカメラ720(希望カメラ220)の位置で実際に聞こえるスポーツ等の音声を、当該カメラの位置に応じた映像とともに配信画面1000としてユーザに提供できる。
 <本実施の形態の効果>
 以上説明した本発明の実施の形態によれば、管理サーバ120は、ユーザの希望するカメラ720(希望カメラ220)の位置で実際に聞こえるライブ・コンサートの音声を、当該カメラの位置に応じた映像とともに配信画面1000としてユーザ端末100に提供できる。
 また、管理サーバ120は、希望カメラ220の切替えに追従して、配信用音声800および配信用映像900を切替えた切替後画面1300をユーザ端末100に提供できる。
 このようにして、ユーザは、配信画面1000内で希望カメラ220を切替える操作を行うだけで、ライブ・コンサート会場内の所望の視点、具体的には、所定方向及び所定位置で聞こえる音を、臨場感をもって体験できる。
 [第4の実施形態]
 ライブ画面提供システム30を利用可能な第4の実施形態が、図16に示されている。図16は、例えば、配信する映像のステージおよび会場700の他の例を示す平面図である。会場700には、カメラ20及びマイク21が設けられた所定位置P1を囲むように、観客が居る第1エリア22、バックバンドが居る第2エリア23、オーケストラが居る第3エリア24、合唱隊が居る第4エリア25が区画されている。所定位置P1は、第1エリア22、第2エリア23、第3エリア24、第4エリア25から外れた第5エリア26に位置する。そして、所定位置P1を中心とする円周方向で360度の範囲内において、第1エリア22、第2エリア23、第3エリア24、第4エリア25は、それぞれ異なる角度の範囲内に位置する。所定位置P1は、第1エリア22、第2エリア23、第3エリア24、第4エリア25から見て前方に位置する。
 図16においては、便宜上、所定位置P1を中心とする左側で略90度の範囲内に第1エリア22が位置し、所定位置P1を中心とする上側で略90度の範囲内に第2エリア23が位置し、所定位置P1を中心とする右側で略90度の範囲内に第3エリア24が位置し、所定位置P1を中心とする下側で略90度の範囲内に第4エリア25が位置している。また、図16に示す例では、第1エリア22、第2エリア23、第3エリア24、第4エリア25同士は、重なっていない。さらに、図16において、第1エリア22、第2エリア23、第3エリア24、第4エリア25は、会場700における平面形状がそれぞれ略四角形で表されているが、円形、楕円形、三角形などでもよい。さらに、所定位置P1を中心とする円周方向で、第1エリア22、第2エリア23、第3エリア24、第4エリア25同士の位置関係は、図16に示すものに限定されない。
 カメラ20及びマイク21は、床に置かれていてもよいし、天井から吊り下げられていてもよい。カメラ20は、360度カメラであり、所定位置P1を中心として全方位360度の映像を撮影し、かつ、映像を信号化して、図1に示す配信者端末110へ送信する。また、カメラ20はズーム機能により、撮影しようとする方向が同じである状態において、レンズから被写体までの距離が異なる被写体のうち、レンズから任意の距離に位置する被写体を選択し、その被写体の映像を拡大、かつ、鮮明に撮影可能である。なお、カメラ20は、ユーザ端末100のディスプレイ100Aに希望カメラとして表示される。
 配信者端末110から管理サーバ120へ映像情報が送信されると、管理サーバ120は、カメラ20を中心とする360度の範囲内で、カメラ20が撮影している映像の方向、具体的には、直線P2に対して角度θ1を有する方向Q1について、時計回りの角度θ1を算出可能である。また、管理サーバ120は、カメラ20から、カメラ20が撮影している方向Q1の映像に映る被写体までの距離を算出可能である。直線P2は、所定位置P1を通過する仮想線であり、図16では、便宜上、第1エリア22の略中央に位置しているが、この位置に限定されない。
 マイク21は、超指向性360度マイクであり、所定位置P1を中心としする全方位360度のあらゆる方向での音声を録音する機能、かつ、所定位置P1から所定距離範囲内の音声を各位置毎に録音する機能を有する。マイク21で収音可能な距離は、マイク21の収音機能により定まる。マイク21は、録音した音声を信号化して配信者端末110へ送信する。
 ユーザは、例えば、図13に示すような映像切替タブ1030を操作することにより、カメラ20から見た方向Q1を変更し、かつ、カメラ20からの距離L3を変更することにより、希望する位置P3を選択可能である。
 そして、管理サーバ120が、図8と同様に配信用音声800を生成する場合、ステップS802における希望カメラ220としてカメラ20を抽出する。さらに、管理サーバ120は、図8のステップS805およびステップS806において、カメラ20で撮影した映像情報、及びマイク21から得られる音声情報を処理することにより、配信用音声800を生成する。
 具体的には、方向Q1において、カメラ20からの距離L3における位置P3での配信用音声800を生成可能である。この場合、オーディオトラック係数は、所定位置P1から所定距離の位置で「1.00」に設定されており、距離L3が相対的に大きくなるほど、オーディオトラック係数が相対的に小さく設定される。第4実施形態においても、他の実施形態と同様の効果を得られる。
 以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能である。たとえば、ユーザ端末は、スマートフォン以外にも、ノート型PCや、タブレット端末、VR(Virtual Reality )ゴーグル等の様々な形態のユーザ端末を全て含むものである。
 なお、ユーザ端末がVRゴーグルの場合、図10の配信画面1000は、VRゴーグルで表示される。希望カメラ表示領域1020及び映像切替タブ1030の機能は、VRゴーグルに付属されるコントーラ、または、VRゴーグルと通信可能なスマートフォン、タブレット端末等により達成される。
 また、ユーザ端末がVRゴーグルの場合、図13の切替後画面1300は、VRゴーグルで表示される。希望カメラ表示領域1320及び再切替タブ1330の機能は、VRゴーグルに付属されるコントーラ、または、VRゴーグルと通信可能なスマートフォン、タブレット端末等により達成される。
 また、上記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施の形態の構成の一部を他の実施の形態の構成に置き換えることが可能であり、また、ある実施の形態の構成に他の実施の形態の構成を加えることも可能である。また、各実施の形態の構成の一部について、他の構成の追加、削除、置換しても良い。
 また、上記の各構成、機能、処理部は、それらの一部又は全部を、ハードウェア(例えば、集積回路)で実現してもよい。また、上記の各構成、機能、処理部は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行するネットワーク経由もしくはディスク等記憶媒体によるインストール型のソフトウェア、また、ASPなどのネットワーク型アプリケーションで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive )等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
 さらに、カメラで撮影する映像は、スポーツ、ドラマなどであってもよい。例えば、野球場の所定位置にカメラ及びマイクを設置し、応援席、ベンチ、内野、外野、ネット裏などをカメラで撮影する撮影対象とし、カメラに対する方向、及びカメラから所定距離における映像及び音声を処理し、ユーザ端末へ提供可能である。なお、配信者端末は、野球場またはテレビ局の何れに設けられていてもよい。さらに、駅伝またはマラソン競技などにおいて、カメラ及びマイクを中継車に搭載し、中継車の前方及び後方等を撮影対象とし、撮影対象における音声を、ユーザ端末へ提供可能である。なお、配信者端末は、中継車または、テレビ局の何れに設けられていてもよい。
 さらに、会場700に設けられたメインステージでドラマを演じる場合、メインステージの位置と、バックヤード及び楽屋の位置とは異なる。そして、メインステージでの所定のシーンをカメラ20で撮影し、かつ、マイク21で音声を取得している状況から、シーンの切り替わりで、次の日の朝における一部演者の声が、楽屋から聞こえるような演出、または、バックヤードの袖から一部演者の声が聞こえる演出等が行われることがある。このような場合、カメラ20で撮影する目標位置を、メインステージから楽屋、またはバックヤードの袖に切り替え、かつ、マイク21でその音声を取得するように切り替えることが可能である。このように、カメラ20で撮影する位置を切り替えることにより、ユーザ端末100でディスプレイ100Aを見るユーザは、「実は、こんなことが行われていたんだ。」と感動することができる。
 ユーザは、撮影対象の位置として、第2エリア23、第3エリア24、第4エリア25の何れかのエリア内の位置を選択することも可能である。また、所定位置P1は、第5エリア26内に配置されていてもよい。この場合、所定位置P1は、第1エリア22と第2エリア23との間、第2エリア23と第3エリア24との間、第3エリア24と第4エリア25との間、第1エリア22と第4エリア25との間の何れかに配置さえれていてもよい。さらに、所定位置P1は、第1エリア22の後方、第2エリア23の後方、第3エリア24の後方、第4エリア25の後方の何れかに配置されていてもよい。
 さらに、図16に示された会場700の平面視において、カメラ20とマイク21とが異なる位置に配置されていてもよい。この場合、カメラ20とマイク21との位置関係、及びカメラ20とマイク21との距離が定まれば、図4のステップS404において、撮影対象の位置と、撮影対象の位置における音声とを整合させて配信用映像生成処理を行うことが可能である。
 本開示で説明した事項の技術的意味の一例は、次の通りである、カメラ20は、希望カメラの一例であり、制御回路120Aは、カメラ抽出部、音声抽出部及び映像抽出部の一例である。位置P3は、撮影対象の一例である。撮影対象は、撮影目標と定義することも可能である。オーディオトラック係数は、所定の係数の一例である。カメラ20は、360度カメラの一例であり、マイク21は、360度マイクの一例である。Vo用マイク10は、ボーカルマイクの一例である。
 本開示の管理サーバは、映像及び音声をユーザ端末に提供する分野で利用可能である。
 100…ユーザ端末
 110…配信者端末
 120…管理サーバ
 130…ユーザ情報記憶部
 131…配信者情報記憶部
 132…配信用音声記憶部
 133…配信用映像記憶部
 134…配信画面記憶部
 140…配信用音声生成部
 150…配信用映像生成部
 160…配信画面生成部
 170…配信画面提供部
 180…映像切替部
 200…ユーザ情報
 300…配信者情報
 800…配信用音声
 900…配信用映像
 1000…配信画面
 1300…切替後画面

Claims (6)

  1.  ユーザ端末及び配信者端末にネットワークを介して接続される管理サーバであって、
     ユーザが前記ユーザ端末を操作して選択する希望カメラを、前記ユーザ端末から受信するカメラ抽出部と、
     前記希望カメラによって撮影される撮影対象に対応する音声をマイクにより入手した音声生成用データを、前記配信者端末から受信する音声抽出部と、
     前記撮影対象に対応する映像生成用データを、前記配信者端末から受信する映像抽出部と、
     前記希望カメラから前記撮影対象までの距離を算出し、前記距離に応じて定まる係数を前記音声生成用データに乗算することにより、前記ユーザ端末に配信する配信用音声を生成する配信用音声生成部と、
     前記撮影対象の映像、及び前記配信用音声に基づいて、前記ユーザ端末に配信する配信用映像を生成する配信用映像生成部と、
     を有する、管理サーバ。
  2.  請求項1記載の管理サーバにおいて、
     前記希望カメラは、位置が異なる前記撮影対象をそれぞれ撮影可能な複数のカメラのうちから前記ユーザ端末の操作により選択されるカメラであり、
     前記マイクは、位置が異なる前記撮影対象からそれぞれ音声を入手可能な複数のカメラを含み、
     前記配信用音声生成部は、前記希望カメラの位置情報と、複数の前記マイクのそれぞれの位置情報とに基づいて、前記希望カメラから各マイクまでの距離をそれぞれ算出し、前記希望カメラから前記マイクに含まれるボーカルマイク以外の前記マイクまでの距離を、前記希望カメラから前記ボーカルマイクまでの距離で除算した数の逆数を所定の前記係数として算出し、所定の前記係数を各マイクで集音したトラック音の音量に乗算して得た各トラック音をミックスすることで、前記配信用音声を生成する、
     管理サーバ。
  3.  請求項2記載の管理サーバにおいて、
     前記配信用音声及び前記配信用映像に基づいて、配信画面を生成する配信画面生成部と、
     生成した前記配信画面を前記ユーザ端末に提供する配信画面提供部と、
     を有する、管理サーバ。
  4.  請求項3記載の管理サーバにおいて、
     前記ユーザ端末が前記配信画面に含まれる映像切替タブの押下入力をユーザから受付けた場合に、ユーザによって新たに選択された前記希望カメラに対応した前記配信用音声と前記配信用映像とに基づいて切替後画面を生成する映像切替部を有し、
     前記配信画面提供部は、生成した前記切替後画面を前記ユーザ端末に提供する、管理サーバ。
  5.  請求項4記載の管理サーバにおいて、
     前記映像切替部は、前記ユーザ端末が前記切替後画面に含まれる再切替タブの押下入力をユーザから受付けた場合に、ユーザによって新たに選択された前記希望カメラに対応した前記配信用音声と前記配信用映像とに基づいて、前記切替後画面を新たに生成する、管理サーバ。
  6.  請求項1記載の管理サーバにおいて、
     前記配信者端末は、前記希望カメラに接続され、かつ、前記撮影対象で発生する音声を入手するマイクに接続され、
     前記希望カメラは、所定位置を中心とする円周方向で360度の範囲内に存在する前記撮影対象を撮影可能な360度カメラを含み、
     前記マイクは、前記所定位置を中心とする円周方向で360度の範囲内に存在する前記撮影対象で発生する音声を入手可能な360度マイクを含む、管理サーバ。
PCT/JP2021/022285 2020-12-22 2021-06-11 管理サーバ WO2022137606A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/258,318 US20240031618A1 (en) 2020-12-22 2021-06-11 Management server
JP2022571018A JP7344610B2 (ja) 2020-12-22 2021-06-11 管理サーバ
JP2023113961A JP2023133328A (ja) 2020-12-22 2023-07-11 管理サーバ

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020212642 2020-12-22
JP2020-212642 2020-12-22

Publications (1)

Publication Number Publication Date
WO2022137606A1 true WO2022137606A1 (ja) 2022-06-30

Family

ID=82158903

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/022285 WO2022137606A1 (ja) 2020-12-22 2021-06-11 管理サーバ

Country Status (3)

Country Link
US (1) US20240031618A1 (ja)
JP (2) JP7344610B2 (ja)
WO (1) WO2022137606A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219389A (ja) * 2002-01-18 2003-07-31 Nippon Telegr & Teleph Corp <Ntt> 映像配信方法及びシステム及び装置及びユーザ端末及び映像配信プログラム及び映像配信プログラムを格納した記憶媒体
JP2008131379A (ja) * 2006-11-21 2008-06-05 Yamaha Corp 配信システム、および端末装置
JP2013250838A (ja) * 2012-06-01 2013-12-12 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP5777185B1 (ja) * 2014-05-16 2015-09-09 株式会社ユニモト 全周動画配信システム、全周動画配信方法、通信端末装置およびそれらの制御方法と制御プログラム
WO2015162947A1 (ja) * 2014-04-22 2015-10-29 ソニー株式会社 情報再生装置及び情報再生方法、並びに情報記録装置及び情報記録方法
JP2016165162A (ja) * 2016-06-16 2016-09-08 株式会社ハーツクリエイション 動画配信システム
JP2020167629A (ja) * 2019-03-29 2020-10-08 日本放送協会 受信装置、配信サーバ及び受信プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003219389A (ja) * 2002-01-18 2003-07-31 Nippon Telegr & Teleph Corp <Ntt> 映像配信方法及びシステム及び装置及びユーザ端末及び映像配信プログラム及び映像配信プログラムを格納した記憶媒体
JP2008131379A (ja) * 2006-11-21 2008-06-05 Yamaha Corp 配信システム、および端末装置
JP2013250838A (ja) * 2012-06-01 2013-12-12 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
WO2015162947A1 (ja) * 2014-04-22 2015-10-29 ソニー株式会社 情報再生装置及び情報再生方法、並びに情報記録装置及び情報記録方法
JP5777185B1 (ja) * 2014-05-16 2015-09-09 株式会社ユニモト 全周動画配信システム、全周動画配信方法、通信端末装置およびそれらの制御方法と制御プログラム
JP2016165162A (ja) * 2016-06-16 2016-09-08 株式会社ハーツクリエイション 動画配信システム
JP2020167629A (ja) * 2019-03-29 2020-10-08 日本放送協会 受信装置、配信サーバ及び受信プログラム

Also Published As

Publication number Publication date
JP2023133328A (ja) 2023-09-22
JP7344610B2 (ja) 2023-09-14
JPWO2022137606A1 (ja) 2022-06-30
US20240031618A1 (en) 2024-01-25

Similar Documents

Publication Publication Date Title
US10171769B2 (en) Sound source selection for aural interest
JP6241802B1 (ja) 映像配信システム、ユーザ端末装置および映像配信方法
CN110447071B (zh) 信息处理装置、信息处理方法和记录程序的可拆卸介质
KR100901111B1 (ko) 삼차원 가상 공간 콘텐츠를 이용한 영상제공시스템
JP2016010021A (ja) 画像・音声配信システム、画像・音声配信装置および画像・音声配信プログラム
US20180227694A1 (en) Audio capture for multi point image capture systems
WO2022137606A1 (ja) 管理サーバ
Susal et al. Immersive audio for VR
CN113545096B (zh) 信息处理装置和信息处理系统
JP7378851B2 (ja) 表示装置
JP7429266B2 (ja) イベントカスタム型のオーディオコンテンツをレンダリングするためのコンピュータシステムおよび方法
US20180167755A1 (en) Distributed Audio Mixing
KR20190064394A (ko) 360도 가상현실 분할 서클 비젼 표시 장치 및 방법
WO2022070379A1 (ja) 信号処理システム、信号処理装置、及び信号処理方法
JP7089815B1 (ja) サーバ
JP7170495B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びコンピュータプログラム
US20210320959A1 (en) System and method for real-time massive multiplayer online interaction on remote events
WO2022234699A1 (ja) 動画配信装置、表示制御装置、動画配信システム、動画配信方法およびプログラム
KR101950852B1 (ko) 메타데이터를 이용한 자유선택시점 영상 제공 장치 및 방법
WO2024084943A1 (ja) 情報処理装置、情報処理方法、プログラム
US20230262271A1 (en) System and method for remotely creating an audio/video mix and master of live audio and video
JP2007134808A (ja) 音声配信装置、音声配信方法、音声配信プログラム、および記録媒体
US20230269435A1 (en) System and method for the creation and management of virtually enabled studio
JP7052453B2 (ja) サーバー、方法、プログラム及びシステム
KR20240044403A (ko) 참여형 콘텐츠 처리 시스템 및 그 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21909767

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022571018

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 18258318

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21909767

Country of ref document: EP

Kind code of ref document: A1