JP6426136B2 - 動画を配信するためのシステム、方法、及び、これらに用いられるプログラム - Google Patents

動画を配信するためのシステム、方法、及び、これらに用いられるプログラム Download PDF

Info

Publication number
JP6426136B2
JP6426136B2 JP2016248525A JP2016248525A JP6426136B2 JP 6426136 B2 JP6426136 B2 JP 6426136B2 JP 2016248525 A JP2016248525 A JP 2016248525A JP 2016248525 A JP2016248525 A JP 2016248525A JP 6426136 B2 JP6426136 B2 JP 6426136B2
Authority
JP
Japan
Prior art keywords
distribution
terminal
moving image
predetermined communication
received
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016248525A
Other languages
English (en)
Other versions
JP2018101965A (ja
Inventor
正史 吉田
正史 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DeNA Co Ltd
Original Assignee
DeNA Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DeNA Co Ltd filed Critical DeNA Co Ltd
Priority to JP2016248525A priority Critical patent/JP6426136B2/ja
Publication of JP2018101965A publication Critical patent/JP2018101965A/ja
Application granted granted Critical
Publication of JP6426136B2 publication Critical patent/JP6426136B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、動画を配信するためのシステム、方法、及び、これらに用いられるプログラムに関するものである。
従来、配信者端末から送信される動画を複数の視聴者端末に配信する動画配信サービスにおいて、配信者と視聴者との間のコミュニケーションを可能とすることが行われている。例えば、下記特許文献1は、配信者端末から送信されるライブ映像を配信するコンテンツサーバが、ライブ映像と共に、配信者と特定の視聴者との間の音声通話の内容を配信することを開示する。こうしたシステムは、視聴者が、音声通話を介して配信者のライブ映像に参加することを可能とする。
特開2011−172200号公報
しかしながら、上述した従来のシステムでは、ライブ映像への参加者と配信者との間の音声通話の内容が、コンテンツサーバを介してライブ映像と共に参加者自身の端末にも送信されることに起因する不具合を生じ得る。具体的には、例えば、配信者端末においてスピーカーを介して出力された参加者の音声がマイクを介して入力されると、当該参加者の音声は、一定の遅延を伴ってライブ映像と共に参加者端末において出力されることになる。このように遅延して出力される参加者自身の音声(エコー)は、ハウリング等の音声品質の悪化をもたらし、参加者と配信者との間の円滑なコミュニケーションを阻害してしまう。
本発明の実施形態は、動画を配信する配信者端末と当該動画を視聴するための視聴者端末との間で行われる通話の音声品質の悪化を抑制することを目的の一つとする。本発明の実施形態の他の目的は、本明細書全体を参照することにより明らかとなる。
本発明の一実施形態に係るシステムは、配信者端末と、配信サーバと、複数の視聴者端末と、を備え、動画を配信するためのシステムであって、前記配信者端末が、マイクを介して入力されるリアルタイムの音声を少なくとも含む配信動画を前記配信サーバに送信するステップと、前記配信サーバが、前記配信者端末から受信する前記配信動画を前記複数の視聴者端末の各々に送信するステップと、前記複数の視聴者端末の各々が、前記配信サーバから受信する前記配信動画に含まれる画像及び音声を出力するステップと、前記複数の視聴者端末に含まれる参加者端末、及び、前記配信者端末の間で、少なくとも通話を実行可能な所定のコミュニケーションを開始するステップと、前記参加者端末が、前記所定のコミュニケーションの開始に応じて、前記配信サーバから受信する前記配信動画に含まれる音声に代えて、前記所定のコミュニケーションにおいて受信する音声を出力するステップと、を実行する。
本発明の一実施形態に係る方法は、配信者端末と、配信サーバと、複数の視聴者端末と、を備えるシステムが、動画を配信するための方法であって、前記配信者端末が、マイクを介して入力されるリアルタイムの音声を少なくとも含む配信動画を前記配信サーバに送信するステップと、前記配信サーバが、前記配信者端末から受信する前記配信動画を前記複数の視聴者端末の各々に送信するステップと、前記複数の視聴者端末の各々が、前記配信サーバから受信する前記配信動画に含まれる画像及び音声を出力するステップと、前記複数の視聴者端末に含まれる参加者端末、及び、前記配信者端末の間で、少なくとも通話を実行可能な所定のコミュニケーションを開始するステップと、前記参加者端末が、前記所定のコミュニケーションの開始に応じて、前記配信サーバから受信する前記配信動画に含まれる音声に代えて、前記所定のコミュニケーションにおいて受信する音声を出力するステップと、を備える。
本発明の一実施形態に係る第1のプログラムは、配信者端末と、配信サーバと、複数の視聴者端末と、を備え、動画を配信するためのシステムにおいて、前記配信者端末上で実行されるプログラムであって、前記配信者端末に、マイクを介して入力されるリアルタイムの音声を少なくとも含む配信動画を前記配信サーバに送信する処理と、前記配信サーバから受信する前記配信動画に含まれる画像及び音声を出力する前記複数の視聴者端末に含まれる参加者端末との間で、少なくとも通話を実行可能な所定のコミュニケーションを開始する処理と、前記所定のコミュニケーションの開始に応じて、前記配信サーバに送信する前記配信動画に対して、マイクを介して入力されるリアルタイムの音声に加えて、前記所定のコミュニケーションにおいて受信する音声を付加する処理と、を実行させ、前記受信する音声を付加する処理は、マイクを介して入力される音声から、前記所定のコミュニケーションにおいて受信する音声のエコー成分を除去する処理を実行することを含む。
本発明の一実施形態に係る第2のプログラムは、配信者端末と、配信サーバと、複数の視聴者端末と、を備え、動画を配信するためのシステムにおいて、前記視聴者端末上で実行されるプログラムであって、前記視聴者端末に、前記配信サーバから受信する配信動画であって、前記配信サーバが前記配信者端末から受信すると共に前記配信者端末のマイクを介して入力されるリアルタイムの音声を少なくとも含む前記配信動画に含まれる画像及び音声を出力する処理と、前記配信者端末との間で、少なくとも通話を実行可能な所定のコミュニケーションを開始する処理と、前記所定のコミュニケーションの開始に応じて、前記配信サーバから受信する前記配信動画に含まれる音声に代えて、前記所定のコミュニケーションにおいて受信する音声を出力する処理と、を実行させる。
本発明の様々な実施形態は、動画を配信する配信者端末と当該動画を視聴するための視聴者端末との間で行われる通話の音声品質の悪化を抑制する。
本発明の一実施形態に係る動画配信システム1のネットワークの構成を概略的に示す構成図。 動画配信システム1の機能を概略的に示すブロック図。 メイン画面60の一例を示す図。 配信準備画面70の一例を示す図。 配信画面80の一例を示す図。 視聴画面90の一例を示す図。 視聴者が画面動画へ参加する際に配信者端末30と視聴者端末30との間で実行される処理の一例を示すシーケンス図。 視聴者端末30からの参加要求を受信したときの配信画面80の一例を示す図。 通常時の配信者端末30及び視聴者端末30それぞれにおける音声の入出力を説明するための図。 参加者が画面動画に参加している期間の配信者端末30、参加者端末30、及び他の視聴者端末30それぞれにおける音声の入出力を説明するための図。 配信者端末30のコミュニケーション制御部57における音声の入出力の詳細を説明するための図。
以下、図面を参照しながら、本発明の実施形態について説明する。
図1は、本発明の一実施形態に係る動画配信システム1のネットワークの構成を概略的に示す構成図である。動画配信システム1は、図示するように、配信サーバ10と、当該配信サーバ10とインターネット等のネットワーク20を介して通信可能に接続されたユーザ端末30とを備える。図1においては、1つのユーザ端末30のみが図示されているが、動画配信システム1は、複数のユーザ端末30を備える。配信サーバ10は、配信者のユーザ端末30(以下、「配信者端末30」と言うことがある。)が送信する配信動画を視聴者のユーザ端末30(以下、「視聴者端末30」と言うことがある。)に配信する動画配信サービスを提供する。本実施形態において、動画配信サービスのユーザは、配信者として動画を配信することができ、また、視聴者として他のユーザによって配信される動画を視聴することもできる。
配信サーバ10は、一般的なコンピュータとして構成されており、図1に示すように、CPU(コンピュータプロセッサ)11と、メインメモリ12と、ユーザI/F13と、通信I/F14と、ストレージ(記憶装置)15とを備え、これらの各構成要素が図示しないバス等を介して電気的に接続されている。
CPU11は、ストレージ15等に記憶されている様々なプログラムをメインメモリ12に読み込んで、当該プログラムに含まれる各種の命令を実行する。メインメモリ12は、例えば、DRAM等によって構成される。
ユーザI/F13は、ユーザとの間で情報をやり取りするための各種の入出力装置を含む。ユーザI/F13は、例えば、キーボード、ポインティングデバイス(例えば、マウス、タッチパネル等)等の情報入力装置、マイクロフォン(マイク)等の音声入力装置、カメラ等の画像入力装置を含む。また、ユーザI/F13は、ディスプレイ等の画像出力装置、スピーカー等の音声出力装置を含む。
通信I/F14は、ネットワークアダプタ等のハードウェア、各種の通信用ソフトウェア、及びこれらの組み合わせとして実装され、ネットワーク20等を介した有線又は無線の通信を実現できるように構成されている。
ストレージ15は、例えば磁気ディスク、フラッシュメモリ等によって構成される。ストレージ15は、オペレーティングシステムを含む様々なプログラム、及び各種データ等を記憶する。
本実施形態において、配信サーバ10は、それぞれが上述したハードウェア構成を有する複数のコンピュータを用いて構成され得る。例えば、配信サーバ10は、1又は複数のサーバ装置によって構成され得る。
このように構成された配信サーバ10は、ウェブサーバ及びアプリケーションサーバとしての機能を有し、ユーザ端末30にインストールされているウェブブラウザ及びその他のアプリケーション(例えば、動画配信サービス用のアプリケーション)からの要求に応答して各種の処理を実行し、当該処理の結果に応じた画面データ(例えば、HTMLデータ)及び制御データ等をユーザ端末30に送信する。ユーザ端末30では、受信したデータに基づくウェブページ又はその他の画面が表示される。
ユーザ端末30は、一般的なコンピュータとして構成されており、図1に示すように、CPU(コンピュータプロセッサ)31と、メインメモリ32と、ユーザI/F33と、通信I/F34と、ストレージ(記憶装置)35とを備え、これらの各構成要素が図示しないバス等を介して電気的に接続されている。
CPU31は、ストレージ35等に記憶されている様々なプログラムをメインメモリ32に読み込んで、当該プログラムに含まれる各種の命令を実行する。メインメモリ32は、例えば、DRAM等によって構成される。
ユーザI/F33は、ユーザとの間で情報をやり取りするための各種の入出力装置である。ユーザI/F33は、例えば、キーボード、ポインティングデバイス(例えば、マウス、タッチパネル等)等の情報入力装置、マイクロフォン(マイク)等の音声入力装置、カメラ等の画像入力装置を含む。また、ユーザI/F33は、ディスプレイ等の画像出力装置、スピーカー等の音声出力装置を含む。
通信I/F34は、ネットワークアダプタ等のハードウェア、各種の通信用ソフトウェア、及びこれらの組み合わせとして実装され、ネットワーク20等を介した有線又は無線の通信を実現できるように構成されている。
ストレージ35は、例えば磁気ディスク又はフラッシュメモリ等によって構成される。ストレージ35は、オペレーティングシステムを含む様々なプログラム及び各種データ等を記憶する。ストレージ35が記憶するプログラムは、アプリケーションマーケット等からダウンロードされてインストールされ得る。
本実施形態において、ユーザ端末30は、スマートフォン、タブレット端末、ウェアラブルデバイス、パーソナルコンピュータ、ゲーム専用端末、及びVR(Virtual Reality)装置(ヘッドマウントディスプレイ等)等として構成され得る。
このように構成されたユーザ端末30のユーザは、ストレージ35等にインストールされているウェブブラウザ又は動画配信サービス用のアプリケーションを介した配信サーバ10との通信を実行することによって、配信サーバ10が提供する動画配信サービスを利用することができる。動画配信サービス用のアプリケーションは、本発明のプログラムの一部又は全部を実装するプログラムの一例となり得る。
次に、本実施形態の動画配信システム1が有する機能について説明する。図2は、配信サーバ10及びユーザ端末30がそれぞれ有する機能を概略的に示すブロック図である。配信サーバ10は、図示するように、様々な情報を記憶及び管理する情報記憶管理部41と、動画配信サービスの基本機能を制御する基本機能制御部43と、動画の配信を制御する動画配信制御部45とを有する。これらの機能は、CPU11及びメインメモリ12等のハードウェア、並びに、ストレージ15等に記憶されている各種プログラムやデータ等が協働して動作することによって実現され、例えば、メインメモリ12に読み込まれたプログラムに含まれる命令をCPU11が実行することによって実現される。また、図2に示す配信サーバ10の機能の一部又は全部は、配信サーバ10とユーザ端末30とが協働することによって実現され、又は、ユーザ端末30によって実現され得る。
ユーザ端末30は、図2に示すように、様々な情報を記憶及び管理する情報記憶管理部51と、動画配信サービスにおける配信機能を制御する配信機能制御部53と、動画配信サービスにおける視聴機能を制御する視聴機能制御部55と、配信者と視聴者との間で行われる所定のコミュニケーションを制御するコミュニケーション制御部57とを有する。これらの機能は、CPU31及びメインメモリ32等のハードウェア、並びに、ストレージ35等に記憶されている各種プログラム(例えば、動画配信サービス用のアプリケーション)やデータ等が協働して動作することによって実現され、例えば、メインメモリ32に読み込まれたプログラムに含まれる命令をCPU31が実行することによって実現される。また、図2に示すユーザ端末30の機能の一部又は全部は、サーバ10とユーザ端末30とが協働することによって実現され、又は、サーバ10によって実現され得る。
配信サーバ10の情報記憶管理部41は、ストレージ15等において様々な情報を記憶及び管理する。サーバ10の基本機能制御部43は、動画配信サービスの基本機能の制御に関する様々な処理を実行する。例えば、基本機能制御部43は、基本機能に関する様々な画面のHTMLデータ又は制御データをユーザ端末30に送信し、ユーザ端末30で表示される当該画面を介したユーザによる操作入力に応答して様々な処理を実行し、当該処理の結果に応じたHTMLデータ又は制御データをユーザ端末30に送信する。基本機能制御部43によって制御される基本機能は、例えば、ログイン認証(ユーザ認証)、課金制御、ユーザに関する情報の管理、及び、個別の動画配信に関する情報の管理を含む。ユーザ及び個別の動画配信に関する情報は、情報記憶管理部41(ストレージ15等)において管理され得る。
配信サーバ10の動画配信制御部45は、動画の配信の制御に関する様々な処理を実行する。例えば、動画配信制御部45は、配信者端末30から受信する配信動画を複数の視聴者端末30の各々に送信する。具体的には、動画配信制御部45は、例えば、配信者端末30から送信される配信動画の動画データを受信し、当該受信した動画データを視聴者端末30に送信する。こうした動画の配信は、例えば、RTMP(Real Time Messaging Protocol)等のプロトコルを用いたストリーミング方式にて行われる。
本実施形態の動画配信サービスにおける配信動画は、配信者端末30のマイクを介して入力されるリアルタイムの音声を含むことができる。また、当該配信動画は、例えば、配信者端末30のディスプレイ等を介して表示されるリアルタイムの表示画面に対応する画像を含む。以下、当該表示画面に対応する画像を含む動画を「画面動画」と言うことがある。また、配信動画は、例えば、配信者端末30のカメラを介してリアルタイムに撮影(入力)される画像を含む。更に、配信動画は、マイクを介して入力されるリアルタイムの音声、及び、非リアルタイムの動画(例えば、配信者端末30のストレージ35に記憶されている動画)によっても構成され得る。
ユーザ端末30の情報記憶管理部51は、ストレージ35等において様々な情報を記憶及び管理する。ユーザ端末30の配信機能制御部53は、動画配信サービスの配信機能の制御に関する様々な処理を実行する。当該配信機能は、ユーザ端末30のユーザが配信者として動画を配信するための機能である。例えば、配信機能制御部53は、配信動画を配信サーバ10に送信する。具体的には、例えば、配信機能制御部53は、マイクを介して入力されるリアルタイムの音声に少なくとも基づいて配信動画の動画データを生成し、当該生成した動画データを配信サーバ10に送信する。例えば、配信動画が上記画面動画である場合において、配信機能制御部53は、ユーザ端末30のディスプレイ等を介して表示される表示画面に対応する画像、及び、マイクを介して入力される音声によって構成される画面動画の動画データをリアルタイムに生成し、当該生成した動画データを配信サーバ10に送信する。
ユーザ端末30の視聴機能制御部55は、動画配信サービスの視聴機能の制御に関する様々な処理を実行する。当該視聴機能は、ユーザ端末30のユーザが視聴者として他のユーザによって配信される動画を視聴するための機能である。例えば、視聴機能制御部55は、配信サーバ10から受信する配信動画に含まれる画像及び音声を出力する。例えば、視聴機能制御部55は、配信サーバ10から送信される配信動画の動画データを受信し、当該受信した動画データに基づいて、動画に含まれる画像を、ディスプレイ等を介して表示すると共に、動画に含まれる音声を、スピーカー等を介して出力する。
ユーザ端末30のコミュニケーション制御部57は、配信者端末30と配信動画への参加者のユーザ端末30(以下、「参加者端末30」と言うことがある。)との間で行われる所定のコミュニケーションの制御に関する様々な処理を実行する。本実施形態において、所定のコミュニケーションは、少なくとも通話を実行可能なコミュニケーションである。例えば、コミュニケーション制御部57は、所定のコミュニケーションを行う相手のユーザ端末30との間の通信(セッション)の確立に関する処理を実行し、当該コミュニケーション用のセッションを確立後、マイクを介して入力される音声の音声データを、当該セッションを介して送信する一方、当該セッションを介して受信する音声データに対応する音声を、スピーカー等を介して出力する。
本実施形態において、参加者端末30は、所定のコミュニケーションの開始に応じて、配信サーバ10から受信する配信動画に含まれる音声に代えて、所定のコミュニケーションにおいて受信する音声を出力するように構成されている。例えば、視聴機能制御部55は、所定のコミュニケーションの開始に応じて、配信サーバ10から受信する配信動画に含まれる音声をミュート(消音)するように構成されており、この結果、参加者端末30では、配信動画に含まれる音声に代えて、所定のコミュニケーションにおいて受信する音声が出力される。
このように、本実施形態における動画配信システム1は、所定のコミュニケーションの開始に応じて、参加者端末30が、配信サーバ10から受信する配信動画に含まれる音声に代えて、所定のコミュニケーションにおいて受信する音声を出力する。従って、参加者端末30と配信者端末30との間の音声通話の内容が、配信動画に含まれる音声として配信サーバ10を介して参加者端末30に送信され、当該参加者端末30において出力される場合と比較して、参加者端末30における参加者自身の音声の遅延した出力(エコーの発生)が抑制され、この結果、通話の音声品質の悪化が抑制される。
本実施形態において、配信者端末30は、所定のコミュニケーションの開始に応じて、配信サーバ10に送信する配信動画に対して、マイクを介して入力されるリアルタイムの音声に加えて、所定のコミュニケーションにおいて受信する音声を付加するように構成され得る。例えば、コミュニケーション制御部57は、マイクを介して入力される音声の音声データと、所定のコミュニケーションにおいて受信する音声の音声データとを合成するように構成され、配信機能制御部53は、当該合成した音声データに基づいて配信動画の動画データを生成するように構成される。こうした構成は、所定のコミュニケーションにおいて受信する音声が、配信者端末30のマイクを介することなく配信動画に付加されるから、配信動画に含まれる音声(当該音声は、他の視聴者端末30においては出力される。)の品質を向上させる。また、所定のコミュニケーションを介して受信する音声が、配信者端末30のマイクを介することなく配信動画に付加されるから、配信者端末30においてヘッドフォン等を使用する場合であっても、参加者端末30と配信者端末30との間の音声通話の内容を含む配信動画が他の視聴者端末30に配信される。
また、配信者端末30は、マイクを介して入力されるリアルタイムの音声から所定のコミュニケーションにおいて受信する音声のエコー成分を除去する処理を実行するように構成され得る。例えば、コミュニケーション制御部57は、一般的なエコーキャンセル技術を適用し、所定のコミュニケーションにおいて受信する音声の音声データに基づいて、マイクを介して入力される音声の音声データから、当該受信する音声のエコー成分を除去する処理を実行するように構成される。この場合、配信機能制御部53は、エコー成分を除去する処理が実行された音声データに基づいて配信動画の動画データを生成及び送信し、コミュニケーション制御部57は、エコー成分を除去する処理が実行された音声データを所定のコミュニケーションにおいて送信する。こうした構成は、配信動画に含まれる音声、及び、所定のコミュニケーションにおける通話音声の、エコー成分による品質の悪化を抑制する。
本実施形態において、所定のコミュニケーションは、配信サーバ10を介することなく行われ、例えば、P2P(Peer to Peer)通信を用いて行われるように構成され得る。この場合、配信者端末30及び参加者端末30それぞれのコミュニケーション制御部57は、例えば、図示しないシグナリングサーバを介したシグナリングを実行した後に、P2P通信を用いた所定のコミュニケーションを開始する。P2P通信を用いたコミュニケーションは、例えば、WebRTC(Web Real−Time Communication)を適用して実現することができる。ここで、本実施形態において、所定のコミュニケーションは、P2P通信を用いて行われるものに限定されず、例えば、クライアントサーバ型の通信を用いて行われるものも含まれる。
本実施形態において、所定のコミュニケーションは、通話(音声の送受信)に加えて、他の情報の送受信が実行可能なものを含む。例えば、所定のコミュニケーションは、画像の送受信が実行可能であり、この場合、配信者端末30は、所定のコミュニケーションの開始に応じて、配信サーバ10に送信する配信動画に対して、所定のコミュニケーションにおいて受信する画像を付加するように構成され得る。例えば、配信機能制御部53は、所定のコミュニケーションにおいて受信する画像を、コミュニケーション制御部57を介して取得し、取得した画像を、配信動画の表示領域における一部の領域に付加するように構成される。ここで、所定のコミュニケーションにおいて受信する画像は、例えば、参加者端末30のディスプレイ等を介して表示されるリアルタイムの表示画面に対応する画像、参加者端末30のカメラ等を介してリアルタイムに撮影(入力)される画像、及び、その他の様々な画像を含み得る。こうした構成は、音声による配信動画への参加に加えて、画像による配信動画への参加を可能とする。
本実施形態において、参加者端末30は、所定のコミュニケーションの終了に応じて、所定のコミュニケーションにおいて受信する音声に代えて、配信サーバ10から受信する配信動画に含まれる音声を出力するように構成され得る。例えば、視聴機能制御部55は、所定のコミュニケーションの終了に応じて、配信サーバ10から受信する配信動画に含まれる音声のミュートを解除するように構成される。
本実施形態において、所定のコミュニケーションは、複数の視聴者端末30に含まれる特定の視聴者端末30からの参加要求の配信者端末30における承諾に応じて、当該特定の視聴者端末30(参加者端末30)及び配信者端末30の間で開始されるように構成され得る。例えば、視聴者端末30の視聴機能制御部55が、視聴者端末30において表示される画面を介した視聴者からの参加要求を受け付け、当該参加要求を、配信サーバ10を介して配信者端末30に送信し、配信者端末30の配信機能制御部53が、配信者端末30において表示される画面を介した配信者による参加要求の承諾を受け付け、当該参加要求の承諾の受付に応じて、配信者端末30及び参加者端末30それぞれのコミュニケーション制御部57が所定のコミュニケーションを開始する、ように構成される。
次に、このような機能を有する本実施形態の動画配信システム1の具体例について説明する。この具体例における動画配信サービスでは、配信者端末30の表示画面に対応する画像を含むリアルタイムの画面動画が、配信動画として、複数の視聴者端末30に配信される。こうした画面動画の配信は、「画面の生配信」と呼ばれることがある。
図3は、この例において、動画配信サービスのユーザが当該サービスを利用するときの起点となるメイン画面60の一例を示す。このメイン画面60は、例えば、動画配信サービス用のアプリケーションがユーザ端末30上で起動されたとき、又は、配信サーバ10が提供する動画配信サービス用のウェブサイトにユーザ端末30がウェブブラウザを介してアクセスしたとき等に表示される。
メイン画面60は、図3に示すように、お薦めの動画を表示する推奨領域61と、配信中の動画を一覧表示する動画一覧領域62とを有し、下端に基本メニュ領域100が配置されている。推奨領域61及び動画一覧領域62に表示される動画に関する情報には、動画のタイトル(配信タイトル。図3の例では「YYY」、「XXX」等と表示されている。)、及び、配信者情報が含まれる。ユーザは、推奨領域61及び動画一覧領域62に表示されている動画の何れかを選択することにより、視聴者として、当該動画の視聴を開始することができる。
基本メニュ領域100は、動画配信サービスを利用するときの基本となるメニュによって構成されており、メイン画面60以外の主要な画面においても同様に配置されている。基本メニュ領域100は、具体的には、メイン画面60を表示するためのメインメニュ102と、ユーザや動画を検索するための検索メニュ104と、動画の配信を開始するための配信メニュ106と、ユーザに対するお知らせを表示するためのお知らせメニュ108と、自身のユーザページ(マイページ)を表示するためのマイページメニュ109とによって構成されている。
ユーザが検索メニュ104を選択すると、例えば、キーワード等を用いて他のユーザ又は動画を検索するための検索用画面が表示される。また、ユーザがマイページメニュ109を選択すると、ユーザ自身のユーザページ(マイページ)を表示するマイページ画面が表示され、ユーザは当該画面を介して、例えば、自身の基本情報等を閲覧及び編集することができ、又、配信履歴や視聴履歴を閲覧することができる。
ユーザが配信メニュ106を選択すると、図4に例示する配信準備画面70がユーザ端末30に表示される。配信準備画面70は、図示するように、配信タイトルを入力するためのタイトル入力領域72と、「配信開始!」と表示された配信開始ボタン74とを有し、下端に基本メニュ領域100が配置されている。この配信準備画面70は、ユーザが動画の配信の開始を指示するための画面である。
ユーザが、タイトル入力領域72に所望の配信タイトル(例えば、「ゲームXの生配信!」等)を入力した上で、配信開始ボタン74を選択すると、配信準備画面70が閉じられて、画面動画の配信が開始される。具体的には、配信者のユーザ端末30(配信者端末30)における表示画面に対応する画像、及び、マイクを介して入力される音声によって構成される画面動画の動画データの生成及び配信サーバ10への送信が開始される。画面動画の配信が開始されると、視聴者からの視聴要求に応答して、配信サーバ10から当該視聴者のユーザ端末30(視聴者端末30)に画面動画の動画データが送信されるようになる。
図5は、動画の配信中において配信者端末30に表示される配信画面80の一例を示す。当該配信画面80は、配信開始ボタン74が選択されて配信準備画面70が閉じられたときに表示される。この具体例では、動画の配信中において、動画配信サービス用のアプリケーション等のプログラムはバックグラウンドで動作し、配信画面80の画面全体に対応する表示領域210には、例えば、OSのホーム画面、又は、起動中の他のアプリケーションの画面が表示される。
配信画面80には、図5に示すように、画面上端のコメント入力領域82、その左下側のカメラ画像表示領域84、並びに、画面右下隅の設定ボタン86及び終了ボタン88が、それぞれ表示領域210に重畳して配置されている。コメント入力領域82は、配信者が文字列等のコメントを入力できるように構成されている。また、カメラ画像表示領域84は、配信者端末30のフロントカメラ等を介して入力される画像(具体的には、例えば、配信者の映像)が表示される。
配信者が設定ボタン86を選択すると、図示しない設定用画面を介して各種の配信設定を行うことができる。例えば、マイクの無効化(ミュート)、カメラの無効化(カメラ画像表示領域84の非表示を含む。)、コメントの閲覧、コメント欄の非表示(コメント入力領域82の非表示)等の設定を行うことができる。ここで、「コメントの閲覧」は、配信者自身が入力したコメント、及び、視聴者が入力したコメントを表示するための設定である。
ここで、コメント入力領域82、カメラ画像表示領域84、設定ボタン86、及び終了ボタン88は、バックグラウンドで動作する動画配信サービス用のアプリケーション等によって制御されるウィジェット形式のオブジェクトである。配信者は、配信画面80の表示領域210全体のうち、オブジェクト82、84、86及び88以外の領域をタップ操作等することによって、表示領域210に表示されている画面を介した操作(OS、又は、起動中の他のアプリケーションに対する操作)を実行することができる。また、配信者はコメント入力領域82及びカメラ画像表示領域84をスライド操作等することによって、これらの表示位置を変更する(オブジェクトを移動させる)こともできる。
図6は、画面動画を視聴する視聴者のユーザ端末30(視聴者端末30)に表示される視聴画面90の一例を示す。視聴者は、例えば、メイン画面60の推奨領域61及びコンテンツ一覧領域62に表示されている動画の何れかを選択すること、又は、検索メニュ104を介して検索した動画の何れかを選択すること等によって、視聴する動画を選択することができ、こうした動画の選択に応じて、対応する画面動画の動画データが配信サーバ10から視聴者端末30に送信され、当該動画データに対応する動画を表示する視聴画面90が視聴者端末30において表示される。
視聴画面90は、図6に示すように、画面動画を表示する動画表示領域92と、画面左下隅に位置するコメント入力領域93と、画面右下隅に位置する設定ボタン94及び参加要求ボタン95とを有する。図示するように、動画表示領域92は、配信者端末30における表示画面(配信画面80)に対応する画像を含む画面動画が表示される。
コメント入力領域93は、視聴者が文字列等のコメントを入力できるように構成されている。視聴者が設定ボタン94を選択すると、図示しない設定用画面を介して各種の視聴設定を行うことができ、例えば、コメントの閲覧等の設定を行うことができる。
視聴画面90の参加要求ボタン95は、視聴者が、配信者との通話を介した画面動画への参加を要求するためのボタンである。以下、視聴者が画面動画へ参加する際の動作について説明する。図7は、視聴者が画面動画へ参加する際に配信者端末30と視聴者端末30との間で実行される処理の一例を示すシーケンス図である。まず、図示するように、視聴者による参加要求ボタン95の選択に応じて、視聴者端末30が、配信者端末30に対する参加要求を送信する(ステップS100)。当該参加要求は、参加要求を送信した視聴者に関する情報を含み、配信サーバ10を介して配信者端末30に送信される。
そして、参加要求を受信した配信者端末30は、参加要求の配信者による承諾を受け付ける(ステップS110)。図8は、参加要求を受信したときの配信画面80を例示する。図示するように、配信画面80は、参加要求の受信に応じて、通知オブジェクト89を表示するように構成されている。当該通知オブジェクト89は、カメラ画像表示領域84の右側に位置し、参加要求を行った視聴者に関する情報を表示すると共に、承諾ボタン891を有する。配信者は、承諾ボタン891を選択することにより、視聴者からの参加要求を承諾することができる。なお、この例において、通知オブジェクト89は、配信者によって承諾ボタン891が選択されないと、所定の期間(例えば、10秒)表示された後に消える。
こうして通知オブジェクト89の承諾ボタン891の選択に応じて参加要求の承諾が受け付けられると、配信者端末30と視聴者端末30(参加者端末30)との間で通話のための通信(セッション)が確立される(ステップS120)。具体的には、この例では、配信者端末30及び参加者端末30が図示しないシグナリングサーバを介してシグナリングを実行した後に、配信者端末30と参加者端末30との間でP2P通信を用いた通話用のセッションが確立される。当該セッションの確立に応じて、配信者端末30及び参加者端末30の間の通話(音声の送受信)が可能となる。
ここで、配信者端末30、視聴者端末30、及び参加者端末30それぞれにおける音声の入出力について説明する。まず、通常時(画面動画に参加する参加者が存在しない期間)における音声の入出力について説明する。図9は、通常時の配信者端末30及び視聴者端末30それぞれにおける音声の入出力を説明するための図である。図示するように、配信者端末30においては、配信機能制御部53が、マイクを介して入力される音声(マイク音声)及び表示画面に対応する画像によって構成される画面動画の動画データを生成して配信サーバ10に送信し、視聴者端末30においては、視聴機能制御部55が、配信サーバ10を介して受信する動画データに対応する画面動画(画像及び音声)をそのまま出力する。
図10は、参加者が画面動画に参加している期間(通話用のセッションが確立されている期間)の配信者端末30、参加者端末30、及び他の視聴者端末30それぞれにおける音声の入出力を説明するための図である。図示するように、参加者が画面動画に参加している期間において、配信者端末30及び参加者端末30それぞれのコミュニケーション制御部57が、マイクを介して入力されるマイク音声の音声データを、通話用のセッションを介して送信し、当該セッションを介して受信する音声データに対応する通話音声を、スピーカー等を介して出力する。
図11は、図10の配信者端末30のコミュニケーション制御部57における音声の入出力の詳細を説明するための図である。図示するように、この例において、コミュニケーション制御部57はエコーキャンセラー572を有する。当該エコーキャンセラー572は、通話用のセッションを介して受信する音声データに基づいて、マイクを介して入力されるマイク音声の音声データから、当該受信する音声データのエコー成分を除去する機能を有する。コミュニケーション制御部57が通話用のセッションを介して送信する音声データは、エコーキャンセラー572によって上記エコー成分を除去する処理が実行された音声データである。なお、参加者端末30のコミュニケーション制御部57においても、同様に、エコーキャンセラー572によるエコー成分を除去する処理が実行される。
また、図11に示すように、この例において、コミュニケーション制御部57はミキサー574を有する。当該ミキサー574は、エコーキャンセラー572によって上記エコー成分を除去する処理が実行されたマイク音声の音声データと、通話用のセッションを介して受信する音声データとを合成する機能を有する。配信機能制御部53は、当該合成音声の音声データをコミュニケーション制御部574から取得して、当該合成音声の音声データを含む動画データを生成及び送信する。
図10に戻り、配信サーバ10は、配信者端末30から送信される画面動画の動画データを、参加者端末30を含む複数の視聴者端末30に送信する。参加者端末30以外の視聴者端末30(画面動画に参加していない視聴者端末30)においては、受信する動画データに対応する画面動画に含まれる画像及び音声がそのまま出力される。一方、参加者端末30は、画面動画に参加している期間において、画面動画に含まれる音声がミュート(消音)され、画面動画に含まれる画像のみが出力(表示)される。この結果、参加者端末30では、画面動画に含まれる画像が表示されると共に、通話用のセッションを介した通話音声が出力される。
このように、参加者が画面動画に参加している期間において、参加者端末30は、配信サーバ10を介して配信される画面動画に含まれる音声を出力せずに、通話用のセッションを介した通話音声を出力する。当該通話音声は、配信サーバ10を介して配信される画面動画に含まれる音声と比較して、その遅延が抑制されている。また、配信者端末30及び参加者端末30それぞれのコミュニケーション制御部57のエコーキャンセラー572によって、マイク音声に含まれるエコー成分を除去する処理が実行されるから、エコー成分による通話音声の品質の悪化が抑制されている。さらに、配信者端末30において、エコー成分を除去する処理が実行されたマイク音声と通話用のセッションを介した通話音声との合成音声を含む画面動画の動画データが生成及び送信されるから、画面動画に参加していない視聴者端末30において出力される音声も、その品質の悪化が抑制されている。
なお、配信者及び参加者は、配信画面80又は視聴画面90を介して通話の終了(セッションの解除)を指示することができる。通話の終了に応じて、参加者端末30は、画面動画に参加していない状態に戻り、具体的には、画面動画に含まれる音声のミュート(消音)が解除される。
上述した例では、1の視聴者のみが画面動画に参加する場合について説明したが、複数の視聴者が画面動画に参加することもできる。この場合、配信者端末30と複数の参加者端末30との間でメッシュ型のP2P通信ネットワークを用いた通話用のセッションが確立され、当該セッションを介して、配信者端末30と複数の参加者端末30との間の通話(グループ通話)が行われる。
また、上述した例では、配信者端末30と参加者端末30との間で、通話用のセッションを介した通話(音声の送受信)が行われるようにしたが、通話に加えて、画像の送受信を行うようにしても良い。例えば、上述したWebRTCは、音声以外の様々な情報の送受信を伴うコミュニケーションに適用することができる。この場合、配信者端末30において、確立されたセッションを介して受信する画像を画面動画の表示領域の一部の領域に付加するようにしても良い。更に、参加者端末30において、確立されたセッションを介して、配信者端末30から画面動画自体を受信するようにしても良い。この場合、参加者端末30においては、配信サーバ10が配信する画面動画の出力を行うことなく、当該セッションを介して受信する画面動画を出力することになる。
以上説明した本実施形態の動画配信システム1は、視聴者端末30及び参加者端末30の間で行われる所定のコミュニケーションの開始(例えば、通話用のセッションの確立)に応じて、参加者端末30が、配信サーバ10から受信する配信動画に含まれる音声に代えて、所定のコミュニケーションにおいて受信する音声を出力する。従って、参加者端末30と配信者端末30との間の音声通話の内容が、配信動画に含まれる音声として配信サーバ10を介して参加者端末30に送信され、当該参加者端末30において出力される場合と比較して、参加者端末30における参加者自身の音声の遅延した出力(エコーの発生)が抑制され、この結果、通話の音声品質の悪化が抑制される。つまり、本発明の実施形態は、動画を配信する配信者端末と当該動画を視聴するための視聴者端末との間で行われる通話の音声品質の悪化を抑制する。
上述した実施形態では、ユーザ端末30が、配信者端末30及び視聴者端末30として機能するように構成したが、本発明の実施形態において、各端末を専用の端末として構成しても良い。例えば、配信者専用の端末は、視聴機能制御部55を有しないように構成され、視聴者専用の端末は、配信機能制御部53を有しないように構成され得る。
本明細書で説明された処理及び手順は、明示的に説明されたもの以外にも、ソフトウェア、ハードウェアまたはこれらの任意の組み合わせによって実現される。例えば、本明細書で説明される処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク等の媒体に、当該処理及び手順に相当するロジックを実装することによって実現される。また、本明細書で説明された処理及び手順は、当該処理・手順に相当するコンピュータプログラムとして実装し、各種のコンピュータに実行させることが可能である。
本明細書中で説明された処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理または手順は複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は複数のモジュールによって実行され得る。また、本明細書において説明されたソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、またはより多い構成要素に分解することによって実現することも可能である。
本明細書において、発明の構成要素が単数もしくは複数のいずれか一方として説明された場合、又は、単数もしくは複数のいずれとも限定せずに説明された場合であっても、文脈上別に解すべき場合を除き、当該構成要素は単数又は複数のいずれであってもよい。
1 動画配信システム
10 配信サーバ
20 ネットワーク
30 ユーザ端末(配信者端末、視聴者端末、参加者端末)
41 情報記憶管理部
43 基本機能制御部
45 動画配信制御部
51 情報記憶管理部
53 配信機能制御部
55 視聴機能制御部
57 コミュニケーション制御部
60 メイン画面
70 配信準備画面
80 配信画面
90 視聴画面

Claims (9)

  1. 配信者端末と、配信サーバと、複数の視聴者端末と、を備え、動画を配信するためのシステムであって、
    前記配信者端末が、マイクを介して入力されるリアルタイムの音声及び前記配信者端末の表示画面に対応する画像を少なくとも含む配信動画を前記配信サーバに送信するステップと、
    前記配信サーバが、前記配信者端末から受信する前記配信動画を前記複数の視聴者端末の各々に送信するステップと、
    前記複数の視聴者端末の各々が、前記配信サーバから受信する前記配信動画に含まれる画像及び音声を出力するステップと、
    前記複数の視聴者端末に含まれる参加者端末、及び、前記配信者端末の間で、少なくとも通話を実行可能な所定のコミュニケーションを開始するステップと、
    前記参加者端末が、前記所定のコミュニケーションの開始に応じて、前記配信サーバから受信する前記配信動画に含まれる音声に代えて、前記所定のコミュニケーションにおいて受信する音声を出力するステップと、を実行し、
    前記所定のコミュニケーションは、前記配信者端末から前記参加者端末に対する前記配信動画の送信が少なくとも可能であり、
    前記参加者端末が前記所定のコミュニケーションにおいて受信する音声を出力するステップは、前記配信サーバから受信する前記配信動画に含まれる画像に代えて、前記所定のコミュニケーションにおいて前記配信者端末から受信する前記配信動画に含まれる画像を出力することを含む、
    システム。
  2. 前記配信者端末が、前記所定のコミュニケーションの開始に応じて、前記配信サーバに送信する前記配信動画に対して、マイクを介して入力されるリアルタイムの音声に加えて、前記所定のコミュニケーションにおいて受信する音声を付加するステップを更に実行する請求項1のシステム。
  3. 前記配信者端末が、前記所定のコミュニケーションの開始に応じて、マイクを介して入力される音声から、前記所定のコミュニケーションにおいて受信する音声のエコー成分を除去する処理を実行するステップを更に実行する請求項1又は2のシステム。
  4. 前記所定のコミュニケーションは、P2P通信を用いて行われる請求項1ないし3何れかのシステム。
  5. 前記参加者端末が、前記所定のコミュニケーションの終了に応じて、前記所定のコミュニケーションにおいて受信する音声に代えて、前記配信サーバから受信する前記配信動画に含まれる音声を出力するステップを更に実行する請求項1ないし4何れかのシステム。
  6. 請求項1ないし5何れかのシステムであって、
    前記所定のコミュニケーションは、画像の送受信が可能であり、
    前記配信者端末が、前記所定のコミュニケーションの開始に応じて、前記配信サーバに送信する前記配信動画に対して、前記所定のコミュニケーションにおいて受信する画像を付加するステップを更に実行する、
    システム。
  7. 前記所定のコミュニケーションを開始するステップは、前記複数の視聴者端末に含まれる1の視聴者端末からの参加要求の前記配信者端末における承諾に応じて、前記参加者端末としての前記1の視聴者端末及び前記配信者端末の間で、前記所定のコミュニケーションを開始することを含む請求項1ないし6何れかのシステム。
  8. 配信者端末と、配信サーバと、複数の視聴者端末と、を備えるシステムが、動画を配信するための方法であって、
    前記配信者端末が、マイクを介して入力されるリアルタイムの音声及び前記配信者端末の表示画面に対応する画像を少なくとも含む配信動画を前記配信サーバに送信するステップと、
    前記配信サーバが、前記配信者端末から受信する前記配信動画を前記複数の視聴者端末の各々に送信するステップと、
    前記複数の視聴者端末の各々が、前記配信サーバから受信する前記配信動画に含まれる画像及び音声を出力するステップと、
    前記複数の視聴者端末に含まれる参加者端末、及び、前記配信者端末の間で、少なくとも通話を実行可能な所定のコミュニケーションを開始するステップと、
    前記参加者端末が、前記所定のコミュニケーションの開始に応じて、前記配信サーバから受信する前記配信動画に含まれる音声に代えて、前記所定のコミュニケーションにおいて受信する音声を出力するステップと、を備え、
    前記所定のコミュニケーションは、前記配信者端末から前記参加者端末に対する前記配信動画の送信が少なくとも可能であり、
    前記参加者端末が前記所定のコミュニケーションにおいて受信する音声を出力するステップは、前記配信サーバから受信する前記配信動画に含まれる画像に代えて、前記所定のコミュニケーションにおいて前記配信者端末から受信する前記配信動画に含まれる画像を出力することを含む、
    方法。
  9. 配信者端末と、配信サーバと、複数の視聴者端末と、を備え、動画を配信するためのシステムにおいて、前記視聴者端末上で実行されるプログラムであって、前記視聴者端末に、
    前記配信サーバから受信する配信動画であって、前記配信サーバが前記配信者端末から受信すると共に前記配信者端末のマイクを介して入力されるリアルタイムの音声及び前記配信者端末の表示画面に対応する画像を少なくとも含む前記配信動画に含まれる画像及び音声を出力する処理と、
    前記配信者端末との間で、少なくとも通話を実行可能な所定のコミュニケーションを開始する処理と、
    前記所定のコミュニケーションの開始に応じて、前記配信サーバから受信する前記配信動画に含まれる音声に代えて、前記所定のコミュニケーションにおいて受信する音声を出力する処理と、を実行させ、
    前記所定のコミュニケーションは、前記配信者端末から前記視聴者端末に対する前記配信動画の送信が少なくとも可能であり、
    前記所定のコミュニケーションにおいて受信する音声を出力する処理は、前記配信サーバから受信する前記配信動画に含まれる画像に代えて、前記所定のコミュニケーションにおいて前記配信者端末から受信する前記配信動画に含まれる画像を出力することを含む、
    プログラム。
JP2016248525A 2016-12-21 2016-12-21 動画を配信するためのシステム、方法、及び、これらに用いられるプログラム Active JP6426136B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016248525A JP6426136B2 (ja) 2016-12-21 2016-12-21 動画を配信するためのシステム、方法、及び、これらに用いられるプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016248525A JP6426136B2 (ja) 2016-12-21 2016-12-21 動画を配信するためのシステム、方法、及び、これらに用いられるプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018078188A Division JP2018110459A (ja) 2018-04-16 2018-04-16 動画を配信するためのシステム、方法、及び、これらに用いられるプログラム

Publications (2)

Publication Number Publication Date
JP2018101965A JP2018101965A (ja) 2018-06-28
JP6426136B2 true JP6426136B2 (ja) 2018-11-21

Family

ID=62715643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016248525A Active JP6426136B2 (ja) 2016-12-21 2016-12-21 動画を配信するためのシステム、方法、及び、これらに用いられるプログラム

Country Status (1)

Country Link
JP (1) JP6426136B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022137326A1 (ja) * 2020-12-22 2022-06-30 日本電信電話株式会社 映像音響合成装置、方法及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2638280B2 (ja) * 1990-09-28 1997-08-06 日本電気株式会社 遠隔講義方式
JP4099958B2 (ja) * 2001-06-06 2008-06-11 三菱電機株式会社 デジタル放送受信機
JP2003333572A (ja) * 2002-05-08 2003-11-21 Nippon Hoso Kyokai <Nhk> 仮想観客形成装置およびその方法、仮想観客形成受信装置およびその方法ならびに仮想観客形成プログラム
JP2005159485A (ja) * 2003-11-21 2005-06-16 Hitachi Ltd 端末制御システム、携帯端末および端末制御方法
JP4900637B2 (ja) * 2003-12-25 2012-03-21 独立行政法人産業技術総合研究所 番組放送システム、通信端末装置、番組構成方法及び番組放送プログラム
JP2006020286A (ja) * 2004-06-02 2006-01-19 Matsushita Electric Ind Co Ltd 携帯端末装置
JP2013093741A (ja) * 2011-10-26 2013-05-16 Hitachi Consumer Electronics Co Ltd 通信装置、通信システムおよび通信方法

Also Published As

Publication number Publication date
JP2018101965A (ja) 2018-06-28

Similar Documents

Publication Publication Date Title
US10579243B2 (en) Theming for virtual collaboration
JP6404912B2 (ja) ライブ放送システム
US8429704B2 (en) System architecture and method for composing and directing participant experiences
US9473741B2 (en) Teleconference system and teleconference terminal
US9756096B1 (en) Methods for dynamically transmitting screen images to a remote device
US9398260B2 (en) Teleconference system, storage medium storing program for server apparatus, and storage medium storing program for terminal apparatus
WO2019107274A1 (ja) 情報処理装置およびゲーム画像配信方法
KR20140103156A (ko) 멀티미디어 서비스를 이용하기 위한 시스템, 장치 및 방법
JP2019036969A (ja) ライブ放送システム
JP2024518472A (ja) 画像融合方法、装置、電子機器および記憶媒体
JP7284908B1 (ja) データ処理方法、システム及びコンピュータプログラム
KR102408778B1 (ko) 인터넷 전화 기반 통화 중에 컨텐츠를 공유하는 방법, 시스템, 및 컴퓨터 프로그램
US10182204B1 (en) Generating images of video chat sessions
JP6426136B2 (ja) 動画を配信するためのシステム、方法、及び、これらに用いられるプログラム
WO2019107275A1 (ja) 情報処理装置およびゲーム画像配信方法
JP2018110459A (ja) 動画を配信するためのシステム、方法、及び、これらに用いられるプログラム
KR102164833B1 (ko) 멀티미디어 콘텐츠 송출을 위한 장치 및 방법
JP7141143B2 (ja) オンライン会議システム
CN111404977A (zh) 文档远程演示和观看方法以及终端设备
CN115037979B (zh) 投屏方法及相关设备
US10110526B1 (en) Website visitor communication system with asynchronous one-way video channel
JP6442591B1 (ja) コマンド処理サーバ、コマンド処理プログラム、コマンド処理システム、コマンド実行プログラムおよびコマンド処理方法
JP2005006240A (ja) 画像配信システム及び画像配信サーバ
TW201423417A (zh) 數位資料即時分享系統與方法
KR101492007B1 (ko) Sip 기반의 통화와 디지털멀티미디어 공유를 지원하는 iptv를 이용한 정보 공유 방법 및 시스템

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180416

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181024

R150 Certificate of patent or registration of utility model

Ref document number: 6426136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250