JP2022155136A - 通信装置、制御方法、およびプログラム - Google Patents

通信装置、制御方法、およびプログラム Download PDF

Info

Publication number
JP2022155136A
JP2022155136A JP2021058483A JP2021058483A JP2022155136A JP 2022155136 A JP2022155136 A JP 2022155136A JP 2021058483 A JP2021058483 A JP 2021058483A JP 2021058483 A JP2021058483 A JP 2021058483A JP 2022155136 A JP2022155136 A JP 2022155136A
Authority
JP
Japan
Prior art keywords
moving image
image data
distribution
transmitting
transmission
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021058483A
Other languages
English (en)
Inventor
直人 豊嶋
Naoto Toyoshima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021058483A priority Critical patent/JP2022155136A/ja
Priority to US17/703,772 priority patent/US20220321924A1/en
Publication of JP2022155136A publication Critical patent/JP2022155136A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/611Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for multicast or broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/401Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/402Support for services or applications wherein the services involve a main real-time session and one or more additional parallel non-real time sessions, e.g. downloading a file in a parallel FTP session, initiating an email or combinational services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】 送信される複数の動画データをユーザが切り替える手間を軽減する。【解決手段】 通信装置は、第一の動画データを生成する撮像手段と、第二の動画データを保持する保持手段と、前記撮像手段によって生成されている前記第一の動画データを前記外部装置へ送信を開始する際、前記第一の動画データを送信する前に前記保持されている前記第二の動画データの送信を開始する送信手段とを有することを特徴とする。【選択図】 図1

Description

本発明は、送信する動画データを切り替え可能な通信装置に関する。
近年、動画データや音声データをリアルタイムに配信するライブ配信サービスが知られている。ユーザはスマートフォンやデジタルカメラなどの通信装置に搭載されたカメラやマイク等を利用して生成されたデータをライブ配信サービスを介してリアルタイムに他のユーザに送信できる。特許文献1では、ライブ配信可能なデジタルカメラが開示されている。
特開2020-106932号公報
ライブ配信でより多くの視聴者にライブ配信を見てもらう方法として、ライブ配信の前にオープニング動画を配信したり、ライブ配信の後にエンディング動画を配信したりすることで、視聴者の興味を引く方法がある。例えば、オープニング動画を配信する場合、ユーザは、配信される動画データとして、オープニング動画である動画データの配信が完了してから、リアルタイムに生成されている動画データへ、手動で切り替える操作を行う。しかし、複数の動画データを手動で切り替えるための操作をしている姿は、配信者であるユーザにとっては、視聴者であるユーザに見せたくはないことが多い。配信者であるユーザは、そのような姿を視聴者であるユーザに見せないためには、何かしらの工夫をする必要があった。このように、ユーザは、複数の動画データを切り替えながら配信する際には、配信には不要な手間をかける必要がある。
そこで本発明では、送信される複数の動画データをユーザが切り替える手間を軽減することを目的とする。
上記目的を達成するために、本発明の通信装置は、第一の動画データを生成する撮像手段と、第二の動画データを保持する保持手段と、前記撮像手段によって生成されている前記第一の動画データを前記外部装置へ送信を開始する際、前記第一の動画データを送信する前に前記保持されている前記第二の動画データの送信を開始する送信手段とを有することを特徴とする。
本発明によれば、送信される複数の動画データをユーザが切り替える手間を軽減することができる。
第一の実施形態におけるデジタルカメラの構成および外観図の一例を示す図である。 第一の実施形態におけるライブ配信サービスのシステム構成の一例を示す図である。 第一の実施形態におけるデジタルカメラのライブ配信設定画面の一例を示す図である。 第一の実施形態におけるデジタルカメラと配信サーバの処理の一例を示すシーケンス図である。 第一の実施形態におけるライブ配信中のデジタルカメラの表示画面と配信サーバによって配信される動画データの一例である。 第一の実施形態におけるデジタルカメラの動作の一例を示すフローチャートである。 第一の実施形態におけるオープニング動画配信中のデジタルカメラの動作の一例を示す図である。 第一の実施形態におけるオープニング動画配信中のデジタルカメラの表示画面の一例である。
以下に、本発明を実施するための形態について、添付の図面を用いて詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されてもよい。また、各実施の形態を適宜組み合せることも可能である。
[第1の実施形態]
<デジタルカメラの構成>
図1(a)は本実施形態の通信装置の一例であるデジタルカメラ100の構成例を示すブロック図である。なお、ここでは通信装置の一例としてデジタルカメラについて述べるが、通信装置はこれに限られない。例えば通信装置はスマートフォンや、パーソナルコンピュータ、スマートウォッチ、タブレット端末等の装置である。
制御部101は、不揮発性メモリ103に記憶されているプログラムを実行するためのハードウェア(例えばプロセッサ)を有する。制御部101は、不揮発性メモリ103に記録されているプログラムを実行してデジタルカメラ100を制御する。なお、制御部101が装置全体を制御する代わりに、複数のハードウェアが処理を分担することで、装置全体を制御してもよい。
撮像部102は、例えば、レンズユニットと、レンズユニットを経て撮像面に結像された被写体の光学像を電気信号に変換するための撮像素子と、撮像素子で生成された電気信号から静止画データまたは動画データを生成する画像処理部とを有する。撮像素子は、一般的に、CMOS(Complementary Metal Oxide Semiconductor)、またはCCD(Charge Coupled Device)が用いられる。第一の実施形態では、撮像部102で静止画データまたは動画データを生成して撮像部102から出力する一連の処理を「撮影」という。撮像部102で生成された静止画データまたは動画データは、DCF(Design rule for Camera File system)規格に従って記録媒体110に記録される。また、後述するライブ配信に送信される静止画データおよび動画データは、作業用メモリ104に一時的に記録されてから送信される。このデータは通信部111を介して、配信サーバ300に送信される。なお、撮像部102はデジタルカメラ100に着脱可能なよう構成してもよいし、デジタルカメラ100に内蔵されていてもよい。すなわち、デジタルカメラ100は少なくとも撮像部102から動画データ等の電気信号を取得するための手段を有していればよい。
不揮発性メモリ103は、制御部101で実行されるプログラム等が記録された不揮発性のメモリである。また、制御部101は不揮発性メモリ103には、動画データや静止画データを記録できる。
作業用メモリ104は、撮像部102で撮像された静止画データおよび動画データを一時的に保持するバッファメモリや、表示部106の画像表示用メモリ、制御部101の作業領域等として使用される。
操作部105は、デジタルカメラ100に対する指示をユーザから受け付けるためのユーザインタフェース(UI)である。操作部105は、例えばユーザがデジタルカメラ100の電源のオン/オフを指示するための電源スイッチや、撮影を指示するためのレリーズスイッチ、静止画データの再生を指示するための再生ボタン等を含むことができる。また、表示部106に形成されるタッチパネルも操作部105に含めることができる。なお、レリーズスイッチは、SW1およびSW2を有する。レリーズスイッチが、いわゆる半押し状態となることにより、SW1がオンとなる。これにより、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の撮像の準備動作を行うための準備指示を受け付ける。また、レリーズスイッチが、いわゆる全押し状態となることにより、SW2がオンとなる。このようなユーザ操作により、撮像動作を行うための撮像指示を受け付ける。また、通信部111を介した無線通信機能のオン/オフを切り替えるための無線ボタンも操作部105に含まれる。
表示部106は、撮影の際のスルー画像の表示、撮影した静止画データの表示、対話的な操作のための文字表示などを行う。表示部106は例えば液晶ディスプレイやLEDディスプレイ等である。表示部106は必ずしもデジタルカメラ100に内蔵されていなくてもよく、デジタルカメラ100に外部接続される構成であってもよい。すなわち、デジタルカメラ100は内部または外部の表示部106と接続することができ、表示部106の表示を制御する表示制御機能を少なくとも有していればよい。外部の表示部106は、例えば、デジタルカメラ100に接続することができるビューファインダーである。
マイク107は、音声等の音波を収音し、音声データを生成するマイクロフォン装置である。制御部101は、撮像部102で生成された動画データとマイク107または外部装置のマイクロフォンで生成された音声データとから音声付き動画データを生成することができる。制御部101で生成された音声付き動画データは、制御部101によって記録媒体110に記録される。また、制御部101は、撮像部102で生成された静止画データとマイク107で生成された音声データとを関連付けて記録媒体110に記録することもできる。また、後述するライブ配信に送信されるために生成された音声データは作業用メモリ104に記録される。なお、マイク107はデジタルカメラ100に着脱可能なよう構成してもよいし、デジタルカメラ100に内蔵されていてもよい。すなわち、デジタルカメラ100は少なくともマイク107から電気信号を受け取るための手段を有していればよい。なお、マイク107が音波から音声データを生成する処理は、他のハードウェア(例えば制御部101)が一部の処理を分担してもよい。
スピーカ108は、電子音データを出力することができる電気音響変換器である。電子音データは例えば、楽曲、警告音、合焦音、電子シャッター音、および操作音等である。これらの電子音データは不揮発性メモリ103に記録されている。スピーカ108は制御部101によって選択された電子音データを出力することができる。ユーザは、スピーカ108から出力された音を聞くことで、例えば被写体に合焦したこと、デジタルカメラ100に発生しているエラー等に気付くことができる。
電源部109は制御部101に制御されることでデジタルカメラ100の各要素に電力を供給することができる。電源部109は例えば、リチウムイオン電池やアルカリマンガン乾電池等の電源である。
記録媒体110は例えば撮像部102から出力された静止画データを記録することができる。記録媒体110は例えばSDカード、CFカード、およびXQD(登録商標)カード等である。記録媒体110は、デジタルカメラ100に着脱可能なよう構成してもよいし、デジタルカメラ100に内蔵されていてもよい。すなわち、デジタルカメラ100は少なくとも記録媒体110にアクセスする手段を有していればよい。
通信部111は、外部装置と無線接続するためのインターフェースである。本実施形態のデジタルカメラ100は、通信部111を介して、外部装置とデータの送受信を行うことができる。例えば、デジタルカメラ100は撮像部102で生成された静止画データや不揮発性メモリ103に記録されている動画データを、通信部111を介して外部装置に送信することができる。本実施形態の外部装置は、例えば外部サーバ、スマートフォン、およびPC等の通信装置である。なお、本実施形態では、通信部111は中継装置および外部装置とIEEE802.11の規格に従った、いわゆる無線LAN(Local Area Network)で通信するためのインターフェースを含む。本実施形態におけるデジタルカメラ100の通信部111は、インフラストラクチャモードにおけるクライアントとして動作するクライアントモードを有している。そして、通信部111をクライアントモードで動作させることにより、本実施形態におけるデジタルカメラ100は、インフラストラクチャモードにおけるクライアント機器として動作することが可能である。デジタルカメラ100がクライアント機器として動作する場合、周辺のアクセスポイント機器に接続することで、アクセスポイント機器が形成するLANに参加することができる。制御部101は、通信部111を制御することで中継装置および外部装置との無線通信を実現する。なお、通信方式は無線LANに限定されるものではなく、例えば4G、LTE、および5Gなどの公衆無線通信方式、Ethernet等の規格に従った有線通信方式、およびBluetooth(登録商標)等の無線通信方式を含む。
次に、デジタルカメラ100の外観の一例について説明する。図1(b)は、デジタルカメラ100の正面の外観図の一例を示す図である。図1(c)は、デジタルカメラ100の背面の外観図の一例を示す図である。レリーズスイッチ105a、再生ボタン105b、方向キー105c、およびタッチパネル105dは、操作部105に含まれる操作部材である。レリーズスイッチ105a、再生ボタン105b、方向キー105c、およびタッチパネル105dは、制御部101に各種の動作指示を入力するための操作部材である。また、表示部106には、撮像部102によって撮像された静止画または動画が表示される。
以上、デジタルカメラ100の構成の一例について説明した。
<ライブ配信のシステム構成>
図2は、デジタルカメラ100がネットワークを介して配信サーバ300にアクセスし、ライブ配信を実行するためのシステム構成の一例を示す図である。
ネットワークルータ200は無線LANのアクセスポイントとなってネットワークを形成する。デジタルカメラ100は、通信部111によって、クライアントとしてネットワークルータ200が形成したネットワークにジョインする。デジタルカメラ100はネットワークルータ200を介して、配信サーバ300と接続する。なお、本実施形態においてデジタルカメラ100がネットワークルータ200に無線接続する例を説明するが、デジタルカメラ100はネットワークルータ200に有線接続してもよい。なお、ネットワークルータ200は、例えば、スマートフォン、タブレットデバイス、およびパーソナルコンピュータ等の情報処理装置でもよい。この場合、ネットワークルータ200が形成するネットワークは情報処理装置のテザリング機能によって生成されたネットワークである。
配信サーバ300はクラウドサービスを提供する。このクラウドサービスは特にユーザから遅延の少ないコンテンツの提供が求められるクラウドサービスである。本実施形態では、配信サーバ300はライブ配信サービスを提供している。
ライブ配信は、ストリーミング技術によって、配信者であるユーザがインターネットを介してリアルタイムに動画データや音声データ等を、視聴者であるユーザへ配信することである。視聴者であるユーザはこの動画データや音声データ等を、テレビ放送やラジオ放送の生放送のように、リアルタイムに視聴できる。配信サーバ300は、ライブ配信サービスとして、配信者であるユーザから送信された動画データや音声データをコンテンツとして視聴者へ送信する。本実施形態では、デジタルカメラ100はリアルタイムに生成した動画データを配信サーバ300へ逐次送信し、配信サーバ300は受信した動画データを逐次視聴者であるユーザへ送信する。他にも、配信サーバ300は、視聴者であるユーザがライブ配信をWebページ等で視聴できるようなサービスも提供する。以降、デジタルカメラ100が生成した、ライブ配信において配信される動画データや音声データ等を総称して配信データという。
配信者であるユーザはライブ配信を開始する前に、パソコンやスマートフォン等を用いてライブ配信の設定を配信サーバ300上で行う。ライブ配信の設定は、ライブ配信において提供されるコンテンツである動画データの設定や動画データの送受信のために必要なデータ等である。例えば、ライブ配信の設定は、ライブ配信の識別子、配信先URL、ストリームキー、ライブ配信のタイトル、動画データのフレームレート、動画データのビットレート等である。配信先URLは、例えばデジタルカメラ100が生成した配信データの送信先となるURLである。ストリームキーは、配信サーバ300がユーザと配信データとを関連付けるための情報である。
ユーザはライブ配信の設定を配信サーバ300に複数作成することができる。例えば、配信者であるユーザは異なる配信内容のライブ配信を立て続けに行う場合、それぞれのライブ配信の設定を配信サーバ300上に生成する。また、ユーザはデジタルカメラ100を用いてライブ配信の設定を作成することもできる。この場合、デジタルカメラ100は、作成されたライブ配信の設定を配信サーバ300へ送信し、配信サーバ300はそのライブ配信の設定を記録する。
ライブ配信を行う場合、デジタルカメラ100は配信サーバ300から受信したライブ配信の設定に従って配信データを送信する。図3(a)~(c)を用いて、ユーザがライブ配信の開始するための操作について説明する。図3(a)はデジタルカメラ100の通信機能の一覧を表示するための画面の一例である。ユーザはライブ配信を行う場合、項目301のライブ配信を操作部105を用いて選択し決定する。この場合、デジタルカメラ100は図3(b)に示す画面を表示する。
図3(b)は、ライブ配信に関する設定項目を表示するための画面の一例である。本実施形態では、デジタルカメラ100は、ライブ配信を開始するための項目302、およびライブ配信に動画を挿入するか否かを設定するための項目303を表示する。ユーザはライブ配信を開始する場合、項目302を操作部105を用いて選択し決定する。この場合、デジタルカメラ100は図3(c)に示す画面を表示する。なお、項目303については後述する。
図3(c)は、ライブ配信の設定を選択するための画面の一例である。この画面には、デジタルカメラ100が配信サーバ300から受信したライブ配信の設定の一覧が表示される。この画面に表示される項目名は、例えば、ライブ配信のタイトルである。ユーザがいずれかの項目を選択し決定した場合、デジタルカメラ100はそのライブ配信の設定に基づいてライブ配信処理を開始する。ライブ配信処理についての詳細は後述する。
また、デジタルカメラ100および配信サーバ300がライブ配信の準備処理のためのデータの送受信に利用する通信プロトコルと、ライブ配信において配信データ等の送受信に利用する通信プロトコルと、は異なる。前者のプロトコルはデータ通信ができる通信プロトコルである。前者の通信プロトコルは、広く利用されている通信プロトコルを想定している。後者の通信プロトコルは、遅延の少ない通信を目的とした通信プロトコルである。例えば、前者の通信プロトコルはHTTP(Hypertext Transfer Protocol)であり、後者の通信プロトコルはRTMP(Real―Time Messaging Protocol)である。後者の通信プロトコル(RTMP)に準拠した通信は、前者の通信プロトコル(HTTP)に準拠した通信よりも遅延が少ないという特徴がある。本実施形態では、デジタルカメラ100は、ライブ配信において配信される配信データをRTMPによって送信し、その他のデータ(例えばライブ配信の設定等)をHTTPによって送信する。
<オープニング配信機能>
本実施形態では、デジタルカメラ100はライブ配信を開始する場合、撮像部102で生成される動画データを配信データとして逐次送信する前に先立ち、記録媒体110に記録されている動画データを配信データとして配信サーバ300に送信することができる。以降、本機能をオープニング配信機能という。記録媒体110に記録されている動画データは、例えば、オープニング動画の動画データである。オープニング動画は、視聴者であるユーザにライブ配信が開始することを報知するための動画である。ユーザは、通常、配信データを切り替える場合、送信される配信データを選択するための操作や切り替えるための操作をする必要がある。しかし本機能では、デジタルカメラ100が、オープニング動画の動画データから撮像部102で生成される動画データに自動的に切り替えるため、ユーザはそのような操作をする必要がない。これにより、ユーザはライブ配信を開始するための操作のみで、オープニング動画から撮像部102で生成される動画データへ自然に切り替えることができる。以下、本実施形態における、ユーザがオープニング配信機能を利用するための方法について説明する。
本実施形態では、ユーザはオープニング配信機能を利用する場合、図3(b)に示す項目303を選択し決定する。この場合、デジタルカメラ100は図3(d)に示す画面を表示する。
図3(d)は、ライブ配信において、動画を挿入するか否かを切り替えるための画面である。ここでは、オープニング配信機能以外の説明は割愛する。ユーザはオープニング配信機能を利用する場合、項目304を選択し、「ON/OFF」ボタンを押下する。ユーザは、これによってオープニング配信機能を利用するか否かを切り替えることができる。さらにオープニング配信機能の詳細設定を変更する場合、ユーザは、「詳細設定」ボタンを押下する。これに応じて、デジタルカメラ100はオープニング配信機能の詳細設定を行うための画面を表示する。
図3(e)は、オープニング配信機能の詳細設定の一覧を表示するための画面である。ユーザが項目305を選択した場合、デジタルカメラ100は、図3(f)に示すようなオープニング配信機能において配信される動画データを選択するための画面を表示する。図3(f)に示す画面において、ユーザはオープニング動画として配信される動画データを選択し決定する。デジタルカメラ100は、この決定された動画データの名前を項目305に表示する。なお、項目306~項目308の設定については後述する。
これによりユーザはオープニング配信機能を利用することができる。
ここで図3(d)の「エンディング動画」の項目について説明する。「エンディング動画」の項目がONである場合、デジタルカメラ100は次のように動作する。デジタルカメラ100がライブ配信を終了する場合、撮像部102で生成される動画データの送信を完了した後、ライブ配信の終了要求を送信する前に、記録媒体110に記録されている動画データを配信データとして配信サーバ300に送信する。以降、本機能をエンディング配信機能という。この記録媒体110に記録されている動画データは例えばエンディング動画である。エンディング動画は、視聴者であるユーザにライブ配信が終了することを報知するための動画である。エンディング配信機能により、ユーザはエンディング動画を配信するために、送信される配信データを選択するための操作や切り替えるための操作をする手間を省くことができる。なお、本実施形態における、ユーザがエンディング配信機能を利用するための方法は、オープニング配信機能と同様である。
<ライブ配信処理>
図4は本実施形態におけるライブ配信が実行される際のデジタルカメラ100、および配信サーバ300の処理の一例のシーケンスを示す図である。図5(a)~(h)は本実施形態におけるデジタルカメラ100の表示画面の一例である。図5(a)~(h)を用いて、ライブ配信における一連の動作を説明する。
ステップS401において、ユーザはデジタルカメラ100を操作して、ライブ配信を開始するための指示を入力する。例えば、上述したように、ユーザは図3(c)に示す画面において、タッチパネルに対してタッチ操作することによって任意のライブ配信設定を選択し決定する。
ステップS402において、デジタルカメラ100は待機画面を表示する。ユーザはこの待機画面を参照しながら、デジタルカメラ100の配置や画角、ホワイトバランス等の撮影設定を調整することができる。図5(a)はライブ配信が開始される前の待機画面の一例である。図5(a)に示すように、デジタルカメラ100は表示部106に撮像部102によって生成されている動画データを逐次表示する。他方、図5(b)に示すように、配信サーバ300は、まだデジタルカメラ100から配信データを受信していないため、配信データを視聴者であるユーザへ送信していない。
ステップS402の処理が実行された後、ユーザはライブ配信の準備が完了した場合、ステップS403の操作を行い、ライブ配信を開始する。本シーケンスでは、オープニング配信機能が有効である場合について説明する。
ステップS403において、ユーザはデジタルカメラ100を操作し、配信データの送信を開始するための指示を入力する。例えば図5(a)に示す画面において、ユーザがタッチパネルに対してタッチ操作をすることで、釦501を選択することによりライブ配信処理を開始するための指示を入力する。
ステップS404において、デジタルカメラ100は、配信サーバ300にライブ配信の開始要求を送信する。ライブ配信の開始要求は、配信サーバ300に対して、視聴者であるユーザに配信データの送信を開始することを指示する要求である。この要求には、ライブ配信の識別子やストリームキーが含まれる。
ステップS405において、デジタルカメラ100は、オープニング動画となる動画データをライブ配信用の設定に基づいてエンコードを行い、配信データを生成する。このライブ配信用の設定は、例えば、配信サーバ300で受信可能な解像度やフレームレートなどの動画データに関する設定である。なお、デジタルカメラ100は、エンコードが不要であると判断した場合は、本ステップの処理を実行しなくてもよい。
ステップS406において、配信サーバ300は、ステップS404において受信した要求に基づいて、ライブ配信を開始する。例えば、配信サーバ300は、デジタルカメラ100から受信した配信データを、視聴者であるユーザに送信することを開始する。なお、ステップS405の処理およびステップS406の処理は並行して実行されている。
ステップS407において、デジタルカメラ100は、ステップS405において生成されたオープニング動画の配信データを配信サーバ300へ送信する。以降、デジタルカメラ100はステップS407の処理と並行して、ステップS408の処理を実行する。
ステップS408において、デジタルカメラ100は、オープニング動画の配信データを送信完了するまでにかかる残り時間を表示する。本実施形態では、デジタルカメラ100は、図5(c)に示すように、撮像部102において生成されている動画データに重畳するように時間を表示する。なお、本実施形態では、図5(c)に示す画面では、デジタルカメラ100は、オープニング動画の音声を再生しない。一方、配信サーバ300は、図5(d)に示すように、デジタルカメラ100から受信した配信データ(すなわち、オープニング動画)を視聴者であるユーザに送信する。配信サーバ300へ送信された配信データには音声データも含まれており、視聴者はオープニング動画の映像と音声とを視聴する。なお、デジタルカメラ100がオープニング動画の配信データを送信完了するまでの時間を表示するか否かについては、図3(e)の項目306の設定に基づく。
デジタルカメラ100は、オープニング動画の配信データの送信が完了した場合、撮像部102によって生成されている動画データの送信を開始する。
ステップS409において、デジタルカメラ100は、オープニング動画の配信データを送信完了したため、オープニング動画の配信データを送信完了するまでの時間の表示を消去する。
ステップS410において、デジタルカメラ100は撮像部102によって生成されている動画データおよびマイク107によって生成されている音声データを配信データとして配信サーバ300へ送信する。本ステップ以降、デジタルカメラ100は撮像部102によって生成されている動画データおよびマイク107によって生成されている音声データを逐次配信データとして生成し、配信サーバ300へ送信する。なお、デジタルカメラ100は配信データを所定のデータ量で送信する。例えば、デジタルカメラ100は、作業用メモリ104に配信データが5秒分の動画データが記録されている場合、先に撮影された1秒分の動画データを配信データとして配信サーバ300へ送信する。
ここで、図5(e)は本実施形態におけるデジタルカメラ100のライブ配信中の画面の一例である。図5(e)に示すように、デジタルカメラ100はライブ配信中であることを表示部106の左上に「●Live」と表示することでユーザに示す。また、デジタルカメラ100は、配信サーバ300からライブ配信の状態に関するデータを受信した場合、そのデータを表示部106に表示してもよい。ライブ配信の状態に関するデータは、例えば、視聴者数、配信サーバ300との通信速度の状態、ライブ配信の評価に関する数値、およびライブ配信中に視聴者から配信サーバ300へ送信されたコメント等である。本実施形態では、デジタルカメラ100は、図5(e)に示すように、配信サーバ300から視聴者数のデータを受信した場合、その人数を表示部106の左下に表示する。なお、デジタルカメラ100は、他のライブ配信の状態に関するデータをさらに表示部106に表示してもよい。
また、配信サーバ300に送信される配信データは、デジタルカメラ100の撮像部102によって生成された動画データおよびマイク107によって生成された音声データを含む。図5(f)に示すように、配信サーバ300は、デジタルカメラ100から受信した配信データを視聴者であるユーザに送信する。なお、この配信データの映像は、デジタルカメラ100の図5(e)において表示部106に表示される映像と同様である。
以降、ユーザはデジタルカメラ100によってライブ配信を行う。そして、ユーザは、ライブ配信を終了する場合、ステップS411の操作を行い、ライブ配信を終了する。本シーケンスでは、エンディング配信機能が有効である場合について説明する。
ステップS411において、ユーザはデジタルカメラ100を操作し、配信データの送信を終了するための指示を入力する。例えば図5(e)に示す画面において、ユーザがタッチパネルに対してタッチ操作をすることで、釦502を選択することによりライブ配信処理を終了するための指示を入力する。
ステップS412において、デジタルカメラ100は、エンディング動画となる動画データをライブ配信用の設定に基づいてエンコードを行い、配信データを生成する。このライブ配信用の設定は、例えば、配信サーバ300で受信可能な解像度やフレームレートなどの動画データに関する設定である。なお、デジタルカメラ100は、エンコードが不要であると判断した場合は、本ステップの処理を実行しなくてもよい。
ステップS413において、デジタルカメラ100は、ステップS412において生成されたエンディング動画の配信データを配信サーバ300へ送信する。ここで、デジタルカメラ100は、図5(g)に示すように、エンディング動画の配信データを送信完了するまでの残り時間を表示する。配信サーバ300は、デジタルカメラ100から送信された配信データを視聴者であるユーザに送信する。デジタルカメラ100は配信データの送信が完了したことに応じて、ステップS414の処理を実行する。
ステップS414において、デジタルカメラ100は、配信サーバ300にライブ配信の終了要求を送信する。
ステップS415において、配信サーバ300は、ステップS404において受信した要求に基づいて、ライブ配信を終了する。例えば、配信サーバ300は、視聴者であるユーザへの配信データの送信を終了する。
以上、本実施形態におけるライブ配信処理について説明した。
このように、デジタルカメラ100は、ライブ配信の開始指示に応じて、撮像部102において生成された動画データを送信する前に、オープニング動画を配信データとして配信サーバ300へ送信する。また、デジタルカメラ100は、ライブ配信の終了指示に応じて、配信サーバ300へライブ配信の終了要求を送信する前に、エンディング動画を配信データとして配信サーバ300へ送信する。これにより、ユーザは送信される配信データを選択するための操作や配信データを切り替えるための操作をする手間を省くことができる。
<デジタルカメラの動作>
図6は、本実施形態におけるデジタルカメラ100の動作の一例を示すフローチャートである。デジタルカメラ100の処理は、不揮発性メモリ103に記録されたソフトウェアを作業用メモリ104に展開して制御部101が実行することで実現する。また、デジタルカメラ100の処理は、ユーザによるライブ配信を開始する指示を制御部101が受け付けたことをトリガに開始される。例えば図5(a)に示す画面において、ユーザがタッチパネルをタッチ操作しての釦501を選択したことをトリガに、制御部101は本フローチャートの処理を開始する。このトリガは、図4のステップS401に相当する。
ステップS601において、制御部101は、表示部106に、待機画面を表示する。例えば、図5(a)に示すように、制御部101は、撮像部102によって生成されている動画データを逐次表示する。なお、本ステップにおいて、制御部101は、ユーザから操作部105によってホワイトバランス等の撮影設定を変更するように操作された場合、ユーザ操作に応じた撮影設定に変更する。本ステップの処理は、例えば、図4のステップS402の処理に相当する。
ステップS602において、制御部101は、ライブ配信を開始するか否かを判定する。例えば、制御部101は、図5(a)に示す釦501に対してタッチ操作された場合、ライブ配信を開始すると判定する。制御部101がライブ配信を開始すると判定した場合、ステップS603の処理が実行される。また、制御部101がライブ配信を開始すると判定しない場合、ステップS601の処理が繰り返される。本ステップの処理は、例えば、図4のステップS403の処理に相当する。
ステップS603において、制御部101は、通信部111によって、配信サーバ300へライブ配信の開始要求を送信する。この要求には、ライブ配信の識別子やストリームキーが含まれる。本ステップの処理は、例えば、図4のステップS404の処理に相当する。
ステップS604において、制御部101はオープニング配信機能が有効か否かを判定する。例えば、制御部101は、ユーザは図3(d)のオープニング動画の項目304がONかOFFかを判定する。項目304がONである場合、制御部101は、オープニング配信機能が有効であると判定する。項目304がOFFである場合、制御部101は、オープニング配信機能が無効であると判定する。オープニング配信機能が有効である場合、ステップS605の処理が実行される。オープニング配信機能が無効である場合、ステップS611の処理が実行される。
ステップS605において、制御部101は、オープニング動画として決定された動画データから、配信データを生成する。オープニング動画として決定された動画データは、例えば、図3(f)において、ユーザによって選択された動画データである。制御部101は、ライブ配信用の設定に基づいてエンコードを行うことで、動画データから配信データを生成する。本ステップの処理は、例えば、図4のステップS405の処理に相当する。
ステップS606において、制御部101は、ステップS605において生成された配信データを、通信部111によって配信サーバ300へ送信する。本ステップの処理は、例えば、図4のステップS407の処理に相当する。
ステップS607において、制御部101は、配信データを送信完了するまでの残り時間を表示部106に表示する。例えば、制御部101は、図5(c)に示すように、撮像部102において生成されている動画データに重畳するように時間を表示する。制御部101は、残り時間を次のような方法で取得する。例えば、制御部101は、ステップS605においてオープニング動画の動画データから配信データを生成する際、並行して、動画データのメタデータから再生時間を取得し、その再生時間を残り時間とする。他にも、例えば、制御部101は、配信サーバ300へ送信していない配信データ容量と現在の通信速度とから送信完了までにかかる時間を計算し、その計算された時間を残り時間としてもよい。なお、制御部101が配信データを送信完了するまでの残り時間を表示するか否かについては、図3(e)の項目306の設定に基づく。図3(e)の項目306がONである場合、本ステップの処理が実行される。図3(e)の項目306がOFFである場合、制御部101は本ステップの処理を実行せず、ステップS608の処理が実行される。本ステップの処理は、例えば、図4のステップS408の処理に相当する。
ステップS608において、制御部101は、ライブ配信を終了するか否かを判定する。例えば、図5(c)に示す画面において、制御部101は、釦502をタッチ操作されたか否かを判定する。制御部101は、釦502をタッチ操作された場合、ライブ配信を終了すると判定する。ここで、オープニング動画を送信中にユーザがライブ配信を終了するユースケースは、例えば、ユーザが誤ってライブ配信を開始してしまった場合やデジタルカメラ100の配置や撮影設定を急遽変更する必要があると判断した場合である。この場合、ステップS616の処理が実行され、ライブ配信が終了される。なお、この場合はエンディング配信機能がONであってもエンディング動画は配信サーバ300へ送信されない。なぜなら、オープニング動画の送信中にライブ配信が終了されることはイレギュラーな事態であるため、エンディング動画を送信するには不適切なタイミングであるからである。ライブ配信を終了しないと判定された場合、ステップS609の処理が実行される。
ステップS609において、制御部101は、オープニング動画から生成された配信データの送信が完了したか否かを判定する。例えば、制御部101は、配信サーバ300へ送信していない配信データの容量と通信速度とに基づいて送信完了までにかかる時間を残り時間として表示する場合、配信データをすべて送信したことに応じて、配信データの送信が完了したと判定する。また、例えば、制御部101は、オープニング動画の動画データの再生時間を残り時間として表示する場合、配信データの送信を開始してから動画データの再生時間が経過したことに応じて、配信データの送信が完了したと判定する。オープニング動画から生成された配信データの送信が完了していないと判定された場合、ステップS606の処理が実行され、制御部101は残りの配信データの送信を継続する。オープニング動画から生成された配信データの送信が完了したと判定された場合、ステップS610の処理が実行される。
ステップS610において、制御部101は、配信データを送信完了するまでの残り時間の表示を表示部106から消去する。本ステップの処理は、例えば、図4のステップS409の処理に相当する。
ステップS611において、制御部101は、撮像部102によって生成されている動画データおよびマイク107によって生成されている音声データから配信データを生成し、通信部111によって、配信サーバ300へ送信する。本ステップの処理は、例えば、図4のステップS410の処理に相当する。
ステップS612において、制御部101は、ライブ配信を終了するか否かを判定する。例えば、制御部101は、図5(e)に示す画面において、釦502をタッチ操作されたことによりライブ配信を終了すると判定する。ライブ配信を終了しないと判定された場合、ステップS611の処理が繰り返し実行される。ライブ配信を終了すると判定された場合、ステップS613の処理が実行される。本ステップの処理は、例えば、図4のステップS411の処理に相当する。
ステップS613において、制御部101は、エンディング配信機能が有効か否かを判定する。例えば、制御部101は、ユーザは図3(d)のエンディング動画の項目がONかOFFかを判定する。エンディング動画の項目がONである場合、制御部101は、エンディング配信機能が有効であると判定する。エンディング動画の項目がOFFである場合、制御部101は、エンディング配信機能が無効であると判定する。エンディング配信機能が有効である場合、ステップS614の処理が実行される。エンディング配信機能が無効である場合、ステップS616の処理が実行される。
ステップS614において、制御部101は、エンディング動画として決定された動画データから、配信データを生成する。エンディング動画として決定された動画データは、例えば、オープニング動画の決定方法と同様に、ユーザによってエンディング動画として選択された動画データである。制御部101は、ライブ配信用の設定に基づいてエンコードを行うことで、動画データから配信データを生成する。本ステップの処理は、例えば、図4のステップS412の処理に相当する。
ステップS615において、制御部101は、通信部111によって、ステップS614において生成された配信データを通信部111によって配信サーバ300へ送信する。本ステップの処理は、例えば、図4のステップS413の処理に相当する。ここで、制御部101は、表示部106に、配信データを送信完了するまでの残り時間を表示部106に表示する。そして、制御部101は、配信データを送信完了したことに応じて、配信データを送信完了するまでの残り時間の表示を消去し、ステップS616の処理を実行する。本ステップの処理は、例えば、図4のステップS413の処理に相当する。
ステップS616において、制御部101は、通信部111によって、配信サーバ300にライブ配信の終了要求を送信する。本ステップの処理は、例えば、図4のステップS414の処理に相当する。
以上、本実施形態におけるデジタルカメラ100の動作について説明した。
なお、制御部101は、ライブ配信中にライブ配信の設定を変更できる場合、次のように動作してもよい。ステップS605の処理が実行される際に、制御部101は、オープニング動画の動画データに合わせてライブ配信の設定を変更する。そしてステップS611の処理が実行される際に、撮像部102で生成される動画データに合わせてライブ配信の設定を変更する。これにより、制御部101は、動画データをライブ配信の設定に合わせて画像処理する必要がなくなるため、ライブ配信処理における処理負荷を軽減することができる。なお、エンディング動画の動画データを送信する際も同様である。
なお、制御部101は、ステップS607の処理と並行して、オープニング動画の動画データに含まれる音声データをスピーカ108によって再生してもよい。例えば、図7(a)、(b)に示すように、制御部101は、オープニング動画の音声を、視聴者であるユーザが視聴するオープニング動画の音声が再生されるタイミングと、同じようなタイミングで再生する。これにより、ユーザは表示部106が見えない状況であっても、スピーカ108によって再生される音声から、撮像部102によって生成されている動画データが配信サーバ300で配信されるタイミングを測ることができる。なお、オープニング動画の動画データに含まれる音声データをスピーカ108によって再生する機能は、ユーザが図3(e)の項目307をONにすることにより有効化される。また、オープニング動画の動画データに含まれる音声データをスピーカ108によって再生する機能は、オープニング動画の配信データを送信完了するまでの残り時間を表示する機能がOFFであっても実行されてよい。
なお、制御部101は、ステップS607の処理と並行して、表示部106にオープニング動画をワイプ画面で表示してもよい。例えば、図8(a)、(b)に示すように、制御部101は、オープニング動画を、視聴者であるユーザが視聴するオープニング動画表示されるタイミングと、同じようなタイミングで表示部106に表示する。これにより、ユーザは表示部106を見ることで、撮像部102によって生成されている動画データが配信サーバ300で配信されるタイミングを測ることができる。なお、オープニング動画の動画データに含まれる音声データをスピーカ108によって再生する機能は、ユーザが図3(e)の項目308をONにすることにより有効化される。また、表示部106にオープニング動画をワイプ画面で表示する機能は、オープニング動画の配信データを送信完了するまでの残り時間を表示する機能がOFFであっても実行されてよい。また、表示部106にオープニング動画をワイプ画面で表示する機能は、オープニング動画の動画データに含まれる音声データをスピーカ108によって再生する機能と並行して実行されてもよい。
なお、ユーザがライブ配信を開始する操作やライブ配信を終了する操作は、デジタルカメラ100の操作部105によって行われるとしたが、デジタルカメラ100は他の方法によってこれらの操作を受け付けてもよい。例えば、デジタルカメラ100は、通信部111によってリモコンが接続されている場合、リモコンから送信された信号を受信したことに応じて、ライブ配信を開始する操作やライブ配信を終了する操作を受け付けたと判断してもよい。
なお、デジタルカメラ100は、オープニング動画配信機能を、図3(d)に示すような画面において、オンかオフかを切り替えるとしたが、他の方法によってオープニング配信機能をオンかオフかを切り替えてもよい。例えば、デジタルカメラ100は、オープニング動画の動画データが所定のフォルダに格納されているか否かを判定することで、オープニング配信機能をオンかオフかを切り替えてもよい。この場合、デジタルカメラ100は、フォルダに動画データが存在していると判定した場合、その動画データをオープニング動画の動画データとして判定する。また、制御部101は、オープニング動画の動画データが存在すると判定した場合、オープニング配信機能が有効であるモードとして動作し、図6のステップS604において、オープニング配信が有効であると判定する。一方、制御部101は、オープニング動画の動画データが存在しないと判定した場合、オープニング配信機能が有効ではないモードとして動作し、図6のステップS604において、オープニング配信が有効ではないと判定する。なお、エンディング配信機能についても、同様である。なお、オープニング動画とエンディング動画との動画データとを同じフォルダに格納する場合、デジタルカメラ100はファイル名を参照することで、動画データがオープニング動画、エンディング動画、またはその他の動画の動画データかを判定してもよい。例えば、デジタルカメラ100はファイル名に「opening」の文字列があると判定した場合、その動画データをオープニング動画の動画データと判定する。また、例えば、デジタルカメラ100はファイル名に「ending」の文字列があると判定した場合、その動画データをエンディング動画の動画データと判定する。なお、どちらの文字列もないと判定した場合、デジタルカメラ100は、オープニング動画もエンディング動画も存在しないと判定する。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。

Claims (20)

  1. 第一の動画データを生成する撮像手段と、
    第二の動画データを保持する保持手段と、
    前記撮像手段によって生成されている前記第一の動画データを外部装置へ送信を開始する際、前記第一の動画データを送信する前に前記保持されている前記第二の動画データの送信を開始する送信手段と
    を有することを特徴とする通信装置。
  2. 前記送信手段は、前記撮像手段によって生成されている前記第一の動画データを前記外部装置へ送信する前に、前記保持されている前記第二の動画データを前記外部装置へ送信が完了した後、前記撮像手段によって生成されている前記第一の動画データの送信を開始することを特徴とする請求項1に記載の通信装置。
  3. 前記送信手段は、前記撮像手段によって生成されている前記第一の動画データの前記外部装置への送信を終了する場合、前記第一の動画データの前記外部装置への送信を完了したことに応じて、前記保持手段に保持されている第三の動画データを前記外部装置へ送信することを特徴とする請求項1または2に記載の通信装置。
  4. 前記撮像手段によって生成されている前記第一の動画データの送信に関する操作を受け付ける操作手段をさらに有し、
    前記送信手段は、前記撮像手段によって生成されている前記第一の動画データを前記外部装置へ送信するための操作を前記操作手段によって受け付けた場合、前記保持されている前記第二の動画データを前記外部装置へ送信を開始することを特徴とする請求項1から3のいずれか1項に記載の通信装置。
  5. 前記送信手段によって送信されている前記第二の動画データを送信中であることを報知する報知手段をさらに有することを特徴とする請求項1から4のいずれか1項に記載の通信装置。
  6. 前記送信手段が前記第二の動画データを送信することと並行して、前記報知手段は、スピーカから前記第二の動画データの音声を再生することを特徴とする請求項5に記載の通信装置。
  7. 前記送信手段が前記第二の動画データを送信することと並行して、前記報知手段は、表示部に前記送信手段によって送信されている前記第二の動画データの送信完了までにかかる残り時間を表示することを特徴とする請求項5または6に記載の通信装置。
  8. 前記送信手段が前記第二の動画データを送信することと並行して、前記報知手段は表示部に前記撮像手段によって生成されている動画データとともに、前記第二の動画データを表示することを特徴とする請求項5から7のいずれか1項に記載の通信装置。
  9. 前記送信手段は、前記撮像手段によって生成されている動画データを前記外部装置へ逐次送信することを特徴とする請求項1から8のいずれか1項に記載の通信装置。
  10. 前記送信手段は、前記外部装置によって提供されるクラウドサービスにおいて、ユーザに提供されるコンテンツとなる動画データを送信することを特徴とする請求項1から9のいずれか1項に記載の通信装置。
  11. 前記外部装置から受信した前記コンテンツの設定に基づいて、前記第一の動画データまたは前記第二の動画データから、前記外部装置へ送信するための第三の動画データを生成する生成手段をさらに有し、
    前記送信手段は、前記第一の動画データまたは前記第二の動画データを送信する場合、前記生成手段によってそれぞれの動画データから生成された前記第三の動画データを送信することを特徴とする請求項10に記載の通信装置。
  12. 前記外部装置から前記コンテンツの設定を受信する受信手段をさらに有し、
    前記送信手段が利用する通信プロトコルは、前記受信手段が利用する通信プロトコルよりも遅延の少ない通信が可能な通信プロトコルであることを特徴とする請求項10または11に記載の通信装置。
  13. 前記クラウドサービスはライブ配信サービスであることを特徴とする請求項10から12のいずれか1項に記載の通信装置。
  14. 前記送信手段は、動画データを送信する場合、音声データも併せて前記外部装置へ送信することを特徴とする請求項1から13に記載の通信装置。
  15. 撮像手段で生成された第一の動画データを取得する取得手段と、
    第二の動画データを保持する保持手段と、
    前記取得手段によって取得された前記第一の動画データを外部装置へ送信を開始する際、前記第一の動画データを送信する前に前記保持されている前記第二の動画データの送信を開始する送信手段と
    を有することを特徴とする通信装置。
  16. 第一の動画データを生成する撮像手段と、
    第二の動画データを保持する保持手段と、
    第一のモードでは、前記撮像手段によって生成されている前記第一の動画データを外部装置へ送信を開始する際、前記第一の動画データを送信する前に前記保持されている前記第二の動画データの送信を開始し、第二のモードでは、前記撮像手段によって生成されている前記第一の動画データを前記外部装置へ送信を開始する際、前記第二の動画データを送信することなく前記第一の動画データを送信すること開始する送信手段と
    を有することを特徴とする通信装置。
  17. 第一の動画データを生成する撮像手段と、第二の動画データを保持する保持手段と、を有する通信装置の制御方法であって、
    前記撮像手段によって生成されている前記第一の動画データを外部装置へ送信を開始する際、前記第一の動画データを送信する前に前記保持されている前記第二の動画データの送信を開始する送信ステップを有することを特徴とする制御方法。
  18. 通信装置の制御方法であって、
    撮像手段で生成された第一の動画データを取得する取得ステップと、
    第二の動画データを保持する保持ステップと、
    前記取得ステップによって取得された前記第一の動画データを外部装置へ送信を開始する際、前記第一の動画データを送信する前に前記保持されている前記第二の動画データの送信を開始する送信ステップと
    を有することを特徴とする制御方法。
  19. 第一の動画データを生成する撮像手段と、第二の動画データを保持する保持手段と、を有する通信装置の制御方法であって、
    第一のモードでは、前記撮像手段によって生成されている前記第一の動画データを外部装置へ送信を開始する際、前記第一の動画データを送信する前に前記保持されている前記第二の動画データの送信を開始し、第二のモードでは、前記撮像手段によって生成されている前記第一の動画データを前記外部装置へ送信を開始する際、前記第二の動画データを送信することなく前記第一の動画データを送信すること開始する送信ステップを有することを特徴とする制御方法。
  20. コンピュータを請求項1から16のいずれか1項に記載の通信装置の各手段として機能させるための、コンピュータが読み取り可能なプログラム。
JP2021058483A 2021-03-30 2021-03-30 通信装置、制御方法、およびプログラム Pending JP2022155136A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021058483A JP2022155136A (ja) 2021-03-30 2021-03-30 通信装置、制御方法、およびプログラム
US17/703,772 US20220321924A1 (en) 2021-03-30 2022-03-24 Communication apparatus, control method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021058483A JP2022155136A (ja) 2021-03-30 2021-03-30 通信装置、制御方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2022155136A true JP2022155136A (ja) 2022-10-13

Family

ID=83449359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021058483A Pending JP2022155136A (ja) 2021-03-30 2021-03-30 通信装置、制御方法、およびプログラム

Country Status (2)

Country Link
US (1) US20220321924A1 (ja)
JP (1) JP2022155136A (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120310750A1 (en) * 2011-06-01 2012-12-06 Intercast Networks, Inc. Interface and module for real-time advertising presentation
US10638082B2 (en) * 2014-08-28 2020-04-28 Gregory A. Pearson, Inc. Systems and methods for picture-in-picture video conference functionality
JP2018037784A (ja) * 2016-08-30 2018-03-08 ソニー株式会社 画像送信装置、画像送信方法、プログラム
CN106507161B (zh) * 2016-11-29 2019-11-15 腾讯科技(深圳)有限公司 视频直播方法及直播装置
US10506289B2 (en) * 2016-12-30 2019-12-10 Facebook, Inc. Scheduling live videos
US10250914B2 (en) * 2017-04-24 2019-04-02 Facebook, Inc. Providing a start trigger for a live video broadcast
US10664524B2 (en) * 2017-09-13 2020-05-26 Facebook, Inc. Highlighting portions of a live video broadcast
US11283982B2 (en) * 2019-07-07 2022-03-22 Selfie Snapper, Inc. Selfie camera

Also Published As

Publication number Publication date
US20220321924A1 (en) 2022-10-06

Similar Documents

Publication Publication Date Title
JP6172610B2 (ja) テレビ会議用システム
WO2013132828A1 (ja) 通信システムおよび中継装置
US10523820B2 (en) High-quality audio/visual conferencing
US8274545B2 (en) Apparatus and method for casting video data and audio data to web during video telephony in mobile communication terminal
JP2016167656A (ja) 伝送管理システム、伝送システム、伝送管理方法、及びプログラム
US10542213B2 (en) Imaging apparatus
JP6467395B2 (ja) 画像送信装置、画像受信装置、それらの制御方法および画像通信システム
JP2016167657A (ja) 伝送管理システム、伝送システム、伝送管理方法、及びプログラム
JP6032987B2 (ja) 画像出力装置および画像出力装置の作動方法
JP6800930B2 (ja) 通信装置、その制御方法、およびそのプログラム
JP2022155136A (ja) 通信装置、制御方法、およびプログラム
JP6686125B1 (ja) 通信装置、その制御方法、およびそのプログラム
JP2019193161A (ja) 通信装置およびその制御方法、並びにプログラム
JP6736707B1 (ja) 情報処理装置、制御方法およびプログラム
JP5239826B2 (ja) 画像配信装置、画像配信システム、画像配信方法、およびプログラム
JP2005215158A (ja) 画像表示装置およびその制御方法
JP6481937B2 (ja) テレビ会議用通信装置
JP7427379B2 (ja) 通信装置、その制御方法、およびそのプログラム
US11178343B2 (en) Combining images from different devices according to a determined wipe shape
JP6439325B2 (ja) 利用管理システム、料金提供方法、及びプログラム
JP6405793B2 (ja) 情報処理端末、表示方法、及びプログラム
JP2019193213A (ja) 通信装置、その制御方法及びプログラム
JP2019009569A (ja) 遠隔視聴時の警告表示システム
JP2021093651A (ja) 電子装置、その制御方法、およびそのプログラム
JP2021019261A (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240318