JP6360300B2 - COMMUNICATION DEVICE, IMAGING DEVICE, ITS CONTROL METHOD, AND PROGRAM - Google Patents
COMMUNICATION DEVICE, IMAGING DEVICE, ITS CONTROL METHOD, AND PROGRAM Download PDFInfo
- Publication number
- JP6360300B2 JP6360300B2 JP2013264499A JP2013264499A JP6360300B2 JP 6360300 B2 JP6360300 B2 JP 6360300B2 JP 2013264499 A JP2013264499 A JP 2013264499A JP 2013264499 A JP2013264499 A JP 2013264499A JP 6360300 B2 JP6360300 B2 JP 6360300B2
- Authority
- JP
- Japan
- Prior art keywords
- video data
- communication device
- recording
- receiving
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本発明はネットワークを介した二つの機器間におけるライブストリーミングに関するものである。 The present invention relates to live streaming between two devices via a network.
従来より、ライブストリーミングでカメラで撮影された映像をユーザの端末に転送することにより、ユーザは、遠隔にあるカメラから自分の端末に逐次送られてくる映像や音声を視聴することができる。また、カメラを離れた位置から操作し撮影する用途として、自分を撮るための自分撮りモードや他人や動物などを撮る遠隔撮影モードがある。 Conventionally, by transferring video captured by a camera by live streaming to a user's terminal, the user can view video and audio that are sequentially sent from a remote camera to his / her terminal. In addition, there are a self-photographing mode for taking a picture of yourself and a remote-photographing mode for taking pictures of other people and animals.
自分撮りモードでは、遠隔にあるカメラのマイクでユーザの声を拾うことは難しいため、例えば、特許文献1のように、カメラのリモコンに、カメラにより撮影された映像を表示し、音声を入力するマイクを搭載したものが必要である。これにより、ユーザは、カメラから送られてくる映像を見ながら、リモコンのマイクに向かって話すことで、映像データにマイクで拾った音声を同期させて記録することができる。なお、特許文献1では、リモコンに表示されている映像を用いてカメラの画角を確認し、音声を実際の映像に合わせる必要がある。
In the self-portrait mode, it is difficult to pick up the user's voice with the microphone of the remote camera. For example, as disclosed in
また、遠隔撮影モードでは、通信状況に起因して遅延が発生すると、実際に撮影された映像と表示される映像との間に時差が発生するため、音声を表示される映像に合わせる必要がある。ここで、被写体からマイクまでの距離と音速とに基づいて音声到達時間を算出し、映像と音声がマイクに到達するまでの距離によって生じるリップシンクずれを補正するものがある(例えば、特許文献2)。 In the remote shooting mode, if a delay occurs due to communication conditions, a time difference occurs between the actually shot video and the displayed video, so it is necessary to match the sound with the displayed video. . Here, there is an apparatus that calculates a voice arrival time based on a distance from a subject to a microphone and a sound speed, and corrects a lip sync shift caused by a distance between the video and the sound reaching the microphone (for example, Patent Document 2). ).
ところで、上記特許文献1では、通信の遅延が考慮されていないため、遅延が発生したときに映像と音声が同期しなくなってしまう。また、上記特許文献2では、被写体からマイクまでの距離と音速に基づいて音声到達時間を算出しており、自分撮りモードや遠隔撮影モードなどの用途に合わせた設定を行うことができない。
By the way, in the said
本発明は、上記課題に鑑みてなされ、その目的は、ライブストリーミングにおいて、通信の遅延や用途に応じてサーバ側で得られる映像とクライアント側で得られる音声とを合成して記録するかを決定することで、映像と音声の同期を最適化する技術を実現することである。 The present invention has been made in view of the above problems, and its purpose is to determine whether to synthesize and record the video obtained on the server side and the audio obtained on the client side according to communication delay and usage in live streaming. By doing so, the technology to optimize the synchronization of video and audio is realized.
上記課題を解決し、目的を達成するため、本発明の通信装置は、撮像装置と通信可能な通信装置であって、前記撮像装置から映像データを所定の周期で受信する受信手段と、前記受信手段により受信した映像データを表示する表示手段と、音声データを入力する入力手段と、撮影モードを設定する設定手段と、前記受信手段により受信した映像データと前記入力手段により入力した音声データとを合成して記録する記録手段と、前記設定手段により設定された撮影モードと、前記撮像装置により撮影された映像が前記表示手段に表示されるまでの遅延とに応じて、前記受信手段により受信した映像データと前記入力手段により入力した音声データとが同期して記録されるように前記記録手段を制御する制御手段と、を有する。 In order to solve the above-described problems and achieve the object, a communication device of the present invention is a communication device capable of communicating with an imaging device, receiving means for receiving video data from the imaging device in a predetermined cycle, and the reception Display means for displaying video data received by the means, input means for inputting audio data, setting means for setting a shooting mode, video data received by the receiving means, and audio data input by the input means According to the recording means for combining and recording, the shooting mode set by the setting means, and the delay until the video shot by the imaging device is displayed on the display means, the reception means has received And control means for controlling the recording means so that the video data and the audio data input by the input means are recorded synchronously.
本発明によれば、ライブストリーミングにおいて、通信の遅延や用途に応じてサーバ側で得られる映像とクライアント側で得られる音声とを合成して記録するかを決定することで、映像と音声の同期を最適化することが可能となる。 According to the present invention, in live streaming, synchronization between video and audio is determined by deciding whether to synthesize and record video obtained on the server side and audio obtained on the client side according to communication delay and usage. Can be optimized.
以下に、添付図面を参照して本発明を実施するための形態について詳細に説明する。なお、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。 EMBODIMENT OF THE INVENTION Below, the form for implementing this invention with reference to an accompanying drawing is demonstrated in detail. The embodiment described below is an example for realizing the present invention, and should be appropriately modified or changed depending on the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.
以下、本発明を、サーバとしての撮像装置1000と、クライアントとしての通信装置2000とを通信可能に接続し、撮像装置1000で撮影された映像を通信装置2000でライブストリーミングにより視聴可能にしたシステムにより実現した例を説明する。本実施形態では、撮像装置1000をデジタルビデオカメラ、通信装置2000をスマートフォンなどの通信端末に適用した例を説明するが、本発明は、これに限られない。例えば、本発明は、撮像装置として、カメラ付き携帯電話や携帯型のメディアプレーヤ、いわゆるタブレット端末など、通信装置として、パーソナルコンピュータなどの情報処理装置や携帯電話、タブレットデバイス端末、テレビなどにも適用できる。
Hereinafter, the present invention is based on a system in which an
<撮像装置の構成>図1を参照して、本発明に係る実施形態の撮像装置の構成及び機能の概略について説明する。 <Arrangement of Imaging Apparatus> With reference to FIG. 1, the outline of the arrangement and functions of an imaging apparatus according to an embodiment of the present invention will be described.
図1に示す撮像装置(以下、カメラ)1000において、内部バス1010に対してCPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003、入力処理部1004、出力処理部1006、通信制御部1008、記録媒体制御部1011、カメラ信号処理部1015、符号・復号処理部1016が接続される。内部バス1010に接続される各部は、内部バス1010を介して互いにデータのやりとりを行える。
In the imaging apparatus (hereinafter referred to as camera) 1000 shown in FIG. 1, a CPU (Central Processing Unit) 1001, a ROM (Read Only Memory) 1002, a RAM (Random Access Memory) 1003, an
ROM1002は、CPU1001が動作するための各種プログラムや設定データが格納される。また、フラッシュメモリなども含まれる。RAM1003は、CPU1001が動作時に必要とするプログラムや変数、作業用の一時データなどが適宜記憶される。
The
CPU1001は、ROM1002または記録媒体1012に格納されるプログラムに従い、RAM1003をワークメモリとして用いて、このカメラ1000の各部を制御する。
The
光学系1013は、フォーカス、絞り機構などを含む撮影レンズであり、被写体の光学像を形成する。撮像素子1014は、CCDやCMOS素子等で構成され、ここではA/D変換器を含み、光学像をアナログ電気信号に変換した後、デジタル信号に変換する。
The
カメラ信号処理部1015は、CPU1001の制御に基づき、撮像素子1014で変換されたデジタル信号に対し、所定の画素補間・縮小といったリサイズ処理や色変換、各種補正処理等を行う。
Based on the control of the
符号・復号処理部1016は、CPU1001の制御に基づき、カメラ信号処理部1015で処理されたデジタル信号を所定のビットレート、フォーマット形式で圧縮符号化、または映像圧縮符号化データの復号を行う。
Based on the control of the
なお、音声についてはとくに図示していないが、音声付き映像を配信する場合には、マイクロホン、音声のアナログ信号をデジタル化するA/D変換器、デジタルデータを符号化する構成を持つことになる。当然、映像記録時には映像と共に音声も同時に収録され、符号・復号処理部1016で映像と音声を多重化することで、音声付映像データを生成することになる。
The audio is not specifically shown. However, when distributing video with audio, a microphone, an A / D converter for digitizing an analog analog signal, and a configuration for encoding digital data are provided. . Naturally, at the time of video recording, audio and video are simultaneously recorded, and the video / audio is multiplexed by the encoding /
入力処理部1004は、操作部1005でのユーザ操作を受け付け、操作に応じた制御信号を生成し、CPU1001に供給する。例えば、操作部1005は、ユーザ操作を受け付ける入力デバイスとして、キーボードといった文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイスなどを有する。また、赤外線リモコンなどの遠隔操作可能なものも含む。なお、タッチパネルは、例えば平面的に構成された入力部に対して接触された位置に応じた座標情報が出力されるようにした入力デバイスである。これにより、カメラ1000に対し、ユーザ操作に応じた動作を行わせることができる。
The
出力処理部1006は、CPU1001がプログラムに従い生成したGUI(Graphical User Interface)などの表示データに基づき、表示部1007に対して表示させるための表示信号を出力する。
The
なお、操作部1005としてタッチパネルを用いる場合、操作部1005と表示部1007とを一体的に構成することができる。例えば、タッチパネルを光の透過率が表示部1007の表示を妨げないように構成し、表示部1007の表示面の上層に取り付ける。そして、タッチパネルにおける入力座標と、表示部1007上の表示座標とを対応付ける。これにより、あたかもユーザが表示部1007上に表示された画面を直接的に操作可能であるかのようなGUIを構成することができる。
Note that when a touch panel is used as the
記録媒体制御部1011は、HDDや不揮発性の半導体メモリなどの記録媒体1012が接続され、CPU1001の制御に基づき、接続された記録媒体1012からのデータの読み出しや、当該記録媒体1012に対するデータの書き込みを行う。なお、記録媒体制御部1011が接続可能な記録媒体1012は、不図示のソケットなどを介して、例えばメモリカードなどの着脱可能な不揮発性の半導体メモリを接続するものとしても良い。
The recording
記録媒体1012は、撮影した映像データのほか、CPU1001の制御に必要な情報も記録することが可能である。
The
通信制御部1008は、CPU1001の制御に基づき、コネクタ(有線)/アンテナ(無線)1009を介して、通信装置2000その他の外部装置との通信を行う。通信方法としては、無線のIEEE802.11やBluetooth(登録商標)、有線のIEEE802.3などを用いることが可能である。
The
なお、ハードウェアの構成は図1に示すものに限定されず、例えば1つのハードウェアが表示制御、通信制御、記録制御、画像処理制御などを行い、カメラ1000の各手段として機能してもよい。また、複数のハードウェアが協働して1つの手段として機能してもよい。
The hardware configuration is not limited to that shown in FIG. 1. For example, one piece of hardware may perform display control, communication control, recording control, image processing control, and the like and function as each unit of the
<通信装置の構成>次に、図2を参照して、本発明に係る実施形態の通信装置の構成及び機能の概略について説明する。 <Configuration of Communication Device> Next, the configuration and functions of the communication device according to the embodiment of the present invention will be outlined with reference to FIG.
図2に示す通信装置(以下、端末)2000において、多くの部分はカメラ1000と同様となるため、カメラ1000と説明が重複するCPU2001〜記録媒体2012までの説明は省略する。符号・復号処理部2013は、CPU2001の制御に基づき、映像圧縮符号化データの復号、および必要に応じて復号したデータの再符号化を行う。マイク2014は、集音手段として音の振動を電気信号に変換する。音声信号処理部2015は、マイク2014で変換された音声信号をデジタル信号に変換し、各種補正処理等を行う。符号・復号処理部2013は、CPU2001の制御に基づき、音声信号処理部2015で生成された音声信号を符号化し、映像と音声の多重化処理を行う。
In the communication apparatus (hereinafter referred to as a terminal) 2000 shown in FIG. 2, many parts are the same as those of the
<ライブストリーミング動作の説明>次に、図1ないし図3、図10を参照して、本実施形態のシステムによるJPEG画像のフレームを利用したライブストリーミング動作について説明する。 <Description of Live Streaming Operation> Next, a live streaming operation using a frame of a JPEG image by the system of the present embodiment will be described with reference to FIGS.
図3(a)において、ユーザがカメラ1000において、操作部1005からライブストリーミングモードを実行すると、カメラ1000は、CPU1001の制御により、通信制御部1008を通信可能状態とする。
3A, when the user executes the live streaming mode from the
さらにユーザは端末2000において、操作部2005を操作して通信接続処理およびライブストリーミングに必要なアプリケーションの起動を行う。これに応じて、端末2000のCPU2001は、ROM2002または記録媒体2012に格納された当該プログラムに従い、通信制御部2008を制御し、カメラ1000との通信を開始し、接続処理を行う。
Further, the user operates the
ここで、カメラ1000と端末2000は、通信プロトコルとしてHTTP(Hypertext Transfer Protocol)/TCP(Transmission Control Protocol)を使用するものとする。また、通信接続においてUPnP(Universal Plug and Play)に対応しているものとする。UPnP対応の端末2000は、機器をネットワークに接続すると、DHCP(Dynamic Host Configuration Protocol)または、AutoIPによるIP(Internet Protocol)アドレスの設定を行う。IPアドレスを取得した機器は、ネットワーク上の他の機器を相互に認識するために、「デバイスディスカバリとコントロール」によって、デバイス検索と応答デバイスの種別、サービス機能などの情報取得を行う(ステップ3002)。カメラ1000は、端末2000のデバイス検索要求に対して、機器情報と機器固有情報のフレーム取得先情報などを応答する(ステップ3003)。
Here, the
カメラ1000と端末2000の接続処理が完了すると、カメラ1000はライブストリーミングを開始する。
When the connection process between the
ライブストリーミングにおいて、カメラ1000のCPU1001は、撮像素子1014からの信号出力を開始し、その出力をカメラ信号処理部1015により適切なフレーム3001に処理し、符号・復号処理部1016へフレーム3001を送出する。
In live streaming, the
符号・復号処理部1016では、受け取ったフレーム3001を所定のビットレート、フォーマット形式で圧縮符号化し、RAM1003または記録媒体1012に保存する。
The encoding /
カメラ1000のCPU1001は、所定の周期Tごとにフレーム3001を更新する。なお、以下ではT=1/30秒として説明する。
The
CPU1001は、上記フレーム3001の保存先と関連させたパス情報を生成する。パス情報は、端末2000がフレームを取得する際の取得先情報として使用する。
The
端末2000は、所定の周期Tを事前に記憶しているか、カメラ1000の機器情報に含めることで機器情報取得時に得ることができているものとする。
It is assumed that the terminal 2000 stores a predetermined cycle T in advance or can obtain it at the time of device information acquisition by including it in the device information of the
端末2000は、ライブストリーミング開始後、約T(秒)後にステップ3003で取得したフレーム取得先へフレーム取得要求(HTTP GETメソッド)を行う(ステップ3004)。
The terminal 2000 makes a frame acquisition request (HTTP GET method) to the frame acquisition destination acquired in
カメラ1000は、応答フレームとして、要求されたフレーム3001を送信する(ステップ3005)。
The
端末2000は、受信したフレーム3001を符号・復号処理部2013に渡し、復号した後、出力処理部2006を介して、表示部2007で再生表示を行う。ライブストリーミングアプリケーションにより端末REC10007が実行されている場合、復号したデータ、またはフレーム3001からヘッダなどを除いたデータ部を、記録媒体2012に記録し、順次受信したフレームと音声信号処理部2015からの音声信号をそれぞれ符号化し、多重合成して記録していく。
The terminal 2000 passes the received
ストリーミング中、カメラ1000は、約T(秒)毎にフレーム更新を行う。また、取得されたフレームは削除する。
端末2000は、約T(秒)毎にフレーム取得要求を行う(ステップ3004)。
During streaming, the
The terminal 2000 makes a frame acquisition request about every T (seconds) (step 3004).
なお、端末2000の要求処理(ステップ3004)には端末、またはアプリケーションの固有のIDを付加する。そして、本実施形態のカメラ1000は、最初に要求のあったIDの要求のみに対してストリーミングを行う。つまり、本実施形態のカメラ1000と端末2000は1対1接続でのみストリーミングを行うものとする。
Note that a unique ID of the terminal or application is added to the request processing of the terminal 2000 (step 3004). Then, the
本実施形態のシステムによれば、自分撮りモードでは、撮影者は、カメラ1000から送られてくる自分自身の映像を見ながら、端末2000のマイク2014に向かって話すことで、映像と音声を同期させて記録することができる。また、遠隔撮影モードでは、図3(b)のように、撮影者3101は、カメラ1000で撮影された被写体3102の映像を見ながら、表示される映像に合わせて音声を入力することができる。なお、カメラにマイクが搭載されている場合、遠隔撮影モードでは、カメラ1000で撮影された映像とマイクで拾われた音声が端末2000に送られるので、撮影者は、端末2000で映像と音声を視聴しながら、音声を入力することができる。
According to the system of the present embodiment, in the self-portrait mode, the photographer synchronizes the video and audio by speaking to the
図10は、端末2000における、ライブストリーミングにおけるアプリケーション画面例であり、操作部2005、表示部2007が一体化された例を示している。ライブストリーミングデータは、表示エリア10001に表示され、カメラ1000のステータスはズーム位置情報10002、記録状態10003、バッテリー情報10004などを表示している。また、操作手段としてズーム指示10005、カメラREC10006、端末REC10007、自分撮り/遠隔撮影10008などを備えている。ユーザは、自分撮り/遠隔撮影10008を選択することにより、映像と音声の記録を開始する前に自分撮りモードと遠隔撮影モードのいずれかの撮影モードの設定が可能である。
FIG. 10 shows an example of an application screen in live streaming on the terminal 2000, in which an
<システムの動作説明>次に、図4および図5を参照して、本実施形態のシステムを構成するカメラ1000および端末2000の動作について説明する。
<Description of System Operation> Next, with reference to FIGS. 4 and 5, the operation of the
まず、図4を参照して、端末2000がカメラ1000と接続確立後、CPU2001が実行する処理を説明する。
First, a process executed by the
ステップS4001では、接続時に取得した機器・フレーム取得先情報(ステップ3002)から、フレーム取得先情報を取得し、保持する。 In step S4001, the frame acquisition destination information is acquired from the device / frame acquisition destination information (step 3002) acquired at the time of connection and held.
ステップS4002では、ライブストリーミングアプリケーションにより端末REC10007が実行されたか否かを判定する。なお、この判定は、端末REC10007が実行されたかに限らず、カメラ1000が対象となる被写体を検知した時点で記録開始と判定することも可能である。実行された場合にはステップS4003へ進み、実行しない場合、または既に実行され記録が開始されている場合にはステップS4007へ進む。
In step S4002, it is determined whether the terminal REC10007 has been executed by the live streaming application. Note that this determination is not limited to whether the terminal REC10007 has been executed, but can be determined to start recording when the
ステップS4003では、マイク2014から音声の入力を開始する。
In step S4003, voice input from the
ステップS4004では、自分撮り/遠隔撮影10008の設定が自分撮りモードと遠隔撮影モードのいずれであるかの判定を行う。自分撮りモードの場合にはステップS4005へ進み、遠隔撮影モードの場合にはステップS4006へ進む。なお、モード設定は、操作部2005により事前にユーザにより設定されているものとする。また、操作部2005からモード設定を行わず、カメラ1000の画角内にユーザの視線を検知した場合に自分撮りモードに設定したり、カメラ1000の画角内に通信している端末2000が存在する場合には自分撮りモードに設定することも可能である。
In step S4004, it is determined whether the setting of self-shooting /
ステップS4005では、記録開始時のフレームに開始点情報を付加する要求を送信する。自分撮りモードの場合、カメラ1000のカメラ信号処理部1015で処理されたフレームに音声データを同期させる必要がある。
In step S4005, a request for adding start point information to the frame at the start of recording is transmitted. In the self-portrait mode, it is necessary to synchronize audio data with the frame processed by the camera
ステップS4006では、表示部2007に表示されるフレームと音声データを合成して記録媒体2012に記録を開始する。遠隔撮影モードの場合、表示部2007に表示されるフレームに音声データを同期させる必要がある。
In step S4006, the frame displayed on the
ステップS4007では、所定時間経過したか否かの判定を行う。所定時間が経過した場合にはステップS4008へ進み、経過していない場合には再度ステップS4002を繰り返す。ここで所定時間とは、カメラ1000が生成する所定の周期Tと同等の値にすることが望ましい。
In step S4007, it is determined whether a predetermined time has elapsed. If the predetermined time has elapsed, the process proceeds to step S4008, and if not, step S4002 is repeated. Here, the predetermined time is desirably set to a value equivalent to the predetermined period T generated by the
ステップS4008では、ステップS4001で取得したフレーム取得先情報を用いて、フレームの取得要求(ステップ3004)を行い、カメラ1000からフレームを取得する。取得したフレームは、RAM2003または記録媒体2012に記録した後、符号・復号処理部2013に渡され、復号した後、出力処理部2006を介して、表示部2007で再生表示(映像表示)を行う。
In step S4008, a frame acquisition request (step 3004) is made using the frame acquisition destination information acquired in step S4001, and a frame is acquired from the
ステップS4009では、ステップS4008で取得したフレームにステップS4005で要求を送信した開始点情報が付加されているか否かの判定を行う。記録開始時のフレームを受信した場合にはステップS4010へ進み、受信していない場合にはステップS4011へ進む。 In step S4009, it is determined whether or not the start point information transmitted in step S4005 is added to the frame acquired in step S4008. If the frame at the start of recording has been received, the process proceeds to step S4010. If not, the process proceeds to step S4011.
ステップS4010では、ステップS5008で取得したフレームと音声データを合成して記録媒体2012に記録を開始する。
In step S4010, the frame and audio data acquired in step S5008 are synthesized and recording on the
ステップS4011では、処理を終了するか否かの判定を行い、終了する場合以外はステップS4002へ戻る。 In step S4011, it is determined whether or not to end the process. Otherwise, the process returns to step S4002.
次に、図5を参照して、カメラ1000が端末2000と接続確立後、CPU1001が実行する処理を説明する。
Next, processing executed by the
ステップS5001では、ライブストリーミング開始に伴う、フレーム生成の開始処理を行う。CPU1001は、撮像素子1014からの信号出力を開始し、その出力をカメラ信号処理部1015により適切な映像データに処理し、符号・復号処理部1016へデータを渡す。符号・復号処理部1016では、受け取った映像データを所定のビットレート、フォーマット形式で圧縮符号化する処理を開始する。
In step S5001, frame generation start processing accompanying live streaming start is performed. The
ステップS5002では、端末2000からのフレーム取得要求(ステップ3004)有無の判定を行う。フレーム取得要求があった場合にはステップS5003へ進み、なかった場合にはステップS5004へ進む。 In step S5002, the presence / absence of a frame acquisition request (step 3004) from the terminal 2000 is determined. If there is a frame acquisition request, the process proceeds to step S5003; otherwise, the process proceeds to step S5004.
ステップS5003では、フレーム取得要求(ステップ3004)に対する応答(ステップ3005)として、フレームの送信を行う。 In step S5003, a frame is transmitted as a response (step 3005) to the frame acquisition request (step 3004).
ステップS5004では、端末2000から開始点情報の付加要求を受信したか否かの判定を行う。要求を受信したということは、自分撮りモードを行っており、カメラ信号処理部1015で処理された映像信号に音声信号を同期させる必要があることを意味する。フレーム取得要求があった場合にはステップS5005へ進み、なかった場合にはステップS5006へ進む。
In step S5004, it is determined whether a start point information addition request is received from terminal 2000. The fact that the request has been received means that the self-shooting mode is being performed and the audio signal needs to be synchronized with the video signal processed by the camera
ステップS5005では、記録開始時のフレームに開始点情報を付加する。ステップS5004で要求を受信したときにカメラ信号処理部1015で処理された映像信号と音声信号を同期させるため、CPU1001はデジタル信号にフラグを付加する。符号・復号処理部1016で所定の処理を行い、RAM1003または記録媒体1012に保存されたフレームのアプリケーションマーカー(APPn)に開始点情報を付加する。なお、開始点情報は、フレームのアプリケーションマーカー(APPn)ではなく、フレームとは別の情報として付加し、フレームとまとめた構造体を応答フレームとして定義しても良い。
In step S5005, start point information is added to the frame at the start of recording. In order to synchronize the audio signal with the video signal processed by the camera
ステップS5006では、処理を終了するか否かの判定を行い、終了する場合以外はステップS5002へ戻る。 In step S5006, it is determined whether or not to end the process, and the process returns to step S5002 except when the process is ended.
なお、本フローでの各イベント判定ステップS5002、S5004は、順に問い合わせによる判定で説明したが、各条件のイベント待ちを同時に行う場合には、イベント発生順に各処理を実行しても良い。 Note that each event determination step S5002 and S5004 in this flow has been described by the determination by inquiry in sequence, but when waiting for an event of each condition at the same time, each process may be executed in the order of event occurrence.
[実施形態2]次に、実施形態2としてプレイリストを利用したライブストリーミングについて説明する。 [Embodiment 2] Next, live streaming using a playlist will be described as Embodiment 2.
なお、本実施形態のシステム構成は実施形態1と同様であるため、その説明は省略する。
In addition, since the system configuration of this embodiment is the same as that of
まず、本実施形態のシステムにおけるプレイリストを用いたストリーミングの基本動作について説明する。
1.カメラ(サーバ)は、ストリーミングデータを一定時間のセグメントに分割し、そのセグメント取得先を列挙したプレイリストを作成する。ライブの場合には、定期的にセグメントが生成されるため、新しいセグメントが生成されると、動的に新しい内容のプレイリストに更新(削除、追記)するスライドウインドウ型プレイリストを用いる。
2.端末(クライアント)は、プレイリストを取得・解析し、列挙順にセグメントデータ取得先からデータ取得を行う。
3.端末(クライアント)は、取得したデータの再生表示、または保存を行う。
4.カメラ(サーバ)と端末(クライアント)は、プレイリスト終了(ストリーミング終了)まで、1〜3を繰り返す。
First, the basic operation of streaming using a playlist in the system of this embodiment will be described.
1. The camera (server) divides the streaming data into segments of a certain time, and creates a playlist that lists the segment acquisition destinations. In the case of live performance, a segment is periodically generated. Therefore, when a new segment is generated, a slide window type playlist that is dynamically updated (deleted or added) to a playlist having new contents is used.
2. The terminal (client) acquires and analyzes the playlist, and acquires data from the segment data acquisition destination in the order of enumeration.
3. The terminal (client) reproduces, displays, or saves the acquired data.
4). The camera (server) and terminal (client)
上記基本動作を踏まえ、図6ないし図9を参照して、本実施形態のシステムによるプレイリストを利用したライブストリーミング動作について説明する。 Based on the above basic operation, a live streaming operation using a playlist by the system of the present embodiment will be described with reference to FIGS.
ユーザがカメラ1000において、操作部1005からライブストリーミングモードを実行すると、カメラ1000は、CPU1001の制御により、通信制御部1008を通信可能状態とする。
When the user executes the live streaming mode from the
さらにユーザは端末2000において、操作部2005を操作して通信接続処理およびライブストリーミングに必要なアプリケーションの起動を行う。これに応じて、端末2000のCPU2001は、ROM2002または記録媒体2012に格納された当該プログラムに従い、通信制御部2008を制御し、カメラ1000との通信を開始し、接続処理を行う。
Further, the user operates the
ここで、カメラ1000と端末2000は、通信プロトコルとしてHTTP(Hypertext Transfer Protocol)/TCP(Transmission Control Protocol)を使用するものとする。また、通信接続においてUPnP(Universal Plug and Play)に対応しているものとする。UPnP対応の端末2000は、機器をネットワークに接続すると、DHCP(Dynamic Host Configuration Protocol)または、AutoIPによるIP(Internet Protocol)アドレスの設定を行う。IPアドレスを取得した機器は、ネットワーク上の他の機器を相互に認識するために、「デバイスディスカバリとコントロール」によって、デバイス検索と応答デバイスの種別、サービス機能などの情報取得を行う(ステップ6003)。カメラ1000は、端末2000のデバイス検索要求に対して、機器情報と機器固有情報のプレイリスト取得先情報などを応答する(ステップ6004)。
Here, the
カメラ1000と端末2000の接続処理が完了すると、カメラ1000はライブストリーミングを開始する。
When the connection process between the
ライブストリーミングにおいて、カメラ1000のCPU1001は、撮像素子1014からの信号出力を開始し、その出力をカメラ信号処理部1015により適切な映像データに処理し、符号・復号処理部1016へデータを送出する。
In live streaming, the
符号・復号処理部1016では、受け取った映像データ等を所定のビットレート、フォーマット形式で圧縮符号化し、さらに所定の時間長Tsで分割し、セグメントデータ(6002)としてRAM1003または記録媒体1012に保存する。なお、本実施形態ではTs=0.03秒として、以下説明する。
The encoding /
CPU1001は、上記セグメントデータの保存先と関連させたパス情報を生成する。パス情報は、端末2000がセグメントを取得する際の取得先情報として使用するもので、CPU1001は、プレイリスト6001を作成し、上記パス情報と併せてセグメント情報を記録する。
The
ここで、図7を参照して、プレイリスト6001について説明する。
Here, the
図7に示すプレイリスト7010は、Extended M3U形式のプレイリストであり、最初の行7011に識別子タグを記述し、2行目7012にはプレイリストバージョンを示すタグとバージョンを記述する。本例ではバージョンを“3”としている。3行目7013はセグメントデータ6002の時間を示すタグとその時間(秒)を整数または小数で記述する。本実施形態では、セグメントデータ時間長をTs=0.03(秒)としていることから、本例でも“0.03”としている。4行目7014はセグメントデータ6002の取得先パス(クエリパラメータを含む)を記述する。3行目7013および4行目7014はセグメントデータ6002に関する情報として、必ず続けて記述する必要がある。
A
また、プレイリスト7010は、セグメント情報7013、7014を記録した図6のプレイリスト6001の内容例となる。
The
端末2000は、セグメントデータ6002の所定の時間長Tsを事前に記憶しているか、カメラ1000の機器情報に含めることで機器情報取得時に得ることができているものとする。
It is assumed that the terminal 2000 stores a predetermined time length Ts of the
端末2000は、ライブストリーミング開始後、約Ts(秒)後にステップ6004で取得したプレイリスト取得先へ、プレイリスト取得要求(HTTP GETメソッド)を行う(ステップ6005)。
The terminal 2000 makes a playlist acquisition request (HTTP GET method) to the playlist acquisition destination acquired in
カメラ1000は、応答プレイリストとして、セグメント情報7013、7014が一つ記述されたプレイリスト6001(=7010)を送信する(ステップS6006)。
The
端末2000は、受信したプレイリスト7010を解析し、セグメント情報の取得先に対して、セグメント取得要求(HTTP GETメソッド)を行う(ステップ6007)。
The terminal 2000 analyzes the received
カメラ1000は、応答セグメントとして、要求されたセグメント6002を送信する(ステップ6008)。
The
端末2000は、受信したセグメント6002を符号・復号処理部2013に渡し、復号した後、出力処理部2006を介して、表示部2007で再生表示を行う。ライブストリーミングアプリケーションにより、ユーザから端末REC10007への指示入力があると、復号したデータ、またはセグメント6002からヘッダなどを除いたデータ部を、記録媒体2012に記録する。そして、順次受信したセグメントデータと音声信号処理部2015からの音声信号をそれぞれ符号化し、多重合成して記録していく。
The terminal 2000 passes the received
ストリーミング中、カメラ1000は、約Ts(秒)毎にセグメント生成、プレイリスト更新を行う。また、端末2000に取得されたセグメント情報はプレイリストから削除する。
During streaming, the
端末2000は、カメラ1000にてプレイリストの更新を行う度、その約Ts(秒)毎にそのプレイリスト取得(ステップ6005)を行い、プレイリスト6001に記載されたセグメント情報に基づき、当該セグメントデータを取得要求する。
Whenever the playlist is updated by the
なお、端末2000の要求処理(ステップ6005、6007)には端末、またはアプリケーションの固有のIDを付加する。そして、本実施形態のカメラ1000は、最初に要求のあったIDの要求のみに対してストリーミングを行う。つまり、本実施形態のカメラ1000と端末2000は1対1接続でのみストリーミングを行うものとする。
Note that a unique ID of the terminal or application is added to the request processing (
次に、図9を参照して、端末2000がカメラ1000と接続確立後、CPU2001が実行する処理を説明する。
Next, processing executed by the
ステップS9001では、接続時に取得した機器・プレイリスト取得先情報(ステップ6004)から、プレイリスト取得先情報を取得し、保持する。 In step S9001, the playlist acquisition destination information is acquired from the device / playlist acquisition destination information (step 6004) acquired at the time of connection and held.
ステップS9002では、ライブストリーミングアプリケーションにより端末REC10007が実行されたか否かを判定する。なお、この判定は、端末REC10007が実行されたかに限らず、カメラ1000が対象となる被写体を検知した時点で記録開始と判定することも可能である。実行された場合にはステップS9003へ進み、実行しない場合、または既に実行され記録が開始されている場合にはステップS9013へ進む。
In step S9002, it is determined whether the terminal REC10007 has been executed by the live streaming application. Note that this determination is not limited to whether the terminal REC10007 has been executed, but can be determined to start recording when the
ステップS9003では、マイク2014から音声の入力を開始する。
In step S9003, voice input from the
ステップS9004では、ステップS9001で取得したプレイリスト取得先情報を用いて、プレイリストの取得要求(ステップ6005)を行い、カメラ1000から取得したプレイリストの解析を行う。プレイリストの解析では、識別タグによるプレイリスト形式とバージョンの確認を行った後、セグメント情報を取得する。
In step S9004, a playlist acquisition request (step 6005) is made using the playlist acquisition destination information acquired in step S9001, and the playlist acquired from the
ステップS9005では、ステップS9004でセグメント情報が存在したか否かの判定を行う。セグメント情報が存在した場合にはステップS9006に進み、存在しない場合にはステップS9004へ戻る。 In step S9005, it is determined whether segment information exists in step S9004. If the segment information exists, the process proceeds to step S9006. If the segment information does not exist, the process returns to step S9004.
ステップS9006では、自分撮り/遠隔撮影10008の設定が自分撮りモードと遠隔撮影モードのいずれであるかの判定を行う。自分撮りモードの場合にはステップS9007へ進み、遠隔撮影モードの場合にはステップS9011へ進む。なお、モード設定は、操作部2005により事前にユーザにより設定されているものとする。また、操作部2005からモード設定を行わず、カメラ1000の画角内にユーザの視線を検知した場合に自分撮りモードに設定したり、カメラ1000の画角内に通信している端末2000が存在する場合には自分撮りモードに設定することも可能である。
In step S9006, it is determined whether the setting of self-shooting /
ステップS9007では、ステップS9004で取得したプレイリストに初めて記述されたセグメントの中から、最も古いセグメントの番号を開始点番号とする。自分撮りモードの場合、端末REC10007が実行された直後に生成されたセグメントに音声データを同期させる必要がある。例えば、端末REC10007が実行される直前に取得したプレイリストが図8(a)のプレイリスト8010であり、端末REC10007が実行された直後に取得したプレイリストが図8(b)のプレイリスト8020であるとすると、開始点番号は4となる。
In step S9007, the number of the oldest segment among the segments described for the first time in the playlist acquired in step S9004 is set as the start point number. In the self-portrait mode, it is necessary to synchronize audio data with a segment generated immediately after the terminal REC10007 is executed. For example, the playlist acquired immediately before the terminal REC10007 is executed is the
ステップS9008では、セグメント情報の取得先パスに対してセグメントの取得要求(ステップ6007)を行い、カメラ1000からセグメントを取得する。ここで、取得したセグメント情報が1つならば、そのセグメントを最古セグメントとする。また、取得したセグメント情報が複数ならば最も古いセグメントを最古セグメントとする。取得したセグメントは、RAM2003または記録媒体2012に記録した後、符号・復号処理部2013に渡され、復号した後、出力処理部2006を介して、表示部2007で再生表示(映像表示)を行う。
In step S9008, a segment acquisition request is made to the segment information acquisition destination path (step 6007), and the segment is acquired from the
ステップS9009では、ステップS9008で取得したセグメントの番号が、ステップS9007で設定した開始点番号と一致するか否かの判定を行う。一致する場合にはステップS9010に進み、一致しない場合にはステップS9005へ戻る。 In step S9009, it is determined whether or not the segment number acquired in step S9008 matches the start point number set in step S9007. If they match, the process proceeds to step S9010. If they do not match, the process returns to step S9005.
ステップS9010では、ステップS9008で取得したセグメントと音声データを合成して記録媒体2012に記録を開始する。
In step S9010, the segment acquired in step S9008 and the audio data are synthesized and recording on the
ステップS9011では、ステップS9008と同様に、セグメント情報の取得先パスに対してセグメントの取得要求(ステップ6007)を行い、カメラ1000からセグメントを取得する。取得したセグメントは、RAM2003または記録媒体2012に記録した後、符号・復号処理部2013に渡され、復号した後、出力処理部2006を介して、表示部2007で再生表示(映像表示)を行う。
In step S9011, similarly to step S9008, a segment acquisition request is made to the segment information acquisition destination path (step 6007), and the segment is acquired from the
ステップS9012では、表示部2007で再生表示されているセグメントと音声データを合成して記録媒体2012に記録を開始する。遠隔撮影モードの場合、表示部2007に表示されるセグメントに音声を同期させる必要がある。
In step S9012, the segment reproduced and displayed on the
ステップS9013では、所定時間経過したか否かの判定を行う。所定時間が経過した場合にはステップS9014へ進み、経過していない場合には再度ステップS9002を繰り返す。なお、所定時間は、カメラ1000が生成する所定の時間長Tsと同等の値でなくても良い。
In step S9013, it is determined whether a predetermined time has elapsed. If the predetermined time has elapsed, the process proceeds to step S9014. If the predetermined time has not elapsed, step S9002 is repeated again. The predetermined time may not be equal to the predetermined time length Ts generated by the
ステップS9014では、ステップS9004と同様に、ステップS9001で取得したプレイリスト取得先情報を用いて、プレイリストの取得要求(ステップS6005)を行い、カメラ1000から取得したプレイリストの解析を行う。
In step S9014, similarly to step S9004, a playlist acquisition request (step S6005) is made using the playlist acquisition destination information acquired in step S9001, and the playlist acquired from the
ステップS9015では、ステップS9005と同様に、ステップS9014でセグメント情報が存在したか否かの判定を行う。セグメント情報が存在した場合にはステップS9016に進み、存在しない場合にはステップS9014へ戻る。 In step S9015, as in step S9005, it is determined whether segment information is present in step S9014. If the segment information exists, the process proceeds to step S9016. If the segment information does not exist, the process returns to step S9014.
ステップS9016では、ステップS9008と同様に、セグメント情報の取得先パスに対してセグメントの取得要求(7007)を行い、カメラ1000からセグメントを取得する。取得したセグメントは、RAM2003または記録媒体2012に記録した後、符号・復号処理部2013に渡され、復号した後、出力処理部2006を介して、表示部2007で再生表示(映像表示)を行う。
In step S9016, as in step S9008, a segment acquisition request (7007) is made to the segment information acquisition destination path, and the segment is acquired from the
ステップS9017では、ステップS9013と同様に、所定時間経過したか否かの判定を行う。所定時間が経過した場合にはステップS9018へ進み、経過していない場合にはステップS9015へ戻る。所定時間が経過していない場合には、ステップS9015へ戻ることで、プレイリストに未だセグメント情報が存在する場合、セグメントを再度取得することが可能となる。なお、所定時間は、カメラ1000が生成する所定の時間長Tsと同等の値でなくても良い。
In step S9017, as in step S9013, it is determined whether a predetermined time has elapsed. If the predetermined time has elapsed, the process proceeds to step S9018; otherwise, the process returns to step S9015. If the predetermined time has not elapsed, the process returns to step S9015, and if segment information still exists in the playlist, the segment can be acquired again. The predetermined time may not be equal to the predetermined time length Ts generated by the
ステップS9018では、処理を終了するか否かの判定を行い、終了する場合以外はステップS9002へ戻る。 In step S9018, it is determined whether or not to end the process. Otherwise, the process returns to step S9002.
上述した各実施形態によれば、自分撮りモードの場合は、撮影者の唇の動きと音声が合っている必要があるため、撮影映像と音声を同期させて記録し、遠隔撮影モードの場合は、撮影者は遅延した映像を見ながら話をしているため、遅延画像(端末に表示されている映像)と音声を同期させて記録する。 According to each of the embodiments described above, in the self-portrait mode, it is necessary to match the voice of the photographer's lips with the sound. Since the photographer is talking while watching the delayed video, the delayed image (video displayed on the terminal) and the sound are recorded in synchronization.
このように、通信の遅延や用途に応じてカメラの撮影映像と端末からの入力音声とを合成して記録するかを決定するので、映像と音声の同期を最適化することが可能となる。 Thus, since it is determined whether to synthesize and record the video captured by the camera and the audio input from the terminal according to the communication delay and application, it is possible to optimize the synchronization between the video and audio.
[他の実施形態]本発明は、以下の処理を実行することによっても実現される。即ち、上記実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。 [Other Embodiments] The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the program code. It is processing to do. In this case, the program and the storage medium storing the program constitute the present invention.
Claims (12)
前記撮像装置から映像データを所定の周期で受信する受信手段と、
前記受信手段により受信した映像データを表示する表示手段と、
音声データを入力する入力手段と、
撮影モードを設定する設定手段と、
前記受信手段により受信した映像データと前記入力手段により入力した音声データとを合成して記録する記録手段と、
前記設定手段により設定された撮影モードと、前記撮像装置により撮影された映像が前記表示手段に表示されるまでの遅延とに応じて、前記受信手段により受信した映像データと前記入力手段により入力した音声データとが同期して記録されるように前記記録手段を制御する制御手段と、を有することを特徴とする通信装置。 A communication device capable of communicating with an imaging device,
Receiving means for receiving video data from the imaging device in a predetermined cycle;
Display means for displaying video data received by the receiving means;
Input means for inputting voice data;
Setting means for setting the shooting mode;
Recording means for synthesizing and recording the video data received by the receiving means and the audio data input by the input means;
Depending on the shooting mode set by the setting means and the delay until the video shot by the imaging device is displayed on the display means, the video data received by the receiving means and input by the input means And a control means for controlling the recording means so that the audio data is recorded synchronously.
前記制御手段は、前記第1のモードに設定されている場合は、前記撮影者が見ている映像と音声とが同期するように前記記録手段を制御し、
前記第2のモードの場合は、前記表示手段に表示されている映像と音声とが同期するように前記記録手段を制御することを特徴とする請求項1に記載の通信装置。 The photographing mode includes a first mode in which a photographer can see and photograph a subject without going through the display means, and a second mode in which the photographer cannot see a subject without going through the display means,
When the control unit is set to the first mode, the control unit controls the recording unit so that the video and the audio that the photographer is viewing are synchronized,
2. The communication apparatus according to claim 1, wherein in the second mode, the recording unit is controlled so that a video and an audio displayed on the display unit are synchronized. 3.
前記受信手段により受信した映像データに、前記情報が付加されているか判定する判定手段と、を有し、
前記制御手段は、前記情報が付加された映像データと前記入力手段により入力した音声データとを合成して記録するように前記記録手段を制御することを特徴とする請求項2に記載の通信装置。 When the first mode is set, information indicating that the recording device starts recording data is added to the image data transmitted from the imaging device to the imaging device. A transmission means to request from
Determining means for determining whether the information is added to the video data received by the receiving means;
3. The communication apparatus according to claim 2, wherein the control unit controls the recording unit to synthesize and record the video data to which the information is added and the audio data input by the input unit. .
前記撮像装置から、前記要求したリストを受信する第1の受信手段と、
前記撮像装置から受信したリストに記述されたセグメントの要求を前記撮像装置に送信する第2の送信手段と、
前記要求に応じて前記撮像装置から送信されたセグメントを受信する第2の受信手段と、をさらに有し、
前記第1の送信手段は、所定時間ごとにリストを要求すると共に、前記リストに記述されたセグメントの情報のうち、最も古いセグメントの情報に該当するセグメントの要求を送信し、
前記制御手段は、前記第1のモードの場合には、前記記録手段により記録を開始した直後に前記第1の受信手段により受信したリストに新たに記述されているセグメントの中で最も古いセグメントと前記入力手段により入力した音声データとを合成して記録し、前記第2のモードの場合には、前記第1の受信手段により受信したリストに記述されているセグメントの中で最も古いセグメントと前記入力手段により入力した音声データとを合成して記録するように前記記録手段を制御することを特徴とする請求項2ないし4のいずれか1項に記載の通信装置。 First transmission means for dividing video data obtained by the imaging device into segments of a predetermined time length and transmitting a request for a list describing information of the divided segments to the imaging device;
First receiving means for receiving the requested list from the imaging device;
Second transmission means for transmitting a request for a segment described in a list received from the imaging apparatus to the imaging apparatus;
Second receiving means for receiving a segment transmitted from the imaging device in response to the request;
The first transmission means requests a list every predetermined time, and transmits a request for a segment corresponding to the oldest segment information among the segment information described in the list,
In the case of the first mode, the control means determines the oldest segment among the segments newly described in the list received by the first receiving means immediately after the recording means starts recording. The voice data input by the input means is synthesized and recorded, and in the case of the second mode, the oldest segment among the segments described in the list received by the first reception means and the communication apparatus according to any one of claims 2, wherein the controller controls the recording means to record by synthesizing the audio data inputted by the input means 4.
撮像手段と、
前記撮像手段により得られた映像データを保持する保持手段と、
前記通信装置から、映像データの送信の要求を受信する受信手段と、
前記通信装置から要求された映像データを前記通信装置に送信する送信手段と、
前記通信装置から、前記送信手段により送信される映像データに、前記通信装置による記録開始時のデータであることを示す情報を付加するように要求されたか判定する判定手段と、
前記情報を付加するように要求された場合、前記情報を映像データに付加して前記通信装置に送信するように前記送信手段を制御する制御手段と、を有することを特徴とする撮像装置。 An imaging device capable of communicating with a communication device,
Imaging means;
Holding means for holding video data obtained by the imaging means;
Receiving means for receiving a request for transmission of video data from the communication device;
Transmitting means for transmitting video data requested from the communication device to the communication device;
A determination unit that determines whether or not the communication device has requested to add information indicating that the video data transmitted by the transmission unit is data at the start of recording by the communication device;
An image pickup apparatus comprising: a control unit that controls the transmission unit so that the information is added to video data and transmitted to the communication device when the information is requested to be added.
前記保持手段に保持されたセグメントの情報を記述したリストを作成する作成手段と、
前記通信装置から、リストの要求を受信する第1の受信手段と、
前記通信装置から要求された前記リストを前記通信装置に送信する第1の送信手段と、
前記通信装置から前記リストに記述されたセグメントの要求を受信する第2の受信手段と、
前記通信装置から要求されたセグメントを前記通信装置に送信する第2の送信手段とをさらに有することを特徴とする請求項7に記載の撮像装置。 Holding means for holding the video data obtained by the imaging means divided into segments of a predetermined time length; and
Creating means for creating a list describing information of segments held in the holding means;
First receiving means for receiving a request for a list from the communication device;
First transmission means for transmitting the list requested from the communication device to the communication device;
Second receiving means for receiving a request for a segment described in the list from the communication device;
The imaging apparatus according to claim 7, further comprising a second transmission unit configured to transmit a segment requested by the communication apparatus to the communication apparatus.
前記撮像装置から映像データを所定の周期で受信する受信ステップと、
前記受信した映像データを前記表示手段に表示する表示ステップと、
前記受信した映像データと前記入力手段により入力した音声データとを合成して記録する記録ステップとを有し、
前記記録ステップでは、前記設定手段により設定された撮影モードと、前記撮像装置により撮影された映像が前記表示手段に表示されるまでの遅延とに応じて、前記受信した映像データと前記入力手段により入力した音声データとを同期して記録することを特徴とする通信装置の制御方法。 A control method for a communication device capable of communicating with an imaging device, comprising display means for displaying video data, input means for inputting audio data, and setting means for setting a shooting mode,
A receiving step of receiving video data from the imaging device in a predetermined cycle;
A display step of displaying the received video data on the display means;
A recording step of synthesizing and recording the received video data and audio data input by the input means;
In the recording step, the received video data and the input unit according to the shooting mode set by the setting unit and the delay until the video shot by the imaging device is displayed on the display unit. A method for controlling a communication device, wherein the input audio data is recorded synchronously.
撮像手段により得られた映像データを保持するステップと、
前記通信装置から、映像データの送信の要求を受信するステップと、
前記通信装置から要求された映像データを前記通信装置に送信するステップと、
前記通信装置から、前記送信する映像データに、前記通信装置による記録開始時のデータであることを示す情報を付加するように要求されたか判定するステップと、
前記情報を付加するように要求された場合、前記情報を映像データに付加して前記通信装置に送信するステップと、を有することを特徴とする撮像装置の制御方法。 A method for controlling an imaging apparatus capable of communicating with a communication apparatus,
Holding the video data obtained by the imaging means;
Receiving a request for transmission of video data from the communication device;
Transmitting video data requested from the communication device to the communication device;
Determining whether or not the communication device has requested to add to the video data to be transmitted information indicating that it is data at the start of recording by the communication device;
And a step of adding the information to video data and transmitting the video data to the communication device when the information is requested to be added.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013264499A JP6360300B2 (en) | 2013-12-20 | 2013-12-20 | COMMUNICATION DEVICE, IMAGING DEVICE, ITS CONTROL METHOD, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013264499A JP6360300B2 (en) | 2013-12-20 | 2013-12-20 | COMMUNICATION DEVICE, IMAGING DEVICE, ITS CONTROL METHOD, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015122587A JP2015122587A (en) | 2015-07-02 |
JP6360300B2 true JP6360300B2 (en) | 2018-07-18 |
Family
ID=53533878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013264499A Expired - Fee Related JP6360300B2 (en) | 2013-12-20 | 2013-12-20 | COMMUNICATION DEVICE, IMAGING DEVICE, ITS CONTROL METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6360300B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7762099B2 (en) | 2005-03-15 | 2010-07-27 | Daikin Industries, Ltd. | Refrigeration apparatus |
WO2023068904A1 (en) * | 2021-10-22 | 2023-04-27 | 삼성전자 주식회사 | Electronic device and operation method of electronic device |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019009574A (en) * | 2017-06-23 | 2019-01-17 | キヤノン株式会社 | Image processing apparatus |
CN108881719B (en) * | 2018-06-27 | 2019-12-10 | 维沃移动通信有限公司 | Method for switching shooting mode and terminal equipment |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11155092A (en) * | 1997-11-20 | 1999-06-08 | Sony Corp | Remote monitor device and image pickup system |
JP2002142140A (en) * | 2001-07-13 | 2002-05-17 | Konica Corp | Camera with transmission function and image transmission and reception system |
JP2010171625A (en) * | 2009-01-21 | 2010-08-05 | Olympus Corp | Imaging apparatus, sound recorder, and motion picture photographing system |
JP2015514339A (en) * | 2012-03-13 | 2015-05-18 | エイチ4 エンジニアリング, インコーポレイテッドH4 Engineering, Inc. | System and method for video recording and webcasting of sports events |
-
2013
- 2013-12-20 JP JP2013264499A patent/JP6360300B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7762099B2 (en) | 2005-03-15 | 2010-07-27 | Daikin Industries, Ltd. | Refrigeration apparatus |
WO2023068904A1 (en) * | 2021-10-22 | 2023-04-27 | 삼성전자 주식회사 | Electronic device and operation method of electronic device |
Also Published As
Publication number | Publication date |
---|---|
JP2015122587A (en) | 2015-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2013132828A1 (en) | Communication system and relay apparatus | |
JP2016123137A (en) | Image communication apparatus and imaging apparatus | |
JP2016001927A (en) | Method of providing image of image capture apparatus, and apparatus therefor | |
JP6385429B2 (en) | Method and apparatus for reproducing stream media data | |
US9445142B2 (en) | Information processing apparatus and control method thereof | |
JP6360300B2 (en) | COMMUNICATION DEVICE, IMAGING DEVICE, ITS CONTROL METHOD, AND PROGRAM | |
US20170070699A1 (en) | Information processing apparatus, image capturing apparatus, and control methods for the same | |
JP2017501598A5 (en) | ||
JP6032987B2 (en) | Image output device and method of operating image output device | |
US9277261B2 (en) | Information processing apparatus and control method thereof | |
US20150373073A1 (en) | Image pickup apparatus, control method and recording medium | |
JP6289076B2 (en) | Information processing apparatus, information processing method, and program | |
JP7279416B2 (en) | Intermediary terminal, communication system, input system, intermediary control method, and program | |
JP2019068187A (en) | Information processing apparatus, control method thereof, and program | |
JP2016178355A (en) | Communication device, communication system, communication device control method, and program | |
KR20070001482A (en) | Method for remote controlling of mobile terminal | |
JP6254862B2 (en) | Imaging apparatus and control method, system and program thereof | |
JP7277173B2 (en) | Imaging device with video distribution function | |
WO2019244732A1 (en) | Communication device, control method for communication device, and program | |
JP2015142360A (en) | Imaging apparatus and universal head device | |
KR101883949B1 (en) | Real-time broadcast system, a client terminal thereof and operation method thereof | |
JP2017046183A (en) | Transmitter, receiver, and communication system | |
JP2015032953A (en) | Imaging system, information communication terminal, and program | |
KR20090129743A (en) | Method and system for transmitting an image between digital photographing apparatus and digital media player | |
JP2005117261A (en) | Network camera apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180525 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180622 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6360300 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |