JP6360300B2 - COMMUNICATION DEVICE, IMAGING DEVICE, ITS CONTROL METHOD, AND PROGRAM - Google Patents

COMMUNICATION DEVICE, IMAGING DEVICE, ITS CONTROL METHOD, AND PROGRAM Download PDF

Info

Publication number
JP6360300B2
JP6360300B2 JP2013264499A JP2013264499A JP6360300B2 JP 6360300 B2 JP6360300 B2 JP 6360300B2 JP 2013264499 A JP2013264499 A JP 2013264499A JP 2013264499 A JP2013264499 A JP 2013264499A JP 6360300 B2 JP6360300 B2 JP 6360300B2
Authority
JP
Japan
Prior art keywords
video data
communication device
recording
receiving
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013264499A
Other languages
Japanese (ja)
Other versions
JP2015122587A (en
Inventor
麻由 横井
麻由 横井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013264499A priority Critical patent/JP6360300B2/en
Publication of JP2015122587A publication Critical patent/JP2015122587A/en
Application granted granted Critical
Publication of JP6360300B2 publication Critical patent/JP6360300B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明はネットワークを介した二つの機器間におけるライブストリーミングに関するものである。   The present invention relates to live streaming between two devices via a network.

従来より、ライブストリーミングでカメラで撮影された映像をユーザの端末に転送することにより、ユーザは、遠隔にあるカメラから自分の端末に逐次送られてくる映像や音声を視聴することができる。また、カメラを離れた位置から操作し撮影する用途として、自分を撮るための自分撮りモードや他人や動物などを撮る遠隔撮影モードがある。   Conventionally, by transferring video captured by a camera by live streaming to a user's terminal, the user can view video and audio that are sequentially sent from a remote camera to his / her terminal. In addition, there are a self-photographing mode for taking a picture of yourself and a remote-photographing mode for taking pictures of other people and animals.

自分撮りモードでは、遠隔にあるカメラのマイクでユーザの声を拾うことは難しいため、例えば、特許文献1のように、カメラのリモコンに、カメラにより撮影された映像を表示し、音声を入力するマイクを搭載したものが必要である。これにより、ユーザは、カメラから送られてくる映像を見ながら、リモコンのマイクに向かって話すことで、映像データにマイクで拾った音声を同期させて記録することができる。なお、特許文献1では、リモコンに表示されている映像を用いてカメラの画角を確認し、音声を実際の映像に合わせる必要がある。   In the self-portrait mode, it is difficult to pick up the user's voice with the microphone of the remote camera. For example, as disclosed in Patent Document 1, the video captured by the camera is displayed on the remote controller of the camera and voice is input. A device with a microphone is required. Thereby, the user can record the audio picked up by the microphone in synchronization with the video data by speaking to the microphone of the remote controller while watching the video sent from the camera. In Patent Document 1, it is necessary to check the angle of view of the camera using the video displayed on the remote controller and match the sound with the actual video.

また、遠隔撮影モードでは、通信状況に起因して遅延が発生すると、実際に撮影された映像と表示される映像との間に時差が発生するため、音声を表示される映像に合わせる必要がある。ここで、被写体からマイクまでの距離と音速とに基づいて音声到達時間を算出し、映像と音声がマイクに到達するまでの距離によって生じるリップシンクずれを補正するものがある(例えば、特許文献2)。   In the remote shooting mode, if a delay occurs due to communication conditions, a time difference occurs between the actually shot video and the displayed video, so it is necessary to match the sound with the displayed video. . Here, there is an apparatus that calculates a voice arrival time based on a distance from a subject to a microphone and a sound speed, and corrects a lip sync shift caused by a distance between the video and the sound reaching the microphone (for example, Patent Document 2). ).

特開平11−155092号公報Japanese Patent Application Laid-Open No. 11-155092 特開2010−258568号公報JP 2010-258568 A

ところで、上記特許文献1では、通信の遅延が考慮されていないため、遅延が発生したときに映像と音声が同期しなくなってしまう。また、上記特許文献2では、被写体からマイクまでの距離と音速に基づいて音声到達時間を算出しており、自分撮りモードや遠隔撮影モードなどの用途に合わせた設定を行うことができない。   By the way, in the said patent document 1, since the delay of communication is not considered, when a delay generate | occur | produces, an image | video and an audio | voice will stop synchronizing. Further, in Patent Document 2, the voice arrival time is calculated based on the distance from the subject to the microphone and the sound speed, and it is not possible to make settings according to the usage such as the self-shooting mode and the remote shooting mode.

本発明は、上記課題に鑑みてなされ、その目的は、ライブストリーミングにおいて、通信の遅延や用途に応じてサーバ側で得られる映像とクライアント側で得られる音声とを合成して記録するかを決定することで、映像と音声の同期を最適化する技術を実現することである。   The present invention has been made in view of the above problems, and its purpose is to determine whether to synthesize and record the video obtained on the server side and the audio obtained on the client side according to communication delay and usage in live streaming. By doing so, the technology to optimize the synchronization of video and audio is realized.

上記課題を解決し、目的を達成するため、本発明の通信装置は、撮像装置と通信可能な通信装置であって、前記撮像装置から映像データを所定の周期で受信する受信手段と、前記受信手段により受信した映像データを表示する表示手段と、音声データを入力する入力手段と、撮影モードを設定する設定手段と、前記受信手段により受信した映像データと前記入力手段により入力した音声データとを合成して記録する記録手段と、前記設定手段により設定された撮影モードと、前記撮像装置により撮影された映像が前記表示手段に表示されるまでの遅延とに応じて、前記受信手段により受信した映像データと前記入力手段により入力した音声データとが同期して記録されるように前記記録手段を制御する制御手段と、を有する。   In order to solve the above-described problems and achieve the object, a communication device of the present invention is a communication device capable of communicating with an imaging device, receiving means for receiving video data from the imaging device in a predetermined cycle, and the reception Display means for displaying video data received by the means, input means for inputting audio data, setting means for setting a shooting mode, video data received by the receiving means, and audio data input by the input means According to the recording means for combining and recording, the shooting mode set by the setting means, and the delay until the video shot by the imaging device is displayed on the display means, the reception means has received And control means for controlling the recording means so that the video data and the audio data input by the input means are recorded synchronously.

本発明によれば、ライブストリーミングにおいて、通信の遅延や用途に応じてサーバ側で得られる映像とクライアント側で得られる音声とを合成して記録するかを決定することで、映像と音声の同期を最適化することが可能となる。   According to the present invention, in live streaming, synchronization between video and audio is determined by deciding whether to synthesize and record video obtained on the server side and audio obtained on the client side according to communication delay and usage. Can be optimized.

本発明に係る実施形態の撮像装置の構成を例示するブロック図。1 is a block diagram illustrating a configuration of an imaging apparatus according to an embodiment of the present invention. 本発明に係る実施形態の通信装置の構成を例示するブロック図。The block diagram which illustrates the composition of the communication apparatus of the embodiment concerning the present invention. 本実施形態のシステムおよびライブストリーミング動作を説明する図。The figure explaining the system and live streaming operation | movement of this embodiment. 本実施形態の通信装置の動作を示すフローチャート。The flowchart which shows operation | movement of the communication apparatus of this embodiment. 本実施形態の撮像装置の動作を示すフローチャート。6 is a flowchart showing the operation of the imaging apparatus according to the present embodiment. 実施形態2のライブストリーミング動作を説明する図。FIG. 6 illustrates a live streaming operation according to the second embodiment. 実施形態2のプレイリストを例示する図。The figure which illustrates the play list of Embodiment 2. 実施形態2の通信中のプレイリストを例示する図。The figure which illustrates the play list in communication of Embodiment 2. FIG. 実施形態2の通信装置の動作を示すフローチャート。9 is a flowchart showing the operation of the communication apparatus according to the second embodiment. 本実施形態の通信装置におけるライブストリーミング画面を例示する図。The figure which illustrates the live streaming screen in the communication apparatus of this embodiment.

以下に、添付図面を参照して本発明を実施するための形態について詳細に説明する。なお、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。   EMBODIMENT OF THE INVENTION Below, the form for implementing this invention with reference to an accompanying drawing is demonstrated in detail. The embodiment described below is an example for realizing the present invention, and should be appropriately modified or changed depending on the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.

以下、本発明を、サーバとしての撮像装置1000と、クライアントとしての通信装置2000とを通信可能に接続し、撮像装置1000で撮影された映像を通信装置2000でライブストリーミングにより視聴可能にしたシステムにより実現した例を説明する。本実施形態では、撮像装置1000をデジタルビデオカメラ、通信装置2000をスマートフォンなどの通信端末に適用した例を説明するが、本発明は、これに限られない。例えば、本発明は、撮像装置として、カメラ付き携帯電話や携帯型のメディアプレーヤ、いわゆるタブレット端末など、通信装置として、パーソナルコンピュータなどの情報処理装置や携帯電話、タブレットデバイス端末、テレビなどにも適用できる。   Hereinafter, the present invention is based on a system in which an imaging device 1000 as a server and a communication device 2000 as a client are communicably connected so that video captured by the imaging device 1000 can be viewed by live streaming on the communication device 2000. An example will be described. In this embodiment, an example in which the imaging apparatus 1000 is applied to a digital video camera and the communication apparatus 2000 is applied to a communication terminal such as a smartphone will be described. However, the present invention is not limited to this. For example, the present invention is applied to an information processing device such as a personal computer, a mobile phone, a tablet device terminal, a television, and the like as a communication device, such as a camera-equipped mobile phone or a portable media player, a so-called tablet terminal. it can.

<撮像装置の構成>図1を参照して、本発明に係る実施形態の撮像装置の構成及び機能の概略について説明する。   <Arrangement of Imaging Apparatus> With reference to FIG. 1, the outline of the arrangement and functions of an imaging apparatus according to an embodiment of the present invention will be described.

図1に示す撮像装置(以下、カメラ)1000において、内部バス1010に対してCPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003、入力処理部1004、出力処理部1006、通信制御部1008、記録媒体制御部1011、カメラ信号処理部1015、符号・復号処理部1016が接続される。内部バス1010に接続される各部は、内部バス1010を介して互いにデータのやりとりを行える。   In the imaging apparatus (hereinafter referred to as camera) 1000 shown in FIG. 1, a CPU (Central Processing Unit) 1001, a ROM (Read Only Memory) 1002, a RAM (Random Access Memory) 1003, an input processing unit 1004, an output with respect to an internal bus 1010. A processing unit 1006, a communication control unit 1008, a recording medium control unit 1011, a camera signal processing unit 1015, and an encoding / decoding processing unit 1016 are connected. Each unit connected to the internal bus 1010 can exchange data with each other via the internal bus 1010.

ROM1002は、CPU1001が動作するための各種プログラムや設定データが格納される。また、フラッシュメモリなども含まれる。RAM1003は、CPU1001が動作時に必要とするプログラムや変数、作業用の一時データなどが適宜記憶される。   The ROM 1002 stores various programs and setting data for the CPU 1001 to operate. A flash memory is also included. The RAM 1003 appropriately stores programs and variables necessary for the operation of the CPU 1001, temporary work data, and the like.

CPU1001は、ROM1002または記録媒体1012に格納されるプログラムに従い、RAM1003をワークメモリとして用いて、このカメラ1000の各部を制御する。   The CPU 1001 controls each part of the camera 1000 using the RAM 1003 as a work memory according to a program stored in the ROM 1002 or the recording medium 1012.

光学系1013は、フォーカス、絞り機構などを含む撮影レンズであり、被写体の光学像を形成する。撮像素子1014は、CCDやCMOS素子等で構成され、ここではA/D変換器を含み、光学像をアナログ電気信号に変換した後、デジタル信号に変換する。   The optical system 1013 is a photographing lens including a focus, a diaphragm mechanism, and the like, and forms an optical image of a subject. The imaging element 1014 is configured by a CCD, a CMOS element, or the like, and here includes an A / D converter, which converts an optical image into an analog electric signal and then converts it into a digital signal.

カメラ信号処理部1015は、CPU1001の制御に基づき、撮像素子1014で変換されたデジタル信号に対し、所定の画素補間・縮小といったリサイズ処理や色変換、各種補正処理等を行う。   Based on the control of the CPU 1001, the camera signal processing unit 1015 performs resize processing such as predetermined pixel interpolation / reduction, color conversion, various correction processing, and the like on the digital signal converted by the image sensor 1014.

符号・復号処理部1016は、CPU1001の制御に基づき、カメラ信号処理部1015で処理されたデジタル信号を所定のビットレート、フォーマット形式で圧縮符号化、または映像圧縮符号化データの復号を行う。   Based on the control of the CPU 1001, the encoding / decoding processing unit 1016 performs compression encoding on the digital signal processed by the camera signal processing unit 1015 at a predetermined bit rate and format, or decoding video compression encoded data.

なお、音声についてはとくに図示していないが、音声付き映像を配信する場合には、マイクロホン、音声のアナログ信号をデジタル化するA/D変換器、デジタルデータを符号化する構成を持つことになる。当然、映像記録時には映像と共に音声も同時に収録され、符号・復号処理部1016で映像と音声を多重化することで、音声付映像データを生成することになる。   The audio is not specifically shown. However, when distributing video with audio, a microphone, an A / D converter for digitizing an analog analog signal, and a configuration for encoding digital data are provided. . Naturally, at the time of video recording, audio and video are simultaneously recorded, and the video / audio is multiplexed by the encoding / decoding processing unit 1016 to generate video data with audio.

入力処理部1004は、操作部1005でのユーザ操作を受け付け、操作に応じた制御信号を生成し、CPU1001に供給する。例えば、操作部1005は、ユーザ操作を受け付ける入力デバイスとして、キーボードといった文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイスなどを有する。また、赤外線リモコンなどの遠隔操作可能なものも含む。なお、タッチパネルは、例えば平面的に構成された入力部に対して接触された位置に応じた座標情報が出力されるようにした入力デバイスである。これにより、カメラ1000に対し、ユーザ操作に応じた動作を行わせることができる。   The input processing unit 1004 receives a user operation on the operation unit 1005, generates a control signal corresponding to the operation, and supplies the control signal to the CPU 1001. For example, the operation unit 1005 includes character information input devices such as a keyboard and pointing devices such as a mouse and a touch panel as input devices that receive user operations. In addition, remote control devices such as an infrared remote controller are also included. The touch panel is an input device that outputs coordinate information according to a position touched with respect to, for example, a planar input unit. Thereby, it is possible to cause the camera 1000 to perform an operation according to the user operation.

出力処理部1006は、CPU1001がプログラムに従い生成したGUI(Graphical User Interface)などの表示データに基づき、表示部1007に対して表示させるための表示信号を出力する。   The output processing unit 1006 outputs a display signal to be displayed on the display unit 1007 based on display data such as GUI (Graphical User Interface) generated by the CPU 1001 according to the program.

なお、操作部1005としてタッチパネルを用いる場合、操作部1005と表示部1007とを一体的に構成することができる。例えば、タッチパネルを光の透過率が表示部1007の表示を妨げないように構成し、表示部1007の表示面の上層に取り付ける。そして、タッチパネルにおける入力座標と、表示部1007上の表示座標とを対応付ける。これにより、あたかもユーザが表示部1007上に表示された画面を直接的に操作可能であるかのようなGUIを構成することができる。   Note that when a touch panel is used as the operation unit 1005, the operation unit 1005 and the display unit 1007 can be configured integrally. For example, the touch panel is configured so that light transmittance does not hinder display on the display portion 1007 and is attached to the upper layer of the display surface of the display portion 1007. Then, the input coordinates on the touch panel are associated with the display coordinates on the display unit 1007. Thereby, it is possible to configure a GUI as if the user can directly operate the screen displayed on the display unit 1007.

記録媒体制御部1011は、HDDや不揮発性の半導体メモリなどの記録媒体1012が接続され、CPU1001の制御に基づき、接続された記録媒体1012からのデータの読み出しや、当該記録媒体1012に対するデータの書き込みを行う。なお、記録媒体制御部1011が接続可能な記録媒体1012は、不図示のソケットなどを介して、例えばメモリカードなどの着脱可能な不揮発性の半導体メモリを接続するものとしても良い。   The recording medium control unit 1011 is connected to a recording medium 1012 such as an HDD or a non-volatile semiconductor memory, and reads data from the connected recording medium 1012 and writes data to the recording medium 1012 based on the control of the CPU 1001. I do. The recording medium 1012 to which the recording medium control unit 1011 can be connected may be a detachable nonvolatile semiconductor memory such as a memory card via a socket (not shown).

記録媒体1012は、撮影した映像データのほか、CPU1001の制御に必要な情報も記録することが可能である。   The recording medium 1012 can record information necessary for the control of the CPU 1001 in addition to the captured video data.

通信制御部1008は、CPU1001の制御に基づき、コネクタ(有線)/アンテナ(無線)1009を介して、通信装置2000その他の外部装置との通信を行う。通信方法としては、無線のIEEE802.11やBluetooth(登録商標)、有線のIEEE802.3などを用いることが可能である。   The communication control unit 1008 communicates with the communication device 2000 and other external devices via a connector (wired) / antenna (wireless) 1009 based on the control of the CPU 1001. As a communication method, wireless IEEE802.11, Bluetooth (registered trademark), wired IEEE802.3, or the like can be used.

なお、ハードウェアの構成は図1に示すものに限定されず、例えば1つのハードウェアが表示制御、通信制御、記録制御、画像処理制御などを行い、カメラ1000の各手段として機能してもよい。また、複数のハードウェアが協働して1つの手段として機能してもよい。   The hardware configuration is not limited to that shown in FIG. 1. For example, one piece of hardware may perform display control, communication control, recording control, image processing control, and the like and function as each unit of the camera 1000. . A plurality of hardware may function as one means in cooperation.

<通信装置の構成>次に、図2を参照して、本発明に係る実施形態の通信装置の構成及び機能の概略について説明する。   <Configuration of Communication Device> Next, the configuration and functions of the communication device according to the embodiment of the present invention will be outlined with reference to FIG.

図2に示す通信装置(以下、端末)2000において、多くの部分はカメラ1000と同様となるため、カメラ1000と説明が重複するCPU2001〜記録媒体2012までの説明は省略する。符号・復号処理部2013は、CPU2001の制御に基づき、映像圧縮符号化データの復号、および必要に応じて復号したデータの再符号化を行う。マイク2014は、集音手段として音の振動を電気信号に変換する。音声信号処理部2015は、マイク2014で変換された音声信号をデジタル信号に変換し、各種補正処理等を行う。符号・復号処理部2013は、CPU2001の制御に基づき、音声信号処理部2015で生成された音声信号を符号化し、映像と音声の多重化処理を行う。   In the communication apparatus (hereinafter referred to as a terminal) 2000 shown in FIG. 2, many parts are the same as those of the camera 1000, and thus descriptions of the CPU 2001 to the recording medium 2012, which are the same as those of the camera 1000, are omitted. The encoding / decoding processing unit 2013 performs decoding of the video compression encoded data and re-encoding of the decoded data as necessary based on the control of the CPU 2001. The microphone 2014 converts sound vibrations into electrical signals as sound collection means. The audio signal processing unit 2015 converts the audio signal converted by the microphone 2014 into a digital signal, and performs various correction processes. Based on the control of the CPU 2001, the encoding / decoding processing unit 2013 encodes the audio signal generated by the audio signal processing unit 2015, and performs video and audio multiplexing processing.

<ライブストリーミング動作の説明>次に、図1ないし図3、図10を参照して、本実施形態のシステムによるJPEG画像のフレームを利用したライブストリーミング動作について説明する。   <Description of Live Streaming Operation> Next, a live streaming operation using a frame of a JPEG image by the system of the present embodiment will be described with reference to FIGS.

図3(a)において、ユーザがカメラ1000において、操作部1005からライブストリーミングモードを実行すると、カメラ1000は、CPU1001の制御により、通信制御部1008を通信可能状態とする。   3A, when the user executes the live streaming mode from the operation unit 1005 in the camera 1000, the camera 1000 sets the communication control unit 1008 in a communicable state under the control of the CPU 1001.

さらにユーザは端末2000において、操作部2005を操作して通信接続処理およびライブストリーミングに必要なアプリケーションの起動を行う。これに応じて、端末2000のCPU2001は、ROM2002または記録媒体2012に格納された当該プログラムに従い、通信制御部2008を制御し、カメラ1000との通信を開始し、接続処理を行う。   Further, the user operates the operation unit 2005 on the terminal 2000 to activate an application necessary for communication connection processing and live streaming. In response to this, the CPU 2001 of the terminal 2000 controls the communication control unit 2008 according to the program stored in the ROM 2002 or the recording medium 2012, starts communication with the camera 1000, and performs connection processing.

ここで、カメラ1000と端末2000は、通信プロトコルとしてHTTP(Hypertext Transfer Protocol)/TCP(Transmission Control Protocol)を使用するものとする。また、通信接続においてUPnP(Universal Plug and Play)に対応しているものとする。UPnP対応の端末2000は、機器をネットワークに接続すると、DHCP(Dynamic Host Configuration Protocol)または、AutoIPによるIP(Internet Protocol)アドレスの設定を行う。IPアドレスを取得した機器は、ネットワーク上の他の機器を相互に認識するために、「デバイスディスカバリとコントロール」によって、デバイス検索と応答デバイスの種別、サービス機能などの情報取得を行う(ステップ3002)。カメラ1000は、端末2000のデバイス検索要求に対して、機器情報と機器固有情報のフレーム取得先情報などを応答する(ステップ3003)。   Here, the camera 1000 and the terminal 2000 use HTTP (Hypertext Transfer Protocol) / TCP (Transmission Control Protocol) as a communication protocol. Further, it is assumed that the communication connection supports UPnP (Universal Plug and Play). When the UPnP compatible terminal 2000 connects the device to the network, the IP (Internet Protocol) address is set by DHCP (Dynamic Host Configuration Protocol) or AutoIP. In order to recognize each other device on the network, the device that has acquired the IP address acquires information such as device search, response device type, and service function by “device discovery and control” (step 3002). . In response to the device search request from the terminal 2000, the camera 1000 responds with device information, frame acquisition destination information of device specific information, and the like (step 3003).

カメラ1000と端末2000の接続処理が完了すると、カメラ1000はライブストリーミングを開始する。   When the connection process between the camera 1000 and the terminal 2000 is completed, the camera 1000 starts live streaming.

ライブストリーミングにおいて、カメラ1000のCPU1001は、撮像素子1014からの信号出力を開始し、その出力をカメラ信号処理部1015により適切なフレーム3001に処理し、符号・復号処理部1016へフレーム3001を送出する。   In live streaming, the CPU 1001 of the camera 1000 starts signal output from the image sensor 1014, processes the output into an appropriate frame 3001 by the camera signal processing unit 1015, and sends the frame 3001 to the encoding / decoding processing unit 1016. .

符号・復号処理部1016では、受け取ったフレーム3001を所定のビットレート、フォーマット形式で圧縮符号化し、RAM1003または記録媒体1012に保存する。   The encoding / decoding processing unit 1016 compresses and encodes the received frame 3001 at a predetermined bit rate and format, and stores it in the RAM 1003 or the recording medium 1012.

カメラ1000のCPU1001は、所定の周期Tごとにフレーム3001を更新する。なお、以下ではT=1/30秒として説明する。   The CPU 1001 of the camera 1000 updates the frame 3001 every predetermined period T. In the following description, it is assumed that T = 1/30 seconds.

CPU1001は、上記フレーム3001の保存先と関連させたパス情報を生成する。パス情報は、端末2000がフレームを取得する際の取得先情報として使用する。   The CPU 1001 generates path information associated with the storage destination of the frame 3001. The path information is used as acquisition destination information when the terminal 2000 acquires a frame.

端末2000は、所定の周期Tを事前に記憶しているか、カメラ1000の機器情報に含めることで機器情報取得時に得ることができているものとする。   It is assumed that the terminal 2000 stores a predetermined cycle T in advance or can obtain it at the time of device information acquisition by including it in the device information of the camera 1000.

端末2000は、ライブストリーミング開始後、約T(秒)後にステップ3003で取得したフレーム取得先へフレーム取得要求(HTTP GETメソッド)を行う(ステップ3004)。   The terminal 2000 makes a frame acquisition request (HTTP GET method) to the frame acquisition destination acquired in step 3003 about T (seconds) after the start of live streaming (step 3004).

カメラ1000は、応答フレームとして、要求されたフレーム3001を送信する(ステップ3005)。   The camera 1000 transmits the requested frame 3001 as a response frame (step 3005).

端末2000は、受信したフレーム3001を符号・復号処理部2013に渡し、復号した後、出力処理部2006を介して、表示部2007で再生表示を行う。ライブストリーミングアプリケーションにより端末REC10007が実行されている場合、復号したデータ、またはフレーム3001からヘッダなどを除いたデータ部を、記録媒体2012に記録し、順次受信したフレームと音声信号処理部2015からの音声信号をそれぞれ符号化し、多重合成して記録していく。   The terminal 2000 passes the received frame 3001 to the encoding / decoding processing unit 2013, decodes it, and performs playback display on the display unit 2007 via the output processing unit 2006. When the terminal REC10007 is executed by the live streaming application, the decoded data or the data portion excluding the header from the frame 3001 is recorded on the recording medium 2012, and the sequentially received frame and the audio from the audio signal processing unit 2015 are recorded. Each signal is encoded, multiplexed, synthesized, and recorded.

ストリーミング中、カメラ1000は、約T(秒)毎にフレーム更新を行う。また、取得されたフレームは削除する。
端末2000は、約T(秒)毎にフレーム取得要求を行う(ステップ3004)。
During streaming, the camera 1000 performs frame update about every T (seconds). The acquired frame is deleted.
The terminal 2000 makes a frame acquisition request about every T (seconds) (step 3004).

なお、端末2000の要求処理(ステップ3004)には端末、またはアプリケーションの固有のIDを付加する。そして、本実施形態のカメラ1000は、最初に要求のあったIDの要求のみに対してストリーミングを行う。つまり、本実施形態のカメラ1000と端末2000は1対1接続でのみストリーミングを行うものとする。   Note that a unique ID of the terminal or application is added to the request processing of the terminal 2000 (step 3004). Then, the camera 1000 of this embodiment performs streaming only for the request for the ID requested first. That is, it is assumed that the camera 1000 and the terminal 2000 of this embodiment perform streaming only with a one-to-one connection.

本実施形態のシステムによれば、自分撮りモードでは、撮影者は、カメラ1000から送られてくる自分自身の映像を見ながら、端末2000のマイク2014に向かって話すことで、映像と音声を同期させて記録することができる。また、遠隔撮影モードでは、図3(b)のように、撮影者3101は、カメラ1000で撮影された被写体3102の映像を見ながら、表示される映像に合わせて音声を入力することができる。なお、カメラにマイクが搭載されている場合、遠隔撮影モードでは、カメラ1000で撮影された映像とマイクで拾われた音声が端末2000に送られるので、撮影者は、端末2000で映像と音声を視聴しながら、音声を入力することができる。   According to the system of the present embodiment, in the self-portrait mode, the photographer synchronizes the video and audio by speaking to the microphone 2014 of the terminal 2000 while watching the video of himself / herself sent from the camera 1000. Can be recorded. Further, in the remote shooting mode, as shown in FIG. 3B, the photographer 3101 can input sound in accordance with the displayed video while viewing the video of the subject 3102 shot by the camera 1000. If the camera is equipped with a microphone, in the remote shooting mode, the video captured by the camera 1000 and the sound picked up by the microphone are sent to the terminal 2000. Audio can be input while viewing.

図10は、端末2000における、ライブストリーミングにおけるアプリケーション画面例であり、操作部2005、表示部2007が一体化された例を示している。ライブストリーミングデータは、表示エリア10001に表示され、カメラ1000のステータスはズーム位置情報10002、記録状態10003、バッテリー情報10004などを表示している。また、操作手段としてズーム指示10005、カメラREC10006、端末REC10007、自分撮り/遠隔撮影10008などを備えている。ユーザは、自分撮り/遠隔撮影10008を選択することにより、映像と音声の記録を開始する前に自分撮りモードと遠隔撮影モードのいずれかの撮影モードの設定が可能である。   FIG. 10 shows an example of an application screen in live streaming on the terminal 2000, in which an operation unit 2005 and a display unit 2007 are integrated. The live streaming data is displayed in a display area 10001, and the status of the camera 1000 displays zoom position information 10002, recording state 10003, battery information 10004, and the like. Further, as operation means, a zoom instruction 10005, a camera REC10006, a terminal REC10007, a selfie / remote shooting 10008, and the like are provided. By selecting self-shooting / remote shooting 10008, the user can set a shooting mode of either the self-shooting mode or the remote shooting mode before starting recording of video and audio.

<システムの動作説明>次に、図4および図5を参照して、本実施形態のシステムを構成するカメラ1000および端末2000の動作について説明する。   <Description of System Operation> Next, with reference to FIGS. 4 and 5, the operation of the camera 1000 and the terminal 2000 constituting the system of this embodiment will be described.

まず、図4を参照して、端末2000がカメラ1000と接続確立後、CPU2001が実行する処理を説明する。   First, a process executed by the CPU 2001 after the terminal 2000 establishes connection with the camera 1000 will be described with reference to FIG.

ステップS4001では、接続時に取得した機器・フレーム取得先情報(ステップ3002)から、フレーム取得先情報を取得し、保持する。   In step S4001, the frame acquisition destination information is acquired from the device / frame acquisition destination information (step 3002) acquired at the time of connection and held.

ステップS4002では、ライブストリーミングアプリケーションにより端末REC10007が実行されたか否かを判定する。なお、この判定は、端末REC10007が実行されたかに限らず、カメラ1000が対象となる被写体を検知した時点で記録開始と判定することも可能である。実行された場合にはステップS4003へ進み、実行しない場合、または既に実行され記録が開始されている場合にはステップS4007へ進む。   In step S4002, it is determined whether the terminal REC10007 has been executed by the live streaming application. Note that this determination is not limited to whether the terminal REC10007 has been executed, but can be determined to start recording when the camera 1000 detects the target subject. If it has been executed, the process advances to step S4003. If not, or if it has already been executed and recording has started, the process advances to step S4007.

ステップS4003では、マイク2014から音声の入力を開始する。   In step S4003, voice input from the microphone 2014 is started.

ステップS4004では、自分撮り/遠隔撮影10008の設定が自分撮りモードと遠隔撮影モードのいずれであるかの判定を行う。自分撮りモードの場合にはステップS4005へ進み、遠隔撮影モードの場合にはステップS4006へ進む。なお、モード設定は、操作部2005により事前にユーザにより設定されているものとする。また、操作部2005からモード設定を行わず、カメラ1000の画角内にユーザの視線を検知した場合に自分撮りモードに設定したり、カメラ1000の画角内に通信している端末2000が存在する場合には自分撮りモードに設定することも可能である。   In step S4004, it is determined whether the setting of self-shooting / remote shooting 10008 is the self-shooting mode or the remote shooting mode. In the case of the self-photographing mode, the process proceeds to step S4005. In the case of the remote-photographing mode, the process proceeds to step S4006. Note that the mode setting is set in advance by the user via the operation unit 2005. In addition, there is a terminal 2000 that does not set the mode from the operation unit 2005 and sets the self-portrait mode when the user's line of sight is detected within the angle of view of the camera 1000 or communicates within the angle of view of the camera 1000 When doing so, it is possible to set the self-portrait mode.

ステップS4005では、記録開始時のフレームに開始点情報を付加する要求を送信する。自分撮りモードの場合、カメラ1000のカメラ信号処理部1015で処理されたフレームに音声データを同期させる必要がある。   In step S4005, a request for adding start point information to the frame at the start of recording is transmitted. In the self-portrait mode, it is necessary to synchronize audio data with the frame processed by the camera signal processing unit 1015 of the camera 1000.

ステップS4006では、表示部2007に表示されるフレームと音声データを合成して記録媒体2012に記録を開始する。遠隔撮影モードの場合、表示部2007に表示されるフレームに音声データを同期させる必要がある。   In step S4006, the frame displayed on the display unit 2007 and the audio data are combined and recording on the recording medium 2012 is started. In the case of the remote shooting mode, it is necessary to synchronize the audio data with the frame displayed on the display unit 2007.

ステップS4007では、所定時間経過したか否かの判定を行う。所定時間が経過した場合にはステップS4008へ進み、経過していない場合には再度ステップS4002を繰り返す。ここで所定時間とは、カメラ1000が生成する所定の周期Tと同等の値にすることが望ましい。   In step S4007, it is determined whether a predetermined time has elapsed. If the predetermined time has elapsed, the process proceeds to step S4008, and if not, step S4002 is repeated. Here, the predetermined time is desirably set to a value equivalent to the predetermined period T generated by the camera 1000.

ステップS4008では、ステップS4001で取得したフレーム取得先情報を用いて、フレームの取得要求(ステップ3004)を行い、カメラ1000からフレームを取得する。取得したフレームは、RAM2003または記録媒体2012に記録した後、符号・復号処理部2013に渡され、復号した後、出力処理部2006を介して、表示部2007で再生表示(映像表示)を行う。   In step S4008, a frame acquisition request (step 3004) is made using the frame acquisition destination information acquired in step S4001, and a frame is acquired from the camera 1000. The acquired frame is recorded in the RAM 2003 or the recording medium 2012 and then transferred to the encoding / decoding processing unit 2013. After decoding, the frame is reproduced and displayed (video display) on the display unit 2007 via the output processing unit 2006.

ステップS4009では、ステップS4008で取得したフレームにステップS4005で要求を送信した開始点情報が付加されているか否かの判定を行う。記録開始時のフレームを受信した場合にはステップS4010へ進み、受信していない場合にはステップS4011へ進む。   In step S4009, it is determined whether or not the start point information transmitted in step S4005 is added to the frame acquired in step S4008. If the frame at the start of recording has been received, the process proceeds to step S4010. If not, the process proceeds to step S4011.

ステップS4010では、ステップS5008で取得したフレームと音声データを合成して記録媒体2012に記録を開始する。   In step S4010, the frame and audio data acquired in step S5008 are synthesized and recording on the recording medium 2012 is started.

ステップS4011では、処理を終了するか否かの判定を行い、終了する場合以外はステップS4002へ戻る。   In step S4011, it is determined whether or not to end the process. Otherwise, the process returns to step S4002.

次に、図5を参照して、カメラ1000が端末2000と接続確立後、CPU1001が実行する処理を説明する。   Next, processing executed by the CPU 1001 after the camera 1000 establishes connection with the terminal 2000 will be described with reference to FIG.

ステップS5001では、ライブストリーミング開始に伴う、フレーム生成の開始処理を行う。CPU1001は、撮像素子1014からの信号出力を開始し、その出力をカメラ信号処理部1015により適切な映像データに処理し、符号・復号処理部1016へデータを渡す。符号・復号処理部1016では、受け取った映像データを所定のビットレート、フォーマット形式で圧縮符号化する処理を開始する。   In step S5001, frame generation start processing accompanying live streaming start is performed. The CPU 1001 starts signal output from the image sensor 1014, processes the output into appropriate video data by the camera signal processing unit 1015, and passes the data to the encoding / decoding processing unit 1016. The encoding / decoding processing unit 1016 starts a process of compressing and encoding the received video data at a predetermined bit rate and format format.

ステップS5002では、端末2000からのフレーム取得要求(ステップ3004)有無の判定を行う。フレーム取得要求があった場合にはステップS5003へ進み、なかった場合にはステップS5004へ進む。   In step S5002, the presence / absence of a frame acquisition request (step 3004) from the terminal 2000 is determined. If there is a frame acquisition request, the process proceeds to step S5003; otherwise, the process proceeds to step S5004.

ステップS5003では、フレーム取得要求(ステップ3004)に対する応答(ステップ3005)として、フレームの送信を行う。   In step S5003, a frame is transmitted as a response (step 3005) to the frame acquisition request (step 3004).

ステップS5004では、端末2000から開始点情報の付加要求を受信したか否かの判定を行う。要求を受信したということは、自分撮りモードを行っており、カメラ信号処理部1015で処理された映像信号に音声信号を同期させる必要があることを意味する。フレーム取得要求があった場合にはステップS5005へ進み、なかった場合にはステップS5006へ進む。   In step S5004, it is determined whether a start point information addition request is received from terminal 2000. The fact that the request has been received means that the self-shooting mode is being performed and the audio signal needs to be synchronized with the video signal processed by the camera signal processing unit 1015. If there is a frame acquisition request, the process proceeds to step S5005, and if not, the process proceeds to step S5006.

ステップS5005では、記録開始時のフレームに開始点情報を付加する。ステップS5004で要求を受信したときにカメラ信号処理部1015で処理された映像信号と音声信号を同期させるため、CPU1001はデジタル信号にフラグを付加する。符号・復号処理部1016で所定の処理を行い、RAM1003または記録媒体1012に保存されたフレームのアプリケーションマーカー(APPn)に開始点情報を付加する。なお、開始点情報は、フレームのアプリケーションマーカー(APPn)ではなく、フレームとは別の情報として付加し、フレームとまとめた構造体を応答フレームとして定義しても良い。   In step S5005, start point information is added to the frame at the start of recording. In order to synchronize the audio signal with the video signal processed by the camera signal processing unit 1015 when the request is received in step S5004, the CPU 1001 adds a flag to the digital signal. The encoding / decoding processing unit 1016 performs predetermined processing, and adds start point information to the application marker (APPn) of the frame stored in the RAM 1003 or the recording medium 1012. The starting point information may be added as information different from the frame instead of the application marker (APPn) of the frame, and a structure combined with the frame may be defined as a response frame.

ステップS5006では、処理を終了するか否かの判定を行い、終了する場合以外はステップS5002へ戻る。   In step S5006, it is determined whether or not to end the process, and the process returns to step S5002 except when the process is ended.

なお、本フローでの各イベント判定ステップS5002、S5004は、順に問い合わせによる判定で説明したが、各条件のイベント待ちを同時に行う場合には、イベント発生順に各処理を実行しても良い。   Note that each event determination step S5002 and S5004 in this flow has been described by the determination by inquiry in sequence, but when waiting for an event of each condition at the same time, each process may be executed in the order of event occurrence.

[実施形態2]次に、実施形態2としてプレイリストを利用したライブストリーミングについて説明する。   [Embodiment 2] Next, live streaming using a playlist will be described as Embodiment 2.

なお、本実施形態のシステム構成は実施形態1と同様であるため、その説明は省略する。   In addition, since the system configuration of this embodiment is the same as that of Embodiment 1, the description thereof is omitted.

まず、本実施形態のシステムにおけるプレイリストを用いたストリーミングの基本動作について説明する。
1.カメラ(サーバ)は、ストリーミングデータを一定時間のセグメントに分割し、そのセグメント取得先を列挙したプレイリストを作成する。ライブの場合には、定期的にセグメントが生成されるため、新しいセグメントが生成されると、動的に新しい内容のプレイリストに更新(削除、追記)するスライドウインドウ型プレイリストを用いる。
2.端末(クライアント)は、プレイリストを取得・解析し、列挙順にセグメントデータ取得先からデータ取得を行う。
3.端末(クライアント)は、取得したデータの再生表示、または保存を行う。
4.カメラ(サーバ)と端末(クライアント)は、プレイリスト終了(ストリーミング終了)まで、1〜3を繰り返す。
First, the basic operation of streaming using a playlist in the system of this embodiment will be described.
1. The camera (server) divides the streaming data into segments of a certain time, and creates a playlist that lists the segment acquisition destinations. In the case of live performance, a segment is periodically generated. Therefore, when a new segment is generated, a slide window type playlist that is dynamically updated (deleted or added) to a playlist having new contents is used.
2. The terminal (client) acquires and analyzes the playlist, and acquires data from the segment data acquisition destination in the order of enumeration.
3. The terminal (client) reproduces, displays, or saves the acquired data.
4). The camera (server) and terminal (client) repeat steps 1 to 3 until the end of the playlist (end of streaming).

上記基本動作を踏まえ、図6ないし図9を参照して、本実施形態のシステムによるプレイリストを利用したライブストリーミング動作について説明する。   Based on the above basic operation, a live streaming operation using a playlist by the system of the present embodiment will be described with reference to FIGS.

ユーザがカメラ1000において、操作部1005からライブストリーミングモードを実行すると、カメラ1000は、CPU1001の制御により、通信制御部1008を通信可能状態とする。   When the user executes the live streaming mode from the operation unit 1005 in the camera 1000, the camera 1000 sets the communication control unit 1008 in a communicable state under the control of the CPU 1001.

さらにユーザは端末2000において、操作部2005を操作して通信接続処理およびライブストリーミングに必要なアプリケーションの起動を行う。これに応じて、端末2000のCPU2001は、ROM2002または記録媒体2012に格納された当該プログラムに従い、通信制御部2008を制御し、カメラ1000との通信を開始し、接続処理を行う。   Further, the user operates the operation unit 2005 on the terminal 2000 to activate an application necessary for communication connection processing and live streaming. In response to this, the CPU 2001 of the terminal 2000 controls the communication control unit 2008 according to the program stored in the ROM 2002 or the recording medium 2012, starts communication with the camera 1000, and performs connection processing.

ここで、カメラ1000と端末2000は、通信プロトコルとしてHTTP(Hypertext Transfer Protocol)/TCP(Transmission Control Protocol)を使用するものとする。また、通信接続においてUPnP(Universal Plug and Play)に対応しているものとする。UPnP対応の端末2000は、機器をネットワークに接続すると、DHCP(Dynamic Host Configuration Protocol)または、AutoIPによるIP(Internet Protocol)アドレスの設定を行う。IPアドレスを取得した機器は、ネットワーク上の他の機器を相互に認識するために、「デバイスディスカバリとコントロール」によって、デバイス検索と応答デバイスの種別、サービス機能などの情報取得を行う(ステップ6003)。カメラ1000は、端末2000のデバイス検索要求に対して、機器情報と機器固有情報のプレイリスト取得先情報などを応答する(ステップ6004)。   Here, the camera 1000 and the terminal 2000 use HTTP (Hypertext Transfer Protocol) / TCP (Transmission Control Protocol) as a communication protocol. Further, it is assumed that the communication connection supports UPnP (Universal Plug and Play). When the UPnP compatible terminal 2000 connects the device to the network, the IP (Internet Protocol) address is set by DHCP (Dynamic Host Configuration Protocol) or AutoIP. In order to recognize each other device on the network, the device that has acquired the IP address acquires information such as device search and response device type and service function by “device discovery and control” (step 6003). . In response to the device search request from the terminal 2000, the camera 1000 responds with device information, playlist acquisition destination information of device specific information, and the like (step 6004).

カメラ1000と端末2000の接続処理が完了すると、カメラ1000はライブストリーミングを開始する。   When the connection process between the camera 1000 and the terminal 2000 is completed, the camera 1000 starts live streaming.

ライブストリーミングにおいて、カメラ1000のCPU1001は、撮像素子1014からの信号出力を開始し、その出力をカメラ信号処理部1015により適切な映像データに処理し、符号・復号処理部1016へデータを送出する。   In live streaming, the CPU 1001 of the camera 1000 starts signal output from the image sensor 1014, processes the output into appropriate video data by the camera signal processing unit 1015, and sends the data to the encoding / decoding processing unit 1016.

符号・復号処理部1016では、受け取った映像データ等を所定のビットレート、フォーマット形式で圧縮符号化し、さらに所定の時間長Tsで分割し、セグメントデータ(6002)としてRAM1003または記録媒体1012に保存する。なお、本実施形態ではTs=0.03秒として、以下説明する。   The encoding / decoding processing unit 1016 compresses and encodes the received video data and the like with a predetermined bit rate and format, further divides the data with a predetermined time length Ts, and stores it as segment data (6002) in the RAM 1003 or the recording medium 1012. . In this embodiment, Ts = 0.03 seconds will be described below.

CPU1001は、上記セグメントデータの保存先と関連させたパス情報を生成する。パス情報は、端末2000がセグメントを取得する際の取得先情報として使用するもので、CPU1001は、プレイリスト6001を作成し、上記パス情報と併せてセグメント情報を記録する。   The CPU 1001 generates path information associated with the storage destination of the segment data. The path information is used as acquisition destination information when the terminal 2000 acquires a segment, and the CPU 1001 creates a playlist 6001 and records the segment information together with the path information.

ここで、図7を参照して、プレイリスト6001について説明する。   Here, the playlist 6001 will be described with reference to FIG.

図7に示すプレイリスト7010は、Extended M3U形式のプレイリストであり、最初の行7011に識別子タグを記述し、2行目7012にはプレイリストバージョンを示すタグとバージョンを記述する。本例ではバージョンを“3”としている。3行目7013はセグメントデータ6002の時間を示すタグとその時間(秒)を整数または小数で記述する。本実施形態では、セグメントデータ時間長をTs=0.03(秒)としていることから、本例でも“0.03”としている。4行目7014はセグメントデータ6002の取得先パス(クエリパラメータを含む)を記述する。3行目7013および4行目7014はセグメントデータ6002に関する情報として、必ず続けて記述する必要がある。   A playlist 7010 shown in FIG. 7 is an extended M3U format playlist. An identifier tag is described in the first row 7011, and a tag and version indicating the playlist version are described in the second row 7012. In this example, the version is “3”. The third line 7013 describes a tag indicating the time of the segment data 6002 and the time (seconds) as an integer or a decimal. In this embodiment, since the segment data time length is Ts = 0.03 (seconds), it is also set to “0.03” in this example. The fourth line 7014 describes the acquisition destination path (including query parameters) of the segment data 6002. The third line 7013 and the fourth line 7014 must be described continuously as information on the segment data 6002.

また、プレイリスト7010は、セグメント情報7013、7014を記録した図6のプレイリスト6001の内容例となる。   The playlist 7010 is an example of the content of the playlist 6001 in FIG. 6 in which the segment information 7013 and 7014 are recorded.

端末2000は、セグメントデータ6002の所定の時間長Tsを事前に記憶しているか、カメラ1000の機器情報に含めることで機器情報取得時に得ることができているものとする。   It is assumed that the terminal 2000 stores a predetermined time length Ts of the segment data 6002 in advance or can be obtained at the time of device information acquisition by including it in the device information of the camera 1000.

端末2000は、ライブストリーミング開始後、約Ts(秒)後にステップ6004で取得したプレイリスト取得先へ、プレイリスト取得要求(HTTP GETメソッド)を行う(ステップ6005)。   The terminal 2000 makes a playlist acquisition request (HTTP GET method) to the playlist acquisition destination acquired in step 6004 about Ts (seconds) after the start of live streaming (step 6005).

カメラ1000は、応答プレイリストとして、セグメント情報7013、7014が一つ記述されたプレイリスト6001(=7010)を送信する(ステップS6006)。   The camera 1000 transmits a playlist 6001 (= 7010) in which one piece of segment information 7013 and 7014 is described as a response playlist (step S6006).

端末2000は、受信したプレイリスト7010を解析し、セグメント情報の取得先に対して、セグメント取得要求(HTTP GETメソッド)を行う(ステップ6007)。   The terminal 2000 analyzes the received playlist 7010 and makes a segment acquisition request (HTTP GET method) to the segment information acquisition destination (step 6007).

カメラ1000は、応答セグメントとして、要求されたセグメント6002を送信する(ステップ6008)。   The camera 1000 transmits the requested segment 6002 as a response segment (step 6008).

端末2000は、受信したセグメント6002を符号・復号処理部2013に渡し、復号した後、出力処理部2006を介して、表示部2007で再生表示を行う。ライブストリーミングアプリケーションにより、ユーザから端末REC10007への指示入力があると、復号したデータ、またはセグメント6002からヘッダなどを除いたデータ部を、記録媒体2012に記録する。そして、順次受信したセグメントデータと音声信号処理部2015からの音声信号をそれぞれ符号化し、多重合成して記録していく。   The terminal 2000 passes the received segment 6002 to the encoding / decoding processing unit 2013, decodes it, and performs playback display on the display unit 2007 via the output processing unit 2006. When the user inputs an instruction to the terminal REC10007 by the live streaming application, the decoded data or the data portion excluding the header from the segment 6002 is recorded in the recording medium 2012. Then, the sequentially received segment data and the audio signal from the audio signal processing unit 2015 are encoded, multiplexed and recorded.

ストリーミング中、カメラ1000は、約Ts(秒)毎にセグメント生成、プレイリスト更新を行う。また、端末2000に取得されたセグメント情報はプレイリストから削除する。   During streaming, the camera 1000 generates a segment and updates a playlist about every Ts (seconds). Also, the segment information acquired by the terminal 2000 is deleted from the playlist.

端末2000は、カメラ1000にてプレイリストの更新を行う度、その約Ts(秒)毎にそのプレイリスト取得(ステップ6005)を行い、プレイリスト6001に記載されたセグメント情報に基づき、当該セグメントデータを取得要求する。   Whenever the playlist is updated by the camera 1000, the terminal 2000 obtains the playlist (step 6005) about every Ts (seconds), and based on the segment information described in the playlist 6001, the segment data Request to get.

なお、端末2000の要求処理(ステップ6005、6007)には端末、またはアプリケーションの固有のIDを付加する。そして、本実施形態のカメラ1000は、最初に要求のあったIDの要求のみに対してストリーミングを行う。つまり、本実施形態のカメラ1000と端末2000は1対1接続でのみストリーミングを行うものとする。   Note that a unique ID of the terminal or application is added to the request processing (steps 6005 and 6007) of the terminal 2000. Then, the camera 1000 of this embodiment performs streaming only for the request for the ID requested first. That is, it is assumed that the camera 1000 and the terminal 2000 of this embodiment perform streaming only with a one-to-one connection.

次に、図9を参照して、端末2000がカメラ1000と接続確立後、CPU2001が実行する処理を説明する。   Next, processing executed by the CPU 2001 after the terminal 2000 establishes connection with the camera 1000 will be described with reference to FIG.

ステップS9001では、接続時に取得した機器・プレイリスト取得先情報(ステップ6004)から、プレイリスト取得先情報を取得し、保持する。   In step S9001, the playlist acquisition destination information is acquired from the device / playlist acquisition destination information (step 6004) acquired at the time of connection and held.

ステップS9002では、ライブストリーミングアプリケーションにより端末REC10007が実行されたか否かを判定する。なお、この判定は、端末REC10007が実行されたかに限らず、カメラ1000が対象となる被写体を検知した時点で記録開始と判定することも可能である。実行された場合にはステップS9003へ進み、実行しない場合、または既に実行され記録が開始されている場合にはステップS9013へ進む。   In step S9002, it is determined whether the terminal REC10007 has been executed by the live streaming application. Note that this determination is not limited to whether the terminal REC10007 has been executed, but can be determined to start recording when the camera 1000 detects the target subject. If it has been executed, the process advances to step S9003. If it is not executed, or if it has already been executed and recording has started, the process advances to step S9013.

ステップS9003では、マイク2014から音声の入力を開始する。   In step S9003, voice input from the microphone 2014 is started.

ステップS9004では、ステップS9001で取得したプレイリスト取得先情報を用いて、プレイリストの取得要求(ステップ6005)を行い、カメラ1000から取得したプレイリストの解析を行う。プレイリストの解析では、識別タグによるプレイリスト形式とバージョンの確認を行った後、セグメント情報を取得する。   In step S9004, a playlist acquisition request (step 6005) is made using the playlist acquisition destination information acquired in step S9001, and the playlist acquired from the camera 1000 is analyzed. In playlist analysis, segment information is acquired after confirming the playlist format and version using an identification tag.

ステップS9005では、ステップS9004でセグメント情報が存在したか否かの判定を行う。セグメント情報が存在した場合にはステップS9006に進み、存在しない場合にはステップS9004へ戻る。   In step S9005, it is determined whether segment information exists in step S9004. If the segment information exists, the process proceeds to step S9006. If the segment information does not exist, the process returns to step S9004.

ステップS9006では、自分撮り/遠隔撮影10008の設定が自分撮りモードと遠隔撮影モードのいずれであるかの判定を行う。自分撮りモードの場合にはステップS9007へ進み、遠隔撮影モードの場合にはステップS9011へ進む。なお、モード設定は、操作部2005により事前にユーザにより設定されているものとする。また、操作部2005からモード設定を行わず、カメラ1000の画角内にユーザの視線を検知した場合に自分撮りモードに設定したり、カメラ1000の画角内に通信している端末2000が存在する場合には自分撮りモードに設定することも可能である。   In step S9006, it is determined whether the setting of self-shooting / remote shooting 10008 is the self-shooting mode or the remote shooting mode. In the case of the self-photographing mode, the process proceeds to step S9007, and in the case of the remote-photographing mode, the process proceeds to step S9011. Note that the mode setting is set in advance by the user via the operation unit 2005. In addition, there is a terminal 2000 that does not set the mode from the operation unit 2005 and sets the self-portrait mode when the user's line of sight is detected within the angle of view of the camera 1000 or communicates within the angle of view of the camera 1000. When doing so, it is possible to set the self-portrait mode.

ステップS9007では、ステップS9004で取得したプレイリストに初めて記述されたセグメントの中から、最も古いセグメントの番号を開始点番号とする。自分撮りモードの場合、端末REC10007が実行された直後に生成されたセグメントに音声データを同期させる必要がある。例えば、端末REC10007が実行される直前に取得したプレイリストが図8(a)のプレイリスト8010であり、端末REC10007が実行された直後に取得したプレイリストが図8(b)のプレイリスト8020であるとすると、開始点番号は4となる。   In step S9007, the number of the oldest segment among the segments described for the first time in the playlist acquired in step S9004 is set as the start point number. In the self-portrait mode, it is necessary to synchronize audio data with a segment generated immediately after the terminal REC10007 is executed. For example, the playlist acquired immediately before the terminal REC10007 is executed is the playlist 8010 in FIG. 8A, and the playlist acquired immediately after the terminal REC10007 is executed is the playlist 8020 in FIG. If there is, the starting point number is 4.

ステップS9008では、セグメント情報の取得先パスに対してセグメントの取得要求(ステップ6007)を行い、カメラ1000からセグメントを取得する。ここで、取得したセグメント情報が1つならば、そのセグメントを最古セグメントとする。また、取得したセグメント情報が複数ならば最も古いセグメントを最古セグメントとする。取得したセグメントは、RAM2003または記録媒体2012に記録した後、符号・復号処理部2013に渡され、復号した後、出力処理部2006を介して、表示部2007で再生表示(映像表示)を行う。   In step S9008, a segment acquisition request is made to the segment information acquisition destination path (step 6007), and the segment is acquired from the camera 1000. Here, if the acquired segment information is one, that segment is set as the oldest segment. If there are a plurality of pieces of acquired segment information, the oldest segment is set as the oldest segment. The acquired segment is recorded in the RAM 2003 or the recording medium 2012, and then transferred to the encoding / decoding processing unit 2013. After decoding, the segment is reproduced and displayed (video display) on the display unit 2007 via the output processing unit 2006.

ステップS9009では、ステップS9008で取得したセグメントの番号が、ステップS9007で設定した開始点番号と一致するか否かの判定を行う。一致する場合にはステップS9010に進み、一致しない場合にはステップS9005へ戻る。   In step S9009, it is determined whether or not the segment number acquired in step S9008 matches the start point number set in step S9007. If they match, the process proceeds to step S9010. If they do not match, the process returns to step S9005.

ステップS9010では、ステップS9008で取得したセグメントと音声データを合成して記録媒体2012に記録を開始する。   In step S9010, the segment acquired in step S9008 and the audio data are synthesized and recording on the recording medium 2012 is started.

ステップS9011では、ステップS9008と同様に、セグメント情報の取得先パスに対してセグメントの取得要求(ステップ6007)を行い、カメラ1000からセグメントを取得する。取得したセグメントは、RAM2003または記録媒体2012に記録した後、符号・復号処理部2013に渡され、復号した後、出力処理部2006を介して、表示部2007で再生表示(映像表示)を行う。   In step S9011, similarly to step S9008, a segment acquisition request is made to the segment information acquisition destination path (step 6007), and the segment is acquired from the camera 1000. The acquired segment is recorded in the RAM 2003 or the recording medium 2012, and then transferred to the encoding / decoding processing unit 2013. After decoding, the segment is reproduced and displayed (video display) on the display unit 2007 via the output processing unit 2006.

ステップS9012では、表示部2007で再生表示されているセグメントと音声データを合成して記録媒体2012に記録を開始する。遠隔撮影モードの場合、表示部2007に表示されるセグメントに音声を同期させる必要がある。   In step S9012, the segment reproduced and displayed on the display unit 2007 and the audio data are combined and recording on the recording medium 2012 is started. In the case of the remote shooting mode, it is necessary to synchronize the sound with the segment displayed on the display unit 2007.

ステップS9013では、所定時間経過したか否かの判定を行う。所定時間が経過した場合にはステップS9014へ進み、経過していない場合には再度ステップS9002を繰り返す。なお、所定時間は、カメラ1000が生成する所定の時間長Tsと同等の値でなくても良い。   In step S9013, it is determined whether a predetermined time has elapsed. If the predetermined time has elapsed, the process proceeds to step S9014. If the predetermined time has not elapsed, step S9002 is repeated again. The predetermined time may not be equal to the predetermined time length Ts generated by the camera 1000.

ステップS9014では、ステップS9004と同様に、ステップS9001で取得したプレイリスト取得先情報を用いて、プレイリストの取得要求(ステップS6005)を行い、カメラ1000から取得したプレイリストの解析を行う。   In step S9014, similarly to step S9004, a playlist acquisition request (step S6005) is made using the playlist acquisition destination information acquired in step S9001, and the playlist acquired from the camera 1000 is analyzed.

ステップS9015では、ステップS9005と同様に、ステップS9014でセグメント情報が存在したか否かの判定を行う。セグメント情報が存在した場合にはステップS9016に進み、存在しない場合にはステップS9014へ戻る。   In step S9015, as in step S9005, it is determined whether segment information is present in step S9014. If the segment information exists, the process proceeds to step S9016. If the segment information does not exist, the process returns to step S9014.

ステップS9016では、ステップS9008と同様に、セグメント情報の取得先パスに対してセグメントの取得要求(7007)を行い、カメラ1000からセグメントを取得する。取得したセグメントは、RAM2003または記録媒体2012に記録した後、符号・復号処理部2013に渡され、復号した後、出力処理部2006を介して、表示部2007で再生表示(映像表示)を行う。   In step S9016, as in step S9008, a segment acquisition request (7007) is made to the segment information acquisition destination path, and the segment is acquired from the camera 1000. The acquired segment is recorded in the RAM 2003 or the recording medium 2012, and then transferred to the encoding / decoding processing unit 2013. After decoding, the segment is reproduced and displayed (video display) on the display unit 2007 via the output processing unit 2006.

ステップS9017では、ステップS9013と同様に、所定時間経過したか否かの判定を行う。所定時間が経過した場合にはステップS9018へ進み、経過していない場合にはステップS9015へ戻る。所定時間が経過していない場合には、ステップS9015へ戻ることで、プレイリストに未だセグメント情報が存在する場合、セグメントを再度取得することが可能となる。なお、所定時間は、カメラ1000が生成する所定の時間長Tsと同等の値でなくても良い。   In step S9017, as in step S9013, it is determined whether a predetermined time has elapsed. If the predetermined time has elapsed, the process proceeds to step S9018; otherwise, the process returns to step S9015. If the predetermined time has not elapsed, the process returns to step S9015, and if segment information still exists in the playlist, the segment can be acquired again. The predetermined time may not be equal to the predetermined time length Ts generated by the camera 1000.

ステップS9018では、処理を終了するか否かの判定を行い、終了する場合以外はステップS9002へ戻る。   In step S9018, it is determined whether or not to end the process. Otherwise, the process returns to step S9002.

上述した各実施形態によれば、自分撮りモードの場合は、撮影者の唇の動きと音声が合っている必要があるため、撮影映像と音声を同期させて記録し、遠隔撮影モードの場合は、撮影者は遅延した映像を見ながら話をしているため、遅延画像(端末に表示されている映像)と音声を同期させて記録する。   According to each of the embodiments described above, in the self-portrait mode, it is necessary to match the voice of the photographer's lips with the sound. Since the photographer is talking while watching the delayed video, the delayed image (video displayed on the terminal) and the sound are recorded in synchronization.

このように、通信の遅延や用途に応じてカメラの撮影映像と端末からの入力音声とを合成して記録するかを決定するので、映像と音声の同期を最適化することが可能となる。   Thus, since it is determined whether to synthesize and record the video captured by the camera and the audio input from the terminal according to the communication delay and application, it is possible to optimize the synchronization between the video and audio.

[他の実施形態]本発明は、以下の処理を実行することによっても実現される。即ち、上記実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。   [Other Embodiments] The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the program code. It is processing to do. In this case, the program and the storage medium storing the program constitute the present invention.

Claims (12)

撮像装置と通信可能な通信装置であって、
前記撮像装置から映像データを所定の周期で受信する受信手段と、
前記受信手段により受信した映像データを表示する表示手段と、
音声データを入力する入力手段と、
撮影モードを設定する設定手段と、
前記受信手段により受信した映像データと前記入力手段により入力した音声データとを合成して記録する記録手段と、
前記設定手段により設定された撮影モードと、前記撮像装置により撮影された映像が前記表示手段に表示されるまでの遅延とに応じて、前記受信手段により受信した映像データと前記入力手段により入力した音声データとが同期して記録されるように前記記録手段を制御する制御手段と、を有することを特徴とする通信装置。
A communication device capable of communicating with an imaging device,
Receiving means for receiving video data from the imaging device in a predetermined cycle;
Display means for displaying video data received by the receiving means;
Input means for inputting voice data;
Setting means for setting the shooting mode;
Recording means for synthesizing and recording the video data received by the receiving means and the audio data input by the input means;
Depending on the shooting mode set by the setting means and the delay until the video shot by the imaging device is displayed on the display means, the video data received by the receiving means and input by the input means And a control means for controlling the recording means so that the audio data is recorded synchronously.
前記撮影モードが、撮影者が前記表示手段を介さずに被写体を見て撮影できる第1のモードと、撮影者が前記表示手段を介さない被写体を見ることができない第2のモードとを含み、
前記制御手段は、前記第1のモードに設定されている場合は、前記撮影者が見ている映像と音声とが同期するように前記記録手段を制御し、
前記第2のモードの場合は、前記表示手段に表示されている映像と音声とが同期するように前記記録手段を制御することを特徴とする請求項1に記載の通信装置。
The photographing mode includes a first mode in which a photographer can see and photograph a subject without going through the display means, and a second mode in which the photographer cannot see a subject without going through the display means,
When the control unit is set to the first mode, the control unit controls the recording unit so that the video and the audio that the photographer is viewing are synchronized,
2. The communication apparatus according to claim 1, wherein in the second mode, the recording unit is controlled so that a video and an audio displayed on the display unit are synchronized. 3.
前記第1のモードに設定されている場合に、前記撮像装置に対して、当該撮像装置から送信される映像データに、前記記録手段による記録開始時のデータであることを示す情報を付加するように要求する送信手段と、
前記受信手段により受信した映像データに、前記情報が付加されているか判定する判定手段と、を有し、
前記制御手段は、前記情報が付加された映像データと前記入力手段により入力した音声データとを合成して記録するように前記記録手段を制御することを特徴とする請求項2に記載の通信装置。
When the first mode is set, information indicating that the recording device starts recording data is added to the image data transmitted from the imaging device to the imaging device. A transmission means to request from
Determining means for determining whether the information is added to the video data received by the receiving means;
3. The communication apparatus according to claim 2, wherein the control unit controls the recording unit to synthesize and record the video data to which the information is added and the audio data input by the input unit. .
前記第2のモードに設定されている場合には、前記制御手段は、前記受信手段により受信した映像データに前記情報が付加されているか否かに関わらず、前記表示手段に表示されている映像データと前記入力手段により入力した音声データとを合成して記録するように前記記録手段を制御することを特徴とする請求項3に記載の通信装置。   When the second mode is set, the control means displays the video displayed on the display means regardless of whether or not the information is added to the video data received by the receiving means. 4. The communication apparatus according to claim 3, wherein the recording unit is controlled to synthesize and record the data and the voice data input by the input unit. 前記撮像装置により得られた映像データを所定の時間長のセグメントに分割し、分割したセグメントの情報を記述したリストの要求を前記撮像装置に送信する第1の送信手段と、
前記撮像装置から、前記要求したリストを受信する第1の受信手段と、
前記撮像装置から受信したリストに記述されたセグメントの要求を前記撮像装置に送信する第2の送信手段と、
前記要求に応じて前記撮像装置から送信されたセグメントを受信する第2の受信手段と、をさらに有し、
前記第1の送信手段は、所定時間ごとにリストを要求すると共に、前記リストに記述されたセグメントの情報のうち、最も古いセグメントの情報に該当するセグメントの要求を送信し、
前記制御手段は、前記第1のモードの場合には、前記記録手段により記録を開始した直後に前記第1の受信手段により受信したリストに新たに記述されているセグメントの中で最も古いセグメントと前記入力手段により入力した音声データとを合成して記録し、前記第2のモードの場合には、前記第1の受信手段により受信したリストに記述されているセグメントの中で最も古いセグメントと前記入力手段により入力した音声データとを合成して記録するように前記記録手段を制御することを特徴とする請求項2ないしのいずれか1項に記載の通信装置。
First transmission means for dividing video data obtained by the imaging device into segments of a predetermined time length and transmitting a request for a list describing information of the divided segments to the imaging device;
First receiving means for receiving the requested list from the imaging device;
Second transmission means for transmitting a request for a segment described in a list received from the imaging apparatus to the imaging apparatus;
Second receiving means for receiving a segment transmitted from the imaging device in response to the request;
The first transmission means requests a list every predetermined time, and transmits a request for a segment corresponding to the oldest segment information among the segment information described in the list,
In the case of the first mode, the control means determines the oldest segment among the segments newly described in the list received by the first receiving means immediately after the recording means starts recording. The voice data input by the input means is synthesized and recorded, and in the case of the second mode, the oldest segment among the segments described in the list received by the first reception means and the communication apparatus according to any one of claims 2, wherein the controller controls the recording means to record by synthesizing the audio data inputted by the input means 4.
前記設定手段は、前記撮像装置の画角内に撮影者または前記通信装置が存在する場合には前記第1のモードに設定することを特徴とする請求項2ないし5のいずれか1項に記載の通信装置。   The said setting means sets to said 1st mode, when a photographer or the said communication apparatus exists in the angle of view of the said imaging device, The any one of Claim 2 thru | or 5 characterized by the above-mentioned. Communication equipment. 通信装置と通信可能な撮像装置であって、
撮像手段と、
前記撮像手段により得られた映像データを保持する保持手段と、
前記通信装置から、映像データの送信の要求を受信する受信手段と、
前記通信装置から要求された映像データを前記通信装置に送信する送信手段と、
前記通信装置から、前記送信手段により送信される映像データに、前記通信装置による記録開始時のデータであることを示す情報を付加するように要求されたか判定する判定手段と、
前記情報を付加するように要求された場合、前記情報を映像データに付加して前記通信装置に送信するように前記送信手段を制御する制御手段と、を有することを特徴とする撮像装置。
An imaging device capable of communicating with a communication device,
Imaging means;
Holding means for holding video data obtained by the imaging means;
Receiving means for receiving a request for transmission of video data from the communication device;
Transmitting means for transmitting video data requested from the communication device to the communication device;
A determination unit that determines whether or not the communication device has requested to add information indicating that the video data transmitted by the transmission unit is data at the start of recording by the communication device;
An image pickup apparatus comprising: a control unit that controls the transmission unit so that the information is added to video data and transmitted to the communication device when the information is requested to be added.
前記撮像手段により得られた映像データを所定の時間長のセグメントに分割して保持する保持手段と、
前記保持手段に保持されたセグメントの情報を記述したリストを作成する作成手段と、
前記通信装置から、リストの要求を受信する第1の受信手段と、
前記通信装置から要求された前記リストを前記通信装置に送信する第1の送信手段と、
前記通信装置から前記リストに記述されたセグメントの要求を受信する第2の受信手段と、
前記通信装置から要求されたセグメントを前記通信装置に送信する第2の送信手段とをさらに有することを特徴とする請求項7に記載の撮像装置。
Holding means for holding the video data obtained by the imaging means divided into segments of a predetermined time length; and
Creating means for creating a list describing information of segments held in the holding means;
First receiving means for receiving a request for a list from the communication device;
First transmission means for transmitting the list requested from the communication device to the communication device;
Second receiving means for receiving a request for a segment described in the list from the communication device;
The imaging apparatus according to claim 7, further comprising a second transmission unit configured to transmit a segment requested by the communication apparatus to the communication apparatus.
映像データを表示する表示手段と、音声データを入力する入力手段と、撮影モードを設定する設定手段とを有する、撮像装置と通信可能な通信装置の制御方法であって、
前記撮像装置から映像データを所定の周期で受信する受信ステップと、
前記受信した映像データを前記表示手段に表示する表示ステップと、
前記受信した映像データと前記入力手段により入力した音声データとを合成して記録する記録ステップとを有し、
前記記録ステップでは、前記設定手段により設定された撮影モードと、前記撮像装置により撮影された映像が前記表示手段に表示されるまでの遅延とに応じて、前記受信した映像データと前記入力手段により入力した音声データとを同期して記録することを特徴とする通信装置の制御方法。
A control method for a communication device capable of communicating with an imaging device, comprising display means for displaying video data, input means for inputting audio data, and setting means for setting a shooting mode,
A receiving step of receiving video data from the imaging device in a predetermined cycle;
A display step of displaying the received video data on the display means;
A recording step of synthesizing and recording the received video data and audio data input by the input means;
In the recording step, the received video data and the input unit according to the shooting mode set by the setting unit and the delay until the video shot by the imaging device is displayed on the display unit. A method for controlling a communication device, wherein the input audio data is recorded synchronously.
通信装置と通信可能な撮像装置の制御方法であって、
撮像手段により得られた映像データを保持するステップと、
前記通信装置から、映像データの送信の要求を受信するステップと、
前記通信装置から要求された映像データを前記通信装置に送信するステップと、
前記通信装置から、前記送信する映像データに、前記通信装置による記録開始時のデータであることを示す情報を付加するように要求されたか判定するステップと、
前記情報を付加するように要求された場合、前記情報を映像データに付加して前記通信装置に送信するステップと、を有することを特徴とする撮像装置の制御方法。
A method for controlling an imaging apparatus capable of communicating with a communication apparatus,
Holding the video data obtained by the imaging means;
Receiving a request for transmission of video data from the communication device;
Transmitting video data requested from the communication device to the communication device;
Determining whether or not the communication device has requested to add to the video data to be transmitted information indicating that it is data at the start of recording by the communication device;
And a step of adding the information to video data and transmitting the video data to the communication device when the information is requested to be added.
コンピュータを、請求項1ないし6のいずれか1項に記載の通信装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the communication apparatus of any one of Claim 1 thru | or 6. コンピュータを、請求項7または8に記載の撮像装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the imaging device of Claim 7 or 8.
JP2013264499A 2013-12-20 2013-12-20 COMMUNICATION DEVICE, IMAGING DEVICE, ITS CONTROL METHOD, AND PROGRAM Expired - Fee Related JP6360300B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013264499A JP6360300B2 (en) 2013-12-20 2013-12-20 COMMUNICATION DEVICE, IMAGING DEVICE, ITS CONTROL METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013264499A JP6360300B2 (en) 2013-12-20 2013-12-20 COMMUNICATION DEVICE, IMAGING DEVICE, ITS CONTROL METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2015122587A JP2015122587A (en) 2015-07-02
JP6360300B2 true JP6360300B2 (en) 2018-07-18

Family

ID=53533878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013264499A Expired - Fee Related JP6360300B2 (en) 2013-12-20 2013-12-20 COMMUNICATION DEVICE, IMAGING DEVICE, ITS CONTROL METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6360300B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7762099B2 (en) 2005-03-15 2010-07-27 Daikin Industries, Ltd. Refrigeration apparatus
WO2023068904A1 (en) * 2021-10-22 2023-04-27 삼성전자 주식회사 Electronic device and operation method of electronic device

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019009574A (en) * 2017-06-23 2019-01-17 キヤノン株式会社 Image processing apparatus
CN108881719B (en) * 2018-06-27 2019-12-10 维沃移动通信有限公司 Method for switching shooting mode and terminal equipment

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11155092A (en) * 1997-11-20 1999-06-08 Sony Corp Remote monitor device and image pickup system
JP2002142140A (en) * 2001-07-13 2002-05-17 Konica Corp Camera with transmission function and image transmission and reception system
JP2010171625A (en) * 2009-01-21 2010-08-05 Olympus Corp Imaging apparatus, sound recorder, and motion picture photographing system
JP2015514339A (en) * 2012-03-13 2015-05-18 エイチ4 エンジニアリング, インコーポレイテッドH4 Engineering, Inc. System and method for video recording and webcasting of sports events

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7762099B2 (en) 2005-03-15 2010-07-27 Daikin Industries, Ltd. Refrigeration apparatus
WO2023068904A1 (en) * 2021-10-22 2023-04-27 삼성전자 주식회사 Electronic device and operation method of electronic device

Also Published As

Publication number Publication date
JP2015122587A (en) 2015-07-02

Similar Documents

Publication Publication Date Title
WO2013132828A1 (en) Communication system and relay apparatus
JP2016123137A (en) Image communication apparatus and imaging apparatus
JP2016001927A (en) Method of providing image of image capture apparatus, and apparatus therefor
JP6385429B2 (en) Method and apparatus for reproducing stream media data
US9445142B2 (en) Information processing apparatus and control method thereof
JP6360300B2 (en) COMMUNICATION DEVICE, IMAGING DEVICE, ITS CONTROL METHOD, AND PROGRAM
US20170070699A1 (en) Information processing apparatus, image capturing apparatus, and control methods for the same
JP2017501598A5 (en)
JP6032987B2 (en) Image output device and method of operating image output device
US9277261B2 (en) Information processing apparatus and control method thereof
US20150373073A1 (en) Image pickup apparatus, control method and recording medium
JP6289076B2 (en) Information processing apparatus, information processing method, and program
JP7279416B2 (en) Intermediary terminal, communication system, input system, intermediary control method, and program
JP2019068187A (en) Information processing apparatus, control method thereof, and program
JP2016178355A (en) Communication device, communication system, communication device control method, and program
KR20070001482A (en) Method for remote controlling of mobile terminal
JP6254862B2 (en) Imaging apparatus and control method, system and program thereof
JP7277173B2 (en) Imaging device with video distribution function
WO2019244732A1 (en) Communication device, control method for communication device, and program
JP2015142360A (en) Imaging apparatus and universal head device
KR101883949B1 (en) Real-time broadcast system, a client terminal thereof and operation method thereof
JP2017046183A (en) Transmitter, receiver, and communication system
JP2015032953A (en) Imaging system, information communication terminal, and program
KR20090129743A (en) Method and system for transmitting an image between digital photographing apparatus and digital media player
JP2005117261A (en) Network camera apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180622

R151 Written notification of patent or utility model registration

Ref document number: 6360300

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees