JP2015097319A - Synchronization system - Google Patents
Synchronization system Download PDFInfo
- Publication number
- JP2015097319A JP2015097319A JP2013236746A JP2013236746A JP2015097319A JP 2015097319 A JP2015097319 A JP 2015097319A JP 2013236746 A JP2013236746 A JP 2013236746A JP 2013236746 A JP2013236746 A JP 2013236746A JP 2015097319 A JP2015097319 A JP 2015097319A
- Authority
- JP
- Japan
- Prior art keywords
- synchronization
- information
- meta information
- audio
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Camera Bodies And Camera Details Or Accessories (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、複数の撮影装置の映像情報或いは音声情報を同期させるシステムに関するものである。 The present invention relates to a system for synchronizing video information or audio information of a plurality of imaging devices.
一般に複数の撮影装置によって撮影された映像情報或いは音声情報を編集、合成する際は、撮影されたそれぞれの端末の時刻情報が異なり、互いに同期を取ることができず、そのままでは処理が困難であった。 In general, when editing or combining video information or audio information captured by a plurality of imaging devices, the time information of each captured terminal is different and cannot be synchronized with each other, and processing is difficult as it is. It was.
複数撮影装置間の同期を実現する一般的な方法は撮影装置に対してケーブルで接続するシステムであった。しかしながらこのような方法は、民生用機器で実現することは困難であるため、別の同期の方法が提案されている。 A general method for realizing synchronization among a plurality of image capturing apparatuses is a system in which cables are connected to the image capturing apparatuses. However, since such a method is difficult to realize with a consumer device, another synchronization method has been proposed.
特許文献1では撮影装置に内蔵されている照明装置を活用して複数の撮影装置の同期を実現する方法が開示されている。特許文献2ではGPSから得られるユニバーサルタイムコードを利用して同期を実現する方法が開示されている。 Patent Document 1 discloses a method for realizing synchronization of a plurality of photographing devices by using an illumination device incorporated in the photographing device. Patent Document 2 discloses a method for realizing synchronization using a universal time code obtained from GPS.
しかしながら、上述の特許文献に開示された従来技術では、画像の劣化を招いたり、装置の高コスト化/大型化を招いてしまう。すなわち特許文献1に開示された方法によると、撮影中に照明装置を発光する必要があるため、動画撮影中の特定のフレームのみ非常に輝度が高い画像となってしまう。また、照明装置を発光することが難しい場面(落ち着いた雰囲気の店内)や照明装置の効果が顕著にとらえにくい屋外などでの実施は難しい。特許文献2に開示された方法によると、GPS受信器を撮影装置に備える必要があるので装置の高コスト化/大型化を招いてしまう。また、GPS信号の受信が困難な場所では次第に装置の内部時計がずれてしまう/GPS受信器を備えていない装置との同期をとることができないという問題がある。 However, the conventional techniques disclosed in the above-mentioned patent documents cause degradation of the image and increase in cost / size of the apparatus. That is, according to the method disclosed in Patent Document 1, since it is necessary to emit light from the illumination device during shooting, only a specific frame during moving image shooting has an extremely high brightness image. In addition, it is difficult to implement in a scene where it is difficult to emit light from the lighting device (in a calm atmosphere) or outdoors where it is difficult to notice the effect of the lighting device. According to the method disclosed in Patent Document 2, since it is necessary to provide a GPS receiver in the photographing apparatus, the cost and size of the apparatus are increased. In addition, there is a problem that the internal clock of the device gradually shifts in places where it is difficult to receive GPS signals, and synchronization with a device not equipped with a GPS receiver is not possible.
また、複数の音声情報の同期を行う際に、相関演算の手法を用いると精度良く2つの音声情報のずれ量を計算することが可能だが、一般に相関演算は計算量が大きい為、計算の参照範囲が不要に広い場合、計算負荷が過大になり、時間がかかるという問題がある。 In addition, when synchronizing a plurality of audio information, it is possible to calculate the amount of deviation between the two audio information with high accuracy by using the correlation calculation method. However, since the correlation calculation is generally large, the calculation reference When the range is unnecessarily wide, there is a problem that the calculation load becomes excessive and takes time.
そこで、本発明の目的は、簡易な構成で迅速に複数の撮影装置からの映像/音声情報の同期をとることを可能にした同期システムを提供し、ひいては複数撮影装置の映像情報及び音声情報を編集、合成することを容易にするものである。 SUMMARY OF THE INVENTION An object of the present invention is to provide a synchronization system that can quickly synchronize video / audio information from a plurality of imaging devices with a simple configuration, and thus to acquire video information and audio information of a plurality of imaging devices. It makes it easy to edit and compose.
上記目的を達成するために、
本発明は、光学像を電気信号に変換する光電変換素子と、ネットワークまたは他の撮影装置との通信を行う通信手段と、メタ情報を保存可能なメモリと、前記光電変換素子、通信手段、メモリを備えた複数の撮影装置と、前記通信手段は複数の撮影機器の映像、音声情報及びそれらのメタ情報を送受し、前記メタ情報を元に複数端末間或いは複数の映像或いは音声情報の同期を行う同期手段を含むように同期システムを構成した。
To achieve the above objective,
The present invention relates to a photoelectric conversion element that converts an optical image into an electrical signal, a communication unit that communicates with a network or another imaging device, a memory that can store meta information, and the photoelectric conversion element, the communication unit, and the memory. A plurality of imaging devices, and the communication means transmits and receives video and audio information of a plurality of imaging devices and meta information thereof, and synchronizes a plurality of terminals or a plurality of video and audio information based on the meta information. The synchronization system was configured to include the synchronization means to perform.
さらに前記メタ情報は前記映像情報のフレームに格納されてタイムスタンプ可能とした。 Further, the meta information is stored in the frame of the video information and can be time stamped.
さらにメタ情報のフレーム毎の変遷パターンを認識、記憶、比較するメタ情報検出手段と、前記同期手段は映像フレーム同期手段と音声同期手段からなり、前記映像フレーム同期手段はメタ情報の変遷パターンの比較することでずれ量を得て同期する。 Further, meta information detecting means for recognizing, storing and comparing meta information transition patterns for each frame, the synchronizing means comprises video frame synchronizing means and audio synchronizing means, and the video frame synchronizing means compares meta information transition patterns. To obtain the amount of deviation and synchronize.
さらに前記音声同期手段はフレーム単位で同期した音声信号で相関演算等を行い、同期する。 Furthermore, the voice synchronization means performs a correlation operation or the like on the voice signal synchronized in units of frames and synchronizes.
以上により、時刻情報がずれた撮影装置間であっても、メタ情報によるフレーム単位までの同期と相関演算による精密な同期を段階的に行うことにより、相関演算に必要な時間を最小にする。 As described above, even between photographing apparatuses whose time information is shifted, the time required for the correlation calculation is minimized by performing the synchronization to the frame unit by the meta information and the precise synchronization by the correlation calculation step by step.
本発明によれば、簡易な構成で迅速に複数の端末及び映像/音声情報間の同期をとることを可能にした同期システムを提供することができる。 According to the present invention, it is possible to provide a synchronization system capable of quickly synchronizing a plurality of terminals and video / audio information with a simple configuration.
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
図1は、本発明の実施形態にかかわる各撮影装置(同期システムの端末にあたる)のブロック図である。 FIG. 1 is a block diagram of each photographing apparatus (corresponding to a terminal of a synchronization system) according to an embodiment of the present invention.
[実施例1]
以下、図1から図6を参照して、本発明の第1の実施例による、同期システムについて説明する。
[Example 1]
Hereinafter, a synchronization system according to a first embodiment of the present invention will be described with reference to FIGS.
図1は撮影装置であるデジタルカメラおよびレンズの電気的構成を示すブロック図である。カメラ1は、撮像系、画像処理系、通信系、記録再生系、制御系を有する。撮像系は、撮影光学系3、光電変換素子である撮像素子6を含み、画像処理系は、A/D 変換器(図ではADCと表記)20、画像処理回路21を含み、通信系はアンテナ7および通信手段26を含む。また、記録再生系は、記録処理回路22、メモリ手段23、表示手段8を含み、制御系は、カメラシステム制御回路25、焦点検出部(AFセンサ含む)12、露出検出部(AEセンサ含む)13、操作検出回路27、およびレンズシステム制御回路28、光学系駆動手段9を含む。光学系駆動手段9は、焦点レンズ駆動部9a、ブレ補正駆動部9b、絞り駆動部9cなどから構成されている。 FIG. 1 is a block diagram showing an electrical configuration of a digital camera and a lens which are photographing devices. The camera 1 has an imaging system, an image processing system, a communication system, a recording / reproducing system, and a control system. The imaging system includes an imaging optical system 3 and an imaging element 6 that is a photoelectric conversion element. The image processing system includes an A / D converter (indicated as ADC in the figure) 20 and an image processing circuit 21. The communication system is an antenna. 7 and communication means 26. The recording / reproducing system includes a recording processing circuit 22, a memory means 23, and a display means 8. The control system is a camera system control circuit 25, a focus detection unit (including an AF sensor) 12, and an exposure detection unit (including an AE sensor). 13, an operation detection circuit 27, a lens system control circuit 28, and an optical system driving unit 9. The optical system driving unit 9 includes a focus lens driving unit 9a, a shake correction driving unit 9b, an aperture driving unit 9c, and the like.
撮像系は、物体からの光を、撮影光学系3を介して撮像素子6の撮像面に結像する光学処理系である。エイミングなどの撮影予備動作中は、不図示のクイックリターンミラー機構に設けられたミラーを介して、焦点検出部12にも光束の一部が導かれる。(これらの詳細については図2の撮影装置の中央断面図を参照のこと)また後述するように制御系によって適切に撮影光学系3が調整されることで、適切な光量の物体光を撮像素子6に露光するとともに、撮像素子6近傍で被写体像が結像する。 The imaging system is an optical processing system that forms an image of light from an object on the imaging surface of the imaging device 6 via the imaging optical system 3. During a preliminary shooting operation such as aiming, a part of the light beam is also guided to the focus detection unit 12 via a mirror provided in a quick return mirror mechanism (not shown). (Refer to the central cross-sectional view of the imaging apparatus of FIG. 2 for details thereof) Further, as will be described later, the imaging optical system 3 is appropriately adjusted by the control system so that an appropriate amount of object light is captured by the imaging device. 6 and an object image is formed in the vicinity of the image sensor 6.
画像処理回路21は、A/D 変換器20を介して撮像素子6から受けた撮像素子の画素数の画像信号を処理する信号処理回路であり、ホワイトバランス回路、ガンマ補正回路、補間演算による高解像度化を行う補間演算回路等を有する。 The image processing circuit 21 is a signal processing circuit that processes an image signal of the number of pixels of the image sensor received from the image sensor 6 via the A / D converter 20, and includes a white balance circuit, a gamma correction circuit, and an interpolation calculation. It has an interpolation calculation circuit that performs resolution.
通信系は、アンテナ7から通信手段26によって適当に符号化された信号を送信/受信可能となっている。これにより近傍に存在する他の撮影装置や公衆通信網(いわゆるインターネット等)との通信が可能である。通信系を利用してやり取りするデータなどについては後述する。 The communication system can transmit / receive a signal appropriately encoded by the communication means 26 from the antenna 7. As a result, communication with other photographing devices and public communication networks (so-called Internet etc.) existing in the vicinity is possible. Data exchanged using the communication system will be described later.
記録処理回路22は、メモリ手段23への画像信号の出力を行うとともに、表示手段8に出力する像を生成、保存する。また、記録処理回路22は、予め定められた方法を用いて画像、動画、音声などの圧縮を行う。 The recording processing circuit 22 outputs an image signal to the memory unit 23 and generates and stores an image to be output to the display unit 8. In addition, the recording processing circuit 22 compresses images, moving images, sounds, and the like using a predetermined method.
同期手段であるカメラシステム制御回路25は撮像の際のタイミング信号などを生成して出力する。また、カメラシステム制御回路25は後述するようにAEセンサ13の測光の結果を利用した複数端末間の映像情報及び音声情報の同期を実現する。さらに、制御系は、外部操作に応動して撮像系、画像処理系、記録再生系をそれぞれ制御する。例えば、不図示のシャッターレリーズ釦の押下を操作検出回路27が検出して、撮像素子6の駆動、画像処理回路21の動作、記録処理回路23の圧縮処理などを制御する。さらに表示手段22によって光学ファインダ、液晶モニタ等に情報表示を行う情報表示装置の各セグメントの状態を制御する。 The camera system control circuit 25 which is a synchronization means generates and outputs a timing signal at the time of imaging. Further, as will be described later, the camera system control circuit 25 realizes synchronization of video information and audio information among a plurality of terminals using the photometric result of the AE sensor 13. Further, the control system controls the imaging system, the image processing system, and the recording / reproducing system in response to an external operation. For example, the operation detection circuit 27 detects that a shutter release button (not shown) is pressed, and controls driving of the image sensor 6, operation of the image processing circuit 21, compression processing of the recording processing circuit 23, and the like. Further, the display means 22 controls the state of each segment of the information display device that displays information on an optical finder, a liquid crystal monitor or the like.
制御系の光学系の調整動作について説明する。カメラシステム制御回路25には焦点検出部12および露出検出部13が接続されており、これらの信号を元に適切な焦点位置、絞り位置を求める。カメラシステム制御回路25は、電気接点10を介してレンズシステム制御回路28に指令を出し、レンズシステム制御回路28は焦点レンズ駆動部9aおよび絞り駆動部9cを適切に制御する。さらにレンズシステム制御回路28には不図示の手ぶれ検出センサが接続されており、手ぶれ補正を行うモードにおいては、手ぶれ検出センサの信号を元にブレ補正駆動部9bを適切に制御する。 The adjustment operation of the optical system of the control system will be described. A focus detection unit 12 and an exposure detection unit 13 are connected to the camera system control circuit 25, and an appropriate focus position and aperture position are obtained based on these signals. The camera system control circuit 25 issues a command to the lens system control circuit 28 via the electrical contact 10, and the lens system control circuit 28 appropriately controls the focus lens driving unit 9a and the aperture driving unit 9c. Further, a camera shake detection sensor (not shown) is connected to the lens system control circuit 28, and in the camera shake correction mode, the shake correction driving unit 9b is appropriately controlled based on a signal from the camera shake detection sensor.
図2は本発明の対象となる撮影装置の中央断面図を示している。図2において、1は撮像装置を、2は撮像レンズを、3は撮影光学系を、4は撮像レンズの光軸を、5はレンズ鏡筒を、6は撮像素子を、7は撮影装置1に設けられたアンテナを、8は表示手段を形成する液晶モニタ等を、9は撮影光学系の調整のための光学系駆動手段を、10は撮影装置1と撮影レンズ2をつなぐ接点を、11はいわゆるクイックリターンミラー機構を、12はAFセンサ含む焦点検出部を、13はAEセンサを含む露出検出部をそれぞれ示す。 FIG. 2 shows a central cross-sectional view of the photographing apparatus that is the subject of the present invention. In FIG. 2, 1 is an imaging device, 2 is an imaging lens, 3 is an imaging optical system, 4 is an optical axis of the imaging lens, 5 is a lens barrel, 6 is an imaging device, and 7 is an imaging device 1. , 8 is a liquid crystal monitor or the like forming display means, 9 is an optical system driving means for adjusting the photographing optical system, 10 is a contact point for connecting the photographing apparatus 1 and the photographing lens 2, 11 Denotes a so-called quick return mirror mechanism, 12 denotes a focus detection unit including an AF sensor, and 13 denotes an exposure detection unit including an AE sensor.
撮像装置1は撮影レンズ2と焦点検出部12および露出検出部用いて、焦点/露出検出を行うとともに、撮影光学系3の一部を駆動させて、撮影光学系の調整によって像を撮像素子6近傍に結像させる。さらに、適正な露光になるように絞りを動作させる。 The imaging device 1 uses the photographing lens 2, the focus detection unit 12, and the exposure detection unit to perform focus / exposure detection, drive a part of the photographing optical system 3, and adjust the photographing optical system to obtain an image by the imaging element 6. Image in the vicinity. Further, the aperture is operated so as to achieve proper exposure.
さらにユーザーによる不図示のレリーズ釦の操作と同期させて撮像素子6より被写体の情報を得て、メモリ手段へ記録を行う。 Further, in synchronism with the operation of a release button (not shown) by the user, subject information is obtained from the image sensor 6 and recorded in the memory means.
アンテナ7は適当な位置に図示したが、実際にはフレキシブルケーブル上に適当なパターン施し、前述のフレキシブルケーブルを撮影装置1内に設置するような方法で形成することが可能となる。 Although the antenna 7 is illustrated at an appropriate position, in practice, an appropriate pattern can be formed on the flexible cable, and the above-described flexible cable can be formed in the photographing apparatus 1.
図3は本実施例における撮影装置の動作を説明するフローチャートである。図3(a)は撮影時の動作のうち本発明に関する部分を、図3(b)は撮影後(映像および音声の合成時)に行う動作のうち本発明に関する部分をそれぞれ示している。 FIG. 3 is a flowchart for explaining the operation of the photographing apparatus in the present embodiment. FIG. 3A shows a portion related to the present invention among operations at the time of shooting, and FIG. 3B shows a portion related to the present invention among operations performed after shooting (when synthesizing video and audio).
撮影時の動作を、図3(a)を用いて説明する。ステップS10は撮影時の電源ONに対応している。ステップS11では、同期撮影を行うモードか否かを判断する。同期撮影モードである時はステップS12に進み、それ以外の時はS13に進む。ステップS12では後述するように、同期のためのデータとして被写体露出情報を撮影装置間で共有する。また後述するフォーマット変換およびメモリ手段への格納も行う。 The operation at the time of shooting will be described with reference to FIG. Step S10 corresponds to power ON at the time of shooting. In step S11, it is determined whether or not the mode is for performing synchronous shooting. When it is in the synchronous shooting mode, the process proceeds to step S12, and otherwise, the process proceeds to S13. In step S12, as will be described later, the subject exposure information is shared between the photographing apparatuses as data for synchronization. Also, format conversion and storage in the memory means described later are performed.
ステップS13は撮影開始に対応しており、例えば撮影装置1の録画開始釦を押したタイミングに対応する。ステップS13は同期撮影を行うモードか否かを判断する。同期撮影モードである時はステップS15に進み、それ以外の時はS18に進む。 Step S13 corresponds to the start of shooting, for example, corresponding to the timing when the recording start button of the shooting apparatus 1 is pressed. In step S13, it is determined whether or not the mode is for performing synchronous shooting. When it is in the synchronous photographing mode, the process proceeds to step S15, and otherwise, the process proceeds to S18.
ステップS15は被写体の輝度を測光し、それをEV値として算出する。ステップS16では、そのEV値が変化したか否かを判断する。被写体の照明条件が変化するなどして被写体輝度が変化した時にはステップS17に進み、それ以外の時はステップS18に進む。ステップS18ではEV値の変化したタイミングをメタ情報として格納する。すなわち、メタ情報はタイムスタンプされて映像情報のフレームに格納されている。ステップS18は撮影終了に対応しており、例えば撮影装置1の録画終了釦を押したタイミングに対応する。ステップS18の撮影終了を検知しない場合はステップS13に戻って撮影中はステップS13からステップS18の動作を繰り返し行う。ステップS19は撮影時の電源OFFに対応している。 In step S15, the luminance of the subject is photometrically calculated as an EV value. In step S16, it is determined whether or not the EV value has changed. The process proceeds to step S17 when the subject brightness changes due to a change in the illumination conditions of the subject, and the process proceeds to step S18 otherwise. In step S18, the timing at which the EV value changes is stored as meta information. That is, meta information is time stamped and stored in a frame of video information. Step S18 corresponds to the end of shooting, for example, corresponding to the timing when the recording end button of the shooting apparatus 1 is pressed. If the end of shooting in step S18 is not detected, the process returns to step S13, and the operations from step S13 to step S18 are repeated during shooting. Step S19 corresponds to turning off the power at the time of shooting.
同期の動作を、図3(b)を用いて説明する。ステップS20は同期動作の開始に対応している。ステップS21は同期を実現すべきファイルの検索を行う。これは後述するように適当なタグ情報を見ながら行うことができる。ステップS22は同期元および同期先ファイルのメタ情報のスキャンを行う。これにより図3(a)のステップS17で格納した情報を取り出すことができる。 The synchronization operation will be described with reference to FIG. Step S20 corresponds to the start of the synchronization operation. In step S21, a file to be synchronized is searched. This can be done while looking at appropriate tag information as will be described later. In step S22, the meta information of the synchronization source file and the synchronization destination file is scanned. Thereby, the information stored in step S17 in FIG.
すなわち、カメラシステム制御回路25はメタ情報検出手段である。 That is, the camera system control circuit 25 is meta information detection means.
ステップS23はステップS22で得たメタ情報を利用してフレーム単位での同期を実現する。(同期のための遅延量を求める。)同期実現のための動作の詳細については後述する。ステップS24は音声でも同期をとる必要があるか否かを判断する。ステップS23によって映像の同期がとれているが、音声は遅延があるために、音声の合成のためには別の遅延量を求める必要がある。音声の同期が必要な時はステップS25に、不要な時はステップS28に進む。いずれを選択するかは同期によって得たい結果によって変わってくる。(ユーザーに提示しているアプリケーションに依存する。)例えば、多視点画像の生成を目的としている場合には音声の同期は必要ない。一方で、マスター音源や指向性音源の作成なども同時に行いたい場合には、音声の同期も必要である。 In step S23, synchronization in units of frames is realized by using the meta information obtained in step S22. (Determining the amount of delay for synchronization.) Details of the operation for realizing synchronization will be described later. In step S24, it is determined whether it is necessary to synchronize the sound. Although the video is synchronized by step S23, since the audio has a delay, it is necessary to obtain another delay amount for synthesizing the audio. When sound synchronization is necessary, the process proceeds to step S25, and when not necessary, the process proceeds to step S28. Which one to select depends on the result you want to obtain through synchronization. (Depends on the application presented to the user.) For example, if the purpose is to generate a multi-viewpoint image, audio synchronization is not necessary. On the other hand, when creating a master sound source or a directional sound source at the same time, it is necessary to synchronize the sound.
尚、前述したファイルの検索は撮影装置に設定された、或いはネットワークなどから指示される、あらかじめ決められた検索時間或いは対象ファイル数などに対して実行されるので、必要以上に時間がかかることはない。 Note that the above-described file search is executed for a predetermined search time or the number of target files set in the photographing apparatus or instructed from the network or the like, so that it may take more time than necessary. Absent.
ステップS25は同期先および同期元ファイルの音声データを取り出す。ステップS26は音声信号の相関計算範囲を決定する。これは、会場の大きさなどから推測される音声の遅延時間をもとに適当に設定すればよい。ステップS27で音声信号間の相関から音声信号の同期を実現する。(同期のための遅延量を求める。)ステップS28はステップS23およびステップS27で求めた同期のための遅延量を利用して複数のファイル間の映像および音声の同期を実現しながら必要な合成処理を行う。 In step S25, the audio data of the synchronization destination and the synchronization source file is extracted. Step S26 determines the correlation calculation range of the audio signal. This may be set appropriately based on the audio delay time estimated from the size of the venue. In step S27, the audio signal is synchronized from the correlation between the audio signals. (Determining the amount of delay for synchronization) Step S28 uses the amount of delay for synchronization obtained in steps S23 and S27 to perform the necessary synthesis processing while realizing video and audio synchronization between a plurality of files. I do.
図4は本実施例における撮影の場面を説明する図である。図4(a)に示すように、一つの会場において、複数の撮影装置1a,1b,1c,1dが撮影を行うような場合を考える。例えば、学芸会や運動会などが考えられる。このような場面において、複数の撮影装置の画像を利用して多視点映像の作成などを考えた場合、撮影装置間の映像信号の同期が必要になる。図4(a)においては4つの撮影装置が有る場合を考えたが、複数の撮影装置で有れば良く、さらに多数の場合や撮影装置が2つの場合でも良い。また、複数の端末の映像を利用するアプリケーションとしては、多視点映像の作成の他に立体映像撮影やマスター音源/指向性音源の作成なども考えられる。 FIG. 4 is a diagram for explaining a shooting scene in this embodiment. As shown in FIG. 4A, a case is considered in which a plurality of photographing apparatuses 1a, 1b, 1c, and 1d perform photographing in one venue. For example, a school festival or an athletic meet can be considered. In such a scene, when creating a multi-view video using images of a plurality of photographing devices, it is necessary to synchronize video signals between the photographing devices. In FIG. 4A, the case where there are four imaging devices is considered, but a plurality of imaging devices may be used, and a larger number of cases or two imaging devices may be used. In addition to the creation of multi-view video, applications that use video from a plurality of terminals include stereoscopic video shooting and creation of a master sound source / directional sound source.
撮影装置によって得られた映像には、撮影装置の内部時計に関連付けされたタイムコードが付されている。撮影装置の内部時計は初期的にユーザーによって調整されるが、この時の誤差や内部クロックに基づく時計の誤差などがあり、映像の同期というレベルでは無視できないずれが生じる場合がある。 A time code associated with the internal clock of the photographing apparatus is attached to the video obtained by the photographing apparatus. Although the internal clock of the photographing apparatus is initially adjusted by the user, there are errors at this time, errors in the clock based on the internal clock, and the like, and a shift that cannot be ignored at the level of video synchronization may occur.
この問題を解決するために、内蔵ストロボを発光させて同期を実現する方法がある。(特許文献1参照)ただしこの方法では、動画撮影中にストロボ発光を行うために、特定のフレームのみ輝度が高くなり画質の劣化を招くという問題がある。また、内蔵ストロボの発光がとらえにくい屋外等の環境では適用することが難しいという問題がある。 In order to solve this problem, there is a method for realizing synchronization by causing a built-in strobe to emit light. However, this method has a problem in that the luminance is increased only in a specific frame and the image quality is deteriorated because strobe light is emitted during moving image shooting. In addition, there is a problem that it is difficult to apply in an environment such as outdoors where the built-in flash is difficult to catch.
一方で、GPSを備えた撮影装置などでは、内部時計は標準時との調整が図られているためにこれらを参照することで適当な時間合わせを行うことも可能である。(特許文献2参照)ただしこの方法では、GPS信号の受信が困難な場所では次第に装置の内部時計がずれてしまう/GPS受信器を備えていない装置との同期を行うことができないという問題がある。 On the other hand, in an imaging apparatus equipped with GPS, the internal clock is adjusted with respect to the standard time, and therefore it is possible to perform appropriate time adjustment by referring to these. However, this method has a problem that the internal clock of the device gradually shifts in a place where it is difficult to receive a GPS signal / cannot synchronize with a device not equipped with a GPS receiver. .
本発明は、これらを解決するために被写体の輝度情報の変遷などを取り込んだメタ情報に基づいて撮影装置間の同期を実現する。 In order to solve these problems, the present invention realizes synchronization between photographing apparatuses based on meta information incorporating changes in luminance information of a subject.
図4(b)は撮影装置間の情報の受け渡しを模式的に示した図である。図4(b)は例として撮影装置1aと撮影装置1bでのやり取りを示したが、他の端末間も同様に考えればよい。 FIG. 4B is a diagram schematically showing information passing between the photographing apparatuses. FIG. 4B shows the exchange between the photographing apparatus 1a and the photographing apparatus 1b as an example, but the other terminals may be considered similarly.
各撮影装置は、電源投入後(図3(a)のステップS10に対応)同期モードに設定させている場合に(図3(a)のステップS11に対応)、各撮影装置に設けられた通信手段26およびアンテナ7を介して他の撮影装置と露出情報の共有のための情報の受け渡しを行う。 When each photographing apparatus is set to the synchronous mode after power-on (corresponding to step S10 in FIG. 3A) (corresponding to step S11 in FIG. 3A), the communication provided in each photographing apparatus. Information for sharing exposure information is exchanged with other photographing apparatuses via the means 26 and the antenna 7.
各撮影装置において、フォーマット変換手段としてカメラシステム制御25は動作する。カメラシステム制御25は、受け取った他の撮影装置の露出情報を展開し、撮影装置間の差を埋めるために適当なフォーマット変換を行う。その後、露出情報を一時的にメモリ手段23に格納する。前述のように、メモリ手段23に格納された他の撮影装置から受信した露出情報は、メイン電源が切られて一定時間が経過したのちなどの適当なタイミングに消去される。 In each photographing apparatus, the camera system control 25 operates as format conversion means. The camera system control 25 expands the received exposure information of the other photographing devices and performs an appropriate format conversion in order to fill the difference between the photographing devices. Thereafter, the exposure information is temporarily stored in the memory means 23. As described above, the exposure information received from the other photographing device stored in the memory means 23 is erased at an appropriate timing such as after a certain time has passed since the main power supply was turned off.
その後の撮影において(図3(a)のステップS13に対応)、AEセンサ13を用いて被写体輝度測定が行われる。(図3(a)のステップS15に対応)被写体の照明条件などが変わったときに輝度が変化するので、その情報をメタ情報として格納する。(図3(a)のステップS16およびステップS17に対応)この動作を撮影の終了まで継続する(図3(a)のステップS18に対応)。 In the subsequent shooting (corresponding to step S13 in FIG. 3A), subject luminance measurement is performed using the AE sensor 13. (Corresponding to step S15 in FIG. 3A) Since the luminance changes when the illumination condition of the subject changes, the information is stored as meta information. (Corresponding to step S16 and step S17 in FIG. 3A) This operation is continued until the end of photographing (corresponding to step S18 in FIG. 3A).
その後撮影装置は通信手段26およびアンテナ7を介して他の撮影装置と映像信号の受け渡しを行う。この受け渡しは、必ずしも撮影と同期して行われる必要はない。 Thereafter, the photographing apparatus exchanges video signals with other photographing apparatuses via the communication means 26 and the antenna 7. This delivery does not necessarily have to be performed in synchronization with shooting.
図5は同期を実現する動作を模式的に示した図である。図5(a)はファイルを検索する状態を模式的に示した図で有り、図5(b)は同期をフレーム単位で実現する様子を模式的に示した図である。 FIG. 5 is a diagram schematically showing an operation for realizing the synchronization. FIG. 5A is a diagram schematically showing a state of searching for a file, and FIG. 5B is a diagram schematically showing how synchronization is realized in units of frames.
図5(a)に示したように、カメラシステム制御25は受け取った映像信号のメタ情報に格納されたタグ情報等をもとに、受け取った映像信号と同時に撮影していた可能性の高いファイルを選択する(図3(b)のステップS21に対応)。 As shown in FIG. 5A, the camera system control 25 is a file that is likely to be shot simultaneously with the received video signal based on the tag information stored in the meta information of the received video signal. Is selected (corresponding to step S21 in FIG. 3B).
次に、メタ情報検出手段であるところのカメラシステム制御回路25は、該当したファイルのメタ情報の抽出を行い(図3(b)のステップS22に対応)、メタ情報の比較を行う。図5(b)の例ではFile2と受信Fileの比較を行う。メタ情報に各フレーム単位で被写体測光の結果の露出情報であるEV値の変遷が記録されているので、当該タイミングが一致するようにフレームをずらす。図5(b)の例ではある所定時間内で灰色で示したフレーム(File2のフレーム2,9と受信Fileのフレーム6,13)においてEV値の変化がタイミングチャートとして認識された情報を示している。これらのタイミングが一致するようにすれば2つの映像の同期が実現する。具体的にはFile2の信号を4フレーム遅延させれば同期を実現することができる。ここで求めた同期に必要な遅延量をメモリ手段に格納する。(図3(b)のステップS23に対応)このようにカメラシステム制御回路25は映像フレーム同期手段である。 Next, the camera system control circuit 25 serving as meta information detection means extracts meta information of the corresponding file (corresponding to step S22 in FIG. 3B), and compares meta information. In the example of FIG. 5B, File2 and received File are compared. Since the transition of the EV value, which is exposure information as a result of subject metering, is recorded in the meta information for each frame, the frames are shifted so that the timings coincide with each other. In the example of FIG. 5B, information indicating that a change in EV value is recognized as a timing chart in gray frames (File 2 frames 2 and 9 and reception file frames 6 and 13) within a predetermined time is shown. Yes. If these timings match, the synchronization of the two images can be realized. Specifically, synchronization can be realized by delaying the File2 signal by 4 frames. The amount of delay necessary for the synchronization obtained here is stored in the memory means. (Corresponding to step S23 in FIG. 3B) Thus, the camera system control circuit 25 is a video frame synchronization means.
フレームを一致させる具体的な方法としては、2つの信号間で相関を計算する方法が考えられる。例えば、信号を2値化したのちに遅延を与えながら差分絶対値を計算すればよい。図5(b)に示した信号を例にとると、File2の信号は“0100000010000000”となり、受信Fileの信号は“0000010000001000”となる。この信号に対してbitをずらしながらbit和を最小化すれば、File2の信号を4フレーム遅延させたときに極小値が得られる。
図6を用いて音声の同期について説明する。図6(a)は2つのファイルの音声信号を抜き出した例である。図6(a)の縦軸は音声信号のレベルを示しており、横軸は時間を示している。図6(b)は、図6(a)の信号に対して発話区間検出(VAD)を行った結果を示している。図6(b)の縦軸はVADの結果を示しており、横軸は時間を示している。図6(c)はVAD結果によって同期を行った後の音声信号の拡大図を示している。図6(c)の縦軸は音声信号のレベルを示しており、横軸は時間を示している。ここで図6(a)および図6(b)の横軸は共有されており、図6(c)は拡大されているので横軸の尺度は図6(a),(b)と異なる。
As a specific method for matching frames, a method of calculating a correlation between two signals can be considered. For example, the difference absolute value may be calculated while giving a delay after binarizing the signal. Taking the signal shown in FIG. 5B as an example, the signal of File 2 is “0100000010000000” and the signal of the received File is “0000010000001000”. If the bit sum is minimized while shifting the bit with respect to this signal, the minimum value can be obtained when the File2 signal is delayed by 4 frames.
Audio synchronization will be described with reference to FIG. FIG. 6A shows an example in which audio signals of two files are extracted. In FIG. 6A, the vertical axis indicates the level of the audio signal, and the horizontal axis indicates time. FIG. 6B shows the result of speech segment detection (VAD) performed on the signal of FIG. The vertical axis in FIG. 6B shows the VAD result, and the horizontal axis shows time. FIG. 6C shows an enlarged view of the audio signal after synchronization is performed according to the VAD result. In FIG. 6C, the vertical axis indicates the level of the audio signal, and the horizontal axis indicates time. Here, the horizontal axes of FIGS. 6A and 6B are shared, and FIG. 6C is enlarged, so the scale of the horizontal axis is different from FIGS. 6A and 6B.
同期を実現したいファイル(図5(b)と同様に図6の例ではFile2と受信File)の音声信号を抽出する。(図3(b)のステップS25に対応する。)図6(a)は音声信号の一部を抜き出した図である。図6(a)の時間はフレーム単位でFile.2と受信Fileの同期をとった後のもので、File.2と受信Fileは画像では同期がとれている状態にある。図6(a)ではFile.2の音声信号に対して受信Fileの音声信号が遅延している。これは、受信Fileを撮影した撮影装置が主被写体からより遠い位置にあった場合を示している。すなわちFile.2に対する受信Fileの遅延は、音声がFile.2を撮影した撮影装置に到達してから受信Fileを撮影した撮影装置に到達するまでの時間差に相当している。また、上述したように音声信号の遅延は、撮影装置間の位置関係に支配されている。そのため、最大の位置ずれが予め分かっていれば、遅延を計算する範囲を限定することができる。例えば、GPS信号などから遅延を推定できる場合には後述する相関を計算する範囲を設定する(図3(b)のステップS26に対応する。)。 The audio signal of the file to be synchronized (File 2 and Receive File in the example of FIG. 6 as in FIG. 5B) is extracted. (Corresponding to step S25 in FIG. 3B.) FIG. 6A shows a part of the audio signal. The time in FIG. 6A is after the synchronization of File.2 and the received file in frame units, and File.2 and the received file are in a synchronized state in the image. In FIG. 6A, the received File audio signal is delayed with respect to the File.2 audio signal. This shows a case where the imaging device that captured the received file is located farther from the main subject. That is, the delay of the received file with respect to File.2 corresponds to the time difference from when the sound reaches the imaging device that captured File.2 until it reaches the imaging device that captured the received file. Further, as described above, the delay of the audio signal is governed by the positional relationship between the imaging devices. Therefore, if the maximum positional deviation is known in advance, the range for calculating the delay can be limited. For example, when a delay can be estimated from a GPS signal or the like, a range for calculating a correlation described later is set (corresponding to step S26 in FIG. 3B).
次に、図6(a)に対して適当なVADアルゴリズムを適用して発話区間の検出を行う。図6(b)にその結果を示した。発話があった区間を“H”、発話が無かった区間を“L”として図示した。図6(b)の信号を前述のフレーム同期を行う計算方法と同様にして同期のための遅延量を計算する。VADを利用して2値化をすることで、計算量を削減することができる。 Next, an appropriate VAD algorithm is applied to FIG. FIG. 6 (b) shows the result. The section where the utterance was made is shown as “H”, and the section where there was no utterance is shown as “L”. The delay amount for the synchronization is calculated in the same manner as the calculation method for performing the frame synchronization of the signal in FIG. 6B. By performing binarization using VAD, the amount of calculation can be reduced.
さらに、元の音声信号の一部を用いてVADの検出精度範囲内の同期を再度行う。図6(c)は、VADを利用して求めた遅延量をずらしたのちに、図6(a)に示した音声信号の一部を拡大した図である。この信号を用いて再度同期のための遅延量を計算する(図3(b)のステップS27に対応する。)。 Furthermore, synchronization within the VAD detection accuracy range is performed again using a part of the original audio signal. FIG. 6C is an enlarged view of a part of the audio signal shown in FIG. 6A after shifting the delay amount obtained by using VAD. The delay amount for synchronization is calculated again using this signal (corresponding to step S27 in FIG. 3B).
このようにカメラシステム制御回路25は音声同期手段である。 Thus, the camera system control circuit 25 is an audio synchronization means.
ここにおいても同期の計算の実行は撮影装置に設定された、或いはネットワークなどから指示された、あらかじめ決められた計算時間の上限或いは対象ファイル数などに対して実行されるので、必要以上に時間がかかることはない。 In this case as well, the synchronization calculation is executed for a predetermined upper limit of calculation time or the number of target files set in the photographing apparatus or instructed from the network or the like. There is no such thing.
映像および音声を同期させるための遅延量を用いて、適当な方法で映像および音声の合成処理を行う(図3(b)のステップS28に対応する。)。 Using the delay amount for synchronizing the video and audio, the video and audio are synthesized by an appropriate method (corresponding to step S28 in FIG. 3B).
本実施例においては、映像情報同期の際にEV値の変化のタイミングのパターンを認識して比較しているが、EV値の変化のタイミングだけでなく、格納されたEV値を比較することにより、より精度の高い同期が可能となる。 In the present embodiment, the pattern of EV value change timing is recognized and compared during video information synchronization. However, not only the EV value change timing but also the stored EV values are compared. , More accurate synchronization is possible.
本実施例おいては、メタ情報として露出情報の変化(室内会場などで照明が明転や暗転したときに対応)によるタイミングを検知する場合を例示した。タイミングを検知するその他のメタ情報として、音声AGCが変更になった場合(被写体の音量が急に変化した場合)、照明の色温度が変化した場合(ホワイトバランスが変化する)、色情報が変化した場合(室内会場などで照明色が変化した場合などに対応)等が画像情報を受動的に利用して同期を実現する方法として考えられる。 In the present embodiment, the case where the timing due to the change of the exposure information as meta information (corresponding to the case where the lighting is turned bright or dark in an indoor venue) is illustrated. As other meta information for detecting the timing, when the audio AGC is changed (when the volume of the subject is suddenly changed), when the color temperature of the illumination is changed (white balance is changed), the color information is changed. In such a case (corresponding to the case where the illumination color changes in an indoor venue or the like), it can be considered as a method for realizing synchronization by passively using image information.
その他にもレンズの焦点距離情報(被写体の大きさによりズームアップした場合)、カメラのアングルの変化(ジャイロセンサなどにより、上方、下方にカメラを振った場合に対応)、シーン撮影情報(被写体の変化に対応、人物ポートレートモードから風景モードに切り替え)、EV値より細かい変化として絞り値、シャッタスピード(絞り値の変更によりレンズの被写界深度が変化する画像効果や、高速シャッタースピードにより被写体の動きを停止させるなどの効果が期待できる場合)などによってもタイミングの変化した場合として利用できる可能性がある。 In addition, the focal length information of the lens (when zoomed up according to the size of the subject), the change in the camera angle (corresponding when the camera is shaken upward or downward by a gyro sensor, etc.), the scene shooting information (the subject's information) Changeable, switching from portrait mode to landscape mode), aperture value and shutter speed as a change finer than EV value, image effect that changes the lens depth of field by changing aperture value, and subject by high-speed shutter speed It is also possible to use it as a case where the timing has changed.
メタ情報の種類により、各装置間で作成されるタイミングチャートにはばらつきが発生するので、フレーム単位までの絞込みや、音声同期の実行の際、対象ファイルの検索やファイル内の計算範囲は、利用するメタ情報の内容により変化させている。 Timing charts created between devices vary depending on the type of meta information, so when narrowing down to frame units or performing audio synchronization, search for the target file and the calculation range in the file can be used. It is changed according to the contents of meta information.
本実施例における撮影装置間の情報の受け渡しは、撮影装置同士の通信(いわゆるピアツーピア)によってもよいし、ネットワークを介して通信を行ってもよい。 In this embodiment, information can be exchanged between the image capturing apparatuses by communication between the image capturing apparatuses (so-called peer-to-peer), or via a network.
本実施例において撮影装置1はアンテナ7を有しており、いわゆる無線通信を行う場合を示したが、有線通信によって通信を実現してもよい。 In the present embodiment, the photographing apparatus 1 has the antenna 7 and performs the so-called wireless communication. However, the communication may be realized by wired communication.
なお本実施例はいわゆるデジタル一眼レフカメラを撮影装置の例として記載したが、デジタル一眼レフカメラ固有の機能を利用しているわけではないため、他の撮影装置(デジタルビデオカメラ、デジタルコンパクトカメラ、携帯電話等)においても実施可能である。 In this embodiment, a so-called digital single-lens reflex camera is described as an example of a photographing apparatus. However, since the function unique to the digital single-lens reflex camera is not used, other photographing apparatuses (digital video camera, digital compact camera, It can also be implemented in a mobile phone or the like.
以上に説明したように、本実施例によると、簡易な構成で複数の端末の同期をとることを可能にした同期システムを提供することが出来る。 As described above, according to this embodiment, it is possible to provide a synchronization system that enables synchronization of a plurality of terminals with a simple configuration.
[実施例2]
以下、図7および図8を参照して、本発明の第2の実施例による、同期システムについて説明する。各撮影装置の構成は実施例1と同様なので説明を割愛する。
[Example 2]
Hereinafter, a synchronization system according to a second embodiment of the present invention will be described with reference to FIGS. Since the configuration of each photographing apparatus is the same as that of the first embodiment, a description thereof will be omitted.
図7は本実施例における撮影装置およびネットワークの動作を説明するフローチャートである。図7(a)は撮影時の動作のうち本発明に関する部分を、図7(b)は撮影後(映像および音声の合成時)に行う動作のうち本発明に関する部分をそれぞれ示している。7において、図3と同じ機能のものには同じ番号を付した。また、図7(b)は図3(b)と同じものであるが、本実施例においては同期等の処理をおこなう手段は後述するネットワークである。 FIG. 7 is a flowchart for explaining the operation of the photographing apparatus and the network in this embodiment. FIG. 7A shows a portion related to the present invention among operations at the time of shooting, and FIG. 7B shows a portion related to the present invention among operations performed after shooting (when synthesizing video and audio). In FIG. 7, the same functions as those in FIG. FIG. 7B is the same as FIG. 3B, but in this embodiment, the means for performing processing such as synchronization is a network described later.
図7(a)のうち、図3(a)と異なる部分のみ説明を行う。ステップS112は、後述するように、同期のためのデータとして露出情報をネットワークと送受信する。ステップS118は、録画した映像をネットワークに送出する。 Only a portion of FIG. 7A different from FIG. 3A will be described. Step S112 transmits / receives exposure information to / from the network as data for synchronization, as will be described later. In step S118, the recorded video is transmitted to the network.
図8(a)は本実施例における撮影の場面を説明する図である。図8は例として、ネットワーク102を介した撮影装置1aと撮影装置1bでのやり取りを示したが、他の端末も同様に考えればよい。 FIG. 8A is a diagram for explaining a shooting scene in this embodiment. FIG. 8 shows, as an example, the exchange between the imaging device 1a and the imaging device 1b via the network 102, but other terminals may be considered in the same manner.
本実施例においては、各撮影装置101a,101b,101c,101dは通信手段26およびアンテナ7を介してネットワーク102と通信を行う。図8(a)ではネットワークを雲状の形状で示した。ネットワーク102上には多数の処理装置や記憶装置が接続されており、仮想的に大型コンピュータのように見なせる。 In the present embodiment, each of the photographing apparatuses 101a, 101b, 101c, and 101d communicates with the network 102 via the communication unit 26 and the antenna 7. In FIG. 8A, the network is shown in a cloud shape. A large number of processing devices and storage devices are connected on the network 102 and can be virtually regarded as a large computer.
撮影開始時に実施例1で説明した、露出情報をネットワーク102に対して送出する。
各撮影装置は、電源投入後(図7(a)のステップS10に対応)同期モードに設定させている場合に(図7(a)のステップS11に対応)、ネットワーク102は同じ会場で撮影していると思われる撮影装置に対して、露出情報を加工したのちに送出する。露出情報の加工とは、撮影装置による測光感度ばらつき等の差を埋めるための変換のことである。撮影装置101aが保有していた露出情報は、撮影装置101bに送られる(図7(a)のステップS112に対応)。
The exposure information described in the first embodiment is sent to the network 102 at the start of shooting.
When each photographing apparatus is set to the synchronous mode after the power is turned on (corresponding to step S10 in FIG. 7A) (corresponding to step S11 in FIG. 7A), the network 102 photographs at the same venue. The exposure information is processed and sent to the imaging device that seems to be. The exposure information processing is a conversion for filling in a difference in photometric sensitivity variation or the like by the photographing apparatus. The exposure information held by the photographing apparatus 101a is sent to the photographing apparatus 101b (corresponding to step S112 in FIG. 7A).
実施例1に記載したように、これにより撮影装置101aと撮影装置101bで同じ露出情報を共有し、同期の実現が達成される。 As described in the first exemplary embodiment, the same exposure information is shared by the photographing apparatus 101a and the photographing apparatus 101b, thereby achieving synchronization.
各撮影装置は、実施例1と同様に、露出情報の変化によるタイミングを取得してメタ情報として格納する(図7(a)のステップS13からステップS18に対応。ただし撮影動作の詳細は実施例1に記載したので省略した。)。 Each image capturing apparatus acquires the timing according to the change of exposure information and stores it as meta information in the same manner as in the first embodiment (corresponding to steps S13 to S18 in FIG. 7A. However, details of the image capturing operation are described in the embodiment. It was omitted because it was described in 1.).
さらに各撮影装置は前述のメタ情報が付された映像をネットワーク102に送出する。(図7(a)のステップS118に対応)ネットワーク102はこれらの画像を解析し、実施例1に示したように、露出情報の変化によるタイミングを利用してフレーム単位での同期を実現する(図7(b)の動作に対応)。 Further, each photographing apparatus transmits the video with the above-described meta information to the network 102. (Corresponding to step S118 in FIG. 7A) The network 102 analyzes these images, and realizes synchronization in units of frames using the timing based on the change of the exposure information as shown in the first embodiment ( Corresponding to the operation of FIG.
以上に説明したように、本実施例によると、簡易な構成で複数の端末の同期をとることを可能にした同期システムを提供することが出来る。 As described above, according to this embodiment, it is possible to provide a synchronization system that enables synchronization of a plurality of terminals with a simple configuration.
本実施例の同期システムは複数の撮影装置から得られる複数の画像、音声情報を容易に編集、合成し、より高い品質の情報をクラウドやサーバーなどから取得する為のシステムである。 The synchronization system of the present embodiment is a system for easily editing and synthesizing a plurality of image and audio information obtained from a plurality of photographing devices and acquiring higher quality information from a cloud or a server.
1.撮影装置
7.アンテナ
13.AEセンサ
25.カメラシステム制御
26.通信手段
1. 6. Imaging device Antenna 13. AE sensor 25. Camera system control 26. Communication means
Claims (6)
前記同期手段は映像フレーム同期手段と音声同期手段からなり、
前記映像フレーム同期手段はメタ情報の変遷パターンの比較からずれ量を得て同期する
前記音声同期手段はフレーム単位で同期した音声信号で相関演算等を行い、同期することを特徴とする請求項1に記載の同期システム。 Meta information detection means for recognizing, storing, and comparing meta information transition patterns for each frame;
The synchronizing means comprises a video frame synchronizing means and an audio synchronizing means,
2. The video frame synchronization means synchronizes by obtaining a shift amount from comparison of transition patterns of meta information, and the audio synchronization means synchronizes by performing a correlation operation or the like on an audio signal synchronized on a frame basis. The synchronization system described in 1.
ネットワークまたは撮影装置との通信を行う通信手段と、
前記メタ情報を元に複数端末で撮影された映像或いは音声の同期を行う同期手段と、
を備えた同期システム。 A conversion means for expanding video captured by a plurality of terminals into a common format;
A communication means for communicating with a network or a photographing device;
Synchronization means for synchronizing video or audio captured by a plurality of terminals based on the meta information;
Synchronous system with
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013236746A JP2015097319A (en) | 2013-11-15 | 2013-11-15 | Synchronization system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013236746A JP2015097319A (en) | 2013-11-15 | 2013-11-15 | Synchronization system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015097319A true JP2015097319A (en) | 2015-05-21 |
Family
ID=53374435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013236746A Pending JP2015097319A (en) | 2013-11-15 | 2013-11-15 | Synchronization system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015097319A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024052964A1 (en) * | 2022-09-05 | 2024-03-14 | 日本電信電話株式会社 | Video synchronization device, video synchronization method, and video synchronization program |
-
2013
- 2013-11-15 JP JP2013236746A patent/JP2015097319A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024052964A1 (en) * | 2022-09-05 | 2024-03-14 | 日本電信電話株式会社 | Video synchronization device, video synchronization method, and video synchronization program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8587691B2 (en) | Photographing apparatus and method for dynamic range adjustment and stereography | |
US10085010B2 (en) | Imaging system for capturing an image of the same object using a plurality of image capturing apparatuses that can communicate with each other | |
KR101720190B1 (en) | Digital photographing apparatus and control method thereof | |
US9264630B2 (en) | Method and apparatus for creating exposure effects using an optical image stabilizing device | |
KR20130069123A (en) | Image pickup apparatus, method for providing composition of pickup and computer-readable recording medium | |
CN110169042B (en) | Method and apparatus for synchronizing camera flash with sensor blanking | |
JP6218496B2 (en) | Imaging apparatus and imaging method | |
KR102375688B1 (en) | Imaging device, shooting system and shooting method | |
EP2461592A2 (en) | A timing solution for projector camera devices and systems | |
CN104954644A (en) | Photographing apparatus, image pickup and observation apparatus, image comparison and display method, and image comparison and display system | |
CN104660909A (en) | Image acquisition method, image acquisition device and terminal | |
JP2019197089A (en) | Imaging device and light-emitting device, control method thereof, and program | |
JP2013229856A (en) | Image processing apparatus, imaging apparatus, server apparatus, and computer program | |
CN115514883A (en) | Cross-device collaborative shooting method, related device and system | |
JP2012204953A (en) | Imaging system, illumination device, and camera | |
JP6337431B2 (en) | System, server, electronic device and program | |
JP5800664B2 (en) | Imaging apparatus and control method thereof | |
JP2006323282A (en) | Photographic apparatus | |
JP2012114655A (en) | Object tracking camera system | |
JP2011217334A (en) | Imaging apparatus and method of controlling the same | |
JP2015097319A (en) | Synchronization system | |
JP2005037490A (en) | Digital camera | |
JP4259960B2 (en) | Imaging apparatus and information transmission system | |
JP2021189341A (en) | Imaging apparatus, control method, and program | |
JP2016085248A (en) | Exposure computation device |