WO2021044621A1 - 情報処理方法、情報処理装置、およびプログラム - Google Patents

情報処理方法、情報処理装置、およびプログラム Download PDF

Info

Publication number
WO2021044621A1
WO2021044621A1 PCT/JP2019/035246 JP2019035246W WO2021044621A1 WO 2021044621 A1 WO2021044621 A1 WO 2021044621A1 JP 2019035246 W JP2019035246 W JP 2019035246W WO 2021044621 A1 WO2021044621 A1 WO 2021044621A1
Authority
WO
WIPO (PCT)
Prior art keywords
time
elapsed time
information processing
moving image
photographing device
Prior art date
Application number
PCT/JP2019/035246
Other languages
English (en)
French (fr)
Inventor
斎藤 康人
Original Assignee
ローランド株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ローランド株式会社 filed Critical ローランド株式会社
Priority to PCT/JP2019/035246 priority Critical patent/WO2021044621A1/ja
Priority to US17/629,767 priority patent/US11706504B2/en
Priority to JP2021543921A priority patent/JP7130144B2/ja
Publication of WO2021044621A1 publication Critical patent/WO2021044621A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • H04N23/662Transmitting camera control signals through networks, e.g. control via the Internet by using master/slave camera arrangements for affecting the control of camera image capture, e.g. placing the camera in a desirable condition to capture a desired image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Definitions

  • the present invention relates to a technique for synchronizing images taken by a plurality of devices.
  • Patent Document 1 describes a method of detecting a signal, determining the amount of deviation between images, and performing alignment.
  • Patent Document 1 it is necessary to capture a signal phenomenon (for example, the movement or sound of a clapperboard) with all the photographing devices.
  • a signal phenomenon for example, the movement or sound of a clapperboard
  • the device cannot be used in scenes where it is difficult to give a signal, such as a concert or a recital.
  • the present invention has been made in consideration of the above problems, and an object of the present invention is to provide a technique for synchronizing between captured images in a system for photographing a recording target using a plurality of photographing devices.
  • the first photographing device and the second photographing device are both devices for photographing an object.
  • the first photographing device acquired the first elapsed time indicating the elapsed time from the start of recording, and requested the second photographing device to transmit the second elapsed time, which was obtained. Compare the elapsed time with the first elapsed time. Further, the time required for the inquiry is used to calculate the shift time (offset time) between the moving images.
  • the transmission request for the elapsed time can be made at any time when the first and second photographing devices are recording. For example, it may be executed at the start of recording, or may be executed periodically during recording.
  • the generation step of synchronizing the first moving image and the second moving image by using the offset time and synthesizing the synchronized moving images to generate a third moving image is further included. It may be characterized by that.
  • the first shooting is based on the second acquisition step of acquiring the time required to receive the second elapsed time, the first elapsed time, the second elapsed time, and the required time.
  • the own device executes the calculation step of calculating the offset time for synchronizing the first moving image recorded by the device and the second moving image recorded by the second photographing device.
  • the transmission step of acquiring the second elapsed time and transmitting the second elapsed time to the first photographing device is executed in response to the request.
  • problems in shooting a performance with a plurality of devices will be described with reference to FIG. 3 (A).
  • One of the problems is that the timing at which each shooting device starts recording is not the same.
  • the illustrated video source A starts at time 1, but the video source B starts at the timing when time 1 has passed. That is, the heads of the video source A and the video source B do not match. This is because the timing at which the photographing devices start recording does not match each other. If editing is performed without matching the times, the timings of the images do not match each other, causing problems such as giving the viewer a sense of discomfort.
  • the information processing device 100 includes a control unit 101, an auxiliary storage device 102, a main storage device 103, an input / output unit 104, a camera 105, a microphone 106, and a communication unit 107. These means are driven by power supplied by a rechargeable battery.
  • the control unit 101 is an arithmetic unit that controls the control performed by the information processing device 100.
  • the control unit 101 is composed of, for example, a CPU (Central Processing Unit) or the like. Specifically, the control unit 101 performs a process of recording an object using the camera 105 and the microphone 106, which will be described later. Further, the control unit 101 processes to acquire the elapsed time (time stamp) from the start of recording, and the video sources acquired by the plurality of information processing devices 100 based on the time stamps acquired from the plurality of information processing devices 100. Executes processing such as calculating the offset time. Details of the processing will be described later with reference to the drawings.
  • a CPU Central Processing Unit
  • the communication unit 107 is an interface for wirelessly communicating with another information processing device 100.
  • the communication unit 107 is configured to be capable of transmitting and receiving data to and from another information processing device 100 according to wireless communication standards such as IEEE802.11 and Bluetooth (registered trademark).
  • the control unit 101 changes the operation content depending on whether the information processing device 100 operates as a master device or a slave device.
  • the user of the information processing device 100 specifies in advance whether to operate the device as a master device or a slave device. Further, at this time, the master device and the slave device may be paired.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

複数の撮影装置を用いた撮影システムにおいて、映像間の同期を取る。第一の撮影装置および第二の撮影装置を用いて対象物を撮影する映像システムにおいて、第一の撮影装置が実行する情報処理方法。第一の撮影装置が録画を開始してからの経過時間を表す第一の経過時間を取得するステップと、前記第二の撮影装置に対して、前記第二の撮影装置が録画を開始してからの経過時間を表す第二の経過時間の送信を要求し、前記第二の経過時間を受信するステップと、前記要求を行ってから、前記第二の経過時間を受信するまでの所要時間を取得するステップと、前記第一の経過時間と、前記第二の経過時間と、前記所要時間と、に基づいて、前記第一の撮影装置によって録画された第一の動画像と、前記第二の撮影装置によって録画された第二の動画像とを同期させるためのオフセット時間を算出するステップと、を含む。

Description

情報処理方法、情報処理装置、およびプログラム
 本発明は、複数の装置で撮影した映像の同期を取る技術に関する。
 アーティストやミュージシャンの歌唱や演奏を複数のアングルで撮影し、得られた映像を繋ぎ合わせることで一本のミュージックビデオを作成する手法が知られている。かかる手法においては、異なるアングルで配置された複数のカメラによって映像を撮影し、編集によって複数の映像をつなぎ合わせる必要がある。
 複数のカメラによって対象物を撮影する場合であって、撮影を開始するタイミングがまちまちである場合、何らかの方法によって映像間の同期を取る必要がある。映像間の同期を取る一般的な方法として、カチンコなどによって撮影開始時に合図を入れる手法が多く利用されている。例えば、特許文献1には、合図を検出して映像間のずれ量を判定し、位置合わせを行う方法が記載されている。
特開平6-162736号公報
 特許文献1に記載の装置では、合図となる現象(例えば、カチンコの動きや音)を全ての撮影装置で捉える必要がある。しかし、コンサートや発表会など、合図を入れることが困難なシーンでは当該装置を利用することができない。
 本発明は上記の課題を考慮してなされたものであり、複数の撮影装置を用いて記録対象を撮影するシステムにおいて、撮影された映像間の同期を取る技術を提供することを目的とする。
 本発明に係る情報処理方法は、
 第一の撮影装置および第二の撮影装置を用いて対象物を撮影する映像システムにおいて、前記第一の撮影装置が実行する情報処理方法であって、前記第一の撮影装置が録画を開始してからの経過時間を表す第一の経過時間を取得する第一取得ステップと、前記第二の撮影装置に対して、前記第二の撮影装置が録画を開始してからの経過時間を表す第二の経過時間の送信を要求し、前記第二の経過時間を受信する第二取得ステップと、前記要求を行ってから、前記第二の経過時間を受信するまでの所要時間を取得する第三取得ステップと、前記第一の経過時間と、前記第二の経過時間と、前記所要時間と、に基づいて、前記第一の撮影装置によって録画された第一の動画像と、前記第二の撮影装置によって録画された第二の動画像とを同期させるためのオフセット時間を算出する算出ステップと、を含むことを特徴とする。
 第一の撮影装置と、第二の撮影装置は、ともに対象物を撮影する装置である。このうち、第一の撮影装置は、録画開始からの経過時間を表す第一の経過時間を取得するとともに、第二の撮影装置に対して第二の経過時間の送信を要求し、得られた経過時間と、第一の経過時間とを比較する。さらに、問い合わせに要した時間を用いて、動画像間におけるずれ時間(オフセット時間)を算出する。経過時間の送信要求は、第一および第二の撮影装置が録画を行っている任意のタイミングで行うことができる。例えば、録画開始時に実行してもよいし、録画中において周期的に実行してもよい。第一の撮影装置によって録画された第一の動画像と、第二の撮影装置によって録画された第二の動画像との間のオフセット時間を取得することで、複数の動画像間を編集する際のずれ量を算出することができる。
 なお、本願において、オフセット時間とは、動画像同士の絶対時刻のずれ量を指し、同期とは、編集の過程において、動画像同士の絶対時刻を一致させることを指す。
 また、前記第一の経過時間をT1、前記第二の経過時間をT2、前記所要時間をT3とした場合に、前記算出ステップでは、T1+(T3/2)と、T2との差を、前記オフセット時間とすることを特徴としてもよい。かかる構成によると、簡便な処理でオフセット時間を算出することができる。
 また、前記第一の撮影装置が、前記第二の撮影装置から前記第二の動画像を取得し、前記オフセット時間と関連付けて記憶することを特徴としてもよい。
 動画像とオフセット時間とを互いに関連付けて記憶することで、従となる撮影装置(第二の撮影装置)が2台以上に増えた場合や、録画を繰り返した場合であっても、適切に管理を行うことができる。
 また、前記オフセット時間を用いて、前記第一の動画像と前記第二の動画像の同期を取り、前記同期後の動画像を合成して第三の動画像を生成する生成ステップをさらに含むことを特徴としてもよい。
 例えば、編集の過程において、各動画像をタイムライン上に配置する際に、互いにオフセット時間だけずらすことで、動画像間の同期を取ることができる。
 また、所定の時間幅内において、前記オフセット時間の算出を周期的に行い、得られた複数の前記オフセット時間の代表値を取得するステップをさらに含み、前記算出ステップでは、前記代表値を、前記所定の時間幅内における前記第一の動画像と前記第二の動画像とのオフセット時間とすることを特徴としてもよい。
 第一の撮影装置と第二の撮影装置が、互いに異なるクロックによって動作しているような場合、先頭が同期していても、時間の経過とともにずれ幅が拡大してしまう場合がある。これに対応するため、オフセット時間の算出を、録画中において複数回行うようにしてもよい。
 例えば、周期的にオフセット時間の算出を行ったうえで、所定の時間幅(例えば30秒)内における複数のオフセット時間の代表値(例えば平均値)を求める。この代表値を、所定の時間幅内(例えば30秒間)におけるオフセット時間として扱うことで、ずれ時間の補正を適切に行うことが可能になる。
 また、本発明の別形態に係る情報処理方法は、
 第一の撮影装置および第二の撮影装置を用いて対象物を撮影する映像システムにおいて、前記第一の撮影装置および前記第二の撮影装置として動作可能な情報処理装置が実行する情報処理方法であって、自装置が前記第一の撮影装置である場合に、前記第一の撮影装置が録画を開始してからの経過時間を表す第一の経過時間を取得する第一取得ステップと、前記第二の撮影装置に対して、前記第二の撮影装置が録画を開始してからの経過時間を表す第二の経過時間の送信を要求する要求ステップと、前記要求を行ってから、前記第二の経過時間を受信するまでの所要時間を取得する第二取得ステップと、前記第一の経過時間と、前記第二の経過時間と、前記所要時間と、に基づいて、前記第一の撮影装置によって録画された第一の動画像と、前記第二の撮影装置によって録画された第二の動画像とを同期させるためのオフセット時間を算出する算出ステップと、を実行し、自装置が前記第二の撮影装置である場合に、前記要求に応じて、前記第二の経過時間を取得して前記第一の撮影装置に送信する送信ステップと、を実行することを特徴とする。
 なお、本発明は、上記ステップの少なくとも一部を含む情報処理方法として特定することができる。また、前記情報処理方法を実行する情報処理装置として特定することもできる。また、前記方法を実行させるためのプログラムや、当該プログラムが記録された非一時的記憶媒体として特定することもできる。上記処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
映像処理システムの全体構成図である。 複数の映像ソースを結合して出力する例である。 従来技術の問題点を説明する図である。 情報処理装置のハードウェア構成図である。 情報処理装置(制御部)のモジュール構成図である。 マスタ装置とスレーブ装置が行う処理のフロー図である。 マスタ装置とスレーブ装置が行う処理のフロー図である。 タイムスタンプおよび通信所要時間の関係を示した図である。 マスタ装置に記憶されるオフセット情報の例である。 マスタ装置によって提供される編集画面の例である。 第二の実施形態でマスタ装置が行う処理を説明する図である。 第二の実施形態で生成されるオフセット情報の例である。 第二の実施形態における補正タイミングを説明する図である。
(第一の実施形態)
 本実施形態に係る映像処理システムは、奏者による楽器の演奏を複数台の装置で撮影し、取得した映像を編集して出力するシステムである。本実施形態に係る映像処理システムは、カメラを有する複数の携帯型コンピュータ(タブレットコンピュータ)によって対象の撮影を行い、そのうちの一台によって映像の編集を行う。
 図1に、本実施形態に係る映像処理システムの構成図を示す。
 情報処理装置100Aおよび100Bは、楽器を演奏する奏者を撮影する装置である。情報処理装置100Aおよび100Bは、カメラおよびマイクを内蔵しており、それぞれ異なるアングルから奏者を捉えることができる。
 なお、以下の説明において、情報処理装置100Aは、映像の録画等を行うとともに、複数台の情報処理装置を統括する装置として機能し、情報処理装置100Bは、情報処理装置100Aから得た指示に従って映像の録画等を行う装置として機能する。本明細書では、前者をマスタ装置、後者をスレーブ装置と称する。
 なお、マスタ/スレーブの区別をする必要が無い場合、単に情報処理装置100と総称する。情報処理装置100は、撮影装置とも呼ばれる。
 本実施形態に係る情報処理装置100は、マスタ装置、スレーブ装置のいずれかとして動作可能である。
 マスタ装置は、自装置とスレーブ装置の双方に対して録画の開始および終了を指示し、録画終了後に、スレーブ装置によって録画された映像ソースを取得する。さらに、マスタ装置は、取得した複数の映像ソースを、ユーザの操作に基づいて再編成し、出力することができる。具体的には、図2に示したように、取得した複数の映像ソースを結合し、出力する。
 次に、複数の装置によって演奏を撮影する場合における問題点について、図3(A)を参照しながら説明する。
 問題点の一つに、それぞれの撮影装置が録画を開始するタイミングが同時ではないという点がある。例えば、図示した映像ソースAは、時刻1から始まっているが、映像ソースBは、時刻1を経過したタイミングから始まっている。すなわち、映像ソースAと映像ソースBの先頭が一致していない。これは、撮影装置が録画を開始するタイミングが互いに一致していないことに起因する。時刻を一致させないまま編集を行うと、互いの映像のタイミングが一致せず、視聴者に違和感を与えるなどの問題が発生してしまう。
 第一の実施形態に係る情報処理装置100Aは、この問題を解決するため、映像の録画中において情報処理装置100Bと通信を行い、映像ソース間のずれ時間に関する情報を収集する。また、編集の過程において、当該情報を用いて自動的に映像ソース間のずれを補正する。
 次に、情報処理装置100のハードウェア構成について説明する。
 情報処理装置100は、制御部101、補助記憶装置102、主記憶装置103、入出力部104、カメラ105、マイク106、通信部107を有して構成される。これらの手段は、充電式のバッテリから供給される電力によって駆動される。
 制御部101は、情報処理装置100が行う制御を司る演算装置である。制御部101は、例えば、CPU(Central Processing Unit)等によって構成される。
 具体的には、制御部101は、後述するカメラ105およびマイク106を用いて対象物を録画(録音)する処理を行う。さらに、制御部101は、録画開始からの経過時間(タイムスタンプ)を取得する処理、複数の情報処理装置100から取得したタイムスタンプに基づいて、複数の情報処理装置100が取得した映像ソース間のオフセット時間を算出する処理などを実行する。処理の詳細については、図面を参照しながら後述する。
 補助記憶装置102は、書き換え可能な不揮発性メモリである。補助記憶装置102には、制御部101において実行される制御プログラムや、当該制御プログラムが利用するデータが記憶される。また、補助記憶装置102には、録画された映像ファイルが記録される。当該映像ファイルは、制御部101の指示によって読み出され、他の装置への送信または編集の用に供される。
 主記憶装置103は、制御部101によって実行される制御プログラムや、当該制御プログラムが利用するデータが展開されるメモリである。補助記憶装置102に記憶されたプログラムが主記憶装置103にロードされ、制御部101によって実行されることで、以降に説明する処理が行われる。また、主記憶装置103は、録画の過程においてデータを一時的に記憶する。
 入出力部104は、ユーザに対して情報を提示し、また、ユーザからの操作を受け付ける複数のインタフェース装置を含む。入出力部104は、例えば、タッチパネルディスプレイとその制御ユニットから構成される。
 カメラ105は、対象物を撮影するためのカメラユニットである。カメラ105は、装置の前面または背面に配置される。カメラ105は、切り替え可能な複数のカメラユニットを含んでいてもよい。
 マイク106は、音声を取得するためのユニットである。
 通信部107は、他の情報処理装置100と無線通信を行うためのインタフェースである。通信部107は、例えば、IEEE802.11、Bluetooth(登録商標)などの無線通信規格によって、他の情報処理装置100とのデータの送受信が可能となるように構成される。
 次に、制御部101が行う処理について説明する。
 図5は、情報処理装置100が有する制御部101によって実行される処理を機能ブロックによって表した図である。制御部101は、機能ブロックとして、録画部1011、他装置制御部1012、オフセット算出部1013、動画管理部1014の4つを有している。
 制御部101は、情報処理装置100がマスタ装置として動作する場合と、スレーブ装置として動作する場合とで、その動作内容を変更する。
 情報処理装置100のユーザは、事前に、当該装置をマスタ装置として動作させるか、スレーブ装置として動作させるかを指定する。また、この際、マスタ装置とスレーブ装置のペアリングを行うようにしてもよい。
 情報処理装置100がマスタ装置として動作する場合、制御部101は、自装置における録画の制御と、スレーブ装置に対する録画の制御を行う。また、自装置のタイムスタンプと、スレーブ装置のタイムスタンプの双方を取得し、映像ソース間のオフセット時間を算出する制御を行う。さらに、スレーブ装置から、当該スレーブ装置によって録画された映像ファイルを取得し、算出したオフセット時間を用いて、複数の映像ソースの編集を行う制御などを実行する。
 情報処理装置100がスレーブ装置として動作する場合、制御部101は、マスタ装置からの指示に基づき、録画の開始および終了を行う。また、マスタ装置からの指示に基づき、自装置のタイムスタンプを取得し、マスタ装置に送信する。
 以下、前述した機能を実行するための、モジュールの役割分担について説明する。
 録画部1011は、自装置が有するカメラ105およびマイク106を用いて映像および音声を取得する。
 自装置がマスタ装置である場合、録画部1011は、入出力部104を介して行われたユーザの操作に基づいて、録画の開始および終了を行う。
 また、自装置がスレーブ装置である場合、録画部1011は、マスタ装置から送信された指示に基づいて、録画の開始および終了を行う。
 取得された映像および音声は、所定のフォーマットに変換され、映像ファイルとして補助記憶装置102に記録される。
 他装置制御部1012は、スレーブ装置である他の情報処理装置100に対して、録画の開始および終了を指示する。他装置制御部1012は、スレーブ装置に関する情報を予め有しており、マスタ装置である自装置が録画を開始した場合に、スレーブ装置に対して録画の開始を指示する。また、自装置が録画を終了した場合に、スレーブ装置に対して録画の終了を指示する。また、スレーブ装置における録画が終了した際に、映像ファイルをスレーブ装置から自装置に転送する。
 オフセット算出部1013は、マスタ装置である自装置によって録画された映像ソースと、スレーブ装置である他装置によって録画された映像ソースとのずれ量(オフセット)を算出する。具体的な方法については後述する。
 動画管理部1014は、スレーブ装置である他の情報処理装置100によって録画された映像ソースと、マスタ装置である自装置によって録画された映像ソースを用いて編集を実行する。
 動画管理部1014は、入出力部104を介して映像編集画面をユーザに提供し、ユーザが行った操作に基づいて映像ソースの編集を実行する。編集後の映像は補助記憶装置102に記憶されるが、通信部107を介して装置の外部に送信することもできる。
 次に、第一の実施形態に係る映像処理システムが、対象物の録画を行う処理について説明する。
 ここでは、マスタ装置として情報処理装置100A、スレーブ装置として情報処理装置100Bを用い、二台の装置によって撮影を行う例を述べる。図6は、マスタ装置である情報処理装置100Aと、スレーブ装置である情報処理装置100Bが行う処理、および、各装置間で送受信されるデータの流れを示したフロー図である。
 ステップS11Aで、ユーザが、マスタ装置の入出力部104を介して録画を開始する操作を行うと、ステップS11Bで、録画部1011が録画を開始する。
 また、他装置制御部1012が、スレーブ装置に対して、録画の開始を指示する信号(録画開始要求)を送信する(ステップS12)。スレーブ装置が有する録画部1011は、当該信号を受信すると、マスタ装置と同様に録画を開始する(ステップS13)。なお、ここで、スレーブ装置からマスタ装置に対して、正常に録画が開始された旨の応答を送信してもよい。
 ここで、マスタ装置によって録画された映像と、スレーブ装置によって録画された映像のオフセットを算出する処理について説明する。図7は、映像間のオフセットを算出する処理のフロー図である。当該処理は、全ての装置が録画を開始した後で、マスタ装置のオフセット算出部1013によって実行される。
 まず、ステップS21で、自装置が録画を開始してからの経過時間(タイムスタンプ)を取得する。経過時間は、例えば、録画部1011が管理している時刻情報を参照することで取得することができる。ここで取得されたタイムスタンプをT1とする。
 次に、ステップS22で、スレーブ装置に対して、タイムスタンプの送信を要求する信号(タイムスタンプ要求)を送信する。また、当該信号を送信したタイミングで、通信所要時間の計測を開始する。通信所要時間とは、スレーブ装置に対してタイムスタンプ要求を送信してから、実際にタイムスタンプを受信するまでに要した時間である。
 スレーブ装置が有するオフセット算出部1013は、タイムスタンプ要求を受信すると、自装置が録画を開始してからの経過時間(タイムスタンプ)を取得する(ステップS23)。ここで取得されたタイムスタンプをT2とする。タイムスタンプT2は、ステップS24でマスタ装置に対して送信される。
 マスタ装置がタイムスタンプT2を受信すると、通信所要時間の計測を終了させる(ステップS25)。ここで得られた時間を、通信所要時間T3とする。
 このようにして得られたT1,T2,T3の関係を図示すると、図8のようになる。
 ステップS26では、得られたT1,T2,T3に、式(1)を適用する。ここで得られた時間ΔTが、マスタ装置によって録画された映像と、スレーブ装置によって録画された映像とのずれ時間(オフセット時間)となる。
 ΔT=T1+(T3/2)-T2 ・・・式(1)
 算出されたオフセット時間ΔTは、オフセット算出部1013によって一時的に記憶される。
 図6に戻り、説明を続ける。
 ステップS14Aで、ユーザが、マスタ装置の入出力部104を介して録画を終了する操作を行うと、ステップS14Bで、録画部1011が録画を停止する。
 また、他装置制御部1012が、スレーブ装置に対して、録画の停止を指示する信号(録画終了要求)を送信する(ステップS15)。スレーブ装置が有する録画部1011は、当該信号を受信すると、マスタ装置と同様に録画を停止する(ステップS16)。なお、ここで、スレーブ装置からマスタ装置に対して、正常に録画が停止した旨の応答を送信してもよい。
 録画が正常に終了すると、マスタ装置の他装置制御部1012が、スレーブ装置から、映像ファイルを受信する(ステップS17)。なお、本ステップは、録画が終了した際に自動的に実行してもよいが、ユーザの指示に基づいて実行するようにしてもよい。
 次に、ステップS18で、マスタ装置のオフセット算出部1013が、以下の情報を記憶する。
・マスタ装置が録画した映像ファイルのファイル名
・スレーブ装置が録画した映像ファイルのファイル名
・マスタ装置が取得したタイムスタンプ(T1)
・スレーブ装置が取得したタイムスタンプ(T2)
・通信所要時間(T3)
・算出されたオフセット(ΔT)
 オフセット算出部1013は、映像ファイルとともに、これらの情報(以下、オフセット情報)を補助記憶装置102に記憶する。図9は、ステップS18でマスタ装置に記憶されるオフセット情報の例である。
 映像ファイルの転送およびオフセット情報の取得が完了すると、マスタ装置(動画管理部1014)による動画の編集が可能になる。動画管理部1014は、複数の動画ファイルをタイムライン上に配置し、ユーザからの編集操作を受け付ける。
 図10は、情報処理装置100Aのユーザに提供される編集画面の例である。
 編集画面は、ソース画面およびコントロールボタン等が出力されるエリア1001と、タイムラインが出力されるエリア1002を含んで構成される。本例では、複数の映像ソースにそれぞれレイヤーが一つずつ割り当てられ、レイヤー間のトランジション(例えば、クロスディゾルブ、ホワイトアウト、ブラックアウト、ワイプ、押し出し、アイリスなど)や、マルチアングル化の指定が可能になっている。
 当該画面で編集を行った後、ユーザが出力操作を行うと、編集内容が反映された映像が最終的に出力される。なお、出力時の音声トラックは、いずれかの映像ソースに含まれるものを使用することができる。例えば、マスタ装置が収録した音声を、全体の音声ソースとして採用することができる。
 本実施形態では、オフセット情報に定義された複数のファイルがタイムライン上に配置された場合に、動画管理部1014が、双方の映像ソースが同期するようにその配置位置を調整する。
 図9に示したオフセット情報を例に説明する。この場合、映像ファイル「MOV0001A」に含まれる映像ソースと、「MOV0001B」に含まれる映像ソースとの間に0.25秒のオフセット時間が存在することを示している。この場合、タイムラインに「MOV0001A」と「MOV0001B」に対応する映像ソースが配置された時点で、いずれか(好ましくは後から配置した映像ソース)の開始時間を、オフセット時間の分だけずらす。例えば、図10の例では、「MOV0001B」に対応する映像ソースを後方に0.25秒(符号1003)だけずらして配置する。換言すると、「MOV0001B」に対応する映像ソースの先頭に、空白時間を挿入する。なお、オフセット値がマイナスであった場合、映像を一部カットしてもよい。
 第一の実施形態では、動画管理部1014がこのような処理を行うことで、複数の映像ソース間の同期を取る。
 なお、オフセット時間に対応する空白時間は、ユーザが判別できるようにグラフィカルに示してもよい。また、双方の映像ソースが同期している場合、その旨を示すインジケータを画面に表示するようにしてもよい。
 また、映像ソースのそれぞれは、タイムライン上の任意の位置に移動可能としてもよい。さらに、ある映像ソースが移動された場合に、対となる他の映像ソースを追従させてもよい。すなわち、オフセット時間が保持されるように、映像ソース間の相対位置を自動的に保つようにしてもよい。
 以上説明したように、第一の実施形態によると、マスタ装置とスレーブ装置が対象物を撮影するシステムにおいて、装置同士が互いに通信を行うことで、映像ソース間のオフセット時間を取得し、かつ、編集の過程において、算出したオフセット時間に基づいて映像ソースの位置を自動的に補正する。かかる構成によると、録画を開始したタイミングが装置間でまちまちな状況であっても、映像ソース間の同期をとることができる。
 なお、第一の実施形態では、オフセット時間の算出を一回のみ実行したが、オフセット時間の算出は複数回実行してもよい。この場合、図7に示した処理を複数回行い、得られたオフセット時間の代表値(例えば、平均値)を取得してもよい。装置間の通信所要時間は非常に短いため、一回の通信のみでは正確なオフセット時間が算出できない場合があるが、オフセット時間の算出を複数回行って代表値を得ることで、その精度を向上させることができる。
(第二の実施形態)
 第一の実施形態では、マスタ装置とスレーブ装置の双方が録画を開始した後で、マスタ装置が図7に示した処理を実行することでオフセット時間を取得した。しかし、当該形態では十分に映像ソース間の同期を取ることができないケースが存在する。
 この問題について、図3(B)を参照しながら説明する。
 問題の一つに、撮影装置間でクロックが同期していないという点がある。例えば、図示した映像ソースAを取得する撮影装置と、映像ソースCを取得する撮影装置は、別々のクロックによって動作しているため、計時能力に差があり、これに起因した時間のずれが発生しうる。例えば、同一の長さ(10分0秒)の演奏を録画したにもかかわらず、ある撮影装置は9分59秒を計時し、別の撮影装置は10分1秒を計時するといったケースが生ずる。このずれに対処しないと、時間の経過とともに(例えば、楽曲の進行とともに)ずれ幅が拡大するといった問題が発生してしまう。
 第二の実施形態は、これに対応するため、第一の実施形態で述べたオフセット時間の取得処理を周期的に実行する。
 第二の実施形態では、マスタ装置が、ステップS13とステップS14Aの間で、図7に示した処理を、所定の周期(以下、第一の周期)ごとに実行し、オフセット時間に関する情報を蓄積する。
 この結果、第一の周期ごとに複数のオフセット時間が取得される。第二の実施形態では、このようにして得られた複数のオフセット時間を、さらに第二の周期ごとに統合し、その代表値を取得する。図11は、第一の周期と第二の周期との関係を示した図である。
 図12は、第一の周期ごとに取得された複数のオフセット時間を示した図である。本例では、オフセット時間の算出処理を5秒ごとに実行し、その代表値を30秒ごとに取得する。代表値は、例えば、平均値や中央値を採用することができる。そして、このようにして取得したオフセット時間の代表値を、第二の周期におけるずれ時間として扱う。図示した例の場合、オフセット時間の平均値0.3秒が、30秒間におけるオフセット時間の代表値として扱われる。
 第一の実施形態では、符号1003に示した時間を挿入することで映像ソース間の同期を取った。すなわち、映像ソースの位置補正を一回のみ行った。これに対し、第二の実施形態では、映像ソースの切り替えを行うタイミングごとに、映像ソースの位置補正を実施する。これは、時間の経過とともにずれ幅が拡大してしまうため、一回の補正のみでは十分な効果を得ることができないためである。
 図13は、補正を行うタイミングを説明する図である。本例では、新たな映像が画面に現れるタイミングで、当該映像の位置を補正する。具体的には、符号1301で示したタイミングで映像ソースBの位置を補正し、符号1302で示したタイミングで映像ソースCの位置を補正する。符号1301で示したタイミングでは、周期2に対応するオフセット時間を用いて補正を行い、符号1302で示したタイミングでは、周期3に対応するオフセット時間を用いて補正を行う。補正は、オフセット時間が正値であった場合は空白時間を挿入することで行ってもよいし、負値であった場合は映像の一部をカットすることで行ってもよい。
 以上に説明したように、第二の実施形態によると、第一の周期ごとにオフセット時間を周期的に算出したうえで、当該オフセット時間の代表値を用いて映像ソースの位置補正を行う。かかる構成によると、時間の経過とともにずれが拡大してしまうようなケースにも対応することができる。
 なお、第二の実施形態では、第一の周期ごとに算出したオフセット時間の代表値を第二の周期ごとに算出したが、オフセット時間の代表値を算出せず、第一の周期ごとに算出したオフセット時間をそのまま用いて、映像ソースの位置補正を行ってもよい。
(変形例)
 上記の実施形態はあくまでも一例であって、本発明はその要旨を逸脱しない範囲内で適宜変更して実施しうる。例えば、例示した各実施形態は組み合わせて実施してもよい。
 また、実施形態の説明では、撮影装置として、カメラを内蔵したタブレットコンピュータを例示したが、撮影装置は他の形態であってもよい。
 また、実施形態の説明では、マスタ装置、スレーブ装置ともに一台である例を示したが、スレーブ装置は複数台であってもよい。この場合、ステップS12~S13、および、S15~S18に示した処理を、スレーブ装置の台数分実行するようにしてもよい。また、図7に示した処理も、同様にスレーブ装置の台数分実行し、オフセット情報をそれぞれ取得するようにしてもよい。この場合、映像ソースの位置補正を、映像ソースのペアごとに実施するようにしてもよい。例えば、マスタ装置によって映像ソースAが取得され、スレーブ装置によって映像ソースBおよびCが取得された場合、映像ソースAを基準として、映像ソースBおよびCの位置をそれぞれ補正するようにしてもよい。
 さらに、実施形態の説明では、マスタ装置が主体となって、全てのスレーブ装置についてのオフセット時間を管理したが、必ずしも、撮影装置を兼ねる一台のマスタ装置がオフセット時間を管理する必要はない。例えば、複数の情報処理装置が分散してオフセット時間の管理を行ってもよいし、複数台の撮影装置を管理する(撮影機能を有さない)サーバ装置が、オフセット時間を算出および管理してもよい。
 また、映像の編集も、必ずしもマスタ装置によって実行される必要はない。例えば、複数台の撮影装置を管理するサーバ装置が、複数の情報処理装置から映像ソースを受信し、編集を実行するようにしてもよい。
 また、実施形態の説明では、図8に示したように、タイムスタンプT2が示す時刻が、通信所要時間T3の半分に該当するタイミングに存在するものと仮定したが、必ずしもこの形態に限られない。例えば、装置内での処理にかかる時間(要求を受信してから応答を返すまでにかかる時間)が既知である場合、当該時間を考慮したうえでオフセット時間を算出してもよい。
 また、実施形態の説明では、マスタ装置がスレーブ装置に対して録画の開始および終了を指示したが、録画の開始および終了は手動で行われてもよい。
 100:情報処理装置 
 101:制御部
 102:補助記憶装置 
 103:主記憶装置
 104:入出力部
 105:カメラ
 106:マイク
 107:通信部

Claims (8)

  1.  第一の撮影装置および第二の撮影装置を用いて対象物を撮影する映像システムにおいて、前記第一の撮影装置が実行する情報処理方法であって、
     前記第一の撮影装置が録画を開始してからの経過時間を表す第一の経過時間を取得する第一取得ステップと、
     前記第二の撮影装置に対して、前記第二の撮影装置が録画を開始してからの経過時間を表す第二の経過時間の送信を要求し、前記第二の経過時間を受信する第二取得ステップと、
     前記要求を行ってから、前記第二の経過時間を受信するまでの所要時間を取得する第三取得ステップと、
     前記第一の経過時間と、前記第二の経過時間と、前記所要時間と、に基づいて、前記第一の撮影装置によって録画された第一の動画像と、前記第二の撮影装置によって録画された第二の動画像とを同期させるためのオフセット時間を算出する算出ステップと、
     を含むことを特徴とする、情報処理方法。
  2.  前記第一の経過時間をT1、前記第二の経過時間をT2、前記所要時間をT3とした場合に、
     前記算出ステップでは、T1+(T3/2)と、T2との差を、前記オフセット時間とする
     ことを特徴とする、請求項1に記載の情報処理方法。
  3.  前記第一の撮影装置が、前記第二の撮影装置から前記第二の動画像を取得し、前記オフセット時間と関連付けて記憶する
     ことを特徴とする、請求項1または2に記載の情報処理方法。
  4.  前記オフセット時間を用いて、前記第一の動画像と前記第二の動画像の同期を取り、前記同期後の動画像を合成して第三の動画像を生成する生成ステップをさらに含む
     ことを特徴とする、請求項3に記載の情報処理方法。
  5.  所定の時間幅内において、前記オフセット時間の算出を周期的に行い、得られた複数の前記オフセット時間の代表値を取得するステップをさらに含み、
     前記算出ステップでは、前記代表値を、前記所定の時間幅内における前記第一の動画像と前記第二の動画像とのオフセット時間とする
     ことを特徴とする、請求項1から4のいずれかに記載の情報処理方法。
  6.  第一の撮影装置および第二の撮影装置を用いて対象物を撮影する映像システムにおいて、前記第一の撮影装置および前記第二の撮影装置として動作可能な情報処理装置が実行する情報処理方法であって、
     自装置が前記第一の撮影装置である場合に、
     前記第一の撮影装置が録画を開始してからの経過時間を表す第一の経過時間を取得する第一取得ステップと、
     前記第二の撮影装置に対して、前記第二の撮影装置が録画を開始してからの経過時間を表す第二の経過時間の送信を要求する要求ステップと、
     前記要求を行ってから、前記第二の経過時間を受信するまでの所要時間を取得する第二取得ステップと、
     前記第一の経過時間と、前記第二の経過時間と、前記所要時間と、に基づいて、前記第一の撮影装置によって録画された第一の動画像と、前記第二の撮影装置によって録画された第二の動画像とを同期させるためのオフセット時間を算出する算出ステップと、を実行し、
     自装置が前記第二の撮影装置である場合に、
     前記要求に応じて、前記第二の経過時間を取得して前記第一の撮影装置に送信する送信ステップと、を実行する
     ことを特徴とする、情報処理方法。
  7.  請求項1から6のいずれかに記載の情報処理方法をコンピュータに実行させるためのプログラム。
  8.  第一の撮影装置および第二の撮影装置を用いて対象物を撮影する映像システムにおいて、前記第一の撮影装置として動作する情報処理装置であって、
     録画を開始してからの経過時間を表す第一の経過時間を取得する第一取得手段と、
     前記第二の撮影装置に対して、前記第二の撮影装置が録画を開始してからの経過時間を表す第二の経過時間の送信を要求し、前記第二の経過時間を受信する第二取得手段と、
     前記要求を行ってから、前記第二の経過時間を受信するまでの所要時間を取得する第三取得手段と、
     前記第一の経過時間と、前記第二の経過時間と、前記所要時間と、に基づいて、自装置によって録画された第一の動画像と、前記第二の撮影装置によって録画された第二の動画像とを同期させるためのオフセット時間を算出する算出手段と、
     を有することを特徴とする、情報処理装置。
PCT/JP2019/035246 2019-09-06 2019-09-06 情報処理方法、情報処理装置、およびプログラム WO2021044621A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2019/035246 WO2021044621A1 (ja) 2019-09-06 2019-09-06 情報処理方法、情報処理装置、およびプログラム
US17/629,767 US11706504B2 (en) 2019-09-06 2019-09-06 Information processing method, information processing device, and recording medium
JP2021543921A JP7130144B2 (ja) 2019-09-06 2019-09-06 情報処理方法、情報処理装置、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/035246 WO2021044621A1 (ja) 2019-09-06 2019-09-06 情報処理方法、情報処理装置、およびプログラム

Publications (1)

Publication Number Publication Date
WO2021044621A1 true WO2021044621A1 (ja) 2021-03-11

Family

ID=74853110

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/035246 WO2021044621A1 (ja) 2019-09-06 2019-09-06 情報処理方法、情報処理装置、およびプログラム

Country Status (3)

Country Link
US (1) US11706504B2 (ja)
JP (1) JP7130144B2 (ja)
WO (1) WO2021044621A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002325216A (ja) * 2001-02-26 2002-11-08 Matsushita Electric Ind Co Ltd 記録システム、映像撮影装置および映像記録方法
JP2004247937A (ja) * 2003-02-13 2004-09-02 Canon Inc 画像撮影装置
JP2004312295A (ja) * 2003-04-04 2004-11-04 Victor Co Of Japan Ltd 画像データ蓄積システム
JP2006180074A (ja) * 2004-12-21 2006-07-06 Sony Corp 画像編集装置、撮像装置、画像編集方法、プログラム
JP2011029969A (ja) * 2009-07-27 2011-02-10 Mitsubishi Electric Corp 映像監視表示装置および映像監視システム
JP2011055294A (ja) * 2009-09-02 2011-03-17 Sony Corp 撮像装置、撮像システム及び撮像方法
JP2013187826A (ja) * 2012-03-09 2013-09-19 Jvc Kenwood Corp 撮像装置、撮像システム、及び撮像方法
JP2016100778A (ja) * 2014-11-21 2016-05-30 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
WO2019053857A1 (ja) * 2017-09-14 2019-03-21 株式会社メディアリンクス 映像伝送システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2698301B2 (ja) 1992-11-18 1998-01-19 パイオニア株式会社 画像記録再生装置
US8264934B2 (en) * 2007-03-16 2012-09-11 Bby Solutions, Inc. Multitrack recording using multiple digital electronic devices
CN117294934A (zh) * 2010-09-13 2023-12-26 康道尔知识产权控股有限责任公司 配置用于远程图像采集控制和观看的便携式数字视频摄像机
US9106353B2 (en) * 2011-12-13 2015-08-11 Jds Uniphase Corporation Time synchronization for network testing equipment
US9544492B2 (en) * 2014-07-17 2017-01-10 EYEDEAS Ltd. Camera network and method of operating thereof
DE102017124984B4 (de) * 2017-10-25 2024-03-07 Tymphany Worldwide Enterprises Limited Synchronisiertes Aufnehmen von Video und Audio mit drahtlos verbundenen Video- und Audioaufnahmevorrichtungen

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002325216A (ja) * 2001-02-26 2002-11-08 Matsushita Electric Ind Co Ltd 記録システム、映像撮影装置および映像記録方法
JP2004247937A (ja) * 2003-02-13 2004-09-02 Canon Inc 画像撮影装置
JP2004312295A (ja) * 2003-04-04 2004-11-04 Victor Co Of Japan Ltd 画像データ蓄積システム
JP2006180074A (ja) * 2004-12-21 2006-07-06 Sony Corp 画像編集装置、撮像装置、画像編集方法、プログラム
JP2011029969A (ja) * 2009-07-27 2011-02-10 Mitsubishi Electric Corp 映像監視表示装置および映像監視システム
JP2011055294A (ja) * 2009-09-02 2011-03-17 Sony Corp 撮像装置、撮像システム及び撮像方法
JP2013187826A (ja) * 2012-03-09 2013-09-19 Jvc Kenwood Corp 撮像装置、撮像システム、及び撮像方法
JP2016100778A (ja) * 2014-11-21 2016-05-30 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
WO2019053857A1 (ja) * 2017-09-14 2019-03-21 株式会社メディアリンクス 映像伝送システム

Also Published As

Publication number Publication date
US11706504B2 (en) 2023-07-18
JP7130144B2 (ja) 2022-09-02
JPWO2021044621A1 (ja) 2021-03-11
US20220417621A1 (en) 2022-12-29

Similar Documents

Publication Publication Date Title
US7239348B2 (en) Digital camera with a music playback function
US10541003B2 (en) Performance content synchronization based on audio
US8264934B2 (en) Multitrack recording using multiple digital electronic devices
US9693137B1 (en) Method for creating a customizable synchronized audio recording using audio signals from mobile recording devices
CN101841649A (zh) 记录带声音的静止图像的数字照相机
JP2017135539A (ja) 収録データ処理方法
JP2012060218A5 (ja)
JP6179257B2 (ja) 音楽作成方法、装置、システム及びプログラム
JP2006339819A5 (ja)
US20220157347A1 (en) Generation of audio-synchronized visual content
WO2008001850A1 (fr) Caméra capable d'enregistrement vidéo
WO2021044621A1 (ja) 情報処理方法、情報処理装置、およびプログラム
JP6229356B2 (ja) 撮像装置、撮像方法及びプログラム
JP6217221B2 (ja) コンテンツ再生方法、装置及びプログラム
JP2011216178A (ja) 再生装置、再生システム及びサーバ
JP2007323710A (ja) 記録制御装置および記録制御方法、並びにプログラム
JP6506493B2 (ja) 仮想現実視聴システム、再生同期方法および仮想現実視聴用プログラム
JP2012159810A (ja) カラオケ装置及び通信カラオケシステム
JP6110731B2 (ja) ジェスチャーによるコマンド入力識別システム
JP7149193B2 (ja) カラオケシステム
US20230046779A1 (en) Synchronized recording of audio and video with wirelessly connected video and audio recording devices
JP5794934B2 (ja) コラボレーション歌唱の録画システム
JP2005006059A (ja) 動画像処理装置およびそのプログラム
JP2004228803A (ja) 撮影装置
JP6544147B2 (ja) 歌唱動画作成装置及び歌唱動画作成システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19944410

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021543921

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19944410

Country of ref document: EP

Kind code of ref document: A1