JP2014165763A - Editing device, editing method, and editing program - Google Patents
Editing device, editing method, and editing program Download PDFInfo
- Publication number
- JP2014165763A JP2014165763A JP2013036271A JP2013036271A JP2014165763A JP 2014165763 A JP2014165763 A JP 2014165763A JP 2013036271 A JP2013036271 A JP 2013036271A JP 2013036271 A JP2013036271 A JP 2013036271A JP 2014165763 A JP2014165763 A JP 2014165763A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- unit
- editing
- angle
- operation information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 44
- 239000007787 solid Substances 0.000 claims description 12
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 description 56
- 238000010586 diagram Methods 0.000 description 37
- 239000000463 material Substances 0.000 description 33
- 230000008569 process Effects 0.000 description 27
- 238000012545 processing Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 238000009966 trimming Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000008676 import Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012850 discrimination method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、編集装置、編集方法、及び編集プログラムに関する。 The present invention relates to an editing device, an editing method, and an editing program.
近年、記録媒体に保存した様々な素材を読み出し、素材の所望部分を繋ぎ合わせて一連の映像を生成する、ノンリニア編集を行う編集装置が知られている。 2. Description of the Related Art In recent years, editing apparatuses that perform non-linear editing that read various materials stored on a recording medium and generate a series of images by connecting desired portions of the materials are known.
ノンリニア編集による編集対象の素材には、動画像、静止画像、及び音声等が用いられている。また、編集対象の素材に、パノラマの静止画像を用いることも知られている。パノラマの静止画像を編集する場合には、最終出力時、つまり表示装置のアスペクト比に応じた大きさの領域を抽出することが行われている。この抽出領域の位置は、パノラマの静止画像を表示装置へ表示し、操作部等からパノラマの静止画像内の抽出領域の位置を受け付けることで指定される。具体的には、ユーザによる操作指示によって、操作部等から、編集対象のフレーム(パノラマ生成画像)の選択指示を受け付けた後に、該フレームにおける抽出領域として画角の位置座標の指定を受け付ける処理を、フレーム毎に行っていた。 As a material to be edited by nonlinear editing, a moving image, a still image, sound, and the like are used. It is also known to use a panoramic still image as a material to be edited. When editing a panoramic still image, an area having a size corresponding to the aspect ratio of the display device is extracted at the time of final output. The position of the extraction area is designated by displaying a panoramic still image on the display device and receiving the position of the extraction area in the panoramic still image from the operation unit or the like. Specifically, after receiving an instruction to select a frame to be edited (panorama generated image) from the operation unit or the like according to an operation instruction from the user, a process of receiving designation of a position coordinate of an angle of view as an extraction region in the frame. , Went every frame.
なお、従来では、抽出範囲は予め定められており、抽出範囲を調整する場合も、トリミング処理を行う程度であった。 Conventionally, the extraction range is determined in advance, and the trimming process is performed even when the extraction range is adjusted.
この素材である動画像から抽出する領域の位置や大きさ等の画角調整の操作性向上を図るための技術も開示されている。例えば、座標の数値入力に替えて、CG(コンピュータグラフィック)画像をマウスポインタに追従して移動させる技術や、パノラマ画像の回転方向の向きを設定し、該パノラマ画像から設定された回転方向の領域をパノラマ画像から切出す方法が開示されている。 A technique for improving the operability of adjusting the angle of view such as the position and size of a region extracted from a moving image as the material is also disclosed. For example, instead of numerical input of coordinates, a technique for moving a CG (computer graphic) image following the mouse pointer, or a direction of the rotation direction of the panorama image is set, and the rotation direction region set from the panorama image is set. A method for cutting out a video from a panoramic image is disclosed.
しかしながら、最終出力時、つまり表示装置のアスペクト比より広い画角の画像として、動画像を編集対象として用いる場合、従来の方法では、素材である動画像から抽出する領域の位置や大きさ等の画角調整と、動画像における画角調整を行うフレーム等の時間設定と、を同時に実行することができなかった。このため、従来では、パノラマの動画像を編集対象とした場合、効率的な編集を実行することは困難であった。 However, when a moving image is used as an editing target at the time of final output, that is, as an image having a wider angle of view than the aspect ratio of the display device, the position and size of the region extracted from the moving image that is the material is the conventional method. The angle of view adjustment and the time setting such as the frame for adjusting the angle of view in the moving image cannot be executed at the same time. Therefore, conventionally, when a panoramic moving image is an editing target, it has been difficult to perform efficient editing.
本発明は、上記に鑑みてなされたものであって、パノラマの動画像を編集する場合であっても、効率的な編集を行うことができる、編集装置、編集方法、及び編集プログラムを提供することを目的とする。 The present invention has been made in view of the above, and provides an editing apparatus, an editing method, and an editing program capable of performing efficient editing even when a panoramic moving image is edited. For the purpose.
上述した課題を解決し、目的を達成するために、本発明に係る編集装置は、表示制御部と、取得部と、記憶制御部と、を備える。表示制御部は、編集対象のパノラマ動画像から該パノラマ動画像より狭い画角の画角領域を抽出した抽出動画像を表示部に表示する。取得部は、前記抽出動画像の再生中に、前記画角に関する操作情報を取得する。記憶制御部は、前記操作情報を、該操作情報を取得した時間毎に、前記抽出動画像の再生開始からの経過時間に対応づけて記憶部に記憶する。 In order to solve the above-described problems and achieve the object, an editing apparatus according to the present invention includes a display control unit, an acquisition unit, and a storage control unit. The display control unit displays, on the display unit, an extracted moving image obtained by extracting an angle-of-view area having an angle of view narrower than the panoramic moving image from the panoramic moving image to be edited. The acquisition unit acquires operation information related to the angle of view during reproduction of the extracted moving image. The storage control unit stores the operation information in the storage unit in association with the elapsed time from the start of reproduction of the extracted moving image every time the operation information is acquired.
本発明に係る編集方法は、編集対象のパノラマ動画像から該パノラマ動画像より狭い画角の画角領域を抽出した抽出動画像を表示部に表示するステップと、前記抽出動画像の再生中に、前記画角に関する操作情報を取得するステップと、前記操作情報を、該操作情報を取得した時間毎に、前記抽出動画像の再生開始からの経過時間に対応づけて記憶部に記憶するステップと、を含む編集方法である。 The editing method according to the present invention includes a step of displaying, on a display unit, an extracted moving image obtained by extracting an angle-of-view area having a smaller angle of view than the panoramic moving image from the panoramic moving image to be edited, and during the reproduction of the extracted moving image. Acquiring operation information relating to the angle of view; storing the operation information in a storage unit in association with an elapsed time from the start of reproduction of the extracted moving image for each time when the operation information is acquired; , Including editing methods.
本発明に係る編集プログラムは、コンピュータに、編集対象のパノラマ動画像から該パノラマ動画像より狭い画角の画角領域を抽出した抽出動画像を表示部に表示するステップと、前記抽出動画像の再生中に、前記画角に関する操作情報を取得するステップと、前記操作情報を、該操作情報を取得した時間毎に、前記抽出動画像の再生開始からの経過時間に対応づけて記憶部に記憶するステップと、を実行させる編集プログラムである。 An editing program according to the present invention displays, on a display unit, an extracted moving image obtained by extracting an angle-of-view region having a narrower angle of view than a panoramic moving image from a panoramic moving image to be edited on a computer; The step of acquiring operation information relating to the angle of view during reproduction, and storing the operation information in the storage unit in association with the elapsed time from the start of reproduction of the extracted moving image for each time when the operation information is acquired. Editing step.
本発明によれば、パノラマ動画像を編集する場合であっても、効率的な編集を行うことができる、編集装置、編集方法、及び編集プログラムを提供することができる、という効果を奏する。 According to the present invention, it is possible to provide an editing apparatus, an editing method, and an editing program that can perform efficient editing even when editing a panoramic video.
以下、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described.
図1は、本実施の形態の編集システム10の概略図である。
FIG. 1 is a schematic diagram of an
編集システム10は、編集装置12、撮影装置14、表示装置16、及び操作部18を備える。これらの編集装置12、撮影装置14、表示装置16、及び操作部18は、ネットワーク等の無線または有線の通信回線を介して通信可能に接続される。
The
通信回線には、例えば、短距離無線技術、移動通信システムによる無線通信網、及びインターネット等を用いる。短距離無線技術は、Bluetooth(登録商標)等が挙げられる。移動通信システムによる無線通信網には、3G(3rd Generation)や、WiMAX(Worldwide Interoperability for Microwave Access)等が挙げられる。 For the communication line, for example, a short-range wireless technology, a wireless communication network using a mobile communication system, the Internet, or the like is used. Examples of the short-range wireless technology include Bluetooth (registered trademark). Examples of the wireless communication network using the mobile communication system include 3G (3rd Generation), WiMAX (Worldwide Interoperability for Microwave Access), and the like.
編集装置12は、素材の編集処理を実行するコンピュータである。編集対象の素材には、動画像、静止画像、及び音声等が挙げられる。編集処理については詳細を後述する。
The
撮影装置14は、パノラマ動画像を得る撮影装置である。パノラマ動画像とは、画角が最終出力時のアスペクト比より広い動画像である。本実施の形態では、撮影装置14は、パノラマ動画像を得る。また、編集装置12は、この撮影装置14が得たパノラマ動画像を編集対象として得る。なお、本実施の形態では、撮影装置14は、パノラマ動画像として全天球パノラマ動画像を得る場合を説明する。全天球パノラマ動画像とは、4πラジアンの立体角内の像を得て、全天球の範囲の撮影によって得られるパノラマ動画像である。
The photographing
なお、編集装置12における編集対象の素材は、パノラマ動画像を少なくとも含めばよく、他の素材についても編集対象としてもよい。なお、全天球パノラマ動画像に対しても、好適な編集が可能である。
Note that the material to be edited in the
表示装置16は、画像を表示する一般的な表示装置である。例えば、液晶ディスプレイや、有機ELディスプレイなどである。本実施の形態では、表示装置16は、後述する編集画面74等を表示する。
The
操作部18は、ユーザから各種操作指示を受け付ける機能を有するものである。図1に示す例では、操作部18は、キーボード18A、マウス18Bを備える。
The
なお、編集システム10は、キーボード18A及びマウス18B以外の他の種類の操作部を備えた構成であってもよいし、更に複数の撮影装置14を備えた構成であってもよい。
Note that the
図2は、他の編集システム10Aを示す模式図である。図2に示すように、編集システム10Aは、編集システム10における操作部18として、キーボード18A及びマウス18Bに加えて、UI部18Cを更に備えた構成である。UI部18Cと、編集装置12とは、図2では有線で接続されているようになされているが、無線接続であっても良い。特に、無線接続の場合には、インターネット上に編集装置12を置き、ネットワーク越しに、UI部18Cが編集装置12を操作し、編集がなされても良い。
FIG. 2 is a schematic diagram showing another
UI部18Cは、ユーザからの操作入力を受け付けると共に各種画像を表示するタッチパネル機能を備えた装置である。UI部18Cには、例えば、スマートフォン、タブレット端末、ノート型パソコン、デスクトップ型パソコン、またはPDA(Personal Data Assistance)等のコンピュータを用いる。
The
本実施の形態では、UI部18Cとして、スマートフォンまたはタブレット端末を用いる場合を説明するが、タッチパネル機能を備えた構成であればよい。
In the present embodiment, a case where a smartphone or a tablet terminal is used as the
図3は、他の編集システム10Bを示す模式図である。図3に示すように、編集システム10Bは、編集システム10における撮影装置14として、複数の撮影装置141、撮影装置142、撮影装置143を備えた構成である。なお、図3には、編集システム10Bが、3台の撮影装置14を備える場合を示したが、2台、または4台以上備えた構成であってもよい。
FIG. 3 is a schematic diagram showing another
編集システム10Bでは、編集装置12は、マルチビデオレシーバ13を介して複数の撮影装置14(撮影装置141、撮影装置142、撮影装置143)に接続されている。マルチビデオレシーバ13を介して複数の撮影装置14に接続した構成とすることで、撮影装置14の通信インターフェース能力に限界がある場合であっても、効率良く複数の撮影装置14から全天球パノラマ動画像を取得することができる。なお、マルチビデオレシーバ13は、ビデオキャプチャデバイスであればよく、マルチビデオレシーバに限られない。
In the
編集システム10Bの編集装置12は、複数の撮影装置14(撮影装置141、撮影装置142、撮影装置143)の何れから取得した素材(本実施の形態では全天球パノラマ動画像)の編集を行うかを切り替える、スイッチング機能を備えた構成としてもよい。なお、編集装置12では、撮影装置14の切り替えの度に、表示装置16やUI部18Cに表示する素材を切り替えた撮影装置14で取得した素材となるように切替制御してもよい。
The
また、編集装置12では、マルチビデオレシーバ13からのデータ入力がリアルタイムで実行される場合、複数のUI部18C(18C1〜18C3)を備えた形態とすることが好ましい。
In addition, the
以下では、編集システム10は、図2に示す構成の編集システム10Aであるものとして説明する。
In the following description, it is assumed that the
次に、図4を用いて、撮影装置14の外観を説明する。図4は、撮影装置14の外観模式図である。なお、図4(A)は撮影装置14の側面図である。図4(B)は、撮影装置14の、図4(A)とは反対側の側面図である。図4(C)は、撮影装置14の平面図である。
Next, the external appearance of the
図4(A)に示すように、撮影装置14は、例えば、人間が片手で持つことができる大きさである。なお、撮影装置14の大きさは、このような大きさに限られない。
As shown in FIG. 4A, the photographing
図4に示すように、撮影装置14の上部には、正面側(一方の面側)にレンズ14A及び背面側(他方の面側)にレンズ14Bが設けられている。この各々の180度以上の画角を有する広角レンズを介して、像が導かれ、各々の撮像素子に像が形成される。なお、撮像素子としては、CCDや、CMOS等が挙げられる。また、図4(B)に示されるように、撮影装置14の正面側には、シャッターボタン等の操作部14Cが設けられている。
As shown in FIG. 4, a
次に、図5を用いて、撮影装置14の使用状況の一例を説明する。図5は、撮影装置14の使用状況の一例を示す図である。撮影装置14は、図5に示すように、ユーザが手に持ってユーザの周りの被写体を撮影するために用いられる。この場合、レンズ14A及びレンズ14Bによって、それぞれユーザの周りの被写体が撮像され、2つの半球画像が得られ、4πラジアンの立体角内の像が得られる。
Next, an example of a usage state of the photographing
次に、図6を用いて、撮影装置14で撮影された画像を説明する。図6は、撮影装置14で撮影された画像の説明図である。図6(A)はレンズ14Aで撮影された半球画像(前側)、図6(B)はレンズ14Bで撮影された半球画像(後側)、図6(C)はメルカトル図法により表された画像(以下、「メルカトル画像」という)を示した図である。
Next, an image photographed by the photographing
図6(A)に示すように、レンズ14Aによって得られた画像は、広角レンズの一つである魚眼レンズあるため湾曲した半球画像(前側)となる。また、図6(B)に示されているように、レンズ14Bによって得られた画像は、広角レンズの一つである魚眼レンズであるため湾曲した半球画像(後側)となる。そして、半球画像(前側)と、半球画像(後側)とは、例えば、撮影装置14によって合成され、図6(C)に示される、メルカトル画像が作成される。このように、1つのメルカトル画像が連続して生成されることにより、メルカトル動画像となる。
As shown in FIG. 6A, the image obtained by the
図2に戻り、撮影装置14で得られたメルカトル動画像は、編集装置12と接続されると、撮影装置14から編集装置12へ送信される。なお、本実施の形態では、撮影装置14は、メルカトル動画像を、編集装置12へ送信する。この他に、撮影装置14で撮影された2つの半球画像を、編集装置12に送信しても良い。この場合、編集装置12が、2つの半球画像を用いて、図6(C)に示される、メルカトル画像が生成され、さらに、メルカトル画像が連続して連なると全天球パノラマ動画像となる。
Returning to FIG. 2, the Mercator moving image obtained by the photographing
編集装置12では、メルカトル動画像を、全天球パノラマ動画像として撮影装置14から取得する。図7は、全天球パノラマ動画像の1フレームの一例を示す模式図である。
The
本実施の形態では、編集装置12は、全天球パノラマ動画像の編集処理を実行する(詳細後述)。
In the present embodiment, the
なお、編集装置12では、取得したメルカトル画像を、OpenGL(Open Graphics Library)を利用することで、全天球パノラマ動画像として表示装置16や後述するUI部18C等へ表示する。
The
次に、UI部18Cの構成を説明する。
Next, the configuration of the
図8は、UI部18Cを示す模式図である。本実施の形態では、UI部18Cとして、スマートフォン等の端末を用いる場合を説明する。UI部18Cは、ディスプレイ315を備えている。ディスプレイ315は、各種画像を表示すると共に、ユーザからの各種操作指示を受け付けるタッチパネル機能を備えた装置である。
FIG. 8 is a schematic diagram showing the
次に、撮影装置14、編集装置12、及びUI部18Cのハードウェア構成を説明する。
Next, the hardware configuration of the
図9は、撮影装置14のハードウェア構成の説明図である。
FIG. 9 is an explanatory diagram of a hardware configuration of the
図9に示すように、撮影装置14は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部14C、ネットワークI/F116、及び通信部117を備える。
As shown in FIG. 9, the
撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)14A,14Bと、各広角レンズに対応させて設けられている2つの撮像素子15A,15Bを備えている。撮像素子15A,15Bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有する。
The
撮像ユニット101の撮像素子15A,15Bは、各々、画像処理ユニット104とパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子15A,15Bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部14C、ネットワークI/F116なども接続される。
The
画像処理ユニット104は、撮像素子15A,15Bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図6(C)に示されているようなメルカトル画像のデータを作成する。この撮像素子15A,15Bにより出力される画像データが、連続的に行われ、これらの画像データにより、複数のメルカトル画像が連なると、全天球パノラマ動画像となる。
The
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子15A,15Bをスレーブデバイスとして、I2Cバスを利用して、撮像素子15A,15Bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子15A,15Bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
In general, the
また、撮像制御ユニット105は、操作部14Cのシャッターボタンが押下されたタイミングで、撮像素子15A,15Bに画像データの出力を指示する。撮影装置14によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子15A,15Bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
Further, the
また、撮像制御ユニット105は、CPU111と協働して撮像素子15A,15Bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮影装置14には表示部が設けられていないが、表示部を設けてもよい。
The
CPU111は、撮影装置14の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。
The
操作部14Cは、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮影モードや撮影条件などを入力する。 The operation unit 14C is a generic name for various operation buttons, a power switch, a shutter button, a touch panel that has both display and operation functions, and the like. The user inputs various shooting modes and shooting conditions by operating the operation buttons.
ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じて、ネットワークI/FとなるネットワークI/F116を介して、編集装置12等の外部装置に送信される。
The network I /
通信部117は、アンテナを介して、WiFi(wireless fidelity)やBluetooth(登録商標)等の短距離無線技術等によって、編集装置12等の外部装置と通信を行う。この通信部117によっても、メルカトル動画像のデータを、全天球パノラマ動画像として、編集装置12等の外部装置に送信することができる。
The
図10は、UI部18Cのハードウェア構成の説明図である。
FIG. 10 is an explanatory diagram of the hardware configuration of the
図10に示すように、UI部18Cは、UI部18C全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)303、CPU301の制御にしたがってデータの読み出し又は書き込みを行うEEPROM(Electrically Erasable and Programmable ROM)304、CPU301の制御に従って被写体を撮像し画像データを得る撮像素子としてのCMOS305、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種加速度・方位センサ306、フラッシュメモリ等の記録メディア307に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ308を備えている。
As shown in FIG. 10, the
EEPROM104には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。また、CMOS305の代わりにCCDを用いてもよい。
The
また、UI部18Cは、音声を音声信号に変換する音声入力部311、音声信号を音声に変換する音声出力部312、アンテナ313a、アンテナ313aを利用して無線通信信号により、最寄の基地局等と通信を行う通信部313、GPS(Global Positioning System)衛星からUI部18Cの位置情報(緯度、経度、および高度)を含んだGPS信号を受信するGPS受信部314、及びディスプレイ315を備える。
In addition, the
ディスプレイ315は、液晶や有機ELなどの表示部と、感圧式又は静電式のパネルによって構成されている。このため、ディスプレイ315は、上述したように、各種画像を表示すると共に、ユーザからの各種操作指示を受け付ける。
The
次に、編集装置12のハードウェア構成を説明する。
Next, the hardware configuration of the
図11は、編集装置12のハードウェア構成の説明図である。
FIG. 11 is an explanatory diagram of the hardware configuration of the
図11に示すように、編集装置12は、編集装置12全体の動作を制御するCPU30、IPL等のCPU30の駆動に用いられるプログラムを記憶したROM32、CPU30のワークエリアとして使用されるRAM34、編集装置12用のプログラム等の各種データを記憶するHD38、CPU30の制御にしたがってHD38に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)36を備える。
As shown in FIG. 11, the
また、編集装置12は、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、各種画像を表示するディスプレイ508、撮影装置14及び操作部18(キーボード18A、マウス18B、UI部18C)と通信するためのI/F509、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514、及び、上記各構成要素を電気的に接続するバスライン510を備える。
Also, the
次に、編集装置12の機能的構成を説明する。
Next, a functional configuration of the
図12は、編集装置12の機能的構成を示す模式図である。図12に示すように、編集装置12は、制御部52と、UI部18C等の操作部18と、HD(ハードディスク)38と、を備える。制御部52は、撮影装置14、表示装置16、UI部18C等の操作部18、及びHD38に電気的に接続されている。
FIG. 12 is a schematic diagram illustrating a functional configuration of the
制御部52は、編集装置12の全体を制御し、上述したCPU30、ROM32、RAM34等を含むコンピュータである。
The
制御部52は、接続部54、取込部56、表示制御部58、取得部60、判別部62、トリミング部64、記憶制御部68、及び書出部70を備える。
The
接続部54は、撮影装置14との接続を確立する。接続部54は、例えば、編集装置12に撮影装置14が有線または無線により接続された状態で、撮影装置14との間で予め定めた通信プロトコルに従って接続確立のための通信制御を行う。これによって、接続部54は、撮影装置14との接続を確立する。
The
取込部56は、撮影装置14から全天球パノラマ動画像を取り込む。また、取込部56は、撮影装置14や各種記憶媒体等から、全天球パノラマ動画像以外の他の素材をインポートする。表示制御部58は、各種素材を表示装置16やUI部18Cに表示する制御を行う。
The capturing
本実施の形態では、表示制御部58は、編集画面74を表示装置16に表示する制御を行う。また、表示制御部58は、メディアコントロール領域76をUI部18Cに表示する制御を行う。
In the present embodiment, the display control unit 58 performs control to display the
編集画面74は、編集装置12において全天球パノラマ動画像の編集処理を実行するときに、表示装置16に表示する編集用の表示画面である。
The
図13は、編集画面74の一例を示す模式図である。図14は、編集画面74の一例を具体的に示すイメージ図である。
FIG. 13 is a schematic diagram illustrating an example of the
図13及び図14に示すように、編集画面74には、タイトル領域74A、メニュー領域74B、メディアブラウザ領域74C、ビデオモニター領域74D、メディアコントロール領域74E、及びタイムライン領域74Fが設けられている。
As shown in FIGS. 13 and 14, the
タイトル領域74Aは、アプリケーションのタイトル等を表示する領域である。メニュー領域74Bは、メニュー項目一覧を表示する領域である。図14に示す例では、「ファイル」、「編集」、「表示」、「ツール」、「エフェクト」、「ウィンドウ」、及び「ヘルプ」がメニュー項目として示されている。
The
ユーザは、操作部18を操作指示することで、これらのメニュー項目の内の何れかを選択し、各メニュー項目によって示される各種設定を行うことができる。
The user can select any of these menu items by operating the
メディアブラウザ領域74Cは、編集装置12において編集可能な素材の一覧を表示する領域である。ビデオモニター領域74Dは、編集対象として選択された素材の画像や素材の動画像を表示する領域である、タイムライン領域74Fは、メディアブラウザ領域74Cに表示されている編集可能な素材を時系列に配置した画像である。なお、各素材の時系列における配置位置は、ユーザによる操作部18の操作指示によって調整される。
The
本実施の形態では、編集画面74は、メディアコントロール領域74Eを含む。メディアコントロール領域74Eは、操作部18を介してユーザによって選択された編集対象の全天球パノラマ画像を表示する領域である。具体的には、メディアコントロール領域74Eは、編集対象の全天球パノラマ動画像から抽出された抽出動画像を表示する(詳細後述)。
In the present embodiment, the
ユーザは、メディアコントロール領域74Eに表示された全天球パノラマ動画像の抽出動画像を用いて、画像編集のための操作指示を行う。編集装置12では、メディアコントロール領域74Eを介して指示された操作指示によって示される操作情報を受け付け、後述する編集処理を実行する。
The user gives an operation instruction for image editing using the extracted moving image of the omnidirectional panoramic moving image displayed in the
UI部18Cに表示するメディアコントロール領域76は、メディアコントロール領域74Eと同じ画像である。すなわち、ユーザは、UI部18Cに表示された編集対象の全天球パノラマ動画像の抽出画像を確認しながら、画像編集のための操作指示を行う。
The
図12に戻り、また、本実施の形態では、表示制御部58は、編集対象の全天球パノラマ動画像から、該全天球パノラマ動画像より狭い画角の画角領域を抽出した抽出動画像を、表示装置16及びUI部18Cに表示する制御を行う。
Returning to FIG. 12, in the present embodiment, the display control unit 58 extracts an extracted moving image in which an angle-of-view area having a narrower angle of view than the omnidirectional panoramic moving image is extracted from the omnidirectional panoramic moving image to be edited. Control is performed to display the image on the
すなわち、表示制御部58は、編集対象の全天球パノラマ動画像から、該全天球パノラマ動画像より狭い画角の画角領域を抽出した抽出動画像を、編集対象の全天球パノラマ動画像を示す編集用の動画像として、表示装置16のメディアコントロール領域74E及びUI部18Cへ表示する。
That is, the display control unit 58 extracts an extracted moving image obtained by extracting a field angle region having a narrower angle of view than the omnidirectional panoramic moving image from the omnidirectional panoramic moving image to be edited. The moving image for editing showing the image is displayed on the
具体的には、表示制御部58は、編集対象の全天球パノラマ動画像から抽出した抽出動画像を、三次元の立体球状と仮定した該全天球パノラマ動画像を該立体球の中心から仮想撮影装置により該画角で撮影した動画像として、メディアコントロール領域74E及びUI部18Cへ表示する。
Specifically, the display control unit 58 uses the extracted moving image extracted from the omnidirectional panoramic moving image to be edited, the omnidirectional panoramic moving image assuming a three-dimensional solid sphere as the center of the three-dimensional sphere. The moving image captured at the angle of view by the virtual imaging device is displayed on the
図15及び図16は、三次元の立体球状と仮定した全天球パノラマ動画像を、該立体球の中心から仮想撮影装置によって撮影した状態を示す説明図である。 FIGS. 15 and 16 are explanatory diagrams showing a state in which a panoramic moving image assumed to be a three-dimensional solid sphere is photographed from the center of the solid sphere by a virtual photographing device.
全天球パノラマ動画像が、図7に示すような、三次元の立体球状であると仮定する。この場合、図15及び図16に示すように、仮想撮影装置を、この立体球CSの中心Pに位置させる。すると、この中心Pを原点とした座標系が構築される。画角領域Sは、中心Pに設置した仮想撮影装置が、全天球パノラマ動画像より狭い画角で該立体球状の全天球パノラマ動画像を撮影するときの撮影画角に対応する領域である。 It is assumed that the omnidirectional panoramic video is a three-dimensional solid sphere as shown in FIG. In this case, as shown in FIGS. 15 and 16, the virtual photographing device is positioned at the center P of the solid sphere CS. Then, a coordinate system with this center P as the origin is constructed. The angle of view area S is an area corresponding to a shooting angle of view when the virtual imaging device installed at the center P captures the stereoscopic spherical panoramic moving image with a narrower angle of view than the panoramic moving image. is there.
画角領域Sは、編集対象の全天球パノラマ動画像における仮想撮影装置の姿勢や、仮想撮影装置の撮影倍率(ズーム)、及び該全天球パノラマ動画像における仮想撮影装置の視点位置、によって特定される。なお、撮影倍率は、すなわち、該画角の倍率情報(ズーム)を示す。 The angle-of-view area S depends on the orientation of the virtual photographing device in the omnidirectional panoramic moving image to be edited, the photographing magnification (zoom) of the virtual photographing device, and the viewpoint position of the virtual photographing device in the omnidirectional panoramic moving image. Identified. The photographing magnification indicates magnification information (zoom) of the angle of view.
仮想撮影装置の姿勢は、中心Pを原点とした座標系を構成する3軸の各々の回転角(ヨー、ピッチ、ロール)によって特定する。 The attitude of the virtual imaging device is specified by the rotation angles (yaw, pitch, roll) of each of the three axes that constitute the coordinate system with the center P as the origin.
これらの、仮想撮影装置の姿勢、画角の倍率情報、及び仮想撮影装置の視点位置は、ユーザによる操作部18の操作指示によって指示される。操作部18は、該操作指示によって入力された操作情報を、編集装置12へ送信する。
The orientation of the virtual photographing device, the magnification information of the angle of view, and the viewpoint position of the virtual photographing device are instructed by an operation instruction of the
これによって、編集装置12は、操作情報を取得する。操作情報は、仮想撮影装置の撮影画角としての上記画角に関する情報であり、上述のように、仮想撮影装置の姿勢、画角の倍率情報、及び仮想撮影装置の視点位置の少なくとも1つを含む。
Thereby, the
取得部60は、表示装置16及びUI部18Cの少なくとも一方への抽出動画像の再生中に、操作部18から、画角に関する操作情報を受け付ける。
The
判別部62は、編集対象の素材が全天球パノラマ動画像であるか否かを判別する。判別部62は、判別方法により、ユーザによる操作部18の操作指示によって指示された編集対象の素材が全天球パノラマ動画像であるか否かを判別する。判定方法としては、例えば、動画像のフォーマットや、動画像に含まれる属性情報等により判定されることが挙げられる。
The
記憶制御部68は、取得部60で取得した操作情報に含まれる、仮想撮影装置の姿勢、画角の倍率情報、及び仮想撮影装置の視点位置を、操作情報を取得した時間毎に、編集対象の再生中の全天球パノラマ動画像の再生開始からの経過時間に対応づけて、HD38に順次記憶する制御を行う。
The
なお、記憶制御部68は、操作部18で操作情報の指示された指示時間を、操作情報を取得した時間として、該時間毎に、操作情報を上記経過時間に対応づけてHD38へ記憶してもよい。この場合、操作部18は、操作情報の指示された指示時間を含む操作情報を、編集装置12へ送信する構成とすればよい。なお、記憶制御部68は、編集対象の全天球パノラマ動画像の識別情報に対応づけて、上記経過時間及び操作情報をHD38へ記憶する。
Note that the
トリミング部64は、編集対象の全天球パノラマ動画像について、所定の方法によりトリミング処理を行う。所定の方法としては、例えば、静止画に行われるトリミング方法が挙げられる。
The trimming
書出部70は、動画像の書出処理を実行する。書出部70は、判別部70A、切出部70B、変換部70C、及び生成部70Dを含む。判別部70Aは、書出対象が全天球パノラマ動画像であるか否かを判別する。
The
切出部70Bは、HD38に記憶された、書出対象の全天球パノラマ動画像の操作情報を用いて、再生開始からの経過時間毎の画角に関する操作情報によって特定される画角の画角領域を、対応する経過時間毎に書出対象の全天球パノラマ動画像から切出す。
The
具体的には、切出部70Bは、書出対象の全天球パノラマ動画像の操作情報に含まれる、仮想撮影装置の姿勢、画角の倍率情報、及び仮想撮影装置の視点位置から画角を特定し、特定した画角の画角領域Sを、対応する経過時間毎に、該全天球パノラマ動画像から切出す。
Specifically, the
変換部70Cは、全天球パノラマ動画像から切出された切出動画像を、予め定めたファイル形式またはユーザによる操作指示によって指示されたファイル形式に変換する。生成部70Dは、変換部70Cで変換された切出動画像を、書出対象の動画像として生成する。
The
図17は、UI部18Cに表示されたメディアコントロール領域76の一例を示す模式図である。なお、UI部18Cは、メディアコントロール領域76と共に、表示欄76Aと、RECボタン76B等の各種指示ボタンを表示する。
FIG. 17 is a schematic diagram illustrating an example of the
ユーザは、UI部18Cに表示されたメディアコントロール領域76について、ピンチインピンチアウトや、各種押圧指示等の1または複数の操作を組み合わせることで、操作指示を行い、操作情報を入力する。
For the
図18は、UI部18Cを用いた操作指示の一例の説明図である。
FIG. 18 is an explanatory diagram of an example of an operation instruction using the
例えば、仮想撮影装置の姿勢におけるヨー、ピッチ、及び仮想撮影装置の視点位置を調整する場合には、ユーザは、UI部18Cのメディアコントロール領域76に表示された、全天球パノラマ動画像の抽出動画像V1を参照しながら、操作指示を行い、操作情報を入力する。
For example, when adjusting the yaw and pitch in the posture of the virtual photographing device and the viewpoint position of the virtual photographing device, the user extracts the panoramic panoramic video displayed in the
具体的には、ユーザは、メディアコントロール領域76のタッチパネル上を該パネル上における上下左右方向に指示することで、姿勢としてのヨー、ピッチ、及び視点位置を調整するための操作指示を行う(図18(A)参照)。UI部18Cは、これらの操作指示を受け付けることで、ヨー、ピッチ、及び視点位置を含む操作情報を受け付ける。
Specifically, the user gives an operation instruction to adjust the yaw, pitch, and viewpoint position as the posture by instructing the touch panel in the
また、例えば、仮想撮影装置のロールを調整する場合には、ユーザは、2本の指をUI部18Cにあてた状態で、この2本の指を、仮想撮影装置を回転させたい方向に動かす(図18(B)参照)。UI部18Cは、これらの操作指示を受け付けることで、ロールを含む操作情報を受け付ける。
For example, when adjusting the roll of the virtual photographing device, the user moves the two fingers in the direction in which the virtual photographing device is to be rotated with the two fingers placed on the
また、例えば、ユーザは、一方の手の指をUI部18Cにあてた状態で、他方の指でUI部18C上で円を描くように動かすことで、仮想撮影装置のロールを調整してもよい(図18(C)参照)。UI部18Cは、これらの操作指示を受け付けることで、ロールを含む操作情報を受け付ける。
Further, for example, the user may adjust the roll of the virtual photographing device by moving the finger of one hand against the
また、例えば、ユーザは、仮想撮影装置のズーム指示を行う場合には、ピンチインピンチアウトを行う(図18(D))。UI部18Cは、これらの操作指示を受け付けることで、仮想撮影装置のズーム(倍率情報)を受け付ける。
Further, for example, the user performs pinch-in / pinch-out when performing a zoom instruction of the virtual photographing apparatus (FIG. 18D). The
次に、編集装置12の制御部52で実行する編集処理を説明する。
Next, editing processing executed by the
図19は、制御部52で実行する編集処理の手順を示すフローチャートである。
FIG. 19 is a flowchart illustrating a procedure of editing processing executed by the
まず、編集装置12の取得部60が、編集プログラムの実行指示を操作部18から受け付ける。制御部52では、ROM32等に予め記憶されている編集プログラムを実行することで、図19に示す手順を実行する。また、制御部52が編集プログラムを実行すると、表示制御部58は、編集画面74を表示装置16に表示する制御を行うと共に、UI部18Cにメディアブラウザ領域74Cを表示する制御を行う。
First, the
なお、以下の処理を実行する前の状態においては、表示装置16に表示される編集画面74におけるメディアブラウザ領域74C、ビデオモニター領域74D、メディアコントロール領域74E、及びタイムライン領域74Fには、何も表示されていない状態、または、前回編集時のデータが表示された状態となっている。同様に、UI部18Cに表示するメディアコントロール領域76には、何も表示されていない状態となっている。
In the state before executing the following processing, nothing is stored in the
まず、接続部54が撮影装置14との接続確立を行う(ステップS200)。ステップS200の処理によって、編集装置12は、撮影装置14と信号授受可能な状態となる。
First, the
次に、制御部52では、ステップS202〜ステップS206の処理を、操作部18から指示された素材数分繰り返す。
Next, the
具体的には、取込部56が、ユーザによる操作部18の操作指示によって取込対象として指示された素材としての全天球パノラマ動画像をキャプチャ、すなわち取り込む(ステップS202)。
Specifically, the capturing
次に、表示制御部58が、ステップS202でキャプチャされた全天球パノラマ動画像の内、ユーザによる操作部18の操作指示によって指示された素材を、編集画面74におけるタイムライン領域74Fに配置する(ステップS204)。ステップS204では、表示制御部58は、取込部56が操作部18から取得した素材を示す情報によって特定される素材をタイムライン領域74Fに配置する。
Next, the display control unit 58 arranges the material instructed by the operation instruction of the
次に、取込部56が、その他素材のインポートを実行する(ステップS206)。ステップS206では、ユーザによる操作部18の操作指示によって指示されたその他の素材を、インポートする。表示制御部58は、インポートされた素材を、タイムライン領域74Fに配置する。
Next, the capturing
次に、取得部60が、タイムライン領域74Fに表示された複数のタイムラインの内の何れかの選択指示を操作部18から受け付けたか否かを判断する(ステップS208)。
Next, the
ステップS208では、肯定判断(ステップS208:Yes)するまで否定判断(ステップS208:No)を繰り返す。ステップS208で肯定判断すると(ステップS208:Yes)、ステップS210へ進む。 In step S208, a negative determination (step S208: No) is repeated until an affirmative determination (step S208: Yes). If an affirmative determination is made in step S208 (step S208: Yes), the process proceeds to step S210.
ステップS210では、ステップS208で選択されたタイムラインが全天球パノラマ動画像のタイムラインであるか否かを判断する(ステップS210)。 In step S210, it is determined whether or not the timeline selected in step S208 is the timeline of the omnidirectional panoramic video (step S210).
ステップS210で否定判断すると(ステップ210:No)、後述するステップS224へ進む。ステップS210で肯定判断すると(ステップS210:Yes)、ステップS212へ進む。 If a negative determination is made in step S210 (step 210: No), the process proceeds to step S224 described later. If an affirmative determination is made in step S210 (step S210: Yes), the process proceeds to step S212.
ステップS212では、表示制御部58が、ステップS208で選択されたタイムラインの全天球パノラマ動画像から、画角領域Sを抽出する(ステップS212)。ステップS212では、表示制御部58は、HD38に格納されている該全天球パノラマ動画像の識別情報に対応する、最新のタイムスタンプで示される操作情報を読取ることによって画角領域Sを特定し、抽出する。なお、表示制御部58は、HD38に対応する操作情報が格納されていない場合には、予めHD38に記憶した初期値としての操作情報を読取ることで、画角領域Sを特定し、抽出する。この初期値は、予め値を定めておけばよい。
In step S212, the display control unit 58 extracts the view angle region S from the omnidirectional panoramic moving image of the timeline selected in step S208 (step S212). In step S212, the display control unit 58 specifies the view angle region S by reading the operation information indicated by the latest time stamp corresponding to the identification information of the omnidirectional panoramic moving image stored in the
次に、表示制御部58が、ステップS212で抽出された画角領域Sによる抽出動画像を、表示装置16に表示された編集画面74のメディアコントロール領域74E、及びUI部18Cのメディアコントロール領域76に表示する(ステップS214)。
Next, the display control unit 58 uses the extracted moving image of the angle-of-view area S extracted in step S212 to display the
次に、取得部60が再生指示有か否かを判断する(ステップS216)。ステップS216の判断は、取得部60が、操作部18から再生指示を示す信号を受け付けたか否かを判別することで判断する。本実施の形態では、ユーザによるUI部18CのRECボタン76Bが操作指示されることで再生指示を示す信号がUI部18Cから編集装置12へ送信される。取得部60では、この再生指示を受け付けたか否かを判別することで、ステップS216の判断を行う。
Next, the
再生指示有でない場合(ステップS216:No)、ステップS224に遷移する。再生指示有の場合(ステップS216:Yes)、表示制御部58が、ステップS212で抽出された抽出動画像を再生する(ステップS218)。ステップS218の処理によって、表示装置16のメディアコントロール領域76C及びUI部18Cのメディアコントロール領域76に表示された抽出動画像の再生が開始される。
If there is no reproduction instruction (step S216: No), the process proceeds to step S224. If there is a reproduction instruction (step S216: Yes), the display control unit 58 reproduces the extracted moving image extracted in step S212 (step S218). Through the processing in step S218, the playback of the extracted moving image displayed in the media control area 76C of the
次に、取得部60は、操作部18から操作情報を取得すると、取得した操作情報を、抽出動画像の再生開始からの経過時間と、該編集対象の全天球パノラマ動画像の識別情報と、に対応づけてHD38へ記憶する(ステップS220、ステップS222)。
Next, when the
図20は、HD38に記憶した操作情報のデータ構造の一例を示す模式図である。図20には、操作情報が、経過時間を含む場合の一例を示した。
FIG. 20 is a schematic diagram illustrating an example of a data structure of operation information stored in the
図20に示すように、操作情報は、ヨー(yaw)、ピッチ(pitch)、ロール(roll)によって特定される仮想撮影装置の姿勢と、倍率情報(zoom)と、再生開始からの経過時間を示すビデオタイムフレーム(time frame)と、を含む。 As shown in FIG. 20, the operation information includes the orientation of the virtual photographing device specified by yaw, pitch, roll, magnification information (zoom), and the elapsed time from the start of playback. And a video time frame shown.
このため、タイムライン領域74Fに配置された素材のみに対して、仮想撮影装置の制御情報としての操作情報を適用させることができる。例えば、同じ素材を複数のタイムライン領域74Fに配置し、仮想撮影装置について各々異なる操作情報を入力し、これらを同時に表示装置16やUI部18Cへ表示することも可能となる。
For this reason, the operation information as the control information of the virtual photographing device can be applied only to the material arranged in the
なお、図20に示す例では、ロール(roll)の回転倍率の上限値及び下限値を、ヨー(yaw)、及びピッチ(pitch)に比べて大きい範囲を設定可能となるように、データ構造における各項目に対応するデータ領域を定めている。これは、仮想撮影装置を上下回転させる場合に比べて、仮想撮影装置をロールさせる場合のほうが、回転数が大きいと考えられるためである。なお、各項目に対応するデータ領域の大きさは、図20に示す形態に限られない。 In the example shown in FIG. 20, the upper limit value and the lower limit value of the rotation magnification of the roll are set in a data structure so that a larger range can be set than yaw and pitch. A data area corresponding to each item is defined. This is because the number of rotations is considered to be larger when the virtual photographing device is rolled than when the virtual photographing device is rotated up and down. Note that the size of the data area corresponding to each item is not limited to the form shown in FIG.
なお、図20に示す例では、8ビット単位で各項目を示す場合を説明したが、8ビットに限られない。 In the example illustrated in FIG. 20, the case where each item is indicated in units of 8 bits has been described, but is not limited to 8 bits.
図19に戻り、次に、取得部60は、操作部18からのトリミング指示に従い、公知のトリミング処理(時間の編集処理)を実行する(ステップS224)。
Returning to FIG. 19, the
次に、制御部52は、編集処理を終了するか否かを判断する(ステップS226)。ステップS226の判断は、取得部60が、操作部18から編集処理の終了を示す信号を受けたか否かを判別することで、判断可能である。
Next, the
ステップS226で否定判断すると(ステップS226:No)、上記ステップS208へ進む。ステップS226で肯定判断すると(ステップS226:Yes)、ステップS228へ進む。 If a negative determination is made in step S226 (step S226: No), the process proceeds to step S208. If an affirmative determination is made in step S226 (step S226: Yes), the process proceeds to step S228.
ステップS228では、取得部60が、操作部18から書出指示を受け付けたか否かを判断する。ステップS228で否定判断すると(ステップS228:No)、本ルーチンを終了する。一方、ステップS228で肯定判断すると(ステップS228:Yes)、ステップS230へ進む。
In step S228, the
ステップS230では、判別部62が、書出指示された素材が全天球パノラマ動画像であるか否かを判断する(ステップS230)。
In step S230, the
ステップS230で否定判断すると(ステップS230:No)、ステップS236へ進む。ステップS230で肯定判断すると(ステップS230:Yes)、ステップS232へ進む。 If a negative determination is made in step S230 (step S230: No), the process proceeds to step S236. If an affirmative determination is made in step S230 (step S230: Yes), the process proceeds to step S232.
ステップS232では、切出部70Bが、書出指示された全天球パノラマ動画像に対応する操作情報を対応する経過時間毎にHD38から読取り、読取った各操作情報によって特定される画角領域Sを、該全天球パノラマ動画像の対応する経過時間のフレームから切出す(ステップS232)。
In step S232, the
次に、変換部70Cが、ステップS232の処理によって切出された切出動画像をファイル変換する(ステップS234)。例えば、変換部70Cは、切出動画像を、予め定めたファイル形式またはユーザによる操作指示によって指示されたファイル形式に変換する。
Next, the
次に、生成部70Dが、変換部70Cで変換された切出動画像を、書出対象のビデオファイル(動画像)として生成し(ステップS236)、本ルーチンを終了する。
Next, the
図19に示す編集処理の手順が実行されることによって、例えば、UI部18Cのメディアコントロール領域76や、表示装置16に表示された編集画面74のメディアコントロール領域74Eには、編集対象の全天球パノラマ動画像から画角領域Sを抽出した抽出動画像が表示される。そして、この抽出動画像の再生時に、画角領域Sを特定するための要素である、仮想撮影装置の姿勢や、仮想撮影装置の撮影倍率や、仮想撮影装置の視点位置等がユーザから操作情報として指示されることで、再生開始からの経過時間に対応する操作情報がHD38に記憶される。
19 is executed, for example, in the
図21は、ユーザによる操作の一例を示す模式図である。 FIG. 21 is a schematic diagram illustrating an example of a user operation.
図21(A)に示すように、例えば、UI部18Cのメディアコントロール領域76に表示された抽出動画像の画角領域S1が、ユーザの操作指示によって、全天球パノラマ動画像における画角領域S1から画角領域S2へ移動するように操作されたとする。この操作によって、全天球パノラマ動画像における、仮想撮影装置の視点位置の操作軌跡が指示情報として入力されたこととなる。
As shown in FIG. 21A, for example, an angle of view area S1 of the extracted moving image displayed in the
この場合、制御部52は、ユーザが画角領域S1を画角領域S2へ操作した操作軌跡に応じた操作情報を、再生開始からの経過時間に対応づけてHD38へ記憶することとなる。
In this case, the
このため、生成部70Dがこの操作情報に応じて再生用の切出動画像を生成すると、図21(B)に示す動画像が得られることとなる。
For this reason, when the
以上説明したように、本実施の形態の編集システム10では、編集装置12の表示制御部58が、編集対象の全天球パノラマ動画像から該全天球パノラマ動画像より狭い画角の画角領域Sを抽出した抽出動画像を、表示装置16の編集画面74におけるメディアコントロール領域74E及びUI部18Cのメディアコントロール領域76へ表示する。そして、この抽出動画像の再生中に、取得部60が画角に関する操作情報を操作部18から受け付ける。操作情報は、ユーザによる操作部18の操作指示によって入力され、操作部18から編集装置12へ送信されたものである。記憶制御部68は、操作情報を、該操作情報を取得した時間毎に、抽出動画像の再生開始からの経過時間に対応づけてHD38に記憶する。
As described above, in the
このため、本実施の形態の編集システム10では、全天球パノラマ動画像の時間軸の編集と、全天球パノラマ動画像における切出し対象の画角領域Sの編集と、を同時に行うことができる。
For this reason, in the
すなわち、本実施の形態の編集システム10では、全天球パノラマ動画に特化した、画角と時間の制御を同時に行うことができる。
That is, the
従って、本実施の形態の編集システム10では、全天球パノラマ動画像等のパノラマ動画像を編集する場合であっても、効率的な編集を行うことができる。
Therefore, the
なお、本実施の形態における、編集装置12、撮影装置14、及びUI部18Cは、CPUなどの制御装置と、ROMやRAMなどの記憶装置と、HDD、CDドライブ装置などの外部記憶装置と、入力装置と、を備えており、通常のコンピュータを利用したハードウェア構成となっている。
In the present embodiment, the
編集装置12で実行される、上記編集処理を実行するための編集プログラムは、NV−RAMやROMやその他の不揮発性記憶媒体に予め組み込まれて提供される。また、編集装置12で実行される、上記編集処理を実行するための編集プログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録し提供することも可能である。
The editing program for executing the editing process executed by the
また、編集装置12で実行される、上記編集処理を実行するための編集プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供または配布するように構成してもよい。
The editing program for executing the editing process executed by the
また、編集装置12で実行される、上記編集処理を実行するための編集プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
Further, an editing program for executing the editing process executed by the
また、編集装置12で実行される上記編集処理を実行するためのプログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体から該編集プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、上記各部が主記憶装置上に生成されるようになっている。
Further, the program for executing the editing process executed by the
以上、発明を実施するための諸実施の形態について説明を行ったが、本発明は、上述した実施の形態に限定されるものではない。本発明の主旨を損なわない範囲で変更することが可能である。 While various embodiments for carrying out the invention have been described above, the present invention is not limited to the above-described embodiments. Modifications can be made without departing from the spirit of the present invention.
10、10A、10B 編集システム
12 編集装置
14 撮影装置
16 表示装置
18 操作部
18C UI部
58 表示制御部
60 取得部
68 記憶制御部
70B 切出部
70C 変換部
10, 10A,
Claims (9)
前記抽出動画像の再生中に、前記画角に関する操作情報を取得する取得部と、
前記操作情報を、該操作情報を取得した時間毎に、前記抽出動画像の再生開始からの経過時間に対応づけて記憶部に記憶する記憶制御部と、
を備えた編集装置。 A display control unit for displaying on the display unit an extracted moving image obtained by extracting an angle-of-view area having a narrower angle of view than the panoramic moving image to be edited;
An acquisition unit that acquires operation information related to the angle of view during reproduction of the extracted moving image;
A storage control unit that stores the operation information in a storage unit in association with an elapsed time from the start of reproduction of the extracted moving image for each time when the operation information is acquired;
Editing device equipped with.
前記取得部は、前記仮想撮影装置の姿勢情報を含む前記操作情報を取得する、請求項1〜請求項3の何れか1項に記載の編集装置。 The display control unit displays the extracted moving image on the display unit as a moving image obtained by capturing the panoramic moving image, which is assumed to be a three-dimensional solid sphere, from the center of the three-dimensional sphere by the virtual photographing device at the angle of view. And
The editing apparatus according to claim 1, wherein the acquisition unit acquires the operation information including posture information of the virtual photographing apparatus.
切出した切出動画像のデータ形式を変換する変換部と、
を更に備えた、請求項1〜請求項5の何れか1項に記載の編集装置。 A cutout unit that cuts out the angle-of-view area of the angle of view according to the operation information from the panoramic moving image at each corresponding elapsed time;
A conversion unit for converting the data format of the cut out moving image,
The editing apparatus according to any one of claims 1 to 5, further comprising:
前記抽出動画像の再生中に、前記画角に関する操作情報を取得するステップと、
前記操作情報を、該操作情報を取得した時間毎に、前記抽出動画像の再生開始からの経過時間に対応づけて記憶部に記憶するステップと、
を含む編集方法。 Displaying an extracted moving image obtained by extracting an angle-of-view area having a narrower angle of view from the panoramic moving image to be edited on the display unit;
Acquiring operation information relating to the angle of view during reproduction of the extracted moving image;
Storing the operation information in the storage unit in association with an elapsed time from the start of reproduction of the extracted moving image every time the operation information is acquired;
Editing method including.
編集対象のパノラマ動画像から該パノラマ動画像より狭い画角の画角領域を抽出した抽出動画像を表示部に表示するステップと、
前記抽出動画像の再生中に、前記画角に関する操作情報を取得するステップと、
前記操作情報を、該操作情報を取得した時間毎に、前記抽出動画像の再生開始からの経過時間に対応づけて記憶部に記憶するステップと、
を実行させる編集プログラム。 On the computer,
Displaying an extracted moving image obtained by extracting an angle-of-view area having a narrower angle of view from the panoramic moving image to be edited on the display unit;
Acquiring operation information relating to the angle of view during reproduction of the extracted moving image;
Storing the operation information in the storage unit in association with an elapsed time from the start of reproduction of the extracted moving image every time the operation information is acquired;
An editing program that executes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013036271A JP2014165763A (en) | 2013-02-26 | 2013-02-26 | Editing device, editing method, and editing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013036271A JP2014165763A (en) | 2013-02-26 | 2013-02-26 | Editing device, editing method, and editing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014165763A true JP2014165763A (en) | 2014-09-08 |
Family
ID=51615980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013036271A Pending JP2014165763A (en) | 2013-02-26 | 2013-02-26 | Editing device, editing method, and editing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014165763A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017049956A (en) * | 2015-09-04 | 2017-03-09 | 株式会社リコー | Information providing system, information processing apparatus, terminal device, information providing program, and information providing method |
JPWO2017022641A1 (en) * | 2015-07-31 | 2017-08-03 | カディンチェ株式会社 | Panoramic video playback device, panoramic video editing device, panoramic video playback method, panoramic video playback program, panoramic video playback system, and panoramic video transmission device |
JP6330089B1 (en) * | 2017-06-30 | 2018-05-23 | 株式会社コロプラ | Program executed on computer to provide virtual space, information processing apparatus, and method for providing virtual space |
JP2019110546A (en) * | 2019-02-05 | 2019-07-04 | リコーイメージング株式会社 | Photographing system |
CN110324641A (en) * | 2019-07-12 | 2019-10-11 | 青岛一舍科技有限公司 | The method and device of targets of interest moment display is kept in panoramic video |
JPWO2021152758A1 (en) * | 2020-01-30 | 2021-08-05 | ||
WO2023095642A1 (en) * | 2021-11-26 | 2023-06-01 | ソニーグループ株式会社 | Image processing device, image processing method, and program |
DE102023103963A1 (en) | 2022-02-18 | 2023-08-24 | Canon Kabushiki Kaisha | Electronic device, method for controlling the electronic device and program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0962861A (en) * | 1995-08-21 | 1997-03-07 | Matsushita Electric Ind Co Ltd | Panoramic video device |
JPH11154020A (en) * | 1997-11-21 | 1999-06-08 | Nippon Telegr & Teleph Corp <Ntt> | Remote monitoring device, method therefor and storage medium recorded with remote monitoring program |
JP2005223416A (en) * | 2004-02-03 | 2005-08-18 | Sony Corp | Image processing system, image processing apparatus and image processing method, and program |
US20050265619A1 (en) * | 2004-05-28 | 2005-12-01 | Nobuyuki Ozaki | Image providing method and device |
JP2012133085A (en) * | 2010-12-21 | 2012-07-12 | Sony Corp | Display control device, display control method, and program |
JP2013034081A (en) * | 2011-08-02 | 2013-02-14 | Sony Corp | Image processing device, control method therefor, and program |
-
2013
- 2013-02-26 JP JP2013036271A patent/JP2014165763A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0962861A (en) * | 1995-08-21 | 1997-03-07 | Matsushita Electric Ind Co Ltd | Panoramic video device |
JPH11154020A (en) * | 1997-11-21 | 1999-06-08 | Nippon Telegr & Teleph Corp <Ntt> | Remote monitoring device, method therefor and storage medium recorded with remote monitoring program |
JP2005223416A (en) * | 2004-02-03 | 2005-08-18 | Sony Corp | Image processing system, image processing apparatus and image processing method, and program |
US20050265619A1 (en) * | 2004-05-28 | 2005-12-01 | Nobuyuki Ozaki | Image providing method and device |
JP2012133085A (en) * | 2010-12-21 | 2012-07-12 | Sony Corp | Display control device, display control method, and program |
JP2013034081A (en) * | 2011-08-02 | 2013-02-14 | Sony Corp | Image processing device, control method therefor, and program |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2017022641A1 (en) * | 2015-07-31 | 2017-08-03 | カディンチェ株式会社 | Panoramic video playback device, panoramic video editing device, panoramic video playback method, panoramic video playback program, panoramic video playback system, and panoramic video transmission device |
JP2017049956A (en) * | 2015-09-04 | 2017-03-09 | 株式会社リコー | Information providing system, information processing apparatus, terminal device, information providing program, and information providing method |
JP6330089B1 (en) * | 2017-06-30 | 2018-05-23 | 株式会社コロプラ | Program executed on computer to provide virtual space, information processing apparatus, and method for providing virtual space |
JP2019012441A (en) * | 2017-06-30 | 2019-01-24 | 株式会社コロプラ | Program executed on computer for providing virtual space, information processing apparatus, and method for providing virtual space |
JP2019110546A (en) * | 2019-02-05 | 2019-07-04 | リコーイメージング株式会社 | Photographing system |
CN110324641B (en) * | 2019-07-12 | 2021-09-03 | 青岛一舍科技有限公司 | Method and device for keeping interest target moment display in panoramic video |
CN110324641A (en) * | 2019-07-12 | 2019-10-11 | 青岛一舍科技有限公司 | The method and device of targets of interest moment display is kept in panoramic video |
JPWO2021152758A1 (en) * | 2020-01-30 | 2021-08-05 | ||
JP7054287B2 (en) | 2020-01-30 | 2022-04-13 | Amatelus株式会社 | Video distribution device, video distribution system, video distribution method, and program |
JP2022075940A (en) * | 2020-01-30 | 2022-05-18 | Amatelus株式会社 | Video distribution device, video distribution system, video distribution method, and program |
JP7365076B2 (en) | 2020-01-30 | 2023-10-19 | Amatelus株式会社 | Video distribution device, video distribution system, video distribution method, and program |
WO2023095642A1 (en) * | 2021-11-26 | 2023-06-01 | ソニーグループ株式会社 | Image processing device, image processing method, and program |
DE102023103963A1 (en) | 2022-02-18 | 2023-08-24 | Canon Kabushiki Kaisha | Electronic device, method for controlling the electronic device and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7322940B2 (en) | Image communication system, image communication terminal, image communication method, program, and recording medium | |
JP6756269B2 (en) | Communication terminals, image communication systems, communication methods, and programs | |
JP6805861B2 (en) | Image processing equipment, image processing system, image processing method and program | |
JP2014165763A (en) | Editing device, editing method, and editing program | |
JP6186775B2 (en) | Communication terminal, display method, and program | |
JP6075066B2 (en) | Image management system, image management method, and program | |
JP5920057B2 (en) | Transmission device, image sharing system, transmission method, and program | |
US20210099669A1 (en) | Image capturing apparatus, communication system, data distribution method, and non-transitory recording medium | |
US20210090211A1 (en) | Image processing method, non-transitory recording medium, image processing apparatus, and image processing system | |
US11064095B2 (en) | Image displaying system, communication system, and method for image displaying | |
US20180124310A1 (en) | Image management system, image management method and recording medium | |
EP3962090A1 (en) | Communication terminal, image communication system, method for displaying image, and carrier means | |
US10147160B2 (en) | Image management apparatus and system, and method for controlling display of captured image | |
JP6304300B2 (en) | Transmitting apparatus, communication method, program, and receiving apparatus | |
JP6011117B2 (en) | Reception device, image sharing system, reception method, and program | |
JP7017045B2 (en) | Communication terminal, display method, and program | |
JP6711118B2 (en) | Image management system, program and information terminal | |
JP6586819B2 (en) | Image management system, image communication system, image management method, and program | |
JP5942637B2 (en) | Additional information management system, image sharing system, additional information management method, and program | |
JP2019140667A (en) | Information processing unit, information processing system, data generation method and program | |
JP6508288B2 (en) | SYSTEM, IMAGE SHARING SYSTEM, COMMUNICATION METHOD, AND PROGRAM | |
JP6992338B2 (en) | Communication system, communication management method, program, system and communication method | |
JP6816403B2 (en) | Image management system, image communication system, image management method, and program | |
JP2016194930A (en) | Display and program | |
JP2017037423A (en) | Image management system, image management method, image communication system, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160114 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170209 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170307 |