JP2014165763A - Editing device, editing method, and editing program - Google Patents

Editing device, editing method, and editing program Download PDF

Info

Publication number
JP2014165763A
JP2014165763A JP2013036271A JP2013036271A JP2014165763A JP 2014165763 A JP2014165763 A JP 2014165763A JP 2013036271 A JP2013036271 A JP 2013036271A JP 2013036271 A JP2013036271 A JP 2013036271A JP 2014165763 A JP2014165763 A JP 2014165763A
Authority
JP
Japan
Prior art keywords
moving image
unit
editing
angle
operation information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013036271A
Other languages
Japanese (ja)
Inventor
Toru Harada
亨 原田
Noriyuki Terao
典之 寺尾
Yoshiaki Irino
祥明 入野
Tomonori Tanaka
智憲 田中
Nozomi Imae
望 今江
Hideaki Yamamoto
英明 山本
Satoshi Sawaguchi
聡 澤口
Daisuke Bessho
大介 別所
Makoto Shohara
誠 庄原
Yoichi Ito
洋一 伊藤
Hiroichi Takenaka
博一 竹中
Kensuke Masuda
憲介 増田
Hiroyuki Sato
裕之 佐藤
Shusaku Takasu
修作 高巣
Yasuo Ueda
康雄 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013036271A priority Critical patent/JP2014165763A/en
Publication of JP2014165763A publication Critical patent/JP2014165763A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable efficient editing even when editing a panoramic moving image.SOLUTION: An editing device 12 comprises a display control unit 58, an acquisition unit 60, and a storage control unit 68. The display control unit 58 displays, on a display unit, an extracted moving image obtained by extracting, from a panoramic moving image to be edited, an angle-of-view area having an angle of view narrower than that of the panoramic moving image. The acquisition unit 60 acquires operation information related to the angle of view during reproduction of the extracted moving image. The storage control unit 68 stores the operation information in a storage unit in association with an elapsed time from the start of reproduction of the extracted moving image each time the operation information is acquired.

Description

本発明は、編集装置、編集方法、及び編集プログラムに関する。   The present invention relates to an editing device, an editing method, and an editing program.

近年、記録媒体に保存した様々な素材を読み出し、素材の所望部分を繋ぎ合わせて一連の映像を生成する、ノンリニア編集を行う編集装置が知られている。   2. Description of the Related Art In recent years, editing apparatuses that perform non-linear editing that read various materials stored on a recording medium and generate a series of images by connecting desired portions of the materials are known.

ノンリニア編集による編集対象の素材には、動画像、静止画像、及び音声等が用いられている。また、編集対象の素材に、パノラマの静止画像を用いることも知られている。パノラマの静止画像を編集する場合には、最終出力時、つまり表示装置のアスペクト比に応じた大きさの領域を抽出することが行われている。この抽出領域の位置は、パノラマの静止画像を表示装置へ表示し、操作部等からパノラマの静止画像内の抽出領域の位置を受け付けることで指定される。具体的には、ユーザによる操作指示によって、操作部等から、編集対象のフレーム(パノラマ生成画像)の選択指示を受け付けた後に、該フレームにおける抽出領域として画角の位置座標の指定を受け付ける処理を、フレーム毎に行っていた。   As a material to be edited by nonlinear editing, a moving image, a still image, sound, and the like are used. It is also known to use a panoramic still image as a material to be edited. When editing a panoramic still image, an area having a size corresponding to the aspect ratio of the display device is extracted at the time of final output. The position of the extraction area is designated by displaying a panoramic still image on the display device and receiving the position of the extraction area in the panoramic still image from the operation unit or the like. Specifically, after receiving an instruction to select a frame to be edited (panorama generated image) from the operation unit or the like according to an operation instruction from the user, a process of receiving designation of a position coordinate of an angle of view as an extraction region in the frame. , Went every frame.

なお、従来では、抽出範囲は予め定められており、抽出範囲を調整する場合も、トリミング処理を行う程度であった。   Conventionally, the extraction range is determined in advance, and the trimming process is performed even when the extraction range is adjusted.

この素材である動画像から抽出する領域の位置や大きさ等の画角調整の操作性向上を図るための技術も開示されている。例えば、座標の数値入力に替えて、CG(コンピュータグラフィック)画像をマウスポインタに追従して移動させる技術や、パノラマ画像の回転方向の向きを設定し、該パノラマ画像から設定された回転方向の領域をパノラマ画像から切出す方法が開示されている。   A technique for improving the operability of adjusting the angle of view such as the position and size of a region extracted from a moving image as the material is also disclosed. For example, instead of numerical input of coordinates, a technique for moving a CG (computer graphic) image following the mouse pointer, or a direction of the rotation direction of the panorama image is set, and the rotation direction region set from the panorama image is set. A method for cutting out a video from a panoramic image is disclosed.

しかしながら、最終出力時、つまり表示装置のアスペクト比より広い画角の画像として、動画像を編集対象として用いる場合、従来の方法では、素材である動画像から抽出する領域の位置や大きさ等の画角調整と、動画像における画角調整を行うフレーム等の時間設定と、を同時に実行することができなかった。このため、従来では、パノラマの動画像を編集対象とした場合、効率的な編集を実行することは困難であった。   However, when a moving image is used as an editing target at the time of final output, that is, as an image having a wider angle of view than the aspect ratio of the display device, the position and size of the region extracted from the moving image that is the material is the conventional method. The angle of view adjustment and the time setting such as the frame for adjusting the angle of view in the moving image cannot be executed at the same time. Therefore, conventionally, when a panoramic moving image is an editing target, it has been difficult to perform efficient editing.

本発明は、上記に鑑みてなされたものであって、パノラマの動画像を編集する場合であっても、効率的な編集を行うことができる、編集装置、編集方法、及び編集プログラムを提供することを目的とする。   The present invention has been made in view of the above, and provides an editing apparatus, an editing method, and an editing program capable of performing efficient editing even when a panoramic moving image is edited. For the purpose.

上述した課題を解決し、目的を達成するために、本発明に係る編集装置は、表示制御部と、取得部と、記憶制御部と、を備える。表示制御部は、編集対象のパノラマ動画像から該パノラマ動画像より狭い画角の画角領域を抽出した抽出動画像を表示部に表示する。取得部は、前記抽出動画像の再生中に、前記画角に関する操作情報を取得する。記憶制御部は、前記操作情報を、該操作情報を取得した時間毎に、前記抽出動画像の再生開始からの経過時間に対応づけて記憶部に記憶する。   In order to solve the above-described problems and achieve the object, an editing apparatus according to the present invention includes a display control unit, an acquisition unit, and a storage control unit. The display control unit displays, on the display unit, an extracted moving image obtained by extracting an angle-of-view area having an angle of view narrower than the panoramic moving image from the panoramic moving image to be edited. The acquisition unit acquires operation information related to the angle of view during reproduction of the extracted moving image. The storage control unit stores the operation information in the storage unit in association with the elapsed time from the start of reproduction of the extracted moving image every time the operation information is acquired.

本発明に係る編集方法は、編集対象のパノラマ動画像から該パノラマ動画像より狭い画角の画角領域を抽出した抽出動画像を表示部に表示するステップと、前記抽出動画像の再生中に、前記画角に関する操作情報を取得するステップと、前記操作情報を、該操作情報を取得した時間毎に、前記抽出動画像の再生開始からの経過時間に対応づけて記憶部に記憶するステップと、を含む編集方法である。   The editing method according to the present invention includes a step of displaying, on a display unit, an extracted moving image obtained by extracting an angle-of-view area having a smaller angle of view than the panoramic moving image from the panoramic moving image to be edited, and during the reproduction of the extracted moving image. Acquiring operation information relating to the angle of view; storing the operation information in a storage unit in association with an elapsed time from the start of reproduction of the extracted moving image for each time when the operation information is acquired; , Including editing methods.

本発明に係る編集プログラムは、コンピュータに、編集対象のパノラマ動画像から該パノラマ動画像より狭い画角の画角領域を抽出した抽出動画像を表示部に表示するステップと、前記抽出動画像の再生中に、前記画角に関する操作情報を取得するステップと、前記操作情報を、該操作情報を取得した時間毎に、前記抽出動画像の再生開始からの経過時間に対応づけて記憶部に記憶するステップと、を実行させる編集プログラムである。   An editing program according to the present invention displays, on a display unit, an extracted moving image obtained by extracting an angle-of-view region having a narrower angle of view than a panoramic moving image from a panoramic moving image to be edited on a computer; The step of acquiring operation information relating to the angle of view during reproduction, and storing the operation information in the storage unit in association with the elapsed time from the start of reproduction of the extracted moving image for each time when the operation information is acquired. Editing step.

本発明によれば、パノラマ動画像を編集する場合であっても、効率的な編集を行うことができる、編集装置、編集方法、及び編集プログラムを提供することができる、という効果を奏する。   According to the present invention, it is possible to provide an editing apparatus, an editing method, and an editing program that can perform efficient editing even when editing a panoramic video.

図1は、本実施の形態の編集システムの概略図である。FIG. 1 is a schematic diagram of an editing system according to the present embodiment. 図2は、他の編集システムを示す模式図である。FIG. 2 is a schematic diagram showing another editing system. 図3は、他の編集システムを示す模式図である。FIG. 3 is a schematic diagram showing another editing system. 図4は、撮影装置の外観模式図である。FIG. 4 is a schematic external view of the photographing apparatus. 図5は、撮影装置の使用状況の一例を示す図である。FIG. 5 is a diagram illustrating an example of a usage state of the imaging apparatus. 図6は、撮影装置で撮影された画像の説明図である。FIG. 6 is an explanatory diagram of an image photographed by the photographing apparatus. 図7は、全天球パノラマ動画像の1フレームの一例を示す模式図である。FIG. 7 is a schematic diagram illustrating an example of one frame of the omnidirectional panoramic video. 図8は、UI部を示す模式図である。FIG. 8 is a schematic diagram showing the UI unit. 図9は、撮影装置のハードウェア構成の説明図である。FIG. 9 is an explanatory diagram of the hardware configuration of the photographing apparatus. 図10は、UI部のハードウェア構成の説明図である。FIG. 10 is an explanatory diagram of the hardware configuration of the UI unit. 図11は、編集装置のハードウェア構成の説明図である。FIG. 11 is an explanatory diagram of the hardware configuration of the editing apparatus. 図12は、編集装置の機能的構成を示す模式図である。FIG. 12 is a schematic diagram illustrating a functional configuration of the editing apparatus. 図13は、編集画面の一例を示す模式図である。FIG. 13 is a schematic diagram illustrating an example of an editing screen. 図14は、編集画面の一例を具体的に示すイメージ図である。FIG. 14 is an image diagram specifically illustrating an example of the editing screen. 図15は、三次元の立体球状と仮定した全天球パノラマ動画像を、該立体球の中心から仮想撮影装置によって撮影した状態を示す説明図である。FIG. 15 is an explanatory diagram showing a state in which an omnidirectional panoramic moving image assumed to be a three-dimensional solid sphere is photographed by the virtual photographing device from the center of the solid sphere. 図16は、三次元の立体球状と仮定した全天球パノラマ動画像を、該立体球の中心から仮想撮影装置によって撮影した状態を示す説明図である。FIG. 16 is an explanatory diagram showing a state in which an omnidirectional panoramic moving image assumed to be a three-dimensional solid sphere is photographed by the virtual photographing device from the center of the solid sphere. 図17は、UI部に表示されたメディアコントロール領域の一例を示す模式図である。FIG. 17 is a schematic diagram illustrating an example of a media control area displayed on the UI unit. 図18は、UI部を用いた操作指示の一例の説明図である。FIG. 18 is an explanatory diagram of an example of an operation instruction using the UI unit. 図19は、制御部で実行する編集処理の手順を示すフローチャートである。FIG. 19 is a flowchart illustrating a procedure of editing processing executed by the control unit. 図20は、HDに記憶した操作情報のデータ構造の一例を示す模式図である。FIG. 20 is a schematic diagram illustrating an example of the data structure of the operation information stored in the HD. 図21は、ユーザによる操作の一例を示す模式図である。FIG. 21 is a schematic diagram illustrating an example of a user operation.

以下、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described.

図1は、本実施の形態の編集システム10の概略図である。   FIG. 1 is a schematic diagram of an editing system 10 according to the present embodiment.

編集システム10は、編集装置12、撮影装置14、表示装置16、及び操作部18を備える。これらの編集装置12、撮影装置14、表示装置16、及び操作部18は、ネットワーク等の無線または有線の通信回線を介して通信可能に接続される。   The editing system 10 includes an editing device 12, a photographing device 14, a display device 16, and an operation unit 18. The editing device 12, the photographing device 14, the display device 16, and the operation unit 18 are connected to be communicable via a wireless or wired communication line such as a network.

通信回線には、例えば、短距離無線技術、移動通信システムによる無線通信網、及びインターネット等を用いる。短距離無線技術は、Bluetooth(登録商標)等が挙げられる。移動通信システムによる無線通信網には、3G(3rd Generation)や、WiMAX(Worldwide Interoperability for Microwave Access)等が挙げられる。   For the communication line, for example, a short-range wireless technology, a wireless communication network using a mobile communication system, the Internet, or the like is used. Examples of the short-range wireless technology include Bluetooth (registered trademark). Examples of the wireless communication network using the mobile communication system include 3G (3rd Generation), WiMAX (Worldwide Interoperability for Microwave Access), and the like.

編集装置12は、素材の編集処理を実行するコンピュータである。編集対象の素材には、動画像、静止画像、及び音声等が挙げられる。編集処理については詳細を後述する。   The editing device 12 is a computer that executes a material editing process. Examples of the material to be edited include moving images, still images, and audio. Details of the editing process will be described later.

撮影装置14は、パノラマ動画像を得る撮影装置である。パノラマ動画像とは、画角が最終出力時のアスペクト比より広い動画像である。本実施の形態では、撮影装置14は、パノラマ動画像を得る。また、編集装置12は、この撮影装置14が得たパノラマ動画像を編集対象として得る。なお、本実施の形態では、撮影装置14は、パノラマ動画像として全天球パノラマ動画像を得る場合を説明する。全天球パノラマ動画像とは、4πラジアンの立体角内の像を得て、全天球の範囲の撮影によって得られるパノラマ動画像である。   The photographing device 14 is a photographing device that obtains a panoramic moving image. A panoramic video is a video having a wider angle of view than the aspect ratio at the time of final output. In the present embodiment, the imaging device 14 obtains a panoramic video. The editing device 12 obtains the panoramic moving image obtained by the photographing device 14 as an editing target. In the present embodiment, the case where the imaging device 14 obtains an omnidirectional panoramic moving image as a panoramic moving image will be described. The omnidirectional panoramic moving image is a panoramic moving image obtained by obtaining an image within a solid angle of 4π radians and photographing the entire celestial sphere.

なお、編集装置12における編集対象の素材は、パノラマ動画像を少なくとも含めばよく、他の素材についても編集対象としてもよい。なお、全天球パノラマ動画像に対しても、好適な編集が可能である。   Note that the material to be edited in the editing apparatus 12 may include at least a panoramic video, and other materials may also be subject to editing. It should be noted that suitable editing is also possible for the omnidirectional panoramic video.

表示装置16は、画像を表示する一般的な表示装置である。例えば、液晶ディスプレイや、有機ELディスプレイなどである。本実施の形態では、表示装置16は、後述する編集画面74等を表示する。   The display device 16 is a general display device that displays an image. For example, a liquid crystal display or an organic EL display. In the present embodiment, the display device 16 displays an edit screen 74 and the like which will be described later.

操作部18は、ユーザから各種操作指示を受け付ける機能を有するものである。図1に示す例では、操作部18は、キーボード18A、マウス18Bを備える。   The operation unit 18 has a function of accepting various operation instructions from the user. In the example illustrated in FIG. 1, the operation unit 18 includes a keyboard 18A and a mouse 18B.

なお、編集システム10は、キーボード18A及びマウス18B以外の他の種類の操作部を備えた構成であってもよいし、更に複数の撮影装置14を備えた構成であってもよい。   Note that the editing system 10 may be configured to include other types of operation units other than the keyboard 18A and the mouse 18B, or may further include a plurality of imaging devices 14.

図2は、他の編集システム10Aを示す模式図である。図2に示すように、編集システム10Aは、編集システム10における操作部18として、キーボード18A及びマウス18Bに加えて、UI部18Cを更に備えた構成である。UI部18Cと、編集装置12とは、図2では有線で接続されているようになされているが、無線接続であっても良い。特に、無線接続の場合には、インターネット上に編集装置12を置き、ネットワーク越しに、UI部18Cが編集装置12を操作し、編集がなされても良い。   FIG. 2 is a schematic diagram showing another editing system 10A. As shown in FIG. 2, the editing system 10 </ b> A is configured to further include a UI unit 18 </ b> C in addition to a keyboard 18 </ b> A and a mouse 18 </ b> B as the operation unit 18 in the editing system 10. The UI unit 18C and the editing device 12 are connected in a wired manner in FIG. 2, but may be wirelessly connected. In particular, in the case of wireless connection, the editing apparatus 12 may be placed on the Internet, and the UI unit 18C may operate the editing apparatus 12 over the network to perform editing.

UI部18Cは、ユーザからの操作入力を受け付けると共に各種画像を表示するタッチパネル機能を備えた装置である。UI部18Cには、例えば、スマートフォン、タブレット端末、ノート型パソコン、デスクトップ型パソコン、またはPDA(Personal Data Assistance)等のコンピュータを用いる。   The UI unit 18C is a device having a touch panel function that accepts an operation input from a user and displays various images. For the UI unit 18C, for example, a computer such as a smartphone, a tablet terminal, a notebook personal computer, a desktop personal computer, or a PDA (Personal Data Assistance) is used.

本実施の形態では、UI部18Cとして、スマートフォンまたはタブレット端末を用いる場合を説明するが、タッチパネル機能を備えた構成であればよい。   In the present embodiment, a case where a smartphone or a tablet terminal is used as the UI unit 18C will be described, but any configuration having a touch panel function may be used.

図3は、他の編集システム10Bを示す模式図である。図3に示すように、編集システム10Bは、編集システム10における撮影装置14として、複数の撮影装置14、撮影装置14、撮影装置14を備えた構成である。なお、図3には、編集システム10Bが、3台の撮影装置14を備える場合を示したが、2台、または4台以上備えた構成であってもよい。 FIG. 3 is a schematic diagram showing another editing system 10B. As illustrated in FIG. 3, the editing system 10B includes a plurality of photographing devices 14 1 , photographing devices 14 2 , and photographing devices 14 3 as the photographing devices 14 in the editing system 10. 3 shows a case where the editing system 10B includes three photographing devices 14, but the configuration may include two or four or more.

編集システム10Bでは、編集装置12は、マルチビデオレシーバ13を介して複数の撮影装置14(撮影装置14、撮影装置14、撮影装置14)に接続されている。マルチビデオレシーバ13を介して複数の撮影装置14に接続した構成とすることで、撮影装置14の通信インターフェース能力に限界がある場合であっても、効率良く複数の撮影装置14から全天球パノラマ動画像を取得することができる。なお、マルチビデオレシーバ13は、ビデオキャプチャデバイスであればよく、マルチビデオレシーバに限られない。 In the editing system 10B, the editing device 12 is connected to a plurality of imaging devices 14 (imaging device 14 1 , imaging device 14 2 , imaging device 14 3 ) via a multi-video receiver 13. By adopting a configuration in which a plurality of imaging devices 14 are connected via the multi-video receiver 13, even if the communication interface capability of the imaging device 14 is limited, the panoramic panorama can be efficiently transmitted from the plurality of imaging devices 14. A moving image can be acquired. The multi video receiver 13 may be a video capture device and is not limited to a multi video receiver.

編集システム10Bの編集装置12は、複数の撮影装置14(撮影装置14、撮影装置14、撮影装置14)の何れから取得した素材(本実施の形態では全天球パノラマ動画像)の編集を行うかを切り替える、スイッチング機能を備えた構成としてもよい。なお、編集装置12では、撮影装置14の切り替えの度に、表示装置16やUI部18Cに表示する素材を切り替えた撮影装置14で取得した素材となるように切替制御してもよい。 The editing device 12 of the editing system 10B includes a material (global celestial panoramic video in the present embodiment) acquired from any of the plurality of imaging devices 14 (imaging device 14 1 , imaging device 14 2 , imaging device 14 3 ). It is good also as a structure provided with the switching function which switches whether editing is performed. Note that the editing device 12 may perform switching control so that the material acquired by the imaging device 14 that has switched the material to be displayed on the display device 16 or the UI unit 18C each time the imaging device 14 is switched.

また、編集装置12では、マルチビデオレシーバ13からのデータ入力がリアルタイムで実行される場合、複数のUI部18C(18C〜18C)を備えた形態とすることが好ましい。 In addition, the editing device 12 preferably includes a plurality of UI units 18C (18C 1 to 18C 3 ) when data input from the multi-video receiver 13 is executed in real time.

以下では、編集システム10は、図2に示す構成の編集システム10Aであるものとして説明する。   In the following description, it is assumed that the editing system 10 is the editing system 10A having the configuration shown in FIG.

次に、図4を用いて、撮影装置14の外観を説明する。図4は、撮影装置14の外観模式図である。なお、図4(A)は撮影装置14の側面図である。図4(B)は、撮影装置14の、図4(A)とは反対側の側面図である。図4(C)は、撮影装置14の平面図である。   Next, the external appearance of the imaging device 14 will be described with reference to FIG. FIG. 4 is a schematic external view of the photographing apparatus 14. FIG. 4A is a side view of the photographing apparatus 14. FIG. 4B is a side view of the imaging device 14 on the side opposite to FIG. 4A. FIG. 4C is a plan view of the imaging device 14.

図4(A)に示すように、撮影装置14は、例えば、人間が片手で持つことができる大きさである。なお、撮影装置14の大きさは、このような大きさに限られない。   As shown in FIG. 4A, the photographing device 14 has a size that a human can hold with one hand, for example. Note that the size of the imaging device 14 is not limited to such a size.

図4に示すように、撮影装置14の上部には、正面側(一方の面側)にレンズ14A及び背面側(他方の面側)にレンズ14Bが設けられている。この各々の180度以上の画角を有する広角レンズを介して、像が導かれ、各々の撮像素子に像が形成される。なお、撮像素子としては、CCDや、CMOS等が挙げられる。また、図4(B)に示されるように、撮影装置14の正面側には、シャッターボタン等の操作部14Cが設けられている。   As shown in FIG. 4, a lens 14 </ b> A is provided on the front side (one side) and a lens 14 </ b> B is provided on the back side (the other side) on the upper part of the photographing apparatus 14. An image is guided through each of these wide-angle lenses having an angle of view of 180 degrees or more, and an image is formed on each image sensor. Examples of the image sensor include a CCD and a CMOS. 4B, an operation unit 14C such as a shutter button is provided on the front side of the photographing apparatus 14.

次に、図5を用いて、撮影装置14の使用状況の一例を説明する。図5は、撮影装置14の使用状況の一例を示す図である。撮影装置14は、図5に示すように、ユーザが手に持ってユーザの周りの被写体を撮影するために用いられる。この場合、レンズ14A及びレンズ14Bによって、それぞれユーザの周りの被写体が撮像され、2つの半球画像が得られ、4πラジアンの立体角内の像が得られる。   Next, an example of a usage state of the photographing apparatus 14 will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of a usage state of the imaging device 14. As shown in FIG. 5, the photographing device 14 is used for photographing a subject around the user with the hand held by the user. In this case, a subject around the user is imaged by the lens 14A and the lens 14B, and two hemispherical images are obtained, and an image within a solid angle of 4π radians is obtained.

次に、図6を用いて、撮影装置14で撮影された画像を説明する。図6は、撮影装置14で撮影された画像の説明図である。図6(A)はレンズ14Aで撮影された半球画像(前側)、図6(B)はレンズ14Bで撮影された半球画像(後側)、図6(C)はメルカトル図法により表された画像(以下、「メルカトル画像」という)を示した図である。   Next, an image photographed by the photographing device 14 will be described with reference to FIG. FIG. 6 is an explanatory diagram of an image photographed by the photographing device 14. 6A is a hemispheric image (front side) photographed by the lens 14A, FIG. 6B is a hemispheric image photographed by the lens 14B (rear side), and FIG. 6C is an image represented by Mercator projection. (Hereinafter, referred to as “Mercatl image”).

図6(A)に示すように、レンズ14Aによって得られた画像は、広角レンズの一つである魚眼レンズあるため湾曲した半球画像(前側)となる。また、図6(B)に示されているように、レンズ14Bによって得られた画像は、広角レンズの一つである魚眼レンズであるため湾曲した半球画像(後側)となる。そして、半球画像(前側)と、半球画像(後側)とは、例えば、撮影装置14によって合成され、図6(C)に示される、メルカトル画像が作成される。このように、1つのメルカトル画像が連続して生成されることにより、メルカトル動画像となる。   As shown in FIG. 6A, the image obtained by the lens 14A is a curved hemispherical image (front side) because there is a fisheye lens that is one of the wide-angle lenses. Further, as shown in FIG. 6B, the image obtained by the lens 14B is a fish-eye lens that is one of the wide-angle lenses, and thus becomes a curved hemispherical image (rear side). Then, the hemispherical image (front side) and the hemispherical image (rear side) are combined by, for example, the photographing device 14 to create a Mercator image shown in FIG. As described above, a Mercator moving image is generated by continuously generating one Mercator image.

図2に戻り、撮影装置14で得られたメルカトル動画像は、編集装置12と接続されると、撮影装置14から編集装置12へ送信される。なお、本実施の形態では、撮影装置14は、メルカトル動画像を、編集装置12へ送信する。この他に、撮影装置14で撮影された2つの半球画像を、編集装置12に送信しても良い。この場合、編集装置12が、2つの半球画像を用いて、図6(C)に示される、メルカトル画像が生成され、さらに、メルカトル画像が連続して連なると全天球パノラマ動画像となる。   Returning to FIG. 2, the Mercator moving image obtained by the photographing device 14 is transmitted from the photographing device 14 to the editing device 12 when connected to the editing device 12. In the present embodiment, the imaging device 14 transmits a Mercator moving image to the editing device 12. In addition, two hemispherical images photographed by the photographing device 14 may be transmitted to the editing device 12. In this case, the editing device 12 generates a Mercator image shown in FIG. 6C by using two hemispherical images, and when the Mercator images are continuously connected, an omnidirectional panoramic moving image is obtained.

編集装置12では、メルカトル動画像を、全天球パノラマ動画像として撮影装置14から取得する。図7は、全天球パノラマ動画像の1フレームの一例を示す模式図である。   The editing device 12 acquires the Mercator moving image from the photographing device 14 as a panoramic moving image. FIG. 7 is a schematic diagram illustrating an example of one frame of the omnidirectional panoramic video.

本実施の形態では、編集装置12は、全天球パノラマ動画像の編集処理を実行する(詳細後述)。   In the present embodiment, the editing device 12 executes editing processing of the omnidirectional panoramic video (details will be described later).

なお、編集装置12では、取得したメルカトル画像を、OpenGL(Open Graphics Library)を利用することで、全天球パノラマ動画像として表示装置16や後述するUI部18C等へ表示する。   The editing device 12 displays the acquired Mercator image on the display device 16, a UI unit 18 </ b> C, which will be described later, and the like as an omnidirectional panoramic moving image by using OpenGL (Open Graphics Library).

次に、UI部18Cの構成を説明する。   Next, the configuration of the UI unit 18C will be described.

図8は、UI部18Cを示す模式図である。本実施の形態では、UI部18Cとして、スマートフォン等の端末を用いる場合を説明する。UI部18Cは、ディスプレイ315を備えている。ディスプレイ315は、各種画像を表示すると共に、ユーザからの各種操作指示を受け付けるタッチパネル機能を備えた装置である。   FIG. 8 is a schematic diagram showing the UI unit 18C. In the present embodiment, a case where a terminal such as a smartphone is used as the UI unit 18C will be described. The UI unit 18C includes a display 315. The display 315 is a device having a touch panel function for displaying various images and receiving various operation instructions from the user.

次に、撮影装置14、編集装置12、及びUI部18Cのハードウェア構成を説明する。   Next, the hardware configuration of the imaging device 14, the editing device 12, and the UI unit 18C will be described.

図9は、撮影装置14のハードウェア構成の説明図である。   FIG. 9 is an explanatory diagram of a hardware configuration of the imaging device 14.

図9に示すように、撮影装置14は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部14C、ネットワークI/F116、及び通信部117を備える。   As shown in FIG. 9, the imaging device 14 includes an imaging unit 101, an image processing unit 104, an imaging control unit 105, a CPU (Central Processing Unit) 111, a ROM (Read Only Memory) 112, and an SRAM (Static Random Access Memory) 113. , A DRAM (Dynamic Random Access Memory) 114, an operation unit 14C, a network I / F 116, and a communication unit 117.

撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)14A,14Bと、各広角レンズに対応させて設けられている2つの撮像素子15A,15Bを備えている。撮像素子15A,15Bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有する。   The imaging unit 101 includes wide-angle lenses (so-called fisheye lenses) 14A and 14B each having an angle of view of 180 ° or more for forming a hemispherical image, and two imaging elements 15A provided corresponding to the wide-angle lenses. 15B. The image sensors 15A and 15B are image sensors such as a CMOS (Complementary Metal Oxide Semiconductor) sensor and a CCD (Charge Coupled Device) sensor that convert an optical image obtained by a fisheye lens into image data of an electric signal and output the image data. A timing generation circuit for generating a vertical synchronization signal, a pixel clock, and the like, and a register group in which various commands and parameters necessary for the operation of the image sensor are set.

撮像ユニット101の撮像素子15A,15Bは、各々、画像処理ユニット104とパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子15A,15Bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部14C、ネットワークI/F116なども接続される。   The imaging elements 15A and 15B of the imaging unit 101 are each connected to the image processing unit 104 via a parallel I / F bus. On the other hand, the imaging elements 15A and 15B of the imaging unit 101 are connected to a serial I / F bus (I2C bus or the like) separately from the imaging control unit 105. The image processing unit 104 and the imaging control unit 105 are connected to the CPU 111 via the bus 110. Furthermore, ROM 112, SRAM 113, DRAM 114, operation unit 14C, network I / F 116, and the like are also connected to the bus 110.

画像処理ユニット104は、撮像素子15A,15Bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図6(C)に示されているようなメルカトル画像のデータを作成する。この撮像素子15A,15Bにより出力される画像データが、連続的に行われ、これらの画像データにより、複数のメルカトル画像が連なると、全天球パノラマ動画像となる。   The image processing unit 104 takes in the image data output from the image pickup devices 15A and 15B through the parallel I / F bus, performs predetermined processing on the respective image data, and then combines these image data. Then, data of a Mercator image as shown in FIG. 6C is created. The image data output by the imaging elements 15A and 15B is continuously performed. When a plurality of Mercator images are connected by these image data, an omnidirectional panoramic moving image is obtained.

撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子15A,15Bをスレーブデバイスとして、I2Cバスを利用して、撮像素子15A,15Bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子15A,15Bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。   In general, the imaging control unit 105 sets a command or the like in a register group of the imaging elements 15A and 15B using the I2C bus with the imaging control unit 105 as a master device and the imaging elements 15A and 15B as slave devices. Necessary commands and the like are received from the CPU 111. The imaging control unit 105 also uses the I2C bus to capture the status data of the register groups of the imaging elements 15A and 15B and send it to the CPU 111.

また、撮像制御ユニット105は、操作部14Cのシャッターボタンが押下されたタイミングで、撮像素子15A,15Bに画像データの出力を指示する。撮影装置14によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子15A,15Bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。   Further, the imaging control unit 105 instructs the imaging elements 15A and 15B to output image data at the timing when the shutter button of the operation unit 14C is pressed. Some imaging devices 14 may have a preview display function using a display or a function corresponding to moving image display. In this case, output of image data from the image sensors 15A and 15B is continuously performed at a predetermined frame rate (frame / min).

また、撮像制御ユニット105は、CPU111と協働して撮像素子15A,15Bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮影装置14には表示部が設けられていないが、表示部を設けてもよい。   The imaging control unit 105 also functions as a synchronization control unit that synchronizes the output timing of the image data of the imaging elements 15A and 15B in cooperation with the CPU 111. In the present embodiment, the imaging device 14 is not provided with a display unit, but a display unit may be provided.

CPU111は、撮影装置14の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。   The CPU 111 controls the overall operation of the photographing apparatus 14 and executes necessary processes. The ROM 112 stores various programs for the CPU 111. The SRAM 113 and the DRAM 114 are work memories, and store programs executed by the CPU 111, data being processed, and the like. In particular, the DRAM 114 stores image data being processed by the image processing unit 104 and processed Mercator image data.

操作部14Cは、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮影モードや撮影条件などを入力する。   The operation unit 14C is a generic name for various operation buttons, a power switch, a shutter button, a touch panel that has both display and operation functions, and the like. The user inputs various shooting modes and shooting conditions by operating the operation buttons.

ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じて、ネットワークI/FとなるネットワークI/F116を介して、編集装置12等の外部装置に送信される。   The network I / F 116 is a general term for an interface circuit (USB I / F or the like) with an external medium such as an SD card or a personal computer. Further, the network I / F 116 may be a network interface regardless of wireless or wired. The data of the Mercator image stored in the DRAM 114 is recorded on an external medium via the network I / F 116 or, if necessary, the editing device 12 via the network I / F 116 serving as the network I / F. To the external device.

通信部117は、アンテナを介して、WiFi(wireless fidelity)やBluetooth(登録商標)等の短距離無線技術等によって、編集装置12等の外部装置と通信を行う。この通信部117によっても、メルカトル動画像のデータを、全天球パノラマ動画像として、編集装置12等の外部装置に送信することができる。   The communication unit 117 communicates with an external device such as the editing device 12 through an antenna by a short-range wireless technology such as WiFi (wireless fidelity) or Bluetooth (registered trademark). The communication unit 117 can also transmit Mercator moving image data as an omnidirectional panoramic moving image to an external device such as the editing device 12.

図10は、UI部18Cのハードウェア構成の説明図である。   FIG. 10 is an explanatory diagram of the hardware configuration of the UI unit 18C.

図10に示すように、UI部18Cは、UI部18C全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)303、CPU301の制御にしたがってデータの読み出し又は書き込みを行うEEPROM(Electrically Erasable and Programmable ROM)304、CPU301の制御に従って被写体を撮像し画像データを得る撮像素子としてのCMOS305、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種加速度・方位センサ306、フラッシュメモリ等の記録メディア307に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ308を備えている。   As shown in FIG. 10, the UI unit 18C includes a CPU 301 that controls the operation of the entire UI unit 18C, a ROM 302 that stores basic input / output programs, a RAM (Random Access Memory) 303 that is used as a work area for the CPU 301, An EEPROM (Electrically Erasable and Programmable ROM) 304 that reads or writes data according to control, a CMOS 305 that captures an image of a subject under the control of the CPU 301 and obtains image data, an electromagnetic compass or gyro compass that detects geomagnetism, and acceleration Control reading and writing (memory) of data to various acceleration / direction sensors 306 such as sensors and recording media 307 such as flash memory. It is equipped with a media drive 308.

EEPROM104には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。また、CMOS305の代わりにCCDを用いてもよい。   The EEPROM 104 stores an operating system (OS) executed by the CPU 301, other programs, and various data. A CCD may be used instead of the CMOS 305.

また、UI部18Cは、音声を音声信号に変換する音声入力部311、音声信号を音声に変換する音声出力部312、アンテナ313a、アンテナ313aを利用して無線通信信号により、最寄の基地局等と通信を行う通信部313、GPS(Global Positioning System)衛星からUI部18Cの位置情報(緯度、経度、および高度)を含んだGPS信号を受信するGPS受信部314、及びディスプレイ315を備える。   In addition, the UI unit 18C includes a voice input unit 311 that converts voice into a voice signal, a voice output unit 312 that converts voice signals into voice, an antenna 313a, and a radio communication signal that uses the antenna 313a to obtain the nearest base station. A communication unit 313 that communicates with the GPS, a GPS receiving unit 314 that receives GPS signals including position information (latitude, longitude, and altitude) of the UI unit 18C from a GPS (Global Positioning System) satellite, and a display 315.

ディスプレイ315は、液晶や有機ELなどの表示部と、感圧式又は静電式のパネルによって構成されている。このため、ディスプレイ315は、上述したように、各種画像を表示すると共に、ユーザからの各種操作指示を受け付ける。   The display 315 includes a display unit such as liquid crystal or organic EL, and a pressure-sensitive or electrostatic panel. Therefore, the display 315 displays various images and accepts various operation instructions from the user as described above.

次に、編集装置12のハードウェア構成を説明する。   Next, the hardware configuration of the editing device 12 will be described.

図11は、編集装置12のハードウェア構成の説明図である。   FIG. 11 is an explanatory diagram of the hardware configuration of the editing device 12.

図11に示すように、編集装置12は、編集装置12全体の動作を制御するCPU30、IPL等のCPU30の駆動に用いられるプログラムを記憶したROM32、CPU30のワークエリアとして使用されるRAM34、編集装置12用のプログラム等の各種データを記憶するHD38、CPU30の制御にしたがってHD38に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)36を備える。   As shown in FIG. 11, the editing device 12 includes a CPU 30 that controls the operation of the editing device 12 as a whole, a ROM 32 that stores a program used to drive the CPU 30 such as an IPL, a RAM 34 that is used as a work area for the CPU 30, and an editing device. 12 includes an HD 38 for storing various data such as a program for 12 and an HDD (Hard Disk Drive) 36 for controlling reading or writing of various data to the HD 38 according to the control of the CPU 30.

また、編集装置12は、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、各種画像を表示するディスプレイ508、撮影装置14及び操作部18(キーボード18A、マウス18B、UI部18C)と通信するためのI/F509、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514、及び、上記各構成要素を電気的に接続するバスライン510を備える。   Also, the editing device 12 includes a media drive 507 that controls reading or writing (storage) of data with respect to a recording medium 506 such as a flash memory, a display 508 that displays various images, a photographing device 14, and an operation unit 18 (a keyboard 18A, a mouse). 18B, I / F 509 for communicating with the UI unit 18C), a CD-ROM drive 514 for controlling reading or writing of various data with respect to a compact disc read only memory (CD-ROM) 513 as an example of a removable recording medium. And a bus line 510 that electrically connects the above-described components.

次に、編集装置12の機能的構成を説明する。   Next, a functional configuration of the editing device 12 will be described.

図12は、編集装置12の機能的構成を示す模式図である。図12に示すように、編集装置12は、制御部52と、UI部18C等の操作部18と、HD(ハードディスク)38と、を備える。制御部52は、撮影装置14、表示装置16、UI部18C等の操作部18、及びHD38に電気的に接続されている。   FIG. 12 is a schematic diagram illustrating a functional configuration of the editing device 12. As illustrated in FIG. 12, the editing device 12 includes a control unit 52, an operation unit 18 such as a UI unit 18 </ b> C, and an HD (hard disk) 38. The control unit 52 is electrically connected to the imaging device 14, the display device 16, the operation unit 18 such as the UI unit 18 </ b> C, and the HD 38.

制御部52は、編集装置12の全体を制御し、上述したCPU30、ROM32、RAM34等を含むコンピュータである。   The control unit 52 is a computer that controls the entire editing apparatus 12 and includes the above-described CPU 30, ROM 32, RAM 34, and the like.

制御部52は、接続部54、取込部56、表示制御部58、取得部60、判別部62、トリミング部64、記憶制御部68、及び書出部70を備える。   The control unit 52 includes a connection unit 54, a capture unit 56, a display control unit 58, an acquisition unit 60, a determination unit 62, a trimming unit 64, a storage control unit 68, and a writing unit 70.

接続部54は、撮影装置14との接続を確立する。接続部54は、例えば、編集装置12に撮影装置14が有線または無線により接続された状態で、撮影装置14との間で予め定めた通信プロトコルに従って接続確立のための通信制御を行う。これによって、接続部54は、撮影装置14との接続を確立する。   The connection unit 54 establishes a connection with the imaging device 14. For example, the connection unit 54 performs communication control for establishing a connection with the photographing apparatus 14 according to a predetermined communication protocol in a state where the photographing apparatus 14 is connected to the editing apparatus 12 by wire or wirelessly. As a result, the connection unit 54 establishes a connection with the imaging device 14.

取込部56は、撮影装置14から全天球パノラマ動画像を取り込む。また、取込部56は、撮影装置14や各種記憶媒体等から、全天球パノラマ動画像以外の他の素材をインポートする。表示制御部58は、各種素材を表示装置16やUI部18Cに表示する制御を行う。   The capturing unit 56 captures an omnidirectional panoramic moving image from the imaging device 14. Further, the capturing unit 56 imports materials other than the omnidirectional panoramic video from the imaging device 14 and various storage media. The display control unit 58 performs control to display various materials on the display device 16 and the UI unit 18C.

本実施の形態では、表示制御部58は、編集画面74を表示装置16に表示する制御を行う。また、表示制御部58は、メディアコントロール領域76をUI部18Cに表示する制御を行う。   In the present embodiment, the display control unit 58 performs control to display the editing screen 74 on the display device 16. In addition, the display control unit 58 performs control to display the media control area 76 on the UI unit 18C.

編集画面74は、編集装置12において全天球パノラマ動画像の編集処理を実行するときに、表示装置16に表示する編集用の表示画面である。   The editing screen 74 is a display screen for editing that is displayed on the display device 16 when the editing device 12 executes editing processing of the omnidirectional panoramic video.

図13は、編集画面74の一例を示す模式図である。図14は、編集画面74の一例を具体的に示すイメージ図である。   FIG. 13 is a schematic diagram illustrating an example of the edit screen 74. FIG. 14 is an image diagram specifically showing an example of the edit screen 74.

図13及び図14に示すように、編集画面74には、タイトル領域74A、メニュー領域74B、メディアブラウザ領域74C、ビデオモニター領域74D、メディアコントロール領域74E、及びタイムライン領域74Fが設けられている。   As shown in FIGS. 13 and 14, the edit screen 74 is provided with a title area 74A, a menu area 74B, a media browser area 74C, a video monitor area 74D, a media control area 74E, and a timeline area 74F.

タイトル領域74Aは、アプリケーションのタイトル等を表示する領域である。メニュー領域74Bは、メニュー項目一覧を表示する領域である。図14に示す例では、「ファイル」、「編集」、「表示」、「ツール」、「エフェクト」、「ウィンドウ」、及び「ヘルプ」がメニュー項目として示されている。   The title area 74A is an area for displaying an application title and the like. The menu area 74B is an area for displaying a menu item list. In the example shown in FIG. 14, “file”, “edit”, “display”, “tool”, “effect”, “window”, and “help” are shown as menu items.

ユーザは、操作部18を操作指示することで、これらのメニュー項目の内の何れかを選択し、各メニュー項目によって示される各種設定を行うことができる。   The user can select any of these menu items by operating the operation unit 18 and perform various settings indicated by the menu items.

メディアブラウザ領域74Cは、編集装置12において編集可能な素材の一覧を表示する領域である。ビデオモニター領域74Dは、編集対象として選択された素材の画像や素材の動画像を表示する領域である、タイムライン領域74Fは、メディアブラウザ領域74Cに表示されている編集可能な素材を時系列に配置した画像である。なお、各素材の時系列における配置位置は、ユーザによる操作部18の操作指示によって調整される。   The media browser area 74C is an area for displaying a list of materials that can be edited in the editing apparatus 12. The video monitor area 74D is an area for displaying an image of a material selected as an object to be edited or a moving image of the material. A timeline area 74F is an editable material displayed in the media browser area 74C in chronological order. It is the arranged image. In addition, the arrangement position of each material in time series is adjusted by an operation instruction of the operation unit 18 by the user.

本実施の形態では、編集画面74は、メディアコントロール領域74Eを含む。メディアコントロール領域74Eは、操作部18を介してユーザによって選択された編集対象の全天球パノラマ画像を表示する領域である。具体的には、メディアコントロール領域74Eは、編集対象の全天球パノラマ動画像から抽出された抽出動画像を表示する(詳細後述)。   In the present embodiment, the edit screen 74 includes a media control area 74E. The media control area 74E is an area for displaying an omnidirectional panoramic image to be edited selected by the user via the operation unit 18. Specifically, the media control area 74E displays an extracted moving image extracted from the omnidirectional panoramic moving image to be edited (details will be described later).

ユーザは、メディアコントロール領域74Eに表示された全天球パノラマ動画像の抽出動画像を用いて、画像編集のための操作指示を行う。編集装置12では、メディアコントロール領域74Eを介して指示された操作指示によって示される操作情報を受け付け、後述する編集処理を実行する。   The user gives an operation instruction for image editing using the extracted moving image of the omnidirectional panoramic moving image displayed in the media control area 74E. The editing apparatus 12 receives operation information indicated by an operation instruction instructed via the media control area 74E, and executes an editing process described later.

UI部18Cに表示するメディアコントロール領域76は、メディアコントロール領域74Eと同じ画像である。すなわち、ユーザは、UI部18Cに表示された編集対象の全天球パノラマ動画像の抽出画像を確認しながら、画像編集のための操作指示を行う。   The media control area 76 displayed on the UI unit 18C is the same image as the media control area 74E. That is, the user issues an operation instruction for image editing while confirming the extracted image of the omnidirectional panoramic moving image to be edited displayed on the UI unit 18C.

図12に戻り、また、本実施の形態では、表示制御部58は、編集対象の全天球パノラマ動画像から、該全天球パノラマ動画像より狭い画角の画角領域を抽出した抽出動画像を、表示装置16及びUI部18Cに表示する制御を行う。   Returning to FIG. 12, in the present embodiment, the display control unit 58 extracts an extracted moving image in which an angle-of-view area having a narrower angle of view than the omnidirectional panoramic moving image is extracted from the omnidirectional panoramic moving image to be edited. Control is performed to display the image on the display device 16 and the UI unit 18C.

すなわち、表示制御部58は、編集対象の全天球パノラマ動画像から、該全天球パノラマ動画像より狭い画角の画角領域を抽出した抽出動画像を、編集対象の全天球パノラマ動画像を示す編集用の動画像として、表示装置16のメディアコントロール領域74E及びUI部18Cへ表示する。   That is, the display control unit 58 extracts an extracted moving image obtained by extracting a field angle region having a narrower angle of view than the omnidirectional panoramic moving image from the omnidirectional panoramic moving image to be edited. The moving image for editing showing the image is displayed on the media control area 74E and the UI unit 18C of the display device 16.

具体的には、表示制御部58は、編集対象の全天球パノラマ動画像から抽出した抽出動画像を、三次元の立体球状と仮定した該全天球パノラマ動画像を該立体球の中心から仮想撮影装置により該画角で撮影した動画像として、メディアコントロール領域74E及びUI部18Cへ表示する。   Specifically, the display control unit 58 uses the extracted moving image extracted from the omnidirectional panoramic moving image to be edited, the omnidirectional panoramic moving image assuming a three-dimensional solid sphere as the center of the three-dimensional sphere. The moving image captured at the angle of view by the virtual imaging device is displayed on the media control area 74E and the UI unit 18C.

図15及び図16は、三次元の立体球状と仮定した全天球パノラマ動画像を、該立体球の中心から仮想撮影装置によって撮影した状態を示す説明図である。   FIGS. 15 and 16 are explanatory diagrams showing a state in which a panoramic moving image assumed to be a three-dimensional solid sphere is photographed from the center of the solid sphere by a virtual photographing device.

全天球パノラマ動画像が、図7に示すような、三次元の立体球状であると仮定する。この場合、図15及び図16に示すように、仮想撮影装置を、この立体球CSの中心Pに位置させる。すると、この中心Pを原点とした座標系が構築される。画角領域Sは、中心Pに設置した仮想撮影装置が、全天球パノラマ動画像より狭い画角で該立体球状の全天球パノラマ動画像を撮影するときの撮影画角に対応する領域である。   It is assumed that the omnidirectional panoramic video is a three-dimensional solid sphere as shown in FIG. In this case, as shown in FIGS. 15 and 16, the virtual photographing device is positioned at the center P of the solid sphere CS. Then, a coordinate system with this center P as the origin is constructed. The angle of view area S is an area corresponding to a shooting angle of view when the virtual imaging device installed at the center P captures the stereoscopic spherical panoramic moving image with a narrower angle of view than the panoramic moving image. is there.

画角領域Sは、編集対象の全天球パノラマ動画像における仮想撮影装置の姿勢や、仮想撮影装置の撮影倍率(ズーム)、及び該全天球パノラマ動画像における仮想撮影装置の視点位置、によって特定される。なお、撮影倍率は、すなわち、該画角の倍率情報(ズーム)を示す。   The angle-of-view area S depends on the orientation of the virtual photographing device in the omnidirectional panoramic moving image to be edited, the photographing magnification (zoom) of the virtual photographing device, and the viewpoint position of the virtual photographing device in the omnidirectional panoramic moving image. Identified. The photographing magnification indicates magnification information (zoom) of the angle of view.

仮想撮影装置の姿勢は、中心Pを原点とした座標系を構成する3軸の各々の回転角(ヨー、ピッチ、ロール)によって特定する。   The attitude of the virtual imaging device is specified by the rotation angles (yaw, pitch, roll) of each of the three axes that constitute the coordinate system with the center P as the origin.

これらの、仮想撮影装置の姿勢、画角の倍率情報、及び仮想撮影装置の視点位置は、ユーザによる操作部18の操作指示によって指示される。操作部18は、該操作指示によって入力された操作情報を、編集装置12へ送信する。   The orientation of the virtual photographing device, the magnification information of the angle of view, and the viewpoint position of the virtual photographing device are instructed by an operation instruction of the operation unit 18 by the user. The operation unit 18 transmits the operation information input by the operation instruction to the editing device 12.

これによって、編集装置12は、操作情報を取得する。操作情報は、仮想撮影装置の撮影画角としての上記画角に関する情報であり、上述のように、仮想撮影装置の姿勢、画角の倍率情報、及び仮想撮影装置の視点位置の少なくとも1つを含む。   Thereby, the editing device 12 acquires operation information. The operation information is information related to the angle of view as the shooting angle of view of the virtual shooting device. As described above, at least one of the attitude of the virtual shooting device, the magnification information of the angle of view, and the viewpoint position of the virtual shooting device is selected. Including.

取得部60は、表示装置16及びUI部18Cの少なくとも一方への抽出動画像の再生中に、操作部18から、画角に関する操作情報を受け付ける。   The acquisition unit 60 receives operation information regarding the angle of view from the operation unit 18 during reproduction of the extracted moving image on at least one of the display device 16 and the UI unit 18C.

判別部62は、編集対象の素材が全天球パノラマ動画像であるか否かを判別する。判別部62は、判別方法により、ユーザによる操作部18の操作指示によって指示された編集対象の素材が全天球パノラマ動画像であるか否かを判別する。判定方法としては、例えば、動画像のフォーマットや、動画像に含まれる属性情報等により判定されることが挙げられる。   The determination unit 62 determines whether or not the material to be edited is an omnidirectional panoramic video. The discriminating unit 62 discriminates whether or not the material to be edited instructed by the operation instruction of the operation unit 18 by the user is an omnidirectional panoramic moving image by the discrimination method. Examples of the determination method include determination based on the format of a moving image, attribute information included in the moving image, and the like.

記憶制御部68は、取得部60で取得した操作情報に含まれる、仮想撮影装置の姿勢、画角の倍率情報、及び仮想撮影装置の視点位置を、操作情報を取得した時間毎に、編集対象の再生中の全天球パノラマ動画像の再生開始からの経過時間に対応づけて、HD38に順次記憶する制御を行う。   The storage control unit 68 edits the orientation of the virtual imaging device, the magnification information of the angle of view, and the viewpoint position of the virtual imaging device included in the operation information acquired by the acquisition unit 60 for each time when the operation information is acquired. In accordance with the elapsed time from the start of playback of the omnidirectional panoramic video during playback, control for sequentially storing in the HD 38 is performed.

なお、記憶制御部68は、操作部18で操作情報の指示された指示時間を、操作情報を取得した時間として、該時間毎に、操作情報を上記経過時間に対応づけてHD38へ記憶してもよい。この場合、操作部18は、操作情報の指示された指示時間を含む操作情報を、編集装置12へ送信する構成とすればよい。なお、記憶制御部68は、編集対象の全天球パノラマ動画像の識別情報に対応づけて、上記経過時間及び操作情報をHD38へ記憶する。   Note that the storage control unit 68 stores the operation information in the HD 38 in association with the above-mentioned elapsed time every time when the instruction time in which the operation information is instructed by the operation unit 18 is the time when the operation information is acquired. Also good. In this case, the operation unit 18 may be configured to transmit the operation information including the instruction time for which the operation information is instructed to the editing device 12. The storage control unit 68 stores the elapsed time and the operation information in the HD 38 in association with the identification information of the omnidirectional panoramic moving image to be edited.

トリミング部64は、編集対象の全天球パノラマ動画像について、所定の方法によりトリミング処理を行う。所定の方法としては、例えば、静止画に行われるトリミング方法が挙げられる。   The trimming unit 64 performs a trimming process on the omnidirectional panoramic moving image to be edited by a predetermined method. Examples of the predetermined method include a trimming method performed on a still image.

書出部70は、動画像の書出処理を実行する。書出部70は、判別部70A、切出部70B、変換部70C、及び生成部70Dを含む。判別部70Aは、書出対象が全天球パノラマ動画像であるか否かを判別する。   The writing unit 70 executes a moving image writing process. The writing unit 70 includes a determination unit 70A, a cutting unit 70B, a conversion unit 70C, and a generation unit 70D. The discriminating unit 70A discriminates whether or not the writing target is an omnidirectional panoramic video.

切出部70Bは、HD38に記憶された、書出対象の全天球パノラマ動画像の操作情報を用いて、再生開始からの経過時間毎の画角に関する操作情報によって特定される画角の画角領域を、対応する経過時間毎に書出対象の全天球パノラマ動画像から切出す。   The cutout unit 70B uses the operation information of the omnidirectional panoramic moving image to be written stored in the HD 38, and displays the image of the angle of view specified by the operation information regarding the angle of view for each elapsed time from the start of reproduction. A corner area is cut out from the omnidirectional panoramic moving image to be written at every corresponding elapsed time.

具体的には、切出部70Bは、書出対象の全天球パノラマ動画像の操作情報に含まれる、仮想撮影装置の姿勢、画角の倍率情報、及び仮想撮影装置の視点位置から画角を特定し、特定した画角の画角領域Sを、対応する経過時間毎に、該全天球パノラマ動画像から切出す。   Specifically, the cutout unit 70B determines the angle of view from the attitude of the virtual photographing device, the magnification information of the angle of view, and the viewpoint position of the virtual photographing device included in the operation information of the omnidirectional panoramic moving image to be written. And the angle-of-view area S of the specified angle of view is cut out from the omnidirectional panoramic moving image for each corresponding elapsed time.

変換部70Cは、全天球パノラマ動画像から切出された切出動画像を、予め定めたファイル形式またはユーザによる操作指示によって指示されたファイル形式に変換する。生成部70Dは、変換部70Cで変換された切出動画像を、書出対象の動画像として生成する。   The conversion unit 70C converts the extracted moving image extracted from the omnidirectional panoramic moving image into a predetermined file format or a file format instructed by an operation instruction by the user. The generation unit 70D generates the cutout moving image converted by the conversion unit 70C as a moving image to be written.

図17は、UI部18Cに表示されたメディアコントロール領域76の一例を示す模式図である。なお、UI部18Cは、メディアコントロール領域76と共に、表示欄76Aと、RECボタン76B等の各種指示ボタンを表示する。   FIG. 17 is a schematic diagram illustrating an example of the media control area 76 displayed on the UI unit 18C. The UI unit 18C displays a display field 76A and various instruction buttons such as a REC button 76B together with the media control area 76.

ユーザは、UI部18Cに表示されたメディアコントロール領域76について、ピンチインピンチアウトや、各種押圧指示等の1または複数の操作を組み合わせることで、操作指示を行い、操作情報を入力する。   For the media control area 76 displayed on the UI unit 18C, the user performs an operation instruction and inputs operation information by combining one or more operations such as pinch-in / pinch-out and various pressing instructions.

図18は、UI部18Cを用いた操作指示の一例の説明図である。   FIG. 18 is an explanatory diagram of an example of an operation instruction using the UI unit 18C.

例えば、仮想撮影装置の姿勢におけるヨー、ピッチ、及び仮想撮影装置の視点位置を調整する場合には、ユーザは、UI部18Cのメディアコントロール領域76に表示された、全天球パノラマ動画像の抽出動画像V1を参照しながら、操作指示を行い、操作情報を入力する。   For example, when adjusting the yaw and pitch in the posture of the virtual photographing device and the viewpoint position of the virtual photographing device, the user extracts the panoramic panoramic video displayed in the media control area 76 of the UI unit 18C. An operation instruction is given while referring to the moving image V1, and operation information is input.

具体的には、ユーザは、メディアコントロール領域76のタッチパネル上を該パネル上における上下左右方向に指示することで、姿勢としてのヨー、ピッチ、及び視点位置を調整するための操作指示を行う(図18(A)参照)。UI部18Cは、これらの操作指示を受け付けることで、ヨー、ピッチ、及び視点位置を含む操作情報を受け付ける。  Specifically, the user gives an operation instruction to adjust the yaw, pitch, and viewpoint position as the posture by instructing the touch panel in the media control area 76 in the vertical and horizontal directions on the panel (see FIG. 18 (A)). The UI unit 18C receives operation information including yaw, pitch, and viewpoint position by receiving these operation instructions.

また、例えば、仮想撮影装置のロールを調整する場合には、ユーザは、2本の指をUI部18Cにあてた状態で、この2本の指を、仮想撮影装置を回転させたい方向に動かす(図18(B)参照)。UI部18Cは、これらの操作指示を受け付けることで、ロールを含む操作情報を受け付ける。   For example, when adjusting the roll of the virtual photographing device, the user moves the two fingers in the direction in which the virtual photographing device is to be rotated with the two fingers placed on the UI unit 18C. (See FIG. 18B). The UI unit 18C receives operation information including a role by receiving these operation instructions.

また、例えば、ユーザは、一方の手の指をUI部18Cにあてた状態で、他方の指でUI部18C上で円を描くように動かすことで、仮想撮影装置のロールを調整してもよい(図18(C)参照)。UI部18Cは、これらの操作指示を受け付けることで、ロールを含む操作情報を受け付ける。   Further, for example, the user may adjust the roll of the virtual photographing device by moving the finger of one hand against the UI unit 18C so as to draw a circle on the UI unit 18C with the other finger. Good (see FIG. 18C). The UI unit 18C receives operation information including a role by receiving these operation instructions.

また、例えば、ユーザは、仮想撮影装置のズーム指示を行う場合には、ピンチインピンチアウトを行う(図18(D))。UI部18Cは、これらの操作指示を受け付けることで、仮想撮影装置のズーム(倍率情報)を受け付ける。   Further, for example, the user performs pinch-in / pinch-out when performing a zoom instruction of the virtual photographing apparatus (FIG. 18D). The UI unit 18C receives zoom (magnification information) of the virtual photographing device by receiving these operation instructions.

次に、編集装置12の制御部52で実行する編集処理を説明する。   Next, editing processing executed by the control unit 52 of the editing device 12 will be described.

図19は、制御部52で実行する編集処理の手順を示すフローチャートである。   FIG. 19 is a flowchart illustrating a procedure of editing processing executed by the control unit 52.

まず、編集装置12の取得部60が、編集プログラムの実行指示を操作部18から受け付ける。制御部52では、ROM32等に予め記憶されている編集プログラムを実行することで、図19に示す手順を実行する。また、制御部52が編集プログラムを実行すると、表示制御部58は、編集画面74を表示装置16に表示する制御を行うと共に、UI部18Cにメディアブラウザ領域74Cを表示する制御を行う。   First, the acquisition unit 60 of the editing device 12 receives an instruction to execute an editing program from the operation unit 18. The control unit 52 executes the procedure shown in FIG. 19 by executing an editing program stored in advance in the ROM 32 or the like. When the control unit 52 executes the editing program, the display control unit 58 performs control for displaying the editing screen 74 on the display device 16 and performs control for displaying the media browser area 74C on the UI unit 18C.

なお、以下の処理を実行する前の状態においては、表示装置16に表示される編集画面74におけるメディアブラウザ領域74C、ビデオモニター領域74D、メディアコントロール領域74E、及びタイムライン領域74Fには、何も表示されていない状態、または、前回編集時のデータが表示された状態となっている。同様に、UI部18Cに表示するメディアコントロール領域76には、何も表示されていない状態となっている。   In the state before executing the following processing, nothing is stored in the media browser area 74C, video monitor area 74D, media control area 74E, and timeline area 74F in the edit screen 74 displayed on the display device 16. It is not displayed, or the data at the time of the previous editing is displayed. Similarly, nothing is displayed in the media control area 76 displayed on the UI unit 18C.

まず、接続部54が撮影装置14との接続確立を行う(ステップS200)。ステップS200の処理によって、編集装置12は、撮影装置14と信号授受可能な状態となる。   First, the connection unit 54 establishes a connection with the imaging device 14 (step S200). By the processing in step S200, the editing device 12 is in a state where signals can be exchanged with the photographing device 14.

次に、制御部52では、ステップS202〜ステップS206の処理を、操作部18から指示された素材数分繰り返す。   Next, the control unit 52 repeats the processing of step S202 to step S206 for the number of materials instructed from the operation unit 18.

具体的には、取込部56が、ユーザによる操作部18の操作指示によって取込対象として指示された素材としての全天球パノラマ動画像をキャプチャ、すなわち取り込む(ステップS202)。   Specifically, the capturing unit 56 captures, that is, captures a panoramic moving image as a material instructed as a capturing target by an operation instruction of the operation unit 18 by the user (step S202).

次に、表示制御部58が、ステップS202でキャプチャされた全天球パノラマ動画像の内、ユーザによる操作部18の操作指示によって指示された素材を、編集画面74におけるタイムライン領域74Fに配置する(ステップS204)。ステップS204では、表示制御部58は、取込部56が操作部18から取得した素材を示す情報によって特定される素材をタイムライン領域74Fに配置する。   Next, the display control unit 58 arranges the material instructed by the operation instruction of the operation unit 18 by the user in the omnidirectional panoramic moving image captured in step S202 in the timeline region 74F on the editing screen 74. (Step S204). In step S204, the display control unit 58 places the material specified by the information indicating the material acquired by the capturing unit 56 from the operation unit 18 in the timeline area 74F.

次に、取込部56が、その他素材のインポートを実行する(ステップS206)。ステップS206では、ユーザによる操作部18の操作指示によって指示されたその他の素材を、インポートする。表示制御部58は、インポートされた素材を、タイムライン領域74Fに配置する。   Next, the capturing unit 56 imports other materials (step S206). In step S206, the other material instructed by the operation instruction of the operation unit 18 by the user is imported. The display control unit 58 places the imported material in the timeline area 74F.

次に、取得部60が、タイムライン領域74Fに表示された複数のタイムラインの内の何れかの選択指示を操作部18から受け付けたか否かを判断する(ステップS208)。   Next, the acquisition unit 60 determines whether or not any selection instruction from among the plurality of timelines displayed in the timeline area 74F has been received from the operation unit 18 (step S208).

ステップS208では、肯定判断(ステップS208:Yes)するまで否定判断(ステップS208:No)を繰り返す。ステップS208で肯定判断すると(ステップS208:Yes)、ステップS210へ進む。   In step S208, a negative determination (step S208: No) is repeated until an affirmative determination (step S208: Yes). If an affirmative determination is made in step S208 (step S208: Yes), the process proceeds to step S210.

ステップS210では、ステップS208で選択されたタイムラインが全天球パノラマ動画像のタイムラインであるか否かを判断する(ステップS210)。   In step S210, it is determined whether or not the timeline selected in step S208 is the timeline of the omnidirectional panoramic video (step S210).

ステップS210で否定判断すると(ステップ210:No)、後述するステップS224へ進む。ステップS210で肯定判断すると(ステップS210:Yes)、ステップS212へ進む。   If a negative determination is made in step S210 (step 210: No), the process proceeds to step S224 described later. If an affirmative determination is made in step S210 (step S210: Yes), the process proceeds to step S212.

ステップS212では、表示制御部58が、ステップS208で選択されたタイムラインの全天球パノラマ動画像から、画角領域Sを抽出する(ステップS212)。ステップS212では、表示制御部58は、HD38に格納されている該全天球パノラマ動画像の識別情報に対応する、最新のタイムスタンプで示される操作情報を読取ることによって画角領域Sを特定し、抽出する。なお、表示制御部58は、HD38に対応する操作情報が格納されていない場合には、予めHD38に記憶した初期値としての操作情報を読取ることで、画角領域Sを特定し、抽出する。この初期値は、予め値を定めておけばよい。   In step S212, the display control unit 58 extracts the view angle region S from the omnidirectional panoramic moving image of the timeline selected in step S208 (step S212). In step S212, the display control unit 58 specifies the view angle region S by reading the operation information indicated by the latest time stamp corresponding to the identification information of the omnidirectional panoramic moving image stored in the HD 38. ,Extract. When the operation information corresponding to the HD 38 is not stored, the display control unit 58 reads the operation information as an initial value stored in advance in the HD 38 to identify and extract the view angle region S. This initial value may be determined in advance.

次に、表示制御部58が、ステップS212で抽出された画角領域Sによる抽出動画像を、表示装置16に表示された編集画面74のメディアコントロール領域74E、及びUI部18Cのメディアコントロール領域76に表示する(ステップS214)。   Next, the display control unit 58 uses the extracted moving image of the angle-of-view area S extracted in step S212 to display the media control area 74E of the editing screen 74 displayed on the display device 16 and the media control area 76 of the UI unit 18C. (Step S214).

次に、取得部60が再生指示有か否かを判断する(ステップS216)。ステップS216の判断は、取得部60が、操作部18から再生指示を示す信号を受け付けたか否かを判別することで判断する。本実施の形態では、ユーザによるUI部18CのRECボタン76Bが操作指示されることで再生指示を示す信号がUI部18Cから編集装置12へ送信される。取得部60では、この再生指示を受け付けたか否かを判別することで、ステップS216の判断を行う。   Next, the acquisition unit 60 determines whether or not there is a reproduction instruction (step S216). The determination in step S216 is determined by determining whether the acquisition unit 60 has received a signal indicating a reproduction instruction from the operation unit 18. In the present embodiment, a signal indicating a playback instruction is transmitted from the UI unit 18C to the editing apparatus 12 when the user instructs to operate the REC button 76B of the UI unit 18C. The acquisition unit 60 determines whether or not this reproduction instruction has been accepted, thereby performing the determination in step S216.

再生指示有でない場合(ステップS216:No)、ステップS224に遷移する。再生指示有の場合(ステップS216:Yes)、表示制御部58が、ステップS212で抽出された抽出動画像を再生する(ステップS218)。ステップS218の処理によって、表示装置16のメディアコントロール領域76C及びUI部18Cのメディアコントロール領域76に表示された抽出動画像の再生が開始される。   If there is no reproduction instruction (step S216: No), the process proceeds to step S224. If there is a reproduction instruction (step S216: Yes), the display control unit 58 reproduces the extracted moving image extracted in step S212 (step S218). Through the processing in step S218, the playback of the extracted moving image displayed in the media control area 76C of the display device 16 and the media control area 76 of the UI unit 18C is started.

次に、取得部60は、操作部18から操作情報を取得すると、取得した操作情報を、抽出動画像の再生開始からの経過時間と、該編集対象の全天球パノラマ動画像の識別情報と、に対応づけてHD38へ記憶する(ステップS220、ステップS222)。   Next, when the acquisition unit 60 acquires the operation information from the operation unit 18, the acquired operation information includes the elapsed time from the start of reproduction of the extracted moving image, the identification information of the omnidirectional panoramic moving image to be edited, Are stored in the HD 38 in association with (step S220, step S222).

図20は、HD38に記憶した操作情報のデータ構造の一例を示す模式図である。図20には、操作情報が、経過時間を含む場合の一例を示した。   FIG. 20 is a schematic diagram illustrating an example of a data structure of operation information stored in the HD 38. FIG. 20 shows an example in which the operation information includes elapsed time.

図20に示すように、操作情報は、ヨー(yaw)、ピッチ(pitch)、ロール(roll)によって特定される仮想撮影装置の姿勢と、倍率情報(zoom)と、再生開始からの経過時間を示すビデオタイムフレーム(time frame)と、を含む。   As shown in FIG. 20, the operation information includes the orientation of the virtual photographing device specified by yaw, pitch, roll, magnification information (zoom), and the elapsed time from the start of playback. And a video time frame shown.

このため、タイムライン領域74Fに配置された素材のみに対して、仮想撮影装置の制御情報としての操作情報を適用させることができる。例えば、同じ素材を複数のタイムライン領域74Fに配置し、仮想撮影装置について各々異なる操作情報を入力し、これらを同時に表示装置16やUI部18Cへ表示することも可能となる。   For this reason, the operation information as the control information of the virtual photographing device can be applied only to the material arranged in the timeline region 74F. For example, it is possible to place the same material in a plurality of timeline regions 74F, input different operation information for the virtual photographing device, and simultaneously display them on the display device 16 and the UI unit 18C.

なお、図20に示す例では、ロール(roll)の回転倍率の上限値及び下限値を、ヨー(yaw)、及びピッチ(pitch)に比べて大きい範囲を設定可能となるように、データ構造における各項目に対応するデータ領域を定めている。これは、仮想撮影装置を上下回転させる場合に比べて、仮想撮影装置をロールさせる場合のほうが、回転数が大きいと考えられるためである。なお、各項目に対応するデータ領域の大きさは、図20に示す形態に限られない。   In the example shown in FIG. 20, the upper limit value and the lower limit value of the rotation magnification of the roll are set in a data structure so that a larger range can be set than yaw and pitch. A data area corresponding to each item is defined. This is because the number of rotations is considered to be larger when the virtual photographing device is rolled than when the virtual photographing device is rotated up and down. Note that the size of the data area corresponding to each item is not limited to the form shown in FIG.

なお、図20に示す例では、8ビット単位で各項目を示す場合を説明したが、8ビットに限られない。   In the example illustrated in FIG. 20, the case where each item is indicated in units of 8 bits has been described, but is not limited to 8 bits.

図19に戻り、次に、取得部60は、操作部18からのトリミング指示に従い、公知のトリミング処理(時間の編集処理)を実行する(ステップS224)。   Returning to FIG. 19, the acquisition unit 60 then executes a known trimming process (time editing process) in accordance with the trimming instruction from the operation unit 18 (step S <b> 224).

次に、制御部52は、編集処理を終了するか否かを判断する(ステップS226)。ステップS226の判断は、取得部60が、操作部18から編集処理の終了を示す信号を受けたか否かを判別することで、判断可能である。   Next, the control unit 52 determines whether or not to end the editing process (step S226). The determination in step S226 can be made by determining whether the acquisition unit 60 has received a signal indicating the end of the editing process from the operation unit 18.

ステップS226で否定判断すると(ステップS226:No)、上記ステップS208へ進む。ステップS226で肯定判断すると(ステップS226:Yes)、ステップS228へ進む。   If a negative determination is made in step S226 (step S226: No), the process proceeds to step S208. If an affirmative determination is made in step S226 (step S226: Yes), the process proceeds to step S228.

ステップS228では、取得部60が、操作部18から書出指示を受け付けたか否かを判断する。ステップS228で否定判断すると(ステップS228:No)、本ルーチンを終了する。一方、ステップS228で肯定判断すると(ステップS228:Yes)、ステップS230へ進む。   In step S228, the acquisition unit 60 determines whether a writing instruction has been received from the operation unit 18. If a negative determination is made in step S228 (step S228: No), this routine ends. On the other hand, if an affirmative determination is made in step S228 (step S228: Yes), the process proceeds to step S230.

ステップS230では、判別部62が、書出指示された素材が全天球パノラマ動画像であるか否かを判断する(ステップS230)。   In step S230, the determination unit 62 determines whether the material for which writing has been instructed is an omnidirectional panoramic video (step S230).

ステップS230で否定判断すると(ステップS230:No)、ステップS236へ進む。ステップS230で肯定判断すると(ステップS230:Yes)、ステップS232へ進む。   If a negative determination is made in step S230 (step S230: No), the process proceeds to step S236. If an affirmative determination is made in step S230 (step S230: Yes), the process proceeds to step S232.

ステップS232では、切出部70Bが、書出指示された全天球パノラマ動画像に対応する操作情報を対応する経過時間毎にHD38から読取り、読取った各操作情報によって特定される画角領域Sを、該全天球パノラマ動画像の対応する経過時間のフレームから切出す(ステップS232)。   In step S232, the cutout unit 70B reads the operation information corresponding to the omnidirectional panoramic moving image instructed to be written from the HD 38 for each corresponding elapsed time, and the angle of view area S specified by each read operation information. Is cut out from the frame of the corresponding elapsed time of the omnidirectional panoramic video (step S232).

次に、変換部70Cが、ステップS232の処理によって切出された切出動画像をファイル変換する(ステップS234)。例えば、変換部70Cは、切出動画像を、予め定めたファイル形式またはユーザによる操作指示によって指示されたファイル形式に変換する。   Next, the conversion unit 70C performs file conversion on the extracted moving image extracted by the process of step S232 (step S234). For example, the conversion unit 70C converts the cutout moving image into a predetermined file format or a file format instructed by an operation instruction by the user.

次に、生成部70Dが、変換部70Cで変換された切出動画像を、書出対象のビデオファイル(動画像)として生成し(ステップS236)、本ルーチンを終了する。   Next, the generation unit 70D generates the cut out moving image converted by the conversion unit 70C as a video file (moving image) to be written (step S236), and ends this routine.

図19に示す編集処理の手順が実行されることによって、例えば、UI部18Cのメディアコントロール領域76や、表示装置16に表示された編集画面74のメディアコントロール領域74Eには、編集対象の全天球パノラマ動画像から画角領域Sを抽出した抽出動画像が表示される。そして、この抽出動画像の再生時に、画角領域Sを特定するための要素である、仮想撮影装置の姿勢や、仮想撮影装置の撮影倍率や、仮想撮影装置の視点位置等がユーザから操作情報として指示されることで、再生開始からの経過時間に対応する操作情報がHD38に記憶される。   19 is executed, for example, in the media control area 76 of the UI unit 18C and the media control area 74E of the editing screen 74 displayed on the display device 16, the entire sky to be edited is displayed. An extracted moving image obtained by extracting the view angle region S from the spherical panoramic moving image is displayed. When the extracted moving image is reproduced, the operation information such as the attitude of the virtual photographing device, the photographing magnification of the virtual photographing device, the viewpoint position of the virtual photographing device, and the like, which are elements for specifying the view angle region S, is operated from the user. , The operation information corresponding to the elapsed time from the start of reproduction is stored in the HD 38.

図21は、ユーザによる操作の一例を示す模式図である。   FIG. 21 is a schematic diagram illustrating an example of a user operation.

図21(A)に示すように、例えば、UI部18Cのメディアコントロール領域76に表示された抽出動画像の画角領域S1が、ユーザの操作指示によって、全天球パノラマ動画像における画角領域S1から画角領域S2へ移動するように操作されたとする。この操作によって、全天球パノラマ動画像における、仮想撮影装置の視点位置の操作軌跡が指示情報として入力されたこととなる。   As shown in FIG. 21A, for example, an angle of view area S1 of the extracted moving image displayed in the media control area 76 of the UI unit 18C is an angle of view area in the omnidirectional panoramic moving image in accordance with a user operation instruction. It is assumed that an operation is performed so as to move from S1 to the view angle region S2. By this operation, the operation locus of the viewpoint position of the virtual photographing device in the omnidirectional panoramic video is input as the instruction information.

この場合、制御部52は、ユーザが画角領域S1を画角領域S2へ操作した操作軌跡に応じた操作情報を、再生開始からの経過時間に対応づけてHD38へ記憶することとなる。   In this case, the control unit 52 stores, in the HD 38, operation information corresponding to an operation trajectory in which the user has operated the view angle area S1 to the view angle area S2 in association with the elapsed time from the start of reproduction.

このため、生成部70Dがこの操作情報に応じて再生用の切出動画像を生成すると、図21(B)に示す動画像が得られることとなる。   For this reason, when the generation unit 70D generates a cutout moving image for reproduction in accordance with the operation information, the moving image shown in FIG. 21B is obtained.

以上説明したように、本実施の形態の編集システム10では、編集装置12の表示制御部58が、編集対象の全天球パノラマ動画像から該全天球パノラマ動画像より狭い画角の画角領域Sを抽出した抽出動画像を、表示装置16の編集画面74におけるメディアコントロール領域74E及びUI部18Cのメディアコントロール領域76へ表示する。そして、この抽出動画像の再生中に、取得部60が画角に関する操作情報を操作部18から受け付ける。操作情報は、ユーザによる操作部18の操作指示によって入力され、操作部18から編集装置12へ送信されたものである。記憶制御部68は、操作情報を、該操作情報を取得した時間毎に、抽出動画像の再生開始からの経過時間に対応づけてHD38に記憶する。   As described above, in the editing system 10 according to the present embodiment, the display control unit 58 of the editing device 12 has an angle of view narrower than the omnidirectional panoramic moving image from the omnidirectional panoramic moving image to be edited. The extracted moving image from which the area S has been extracted is displayed in the media control area 74E on the editing screen 74 of the display device 16 and the media control area 76 of the UI unit 18C. During the reproduction of the extracted moving image, the acquisition unit 60 receives operation information related to the angle of view from the operation unit 18. The operation information is input in response to an operation instruction from the operation unit 18 by the user and transmitted from the operation unit 18 to the editing device 12. The storage control unit 68 stores the operation information in the HD 38 in association with the elapsed time from the start of reproduction of the extracted moving image every time the operation information is acquired.

このため、本実施の形態の編集システム10では、全天球パノラマ動画像の時間軸の編集と、全天球パノラマ動画像における切出し対象の画角領域Sの編集と、を同時に行うことができる。   For this reason, in the editing system 10 according to the present embodiment, editing of the time axis of the panoramic panoramic video and editing of the field angle region S to be extracted in the panoramic panoramic video can be performed simultaneously. .

すなわち、本実施の形態の編集システム10では、全天球パノラマ動画に特化した、画角と時間の制御を同時に行うことができる。   That is, the editing system 10 according to the present embodiment can simultaneously control the angle of view and time specialized for the omnidirectional panoramic video.

従って、本実施の形態の編集システム10では、全天球パノラマ動画像等のパノラマ動画像を編集する場合であっても、効率的な編集を行うことができる。   Therefore, the editing system 10 according to the present embodiment can perform efficient editing even when editing a panoramic moving image such as an omnidirectional panoramic moving image.

なお、本実施の形態における、編集装置12、撮影装置14、及びUI部18Cは、CPUなどの制御装置と、ROMやRAMなどの記憶装置と、HDD、CDドライブ装置などの外部記憶装置と、入力装置と、を備えており、通常のコンピュータを利用したハードウェア構成となっている。   In the present embodiment, the editing device 12, the photographing device 14, and the UI unit 18C include a control device such as a CPU, a storage device such as a ROM and a RAM, an external storage device such as an HDD and a CD drive device, And a hardware configuration using a normal computer.

編集装置12で実行される、上記編集処理を実行するための編集プログラムは、NV−RAMやROMやその他の不揮発性記憶媒体に予め組み込まれて提供される。また、編集装置12で実行される、上記編集処理を実行するための編集プログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録し提供することも可能である。   The editing program for executing the editing process executed by the editing device 12 is provided by being incorporated in advance in NV-RAM, ROM, or other nonvolatile storage medium. An editing program for executing the editing process executed by the editing device 12 is a file in an installable format or an executable format, and is a CD-ROM, flexible disk (FD), CD-R, DVD ( It is also possible to record and provide in a computer-readable recording medium such as Digital Versatile Disk).

また、編集装置12で実行される、上記編集処理を実行するための編集プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供または配布するように構成してもよい。   The editing program for executing the editing process executed by the editing device 12 is stored on a computer connected to a network such as the Internet, and is provided or distributed by being downloaded via the network. May be.

また、編集装置12で実行される、上記編集処理を実行するための編集プログラムを、ROM等に予め組み込んで提供するように構成してもよい。   Further, an editing program for executing the editing process executed by the editing device 12 may be provided by being incorporated in advance in a ROM or the like.

また、編集装置12で実行される上記編集処理を実行するためのプログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体から該編集プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、上記各部が主記憶装置上に生成されるようになっている。   Further, the program for executing the editing process executed by the editing device 12 has a module configuration including the above-described units. As actual hardware, a CPU (processor) stores the editing program from the storage medium. Are read out and executed, the above-described units are loaded onto the main storage device, and the above-described units are generated on the main storage device.

以上、発明を実施するための諸実施の形態について説明を行ったが、本発明は、上述した実施の形態に限定されるものではない。本発明の主旨を損なわない範囲で変更することが可能である。   While various embodiments for carrying out the invention have been described above, the present invention is not limited to the above-described embodiments. Modifications can be made without departing from the spirit of the present invention.

10、10A、10B 編集システム
12 編集装置
14 撮影装置
16 表示装置
18 操作部
18C UI部
58 表示制御部
60 取得部
68 記憶制御部
70B 切出部
70C 変換部
10, 10A, 10B Editing system 12 Editing device 14 Imaging device 16 Display device 18 Operation unit 18C UI unit 58 Display control unit 60 Acquisition unit 68 Storage control unit 70B Extraction unit 70C Conversion unit

特許第3465892号公報Japanese Patent No. 3465892 特許第4610156号公報Japanese Patent No. 4610156

Claims (9)

編集対象のパノラマ動画像から該パノラマ動画像より狭い画角の画角領域を抽出した抽出動画像を表示部に表示する表示制御部と、
前記抽出動画像の再生中に、前記画角に関する操作情報を取得する取得部と、
前記操作情報を、該操作情報を取得した時間毎に、前記抽出動画像の再生開始からの経過時間に対応づけて記憶部に記憶する記憶制御部と、
を備えた編集装置。
A display control unit for displaying on the display unit an extracted moving image obtained by extracting an angle-of-view area having a narrower angle of view than the panoramic moving image to be edited;
An acquisition unit that acquires operation information related to the angle of view during reproduction of the extracted moving image;
A storage control unit that stores the operation information in a storage unit in association with an elapsed time from the start of reproduction of the extracted moving image for each time when the operation information is acquired;
Editing device equipped with.
前記パノラマ動画像は、全天球の範囲の撮影によって得られる全天球パノラマ動画像である、請求項1に記載の編集装置。   The editing apparatus according to claim 1, wherein the panoramic moving image is an omnidirectional panoramic moving image obtained by photographing an omnidirectional range. 前記取得部は、前記画角の倍率情報を含む前記操作情報を取得する、請求項1または請求項2に記載の編集装置。   The editing apparatus according to claim 1, wherein the acquisition unit acquires the operation information including magnification information of the angle of view. 前記表示制御部は、前記抽出動画像を、三次元の立体球状と仮定した前記パノラマ動画像を該立体球の中心から仮想撮影装置により前記画角で撮影した動画像として、前記表示部に表示し、
前記取得部は、前記仮想撮影装置の姿勢情報を含む前記操作情報を取得する、請求項1〜請求項3の何れか1項に記載の編集装置。
The display control unit displays the extracted moving image on the display unit as a moving image obtained by capturing the panoramic moving image, which is assumed to be a three-dimensional solid sphere, from the center of the three-dimensional sphere by the virtual photographing device at the angle of view. And
The editing apparatus according to claim 1, wherein the acquisition unit acquires the operation information including posture information of the virtual photographing apparatus.
前記表示制御部は、前記パノラマ動画像における前記仮想撮影装置の視点位置を含む前記操作情報を取得する、請求項4に記載の編集装置。   The editing apparatus according to claim 4, wherein the display control unit acquires the operation information including a viewpoint position of the virtual imaging device in the panoramic video. 前記表示部と操作部とは一体的に構成されている、請求項1〜請求項5の何れか1項に記載の編集装置。   The editing apparatus according to claim 1, wherein the display unit and the operation unit are integrally configured. 前記パノラマ動画像から、前記操作情報に応じた前記画角の画角領域を、対応する前記経過時間毎に切出す切出部と、
切出した切出動画像のデータ形式を変換する変換部と、
を更に備えた、請求項1〜請求項5の何れか1項に記載の編集装置。
A cutout unit that cuts out the angle-of-view area of the angle of view according to the operation information from the panoramic moving image at each corresponding elapsed time;
A conversion unit for converting the data format of the cut out moving image,
The editing apparatus according to any one of claims 1 to 5, further comprising:
編集対象のパノラマ動画像から該パノラマ動画像より狭い画角の画角領域を抽出した抽出動画像を表示部に表示するステップと、
前記抽出動画像の再生中に、前記画角に関する操作情報を取得するステップと、
前記操作情報を、該操作情報を取得した時間毎に、前記抽出動画像の再生開始からの経過時間に対応づけて記憶部に記憶するステップと、
を含む編集方法。
Displaying an extracted moving image obtained by extracting an angle-of-view area having a narrower angle of view from the panoramic moving image to be edited on the display unit;
Acquiring operation information relating to the angle of view during reproduction of the extracted moving image;
Storing the operation information in the storage unit in association with an elapsed time from the start of reproduction of the extracted moving image every time the operation information is acquired;
Editing method including.
コンピュータに、
編集対象のパノラマ動画像から該パノラマ動画像より狭い画角の画角領域を抽出した抽出動画像を表示部に表示するステップと、
前記抽出動画像の再生中に、前記画角に関する操作情報を取得するステップと、
前記操作情報を、該操作情報を取得した時間毎に、前記抽出動画像の再生開始からの経過時間に対応づけて記憶部に記憶するステップと、
を実行させる編集プログラム。
On the computer,
Displaying an extracted moving image obtained by extracting an angle-of-view area having a narrower angle of view from the panoramic moving image to be edited on the display unit;
Acquiring operation information relating to the angle of view during reproduction of the extracted moving image;
Storing the operation information in the storage unit in association with an elapsed time from the start of reproduction of the extracted moving image every time the operation information is acquired;
An editing program that executes
JP2013036271A 2013-02-26 2013-02-26 Editing device, editing method, and editing program Pending JP2014165763A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013036271A JP2014165763A (en) 2013-02-26 2013-02-26 Editing device, editing method, and editing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013036271A JP2014165763A (en) 2013-02-26 2013-02-26 Editing device, editing method, and editing program

Publications (1)

Publication Number Publication Date
JP2014165763A true JP2014165763A (en) 2014-09-08

Family

ID=51615980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013036271A Pending JP2014165763A (en) 2013-02-26 2013-02-26 Editing device, editing method, and editing program

Country Status (1)

Country Link
JP (1) JP2014165763A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017049956A (en) * 2015-09-04 2017-03-09 株式会社リコー Information providing system, information processing apparatus, terminal device, information providing program, and information providing method
JPWO2017022641A1 (en) * 2015-07-31 2017-08-03 カディンチェ株式会社 Panoramic video playback device, panoramic video editing device, panoramic video playback method, panoramic video playback program, panoramic video playback system, and panoramic video transmission device
JP6330089B1 (en) * 2017-06-30 2018-05-23 株式会社コロプラ Program executed on computer to provide virtual space, information processing apparatus, and method for providing virtual space
JP2019110546A (en) * 2019-02-05 2019-07-04 リコーイメージング株式会社 Photographing system
CN110324641A (en) * 2019-07-12 2019-10-11 青岛一舍科技有限公司 The method and device of targets of interest moment display is kept in panoramic video
JPWO2021152758A1 (en) * 2020-01-30 2021-08-05
WO2023095642A1 (en) * 2021-11-26 2023-06-01 ソニーグループ株式会社 Image processing device, image processing method, and program
DE102023103963A1 (en) 2022-02-18 2023-08-24 Canon Kabushiki Kaisha Electronic device, method for controlling the electronic device and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962861A (en) * 1995-08-21 1997-03-07 Matsushita Electric Ind Co Ltd Panoramic video device
JPH11154020A (en) * 1997-11-21 1999-06-08 Nippon Telegr & Teleph Corp <Ntt> Remote monitoring device, method therefor and storage medium recorded with remote monitoring program
JP2005223416A (en) * 2004-02-03 2005-08-18 Sony Corp Image processing system, image processing apparatus and image processing method, and program
US20050265619A1 (en) * 2004-05-28 2005-12-01 Nobuyuki Ozaki Image providing method and device
JP2012133085A (en) * 2010-12-21 2012-07-12 Sony Corp Display control device, display control method, and program
JP2013034081A (en) * 2011-08-02 2013-02-14 Sony Corp Image processing device, control method therefor, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962861A (en) * 1995-08-21 1997-03-07 Matsushita Electric Ind Co Ltd Panoramic video device
JPH11154020A (en) * 1997-11-21 1999-06-08 Nippon Telegr & Teleph Corp <Ntt> Remote monitoring device, method therefor and storage medium recorded with remote monitoring program
JP2005223416A (en) * 2004-02-03 2005-08-18 Sony Corp Image processing system, image processing apparatus and image processing method, and program
US20050265619A1 (en) * 2004-05-28 2005-12-01 Nobuyuki Ozaki Image providing method and device
JP2012133085A (en) * 2010-12-21 2012-07-12 Sony Corp Display control device, display control method, and program
JP2013034081A (en) * 2011-08-02 2013-02-14 Sony Corp Image processing device, control method therefor, and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017022641A1 (en) * 2015-07-31 2017-08-03 カディンチェ株式会社 Panoramic video playback device, panoramic video editing device, panoramic video playback method, panoramic video playback program, panoramic video playback system, and panoramic video transmission device
JP2017049956A (en) * 2015-09-04 2017-03-09 株式会社リコー Information providing system, information processing apparatus, terminal device, information providing program, and information providing method
JP6330089B1 (en) * 2017-06-30 2018-05-23 株式会社コロプラ Program executed on computer to provide virtual space, information processing apparatus, and method for providing virtual space
JP2019012441A (en) * 2017-06-30 2019-01-24 株式会社コロプラ Program executed on computer for providing virtual space, information processing apparatus, and method for providing virtual space
JP2019110546A (en) * 2019-02-05 2019-07-04 リコーイメージング株式会社 Photographing system
CN110324641B (en) * 2019-07-12 2021-09-03 青岛一舍科技有限公司 Method and device for keeping interest target moment display in panoramic video
CN110324641A (en) * 2019-07-12 2019-10-11 青岛一舍科技有限公司 The method and device of targets of interest moment display is kept in panoramic video
JPWO2021152758A1 (en) * 2020-01-30 2021-08-05
JP7054287B2 (en) 2020-01-30 2022-04-13 Amatelus株式会社 Video distribution device, video distribution system, video distribution method, and program
JP2022075940A (en) * 2020-01-30 2022-05-18 Amatelus株式会社 Video distribution device, video distribution system, video distribution method, and program
JP7365076B2 (en) 2020-01-30 2023-10-19 Amatelus株式会社 Video distribution device, video distribution system, video distribution method, and program
WO2023095642A1 (en) * 2021-11-26 2023-06-01 ソニーグループ株式会社 Image processing device, image processing method, and program
DE102023103963A1 (en) 2022-02-18 2023-08-24 Canon Kabushiki Kaisha Electronic device, method for controlling the electronic device and program

Similar Documents

Publication Publication Date Title
JP7322940B2 (en) Image communication system, image communication terminal, image communication method, program, and recording medium
JP6756269B2 (en) Communication terminals, image communication systems, communication methods, and programs
JP6805861B2 (en) Image processing equipment, image processing system, image processing method and program
JP2014165763A (en) Editing device, editing method, and editing program
JP6186775B2 (en) Communication terminal, display method, and program
JP6075066B2 (en) Image management system, image management method, and program
JP5920057B2 (en) Transmission device, image sharing system, transmission method, and program
US20210099669A1 (en) Image capturing apparatus, communication system, data distribution method, and non-transitory recording medium
US20210090211A1 (en) Image processing method, non-transitory recording medium, image processing apparatus, and image processing system
US11064095B2 (en) Image displaying system, communication system, and method for image displaying
US20180124310A1 (en) Image management system, image management method and recording medium
EP3962090A1 (en) Communication terminal, image communication system, method for displaying image, and carrier means
US10147160B2 (en) Image management apparatus and system, and method for controlling display of captured image
JP6304300B2 (en) Transmitting apparatus, communication method, program, and receiving apparatus
JP6011117B2 (en) Reception device, image sharing system, reception method, and program
JP7017045B2 (en) Communication terminal, display method, and program
JP6711118B2 (en) Image management system, program and information terminal
JP6586819B2 (en) Image management system, image communication system, image management method, and program
JP5942637B2 (en) Additional information management system, image sharing system, additional information management method, and program
JP2019140667A (en) Information processing unit, information processing system, data generation method and program
JP6508288B2 (en) SYSTEM, IMAGE SHARING SYSTEM, COMMUNICATION METHOD, AND PROGRAM
JP6992338B2 (en) Communication system, communication management method, program, system and communication method
JP6816403B2 (en) Image management system, image communication system, image management method, and program
JP2016194930A (en) Display and program
JP2017037423A (en) Image management system, image management method, image communication system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170307