JP2017063276A - Video display device, video display method and program - Google Patents

Video display device, video display method and program Download PDF

Info

Publication number
JP2017063276A
JP2017063276A JP2015186909A JP2015186909A JP2017063276A JP 2017063276 A JP2017063276 A JP 2017063276A JP 2015186909 A JP2015186909 A JP 2015186909A JP 2015186909 A JP2015186909 A JP 2015186909A JP 2017063276 A JP2017063276 A JP 2017063276A
Authority
JP
Japan
Prior art keywords
video
display
displayed
predetermined
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015186909A
Other languages
Japanese (ja)
Inventor
和典 柳
Kazunori Yanagi
和典 柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2015186909A priority Critical patent/JP2017063276A/en
Publication of JP2017063276A publication Critical patent/JP2017063276A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reproduce a video, recorded in a wide angle, in a manner to be easily viewed by an observer.SOLUTION: A moving image file storage unit 33 stores a video in a wider range than in the display range of a display unit 35. Based on a predetermined reproduction video condition, a reproduction processing unit 34 sets a position of the wide range video stored in the moving image file storage unit 33 of the video to be displayed in the display range of the display unit 35. At the start of reproduction, the reproduction processing unit 34 controls to trim the video in the set position from the wide range video to display on the display unit 35. The control unit 37 detects an operation from the outside during the display. When an operation from the outside is detected, the reproduction processing unit 34 controls to display the video of which display is controlled, on the basis of the operation from the outside.SELECTED DRAWING: Figure 4

Description

本発明は、映像表示装置、映像表示方法、及びプログラムに関する。   The present invention relates to a video display device, a video display method, and a program.

近年、超広角、若しくはそれ以上の半天周、全天周の画角で映像を記録する撮影機器が登場している(例えば特許文献1参照)。   2. Description of the Related Art In recent years, photographing apparatuses that record video with a super-wide angle or more half-sky or full-field angle have appeared (for example, see Patent Document 1).

このような撮影機器は、記録時において、撮影可能な全範囲をキャプチャーすることが可能であるものの、映像再生機器が超広角、若しくはそれ以上の半天周、全天周で記録された映像の表示に対応できないことを考慮し、一部の領域をトリミングして記録するようになっている。   Although such a photographic device can capture the entire shootable range at the time of recording, the video playback device can display images recorded in a super-wide angle or more half-round or full-sky. In consideration of the fact that it is not possible to cope with this, some areas are trimmed and recorded.

上述した特許文献1においても、決定のオブジェクトを含む範囲や、ユーザーの視線方向の先にある領域をトリミングする技術が提案されている。   Also in the above-described Patent Document 1, a technique for trimming a range including a determination object and a region ahead of the user's line-of-sight direction is proposed.

特開2015−126451号公報Japanese Patent Laying-Open No. 2015-126451

しかしながら、上記従来技術では、超広角、若しくはそれ以上の半天周、全天周でキャプチャーしているにも拘わらず、記録時においてトリミングしてしまうため、記録されない映像が存在してしまうという問題があった。   However, the above-mentioned conventional technique has a problem that there is a video that is not recorded because it is trimmed during recording, even though it is captured at a super wide angle or a half-sky or full-sky circumference. there were.

そこで本発明は、広角で記録された映像を、ユーザにとってより見やすく再生することを目的とする。   Accordingly, an object of the present invention is to reproduce a video recorded at a wide angle in a manner that is easier for a user to view.

この発明に係る映像表示装置は、表示手段と、所定範囲の映像を記憶する記憶手段と、所定の再生映像条件に基づいて、前記表示手段の表示範囲に表示させる映像の、前記記憶手段に記憶された映像における位置を設定する設定手段と、再生開始時に、前記設定手段によって設定された位置の映像を、前記記憶手段に記憶された映像からトリミングして前記表示手段に表示させるよう制御する第1の表示制御手段と、この第1の表示制御手段による表示中に外部からの操作を検出する検出手段と、この検出手段によって前記外部からの操作が検出されると、前記第1の表示制御手段により表示制御されている映像を、前記外部からの操作に基づいて前記表示手段に表示させるよう制御する第2の表示制御手段と、を備えたことを特徴とする。   The video display device according to the present invention stores display means, storage means for storing video in a predetermined range, and video to be displayed in the display range of the display means based on predetermined playback video conditions in the storage means. A setting means for setting a position in the recorded video, and a control for trimming the video at the position set by the setting means from the video stored in the storage means and displaying the video on the display means at the start of reproduction. 1 display control means, detection means for detecting an external operation during display by the first display control means, and when the external operation is detected by the detection means, the first display control means And a second display control unit configured to control the display unit to display the video whose display is controlled by the unit based on an operation from the outside.

この発明に係る映像表示方法は、所定の映像から表示手段の表示範囲に表示するための映像をトリミングして前記表示手段に表示させる映像表示方法であって、所定の再生映像条件に基づいて、前記表示手段の表示範囲に表示する映像の、前記所定の映像における位置を設定するステップと、再生開始時に、前記設定された位置の映像を、前記所定の映像からトリミングして前記表示手段に表示させるよう制御するステップと、前記表示手段での映像表示中に外部からの操作を検出するステップと、前記外部からの操作が検出されると、前記表示制御されている映像を、前記外部からの操作に基づいて前記表示手段に表示させるよう制御するステップと、を含むことを特徴とする。   A video display method according to the present invention is a video display method for trimming a video for display in a display range of a display means from a predetermined video and displaying the trimmed video on the display means, based on a predetermined playback video condition, A step of setting a position of the video to be displayed in the display range of the display means in the predetermined video; and at the start of reproduction, the video at the set position is trimmed from the predetermined video and displayed on the display A step of controlling the display unit, a step of detecting an external operation during video display on the display means, and an operation from the outside when the external operation is detected, the display-controlled video is transmitted from the external unit. And controlling to display on the display means based on an operation.

この発明に係るプログラムは、所定の映像から表示部の表示範囲に表示するための映像をトリミングして前記表示部に表示させる映像表示装置のコンピュータを、所定の再生映像条件に基づいて、前記表示部の表示範囲に表示させる映像の、前記所定の映像における位置を設定する設定手段、再生開始時に、前記設定手段によって設定された位置の映像を、前記所定の映像からトリミングして前記表示部に表示させるよう制御する第1の表示制御手段、この第1の表示制御手段による表示中に外部からの操作を検出する検出手段、この検出手段によって前記外部からの操作が検出されると、前記第1の表示制御手段により表示制御されている映像を、前記外部からの操作に基づいて前記表示部に表示させるよう制御する第2の表示制御手段、として機能させることを特徴とする。   According to the present invention, there is provided a program for trimming a video for display in a display range of a display unit from a predetermined video and displaying the computer on the display unit based on a predetermined reproduction video condition. Setting means for setting the position of the video to be displayed in the display range of the unit in the predetermined video; at the start of playback, the video at the position set by the setting unit is trimmed from the predetermined video and is displayed on the display unit First display control means for controlling to display, detection means for detecting an external operation during display by the first display control means, and when the external operation is detected by the detection means, the first display control means A second display control means for controlling the display unit to display the video controlled by the first display control means on the basis of the external operation; It characterized thereby to function.

この発明によれば、広角で記録された映像を、ユーザにとってより見やすく再生することができる。   According to the present invention, a video recorded at a wide angle can be reproduced more easily for the user.

本発明の実施形態による映像録画再生システム1の構成を示すブロック図である。It is a block diagram which shows the structure of the video recording / reproducing system 1 by embodiment of this invention. 本第1実施形態による頭部装着装置10の構成を示すブロック図である。It is a block diagram which shows the structure of the head mounting apparatus 10 by this 1st Embodiment. 本第1実施形態によるカメラ装置20a、20bの構成を示すブロック図である。It is a block diagram which shows the structure of camera apparatus 20a, 20b by this 1st Embodiment. 本第1実施形態による再生装置30の構成を示すブロック図である。2 is a block diagram showing a configuration of a playback device 30 according to the first embodiment. FIG. 本第1実施形態による映像録画再生システム1における頭部装着装置10とカメラ装置20a、20bとの調整処理を説明するための概念図である。It is a conceptual diagram for demonstrating the adjustment process of the head mounting apparatus 10 and camera apparatus 20a, 20b in the video recording / reproducing system 1 by this 1st Embodiment. 本第1実施形態による再生装置30の動作を説明するためのフローチャートである。4 is a flowchart for explaining the operation of the playback apparatus 30 according to the first embodiment. 本第1実施形態による所定の再生映像条件毎の再生時に表示すべき映像領域(トリミング位置)を決定するフレーム解析処理例を説明するためのフローチャートである。6 is a flowchart for explaining an example of a frame analysis process for determining a video area (trimming position) to be displayed at the time of reproduction for each predetermined reproduction video condition according to the first embodiment. 本第2実施形態による再生装置30の構成を示すブロック図である。It is a block diagram which shows the structure of the reproducing | regenerating apparatus 30 by this 2nd Embodiment. 本第2実施形態による再生装置30の一部動作を説明するためのフローチャートである。12 is a flowchart for explaining a partial operation of the playback apparatus 30 according to the second embodiment. 本第2実施形態において、被写体の顔の位置に基づいて再生時に表示すべき映像領域(トリミング位置)を決定する際の全天周画像とトリミング位置との関係を説明するための概念図である。In this 2nd Embodiment, it is a conceptual diagram for demonstrating the relationship between the whole sky image and trimming position at the time of determining the video area (trimming position) which should be displayed at the time of reproduction | regeneration based on the position of a to-be-photographed object's face. . 本第3実施形態による再生装置30の一部動作を説明するためのフローチャートである。12 is a flowchart for explaining a partial operation of the playback apparatus 30 according to the third embodiment.

以下、本発明の実施の形態を、図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

A.第1実施形態
図1は、本発明の第1実施形態による映像録画再生システム1の構成を示すブロック図である。図において、映像録画再生システム1は、頭部装着装置10と、カメラ装置20a、20bと、再生装置30とからなる。頭部装着装置10は、直接、頭部に、あるいはヘッドバンドや、帽子、メガネフレームなどを介して頭部に装着され、全天周映像(広角映像も含む)の撮影中、撮影者の動き(移動方向)、撮影者の頭部の動き(顔の向き=視線方向)や、環境音の音源方向などを検出し、付加情報として再生装置30に送信する。
A. First Embodiment FIG. 1 is a block diagram showing a configuration of a video recording / playback system 1 according to a first embodiment of the present invention. In the figure, the video recording / playback system 1 includes a head-mounted device 10, camera devices 20 a and 20 b, and a playback device 30. The head-mounted device 10 is mounted directly on the head or on the head via a headband, a hat, a glasses frame, etc., and the movement of the photographer during the shooting of all-sky images (including wide-angle images) (Moving direction), movement of the photographer's head (face direction = line-of-sight direction), sound source direction of the environmental sound, and the like are detected and transmitted to the playback device 30 as additional information.

カメラ装置20a、20bは、各々、広角な画角(例えば、180°以上)で撮像可能である。カメラ装置20a、20bは、各々、撮影者の体や、服、バックなどに装着され、カメラ装置20aは、撮影者の正面半天周映像を撮像するよう撮影者の正面に装着され、カメラ装置20bは、撮影者の背面半天周映像を撮像するよう撮影者の背面に装着される。カメラ装置20a、20bは、各々、撮像後、正面半天周映像、及び背面半天周映像を再生装置30に転送する。   Each of the camera devices 20a and 20b can capture an image with a wide angle of view (for example, 180 ° or more). The camera devices 20a and 20b are each mounted on the photographer's body, clothes, back, and the like, and the camera device 20a is mounted on the photographer's front face so as to capture a front half sky video of the photographer. Is mounted on the back of the photographer so as to capture the back half-round video of the photographer. The camera devices 20 a and 20 b each transfer the front half-sky video and the back half-sky video to the playback device 30 after imaging.

再生装置30は、例えば、スマートフォンや、専用端末からなる。再生装置30は、カメラ装置20aから正面半天周映像を受信し、カメラ装置20bから背面半天周映像を受信し、それぞれのタイムラインに基づいて、1つの同期した全天周映像を生成する。また、再生装置30は、全天周映像を生成する際に、頭部装着装置10から受信した付加情報をメタデータとして、撮像している全天周映像のフレームのタイムコードに従って埋め込んで記録し、所定のフォーマットの動画ファイルにファイル化する。また、再生装置30は、生成した全天周映像(動画ファイル)を、後述する所定の再生映像条件に基づいて画像処理(トリミング処理、歪曲補正処理など)を施すことによって通常の映像(再生装置30の表示手段で表示可能な映像)として再生表示する。   The playback device 30 is composed of, for example, a smartphone or a dedicated terminal. The playback device 30 receives the front half-sky video from the camera device 20a, receives the back half-sky video from the camera device 20b, and generates one synchronized full-sky video based on each timeline. Further, when generating the all-sky video, the playback device 30 records the additional information received from the head-mounted device 10 as metadata according to the time code of the frame of the all-sky video being captured. , Filed into a moving image file of a predetermined format. Further, the playback device 30 performs normal image processing (playback device) by performing image processing (trimming processing, distortion correction processing, etc.) on the generated all-round video (moving image file) based on predetermined playback video conditions described later. The video can be reproduced and displayed as 30).

図2は、本第1実施形態による頭部装着装置10の構成を示すブロック図である。頭部装着装置10は、センサ類11、無指向性マイク&指向性マイク12、音声信号処理部13、信号処理部14、無線通信部15、及び制御部16を備えている。   FIG. 2 is a block diagram showing the configuration of the head-mounted device 10 according to the first embodiment. The head-mounted device 10 includes sensors 11, an omnidirectional microphone & directional microphone 12, an audio signal processing unit 13, a signal processing unit 14, a wireless communication unit 15, and a control unit 16.

センサ類11は、GPS(Global Positioning System)ユニット11−1、方位・気圧センサ11−2、及びモーションセンサ11−3を備えている。GPSユニット11−1は、人工衛星を利用して現在の位置情報(緯度・経度・高度など)を割り出す。方位・気圧センサ11−2は、東西南北のどの方位(方角)を向いているか、並びに気圧を検出する。モーションセンサ11−3は、重力に対する撮影者の(頭部)の方向(傾き)を検出する。   The sensors 11 include a GPS (Global Positioning System) unit 11-1, an azimuth / atmospheric pressure sensor 11-2, and a motion sensor 11-3. The GPS unit 11-1 calculates current position information (latitude, longitude, altitude, etc.) using an artificial satellite. The azimuth / atmospheric pressure sensor 11-2 detects which direction (direction) of the east, west, north, and south and the atmospheric pressure. The motion sensor 11-3 detects the direction (tilt) of the photographer's (head) with respect to gravity.

無指向性マイク&指向性マイク12は、記録開始からの周囲の環境音を集音する。音声信号処理部13は、無指向性マイク&指向性マイク12で集音された音声信号を処理(レベル調整、ノイズ除去など)を施す。信号処理部14は、センサ類11によって検知された位置情報、方位・気圧情報、動き情報、無指向性マイク&指向性マイク12によって集音された音声信号に対して信号処理して所定のデータフォーマットの付加情報に変換する。該付加情報には、カメラ装置20a、20bの各々による半天周映像の撮影開始からのタイムコードが付帯されている。すなわち、付加情報とカメラ装置20a、20bの各々で撮像される半天周映像データとや、タイムコードによって同期可能となっている。   The omnidirectional microphone & directional microphone 12 collects ambient environmental sounds from the start of recording. The audio signal processing unit 13 performs processing (level adjustment, noise removal, etc.) on the audio signal collected by the omnidirectional microphone & directional microphone 12. The signal processing unit 14 performs signal processing on position information detected by the sensors 11, azimuth / atmospheric pressure information, motion information, and an audio signal collected by the omnidirectional microphone & directional microphone 12 to perform predetermined data Convert to format additional information. The additional information is accompanied by a time code from the start of shooting of the half sky video by each of the camera devices 20a and 20b. In other words, the additional information can be synchronized with the half-sky video data captured by each of the camera devices 20a and 20b and the time code.

無線通信部15は、信号処理部14によって信号処理された付加情報を、所定の無線方式(無線LAN、Bluetooth(登録商標)など)を用いて再生装置30に送信する。なお、本第1実施形態では、再生装置30に送信するものとするが、最終的な動画ファイルをカメラ装置20a、20b、又は再生装置30のどちらで行うか、ソフトウェア次第であるので再生装置30に限定されるものではない。制御部16は、上述した各部の動作を統合的に制御する。   The wireless communication unit 15 transmits the additional information signal-processed by the signal processing unit 14 to the playback device 30 using a predetermined wireless method (wireless LAN, Bluetooth (registered trademark), etc.). In the first embodiment, the video data is transmitted to the playback device 30. However, since it depends on the software whether the final moving image file is to be performed by the camera devices 20a and 20b or the playback device 30, the playback device 30 is used. It is not limited to. The control unit 16 controls the operation of each unit described above in an integrated manner.

図3は、本第1実施形態によるカメラ装置20a、20bの構成を示すブロック図である。カメラ装置20a、20bは、同一のスペックを有している。カメラ装置20a、20bは、光学系(広角レンズ)21a、21b、撮像部22a、22b、画像処理部23a、23b、圧縮符号化(ファイル化)処理部24a、24b、記憶部25a、25b、無線通信部26a、26b、操作部27a、27b、及び制御部28a、28bを備えている。   FIG. 3 is a block diagram showing the configuration of the camera devices 20a and 20b according to the first embodiment. The camera devices 20a and 20b have the same specifications. The camera devices 20a and 20b include optical systems (wide-angle lenses) 21a and 21b, imaging units 22a and 22b, image processing units 23a and 23b, compression encoding (file creation) processing units 24a and 24b, storage units 25a and 25b, and wireless units. Communication units 26a and 26b, operation units 27a and 27b, and control units 28a and 28b are provided.

光学系(広角レンズ)21a、21bは、各々、光軸に対して超広角(180°以上)で撮影可能とするレンズである。光学系21aは、撮影者の正面半天周画像を撮影し、光学系21bは、撮影者の背面半天周画像を撮影する。撮像部22a、22bは、各々、撮像素子等からなり、光学系(広角レンズ)21a、21bを通して結像した正面半天周画像、背面半天周画像を電気信号に変換する。   The optical systems (wide-angle lenses) 21a and 21b are lenses that can shoot at an ultra-wide angle (180 ° or more) with respect to the optical axis. The optical system 21a captures a photographer's front half sky image, and the optical system 21b photographs a photographer's back half sky image. The imaging units 22a and 22b are each composed of an imaging element or the like, and convert the front half-sky image and the back half-sky image formed through the optical systems (wide-angle lenses) 21a and 21b into electrical signals.

画像処理部23a、23bは、各々、正面半天周画像データ、背面半天周画像データに対する画像処理(画素補間処理、γ補正、輝度色差信号の生成、ホワイトバランス処理、露出補正処理やフィルタ処理等)を行う。圧縮符号化(ファイル化)処理部24a、24bは、各々、正面半天周画像データ、背面半天周画像データの圧縮・伸張(例えば、JPEG形式やM−JPEG形式又はMPEG形式の圧縮・伸張)の処理を行う。   Image processing units 23a and 23b respectively perform image processing (pixel interpolation processing, γ correction, generation of luminance color difference signals, white balance processing, exposure correction processing, filter processing, etc.) on the front half sky image data and the back half sky image data. I do. The compression encoding (file conversion) processing units 24a and 24b respectively perform compression / expansion (for example, compression / expansion in JPEG format, M-JPEG format, or MPEG format) of the front half-circumference image data and the back half-circumference image data. Process.

記憶部25a、25bは、各々、撮像部22a、22bによって撮像された正面半天周画像データ、背面半天周画像データを一時記憶するバッファメモリや、各部の制御に必要なプログラム、及び各部の制御に必要なデータを記憶するワーキングメモリとして用いられる。無線通信部26a、26bは、各々、圧縮ファイル化された、正面半天周画像データ、背面半天周画像データを所定の無線方式(無線LAN、Bluetooth(登録商標)など)を用いて再生装置30に転送する。操作部27a、27bは、各々、電源スイッチや、撮像開始スイッチ(シャッタースイッチ)などからなる。制御部28a、28bは、各々、上述した各部の動作を統合的に制御する。   The storage units 25a and 25b are respectively used for a buffer memory for temporarily storing the front semi-circumferential image data and the back semi-circular image data captured by the image capturing units 22a and 22b, a program necessary for controlling each unit, and a control for each unit. Used as a working memory for storing necessary data. Each of the wireless communication units 26a and 26b converts the front half-sky image data and the back half-sky image data, which are compressed files, to the playback device 30 using a predetermined wireless method (wireless LAN, Bluetooth (registered trademark), etc.). Forward. The operation units 27a and 27b each include a power switch, an imaging start switch (shutter switch), and the like. The control units 28a and 28b each integrally control the operation of each unit described above.

図4は、本第1実施形態による再生装置30の構成を示すブロック図である。再生装置30は、無線通信部31、画像処理部(動画ファイル生成部)32、動画ファイル記憶部33、再生処理部34、表示部35、操作部36、及び制御部37を備えている。   FIG. 4 is a block diagram showing the configuration of the playback device 30 according to the first embodiment. The playback device 30 includes a wireless communication unit 31, an image processing unit (moving image file generating unit) 32, a moving image file storage unit 33, a playback processing unit 34, a display unit 35, an operation unit 36, and a control unit 37.

無線通信部31は、頭部装着装置10から付加情報を受信するとともに、カメラ装置20a、20bの各々から圧縮された正面半天周画像データと背面半天周画像データとを受信する。画像処理部(動画ファイル生成)32は、正面半天周画像データと背面半天周画像データとについて、一方の画像データの周辺部(端部)と他方の画像データの周辺部(端部)とで一致する画像領域を検出し、その領域で重なるように双方の画像データをフレーム毎で合成し、全天周映像データ(動画ファイル)を生成する。このとき、画像処理部(動画ファイル生成部)32は、生成した全天周映像データ(動画ファイル)に付加情報をタイムコードに基づいてメタデータとして埋め込む。動画ファイル記憶部33は、画像処理部(動画ファイル生成)32で生成された動画ファイルを記憶する。   The wireless communication unit 31 receives additional information from the head-mounted device 10 and also receives compressed front half-sky image data and back half-sky image data from each of the camera devices 20a and 20b. The image processing unit (moving image file generation) 32 performs a front half-circumference image data and a back half-circumference image data at a peripheral part (end part) of one image data and a peripheral part (end part) of the other image data. A matching image area is detected, and both pieces of image data are synthesized for each frame so as to overlap each other, thereby generating all-sky video data (moving image file). At this time, the image processing unit (moving image file generating unit) 32 embeds additional information in the generated all-sky video data (moving image file) as metadata based on the time code. The moving image file storage unit 33 stores the moving image file generated by the image processing unit (moving image file generation) 32.

このようにして生成された全天周映像データを再生表示した場合、それは撮影者を中心にした全球状の空間を投影したものになるので、平面的な表示サイズからなる表示装置にそのまま表示することは一般的に不可能である。そこで、再生装置30の表示部35のサイズ(以下、表示範囲ともいう)に合せて、この全天周映像データに基づいて再生表示される全天周映像の一部を所定のトリミング範囲でトリミングし、超広角による歪みを補正する歪曲補正を行った後、該トリミングした映像を表示部35に表示することになる。問題となるのは、再生開始時に全天周映像のどの部分をトリミングして表示するかである。通常、撮影時の撮影者の見ている方向(一般に撮影者の前方)から所定のトリミング範囲でトリミングして再生時に表示すべき映像とすることが考えられる。   When the all-sky video data generated in this way is reproduced and displayed, it is a projection of the entire spherical space centered on the photographer, so it is displayed as it is on a display device having a planar display size. That is generally impossible. Therefore, in accordance with the size of the display unit 35 of the playback device 30 (hereinafter also referred to as a display range), a part of the whole sky video reproduced and displayed based on this whole sky video data is trimmed within a predetermined trimming range. Then, after performing distortion correction for correcting distortion due to an ultra-wide angle, the trimmed video is displayed on the display unit 35. The problem is which part of the whole sky image is trimmed and displayed at the start of playback. Usually, it is conceivable to trim an image within a predetermined trimming range from the direction the photographer is viewing at the time of photographing (generally in front of the photographer) to display an image to be displayed during reproduction.

しかしながら、全天周映像には、撮影者を中心に上下左右、360°の映像が記録さているので、撮影者が撮影時には見ていないが、後から興味を引く何か、人や、移動体、あるいは何か大きな音を発生するものが記録されている可能性がある。そこで、本第1実施形態では、全天周映像の再生を開始するのに際して、所定の再生映像条件に基づいて、全天周映像データのフレームにおける再生表示すべき映像領域(トリミング位置)を決定する。   However, since the 360-degree video is recorded in the all-sky image, centering on the photographer, it is not seen at the time of shooting. Or something that produces a loud sound may have been recorded. Therefore, in the first embodiment, when the reproduction of the all-sky video is started, the video area (trimming position) to be reproduced and displayed in the frame of the whole-sky video data is determined based on a predetermined playback video condition. To do.

所定の再生映像条件としては、以下の5つ条件を想定する。
(1)撮影者が向いている方向(方角)
(2)撮影者が移動している方向(方角)
(3)声のする方向(方角)
(4)カメラ装置20a、20bを向いている被写体の顔、すなわち正面顔が検出された方向(方角)
(5)移動体(動き)が検出された方向(方角)
As predetermined playback video conditions, the following five conditions are assumed.
(1) Direction (direction) in which the photographer is facing
(2) Direction (direction) in which the photographer is moving
(3) Voice direction (direction)
(4) Direction (direction) in which the face of the subject facing the camera devices 20a and 20b, that is, the front face is detected
(5) Direction (direction) in which moving object (motion) is detected

(1)〜(3)については、撮影時に頭部装着装置10で検知した、視線方向、移動方向、及び音源方向のいずれかに基づいて、全天周映像データのフレームにおける再生表示すべき映像領域(トリミング位置)を決定する。(4)、(5)については、最終的に得られる全天周映像データに対する画像処理(解析処理)を行えばよく、頭部装着装置10からの付加情報(メタデータ)を用いる必要はない。ゆえに、(1)〜(3)については、本第1実施形態で説明し、(4)、(5)については、それぞれ後述する第2、第3実施形態で説明する。   As for (1) to (3), the video to be reproduced and displayed in the frame of the all-sky video data based on any of the line-of-sight direction, the moving direction, and the sound source direction detected by the head-mounted device 10 at the time of shooting. Determine the area (trimming position). For (4) and (5), it is only necessary to perform image processing (analysis processing) on the finally obtained all-sky video data, and it is not necessary to use additional information (metadata) from the head-mounted device 10. . Therefore, (1) to (3) will be described in the first embodiment, and (4) and (5) will be described in second and third embodiments described later, respectively.

再生処理部34は、動画ファイル記憶部33に記憶されている全天周映像データ(動画ファイル)を読み出し、全天周映像データ(動画ファイル)の1フレーム目に埋め込まれた付加情報(メタデータ)を解析し、撮影者の視線方向(顔の向き)、撮影者の移動方向、あるいは音源方向を取得し、これら撮影者の視線方向(顔の向き)、撮影者の移動方向、あるいは音源方向に基づいて、全天周映像データにおける再生時に表示すべきトリミング位置を決定する。また、再生処理部34は、決定したトリミング位置に従って全天周映像データからフレーム毎に所定のトリミング範囲でトリミングし、該トリミングした映像を表示部35で再生表示する。   The reproduction processing unit 34 reads the all-sky video data (moving image file) stored in the moving image file storage unit 33 and adds additional information (metadata) embedded in the first frame of the all-sky video data (moving image file). ) To obtain the direction of the photographer's line of sight (face direction), the direction of the photographer's movement, or the direction of the sound source, and the direction of the photographer's line of sight (face direction), the direction of the photographer's movement, or the direction of the sound source Based on the above, the trimming position to be displayed at the time of reproduction in the all-sky video data is determined. The reproduction processing unit 34 trims the entire sky video data in a predetermined trimming range for each frame according to the determined trimming position, and reproduces and displays the trimmed video on the display unit 35.

表示部35は、カラー液晶表示器とその駆動回路を含み、全天周映像データからトリミングした映像を表示する。なお、該表示部35は、タッチパネルを備えていてもよく、タッチパネルでのタッチ操作により各種コマンドを実行するようにしてもよい。具体的には、本第1実施形態では、ユーザ操作として、一時停止操作、移動指示操作、再生開始操作などがあるが、これらユーザ操作は、例えば画面上(の所定位置、所定アイコン)に対するタップ、タブルタップ、スワイプ、又は指によるジェスチャーなどで行う。但し、操作部36のキースイッチによる操作であってもよい。操作部36は、電源スイッチ、音量調整ボタン等の操作キーを含み、ユーザのキー操作に応じた操作信号を制御部37に出力する。制御部37は、上述した各部の動作を統合的に制御する。   The display unit 35 includes a color liquid crystal display and its driving circuit, and displays an image trimmed from the entire sky video data. The display unit 35 may include a touch panel, and may execute various commands by a touch operation on the touch panel. Specifically, in the first embodiment, the user operations include a pause operation, a movement instruction operation, a reproduction start operation, and the like. These user operations are, for example, a tap on a screen (predetermined position, predetermined icon). , Double tap, swipe or finger gesture. However, an operation using a key switch of the operation unit 36 may be used. The operation unit 36 includes operation keys such as a power switch and a volume adjustment button, and outputs an operation signal corresponding to the user's key operation to the control unit 37. The control unit 37 controls the operation of each unit described above in an integrated manner.

図5は、本第1実施形態による映像録画再生システム1における頭部装着装置10とカメラ装置20a、20bとの調整処理を説明するための概念図である。図5において、正面半天周画像40がカメラ装置20aによる撮影画角であり、背面半天周画像50がカメラ装置20bによる撮影画角である。上述したように、本第1実施形態では、撮影者の顔の向き(視線方向)や、移動方向、音源方向に関連付けて再生すべき映像領域(トリミング位置)を決定するため、全天周映像データの撮影開始時に、撮影者の頭部に装着された頭部装着装置10によって検知される撮影者の顔の向き(すなわち、頭部装着装置10の「前方の中心」)と、カメラ装置20a、20bの撮影方向、すなわち撮影画角の中心とのずれを把握しておく必要がある。そこで、図5に示すように、撮影開始時に、頭部装着装置10の前方の中心41と、カメラ装置20a、20bの撮影画角の中心42とのずれを検知しておき、全天周映像データの動画ファイルに記録しておく。そして、再生時には、再生すべき映像領域の位置(トリミング位置)を決定するために、上記検知したずれに基づいて再生すべき映像領域の位置(トリミング位置)を補正する。   FIG. 5 is a conceptual diagram for explaining an adjustment process between the head-mounted device 10 and the camera devices 20a and 20b in the video recording and reproducing system 1 according to the first embodiment. In FIG. 5, the front half sky image 40 is a shooting angle of view by the camera device 20 a, and the back half sky image 50 is a shooting angle of view by the camera device 20 b. As described above, in the first embodiment, the entire sky image is used to determine the video area (trimming position) to be reproduced in association with the face direction (line-of-sight direction), movement direction, and sound source direction of the photographer. The orientation of the photographer's face detected by the head-mounted device 10 mounted on the photographer's head at the start of data capture (that is, the “front center” of the head-mounted device 10), and the camera device 20a , 20b, that is, it is necessary to grasp the deviation from the center of the shooting angle of view. Therefore, as shown in FIG. 5, at the start of shooting, a deviation between the center 41 in front of the head-mounted device 10 and the center 42 of the shooting angle of view of the camera devices 20a and 20b is detected, and the all-sky image Record it in a video file of the data. At the time of reproduction, in order to determine the position (trimming position) of the video area to be reproduced, the position (trimming position) of the video area to be reproduced is corrected based on the detected deviation.

次に、上述した第1実施形態の動作について説明する。
図6は、本第1実施形態による再生装置30の動作を説明するためのフローチャートである。再生装置30において、再生処理部34は、全天周映像データ(動画ファイル)の先頭フレームに対する解析処理を実行する(ステップS10)。この解析処理では、上述した所定の再生映像条件に基づいて、先頭フレームに埋め込まれた付加情報(メタデータ)を解析し、全天周映像データの中から所定の再生映像条件に従って再生時に表示すべきトリミング位置をフレーム毎に決定する。なお、所定の再生映像条件、並びに所定の再生映像条件毎の再生時に表示すべきトリミング位置の決定方法については後述する。
Next, the operation of the above-described first embodiment will be described.
FIG. 6 is a flowchart for explaining the operation of the playback device 30 according to the first embodiment. In the playback device 30, the playback processing unit 34 performs an analysis process on the first frame of the all-sky video data (moving image file) (step S10). In this analysis process, the additional information (metadata) embedded in the first frame is analyzed based on the above-described predetermined playback video condition, and is displayed during playback according to the predetermined playback video condition from all-round video data. The power trimming position is determined for each frame. A method for determining a predetermined reproduction video condition and a trimming position to be displayed at the time of reproduction for each predetermined reproduction video condition will be described later.

次に、再生処理部34は、決定した再生時に表示すべきトリミング位置に基づいて、全天周映像データをフレーム毎にトリミングするとともに、トリミングした映像に対して歪曲補正処理を実行する。全天周映像データは、特に画角周辺部(端部)に行くほど映像が歪んで記録されている。そこで、歪曲補正処理を実行することによってトリミング処理した映像の歪みを補正する。   Next, the reproduction processing unit 34 trims the whole sky video data for each frame based on the determined trimming position to be displayed at the time of reproduction, and executes distortion correction processing on the trimmed video. In the all-sky video data, the video is distorted and recorded especially toward the periphery (edge) of the angle of view. Therefore, the distortion of the trimmed video is corrected by executing a distortion correction process.

次に、再生処理部34は、トリミングされた映像を再生開始位置として、再生を開始する。次に、再生処理部34は、後続するフレームについて、上述した解析処理を逐次実行して再生時に表示すべきトリミング位置を決定する(ステップS16)。再生処理部34は、決定されたトリミング位置に基づいて、全天周映像データから表示範囲の映像をトリミングするとともに、歪曲補正を実行し、逐次トリミングされる映像を更新しながら再生表示する。   Next, the playback processing unit 34 starts playback using the trimmed video as a playback start position. Next, the playback processing unit 34 sequentially executes the above-described analysis processing for subsequent frames to determine a trimming position to be displayed during playback (step S16). Based on the determined trimming position, the reproduction processing unit 34 trims the video in the display range from the whole sky video data, performs distortion correction, and reproduces and displays the video that is sequentially trimmed while updating it.

このように、本第1実施形態では、全天周映像データに基づく映像のどの部分から再生するかを、上述した所定の再生映像条件に従って決定し、その部分から映像の再生を開始することで、ユーザにとってより効果的に、かつより見やすく、全天周映像を再生することが可能となる。また、全天周映像データの記録時には、再生時を考慮して映像を記録しないということもなく、全天周の全ての映像データを記録しているので、所望する部分をいつでも再生表示することが可能である。   As described above, in the first embodiment, the part of the video based on the all-round video data is determined from the predetermined playback video condition described above, and the video playback is started from that part. Thus, it becomes possible for the user to reproduce the entire sky video more effectively and more easily. In addition, when recording all-sky video data, the video is not recorded in consideration of the playback time, and all the video data of the whole sky is recorded, so that the desired part can be played back and displayed at any time. Is possible.

次に、全天周映像の再生中、制御部37は、タッチパネルを含む操作部36からユーザによる一時停止操作を検知したか否かを判断する(ステップS20)。つまり、全天周映像の再生開始後、再生されている映像以外(表示範囲の外)を見たい場合に、ユーザは、タッチパネルを含む操作部36を(タッチ)操作する。そして、ユーザによる一時停止操作が検知されなかった場合には(ステップS20のNO)、制御部37は、全天周映像の再生が終了したか否かを判断する(ステップS22)。   Next, during the reproduction of the all-sky video, the control unit 37 determines whether or not a pause operation by the user is detected from the operation unit 36 including the touch panel (step S20). That is, after starting the reproduction of the all-sky video, the user operates (touches) the operation unit 36 including the touch panel in order to view a video other than the video being reproduced (outside the display range). If no pause operation by the user is detected (NO in step S20), the control unit 37 determines whether or not the reproduction of the all-sky video has been completed (step S22).

そして、再生が終了していない場合には(ステップS22のNO)、ステップS16に戻り、上述した処理を繰り返す。すなわち、所定の再生映像条件に合致するトリミング位置での再生を継続する。一方、ユーザによる一時停止操作が検出されないまま、再生が終了した場合には(ステップS22のYES)、当該処理を終了する。   If reproduction has not ended (NO in step S22), the process returns to step S16 and the above-described processing is repeated. That is, playback at a trimming position that matches a predetermined playback video condition is continued. On the other hand, when the reproduction is finished without detecting the pause operation by the user (YES in step S22), the process is finished.

一方、全天周映像の再生中に、ユーザによる一時停止操作が検知された場合には(ステップS20のYES)、再生処理部34は、再生を一時停止し(ステップS24)、制御部37は、一時停止操作に続いてユーザによる移動指示操作が検知されたか否かを判断する(ステップS26)。すなわち、ユーザは、再生されている映像以外(表示範囲の外)を見たい場合、再生を一時停止させた後、トリミング位置をリアルタイムで変更するために、例えばタッチパネル(操作部36)上で指をスライドする操作(スワイプという)を行う。   On the other hand, when a pause operation by the user is detected during playback of the all-sky video (YES in step S20), the playback processing unit 34 pauses playback (step S24), and the control unit 37 Then, it is determined whether or not a movement instruction operation by the user has been detected following the pause operation (step S26). That is, when the user wants to view a video other than the video being played back (outside the display range), the user pauses playback and then changes the trimming position in real time using, for example, a finger on the touch panel (operation unit 36). Perform an operation of sliding (called swipe).

再生装置30では、ユーザによる移動指示操作が検知された場合には(ステップS26のYES)、再生処理部34は、ユーザ操作に基づいて再生時に表示すべきトリミング位置を変更して再生する(ステップS28)。この時点では、全天周映像データの1フレーム内で、ユーザ操作に基づいて再生時に表示すべきトリミング位置を変更しつつ表示しており、再生される映像は静止画である。   In the playback device 30, when a movement instruction operation by the user is detected (YES in step S26), the playback processing unit 34 changes the trimming position to be displayed at the time of playback based on the user operation and plays back (step S26). S28). At this time, the image is displayed while changing the trimming position to be displayed at the time of reproduction based on the user operation within one frame of the all-sky video data, and the reproduced video is a still image.

一方、ユーザによる移動指示操作が検知されない場合には(ステップS26のNO)、再生時に表示すべきトリミング位置を変更することなく、次のステップS30に進む。   On the other hand, when the movement instruction operation by the user is not detected (NO in step S26), the process proceeds to the next step S30 without changing the trimming position to be displayed at the time of reproduction.

次に、制御部37は、ユーザによる再生開始操作が検知されたか否かを判断する(ステップS30)。そして、ユーザによる再生開始操作が検知されない場合には(ステップS30のNO)、ステップS26に戻り、新たな再生時に表示すべきトリミング位置が決めって再生開始操作が検知されるまで、ステップS26〜S30を繰り返し実行する。   Next, the control unit 37 determines whether or not a reproduction start operation by the user has been detected (step S30). If the reproduction start operation by the user is not detected (NO in step S30), the process returns to step S26, and steps S26 to S26 are performed until the trimming position to be displayed at the time of new reproduction is determined and the reproduction start operation is detected. S30 is repeatedly executed.

つまり、ステップS26〜S30では、ユーザが一時停止している映像に対して例えばスワイプ(カーソルによる移動指示操作であってもよい)すると、その操作方向、操作量、及び操作速度に応じて、全天周映像データの1フレームからトリミング位置を現在位置からリアルタイムで移動させながらトリミングして静止画として再生する。ユーザは、指定した方向の映像が表示されると、映像の再生を指示するために再生開始操作を行う。   That is, in steps S26 to S30, for example, when the user pauses the video that has been paused (or may be a movement instruction operation using a cursor), all of the images are displayed according to the operation direction, the operation amount, and the operation speed. Trimming is performed while moving the trimming position from one frame of the celestial video data in real time from the current position and reproduced as a still image. When the video in the designated direction is displayed, the user performs a playback start operation to instruct the video playback.

制御部37は、ユーザによる再生開始操作が検知された場合には(ステップS30のYES)、移動指示操作で指定された再生時に表示すべきトリミング位置でトリミングした映像の再生を開始する(ステップS32)。次に、制御部37は、ユーザによる一時停止操作を検知したか否かを判断する(ステップS34)。そして、ユーザによる一時停止操作が検知されない場合には(ステップS34のNO)、動画ファイルが終了したか、再生終了の指示操作があったか否かを判断する(ステップS36)。そして、動画ファイルが終了していない、あるいは再生終了の指示操作もない場合には(ステップS36のNO)、ステップS32に戻り、移動操作指示に指定された再生時に表示すべきトリミング位置でトリミングされた映像の再生を継続する。   When the reproduction start operation by the user is detected (YES in step S30), the control unit 37 starts reproduction of the video trimmed at the trimming position to be displayed at the time of reproduction designated by the movement instruction operation (step S32). ). Next, the control unit 37 determines whether or not a pause operation by the user has been detected (step S34). If no pause operation by the user is detected (NO in step S34), it is determined whether or not the moving image file has ended or a reproduction end instruction operation has been performed (step S36). If the moving image file has not ended or there is no instruction to end playback (NO in step S36), the process returns to step S32, and trimming is performed at the trimming position to be displayed during playback specified in the move operation instruction. Continue playing the video.

一方、移動操作指示に指定された位置での映像再生中に、ユーザによる一時停止操作が再び検知された場合には(ステップS34のYES)、ステップS24に戻り、上述したステップS24〜S34の処理を繰り返す。すなわち、再生中の映像を一時停止した後、再び、ユーザによる移動指示操作に基づいて再生時に表示すべきトリミング位置を変更し、ユーザによる再生開始操作で、変更したトリミング位置でトリミングした映像の再生を繰り返す。したがって、ユーザは、所望するタイミングで、見たい方向を変更しながら、全天周映像を再生させることができる。   On the other hand, when the pause operation by the user is detected again during the video reproduction at the position specified in the movement operation instruction (YES in step S34), the process returns to step S24, and the processes in steps S24 to S34 described above are performed. repeat. That is, after the video being played back is paused, the trimming position to be displayed at the time of playback is changed again based on the movement instruction operation by the user, and the video trimmed at the changed trimming position by the user's playback start operation is played back. repeat. Therefore, the user can reproduce the all-sky video while changing the desired direction at a desired timing.

そして、動画ファイルが終了するか、再生終了の指示操作があると(ステップS36のYES)、全天周映像の再生を終了する。   Then, when the moving image file ends or when there is an instruction to end playback (YES in step S36), playback of the all-sky video ends.

図7(a)〜(c)は、本第1実施形態による所定の再生映像条件毎の再生時に表示すべき映像領域(トリミング位置)を決定するフレーム解析処理例を説明するためのフローチャートである。   FIGS. 7A to 7C are flowcharts for explaining an example of frame analysis processing for determining a video area (trimming position) to be displayed at the time of playback for each predetermined playback video condition according to the first embodiment. .

図7(a)には、撮影時における撮影者の視線方向(顔を向けていた方向)に基づいて再生時に表示すべき映像領域(トリミング位置)を決定する処理を示している。この場合、再生処理部34は、動画ファイル(全天周映像データ)の先頭フレームに付加情報(メタデータ)として埋め込まれた撮影者の視線方向(顔を向けていた方向)を取得する(ステップS40)。そして、再生処理部34は、取得した撮影者の視線方向(顔を向けていた方向)に一致する全天周映像データのフレーム内における再生時に表示すべき映像領域(トリミング位置)を決定する(ステップS42)。これにより、全天周映像の再生を開始すると、撮影者の視線方向(顔を向けていた方向)の映像が表示されるようにトリミング処理、及び歪曲補正処理が実行され、表示部35に再生表示される。このように、再生開始時には、撮影時の撮影者の視線方向(顔を向けていた方向)の映像が優先的に再生表示されるので、無作為に再生表示されることなく、ユーザにとってより見やすく再生することができる。   FIG. 7A shows a process of determining a video area (trimming position) to be displayed at the time of reproduction based on the gaze direction of the photographer at the time of shooting (the direction in which the face is directed). In this case, the reproduction processing unit 34 acquires the sight line direction (direction in which the face is directed) of the photographer embedded as additional information (metadata) in the first frame of the moving image file (all-sky video data) (step S1). S40). Then, the playback processing unit 34 determines a video area (trimming position) to be displayed during playback within the frame of the all-sky video data that matches the line-of-sight direction (the direction in which the face is directed) of the acquired photographer ( Step S42). As a result, when the reproduction of the whole sky image is started, the trimming process and the distortion correction process are performed so that the image in the sight line direction of the photographer (the direction in which the face is directed) is displayed, and the image is reproduced on the display unit 35. Is displayed. In this way, at the start of playback, the video in the direction of the photographer's line of sight (the direction in which the face is facing) is preferentially played back and displayed, so that it is easier for the user to view without random playback and display. Can be played.

図7(b)には、撮影時における撮影者の移動方向に基づいて再生時に表示すべき映像領域(トリミング位置)を決定する場合の処理を示している。この場合、再生処理部34は、動画ファイル(全天周映像データ)の先頭フレームに付加情報(メタデータ)として埋め込まれた撮影者の移動方向を取得する(ステップS50)。そして、再生処理部34は、取得した撮影者の移動方向に一致する全天周映像データのフレーム内における再生時に表示すべき映像領域(トリミング位置)を決定する(ステップS52)。これにより、全天周映像の再生を開始すると、撮影者の移動方向の映像が表示されるようにトリミング処理、及び歪曲補正処理が実行され、表示部35に再生表示される。このように、再生開始時には、撮影時の撮影者の移動方向の映像が優先的に再生表示されるので、無作為に再生表示されることなく、ユーザにとってより見やすく再生することができる。   FIG. 7B shows a process for determining a video area (trimming position) to be displayed during playback based on the moving direction of the photographer during shooting. In this case, the reproduction processing unit 34 acquires the moving direction of the photographer embedded as additional information (metadata) in the first frame of the moving image file (all-round video data) (step S50). Then, the playback processing unit 34 determines a video area (trimming position) to be displayed during playback within the frame of the all-sky video data that matches the acquired moving direction of the photographer (step S52). Thus, when the reproduction of the all-sky video is started, the trimming process and the distortion correction process are performed so that the video in the moving direction of the photographer is displayed, and the video is reproduced and displayed on the display unit 35. As described above, since the video in the moving direction of the photographer at the time of shooting is preferentially reproduced and displayed at the start of reproduction, the image can be reproduced more easily for the user without being randomly reproduced and displayed.

図7(c)には、撮影時における環境音の音源方向に基づいて再生時に表示すべき映像領域(トリミング位置)を決定する処理を示している。この場合、再生処理部34は、動画ファイル(全天周映像データ)の先頭から数フレーム〜数十フレームを解析し、記録されている音声の音量レベルが所定の閾値以上である音源がある場合に、動画ファイル(全天周映像データ)にメタデータとして埋め込まれたその環境音の音源方向を取得する(ステップS60)。   FIG. 7C shows a process of determining a video area (trimming position) to be displayed at the time of reproduction based on the sound source direction of the environmental sound at the time of shooting. In this case, the reproduction processing unit 34 analyzes several frames to several tens of frames from the beginning of the moving image file (all-sky video data), and there is a sound source whose sound volume level is greater than or equal to a predetermined threshold. Then, the sound source direction of the environmental sound embedded as metadata in the moving image file (all-round video data) is acquired (step S60).

そして、再生処理部34は、取得した環境音の音源方向に一致する全天周映像データのフレーム内における再生時に表示すべき映像領域(トリミング位置)を決定する(ステップS62)。これにより、全天周映像の再生を開始すると、音量レベルが所定の閾値以上の音源方向の映像が表示されるようにトリミング処理、及び歪曲補正処理され、表示部35に再生表示される。   Then, the playback processing unit 34 determines a video area (trimming position) to be displayed during playback within the frame of the all-sky video data that matches the sound source direction of the acquired environmental sound (step S62). As a result, when the reproduction of the whole sky video is started, the trimming process and the distortion correction process are performed so that the video in the sound source direction whose volume level is equal to or higher than a predetermined threshold is displayed, and the video is reproduced and displayed on the display unit 35.

例えば、所定の閾値以上の音量レベルを発する音源として、鳥や、動物、あるいは子供、車両など、何らかの興味を引くものが撮影(記録)されている可能性がある。本第1実施形態によれば、単純に撮影者の進行方向を再生表示するのに比べ、仮に撮影者の背後であっても全天周記録映像のうち、何らかの大きな音を発生する音源方向の映像から再生が開始されるので見逃すことがない。   For example, as a sound source that emits a volume level equal to or higher than a predetermined threshold, there is a possibility that something of interest such as a bird, an animal, a child, or a vehicle is photographed (recorded). According to the first embodiment, as compared with simply reproducing and displaying the traveling direction of the photographer, even in the background of the photographer, the direction of the sound source that generates some loud sound in the whole sky recorded video is displayed. Since playback starts from the video, you can't miss it.

なお、上述した撮影者の視線方向で決定する方法と、撮影者の移動方向で決定する方法と、音源方向で決定する方法とのうち、どの方法を用いるかは、ユーザが予め設定しておけばよい。あるいは、例えば、最初に音源方向をチェックし、音量レベルが所定の閾値以上ない場合には、移動方向をチェックし、撮影者が移動していない場合には、視線方向を用いるというように、音源方向、移動方向、視線方向の順に優先順位を設定してもよい。   Note that the user can set in advance which method to use among the above-described method of determining by the photographer's line-of-sight direction, the method of determining by the photographer's moving direction, and the method of determining by the sound source direction. That's fine. Alternatively, for example, the sound source direction is first checked, and if the volume level is not equal to or greater than a predetermined threshold, the moving direction is checked. If the photographer is not moving, the line-of-sight direction is used. Priorities may be set in the order of direction, moving direction, and line-of-sight direction.

B.第2実施形態
次に、本発明の第2実施形態について説明する。
本第2実施形態では、全天周映像のどの部分から再生開始するかを、撮影された全天周映像データに含まれている被写体の正面顔を検出し、その被写体の正面顔を表示範囲の略中心となるよう、全天周映像データのフレーム内における再生時に表示すべき映像領域(トリミング位置)を決定する。したがって、本第2実施形態では、全天周映像データに対する画像処理(顔認識処理)を行えばよく、頭部装着装置10からの付加情報(メタデータ)を用いる必要はない。ゆえに、本第2実施形態は、図1に示す頭部装着装置10を装着することなく撮影された全天周映像データであっても適用可能である。
B. Second Embodiment Next, a second embodiment of the present invention will be described.
In the second embodiment, the front face of the subject included in the shot all-sky video data is detected and the front face of the subject is displayed in the display range to determine from which part of the whole sky video the playback starts. The video area (trimming position) to be displayed at the time of reproduction within the frame of the all-sky video data is determined so as to be substantially the center of Therefore, in the second embodiment, it is only necessary to perform image processing (face recognition processing) on all-sky video data, and there is no need to use additional information (metadata) from the head-mounted device 10. Therefore, the second embodiment is applicable even to all-sky video data shot without wearing the head-mounted device 10 shown in FIG.

図8は、本第2実施形態による再生装置30の構成を示すブロック図である。なお、図4に対応する部分には同一の符号を付けて説明を省略する。本第2実施形態による再生装置30は、画像解析部38を備えている。該画像解析部38は、全天周映像データ(動画ファイル)の1フレーム目を解析して被写体の顔(正面顔)を検知したり、全天周映像データ(動画ファイル)の先頭フレームから数フレーム分を解析して移動体を検知したりする。再生処理部34は、動画ファイル記憶部33に記憶されている動画ファイルを読み出し、画像解析部38で検知された被写体の正面顔に基づいて、全天周映像における再生時に表示すべきトリミング位置を決定し、該トリミング位置に従って全天周映像データからトリミングした映像を表示部35に表示する。   FIG. 8 is a block diagram showing the configuration of the playback device 30 according to the second embodiment. Note that portions corresponding to those in FIG. 4 are denoted by the same reference numerals and description thereof is omitted. The playback device 30 according to the second embodiment includes an image analysis unit 38. The image analysis unit 38 analyzes the first frame of the all-sky video data (moving image file) to detect the face of the subject (front face), and counts from the first frame of the all-sky video data (moving image file). Analyzing frames and detecting moving objects. The reproduction processing unit 34 reads out the moving image file stored in the moving image file storage unit 33, and based on the front face of the subject detected by the image analysis unit 38, the trimming position to be displayed at the time of reproduction in the all-sky image. The video trimmed from the whole sky video data according to the trimming position is displayed on the display unit 35.

図9は、本第2実施形態による再生装置30の一部動作を説明するためのフローチャートである。なお、本第2実施形態では、図6に示すステップS10、S16における、再生時に表示すべき映像領域(トリミング位置)を決定するための処理が異なるだけで、図6に示すメインルーチンについては同じであるので、共通するステップについては説明を省略する。   FIG. 9 is a flowchart for explaining a partial operation of the playback apparatus 30 according to the second embodiment. In the second embodiment, only the processing for determining the video region (trimming position) to be displayed at the time of reproduction in steps S10 and S16 shown in FIG. 6 is different, and the main routine shown in FIG. 6 is the same. Therefore, description of common steps is omitted.

本第2実施形態では、撮影された映像に写っている被写体の正面顔の位置に基づいて映像領域(トリミング位置(方向))を決定する。この場合、画像解析部38は、動画ファイル(全天周映像データ)の先頭から数フレーム〜数十フレーム(あるいは数秒〜数十秒分)を読み出し、所定の顔条件に合致する被写体の顔を検出する(ステップS70)。ここで、所定の顔条件とは、例えば、笑顔、決定の人物の顔、フレーム占有率(顔がより大きく写っている)などが考えられる。   In the second embodiment, the video area (trimming position (direction)) is determined based on the position of the front face of the subject in the captured video. In this case, the image analysis unit 38 reads several frames to several tens of frames (or several seconds to several tens of seconds) from the beginning of the moving image file (all-round video data), and selects the face of the subject that meets a predetermined face condition. It detects (step S70). Here, as the predetermined face condition, for example, a smile, a face of a determined person, a frame occupancy rate (the face is shown larger) can be considered.

そして、画像解析部38は、検出した被写体(の正面顔)が表示範囲の略中心となるよう、全天周映像データのフレーム内における再生時に表示すべき映像領域(トリミング位置)を決定する(ステップS72)。これにより、全天周映像の再生を開始すると、写っている被写体が表示部35の表示範囲の略中央に表示されるようにトリミング処理、及び歪曲補正処理され、表示部35に再生表示される。   Then, the image analysis unit 38 determines a video area (trimming position) to be displayed at the time of reproduction in the frame of the all-sky video data so that the detected subject (front face thereof) is substantially at the center of the display range ( Step S72). As a result, when the reproduction of the all-sky video is started, the trimming process and the distortion correction process are performed so that the photographed subject is displayed in the approximate center of the display range of the display unit 35, and is reproduced and displayed on the display unit 35. .

図10は、本第2実施形態において、被写体の顔の位置に基づいて再生時に表示すべき映像領域(トリミング位置)を決定する際の全天周画像とトリミング位置との関係を説明するための概念図である。なお、後述する移動体の位置に基づいて再生時に表示すべき映像領域(トリミング位置)を決定する場合も同様である。上述したように、動画ファイル(全天周映像データ)の先頭フレーム、もしくは先頭フレームから数フレーム〜数十フレーム(あるいは数秒〜数十秒分)を読み出し、所定の顔条件に合致する被写体の顔を検出する。   FIG. 10 is a diagram for explaining the relationship between the all-sky image and the trimming position when determining the video region (trimming position) to be displayed at the time of reproduction based on the position of the face of the subject in the second embodiment. It is a conceptual diagram. The same applies to a case where a video area (trimming position) to be displayed at the time of reproduction is determined based on the position of a moving body to be described later. As described above, the first frame of a video file (all-round video data), or several frames to several tens of frames (or several seconds to several tens of seconds) are read from the first frame, and the face of the subject that meets a predetermined face condition Is detected.

例えば、図10に示すように、全天周映像の正面半天周画像40内に被写体(の顔)がなく、背面半天周画像50内に被写体の顔60を検出した場合であっても、再生開始時には、その被写体が表示部35の表示範囲の略中央に表示されるようにトリミング位置70を決定し、該トリミング位置70に従ってトリミング処理、及び歪曲補正処理を行い、トリミングされた映像を表示部35に再生表示する。   For example, as shown in FIG. 10, even when there is no subject (face) in the front half-sky image 40 of the whole sky video and the face 60 of the subject is detected in the back half-sky image 50, playback is performed. At the start, the trimming position 70 is determined so that the subject is displayed at substantially the center of the display range of the display unit 35, the trimming process and the distortion correction process are performed according to the trimming position 70, and the trimmed video is displayed on the display unit. 35 is reproduced and displayed.

したがって、撮影時には、後方に誰かいたとは気が付かなかった場合であっても、再生時には、後方にいた人物が優先的に再生表示されるので、何もない風景(正面半天周)が無作為に再生表示されることなく、ユーザにとってより見やすく再生することができる。また、上述したように、再生開始後、ユーザが一時停止させて表示方向を変えるまでは、被写体の顔60を追尾するので、一瞬で表示部35の表示範囲から外れてしまうということなく、最初に決定した被写体を逃すことなく再生表示することができる。   Therefore, even if you do not realize that someone was behind you at the time of shooting, the person who was behind you will be played and displayed preferentially at the time of playback, so there is no random scenery (front half sky) Without being reproduced and displayed, it can be reproduced more easily for the user. In addition, as described above, after the reproduction is started, the face 60 of the subject is tracked until the user pauses and the display direction is changed, so that the first time without deviating from the display range of the display unit 35 immediately. It is possible to reproduce and display the subject that has been decided on without missing.

C.第3実施形態
次に、本発明の第3実施形態に付いて説明する。
本第3実施形態では、全天周映像のどの部分から再生開始するかを、撮影された全天周映像データに含まれている移動体を検出し、その移動体を表示範囲の略中心となるよう、全天周映像データのフレーム内における再生表示すべき映像領域(トリミング位置)を決定する。したがって、本第3実施形態では、全天周映像データに対する画像処理(移動体検出処理)を行えばよく、頭部装着装置10からの付加情報を用いる必要はない。ゆえに、本第3実施形態は、上記第2実施形態と同様に、図1に示す頭部装着装置10を装着することなく撮影された全天周映像データであっても適用可能である。
C. Third Embodiment Next, a third embodiment of the present invention will be described.
In the third embodiment, the moving object included in the captured all-sky video data is detected as to which part of the whole-sky image is to be reproduced, and the moving object is set as the approximate center of the display range. Thus, the video area (trimming position) to be reproduced and displayed in the frame of the all-sky video data is determined. Therefore, in the third embodiment, it is only necessary to perform image processing (moving body detection processing) on the whole sky video data, and it is not necessary to use additional information from the head-mounted device 10. Therefore, as in the second embodiment, the third embodiment can be applied even to all-sky video data shot without wearing the head-mounted device 10 shown in FIG.

なお、本第3実施形態よるカメラ装置20a、20bの構成、並びに再生装置30の構成は、上述した第2実施形態、と同じであるので説明を省略する。但し、本第3実施形態による画像解析部38は、全天周映像データ(動画ファイル)の先頭フレームから数フレーム分を解析し、フレーム間の差分に基づいて移動体を検知する。再生処理部34は、動画ファイル記憶部33に記憶されている動画ファイルを読み出し、画像解析部38で検知された、移動体の方向に基づいて、全天周映像データにおける再生時に表示すべきトリミング位置を決定し、該トリミング位置に従って全天周映像データからトリミングした映像を表示部35に表示する。   Note that the configuration of the camera devices 20a and 20b and the configuration of the playback device 30 according to the third embodiment are the same as those of the above-described second embodiment, and a description thereof will be omitted. However, the image analysis unit 38 according to the third embodiment analyzes several frames from the first frame of the omnidirectional video data (moving image file), and detects the moving object based on the difference between the frames. The reproduction processing unit 34 reads out the moving image file stored in the moving image file storage unit 33, and performs trimming to be displayed at the time of reproduction in the all-sky video data based on the direction of the moving body detected by the image analysis unit 38. The position is determined, and the video trimmed from the whole sky video data according to the trimming position is displayed on the display unit 35.

図11は、本第3実施形態による再生装置30の一部動作を説明するためのフローチャートである。なお、本第3実施形態では、図6に示すステップS10、S16における、再生表示すべき映像領域(トリミング位置)を決定するための処理が異なるだけで、図6に示すメインルーチンについては同じであるので、共通するステップについては説明を省略する。   FIG. 11 is a flowchart for explaining a partial operation of the playback apparatus 30 according to the third embodiment. In the third embodiment, only the processing for determining the video area (trimming position) to be reproduced and displayed in steps S10 and S16 shown in FIG. 6 is different, and the main routine shown in FIG. 6 is the same. Since there are, description of common steps is omitted.

本第3実施形態では、撮影された映像に写っている移動体の位置に基づいて再生時に表示すべき映像領域(トリミング位置)を決定する。この場合、画像解析部38は、動画ファイル(全天周映像データ)の先頭から数フレーム〜数十フレーム(あるいは数秒〜数十秒分)を解析し、フレーム間の差分から移動体を検出する(ステップS80)。ここで、移動体とは、例えば、鳥や、動物、あるいは人、車両など、何らかの興味を引くものなどが考えられる。   In the third embodiment, a video area (trimming position) to be displayed at the time of reproduction is determined based on the position of the moving object shown in the captured video. In this case, the image analysis unit 38 analyzes several frames to several tens of frames (or several seconds to several tens of seconds) from the beginning of the moving image file (entire sky video data), and detects the moving object from the difference between the frames. (Step S80). Here, the moving body may be something that attracts some interest, such as a bird, an animal, a person, or a vehicle.

そして、画像解析部38は、検出した移動体が画角の略中心となるよう、全天周映像データのフレーム内における再生表示すべき映像領域(トリミング位置)を決定する(ステップS82)。これにより、全天周映像の再生を開始すると、写っている移動体が表示されるようにトリミング処理、及び歪曲補正処理され、表示部35に再生表示される。   Then, the image analysis unit 38 determines a video region (trimming position) to be reproduced and displayed within the frame of the all-sky video data so that the detected moving body is substantially at the center of the angle of view (step S82). Thus, when the reproduction of the all-sky video is started, the trimming process and the distortion correction process are performed so that the captured moving body is displayed, and the image is reproduced and displayed on the display unit 35.

したがって、被写体の顔の有無を所定の条件とした場合と同様に、撮影時には、何か移動体がいたとは気が付かなかった場合であっても、再生時には、撮影された移動体が優先的に再生表示されるので、何もない風景(正面半天周)が無作為に再生表示されることなく、ユーザにとってより見やすく再生することができる。また、上述したように、再生開始後、ユーザが一時停止させて表示方向を変えるまでは、移動体を追尾するので、一瞬で表示部35の表示範囲から外れてしまうということなく、最初に決定した移動体を逃すことなく再生表示することができる。   Therefore, as in the case where the presence / absence of the subject's face is set as a predetermined condition, even when it is not noticed that there was any moving object at the time of shooting, the captured moving object is given priority during playback. Since it is reproduced and displayed, an empty landscape (front half sky) can be reproduced more easily for the user without being randomly reproduced and displayed. Further, as described above, after the reproduction is started, the moving object is tracked until the user pauses and the display direction is changed, so that the first determination is made without losing the display range of the display unit 35 in an instant. It is possible to reproduce and display the mobile object without missing it.

なお、上述した実施形態においては、再生中の映像を一時停止した際、例えばピンチイン(タッチ画面上で二本の指を摘まむように狭める動作)で縮小(ズームアウト)し、ピンチアウト(タッチ画面上で二本の指を広げる動作)で拡大(ズームイン)するようにしてもよい。この場合、拡大(ズームイン)、縮小(ズームアウト)は、トリミング範囲を拡縮することで実現される。再生が再開されると、ズームイン、ズームアウトした状態(トリミング範囲を拡縮した状態;デジタルズーミング)で再生してもよいし、標準のトリミング範囲に戻して再生するようにしてもよい。   In the above-described embodiment, when the video being played back is paused, for example, it is reduced (zoomed out) by pinch-in (narrowing to hold two fingers on the touch screen) and pinched out (on the touch screen). (Zooming up two fingers) may be used to zoom in (zoom in). In this case, enlargement (zoom-in) and reduction (zoom-out) are realized by expanding and reducing the trimming range. When playback is resumed, playback may be performed in a zoomed-in and zoomed-out state (a state in which the trimming range is enlarged / reduced; digital zooming), or may be played back in the standard trimming range.

また、上述した第1実施形態では、無指向性マイク&指向性マイク12、及び音声信号処理部13を頭部装着装置10に設ける例を示したが、これに限らず、カメラ装置20a、20bに設けるようしてもよい。また、無指向性マイク&指向性マイク12や、音声信号処理部13に限らず、動画ファイルを生成する画像処理部32をカメラ装置20a、20bに設けたり、様々な変形が可能である。   Further, in the first embodiment described above, an example in which the omnidirectional microphone & directional microphone 12 and the audio signal processing unit 13 are provided in the head-mounted device 10 is shown, but the present invention is not limited thereto, and the camera devices 20a and 20b are provided. You may make it provide in. Further, not only the omnidirectional microphone & directional microphone 12 and the audio signal processing unit 13, but also an image processing unit 32 for generating a moving image file may be provided in the camera devices 20a and 20b, and various modifications may be made.

以上、この発明のいくつかの実施形態について説明したが、この発明は、これらに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下に、本願出願の特許請求の範囲に記載された発明を付記する。
As mentioned above, although several embodiment of this invention was described, this invention is not limited to these, The invention described in the claim, and its equal range are included.
Below, the invention described in the claims of the present application is appended.

(付記1)
付記1に記載の発明は、表示手段と、所定範囲の映像を記憶する記憶手段と、所定の再生映像条件に基づいて、前記表示手段の表示範囲に表示させる映像の、前記記憶手段に記憶された映像における位置を設定する設定手段と、再生開始時に、前記設定手段によって設定された位置の映像を、前記記憶手段に記憶された映像からトリミングして前記表示手段に表示させるよう制御する第1の表示制御手段と、この第1の表示制御手段による表示中に外部からの操作を検出する検出手段と、この検出手段によって前記外部からの操作が検出されると、前記第1の表示制御手段により表示制御されている映像を、前記外部からの操作に基づいて前記表示手段に表示させるよう制御する第2の表示制御手段と、を備えたことを特徴とする映像表示装置である。
(Appendix 1)
The invention described in the supplementary note 1 is stored in the storage unit, a display unit, a storage unit that stores a predetermined range of video, and a video that is displayed in the display range of the display unit based on a predetermined reproduction video condition. A setting means for setting a position in the recorded video, and a control for trimming the video at the position set by the setting means from the video stored in the storage means and displaying the video on the display means at the start of reproduction. Display control means, detection means for detecting an external operation during display by the first display control means, and when the external operation is detected by the detection means, the first display control means And a second display control means for controlling the display means to display the video whose display is controlled by the external operation based on the operation from the outside. It is.

(付記2)
付記2に記載の発明は、前記記憶手段に記憶された映像には、撮影方向を示す情報が付加されており、前記設定手段は、この撮影方向を示す情報に基づいて、前記表示手段の表示範囲に表示させる映像の、前記映像における位置を設定する、ことを特徴とする付記1に記載の映像表示装置である。
(Appendix 2)
According to the second aspect of the invention, information indicating a shooting direction is added to the video stored in the storage unit, and the setting unit displays the display on the display unit based on the information indicating the shooting direction. The video display device according to appendix 1, wherein a position of the video to be displayed in the range is set in the video.

(付記3)
付記3に記載の発明は、前記記憶手段に記憶された映像には、撮影時における撮影機器の移動方向を示す情報が付加されており、前記設定手段は、この移動方向を示す情報に基づいて、前記表示手段の表示範囲に表示させる映像の、前記映像における位置を設定する、ことを特徴とする付記1に記載の映像表示装置である。
(Appendix 3)
According to the third aspect of the invention, information indicating a moving direction of the photographing device at the time of photographing is added to the video stored in the storage means, and the setting means is based on the information indicating the moving direction. The video display device according to appendix 1, wherein a position of the video to be displayed in the display range of the display unit is set in the video.

(付記4)
付記4に記載の発明は、前記記憶手段に記憶された映像から、所定の条件を満たす被写体を検出する被写体検出手段と、この被写体検出手段によって検出された被写体の、前記映像における位置を取得する位置取得手段と、を更に備え、前記設定手段は、この位置取得手段によって取得された位置に基づいて、前記表示手段の表示範囲に表示させる映像の、前記映像における位置を設定する、ことを特徴とする付記1に記載の映像表示装置である。
(Appendix 4)
The invention according to attachment 4 obtains, from the video stored in the storage unit, a subject detection unit that detects a subject that satisfies a predetermined condition, and a position of the subject detected by the subject detection unit in the video. Position acquisition means, and the setting means sets the position in the video of the video to be displayed in the display range of the display means based on the position acquired by the position acquisition means. The video display device according to attachment 1.

(付記5)
付記5に記載の発明は、前記所定の条件を満たす被写体とは、正面方向の顔である、ことを特徴とする付記4に記載の映像表示装置である。
(Appendix 5)
The invention according to appendix 5 is the video display device according to appendix 4, wherein the subject that satisfies the predetermined condition is a face in the front direction.

(付記6)
付記6に記載の発明は、前記所定の条件を満たす被写体とは、移動物体である、ことを特徴とする付記4に記載の映像表示装置である。
(Appendix 6)
The invention according to appendix 6 is the video display device according to appendix 4, wherein the subject that satisfies the predetermined condition is a moving object.

(付記7)
付記7に記載の発明は、前記記憶手段に記憶された映像には、前記映像の撮影時において発生した音声情報の発生方向を示す情報が付加されており、前記設定手段は、この音声情報の発生方向を示す情報に基づいて、前記表示手段の表示範囲に表示させる映像の、前記映像における位置を設定する、ことを特徴とする付記1に記載の映像表示装置である。
(Appendix 7)
According to the seventh aspect of the present invention, the video stored in the storage means is added with information indicating the direction in which the audio information generated at the time of shooting the video is generated, and the setting means The video display device according to appendix 1, wherein a position in the video of a video to be displayed in a display range of the display unit is set based on information indicating a generation direction.

(付記8)
付記8に記載の発明は、前記映像は、動画である、ことを特徴とする付記1乃至7のいずれか一つに記載の映像表示装置である。
(Appendix 8)
The invention according to appendix 8 is the video display device according to any one of appendices 1 to 7, wherein the video is a moving image.

(付記9)
付記9に記載の発明は、前記第1の表示制御手段は、動画における再生開始位置として、前記トリミングした箇所から再生する、ことを特徴とする付記1乃至8のいずれか一つに記載の映像表示装置である。
(Appendix 9)
The video according to any one of appendices 1 to 8, wherein the first display control means reproduces from the trimmed portion as a reproduction start position in the moving image. It is a display device.

(付記10)
付記10に記載の発明は、所定の映像から表示手段の表示範囲に表示するための映像をトリミングして前記表示手段に表示させる映像表示方法であって、所定の再生映像条件に基づいて、前記表示手段の表示範囲に表示する映像の、前記所定の映像における位置を設定するステップと、再生開始時に、前記設定された位置の映像を、前記所定の映像からトリミングして前記表示手段に表示させるよう制御するステップと、前記表示手段での映像表示中に外部からの操作を検出するステップと、前記外部からの操作が検出されると、前記表示制御されている映像を、前記外部からの操作に基づいて前記表示手段に表示させるよう制御するステップと、を含むことを特徴とする映像表示方法である。
(Appendix 10)
The invention according to appendix 10 is a video display method for trimming a video to be displayed in a display range of a display unit from a predetermined video and displaying the trimmed video on the display unit, and based on a predetermined playback video condition, A step of setting a position of the video to be displayed in the display range of the display means in the predetermined video; and at the start of reproduction, the video at the set position is trimmed from the predetermined video and displayed on the display A step of controlling the display, a step of detecting an external operation during the video display on the display means, and an operation from the outside when the external operation is detected, And controlling to display on the display means based on the video display method.

(付記11)
付記11に記載の発明は、所定の映像から表示部の表示範囲に表示するための映像をトリミングして前記表示部に表示させる映像表示装置のコンピュータを、所定の再生映像条件に基づいて、前記表示部の表示範囲に表示させる映像の、前記所定の映像における位置を設定する設定手段、再生開始時に、前記設定手段によって設定された位置の映像を、前記所定の映像からトリミングして前記表示部に表示させるよう制御する第1の表示制御手段、この第1の表示制御手段による表示中に外部からの操作を検出する検出手段、この検出手段によって前記外部からの操作が検出されると、前記第1の表示制御手段により表示制御されている映像を、前記外部からの操作に基づいて前記表示部に表示させるよう制御する第2の表示制御手段、として機能させることを特徴とするプログラムである。
(Appendix 11)
The invention described in appendix 11 is directed to a video display device computer that trims a video for display in a display range of a display unit from a predetermined video and displays the trimmed video on the display unit based on a predetermined playback video condition. Setting means for setting a position in the predetermined video of the video to be displayed in the display range of the display unit, and trimming the video at the position set by the setting means from the predetermined video at the start of playback, the display unit First display control means for controlling the display to be displayed, detection means for detecting an external operation during display by the first display control means, and when the external operation is detected by the detection means, Second display control means for controlling to display the video controlled by the first display control means on the display unit based on the operation from the outside. Is a program for causing to function.

1 映像録画再生システム
10 頭部装着装置
11 センサ類
11−1 GPSユニット
11−2 方位・気圧センサ
11−3 モーションセンサ
12 無指向性&指向性マイク
13 音声信号処理部
14 信号処理部
15 無線通信部
16 制御部
20a、20b カメラ装置
21a、21b 光学系(広角レンズ)
22a、22b 撮像部
23a、23b 画像処理部
24a、24b 圧縮符号化(ファイル化)処理部
25a、25b 記憶部
26a、26b 無線通信部
27a、27b 操作部
28a、28b 制御部
30 再生装置
31 無線通信部
32 画像処理部
33 動画ファイル記憶部
34 再生処理部
35 表示部
36 操作部
37 制御部
38 画像解析部
40 正面半天周画像
41、42 中心
50 背面半天周画像
60 被写体の顔
70 トリミング位置

DESCRIPTION OF SYMBOLS 1 Video recording / reproducing system 10 Head mounting apparatus 11 Sensors 11-1 GPS unit 11-2 Direction / barometric pressure sensor 11-3 Motion sensor 12 Omnidirectional & directional microphone 13 Audio signal processing unit 14 Signal processing unit 15 Wireless communication Unit 16 Control unit 20a, 20b Camera device 21a, 21b Optical system (wide angle lens)
22a, 22b Imaging unit 23a, 23b Image processing unit 24a, 24b Compression encoding (file formation) processing unit 25a, 25b Storage unit 26a, 26b Wireless communication unit 27a, 27b Operation unit 28a, 28b Control unit 30 Playback device 31 Wireless communication Unit 32 Image processing unit 33 Movie file storage unit 34 Playback processing unit 35 Display unit 36 Operation unit 37 Control unit 38 Image analysis unit 40 Front half-sky image 41, 42 Center 50 Back half-sky image 60 Subject face 70 Trimming position

Claims (11)

表示手段と、
所定範囲の映像を記憶する記憶手段と、
所定の再生映像条件に基づいて、前記表示手段の表示範囲に表示させる映像の、前記記憶手段に記憶された映像における位置を設定する設定手段と、
再生開始時に、前記設定手段によって設定された位置の映像を、前記記憶手段に記憶された映像からトリミングして前記表示手段に表示させるよう制御する第1の表示制御手段と、
この第1の表示制御手段による表示中に外部からの操作を検出する検出手段と、
この検出手段によって前記外部からの操作が検出されると、前記第1の表示制御手段により表示制御されている映像を、前記外部からの操作に基づいて前記表示手段に表示させるよう制御する第2の表示制御手段と、
を備えたことを特徴とする映像表示装置。
Display means;
Storage means for storing a predetermined range of video;
Setting means for setting the position in the video stored in the storage means of the video to be displayed in the display range of the display means based on a predetermined reproduction video condition;
First display control means for controlling to display the video at the position set by the setting means from the video stored in the storage means to be displayed on the display means at the start of reproduction;
Detecting means for detecting an operation from the outside during display by the first display control means;
When an operation from the outside is detected by the detection means, a second control is performed to display the image controlled by the first display control means on the display means based on the operation from the outside. Display control means,
A video display device comprising:
前記記憶手段に記憶された映像には、撮影方向を示す情報が付加されており、
前記設定手段は、この撮影方向を示す情報に基づいて、前記表示手段の表示範囲に表示させる映像の、前記映像における位置を設定する、
ことを特徴とする請求項1に記載の映像表示装置。
Information indicating the shooting direction is added to the video stored in the storage means,
The setting means sets the position in the video of the video to be displayed in the display range of the display means based on the information indicating the shooting direction.
The video display device according to claim 1.
前記記憶手段に記憶された映像には、撮影時における撮影機器の移動方向を示す情報が付加されており、
前記設定手段は、この移動方向を示す情報に基づいて、前記表示手段の表示範囲に表示させる映像の、前記映像における位置を設定する、
ことを特徴とする請求項1に記載の映像表示装置。
Information indicating the moving direction of the photographing device at the time of photographing is added to the video stored in the storage means,
The setting means sets the position in the video of the video to be displayed in the display range of the display means based on the information indicating the moving direction.
The video display device according to claim 1.
前記記憶手段に記憶された映像から、所定の条件を満たす被写体を検出する被写体検出手段と、
この被写体検出手段によって検出された被写体の、前記映像における位置を取得する位置取得手段と、
を更に備え、
前記設定手段は、この位置取得手段によって取得された位置に基づいて、前記表示手段の表示範囲に表示させる映像の、前記映像における位置を設定する、
ことを特徴とする請求項1に記載の映像表示装置。
Subject detection means for detecting a subject satisfying a predetermined condition from the video stored in the storage means;
Position acquisition means for acquiring the position of the subject detected by the subject detection means in the video;
Further comprising
The setting means sets the position in the video of the video to be displayed in the display range of the display means based on the position acquired by the position acquisition means.
The video display device according to claim 1.
前記所定の条件を満たす被写体とは、正面方向の顔である、
ことを特徴とする請求項4に記載の映像表示装置。
The subject that satisfies the predetermined condition is a front face.
The video display apparatus according to claim 4.
前記所定の条件を満たす被写体とは、移動物体である、
ことを特徴とする請求項4に記載の映像表示装置。
The subject that satisfies the predetermined condition is a moving object.
The video display apparatus according to claim 4.
前記記憶手段に記憶された映像には、前記映像の撮影時において発生した音声情報の発生方向を示す情報が付加されており、
前記設定手段は、この音声情報の発生方向を示す情報に基づいて、前記表示手段の表示範囲に表示させる映像の、前記映像における位置を設定する、
ことを特徴とする請求項1に記載の映像表示装置。
Information indicating the generation direction of audio information generated at the time of shooting the video is added to the video stored in the storage means,
The setting means sets the position in the video of the video to be displayed in the display range of the display means based on the information indicating the generation direction of the audio information.
The video display device according to claim 1.
前記映像は、動画である、
ことを特徴とする請求項1乃至7のいずれか一項に記載の映像表示装置。
The video is a video.
The video display device according to claim 1, wherein the video display device is a video display device.
前記第1の表示制御手段は、動画における再生開始位置として、前記トリミングした箇所から再生する、
ことを特徴とする請求項1乃至8のいずれか一項に記載の映像表示装置。
The first display control means reproduces from the trimmed portion as a reproduction start position in the moving image.
The video display device according to claim 1, wherein the video display device is a video display device.
所定の映像から表示手段の表示範囲に表示するための映像をトリミングして前記表示手段に表示させる映像表示方法であって、
所定の再生映像条件に基づいて、前記表示手段の表示範囲に表示する映像の、前記所定の映像における位置を設定するステップと、
再生開始時に、前記設定された位置の映像を、前記所定の映像からトリミングして前記表示手段に表示させるよう制御するステップと、
前記表示手段での映像表示中に外部からの操作を検出するステップと、
前記外部からの操作が検出されると、前記表示制御されている映像を、前記外部からの操作に基づいて前記表示手段に表示させるよう制御するステップと、
を含むことを特徴とする映像表示方法。
A video display method for trimming a video for display in a display range of a display unit from a predetermined video and displaying the trimmed video on the display unit,
Setting a position of the video to be displayed in the display range of the display means in the predetermined video based on a predetermined playback video condition;
Controlling to trim the video at the set position from the predetermined video and display it on the display means at the start of playback;
Detecting an external operation during video display on the display means;
When the operation from the outside is detected, controlling the display-controlled video to be displayed on the display unit based on the operation from the outside;
A video display method comprising:
所定の映像から表示部の表示範囲に表示するための映像をトリミングして前記表示部に表示させる映像表示装置のコンピュータを、
所定の再生映像条件に基づいて、前記表示部の表示範囲に表示させる映像の、前記所定の映像における位置を設定する設定手段、
再生開始時に、前記設定手段によって設定された位置の映像を、前記所定の映像からトリミングして前記表示部に表示させるよう制御する第1の表示制御手段、
この第1の表示制御手段による表示中に外部からの操作を検出する検出手段、
この検出手段によって前記外部からの操作が検出されると、前記第1の表示制御手段により表示制御されている映像を、前記外部からの操作に基づいて前記表示部に表示させるよう制御する第2の表示制御手段、
として機能させることを特徴とするプログラム。
A computer of a video display device for trimming a video for display in a display range of a display unit from a predetermined video and displaying the trimmed video on the display unit,
Setting means for setting a position of the video to be displayed in the display range of the display unit in the predetermined video based on a predetermined playback video condition;
First display control means for controlling the trimming of the video at the position set by the setting means from the predetermined video to be displayed on the display unit at the start of reproduction;
Detecting means for detecting an external operation during display by the first display control means;
When an operation from the outside is detected by the detection means, a second control is performed to display on the display section the video that is controlled by the first display control means based on the operation from the outside. Display control means,
A program characterized by functioning as
JP2015186909A 2015-09-24 2015-09-24 Video display device, video display method and program Pending JP2017063276A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015186909A JP2017063276A (en) 2015-09-24 2015-09-24 Video display device, video display method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015186909A JP2017063276A (en) 2015-09-24 2015-09-24 Video display device, video display method and program

Publications (1)

Publication Number Publication Date
JP2017063276A true JP2017063276A (en) 2017-03-30

Family

ID=58429244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015186909A Pending JP2017063276A (en) 2015-09-24 2015-09-24 Video display device, video display method and program

Country Status (1)

Country Link
JP (1) JP2017063276A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020014114A (en) * 2018-07-18 2020-01-23 キヤノン株式会社 Display control device, control method of display control device, program, and storage medium
JP2020150297A (en) * 2019-03-11 2020-09-17 池上通信機株式会社 Remote camera system, control system, video output method, virtual camera work system, and program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005039777A (en) * 2003-06-30 2005-02-10 Casio Comput Co Ltd Photographing apparatus and photographing system
JP2007235910A (en) * 2006-02-01 2007-09-13 Nittetsu Elex Co Ltd Safety act support system
WO2011108043A1 (en) * 2010-03-04 2011-09-09 パナソニック株式会社 Image display device and image display method
JP2012119804A (en) * 2010-11-30 2012-06-21 Canon Inc Image recorder
US20120242783A1 (en) * 2011-03-25 2012-09-27 Samsung Electronicsd Co., Ltd. Method for generating video data and image photographing device thereof
JP2013033321A (en) * 2011-08-01 2013-02-14 Dainippon Printing Co Ltd Animation presentation device
JP2013183249A (en) * 2012-03-01 2013-09-12 Dainippon Printing Co Ltd Moving image display device
JP2013198062A (en) * 2012-03-22 2013-09-30 Ricoh Co Ltd Image processing apparatus, image processing method, and imaging apparatus
JP2014220724A (en) * 2013-05-10 2014-11-20 ソニー株式会社 Display controller, display control method and program
JP2015069445A (en) * 2013-09-30 2015-04-13 大日本印刷株式会社 Video output device, video output method, and program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005039777A (en) * 2003-06-30 2005-02-10 Casio Comput Co Ltd Photographing apparatus and photographing system
JP2007235910A (en) * 2006-02-01 2007-09-13 Nittetsu Elex Co Ltd Safety act support system
WO2011108043A1 (en) * 2010-03-04 2011-09-09 パナソニック株式会社 Image display device and image display method
JP2012119804A (en) * 2010-11-30 2012-06-21 Canon Inc Image recorder
US20120242783A1 (en) * 2011-03-25 2012-09-27 Samsung Electronicsd Co., Ltd. Method for generating video data and image photographing device thereof
JP2013033321A (en) * 2011-08-01 2013-02-14 Dainippon Printing Co Ltd Animation presentation device
JP2013183249A (en) * 2012-03-01 2013-09-12 Dainippon Printing Co Ltd Moving image display device
JP2013198062A (en) * 2012-03-22 2013-09-30 Ricoh Co Ltd Image processing apparatus, image processing method, and imaging apparatus
JP2014220724A (en) * 2013-05-10 2014-11-20 ソニー株式会社 Display controller, display control method and program
JP2015069445A (en) * 2013-09-30 2015-04-13 大日本印刷株式会社 Video output device, video output method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020014114A (en) * 2018-07-18 2020-01-23 キヤノン株式会社 Display control device, control method of display control device, program, and storage medium
JP2020150297A (en) * 2019-03-11 2020-09-17 池上通信機株式会社 Remote camera system, control system, video output method, virtual camera work system, and program
JP7287798B2 (en) 2019-03-11 2023-06-06 池上通信機株式会社 Remote camera system, control system, video output method, virtual camera work system, and program

Similar Documents

Publication Publication Date Title
JP4212109B2 (en) Imaging apparatus and imaging method
JP4869270B2 (en) Imaging apparatus and image reproduction apparatus
US8571378B2 (en) Image capturing apparatus and recording method
US9742995B2 (en) Receiver-controlled panoramic view video share
US9554028B2 (en) Imaging device, imaging system, imaging method, and computer-readable recording medium associating image data with responsibility acceptance or abandonment information
JP5230013B2 (en) Imaging device
JP7086552B2 (en) Information processing equipment, imaging equipment, information processing methods and programs
JP2013162333A (en) Image processing device, image processing method, program, and recording medium
JP2015186020A (en) Display apparatus, photographing apparatus, and display method
JP2007251429A (en) Moving image imaging unit, and zoom adjustment method
US8525913B2 (en) Digital photographing apparatus, method of controlling the same, and computer-readable storage medium
JP4748442B2 (en) Imaging apparatus and program thereof
JP2009164767A (en) Imaging apparatus and its display method
JP2017063276A (en) Video display device, video display method and program
WO2016013309A1 (en) Display control device, image capturing apparatus and display control method
JP6643008B2 (en) Image processing apparatus, control method thereof, control program, and storage medium
JP4857297B2 (en) Video processing device
JP6427859B2 (en) Image processing apparatus, image processing method, and program
JP5962974B2 (en) Imaging apparatus, imaging method, and program
JP2013141090A (en) Imaging apparatus and processing method of the same
CN114175616A (en) Image processing apparatus, image processing method, and program
JP6704301B2 (en) Imaging device and imaging display system
JP2021002803A (en) Image processing apparatus, control method therefor, and program
JP6340785B2 (en) Movie processing apparatus, movie processing method, and program
JP5696525B2 (en) Imaging apparatus, imaging method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191107