JP6359870B2 - Information processing apparatus and moving image data reproducing method - Google Patents

Information processing apparatus and moving image data reproducing method Download PDF

Info

Publication number
JP6359870B2
JP6359870B2 JP2014096014A JP2014096014A JP6359870B2 JP 6359870 B2 JP6359870 B2 JP 6359870B2 JP 2014096014 A JP2014096014 A JP 2014096014A JP 2014096014 A JP2014096014 A JP 2014096014A JP 6359870 B2 JP6359870 B2 JP 6359870B2
Authority
JP
Japan
Prior art keywords
moving image
image data
shooting
thumbnail
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014096014A
Other languages
Japanese (ja)
Other versions
JP2015213284A (en
Inventor
博規 石川
博規 石川
慎太郎 平野
慎太郎 平野
仲林 次郎
次郎 仲林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2014096014A priority Critical patent/JP6359870B2/en
Publication of JP2015213284A publication Critical patent/JP2015213284A/en
Application granted granted Critical
Publication of JP6359870B2 publication Critical patent/JP6359870B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、動画データを表示するための情報処理装置および動画データ再生方法に関する。   The present invention relates to an information processing apparatus and moving image data reproduction method for displaying moving image data.

従来から複数の動画データを相互に同期をとって再生することのできるシステムが知られており、例えば、下記特許文献1には、 複数画面表示を行う映像閲覧装置において、再生開始時に映像とは独立した1つの再生時間軸を設け、取出した各映像に付与されているタイムスタンプの値と再生時間軸を比較することによって同期した映像の再生を実現する、ことの記載がある。   Conventionally, a system capable of reproducing a plurality of moving image data in synchronization with each other is known. For example, in Patent Document 1 below, in a video browsing apparatus that performs multi-screen display, what is a video at the start of playback? There is a description that an independent playback time axis is provided, and synchronized playback of the video is realized by comparing the time stamp value given to each extracted video with the playback time axis.

国際公開第2008−044265号International Publication No. 2008-044265

しかしながら、上述特許文献1の技術においては、撮影対象との位置関係に応じた適切な表示処理を行なうことができないという問題がある。例えば、撮影対象が移動していることを撮影した動画データを再生表示した場合、撮影対象の移動にともなって撮影対象が小さくなるなどの問題がある。そのため、ユーザは、所望の大きさの撮影対象を表示できる動画データを選択したいという要望がある。また、他の動画データとの位置関係について把握したいという要望がある。   However, the technique disclosed in Patent Document 1 has a problem in that an appropriate display process according to the positional relationship with the imaging target cannot be performed. For example, when moving image data obtained by shooting that the shooting target is moving is reproduced and displayed, there is a problem that the shooting target becomes smaller as the shooting target moves. For this reason, there is a demand for the user to select moving image data that can display a photographing target of a desired size. In addition, there is a demand for grasping the positional relationship with other moving image data.

そこで、本発明においては、撮影対象の移動に伴って撮影対象の動画データを適切な形で再生することができる情報処理装置および動画データ再生方法を提供することを目的とする。   Accordingly, an object of the present invention is to provide an information processing apparatus and a moving image data reproduction method capable of reproducing moving image data to be photographed in an appropriate form as the photographing object moves.

上述の課題を解決するために本発明の情報処理装置は、シーンごとの撮影位置および撮影方向を記述した管理データを、複数の動画データに対応付けて記憶する記憶手段と、複数の動画データのうち、再生されている一の動画データの撮影位置と撮影対象との位置関係、および他の動画データの撮影位置と撮影対象との位置関係に基づいて、再生対象を一の動画データから他の動画データに切り替える切替手段と、を備える。   In order to solve the above-described problem, an information processing apparatus of the present invention includes a storage unit that stores management data describing a shooting position and a shooting direction for each scene in association with a plurality of moving image data, and a plurality of moving image data. Based on the positional relationship between the shooting position of one video data being played and the shooting target, and the positional relationship between the shooting position of other video data and the shooting target, the playback target is changed from one video data to another. Switching means for switching to moving image data.

また、本発明の動画データ再生方法は、シーンごとの撮影位置および撮影方向を記述した管理データを、複数の動画データに対応付けて記憶する記憶手段を備える情報処理装置における動画データ再生方法において、複数の動画データのうち、再生されている一の動画データの撮影位置と撮影対象との位置関係、および他の動画データの撮影位と撮影対象との位置関係に基づいて、再生対象を一の動画データから他の動画データに切り替える切替ステップを、を備える。   Further, the moving image data reproducing method of the present invention is a moving image data reproducing method in an information processing apparatus including a storage unit that stores management data describing a shooting position and a shooting direction for each scene in association with a plurality of moving image data. Based on the positional relationship between the shooting position of one video data being played and the shooting target, and the positional relationship between the shooting position of other video data and the shooting target among a plurality of video data, A switching step of switching from the moving image data to another moving image data.

この発明によれば、再生されている一の動画データの撮影位置と撮影対象との位置関係、および他の動画データの撮影位置と撮影対象との位置関係に基づいて、一の動画データから他の動画データに切り替える。これにより、撮影対象までの距離に応じた動画データに切り替えることができ、例えば、撮影対象が近くなる撮影位置からの動画データに切り替えることができ、撮影対象をよりよく撮影した動画データを視聴することができる。   According to the present invention, from one moving image data to another based on the positional relationship between the shooting position of the one moving image data being reproduced and the shooting target, and the positional relationship between the shooting position of the other moving image data and the shooting target. Switch to the video data. Thereby, it is possible to switch to moving image data corresponding to the distance to the shooting target. For example, it is possible to switch to moving image data from a shooting position where the shooting target is close, and to view moving image data that better captures the shooting target. be able to.

また、本発明の情報処理装置は、複数の動画データのうち一の動画データを、端末側で再生可能に送信する送信手段をさらに備え、前記送信手段は、前記切替手段に切り替えられた他の動画データを端末側で再生可能に送信してもよい。   The information processing apparatus according to the present invention further includes a transmission unit that transmits one of the plurality of video data in a reproducible manner on the terminal side, and the transmission unit is another unit that is switched to the switching unit. The video data may be transmitted so as to be reproducible on the terminal side.

また、本発明の情報処理装置において、前記切替手段は、再生されている一の動画データの撮影位置と他の動画データの撮影位置とに基づいた仮想線を生成し、前記仮想線と前記一の動画データの撮影方向とが形成する角度と、前記仮想線と前記他の動画データの撮影方向とが形成する角度とが、前記一の動画データの再生に伴って遷移した場合、前記それぞれの角度が一致した時点で、前記一の動画データから前記他の動画データに切り替える。   In the information processing apparatus of the present invention, the switching unit generates a virtual line based on a shooting position of one moving image data being reproduced and a shooting position of another moving image data, and the virtual line and the one When the angle formed by the shooting direction of the moving image data and the angle formed by the shooting direction of the virtual line and the other moving image data transition with the reproduction of the one moving image data, When the angles match, the one moving image data is switched to the other moving image data.

この発明によれば、再生されている一の動画データの撮影位置と他の動画データの撮影位置とに基づいた仮想線を生成し、仮想線と一の動画データの撮影方向とが形成する角度と、仮想線と他の動画データの撮影方向とが形成する角度と、その再生に伴って遷移した場合、それら角度が一致した時点で、一の動画データから他の動画データに切り替える。これにより、簡単な演算処理によって、撮影位置と撮影対象との距離が同じであることを判断することができ、撮影対象をよりよく撮影した動画データを視聴することができる。   According to this invention, the virtual line based on the shooting position of the one moving image data being reproduced and the shooting position of the other moving image data is generated, and the angle formed by the virtual line and the shooting direction of the one moving image data And the angle formed by the imaginary line and the shooting direction of the other moving image data, and when the transition occurs along with the reproduction, the video data is switched from one moving image data to the other moving image data when the angles match. Accordingly, it is possible to determine that the distance between the shooting position and the shooting target is the same by a simple arithmetic process, and it is possible to view the moving image data in which the shooting target is better shot.

また、本発明の情報処理装置は、前記切替手段による切り替えがなされると、当該切替時における前記一の動画データの再生終了位置に基づいて他の動画データの再生開始位置を決定する決定手段をさらに備え、前記決定手段により決定された再生開始位置から他の動画データの再生が行われる。   The information processing apparatus according to the present invention further includes a determining unit that determines a reproduction start position of another moving image data based on a reproduction end position of the one moving image data at the time of switching when the switching unit performs switching. In addition, other moving image data is reproduced from the reproduction start position determined by the determining means.

この発明によれば、切替時における一の動画データの再生終了位置に基づいて他の動画データの再生開始位置を決定し、決定された再生開始位置から他の動画データの再生が行われる。これにより、撮影時間帯が重複した動画データを再生することがないため、スムーズな動画データの切り替えを行うことができる。   According to the present invention, the reproduction start position of other moving image data is determined based on the reproduction end position of one moving image data at the time of switching, and the reproduction of other moving image data is performed from the determined reproduction start position. As a result, since moving image data having overlapping shooting time zones is not reproduced, moving image data can be switched smoothly.

また、本発明の情報処理装置は、シーンごとの撮影位置を、複数の動画データに対応付けて記憶する記憶手段と、前記記憶手段に記憶されている撮影位置の情報を用いて、再生されている一の動画データにおけるシーンごとの撮影位置と他の動画データにおけるシーンごとの撮影位置との位置関係を演算する演算手段と、前記演算手段により演算されたシーンごとの位置関係に基づいて、前記一の動画データの再生中における前記他の動画データまたは当該他の動画データを示す画像データの表示位置を決定する決定手段と、を備える。   Further, the information processing apparatus of the present invention is reproduced by using storage means for storing shooting positions for each scene in association with a plurality of moving image data, and information on shooting positions stored in the storage means. Calculating means for calculating a positional relationship between a shooting position for each scene in one moving image data and a shooting position for each scene in other moving image data, and based on the positional relationship for each scene calculated by the calculating means, Determining means for determining a display position of the other moving image data or image data indicating the other moving image data during reproduction of the one moving image data.

また、本発明の動画データ再生方法は、シーンごとの撮影位置を、動画データに対応付けて記憶する記憶手段を備える情報処理装置における動画データ再生方法において、再生されている一の動画データにおけるシーンごとの撮影位置と他の動画データにおけるシーンごとの撮影位置との位置関係を演算する演算ステップと、前記演算ステップにより演算されたシーンごとの位置関係に基づいて、前記一の動画データの再生中における前記他の動画データまたは当該他の動画データを示す画像データの表示位置を決定する決定ステップと、を備える。   Also, the moving image data reproducing method of the present invention is a moving image data reproducing method in an information processing apparatus including a storage unit that stores a shooting position for each scene in association with moving image data. A calculation step for calculating a positional relationship between each shooting position and a shooting position for each scene in other moving image data, and reproduction of the one moving image data based on the positional relationship for each scene calculated in the calculation step Determining the display position of the other moving image data or image data indicating the other moving image data.

この発明によれば、再生されている一の動画データにおけるシーンごとの撮影位置と、あらかじめ記憶されている他の動画データにおけるシーンごとの撮影位置との位置関係を演算し、演算されたシーンごとの位置関係に基づいて、一の動画データの再生中における、他の動画データまたはその画像データの表示位置を決定する。これにより、他の動画データの撮影位置と撮影対象との位置関係に基づいた表示位置に他の動画データまたはその画像データを表示することができ、視聴者はその表示位置から、他の動画データの撮影位置と撮影対象との位置関係を把握することができる。   According to the present invention, the positional relationship between the shooting position for each scene in one moving image data being reproduced and the shooting position for each scene in other moving image data stored in advance is calculated, and each calculated scene is calculated. Based on the positional relationship, the display position of the other moving image data or the image data during the reproduction of one moving image data is determined. Thereby, other moving image data or its image data can be displayed at the display position based on the positional relationship between the shooting position of the other moving image data and the shooting target, and the viewer can select the other moving image data from the display position. The positional relationship between the shooting position and the shooting target can be grasped.

また、本発明の情報処理装置は、複数の動画データのうち一の動画データを再生する再生手段と、前記再生手段により再生されている一の動画データとともに他の動画データまたは当該他の動画データを示す画像データを表示する表示手段と、をさらに備え、前記表示手段は、前記決定手段により決定された表示位置に、他の動画データまたは当該他の動画データを示す画像データを表示する。   The information processing apparatus according to the present invention includes a reproducing unit that reproduces one moving image data among a plurality of moving image data, and another moving image data or the other moving image data together with the one moving image data reproduced by the reproducing unit. Display means for displaying image data indicating the image data, and the display means displays other moving image data or image data indicating the other moving image data at the display position determined by the determining means.

また、本発明の情報処理装置は、再生対象となる一の動画データを再生可能に送信するとともに、前記決定手段により決定された他の動画データまたは当該他の動画データを示す画像データの表示位置を端末に送信する送信手段をさらに備え、前記端末には、前記送信手段により送信された一の動画データが再生表示されるとともに、前記送信された表示位置に他の動画データまたは当該他の動画データを示す画像データが表示される。   In addition, the information processing apparatus of the present invention transmits one moving image data to be reproduced so as to be reproducible, and displays the other moving image data determined by the determining unit or the display position of image data indicating the other moving image data Is transmitted to the terminal, and the terminal reproduces and displays one moving image data transmitted by the transmitting unit, and another moving image data or the other moving image is displayed at the transmitted display position. Image data indicating the data is displayed.

また、本発明の情報処理装置において、前記記憶手段は、さらに、シーンごとの撮影方向を合わせて記憶し、前記演算手段は、複数の動画データの撮影位置に基づいて生成された仮想線と前記記憶手段に記憶されているシーンごとの撮影方向とが形成する角度を、シーンごとに演算し、前記決定手段は、前記他の動画データまたは当該他の動画データを示す画像データの表示位置を、前記演算手段により演算された角度に基づいて決定する。   In the information processing apparatus of the present invention, the storage unit further stores the shooting direction for each scene together, and the calculation unit includes the virtual line generated based on the shooting positions of a plurality of moving image data, and the virtual line. An angle formed by the shooting direction for each scene stored in the storage unit is calculated for each scene, and the determination unit determines the display position of the other moving image data or image data indicating the other moving image data, It is determined based on the angle calculated by the calculation means.

この発明によれば、複数の動画データの撮影位置に基づいて生成された仮想線と、あらかじめ記憶されているシーンごとの撮影方向とが形成する角度を、シーンごとに演算し、一の動画データを再生表示する際に、他の動画データまたはその画像データの表示位置を、演算された角度に基づいて決定することで、簡易な演算により撮影位置と撮影対象との位置関係の直感的な把握を可能にすることができる。   According to the present invention, the angle formed by the virtual line generated based on the shooting positions of a plurality of moving image data and the shooting direction for each scene stored in advance is calculated for each scene. When playing and displaying images, the display position of other video data or its image data is determined based on the calculated angle, so that the intuitive relationship between the shooting position and the shooting target can be grasped by simple calculation. Can be made possible.

本発明によれば、撮影対象までの距離に応じた動画データに切り替えることができる。また、視聴者は他の動画データの表示位置から、他の動画データの撮影位置と撮影対象との位置関係を把握することができる。   According to the present invention, it is possible to switch to moving image data corresponding to the distance to the subject to be photographed. In addition, the viewer can grasp the positional relationship between the shooting position of the other moving image data and the shooting target from the display position of the other moving image data.

本実施形態の情報処理装置である携帯端末100を含んだ通信システムのシステム構成を示すシステム図である。1 is a system diagram showing a system configuration of a communication system including a mobile terminal 100 which is an information processing apparatus of the present embodiment. 携帯端末100の機能構成を示すブロック図である。2 is a block diagram showing a functional configuration of a mobile terminal 100. FIG. 携帯端末100のハードウェア構成図である。2 is a hardware configuration diagram of the mobile terminal 100. FIG. 管理データの具体例を示す説明図である。It is explanatory drawing which shows the specific example of management data. 撮影対象と撮影者との位置関係を示す概念図である。It is a conceptual diagram which shows the positional relationship of an imaging | photography object and a photographer. 撮影対象pの初期位置Pに位置したときの撮影方向およびその角度を示す説明図である。It is explanatory drawing which shows the imaging | photography direction and its angle when located in the initial position P of the imaging | photography object p. 撮影対象pが、位置Pから位置P1に移動したときの、各位置A〜Cにおける撮影方向およびその角度を示すも説明図である。It is explanatory drawing which also shows the imaging | photography direction and its angle in each position AC when the imaging | photography object p moves from the position P to the position P1. その後の撮影対象pの移動と、各位置からの撮影方向を示した説明図である。It is explanatory drawing which showed the movement of the imaging | photography target p after that, and the imaging | photography direction from each position. 携帯端末100における動画データの切替処理を示すフローチャートである。5 is a flowchart illustrating moving image data switching processing in the mobile terminal 100. 携帯端末100における再生処理を示すフローチャートである。5 is a flowchart showing a reproduction process in the mobile terminal 100. 第2実施形態における携帯端末100aの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the portable terminal 100a in 2nd Embodiment. 管理データの具体例を示す説明図である。It is explanatory drawing which shows the specific example of management data. 携帯端末100の表示画面構成を示す説明図を示す説明図である。It is explanatory drawing which shows explanatory drawing which shows the display screen structure of the portable terminal. 図14は、表示領域105aの模式図、サムネイルマップおよび各位置および撮影方向の位置関係を示す概念図である。FIG. 14 is a conceptual diagram showing a schematic diagram of the display area 105a, a thumbnail map, and the positional relationship between each position and the shooting direction. 撮影対象pの移動と、その移動に伴って各位置における撮影方向の遷移を示す説明図である。It is explanatory drawing which shows the transition of the imaging | photography direction in each position with the movement of the imaging | photography object p, and the movement. 各位置A〜Fにおける撮影方向を示した説明図および撮影方向管理テーブルの具体例を示す図である。It is explanatory drawing which showed the imaging | photography direction in each position AF, and the figure which shows the specific example of an imaging | photography direction management table. 撮影方向管理テーブルに記述した角度と動画サムネイル領域との対応付けを説明するための説明図である。It is explanatory drawing for demonstrating matching with the angle described in the imaging | photography direction management table, and a moving image thumbnail area. 撮影対象pが移動したときの各位置における撮影方向の説明図および撮影方向管理テーブルの具体例を示す図である。It is explanatory drawing of the imaging | photography direction in each position when the imaging | photography target p moves, and the figure which shows the specific example of an imaging | photography direction management table. 移動後における撮影方向管理テーブルに記述した角度と動画サムネイル領域との対応付けを説明するための説明図である。It is explanatory drawing for demonstrating matching with the angle described in the imaging | photography direction management table after a movement, and a moving image thumbnail area. 更新されたサムネイルマップに基づいた位置にサムネイル画像が表示された表示画面構成を示す説明図である。It is explanatory drawing which shows the display screen structure by which the thumbnail image was displayed on the position based on the updated thumbnail map. サムネイルマップの作成処理を示すフローチャートである。It is a flowchart which shows the creation process of a thumbnail map. 携帯端末100における動画データの再生処理とその表示画面制御の処理を示すフローチャートである。4 is a flowchart showing moving image data reproduction processing and display screen control processing in the mobile terminal 100. 単純分布におけるグルーピング処理を示す説明図である。It is explanatory drawing which shows the grouping process in a simple distribution. 分布パターンに基づいたグルーピング処理を示す説明図である。It is explanatory drawing which shows the grouping process based on a distribution pattern. 方位情報と組み合わせたグルーピング方法を説明する説明図である。It is explanatory drawing explaining the grouping method combined with direction information.

添付図面を参照しながら本発明の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。   Embodiments of the present invention will be described with reference to the accompanying drawings. Where possible, the same parts are denoted by the same reference numerals, and redundant description is omitted.

[第1実施形態]
第1実施形態における通信システムは、携帯端末において表示する動画データを、その撮影対象と撮影位置との関係に応じて自動的に切り換えることができることを特徴とするものである。
[First Embodiment]
The communication system according to the first embodiment is characterized in that the moving image data displayed on the mobile terminal can be automatically switched according to the relationship between the shooting target and the shooting position.

図1は、本実施形態の情報処理装置である携帯端末100を含んだ通信システムのシステム構成を示すシステム図である。図1に示される通り、この通信システムには、携帯端末100のほか、Webサーバ200、DBサーバ300および映像処理サーバ400を含んでいる。そして、この携帯端末100は、Webサーバ200を介して、映像処理サーバ400に記憶されている動画データを閲覧することができる。すなわち、Webサーバ200は、携帯端末100からの要求に応じて、複数の動画データを選択可能にするWeb画面を配信し、携帯端末100においては、そのWeb画面を介して任意の動画データを選択することができる。Webサーバ200は、映像処理サーバ400に対してその選択された動画データの取得要求を行う。映像処理サーバ400は、その取得要求に応じて指定された動画データの配信処理を行なうとともに、Webサーバ200を介して携帯端末100に対して、動画データを配信する。そして、携帯端末100は、配信された動画データを記憶し、ユーザの操作により記憶された動画データを再生して、表示することで、ユーザは動画データであるコンテンツの閲覧を行うことができる。   FIG. 1 is a system diagram showing a system configuration of a communication system including a mobile terminal 100 which is an information processing apparatus of the present embodiment. As shown in FIG. 1, this communication system includes a Web server 200, a DB server 300, and a video processing server 400 in addition to the mobile terminal 100. The mobile terminal 100 can browse the moving image data stored in the video processing server 400 via the Web server 200. That is, the Web server 200 distributes a Web screen that enables selection of a plurality of moving image data in response to a request from the mobile terminal 100, and the mobile terminal 100 selects arbitrary moving image data via the Web screen. can do. The Web server 200 makes an acquisition request for the selected moving image data to the video processing server 400. The video processing server 400 distributes the moving image data specified in response to the acquisition request and distributes the moving image data to the mobile terminal 100 via the Web server 200. And the portable terminal 100 memorize | stores the distributed moving image data, The user can browse the content which is moving image data by reproducing | regenerating and displaying the moving image data memorize | stored by the user's operation.

図2は、携帯端末100の機能構成を示すブロック図である。図2に示される通り、携帯端末100は、記憶部11(記憶手段)、再生部12(切替手段、決定手段、再生手段)、表示部13、および演算処理部14を含んで構成されている。   FIG. 2 is a block diagram illustrating a functional configuration of the mobile terminal 100. As illustrated in FIG. 2, the mobile terminal 100 includes a storage unit 11 (storage unit), a playback unit 12 (switching unit, determination unit, playback unit), a display unit 13, and an arithmetic processing unit 14. .

この携帯端末100は、CPU、ROM、RAM等のハードウェアにより構成されるものである。図3は、携帯端末100のハードウェア構成図である。図2に示される携帯端末100は、物理的には、図3に示すように、一または複数のCPU10a、主記憶装置であるRAM10b及びROM10c、入力デバイスであるキーボード及びマウス等の入力装置10d、ディスプレイ等の出力装置10e、ネットワークカード等のデータ送受信デバイスである通信モジュール10f、ハードディスクまたは半導体メモリ等の補助記憶装置10gなどを含むコンピュータシステムとして構成されている。図2における各機能は、図3に示すCPU10a、RAM10b等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU10aの制御のもとで入力装置10d、出力装置10e、通信モジュール10fを動作させるとともに、RAM10bや補助記憶装置10gにおけるデータの読み出し及び書き込みを行うことで実現される。以下、図2に示す機能ブロックに基づいて、各機能ブロックを説明する。   The portable terminal 100 is configured by hardware such as a CPU, a ROM, and a RAM. FIG. 3 is a hardware configuration diagram of the mobile terminal 100. As shown in FIG. 3, the portable terminal 100 shown in FIG. 2 physically includes one or more CPUs 10a, a main memory RAM 10b and ROM 10c, input devices 10d such as a keyboard and a mouse, The computer system includes an output device 10e such as a display, a communication module 10f that is a data transmission / reception device such as a network card, and an auxiliary storage device 10g such as a hard disk or a semiconductor memory. Each function in FIG. 2 operates the input device 10d, the output device 10e, and the communication module 10f under the control of the CPU 10a by loading predetermined computer software on the hardware such as the CPU 10a and the RAM 10b shown in FIG. In addition, it is realized by reading and writing data in the RAM 10b and the auxiliary storage device 10g. Hereinafter, each functional block will be described based on the functional blocks shown in FIG.

記憶部11は、動画データおよびこの動画データに関する管理データを記憶する部分であり、映像処理サーバ400から配信された動画データおよびその管理データを記憶する。図4は、その管理データの具体例を示す説明図である。図4に示される通り、管理データは、コンテンツID、シーンID、位置、および方位角を対応付けて記述されており、シーンID、位置、および方位角は、シーンごとに複数記述されている。ここで、コンテンツIDは、動画データを一意に特定可能なIDであり、シーンIDは、動画データにおける任意または所定周期毎に定められたフレーム(シーン)を特定するためのIDである。また、位置および方位は、撮影位置および撮影方向を示す。本実施形態においては、シーンごとに撮影位置および撮影方向を対応付けているが、これに限らず、一コマごとに撮影位置および撮影方向を対応付けておいてもよいし、またシーンIDに代えて任意の時間または所定周期ごとに定められたシーンに対応付けたものであってもよい。   The storage unit 11 stores moving image data and management data related to the moving image data, and stores moving image data distributed from the video processing server 400 and its management data. FIG. 4 is an explanatory diagram showing a specific example of the management data. As shown in FIG. 4, the management data is described in association with a content ID, a scene ID, a position, and an azimuth angle, and a plurality of scene IDs, positions, and azimuth angles are described for each scene. Here, the content ID is an ID capable of uniquely specifying the moving image data, and the scene ID is an ID for specifying a frame (scene) determined arbitrarily or at predetermined intervals in the moving image data. The position and orientation indicate the shooting position and shooting direction. In this embodiment, the shooting position and the shooting direction are associated with each scene. However, the present invention is not limited to this, and the shooting position and the shooting direction may be associated with each frame. It may be associated with a scene determined every arbitrary time or every predetermined period.

再生部12は、記憶部11に記憶されている動画データを再生する部分である。再生部12は、演算処理部14による指示に応じて再生対象となる動画データの切り替えを行うことができる。また、再生部12は、切り替えられた動画データが、時間的なつながりを持つように、切替前の動画データの再生終了位置(再生した時間)に基づいて遅延させた切替後の動画データの再生開始位置を決定し、その位置から切替後の動画データを再生する。   The playback unit 12 is a part that plays back the moving image data stored in the storage unit 11. The playback unit 12 can switch moving image data to be played back in response to an instruction from the arithmetic processing unit 14. In addition, the playback unit 12 plays back the video data after switching that is delayed based on the playback end position (playback time) of the video data before switching so that the switched video data has a temporal connection. The start position is determined, and the moving image data after switching is reproduced from that position.

表示部13は、再生部12により再生処理された動画データを表示する部分である。   The display unit 13 is a part that displays moving image data reproduced by the reproduction unit 12.

演算処理部14は、記憶部11に記憶されている管理データに基づいて、各動画データの撮影位置の位置関係を特定するための演算処理を行なう部分である。すなわち、演算処理部14は、各動画データの管理データに記述されている撮影位置および撮影方向に基づいて、撮影対象の位置およびその移動方向を判断して、撮影対象に最も近いと判断される動画データに切り替える。再生部12は、切り替えられた動画データを再生し、表示部13は、再生された動画データを表示する。   The arithmetic processing unit 14 is a part that performs arithmetic processing for specifying the positional relationship of the shooting positions of each moving image data based on the management data stored in the storage unit 11. That is, the arithmetic processing unit 14 determines the position of the shooting target and the moving direction thereof based on the shooting position and shooting direction described in the management data of each moving image data, and is determined to be closest to the shooting target. Switch to video data. The reproduction unit 12 reproduces the switched moving image data, and the display unit 13 displays the reproduced moving image data.

その演算処理部14の具体的処理について図面を用いて説明する。まず、その前提として、撮影位置および撮影方向によりグルーピング処理がなされ、さらにその中から画像認識処理により撮影対象を認識することにより同じ撮影対象物または撮影対象者を含んだグルーピング処理がなされ、各動画データには、同じ撮影対象が含まれているものとする。   Specific processing of the arithmetic processing unit 14 will be described with reference to the drawings. First, as a premise, grouping processing is performed according to the shooting position and shooting direction, and further, grouping processing including the same shooting target or shooting target person is performed by recognizing the shooting target by image recognition processing, and each moving image is processed. It is assumed that the same shooting target is included in the data.

図5は、撮影対象と撮影者との位置関係を示す概念図である。図5においては、撮影対象者は、運動会に参加している子供であり、その運動会の会場である運動場F内を移動方向Sに向けて移動している。一方で、その運動場Fの周囲に沿って、撮影位置A〜Cに位置している撮影者a〜cが撮影対象pである子供を撮影している。なお、各撮影者a〜cは、同じ子供を撮影してもよいし、その子供を含んだ範囲で別の子供を撮影しているものとする。   FIG. 5 is a conceptual diagram showing the positional relationship between the subject to be photographed and the photographer. In FIG. 5, the person to be photographed is a child who participates in an athletic meet, and moves in the moving direction S in the athletic field F that is the venue for the athletic meet. On the other hand, along the periphery of the athletic field F, the photographers a to c positioned at the shooting positions A to C are shooting the child that is the shooting target p. Each of the photographers a to c may photograph the same child or photograph another child within a range including the child.

そして、撮影対象pが移動方向Sに移動するのに合わせて、撮影位置Aに位置する撮影者aは、撮影方向Da1から撮影方向Da2に、その方向を変えている。同様に撮影位置Bに位置する撮影者bは、撮影方向Db1から撮影方向Db2に、その方向を変えている。撮影者cについても同様である。   Then, as the subject p moves in the moving direction S, the photographer a located at the photographing position A changes the direction from the photographing direction Da1 to the photographing direction Da2. Similarly, the photographer b located at the photographing position B changes the direction from the photographing direction Db1 to the photographing direction Db2. The same applies to the photographer c.

撮影者aが撮影位置Aで撮影した動画データには、その動画データの管理データとして、撮影方向Da1と撮影方向Da2とがそのシーンごとに対応付けて記述されている。撮影者bにより撮影された動画データ、撮影者cにより撮影された動画データも同様である。   In the moving image data shot by the photographer a at the shooting position A, the shooting direction Da1 and the shooting direction Da2 are described in association with each scene as management data of the moving image data. The same applies to moving image data photographed by the photographer b and moving image data photographed by the photographer c.

つぎに、図5に示された通り、撮影対象pの移動に応じた各位置における撮影方向およびそのときの位置Aおよび位置Bのそれぞれを頂点とする角度について説明する。図6は、撮影対象pの初期位置Pに位置したときの撮影方向およびその角度を示す説明図である。なお、初期位置Pは、位置A、位置B、撮影方向Da1、および撮影方向Db1に基づいて計算された位置となる。なお、位置Cおよび撮影方向Dc1をさらに用いて計算してもよい。   Next, as shown in FIG. 5, the shooting direction at each position according to the movement of the shooting target p and the angles with the respective positions A and B as vertices will be described. FIG. 6 is an explanatory diagram showing the shooting direction and its angle when it is positioned at the initial position P of the shooting target p. Note that the initial position P is a position calculated based on the position A, the position B, the shooting direction Da1, and the shooting direction Db1. Note that the calculation may be further performed using the position C and the shooting direction Dc1.

図6(a)に示される通り、撮影位置A〜Cにいる撮影者a〜cは、それぞれ撮影対象pの方向(撮影方向Da1、Db1、Dc1)に向いている。そのときの位置Aを頂点とする、位置P、位置A、および位置Bで形成される角度Θa、位置Bを頂点とする、位置P、位置B、および位置Aで形成される角度Θbは、図6(b)の通りに表される。この図6(b)においては、図から明らかなとおり、角度Θa>角度Θbの関係を示しており、この場合、撮影対象pは、位置Aに近いと判断することができる。   As shown in FIG. 6A, the photographers a to c at the shooting positions A to C are directed in the direction of the shooting target p (shooting directions Da1, Db1, and Dc1), respectively. The angle Θa formed at the position P, the position A, and the position B, with the position A as the vertex, and the angle Θb formed at the position P, the position B, and the position A, with the position B as the vertex, This is expressed as shown in FIG. FIG. 6B shows the relationship of angle Θa> angle Θb, as is apparent from the figure. In this case, it can be determined that the imaging target p is close to the position A.

つぎに、撮影対象pが、位置Pから位置P1に移動したときの、各位置A〜Cにおける撮影方向およびその角度について説明する。図7は、その状態を示すも説明図である。なお、位置P1は、上述と同様に、位置Aおよび位置B、並びに撮影方向Da11およびDb11に基づいて計算された位置となる。   Next, the shooting direction and the angle at each of the positions A to C when the shooting target p moves from the position P to the position P1 will be described. FIG. 7 is an explanatory view showing the state. Note that the position P1 is a position calculated based on the positions A and B and the imaging directions Da11 and Db11, as described above.

図7(a)に示される通り、撮影位置A〜Cにいる撮影者a〜cは、それぞれ位置P1にいる撮影対象の方向(撮影方向Da11、Db11、Dc11)に向いている。そのときの位置P1、位置A、および位置Bの順で形成される角度Θa1、位置P1、位置B、および位置Aの順で形成される角度Θb1は、図7(b)の通りに表される。図7(b)に示される通り、ここでは角度Θa1と角度Θb1とは、ほぼ同じ角度をとっている。よって、位置P1、位置Aおよび位置Bを結んで形成される線分で、二等辺三角形が形成されると判断することができ、位置Aからの撮影対象p(位置P1)までの距離と、位置Bから撮影対象p(位置P1)までの距離とが一致していると判断することができる。   As shown in FIG. 7A, the photographers a to c at the shooting positions A to C are directed to the shooting target directions (shooting directions Da11, Db11, and Dc11) at the position P1, respectively. The angle Θa1 formed in the order of the position P1, the position A, and the position B, and the angle Θb1 formed in the order of the position P1, the position B, and the position A are expressed as shown in FIG. 7B. The As shown in FIG. 7B, here, the angle Θa1 and the angle Θb1 are almost the same angle. Therefore, it can be determined that the isosceles triangle is formed by the line segment formed by connecting the position P1, the position A, and the position B, and the distance from the position A to the imaging target p (position P1); It can be determined that the distance from the position B to the imaging target p (position P1) matches.

撮影対象pは、その位置Pから位置P1まで移動しており、図7において、左から右に移動している。そして、角度Θaから角度Θa1に遷移しており、その位置Aを頂点とする角度が小さくなることが分かる。よって、位置Bからの撮影対象pまでの距離は、位置Aから撮影対象pまでの距離より短くなると判断されることから、これら距離が一致した時点で、動画データを切り換えることで、撮影対象pまでの距離が近い動画データを選択することができる。   The imaging target p has moved from the position P to the position P1, and has moved from left to right in FIG. Then, it can be seen that the angle Θa changes to the angle Θa1, and the angle having the position A as the apex becomes small. Therefore, since it is determined that the distance from the position B to the shooting target p is shorter than the distance from the position A to the shooting target p, when these distances match, the moving picture data is switched to switch the shooting target p. Can be selected.

図8は、その後の撮影対象pの移動と、各位置からの撮影方向を示した説明図である。図8(a)に示される通り、撮影対象pは、さらに位置P2に移動している。ここでは、図8(b)に示される通り、位置Bを頂点とする位置P2、位置B、および位置Cで形成される角度Θb2と、位置Cを頂点とする位置P2、位置C、および位置Bで形成される角度Θc1とが同じであると判断される。その場合、位置P2から位置Bまでの距離と、位置P2から位置Cまでの距離とが、一致していると判断され、その動画データは、位置Bからのものから、位置Cからのものに切り替えられる。   FIG. 8 is an explanatory diagram showing the subsequent movement of the imaging target p and the imaging direction from each position. As shown in FIG. 8A, the imaging target p is further moved to the position P2. Here, as shown in FIG. 8B, the angle Θb2 formed by the position P2, the position B, and the position C having the position B as the apex, and the position P2, the position C, and the position having the position C as the apex It is determined that the angle Θc1 formed by B is the same. In that case, it is determined that the distance from the position P2 to the position B is the same as the distance from the position P2 to the position C, and the moving image data is changed from the position B to the position C. Can be switched.

このように、演算処理部14は、各動画データの管理データに基づいて、各動画データの撮影位置および撮影方向から、撮影対象pの位置Pを計算し、さらにその撮影方向に基づいて、撮影対象pの移動方向およびその移動先となる位置P1およびP2等を計算することができる。そして、これら位置P〜P2ならびに位置A〜位置Cに基づいて、各位置から撮影対象pまでの距離を判断することで、どの位置からの動画データが近いかを判断することができ、撮影距離の近い動画データを自動的に選択することができる。   As described above, the arithmetic processing unit 14 calculates the position P of the shooting target p from the shooting position and shooting direction of each moving image data based on the management data of each moving image data, and further, based on the shooting direction, the shooting process is performed. The moving direction of the object p, the positions P1 and P2 that are the movement destinations, and the like can be calculated. Based on these positions P to P2 and positions A to C, the distance from each position to the object to be imaged p can be determined to determine from which position the moving image data is close. Can be selected automatically.

なお、上述図6〜図8においては、角度Θaを算出するにあたって、位置Pを算出するようにしているが、これに限らず、例えば、位置Aおよび位置Bで形成される線分ABと、撮影方向Daにより、角度Θaを算出することもできる。他の角度Θb等についても同様である。   In FIGS. 6 to 8, the position P is calculated when calculating the angle Θa. However, the present invention is not limited to this. For example, the line segment AB formed at the position A and the position B, The angle Θa can also be calculated from the shooting direction Da. The same applies to other angles Θb and the like.

つぎに、このように構成された携帯端末100の処理について説明する。図9は、携帯端末100における動画データの切替処理を示すフローチャートである。ここでは位置Aおよび位置Bに着目した時の処理について説明する。なお、位置A〜位置Cのうちは、撮影対象p(位置P9)に距離が最も近い位置Aおよび位置Bが処理の対象として選択される。   Next, processing of the mobile terminal 100 configured as described above will be described. FIG. 9 is a flowchart showing moving image data switching processing in the mobile terminal 100. Here, processing when focusing on position A and position B will be described. Note that, among the positions A to C, the position A and the position B that are closest to the photographing target p (position P9) are selected as processing targets.

演算処理部14により、記憶部11に記憶されている管理データに基づいて、位置Pに近い2つの位置が特定され、その撮影方向が抽出される。ここでは、まず位置Aおよび位置Bが特定され(S101)、位置Aおよび位置Bにおける撮影方向が抽出される(S102)。   The arithmetic processing unit 14 identifies two positions close to the position P based on the management data stored in the storage unit 11, and extracts the shooting direction. Here, first, a position A and a position B are specified (S101), and shooting directions at the positions A and B are extracted (S102).

そして、演算処理部14により、2つの角度のそれぞれの角度を頂点とする角度が算出され、その差分(一方の角度から他方の角度を減算)であるΔαが算出される。ここでは、位置Aを頂点とする角度Θaおよび位置Bを頂点とする角度Θbが算出され(S103)、その差分であるΔα=角度Θa−角度Θbが算出される(S104)。ここで、最初の撮影位置Δα>=0であるか否かが、演算処理部14により判断される(S105)。   Then, the arithmetic processing unit 14 calculates an angle having each of the two angles as a vertex, and calculates Δα that is a difference (subtract the other angle from one angle). Here, an angle Θa having the position A as the vertex and an angle Θb having the position B as the vertex are calculated (S103), and Δα = angle Θa−angle Θb, which is the difference between them, is calculated (S104). Here, the arithmetic processing unit 14 determines whether or not the first shooting position Δα> = 0 (S105).

Δα>=0であると判断されると、位置Aを撮影位置とする動画データを表示するように判断される(S106)。一方、Δα>=0ではないと判断されると、位置Bを撮影位置とする動画データを表示するように判断される(S107)。なお、上述の手法では、位置Aに基づく角度から、位置Bに基づく角度を減算してΔαを算出しているが、これに限るものではなく、逆であってもよく、いずれの位置で形成した角度が大きいかを判断することができる演算方法であれば上述の方法に限定するものではない。   If it is determined that Δα> = 0, it is determined to display moving image data with the position A as the shooting position (S106). On the other hand, if it is determined that Δα> = 0, it is determined to display moving image data with the position B as the shooting position (S107). In the above-described method, Δα is calculated by subtracting the angle based on the position B from the angle based on the position A. However, the present invention is not limited to this, and may be reversed, and formed at any position. The calculation method is not limited to the above-described method as long as it can determine whether or not the angle is large.

そして、再生継続時においては、再生部12により、再生している動画データが次のシーンに達したと判断されると、その時点における2つの撮影位置の特定処理を行い、表示画像の判断を繰り返し実施する。この繰り返し処理では、シーンIDで割り当てられたシーンごとに行われる。そして、繰り返しの処理の際に、再度位置A〜位置Cのうち、再度距離が近い2つの位置を取り出し、処理対象とする。例えば、位置Bおよび位置Cが取り出されると、位置Bおよび位置Cに基づいて形成された角度に従ってΔαが算出され、そのΔαに基づいて定められた動画データが再生処理される。   When playback is continued, if the playback unit 12 determines that the video data being played has reached the next scene, the process of specifying the two shooting positions at that time is performed to determine the display image. Repeat. This iterative process is performed for each scene assigned by the scene ID. Then, during the repeated processing, two positions that are close to each other again are extracted from positions A to C and set as processing targets. For example, when the position B and the position C are taken out, Δα is calculated according to the angle formed based on the position B and the position C, and the moving image data determined based on the Δα is reproduced.

なお、S105における表示画像判断時に、表示中の画像と同じ画像を表示することと判断された場合は、切り替え処理は実施せずコンテンツの継続表示を実施する。   If it is determined that the same image as the currently displayed image is displayed at the time of determining the display image in S105, the content is continuously displayed without performing the switching process.

図9の処理においては、位置Aおよび位置Bに着目した処理であるが、実際には撮影位置は3以上である場合が想定される。その場合、各位置における撮影方向に基づいて、始点となる位置が決定される。本実施形態の場合、位置A〜位置Cのそれぞれの撮影方向は時計回り(右回り)に遷移しているため、その撮影方向がより左方向に向いているものを終点とする。本実施形態の場合には、位置Cの撮影方向が、他の位置の撮影方向より左方向に向いていると判断することができ、その位置Cとは逆方向の端部にある位置Aを始点と判断することができる。よって、これら撮影位置、及び撮影方向に基づいて、その動画データの再生順序を決定することができる。   In the process of FIG. 9, the process focuses on the position A and the position B, but it is assumed that the shooting position is actually 3 or more. In that case, the position to be the starting point is determined based on the shooting direction at each position. In the case of the present embodiment, since the shooting directions of the positions A to C each change clockwise (clockwise), the end point is the one in which the shooting direction is more leftward. In the case of the present embodiment, it can be determined that the shooting direction of the position C is directed leftward from the shooting direction of other positions, and the position A at the end opposite to the position C is the position A. It can be determined as the starting point. Therefore, the reproduction order of the moving image data can be determined based on these shooting positions and shooting directions.

なお、それ以外の方法として、3点あるうちの隣り合った2点を結んだ直線と、当該2点のそれぞれの位置における撮影方向との角度が90度に最も近い一の位置が位置Aとして選択され、その位置と隣り合うもう一つの位置が位置Bとして選択されるようにしてもよい。   As another method, a position where the angle between the straight line connecting two adjacent points out of the three points and the shooting direction at each of the two points is closest to 90 degrees is defined as position A. Another position adjacent to the selected position may be selected as the position B.

このようにして、撮影対象pの移動に伴って、撮影距離が最も近いとされる撮影位置からの動画データを自動的に選択することができる。   In this way, moving image data from the shooting position where the shooting distance is the closest can be automatically selected with the movement of the shooting target p.

つぎに、携帯端末100の再生処理について説明する。図10は、再生処理を示すフローチャートである。携帯端末100のユーザによる操作により動画データMが選択され(S201)、選択された動画データは再生部12により再生され表示部13に表示される(S202)。 Next, playback processing of the mobile terminal 100 will be described. FIG. 10 is a flowchart showing the reproduction process. The moving image data M n is selected by an operation by the user of the mobile terminal 100 (S201), and the selected moving image data is reproduced by the reproducing unit 12 and displayed on the display unit 13 (S202).

ここで、再生が開始されると、それと並行して(またはその再生前に)、切替前の動画データMと切替後の動画データMn+1の撮影開始時刻が、再生部12により取得される(S203)。そして、再生部12により、撮影開始時刻の差であるoffset値が計算される(S204)。 Here, when the reproduction is started, in parallel with (or before the reproduction), the reproduction unit 12 acquires the shooting start times of the moving image data M n before the switching and the moving image data M n + 1 after the switching. (S203). Then, the reproduction unit 12 calculates an offset value, which is a difference in shooting start time (S204).

そして、演算処理部14から切替指示が受け付けられると(S204)、再生部12により切替前の動画データMの再生時間Tが取得され(S206)、切替後の動画データMn+1の再生開始位置を示すための遅延時間T1が計算される(S207)。 When a switching instruction is received from the arithmetic processing unit 14 (S204), the playback unit 12 acquires the playback time T of the video data M n before switching (S206), and the playback start position of the video data M n + 1 after switching. Is calculated (S207).

そして、この遅延時間T1が計算されると、再生部12により、遅延時間T1の位置から切替後の動画データMn+1が再生される(S208)。 When the delay time T1 is calculated, the playback unit 12 plays back the moving image data M n + 1 after switching from the position of the delay time T1 (S208).

このようにして、切替前の動画データと切替後の動画データとの間で、時間的なつながりを持たせて切替再生を行うことができる。   In this way, it is possible to perform switching reproduction with a temporal connection between the moving image data before switching and the moving image data after switching.

なお、上述した本実施形態において、携帯端末100が、動画データの切り替えを行うこととして記載したが、これに限るものではない。映像処理サーバ400が携帯端末100に対して、一の動画データを当該携帯端末100において再生可能にするために、ストリーミング配信しながら、適宜撮影位置に応じて自動的に動画データを切り替えてストリーミング配信を行うようにしてもよい。   In addition, in this embodiment mentioned above, although the portable terminal 100 described as switching video data, it does not restrict to this. In order for the video processing server 400 to be able to reproduce one video data on the mobile terminal 100 to the mobile terminal 100, the video data is automatically switched according to the shooting position and streamed while streaming. May be performed.

また、携帯端末100において、各動画データの管理データのみを記憶しており、各動画データの撮影位置および撮影方向に基づいて、適宜、動画データの配信要求を映像処理サーバ400に対して行うようにしてもよい。   In addition, the mobile terminal 100 stores only management data of each moving image data, and appropriately requests distribution of moving image data to the video processing server 400 based on the shooting position and shooting direction of each moving image data. It may be.

例えば、携帯端末100は、映像処理サーバ400から切替前の動画データのストリーミング配信を受信しているときに、その位置関係に基づいて他の動画データに切り替える処理を行なう。その際、切替後の動画データを指定するとともに、その再生位置を指定した切替要求を映像処理サーバ400に対して送信する。そして、映像処理サーバ400では、携帯端末100から切替要求を受信すると、他の動画データの切替処理を行なって、他の動画データのストリーミング配信を行う。このような構成によって、携帯端末100において切替制御を行いつつ、映像処理サーバ400においてその制御に従った動画データの配信処理を行なうことができる。   For example, when the mobile terminal 100 receives streaming distribution of moving image data before switching from the video processing server 400, the portable terminal 100 performs processing of switching to other moving image data based on the positional relationship. At that time, the video data after switching is designated, and a switching request designating the reproduction position is transmitted to the video processing server 400. When the video processing server 400 receives a switching request from the portable terminal 100, the video processing server 400 performs switching processing of other moving image data and performs streaming distribution of the other moving image data. With such a configuration, the mobile terminal 100 can perform switching control, and the video processing server 400 can perform moving image data distribution processing according to the control.

つぎに、第1実施形態の通信システムで用いられる携帯端末100の作用効果について説明する。   Next, effects of the mobile terminal 100 used in the communication system according to the first embodiment will be described.

この携帯端末100によれば、記憶部11は、シーンごとの撮影位置および撮影方向を記述した、同一撮影対象が含まれている動画データを複数、記憶している。そして、再生部12は、記憶部11に記憶されている動画データのうち、指定された一の動画データを再生して、表示部13は表示する。   According to the portable terminal 100, the storage unit 11 stores a plurality of pieces of moving image data including the same shooting target describing the shooting position and shooting direction for each scene. Then, the reproduction unit 12 reproduces one specified moving image data among the moving image data stored in the storage unit 11 and displays the display unit 13.

一方、演算処理部14は、再生部12により再生されている一の動画データの撮影位置と撮影対象との位置関係、および他の動画データの撮影位置と撮影対象との位置関係を所定周期ごとに(例えば、シーンごとに)算出し、再生部12はこれら位置関係に基づいて、一の動画データから他の動画データに切り替える処理を行ない、切り換えられた動画データを再生し、表示部13はこれを表示する。これにより、撮影対象が近くなる撮影位置からの動画データに切り替えることができ、撮影対象をよりよく撮影した動画データを視聴することができる。   On the other hand, the arithmetic processing unit 14 determines the positional relationship between the shooting position of one moving image data being played back by the playing unit 12 and the shooting target, and the positional relationship between the shooting position of another moving image data and the shooting target for each predetermined period. (For example, for each scene), the playback unit 12 performs a process of switching from one video data to another video data based on these positional relationships, and plays back the switched video data. The display unit 13 Display this. Thereby, it is possible to switch to moving image data from a shooting position where the shooting target is close, and it is possible to view moving image data obtained by shooting the shooting target better.

また、この携帯端末100によれば、演算処理部14は、再生部12により再生されている一の動画データの撮影位置と他の動画データの撮影位置とに基づいた仮想直線を生成し、仮想直線と一の動画データの撮影方向とが形成する角度と、仮想直線と他の動画データの撮影方向とが形成する角度と前記一の動画データの再生に伴って遷移した場合、それら角度が一致した否かを判断する。そして、一致したと判断する時点で、再生部12は、他の動画データに切り替えて再生処理を行なう。これにより、簡単な演算処理によって、撮影位置と撮影対象との距離が同じであることを判断することができ、撮影対象をよりよく撮影した動画データを視聴することができる。   In addition, according to the mobile terminal 100, the arithmetic processing unit 14 generates a virtual straight line based on the shooting position of one moving image data being played back by the playing unit 12 and the shooting position of other moving image data, The angle formed by the straight line and the shooting direction of one moving image data, the angle formed by the virtual straight line and the shooting direction of the other moving image data, and the angles coincide with each other when the moving image data is reproduced. Determine whether or not. When it is determined that they match, the playback unit 12 switches to other moving image data and performs playback processing. Accordingly, it is possible to determine that the distance between the shooting position and the shooting target is the same by a simple arithmetic process, and it is possible to view the moving image data in which the shooting target is better shot.

また、この携帯端末100によれば、再生部12は、切替時における一の動画データの再生終了位置に基づいて他の動画データの再生開始位置を決定し、決定された他の動画データの再生開始位置から再生を行う。これにより、撮影時間帯が重複した動画データを再生することがないため、スムーズな再生を行うことができる。   Further, according to the portable terminal 100, the playback unit 12 determines the playback start position of other video data based on the playback end position of one video data at the time of switching, and plays back the determined other video data Playback from the start position. Thereby, since the moving image data in which the photographing time zones overlap are not reproduced, smooth reproduction can be performed.

なお、上述作用効果においては、携帯端末100において、記憶手段が動画データおよび管理データを記憶しているものを前提に説明したが、これに限らず、携帯端末100は、管理データのみを記憶しておき、本実施形態に記載の動画データの切替処理の判断を行い、切換指示として例えば映像処理サーバ400に対して動画データの配信を行うようにしてもよい。その際、映像処理サーバ400には、動画データを示すIDを送るとともに、その再生開始位置を臆するようにしてもよい。   In the above-described effects, the description has been made on the assumption that the storage unit stores moving image data and management data in the mobile terminal 100. However, the present invention is not limited to this, and the mobile terminal 100 stores only management data. In addition, the moving image data switching process described in the present embodiment may be determined, and the moving image data may be distributed to, for example, the video processing server 400 as a switching instruction. At this time, an ID indicating moving image data may be sent to the video processing server 400 and the reproduction start position may be given.

また、映像処理サーバ400に上述切り替え機能を備えさせることも考えられる。その場合は、その映像処理サーバ400は、表示部13に代えて、ストリーミング配信を行う送信部(送信手段)を備える。そして映像処理サーバ400は、送信部が演算処理部14により位置関係の判断処理に基づいて再生対象となる動画データを切り換え、その動画データをストリーミング配信する。これにより、携帯端末100に限定することなく、映像処理サーバ400側においても適用することができる。
It is also conceivable that the video processing server 400 is provided with the above switching function. In this case, the video processing server 400 includes a transmission unit (transmission unit) that performs streaming distribution instead of the display unit 13. In the video processing server 400, the transmission unit switches the moving image data to be reproduced based on the positional relationship determination processing by the arithmetic processing unit 14, and the moving image data is streamed. Thus, the present invention can be applied to the video processing server 400 side without being limited to the portable terminal 100.

[第2実施形態]
つぎに、第2実施形態における通信システムについて説明する。第2実施形態における通信システムは、動画データを表示する携帯端末において、撮影対象と撮影位置との位置関係に応じた表示位置に、一の動画データを表示するとともに、他の動画データを示す画像データをその周囲に表示することを特徴とするものである。
[Second Embodiment]
Next, a communication system in the second embodiment will be described. The communication system according to the second embodiment displays one moving image data at a display position corresponding to the positional relationship between a shooting target and a shooting position in a mobile terminal that displays moving image data, and an image showing other moving image data Data is displayed around it.

なお、この第2実施形態においても、図1に示される通信システムと同様のシステム構成をとるものであり、携帯端末100aは、映像処理サーバ400から配信された動画データを受信し、再生表示するものである。また、また、この携帯端末100aは、撮影位置と撮影方向とに基づいてグルーピング処理された動画データ群を取り扱うものであり、そのグルーピングされた複数の動画データに対してその表示位置を適宜適正な位置に配置して表示するものである。   In the second embodiment, the same system configuration as that of the communication system shown in FIG. 1 is adopted, and the mobile terminal 100a receives the video data distributed from the video processing server 400, and reproduces and displays it. Is. In addition, the mobile terminal 100a handles a moving image data group that has been grouped based on the shooting position and the shooting direction, and appropriately sets the display position for the plurality of grouped moving image data. It is arranged and displayed at a position.

図11は、第2実施形態における携帯端末100aの機能構成を示すブロック図である。図11に示される通り、携帯端末100は、受信部101、記憶部102(記憶手段)、再生部103、表示画面制御部104(演算手段、決定手段)、および表示部105(表示手段)を含んで構成されている。この携帯端末100は、CPU、ROM、RAM等からなるハードウェアにより構成されており、例えば、図3に示されるハードウェアにより実現される。以下、図11に示されるブロック図における各構成要件について説明する。   FIG. 11 is a block diagram illustrating a functional configuration of the mobile terminal 100a according to the second embodiment. As shown in FIG. 11, the mobile terminal 100 includes a receiving unit 101, a storage unit 102 (storage unit), a playback unit 103, a display screen control unit 104 (calculation unit, determination unit), and a display unit 105 (display unit). It is configured to include. The portable terminal 100 is configured by hardware including a CPU, a ROM, a RAM, and the like, and is realized by, for example, the hardware illustrated in FIG. Hereinafter, each component in the block diagram shown in FIG. 11 will be described.

受信部101は、映像処理サーバ400から動画データおよびその管理データを受信する部分である。映像処理サーバ400において動画データは、所定条件に従ってグループ分けされており、同じグループの動画データおよび管理データが送信され、受信される。   The receiving unit 101 is a part that receives moving image data and its management data from the video processing server 400. In the video processing server 400, the moving image data is grouped according to a predetermined condition, and moving image data and management data of the same group are transmitted and received.

記憶部102は、受信部101により受信された動画データおよび管理データを記憶する部分である。図12に管理データの具体例を示す。図12に示される通り、管理データは、コンテンツID、シーンID、位置、方位角が対応付けて記述されている。これは、第1実施形態の図4に示される管理データと同じものであり、位置は、撮影位置を示し、方位角は、撮影方向を示すものである。また、位置および方位角はシーンごとに計測され、管理データに記述されている。   The storage unit 102 stores moving image data and management data received by the receiving unit 101. FIG. 12 shows a specific example of management data. As shown in FIG. 12, the management data is described in association with the content ID, scene ID, position, and azimuth. This is the same as the management data shown in FIG. 4 of the first embodiment, where the position indicates the shooting position and the azimuth indicates the shooting direction. The position and azimuth are measured for each scene and described in the management data.

また、この記憶部102は、後述するサムネイルマップや撮影方向管理テーブルを記憶する。   The storage unit 102 stores a thumbnail map and a shooting direction management table, which will be described later.

再生部103は、記憶部102に記憶されている動画データを再生する部分である。携帯端末100のユーザにより、いくつかある動画データの中から一の動画データを選択することにより、再生部103は、当該一の動画データを再生する。   The playback unit 103 is a part that plays back the moving image data stored in the storage unit 102. When the user of the mobile terminal 100 selects one moving image data from among several moving image data, the reproducing unit 103 reproduces the one moving image data.

表示画面制御部104は、再生部103により再生される動画データを表示する際において、その画面構成を制御する部分である。   The display screen control unit 104 is a part that controls the screen configuration when displaying moving image data reproduced by the reproduction unit 103.

図13に、表示画面構成を示す説明図を示す。図13に示される通り、表示部105の表示領域105aには、動画再生領域105bと、動画サムネイル領域105cとが形成されている。動画再生領域105bは、再生部103により再生処理されている動画データを表示する領域である。動画サムネイル領域105cは、再生されている動画データと同じグループに属している他の動画データを示すサムネイル画像を表示する領域である。このサムネイル画像は、動画データの最初のフレーム部分で構成されるものであるが、それ以外のサムネイル画像用に用意された画像データとしてもよい。   FIG. 13 is an explanatory diagram showing a display screen configuration. As shown in FIG. 13, in the display area 105a of the display unit 105, a moving image reproduction area 105b and a moving image thumbnail area 105c are formed. The moving image reproduction area 105 b is an area for displaying moving image data that has been reproduced by the reproducing unit 103. The moving image thumbnail area 105c is an area for displaying thumbnail images indicating other moving image data belonging to the same group as the moving image data being reproduced. This thumbnail image is composed of the first frame portion of the moving image data, but may be image data prepared for other thumbnail images.

この動画サムネイル領域105cは、動画再生領域105bの周囲を囲むように形成されている。そして、この動画サムネイル領域105cには、あらかじめ定めた数のサムネイル画像が表示される。図13においては、動画再生領域105bの1辺につき3つサムネイル画像が表示されるように構成されている。   The moving image thumbnail area 105c is formed so as to surround the moving image reproduction area 105b. A predetermined number of thumbnail images are displayed in the moving image thumbnail area 105c. In FIG. 13, three thumbnail images are displayed per side of the moving image playback area 105b.

そして、この動画サムネイル領域105cには、動画再生領域105bに表示(再生)されている動画データの撮影位置との関係に応じた動画データのサムネイル画像が表示される。例えば、図13の例においては、動画再生領域105bの上側に配置されている動画サムネイル領域105cには、サムネイル画像A〜Cが表示されている。同様に、動画再生領域105bの右側に配置されている動画サムネイル領域105cには、サムネイル画像Fが、下側の動画サムネイル領域105cには、サムネイル画像DおよびEが表示されている。これらサムネイル画像A〜Fの表示位置は、撮影位置との位置関係に応じて定義付されたものである。以下、定義付けに関するその具体的方法について説明する。   In the moving image thumbnail area 105c, a thumbnail image of moving image data corresponding to the relationship with the shooting position of the moving image data displayed (reproduced) in the moving image reproduction area 105b is displayed. For example, in the example of FIG. 13, thumbnail images A to C are displayed in the moving image thumbnail area 105c arranged on the upper side of the moving image reproduction area 105b. Similarly, a thumbnail image F is displayed in the moving image thumbnail area 105c arranged on the right side of the moving image reproduction area 105b, and thumbnail images D and E are displayed in the lower moving image thumbnail area 105c. The display positions of the thumbnail images A to F are defined according to the positional relationship with the shooting position. Hereinafter, a specific method for defining will be described.

図14(a)は、表示領域105aの模式図である。動画再生領域105bの周囲には、動画サムネイル領域105cが形成されており、さらに動画サムネイル領域105cには、単位領域No.1〜12が規定されている。この単位領域No.1〜12には、その撮影位置に応じた動画データのサムネイル画像が表示される。   FIG. 14A is a schematic diagram of the display area 105a. A moving image thumbnail area 105c is formed around the moving image reproduction area 105b, and the moving image thumbnail area 105c includes a unit area No. 1 to 12 are specified. This unit area No. In 1 to 12, thumbnail images of moving image data corresponding to the shooting position are displayed.

図14(b)は、単位領域No.1〜12のいずれに、どの動画データを配置するかを規定するための管理テーブルである。本実施形態ではこの管理テーブルをサムネイルマップと称する。このサムネイルマップは、記憶部102に記憶されているものであり、再生している動画データの経過時間に応じて、適宜管理データを参照して、更新されるものである。具体的には、図14(b)に示される通り、各動画データの撮影位置に応じた単位領域が指定されており、単位領域No.1には、位置Aを撮影位置とする動画データが指定されている。同様に、単位領域No.2には、位置Bを撮影位置とする動画データが指定される。他の単位領域においても同様に動画データが指定されている。   FIG. 14B shows the unit region No. It is a management table for prescribing which moving image data is arranged in any of 1-12. In the present embodiment, this management table is referred to as a thumbnail map. This thumbnail map is stored in the storage unit 102, and is updated with reference to the management data as appropriate according to the elapsed time of the moving image data being reproduced. Specifically, as shown in FIG. 14B, a unit area corresponding to the shooting position of each moving image data is designated. In 1, moving image data having a position A as a photographing position is designated. Similarly, the unit area No. In 2, moving image data having the position B as the shooting position is designated. Similarly, moving image data is designated in other unit areas.

一方で、サムネイルマップには、“−”が記述される場合もある。例えば、単位領域No.5には、“−”が記述されている。これは、対応する撮影位置の動画データが存在しないことを示しており、この単位領域には何も表示されない。   On the other hand, “-” may be described in the thumbnail map. For example, the unit area No. 5 describes “-”. This indicates that there is no moving image data at the corresponding shooting position, and nothing is displayed in this unit area.

図14(c)は、位置A〜Fの位置関係およびその撮影方向を示す。ここでの例は、道路を走っている走者を撮影するために、その道路の両側における撮影者の配置を示している。位置A〜位置Cは、ある程度まとまって、上側の領域に位置している。一方、位置DおよびEは、下側に位置している。また、位置Fは、上側に位置しつつも、他の位置とは少し離れた位置にある。このような位置関係に基づいて、サムネイルマップが生成される。図14(b)に示される通り、上側に位置する位置A〜位置Cは、単位領域No.1〜3にそれぞれ指定される。位置Fは、単位領域No.4に指定される。これは、実際の位置関係に応じた表示位置にサムネイル画像を表示させることにより、動画データの視聴者にとって動画データの撮影位置の直感的な把握を可能にさせるものである。同様の理由により、位置DおよびEは、単位領域No.8および9に指定される。   FIG. 14C shows the positional relationship between the positions A to F and the photographing direction thereof. The example here shows the arrangement of photographers on both sides of the road in order to photograph the runner running on the road. The positions A to C are gathered to some extent and are located in the upper region. On the other hand, the positions D and E are located on the lower side. Further, the position F is located on the upper side, but is slightly away from the other positions. A thumbnail map is generated based on such a positional relationship. As shown in FIG. 14B, the positions A to C located on the upper side are unit area Nos. 1 to 3, respectively. The position F is a unit area No. 4 is specified. This allows a viewer of moving image data to intuitively grasp the shooting position of moving image data by displaying a thumbnail image at a display position corresponding to the actual positional relationship. For the same reason, the positions D and E are unit areas No. 8 and 9 are specified.

つぎに、より具体的なサムネイルマップの更新方法について説明する。図15は、撮影対象pの移動と、その移動に伴って各位置における撮影方向の遷移を示す説明図である。図15(a)に示されるように、撮影対象pは、位置Pに位置している。そのとき、位置A〜Fにおける撮影者は、それぞれ撮影対象pの方向に向いている。   Next, a more specific method for updating the thumbnail map will be described. FIG. 15 is an explanatory diagram illustrating the movement of the photographing target p and the transition of the photographing direction at each position accompanying the movement. As shown in FIG. 15A, the photographing target p is located at the position P. At that time, the photographers at the positions A to F are each directed in the direction of the photographing target p.

そして、図15(b)に示されるように、撮影対象pは、位置P1に移動すると、その移動に伴って各位置A〜Fにおける撮影者は、それぞれ移動後の撮影対象pの方向に変えている。   Then, as shown in FIG. 15B, when the photographing target p moves to the position P1, the photographer at each of the positions A to F changes to the direction of the photographing target p after the movement, respectively. ing.

この図15から明らかなように、例えば、位置Aの撮影方向は、ほぼ下方向から右斜め下方向に遷移している。一方、位置Fの撮影方向は、左斜め下方向からほぼ下方向に遷移している。このような遷移に伴って、動画サムネイル領域に表示すべきサムネイル画像の表示位置も変える必要がある。   As can be seen from FIG. 15, for example, the shooting direction at position A has shifted from substantially downward to diagonally downward to the right. On the other hand, the shooting direction at the position F has shifted from the diagonally lower left direction to the substantially lower direction. With such a transition, it is necessary to change the display position of the thumbnail image to be displayed in the moving image thumbnail area.

以下にそのサムネイルマップの更新処理について説明する。図16(a)は、各位置A〜Fにおける撮影方向を示した説明図である。位置A〜Fを撮影位置とするそれぞれの動画データは、一つのグループにグルーピング処理されて、関連付けられている。ここではさらに上側のグループとして位置A〜C、Fの動画データ、下側のグループとして位置DおよびEの動画データにグルーピングされる。   The thumbnail map update process will be described below. FIG. 16A is an explanatory diagram showing the photographing directions at the positions A to F. FIG. Each moving image data having the shooting positions at positions A to F is grouped into one group and associated. Here, the moving image data at positions A to C and F are further grouped as the upper group, and the moving image data at positions D and E are grouped as the lower group.

そして、それぞれグループにおいて、各位置の撮影方向が撮影方向管理テーブルに記述される。図16(b)は、上側グループの位置A〜位置Fの撮影方向を管理する撮影方向管理テーブルtable1である。図16(c)は、下側グループの位置Dおよび位置Eの撮影方向を管理する撮影方向管理テーブルtable2である。それぞれの撮影方向管理テーブルにおいて撮影位置毎に角度が記述される。また、動画サムネイル領域に表示する並び順が記述される。   In each group, the shooting direction at each position is described in the shooting direction management table. FIG. 16B is a shooting direction management table table1 for managing the shooting directions of the positions A to F of the upper group. FIG. 16C is a shooting direction management table table2 for managing the shooting directions of the position D and the position E of the lower group. An angle is described for each shooting position in each shooting direction management table. Also, the arrangement order to be displayed in the moving image thumbnail area is described.

この角度は、以下の処理により算出される。すなわち、上側グループに属する位置A〜CおよびFの任意の2点またはすべての地点を結びつけることによって仮想線が生成され、その仮想線と各位置における撮影方向とに基づいて、仮想線を基準にした角度が算出される。例えば、図16(a)では、位置Aにおける角度ΘAは、仮想線(CA方向のベクトル)と位置Aからの撮影方向とで形成された角度で表現されるが、これに限るものではなく、仮想線(AC方向のベクトル)と位置Aからの撮影方向とで形成された角度と表現してもよい。   This angle is calculated by the following process. That is, a virtual line is generated by connecting any two or all of the positions A to C and F belonging to the upper group, and based on the virtual line and the shooting direction at each position, the virtual line is used as a reference. The calculated angle is calculated. For example, in FIG. 16A, the angle ΘA at the position A is represented by an angle formed by a virtual line (vector in the CA direction) and the shooting direction from the position A, but is not limited thereto. It may be expressed as an angle formed by a virtual line (AC direction vector) and a shooting direction from the position A.

本実施形態では、位置A〜C、Fにおける角度は、仮想線を基準に下側に形成される角度が算出され、図16(b)に示されるように、位置Aと仮想線(CA方向のベクトル)とが形成する角度は、95度と算出される。   In the present embodiment, as the angles at the positions A to C and F, the angle formed on the lower side with respect to the virtual line is calculated, and as shown in FIG. 16B, the position A and the virtual line (CA direction) Is formed as 95 degrees.

一方で、位置DおよびEにおける角度は、仮想線を基準に上側に形成される角度が算出され、図16(c)に示されるように、位置Dと仮想線が形成する角度は、100度と算出される。   On the other hand, as the angles at the positions D and E, the angle formed on the upper side with respect to the virtual line is calculated, and as shown in FIG. 16C, the angle formed between the position D and the virtual line is 100 degrees. Is calculated.

また、各撮影方向管理テーブルにおける位置A〜Fの並び順は、それぞれの位置情報に基づいて規定されるものであり、ここでは、2つの仮想線を基準にして、左から順にサムネイル画像を並べるように規定している。なお、仮想線のうちいずれを上側とするかはあらかじめ規定しておくものとするが、それに限定されるものではなく、撮影位置の数が多い方を上にするなど、適宜変えるようにしてもよい。   Further, the arrangement order of the positions A to F in each shooting direction management table is defined based on the respective position information. Here, the thumbnail images are arranged in order from the left with reference to two virtual lines. It stipulates that It should be noted that which one of the virtual lines is to be the upper side is defined in advance, but is not limited to this, and may be changed as appropriate, such as raising the one with the larger number of shooting positions. Good.

図17は、撮影方向管理テーブルに記述した角度と動画サムネイル領域との対応付けを説明するための説明図である。図17(a)に示される通り、単位領域No.1〜3が、上側グループの撮影方向管理テーブルtable1に、その撮影方向が90度に近い動画データのサムネイル画像を表示する領域として定義される。なお、その撮影方向の角度は、90度に近いものに限定するものではなく、例えば、45度以上のものなどにしてもよい。   FIG. 17 is an explanatory diagram for explaining the association between the angle described in the shooting direction management table and the moving image thumbnail area. As shown in FIG. 1 to 3 are defined as areas for displaying thumbnail images of moving image data whose shooting direction is close to 90 degrees in the shooting direction management table table1 of the upper group. Note that the angle in the shooting direction is not limited to a value close to 90 degrees, and may be, for example, 45 degrees or more.

本実施形態においては、上側グループの撮影方向管理テーブルtable1に記述されている位置A〜Cを撮影位置とする動画データのサムネイル画像を、単位領域No.1〜3の領域に表示するように定義付けされる(図17(b)参照)。一方、上側グループの撮影方向管理テーブルtable1において、位置Fにおける撮影方向は30度である。そのため、その角度が0度に近い、または所定角度以下(例えば、45度以下)の場合には、その動画再生領域105bの左右に定義されているサムネイル領域に表示させるように、サムネイルマップに定義付けがされる(図17(b)参照)。   In the present embodiment, thumbnail images of moving image data having positions A to C described in the shooting direction management table table1 of the upper group as shooting positions are displayed as unit area numbers. It is defined to display in the areas 1 to 3 (see FIG. 17B). On the other hand, in the shooting direction management table table1 of the upper group, the shooting direction at the position F is 30 degrees. Therefore, when the angle is close to 0 degrees or less than a predetermined angle (for example, 45 degrees or less), the thumbnail map is defined so as to be displayed in the thumbnail areas defined on the left and right sides of the moving image reproduction area 105b. (See FIG. 17B).

なお、動画サムネイル領域105cにおいて、撮影対象との位置関係に応じた位置にサムネイル画像が表示される。例えば、図17においては、下辺の動画サムネイル領域105cには、サムネイル画像として位置Dからのものと、位置Eからのものが、左側に寄せて(単位領域No.9およびNo.8に対応付けて)表示されるように定義付けがされている。右側(単位領域No.7)は、空いている状態である。これは、位置Dおよび位置Eからの撮影位置が、撮影対象のやや後方から撮影されたものと直感的に表すようにしたものである。   In the moving image thumbnail area 105c, a thumbnail image is displayed at a position corresponding to the positional relationship with the shooting target. For example, in FIG. 17, in the moving image thumbnail area 105c on the lower side, thumbnail images from position D and those from position E are moved to the left side (corresponding to unit areas No. 9 and No. 8). Defined) to be displayed. The right side (unit area No. 7) is in a vacant state. In this case, the shooting positions from the position D and the position E are intuitively expressed as those shot from slightly behind the shooting target.

このような処理を行なうために、撮影対象の進行方向を基準に、図16(c)の撮影方向管理テーブルtable2に記述されている角度が所定の角度(例えば90度以下)については、単位領域No。8またはNo.9に定義付けを行うようにする。   In order to perform such processing, with respect to a predetermined angle (for example, 90 degrees or less) described in the shooting direction management table table2 in FIG. No. 8 or No. 9 is defined.

図17の例においては、0度に近いもの(例えば0度以上45度以下)のものは、動画再生領域105bの右側に表示するように定義付け処理を行ない、180度に近いもの(例えば135度以上180度以下)は、動画再生領域105bの左側に表示するように定義付け処理を行なう。例えば、単位領域No.4の位置に、位置Fを撮影位置とする動画データのサムネイル画像が表示されるよう定義付けを行う。   In the example of FIG. 17, the definition process is performed so that the object close to 0 degree (for example, 0 degree to 45 degree or less) is displayed on the right side of the moving image reproduction area 105b, and the object close to 180 degree (for example, 135 The definition processing is performed so that the video is displayed on the left side of the moving image reproduction area 105b. For example, the unit area No. Definition is performed so that a thumbnail image of moving image data having the position F as the shooting position is displayed at the position 4.

同様に、下側グループの撮影方向管理テーブルtable2に記述されている位置DおよびEを撮影位置とする動画データのサムネイル画像は、単位領域No.7〜9に表示するように、定義する。   Similarly, the thumbnail image of the moving image data having the shooting positions at the positions D and E described in the shooting direction management table table2 of the lower group is a unit area number. Define to display in 7-9.

つぎに、撮影対象pが移動すると、各位置A〜Fにおける撮影方向も遷移したときの撮影方向管理テーブルの更新について説明する。   Next, update of the shooting direction management table when the shooting direction at the positions A to F also changes when the shooting target p moves will be described.

図18は、撮影対象pが移動したときの各位置における撮影方向およびそれぞれにおける撮影方向管理テーブルの記述内容を示した図である。   FIG. 18 is a diagram illustrating the shooting direction at each position when the shooting target p moves and the description content of the shooting direction management table at each position.

図18(a)は、撮影対象pの移動後の、位置A〜Fにおける撮影方向を示した説明図である。図18(b)および図18(c)は、その撮影方向に基づいた並び順およびその角度を示す説明図である。   FIG. 18A is an explanatory diagram showing the shooting direction at positions A to F after the movement of the shooting target p. FIG. 18B and FIG. 18C are explanatory diagrams showing the arrangement order and the angles based on the photographing direction.

上述と同様に、上側グループの撮影方向管理テーブルtable1には、位置A〜Fのそれぞれにおいて撮影方向に基づいた角度が記述される。撮影対象pが移動したため、それぞれの角度は、鈍角に(角度が広がる方向に)遷移している。また、同様に、下側グループの撮影方向管理テーブルtable2には、位置DおよびEのそれぞれにおいて撮影方向に基づいた角度が記述される。   Similarly to the above, the angle based on the shooting direction at each of the positions A to F is described in the shooting direction management table table1 of the upper group. Since the object to be photographed p has moved, each angle has transitioned to an obtuse angle (in the direction in which the angle increases). Similarly, the lower group shooting direction management table table2 describes angles based on the shooting direction at the positions D and E, respectively.

なお、図18(a)に示される通り、位置Cは、その位置が大きく移動しており、その角度は、位置Fや位置Eと同じ程度のものとなっている。   As shown in FIG. 18A, the position C has moved greatly, and the angle thereof is about the same as the position F and the position E.

そして、これら上側グループの撮影方向管理テーブルtable1および下側グループの撮影方向管理テーブルtable2に従って、図19(a)に示される単位領域No.1〜12のいずれに定義付けをするかが判断される。図17と同様に、角度に基づいていずれの単位領域に対応付けられるかが定義付けがされている。   Then, according to the shooting direction management table table1 of the upper group and the shooting direction management table table2 of the lower group, the unit area No. shown in FIG. It is determined which of 1 to 12 is to be defined. As in FIG. 17, it is defined which unit region is associated with the angle based on the angle.

なお、図18(a)に示されるように、位置Cは移動しているため、図19(a)および(b)に示される通り、位置Cが単位領域No.2に定義付けされ、位置Fが単位領域No.3に定義付けされる。他の位置の動画データについて同様に角度に基づいた単位領域が定義付けされる。   As shown in FIG. 18A, since the position C has moved, as shown in FIGS. 19A and 19B, the position C has the unit region No. 2 and position F is unit region No. 3 is defined. Similarly, unit areas based on angles are defined for moving image data at other positions.

図20は、図19で示されたとおりに更新されたサムネイルマップに基づいた位置にサムネイル画像が表示された表示画面構成を示す説明図である。図20に示される通り、図19(b)のサムネイルマップに従った位置に、動画サムネイル画像が表示されている。図13に示された表示画面と比較して、動画サムネイル領域105cに表示されるサムネイル画像は、その移動に伴ってその表示位置が変更されている。   FIG. 20 is an explanatory diagram showing a display screen configuration in which thumbnail images are displayed at positions based on the thumbnail map updated as shown in FIG. As shown in FIG. 20, a moving image thumbnail image is displayed at a position according to the thumbnail map of FIG. Compared with the display screen shown in FIG. 13, the display position of the thumbnail image displayed in the moving image thumbnail area 105 c is changed with the movement.

このようにして、表示画面制御部104は、表示画面構成を制御することで、ユーザは、再生動画領域に再生している動画データと他の動画データとの位置関係を把握することができる。   In this way, the display screen control unit 104 controls the display screen configuration, so that the user can grasp the positional relationship between the moving image data reproduced in the reproduction moving image area and other moving image data.

つぎに、このように構成された携帯端末100の処理について説明する。図21は、サムネイルマップの作成処理を示すフローチャートであり、表示画面制御部104による処理を示す。ここでは、映像処理サーバ400から動画データおよびその管理データを取得した携帯端末100の処理として記載しているが、映像処理サーバ400において、サムネイルマップ作成処理を行なうようにしてもよい。   Next, processing of the mobile terminal 100 configured as described above will be described. FIG. 21 is a flowchart showing thumbnail map creation processing, which shows processing by the display screen control unit 104. Here, the processing is described as processing of the mobile terminal 100 that acquired the moving image data and the management data thereof from the video processing server 400, but the video processing server 400 may perform thumbnail map creation processing.

まず、サムネイルマップの作成指示を受け付けると、表示画面制御部104により、記憶部102から同じグループ内の動画データおよび管理データが抽出される(S301)。そして、各動画データの管理データから一のシーンにおける位置および撮影方向が、動画データ毎に抽出される(S302)。   First, upon receiving a thumbnail map creation instruction, the display screen control unit 104 extracts moving image data and management data in the same group from the storage unit 102 (S301). Then, the position and shooting direction in one scene are extracted for each moving image data from the management data of each moving image data (S302).

抽出された一のシーンにおける動画データ毎の位置および撮影方向に基づいて、上側グループ、下側グループに、動画データ(位置および撮影方向)がグルーピング処理される(S303)。そして、上側グループ、下側グループのそれぞれにおいて、各位置における動画データの撮影方向と、各動画データの位置に基づいて生成された仮想線との角度が算出される(S304)。そして、撮影方向管理テーブルに、位置毎に角度が記述され(S305)、その角度に基づいて定められた単位領域に定義付するようにサムネイルマップが作成される(S306)。   Based on the position and shooting direction for each moving image data in the extracted one scene, the moving image data (position and shooting direction) is grouped into the upper group and the lower group (S303). Then, in each of the upper group and the lower group, the angle between the shooting direction of the moving image data at each position and the virtual line generated based on the position of each moving image data is calculated (S304). Then, an angle is described for each position in the photographing direction management table (S305), and a thumbnail map is created so as to be defined in a unit area determined based on the angle (S306).

そして、次のシーンの有無が判断され、次のシーンがある場合には(S307)、対応する動画データ毎の位置および撮影方向が管理データから抽出される(S308)。そして、そのシーンにおける動画データのグルーピングが行われ、サムネイルマップ作成処理が行われる。S307において、次のシーンがないと判断されると、サムネイルマップ作成処理は終了する。   Then, it is determined whether or not there is a next scene. If there is a next scene (S307), the position and shooting direction for each corresponding moving image data are extracted from the management data (S308). Then, the moving image data in the scene is grouped, and a thumbnail map creation process is performed. If it is determined in S307 that there is no next scene, the thumbnail map creation process ends.

このようにサムネイルマップが作成され、動画データを再生する際には、このサムネイルマップに従った表示画面制御が行われる。   In this way, when the thumbnail map is created and the moving image data is reproduced, display screen control according to the thumbnail map is performed.

つぎに、このように作成されたサムネイルマップを利用した表示画面制御について説明する。図22は、携帯端末100における動画データの再生処理とその表示画面制御の処理を示すフローチャートである。   Next, display screen control using the thumbnail map created in this way will be described. FIG. 22 is a flowchart showing the moving image data reproduction processing and display screen control processing in the portable terminal 100.

まず、携帯端末100のユーザ操作により一の動画データが選択され(S401)、再生部103による再生処理が行われる(S402)。そして、作成されたサムネイルマップに応じた位置にサムネイル画像が表示されるように表示画面制御部104により行われる(S403)。   First, one moving image data is selected by a user operation of the mobile terminal 100 (S401), and reproduction processing by the reproduction unit 103 is performed (S402). Then, the display screen control unit 104 performs the display so that the thumbnail image is displayed at a position corresponding to the created thumbnail map (S403).

ここで、シーンの遷移の移り変わりが有り(S404)、シーンが移ると、その次のシーン用のサムネイルマップが読み出され、そのサムネイルマップに応じたサムネイル画像表示処理が行われる(S403)。   Here, there is a transition of scene transition (S404). When a scene transitions, a thumbnail map for the next scene is read, and a thumbnail image display process corresponding to the thumbnail map is performed (S403).

また、途中、そのサムネイル画像の選択などが行われて、動画データの切替指示がなされると(S405)、その動画再生が行われる。そして、これら処理が再生終了まで、シーン遷移あるか否か、動画データの切り替えがあるか否かの割り込みチェックが行われる(S404〜S406)。   In addition, when the thumbnail image is selected in the middle and an instruction to switch the moving image data is given (S405), the moving image is reproduced. Then, until these processes are finished, an interruption check is performed to determine whether or not there is a scene transition and whether or not moving image data is switched (S404 to S406).

なお、第1実施形態と同様に、動画データを切り換える際においては、その動画データの再生が時間的なつながりを持てるように、その再生位置を切替前の動画データの再生時間に応じた再生位置からその切替ごとの動画データを再生するようにすることがよい。その処理のためには、再生部103により、再生に先立って、まずグルーピングされた各動画データの撮影開始時刻が取得され、各動画データ間における撮影開始時刻の差であるoffset値が算出される。   As in the first embodiment, when switching the moving image data, the reproduction position corresponding to the reproduction time of the moving image data before switching is set so that the reproduction of the moving image data has a temporal connection. It is preferable to reproduce the moving image data for each switching. For this processing, the playback unit 103 first acquires the shooting start time of each grouped moving image data prior to playback, and calculates an offset value that is the difference in shooting start time between the moving image data. .

その後、ユーザの操作によりサムネイル画像が選択され、再生部103がそのサムネイル画像に結び付けられている動画データを再生する際、切替前の動画データの再生時間Tから切替後の動画データとの間のoffset値を減算することにより遅延時間T1を算出することができる。その遅延時間T1を用いて、再生部103は、再生開始位置を遅延時間T1でずらした位置から動画データの再生を行うことができる。   Thereafter, when a thumbnail image is selected by the user's operation and the playback unit 103 plays back the moving image data associated with the thumbnail image, the playback time T between the moving image data before switching and the moving image data after switching is between The delay time T1 can be calculated by subtracting the offset value. Using the delay time T1, the reproducing unit 103 can reproduce the moving image data from the position where the reproduction start position is shifted by the delay time T1.

なお、上述の実施形態において、携帯端末100において記憶した動画データおよび管理データを用いてサムネイル画像の表示処理を行なうようにしているが、これに限るものではなく、映像処理サーバ400が、ストリーミング配信するための送信手段を備え、その送信手段がストリーミング配信を行うとともに、その配信対象となる動画データに関連付けられた他の動画データのサムネイル画像を、携帯端末100における表示位置を指定してストリーミング配信を行うようにしてもよい。   In the above-described embodiment, the thumbnail image display processing is performed using the moving image data and management data stored in the mobile terminal 100. However, the present invention is not limited to this, and the video processing server 400 performs streaming distribution. A transmission means for performing streaming distribution, and streaming distribution of thumbnail images of other video data associated with the video data to be distributed by designating a display position on the mobile terminal 100 May be performed.

また、第1実施形態に記載した通り、携帯端末100が管理データのみを記憶しておき、この管理データに基づいて切替判断を行い、映像処理サーバ400に対して切替後の動画データの配信要求を行い、映像処理サーバ400は、要求された動画データを選択して配信するようにしてもよい。   Further, as described in the first embodiment, the mobile terminal 100 stores only management data, makes a switching determination based on the management data, and requests the video processing server 400 to distribute the moving image data after switching. The video processing server 400 may select and distribute the requested moving image data.

つぎに、本実施形態の通信システムにおける携帯端末100の作用効果について説明する。   Next, operational effects of the mobile terminal 100 in the communication system of the present embodiment will be described.

この携帯端末100によれば、再生部103は、記憶部102に記憶されている複数の動画データのうち一の動画データを再生しつつ、表示画面制御部104は、再生されている一の動画データにおけるシーンごとの撮影位置と、あらかじめ記憶されている他の動画データにおけるシーンごとの撮影位置との位置関係を演算する。そして、表示部105は、演算されたシーンごとの位置関係に基づいた表示位置に、他の動画データを示す画像データであるサムネイル画像を表示する。これにより、他の動画データの撮影位置と撮影対象との位置関係を、視聴者はその表示位置から把握することができる。   According to the mobile terminal 100, the playback unit 103 plays back one video data among a plurality of video data stored in the storage unit 102, while the display screen control unit 104 plays back one video The positional relationship between the shooting position for each scene in the data and the shooting position for each scene in other moving image data stored in advance is calculated. Then, the display unit 105 displays a thumbnail image that is image data indicating other moving image data at a display position based on the calculated positional relationship for each scene. Thereby, the viewer can grasp the positional relationship between the shooting position of other moving image data and the shooting target from the display position.

また、この携帯端末100において、表示部105は、一の動画データを中央に再生表示するとともに、他の動画データを示す画像データを一の動画データの再生表示位置の周囲に表示する。これにより、他の動画データの撮影位置と撮影対象との位置関係を、視聴者は直感的に把握することができる。   Further, in the portable terminal 100, the display unit 105 reproduces and displays one moving image data in the center, and displays image data indicating other moving image data around the reproduction display position of the one moving image data. Accordingly, the viewer can intuitively grasp the positional relationship between the shooting position of other moving image data and the shooting target.

また、この携帯端末100によれば、表示画面制御部104は、複数の動画データの撮影位置に基づいて生成された仮想線と、あらかじめ記憶されているシーンごとの撮影方向とが形成する角度を、シーンごとに演算し、表示部105は、一の動画データを再生表示する際に、サムネイル画像の表示位置を、演算された角度に基づいた表示位置に表示することで、簡易な演算により撮影位置と撮影対象との位置関係の直感的な把握を可能にすることができる。   In addition, according to the mobile terminal 100, the display screen control unit 104 determines the angle formed by the virtual line generated based on the shooting positions of the plurality of moving image data and the shooting direction for each scene stored in advance. The calculation is performed for each scene, and the display unit 105 displays the display position of the thumbnail image at the display position based on the calculated angle when reproducing and displaying one moving image data. It is possible to intuitively grasp the positional relationship between the position and the photographing target.

なお、本実施形態ではサムネイル画像を表示するようにしているが、これに限るものではなく、動画データそのものを再生表示するようにしてもよい。
In this embodiment, thumbnail images are displayed. However, the present invention is not limited to this, and the moving image data itself may be reproduced and displayed.

[第3実施形態]
つぎに、グルーピング処理についての実施形態について説明する。上述第1実施形態および第2実施形態における携帯端末100は、あらかじめグルーピング処理された動画データを処理対象として、動画データの切り替え処理や、サムネイル画像の表示処理を行なうことができる。このグルーピング処理は、携帯端末100がそれぞれ動画再生するのに先立って、グルーピング処理を行なってもよいし、これら映像処理サーバ400や携帯端末100とは別に存在するグルーピング処理装置(図示せず)がグルーピング処理を行なって、それぞれ映像処理サーバ400や携帯端末100に、グルーピング処理された動画データ群(複数の動画データおよび管理データ)を提供するようにしてもよい。以下、第1実施形態および第2実施形態に適用できるグルーピング処理について説明する。
[Third Embodiment]
Next, an embodiment of the grouping process will be described. The mobile terminal 100 in the first and second embodiments described above can perform moving image data switching processing and thumbnail image display processing on moving image data that has been grouped in advance. This grouping process may be performed prior to each mobile terminal 100 playing a moving image, or a grouping processing device (not shown) that exists separately from the video processing server 400 and the mobile terminal 100 may be used. A grouping process may be performed to provide a group of moving image data groups (a plurality of moving image data and management data) to the video processing server 400 and the mobile terminal 100, respectively. Hereinafter, a grouping process applicable to the first embodiment and the second embodiment will be described.

図23は、単純分布におけるグルーピング処理を示す説明図である。図23に示される通り、位置Aから位置Dは、それぞれの位置を中心としたグルーピング範囲a〜グルーピング範囲dの中に含まれている。ここで、位置Xは、いずれのグルーピング範囲に含まれていない。この場合、位置A〜位置Dに基づいて仮想線Qを生成し、その仮想線Q上に位置Xがある場合、位置Xを位置A〜位置Dと同じグループとして扱うためにグルーピング処理を行なう。なお、仮想線Qの生成方法は種々あるものであり、位置A〜位置Dのうち端部にある位置(この場合、位置Aと位置D)を結んだものを仮想線Qとしてもよいし、位置A〜位置Dのうち2つの位置を結んで得たいくつからの線を平均化したものを仮想線としてもよい。また、仮想線Qの真上に位置する必要はなく、ある程度の幅を持たせ、その幅内にある位置を同じグループとしてグルーピング処理してもよい。   FIG. 23 is an explanatory diagram showing grouping processing in a simple distribution. As shown in FIG. 23, the position A to the position D are included in the grouping range a to the grouping range d centering on each position. Here, the position X is not included in any grouping range. In this case, a virtual line Q is generated based on the positions A to D, and when there is a position X on the virtual line Q, a grouping process is performed to treat the position X as the same group as the positions A to D. Note that there are various methods for generating the virtual line Q, and a position connecting the positions at the ends of the positions A to D (in this case, the position A and the position D) may be used as the virtual line Q. A virtual line may be obtained by averaging several lines obtained by connecting two positions among the positions A to D. Further, it is not necessary to be positioned directly above the virtual line Q, and a certain amount of width may be given, and the positions within the width may be grouped as the same group.

図24は、分布パターンに基づいたグルーピング処理を示す説明図である。図24に示される位置A〜位置Dは、図23にて示された通り、同じグルーピング範囲に入っているため、同じグループであるものとしてグルーピング処理がなされている。さらに、位置Xについては、位置A〜位置Dに基づいて生成された仮想線Q1に基づいて、同じグループであるものとして判断される。   FIG. 24 is an explanatory diagram illustrating grouping processing based on the distribution pattern. Since the positions A to D shown in FIG. 24 are in the same grouping range as shown in FIG. 23, the grouping process is performed assuming that they are the same group. Further, the position X is determined to be the same group based on the virtual line Q1 generated based on the positions A to D.

しかしながら、位置X1〜位置X4については、仮想線Q1に基づいて同じグループであるとの判断をすることはできない。なお、この場合においても位置X〜位置X4は、相互に同じグルーピング範囲にいると判断できる場合には、これら位置X1〜位置X4は、同じグループとすることができる。   However, the positions X1 to X4 cannot be determined to be the same group based on the virtual line Q1. Even in this case, if it can be determined that the positions X to X4 are in the same grouping range, the positions X1 to X4 can be the same group.

本実施形態においては、関連性処理部は、仮想線Q1と平行して分布するグループを探す。すなわち、まず、分布生成部は、位置A〜位置Dに基づいて、分布パターンである仮想線Q1を生成してもよいし、その分布パターン情報や分布サイズ情報で示される仮想線Q1を分布パターン記憶部から選択してもよい。ここでは、分布形状として、“直線”である仮想線Q1が生成または選択されることになる。一方で、さらに、分布生成部は、位置X1〜位置X4は同じグループであるとしてグルーピング処理を行なっている。ここでも同様にその分布パターンである仮想線Q2が生成または選択される。   In the present embodiment, the association processing unit searches for a group distributed in parallel with the virtual line Q1. That is, first, the distribution generation unit may generate a virtual line Q1 that is a distribution pattern based on the positions A to D, or the virtual line Q1 indicated by the distribution pattern information and distribution size information may be generated as a distribution pattern. You may select from a memory | storage part. Here, the virtual line Q1 which is a “straight line” is generated or selected as the distribution shape. On the other hand, the distribution generation unit performs grouping processing on the assumption that the positions X1 to X4 are the same group. Here again, the virtual line Q2, which is the distribution pattern, is generated or selected.

そして、関連性処理部は、その仮想線Q1と仮想線Q2とが所定距離内にあり、またほぼ平行の状態であると判断できる場合には、仮想線Q2の生成に用いられた位置X1〜位置X4、および位置A〜位置Dを同じグループであるものとしてグルーピング処理を行なう。   When the relevance processing unit can determine that the virtual line Q1 and the virtual line Q2 are within a predetermined distance and are substantially parallel, the positions X1 to X1 used to generate the virtual line Q2 are used. The grouping process is performed assuming that the position X4 and the positions A to D are the same group.

図25は、さらに方位情報と組み合わせたグルーピング方法を説明する説明図である。図24に示された通り、位置A〜位置D、および位置X〜位置X4については、同じグループであるものとしてグルーピング処理がなされている。本例においては、さらにこの中から、撮影方向に基づいて、グルーピング処理を外す処理を行なう。図25においては、位置X3を撮影位置とするコンテンツは、仮想線Q1およびQ2との間を向いておらず、外側を向いている。よって、このような撮影方向を向いているコンテンツについては、同じグループとしてグルーピングすることは適切ではないため、同じグループから外す処理を行なう。すなわち、関連性処理部は、グループ情報記憶部から、位置X3を撮影位置とするコンテンツを除外する処理を行なう。   FIG. 25 is an explanatory diagram for explaining a grouping method combined with orientation information. As shown in FIG. 24, the grouping process is performed on the positions A to D and the positions X to X4 as being in the same group. In this example, a process for removing the grouping process is further performed based on the shooting direction. In FIG. 25, the content with the position X3 as the shooting position does not face between the virtual lines Q1 and Q2, but faces the outside. Therefore, it is not appropriate to group contents facing in such a shooting direction as the same group, and therefore processing for removing from the same group is performed. In other words, the relevance processing unit performs processing for excluding content having the position X3 as the shooting position from the group information storage unit.

このようなグルーピング処理によってグループ分けされた位置を撮影位置とするコンテンツについて、さらに画像認識処理を行なうことにより、同じ撮影対象物または同じ撮影対象者を含んでいる動画データのみを同じグループとして関連付けの処理を行なう。   By performing further image recognition processing on the content having the positions grouped by such grouping processing as shooting positions, only moving image data including the same shooting target or the same shooting target is associated as the same group. Perform processing.

このように、グルーピング処理が行われた動画データに対して、その撮影位置や、撮影方向に基づいて自動的に動画データの切り替えを行なったり、またはサムネイル画像の配置を決めたりすることで、動画の切り替えをスムーズに行ったり、また動画の視聴に際してその位置関係を直感的に判断することができる。   In this way, moving image data that has been subjected to grouping processing is automatically switched based on the shooting position and shooting direction, or the arrangement of thumbnail images is determined. Can be smoothly switched, and the positional relationship can be intuitively determined when viewing a moving image.

11…記憶部、12…再生部、13…表示部、14…演算処理部、100…携帯端末、100a…携帯端末、101…受信部、102…記憶部、103…再生部、104…表示画面制御部、105…表示部、200…Webサーバ、300…DBサーバ、400…映像処理サーバ。
DESCRIPTION OF SYMBOLS 11 ... Memory | storage part, 12 ... Playing part, 13 ... Display part, 14 ... Arithmetic processing part, 100 ... Portable terminal, 100a ... Portable terminal, 101 ... Receiving part, 102 ... Memory | storage part, 103 ... Reproducing part, 104 ... Display screen Control unit, 105 ... display unit, 200 ... Web server, 300 ... DB server, 400 ... video processing server.

Claims (4)

シーンごとの撮影位置を、複数の動画データに対応付けて記憶する記憶手段と、
前記記憶手段に記憶されている撮影位置の情報を用いて、再生されている一の動画データにおけるシーンごとの撮影位置と他の動画データにおけるシーンごとの撮影位置との位置関係を演算する演算手段と、
前記演算手段により演算されたシーンごとの位置関係に基づいて、前記一の動画データの再生中における前記他の動画データまたは当該他の動画データを示すサムネイル画像の表示位置を決定する決定手段と、
複数の動画データのうち一の動画データを再生する再生手段と、
前記再生手段により再生されている一の動画データとともに他の動画データまたは当該他の動画データを示すサムネイル画像を表示する表示手段と、
を備え、
前記決定手段は、他の動画データまたは当該他の動画データを示すサムネイル画像の表示位置を規定するサムネイルマップを作成し、
前記表示手段は、前記決定手段により作成された前記サムネイルマップに応じた位置に、他の動画データまたは当該他の動画データを示すサムネイル画像を表示する、
情報処理装置。
Storage means for storing shooting positions for each scene in association with a plurality of moving image data;
Calculation means for calculating the positional relationship between the shooting position for each scene in the reproduced moving image data and the shooting position for each scene in the other moving image data, using the information of the shooting position stored in the storage means When,
Determining means for determining a display position of the other moving image data or a thumbnail image indicating the other moving image data during reproduction of the one moving image data, based on the positional relationship for each scene calculated by the calculating means;
Playback means for playing back one of the plurality of video data;
Display means for displaying other moving image data or a thumbnail image indicating the other moving image data together with the one moving image data being reproduced by the reproducing means;
With
The determination means creates a thumbnail map that defines the display position of another moving image data or a thumbnail image indicating the other moving image data,
The display means displays other moving image data or a thumbnail image indicating the other moving image data at a position corresponding to the thumbnail map created by the determining means.
Information processing device.
再生対象となる一の動画データを再生可能に送信するとともに、前記決定手段により決定された他の動画データまたは当該他の動画データを示すサムネイル画像の表示位置を端末に送信する送信手段をさらに備え、
前記端末には、前記送信手段により送信された一の動画データが再生表示されるとともに、前記送信された表示位置に他の動画データまたは当該他の動画データを示すサムネイル画像が表示される、
請求項1に記載の情報処理装置。
Transmitting means for reproducibly transmitting one moving image data to be reproduced, and transmitting the moving image data determined by the determining means or a display position of a thumbnail image indicating the other moving image data to the terminal ,
On the terminal, one moving image data transmitted by the transmitting unit is reproduced and displayed, and another moving image data or a thumbnail image indicating the other moving image data is displayed at the transmitted display position.
The information processing apparatus according to claim 1.
前記記憶手段は、
さらに、シーンごとの撮影方向を合わせて記憶し、
前記演算手段は、
複数の動画データの撮影位置に基づいて生成された仮想線と前記記憶手段に記憶されているシーンごとの撮影方向とが形成する角度を、シーンごとに演算し、
前記決定手段は、
前記他の動画データまたは当該他の動画データを示すサムネイル画像の表示位置を、前記演算手段により演算された角度に基づいて決定する、
請求項1または請求項2に記載の情報処理装置。
The storage means
Furthermore, memorize the shooting direction for each scene together,
The computing means is
An angle formed by a virtual line generated based on a shooting position of a plurality of moving image data and a shooting direction for each scene stored in the storage unit is calculated for each scene,
The determining means includes
Determining the display position of the other moving image data or the thumbnail image indicating the other moving image data based on the angle calculated by the calculating means;
The information processing apparatus according to claim 1 or 2 .
シーンごとの撮影位置を、動画データに対応付けて記憶する記憶手段を備える情報処理装置における動画データ再生方法において、
再生されている一の動画データにおけるシーンごとの撮影位置と他の動画データにおけるシーンごとの撮影位置との位置関係を演算する演算ステップと、
前記演算ステップにより演算されたシーンごとの位置関係に基づいて、前記一の動画データの再生中における前記他の動画データまたは当該他の動画データを示すサムネイル画像の表示位置を決定する決定ステップと、
を備え、
複数の動画データのうち一の動画データを再生する再生ステップと、
前記再生ステップにおいて再生されている一の動画データとともに他の動画データまたは当該他の動画データを示すサムネイル画像を表示する表示ステップと、
を備え、
前記決定ステップは、他の動画データまたは当該他の動画データを示すサムネイル画像の表示位置を規定するサムネイルマップを作成し、
前記表示ステップは、前記決定ステップにおいて作成された前記サムネイルマップに応じた位置に、他の動画データまたは当該他の動画データを示すサムネイル画像を表示する、
動画データ再生方法。
In a moving image data reproduction method in an information processing apparatus including a storage unit that stores a shooting position for each scene in association with moving image data,
A calculation step for calculating a positional relationship between a shooting position for each scene in the reproduced video data and a shooting position for each scene in the other video data;
A determination step of determining a display position of the other moving image data or a thumbnail image indicating the other moving image data during reproduction of the one moving image data, based on the positional relationship for each scene calculated in the calculating step;
With
A playback step of playing back one of the plurality of video data;
A display step of displaying another video data or a thumbnail image indicating the other video data together with the one video data being played in the playback step;
With
The determination step creates a thumbnail map that defines the display position of another moving image data or a thumbnail image indicating the other moving image data,
The display step displays other moving image data or a thumbnail image indicating the other moving image data at a position corresponding to the thumbnail map created in the determining step.
Video data playback method.
JP2014096014A 2014-05-07 2014-05-07 Information processing apparatus and moving image data reproducing method Active JP6359870B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014096014A JP6359870B2 (en) 2014-05-07 2014-05-07 Information processing apparatus and moving image data reproducing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014096014A JP6359870B2 (en) 2014-05-07 2014-05-07 Information processing apparatus and moving image data reproducing method

Publications (2)

Publication Number Publication Date
JP2015213284A JP2015213284A (en) 2015-11-26
JP6359870B2 true JP6359870B2 (en) 2018-07-18

Family

ID=54697320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014096014A Active JP6359870B2 (en) 2014-05-07 2014-05-07 Information processing apparatus and moving image data reproducing method

Country Status (1)

Country Link
JP (1) JP6359870B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274257A (en) * 2002-03-13 2003-09-26 Matsushita Electric Ind Co Ltd Automatic dynamic-image filming system, automatic dynamic-image filming method, and automatic dynamic- image camera
JP5192442B2 (en) * 2009-05-21 2013-05-08 日本電信電話株式会社 VIDEO GENERATION DEVICE, VIDEO GENERATION METHOD, VIDEO GENERATION PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE PROGRAM
JP6267961B2 (en) * 2012-08-10 2018-01-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image providing method and transmitting apparatus

Also Published As

Publication number Publication date
JP2015213284A (en) 2015-11-26

Similar Documents

Publication Publication Date Title
US9781356B1 (en) Panoramic video viewer
CN105745938B (en) Multi-angle of view audio and video interactive playback
JP6277329B2 (en) 3D advertisement space determination system, user terminal, and 3D advertisement space determination computer
CN109698949B (en) Video processing method, device and system based on virtual reality scene
US20170150212A1 (en) Method and electronic device for adjusting video
WO2017133147A1 (en) Live-action map generation method, pushing method and device for same
JP2020024619A (en) Information processing apparatus, information processing method, and program
CN113259770B (en) Video playing method, device, electronic equipment, medium and product
JP2020042407A (en) Information processor and information processing method and program
WO2020093862A1 (en) Method for processing vr video, and related apparatus
KR20230152589A (en) Image processing system, image processing method, and storage medium
US20150143421A1 (en) Method, server, client and software
US9491447B2 (en) System for providing complex-dimensional content service using complex 2D-3D content file, method for providing said service, and complex-dimensional content file therefor
JP6149967B1 (en) Video distribution server, video output device, video distribution system, and video distribution method
US11040278B2 (en) Server device distributing video data and replay data and storage medium used in same
KR102161437B1 (en) Apparatus for sharing contents using spatial map of augmented reality and method thereof
KR102201659B1 (en) Video display modification for video environments
JP2023057124A (en) Image processing apparatus, method, and program
JP6359870B2 (en) Information processing apparatus and moving image data reproducing method
JP5818326B2 (en) Video viewing history analysis method, video viewing history analysis apparatus, and video viewing history analysis program
CN116506563A (en) Virtual scene rendering method and device, electronic equipment and storage medium
JP2015070418A (en) Information processing device and program
JP6623905B2 (en) Server device, information processing method and program
US20190130651A1 (en) Generating virtual reality and augmented reality content for a live event
JP5821919B2 (en) Information processing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180621

R150 Certificate of patent or registration of utility model

Ref document number: 6359870

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250