JP2010074437A - Method, device and program for adding annotation, and computer readable recording medium - Google Patents

Method, device and program for adding annotation, and computer readable recording medium Download PDF

Info

Publication number
JP2010074437A
JP2010074437A JP2008238656A JP2008238656A JP2010074437A JP 2010074437 A JP2010074437 A JP 2010074437A JP 2008238656 A JP2008238656 A JP 2008238656A JP 2008238656 A JP2008238656 A JP 2008238656A JP 2010074437 A JP2010074437 A JP 2010074437A
Authority
JP
Japan
Prior art keywords
shooting
video
annotation
location
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008238656A
Other languages
Japanese (ja)
Inventor
Shozo Azuma
正造 東
Satoshi Shimada
聡 嶌田
Yukinobu Taniguchi
行信 谷口
Michihiko Mino
導彦 美濃
Tatsuya Kawahara
達也 河原
Takashi Kakusho
考 角所
Masayuki Murakami
正行 村上
Tetsuro Shoji
哲朗 正司
Nobufumi Marutani
宜史 丸谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Kyoto University NUC
Original Assignee
Nippon Telegraph and Telephone Corp
Kyoto University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Kyoto University NUC filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008238656A priority Critical patent/JP2010074437A/en
Publication of JP2010074437A publication Critical patent/JP2010074437A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform display for easily selecting a video image photographing a scene, addition of annotation to the scene being desired. <P>SOLUTION: When a user of a terminal who views a photographing target adds the annotation to a plurality of video images, a photographing instrument icon is displayed to suit a user coordinate system so as to obtain a layout so that a positional relationship of a center of gravity in the photographing target to be photographed by a plurality of photographing instruments viewed from the user who carries out the annotation is analogous to a layout of icons displayed in the user's terminal to indicate the plurality of photographing instruments. When this takes place, the annotation date and time are converted into a video image time (an integration time when a video image start point is 0) to register annotation information, a video image section is defined to the photographed video image, a digest video image is produced handling the video image section including the annotation as a target, and the annotation information is synchronously displayed. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、アノテーション付与方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体に係り、特に、複数撮影対象を同期的に撮影している場合に、ライブで映像対象を簡易に指定し、対象映像にアノテーションを付与するライブアノテーション付与を行い、そのアノテーション結果によって、重要箇所を即覧するためのダイジェストを構成するためのアノテーション付与方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体に関する。   The present invention relates to an annotation assigning method and apparatus, a program, and a computer-readable recording medium. In particular, when a plurality of shooting targets are shot synchronously, a video target can be easily specified in a live manner, and the target video is set. The present invention relates to an annotation assigning method and apparatus, a program, and a computer-readable recording medium for constructing a digest for instantly viewing an important part based on an annotation result by assigning an annotation.

従来は、撮影後に映像時間、映像時間区間に対して、アノテーションする方法がある(例えば、特許文献1参照)。撮影後の映像に対して、アノテーションする方法は、撮影会場にいないユーザと撮影会場にいたユーザの双方がアノテーションに参加可能であり、非同期のコミュニケーションとして有効である。一方、撮影会場に参加しているユーザが臨場感を感じながら、即時にライブでアノテーションする方法がある(例えば、非特許文献1参照)。撮影会場において、ユーザが撮影会場で感じていたこと、重要と感じた箇所等を即時アノテーションすることで、ユーザは忘却することなく、その場の感性でアノテーションを残すことができること、また、他のユーザとアノテーション付与する時間帯を共有しているため、付与したアノテーションが閲覧されやすく、また閲覧したアノテーションに対するレスポンスも期待されやすいことから、撮影後にアノテーションする場合よりアノテーションされる確率が高くなることが考えられる。また、後から閲覧した場合でも、記載ユーザはその場の雰囲気を再認することができ、その他のユーザもその場で感じた意見、参考情報を閲覧することは有意義である。   Conventionally, there is a method for annotating video time and video time interval after shooting (see, for example, Patent Document 1). The method of annotating a video after shooting allows both a user who is not in the shooting hall and a user who is in the shooting hall to participate in the annotation, and is effective as asynchronous communication. On the other hand, there is a method in which users participating in a shooting venue annotate lively while feeling a sense of reality (see, for example, Non-Patent Document 1). By immediately annotating what the user felt at the shooting venue and the important points at the shooting venue, the user can leave the annotation with the sensitivity of the place without forgetting, Since the annotation annotation time period is shared with the user, the added annotation is easy to browse and the response to the browsed annotation is likely to be expected. Conceivable. In addition, even when viewed later, the described user can recognize the atmosphere of the spot, and it is meaningful for other users to browse the opinions and reference information felt on the spot.

また、複数の映像に対してアノテーションを行う際には、複数の映像からアノテーションを行う映像を選択する処理が必要となる。この処理を支援する方法として、通常アノテーション対象となる映像には変化があるとの仮定のもと、映像に対して動体検知を行い、動物体が複数のカメラの撮影範囲を跨って動く場合に、地図画面上にてカメラアイコンを動物体の動いた経路を示す矢印で連結して表示することで,アノテーション対象を撮影しているカメラの選択を支援している(例えば、特許文献2参照)。
特開2003−283981号公報 特開2006−67139号公報 宮田仁(2002)携帯電話対応コメントカードシステムを活用した多人数講義における授業コミュニケーションの改善、教育情報研究、18巻3号、pp. 11-19.
Further, when annotating a plurality of videos, it is necessary to select a video to be annotated from the plurality of videos. As a method to support this processing, when the moving object is detected on the video under the assumption that there is a change in the video that is normally annotated, and the moving object moves across the shooting range of multiple cameras In addition, the camera icon on the map screen is connected and displayed with an arrow indicating the path of movement of the moving object, thereby supporting the selection of the camera that captures the annotation target (see, for example, Patent Document 2). .
JP 2003-283981 A JP 2006-67139 A Hitoshi Miyata (2002) Improvement of class communication in multi-person lectures using mobile phone compatible comment card system, Educational Information Research, Vol. 18, No. 3, pp. 11-19.

しかしながら、上記従来の特許文献1の手法は、複数映像対象にアノテーションを付与する場合では、撮影後にアノテーションを行うこととなるため、撮影会場にいるユーザが撮影中に感じていた点を忘却すること、またアノテーションする時間が撮影時とは別に必要となること、他のユーザとアノテーションするタイミングが同期しないことが原因でアノテーションが十分に行われないことが問題となる。   However, in the conventional method of Patent Document 1, in the case where annotation is given to a plurality of video objects, the annotation is performed after shooting, so the user at the shooting venue forgets what he / she felt during shooting. In addition, the time for annotating is required separately from the time of shooting, and the annotation is not performed sufficiently because the timing of annotating with other users is not synchronized.

また、上記の非特許文献1の手法のように、アノテーションを講義中に行うことができるとしても、アノテーションがどの対象、どの撮影映像に対して行われたかがわからない場合、アノテーションを閲覧する場合にアノテーション内容が充分に理解されない、あるいは、間違って解釈されることが問題となる。   In addition, even if annotation can be performed during a lecture as in the method of Non-Patent Document 1 above, if it is not known which target and which captured video the annotation was performed, The problem is that the content is not fully understood or misinterpreted.

また、講義映像と違い、サッカーや野球などのフィールドスポーツなどでは、撮影対象となりうるバリエーションが多く、状況によっては撮影映像数も増えるため、役割が異なる場合が多く、付与されたアノテーション内容からアノテーション対象を理解することはより難しくなる。さらに、アノテーション対象映像の指定を行う場合、アノテーション対象映像を選択するタイミングではまだアノテーション対象映像は視聴できない状態であるため、複数映像のどの映像を対象として指定するかを間違わずに指定することを支援することも課題となる。   Also, unlike lecture videos, field sports such as soccer and baseball have many variations that can be taken, and the number of shots increases depending on the situation. Is more difficult to understand. In addition, when specifying the annotation target video, the annotation target video is not yet viewable at the timing of selecting the annotation target video, so it is necessary to specify without mistake the video to be specified as a target. Support is also an issue.

また、撮影中にアノテーションを行う時に、少し前にアノテーションした場面と関連して付与する場合では、前のアノテーション付与の状況を確認したいがそういった方法をライブでのアノテーションあるいは短い時間で参考となる情報に目を通したいということが考えられる。短時間で理解し易くするには、自分が注目した撮影対象を中心にダイジェスト映像化されると、これまでの注目した流れを追えるためよい。一方、短時間で参考となる情報に目を通したい場合は、視聴ユーザの多くが注目した撮影対象を中心にダイジェスト映像化された方がよいと考えられる。   Also, when annotating during shooting, if you want to add it in relation to the scene that was annotated a while ago, you want to check the status of the previous annotation assignment, but such a method can be used for live annotation or information that will be helpful in a short time You may want to read through. In order to make it easy to understand in a short time, it is good to follow the flow that has been noticed so far when the digest video is focused on the subject that has been noticed. On the other hand, when it is desired to read information that is useful for a short time, it is considered better to display a digest video centered on a subject to be photographed that is viewed by many viewing users.

本発明は、上記の点に鑑みなされたもので、複数の撮影映像に対して、ライブでアノテーションを行う際に、アノテーションを行いたい場面を撮影している映像選択を容易に選択するための表示が可能なアノテーション付与方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体を提供することを目的とする。   The present invention has been made in view of the above points. When annotating a plurality of captured images in a live manner, a display for easily selecting a selection of images capturing a scene to be annotated. An object of the present invention is to provide an annotation assigning method and apparatus, a program, and a computer-readable recording medium.

図1は、本発明の原理を説明するための図である。   FIG. 1 is a diagram for explaining the principle of the present invention.

本発明(請求項1)は、複数の撮影対象の映像に対して、映像撮影中にライブでアノテーションを付与するサーバにおけるアノテーション付与方法であって、
ユーザ端末から撮影場所ID、撮影機器IDに対応する撮影対象絶対座標、視点IDに対応する視点基準点、撮影対象範囲絶対座標、撮影対象代表画像、撮影場所を含む場所撮影環境管理情報を取得して場所撮影環境管理情報記憶手段に格納する場所撮影環境管理情報取得ステップ(ステップ1)と、
場所撮影環境情報記憶手段を参照して、撮影場所IDに対応する場所に設置された撮影機器の撮影機器IDと、各撮影機器で撮影される撮影対象の重心である撮影対象代表座標からなる撮影対象絶対座標値と、視点基準点を取得する参照ステップ(ステップ2)と、
撮影場所IDに対応する各撮影機器の撮影対象代表座標と、視点基準点で示された変換パラメータを用いて、該撮影機器に対する撮影対象代表座標を、ユーザから見た場合の各撮影機器が撮影している撮影対象の配置であるユーザ座標系に座標変換し、該撮影対象絶対座標を場所撮影環境管理情報記憶手段に出力する座標変換ステップ(ステップ3)と、
を行う。
The present invention (Claim 1) is a method for providing an annotation in a server that annotates a plurality of shooting target videos live during video shooting,
The shooting location ID, the shooting target absolute coordinate corresponding to the shooting device ID, the viewpoint reference point corresponding to the viewpoint ID, the shooting target range absolute coordinate, the shooting target representative image, and the shooting location management information including the shooting location are acquired from the user terminal. A location imaging environment management information acquisition step (step 1) stored in the location imaging environment management information storage means;
Referring to the location shooting environment information storage means, a shooting including a shooting device ID of a shooting device installed at a location corresponding to the shooting location ID and a shooting target representative coordinate that is a center of gravity of the shooting target shot by each shooting device. A reference step (step 2) for acquiring the target absolute coordinate value and the viewpoint reference point;
Using the imaging target representative coordinates of each imaging device corresponding to the imaging location ID and the conversion parameter indicated by the viewpoint reference point, each imaging device when the imaging target representative coordinates for the imaging device is viewed by the user is captured. A coordinate conversion step (step 3) for converting the coordinates to the user coordinate system that is the arrangement of the shooting target being performed and outputting the absolute coordinates of the shooting target to the location shooting environment management information storage means;
I do.

また、本発明(請求項2)は、撮影対象の方を向いているユーザが、撮影対象を撮影した映像を表示するユーザ端末の複数の映像に対してライブでアノテーションを付与する際に、
ユーザ端末から指定された撮影場所ID,視点IDに基づいて、場所撮影環境管理情報記憶手段から撮影対象絶対座標を取得し、該撮影対象絶対座標に基づいて、ユーザが使用するユーザ端末の端末キーと撮影機器で撮影している撮影映像を対応付けてユーザ・端末毎映像端末キー対応情報記憶手段に保持する映像端末キー対応付けステップと、
ユーザ端末から撮影開始要求を受け付けると、現在日時を撮影開始日時として保持し、撮影機器が録画を開始していなければ、録画開始と撮影開始映像時間オフセットを0にセットし、該撮影機器が常時撮影している場合、現在の映像時間を撮影開始時間オフセットにセットし、撮影ID、撮影機器IDと共に映像管理情報記憶手段に格納する映像開始点保持ステップと、
ユーザ端末からアノテーション付与要求を取得すると、映像管理情報記憶手段から対象となる撮影機器IDの撮影開始日時、撮影開始映像時間オフセットを取得して、アノテーション付与映像時間を算出するアノテーション時間変換ステップと、
アノテーション付与映像時間とユーザ端末から取得したアノテーション情報をアノテーション情報記憶手段に登録するアノテーション情報登録ステップと、
撮影済みの映像に対して指定特徴量を用いて映像区間を定義して、アノテーションを含む映像区間を対象にダイジェスト映像を生成し、アノテーション情報記憶手段から映像日時及びアノテーション情報を取得して、該ダイジェスト映像と同期表示するアノテーション付きダイジェスト映像再生ステップと、を更に行う。
Further, according to the present invention (Claim 2), when a user facing a shooting target adds a live annotation to a plurality of videos of a user terminal that displays a video shot of the shooting target,
Based on the shooting location ID and viewpoint ID specified from the user terminal, the shooting target absolute coordinates are acquired from the location shooting environment management information storage means, and the terminal key of the user terminal used by the user based on the shooting target absolute coordinates Video terminal key associating step for associating the video captured by the photographing device with the video terminal key corresponding information storage means for each user / terminal,
When a shooting start request is received from the user terminal, the current date and time is held as the shooting start date and time. If the shooting device has not started recording, the recording start and shooting start video time offsets are set to 0, and the shooting device always When shooting, a video start point holding step for setting the current video time to a shooting start time offset and storing it in the video management information storage means together with the shooting ID and the shooting device ID;
An annotation time conversion step of obtaining an annotation giving video time by obtaining a shooting start date and time and a shooting start video time offset of the target photographing device ID from the video management information storage unit when acquiring the annotation giving request from the user terminal;
Annotation information registration step of registering the annotation giving video time and the annotation information acquired from the user terminal in the annotation information storage means;
Define the video section using the specified feature value for the captured video, generate a digest video for the video section including the annotation, acquire the video date and time and annotation information from the annotation information storage means, An annotated digest video reproduction step for synchronous display with the digest video is further performed.

図2は、本発明の原理構成図である。   FIG. 2 is a principle configuration diagram of the present invention.

本発明(請求項3)は、複数の撮影対象の映像に対して、映像撮影中にライブでアノテーションを付与するサーバにおけるアノテーション付与装置であって、
ユーザ端末から撮影場所ID、撮影機器IDに対応する撮影対象絶対座標、視点IDに対応する視点基準点、撮影対象範囲絶対座標、撮影対象代表画像、撮影場所を含む場所撮影環境管理情報を取得して場所撮影環境管理情報記憶手段130に格納する場所撮影環境管理情報取得手段121と、
場所撮影環境管理情報記憶手段130を参照して、撮影場所IDに対応する場所に設置された撮影機器の撮影機器IDと、各撮影機器で撮影される撮影対象の重心である撮影対象代表座標からなる撮影対象絶対座標値と、視点基準点を取得する参照手段122と、
撮影場所IDに対応する各撮影機器の撮影対象代表座標と、視点基準点で示された変換パラメータを用いて、該撮影機器に対する撮影対象代表座標を、ユーザから見た場合の各撮影機器が撮影している撮影対象の配置であるユーザ座標系に座標変換し、該撮影対象絶対座標を場所撮影環境管理情報記憶手段130に格納力する座標変換手段123と、を有する。
The present invention (Claim 3) is an annotation applying apparatus in a server for providing an annotation on a plurality of video images to be shot live during video shooting,
The shooting location ID, the shooting target absolute coordinate corresponding to the shooting device ID, the viewpoint reference point corresponding to the viewpoint ID, the shooting target range absolute coordinate, the shooting target representative image, and the shooting location management information including the shooting location are acquired from the user terminal. A location imaging environment management information acquisition unit 121 stored in the location imaging environment management information storage unit 130;
With reference to the location shooting environment management information storage unit 130, from the shooting device ID of the shooting device installed at the location corresponding to the shooting location ID and the shooting target representative coordinates that are the center of gravity of the shooting target shot by each shooting device. An imaging target absolute coordinate value and a reference means 122 for acquiring a viewpoint reference point;
Using the imaging target representative coordinates of each imaging device corresponding to the imaging location ID and the conversion parameter indicated by the viewpoint reference point, each imaging device when the imaging target representative coordinates for the imaging device is viewed by the user is captured. A coordinate conversion unit 123 that performs coordinate conversion into a user coordinate system that is an arrangement of the shooting target being performed and stores the absolute coordinates of the shooting target in the place shooting environment management information storage unit 130.

また、本発明(請求項4)は、ユーザ端末から指定された撮影場所ID,視点IDに基づいて、場所撮影環境管理情報記憶手段130から撮影対象絶対座標を取得し、該撮影対象絶対座標に基づいて、ユーザが使用するユーザ端末の端末キーと撮影機器で撮影している撮影映像を対応付けてユーザ・端末毎映像端末キー対応情報記憶手段に保持する映像端末キー対応付け手段と、
ユーザ端末から撮影開始要求を受け付けると、現在日時を撮影開始日時として保持し、撮影機器が録画を開始していなければ、録画開始と撮影開始映像時間オフセットを0にセットし、該撮影機器が常時撮影している場合、現在の映像時間を撮影開始時間オフセットにセットし、撮影ID、撮影機器IDと共に映像管理情報記憶手段に格納する映像開始点保持手段と、
ユーザ端末からアノテーション付与要求を取得すると、映像管理情報記憶手段から対象となる撮影機器IDの撮影開始日時、撮影開始映像時間オフセットを取得して、アノテーション付与映像時間を算出するアノテーション時間変換手段と、
アノテーション付与映像時間とユーザ端末から取得したアノテーション情報をアノテーション情報記憶手段に登録するアノテーション情報登録手段と、
撮影済みの映像に対して指定特徴量を用いて映像区間を定義して、アノテーションを含む映像区間を対象にダイジェスト映像を生成し、アノテーション情報記憶手段から映像日時及びアノテーション情報を取得して、該ダイジェスト映像と同期表示するアノテーション付きダイジェスト映像再生手段と、を更に有する。
Further, according to the present invention (Claim 4), based on the shooting location ID and viewpoint ID specified from the user terminal, the shooting target absolute coordinates are acquired from the location shooting environment management information storage means 130, and the shooting target absolute coordinates are obtained. Based on the terminal key of the user terminal used by the user and the video terminal key associating means for associating the captured video captured by the photographing device with the video terminal key corresponding information storage means for each user / terminal,
When a shooting start request is received from the user terminal, the current date and time is held as the shooting start date and time. If the shooting device has not started recording, the recording start and shooting start video time offsets are set to 0, and the shooting device always When shooting, a video start point holding means for setting the current video time to a shooting start time offset and storing it in the video management information storage means together with the shooting ID and the shooting device ID;
An annotation time conversion unit that obtains the shooting start date and time and the shooting start video time offset of the target shooting device ID from the video management information storage unit when calculating the annotation addition request from the user terminal;
Annotation information registration means for registering annotated video time and annotation information acquired from the user terminal in the annotation information storage means;
Define the video section using the specified feature value for the captured video, generate a digest video for the video section including the annotation, acquire the video date and time and annotation information from the annotation information storage means, And an annotated digest video reproducing means for synchronously displaying the digest video.

本発明(請求項5)は、請求項3または4記載のアノテーション付与装置を構成する各手段としてコンピュータを機能させるためのアノテーション付与プログラムである。   The present invention (Claim 5) is an annotation assignment program for causing a computer to function as each means constituting the annotation assignment apparatus according to Claim 3 or 4.

本発明(請求項6)は、請求項5記載のアノテーション付与プログラムを格納したコンピュータ読み取り可能な記録媒体である。   The present invention (Claim 6) is a computer-readable recording medium storing the annotation adding program according to Claim 5.

上記のように、本発明によれば、撮影中にライブでアノテーションを行うことが可能となる。また、ライブ中にアノテーションを付与するユーザが現実の撮影場所と近い空間感覚の端末キーを指定することで、間違わずにアノテーション対象映像を選択することが可能となる。このようなアノテーション対象映像とアノテーション情報の関連が規定されるため、アノテーションと対象が正確に対応付いて表示できるため、映像閲覧者も理解し易い映像再生を行うことが可能となる。また、同時に映像がアノテーション付与されている部分に限定されてダイジェスト化されるため、振り返るための速覧が可能となり、短い時間でアノテーション付与する内容を支援することが可能となる。   As described above, according to the present invention, it is possible to annotate live during shooting. In addition, it is possible to select an annotation target video without making a mistake by specifying a terminal key having a spatial sensation close to the actual shooting location by a user to whom annotation is given during live performance. Since the relation between the annotation target video and the annotation information is defined, the annotation and the target can be displayed in association with each other accurately, so that it is possible to perform video playback that is easy for the video viewer to understand. At the same time, since the video is digested by being limited to the portion to which the annotation is added, it is possible to perform a quick review to look back, and it is possible to support the content to be annotated in a short time.

以下、図面と共に本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

本発明は、端末利用者(閲覧者)の視点から見た複数の撮影機材で撮影される撮影対象の重心の位置関係と、端末の位置を用いて、"端末に表示する、複数の撮影機材を示すアイコンの配置"が類似する配置となるように、端末での撮影機材を示すアイコンの表示位置を制御するものである。この結果、閲覧者が直感的に撮影機材を選択可能となる。   The present invention uses the positional relationship of the center of gravity of a subject to be photographed with a plurality of photographing equipment viewed from the viewpoint of a terminal user (browser) and the position of the terminal, and “a plurality of photographing equipments to be displayed on the terminal” The display position of the icon indicating the photographic equipment on the terminal is controlled so that the “arrangement of icons indicating“ is similar ”. As a result, the viewer can select the photographing equipment intuitively.

[第1の実施の形態]
図3は、本発明の第1の実施の形態におけるシステム構成を示す。
[First Embodiment]
FIG. 3 shows a system configuration in the first embodiment of the present invention.

同図に示すシステムは、サーバ100とユーザ端末200から構成され、これらは、それぞれの通信部110,210を介して通信する。   The system shown in the figure includes a server 100 and a user terminal 200, which communicate via respective communication units 110 and 210.

サーバ100は、通信部110、処理部120、DB130を有する。   The server 100 includes a communication unit 110, a processing unit 120, and a DB 130.

DB130には、場所撮影環境管理情報131が記録されている。当該場所撮影環境管理情報131の例を図4に示す。場所撮影環境管理情報131は、撮影場所IDと対応付けて、予め定めた撮影対象絶対座標と、予め定めた視点基準点、撮影対象範囲絶対座標、撮影対象代表画像、撮影場所等を管理している。   In the DB 130, location shooting environment management information 131 is recorded. An example of the location shooting environment management information 131 is shown in FIG. The location shooting environment management information 131 manages a predetermined shooting target absolute coordinate, a predetermined viewpoint reference point, a shooting target range absolute coordinate, a shooting target representative image, a shooting location, and the like in association with the shooting location ID. Yes.

撮影場所IDとは、「国立競技場」のような、撮影現場を表すIDである。なお、撮影対象絶対座標(撮影場所IDに対応付けられた撮影機材のIDと、予め撮影場所毎に定めた座標系の中で、その撮影機器で撮影される撮影対象の重心座標値である撮影対象代表座標値からなる)は、予め定められ、撮影場所IDに対応付けて場所撮影環境管理情報131として管理される。つまり、撮影機器の台数と、各撮影機器はどこを撮影するような設定になっているかについては、予め定められ、撮影場所IDと対応付けて場所撮影環境管理情報で管理される。撮影対象代表座標値は、場所ID毎に予め定めた座標系を用いて表現する。   The shooting location ID is an ID representing a shooting site such as “National Stadium”. It should be noted that the photographing target absolute coordinates (the photographing device ID associated with the photographing location ID and the centroid coordinate value of the photographing target photographed by the photographing device in the coordinate system predetermined for each photographing location) The target representative coordinate value) is determined in advance and managed as the location shooting environment management information 131 in association with the shooting location ID. That is, the number of photographing devices and where each photographing device is set to photograph are determined in advance and managed in association with the photographing location ID by the location photographing environment management information. The photographing target representative coordinate value is expressed using a coordinate system predetermined for each place ID.

また、撮影場所ID毎に、ユーザが選択可能な視点基準点についても予め定め、場所撮影環境管理情報で管理する。視点基準点は、視点IDと変換パラメータからなる。なお、視点IDとは、撮影場所IDで指定した場所の中で、おおよそどのエリアにいるのかを示すIDである。例えば、撮影場所IDで示す場所が「サッカーの競技場」の場合は、ホームゴール裏、ホームゾーン、アウェイゴール裏、アウェイゾーンの4つの場所を示す視点IDを設ける方法がある。ホームゾーン、アウェイゾーンを更に1階、2階に分割して合計6つの撮影場所IDを設けてもよい。ところで、視点IDで示された位置にユーザがいる時に、ユーザが撮影対象の方を向いた場合に(例えば、撮影場所IDで示される場所が「サッカー競技場」の場合、ユーザがフィールドの方向を向いた場合に)ユーザの位置と視線方向を基準としたユーザ座標系を想定する。撮影場所ID毎に定めた座標系をユーザ座標系に変換するための変換パラメータを、視点ID毎に予め求めておき、視点IDに対応付けて予めDB130の場所撮影環境管理情報131に設定しておおく。図4の場合、視点IDに対応付けられた、回転角度、平行移動、拡大縮小とのパラメータが変換パラメータである。   In addition, viewpoint reference points that can be selected by the user are determined in advance for each shooting location ID, and managed by the location shooting environment management information. The viewpoint reference point includes a viewpoint ID and a conversion parameter. Note that the viewpoint ID is an ID that indicates an approximate area in the place designated by the shooting place ID. For example, when the place indicated by the shooting place ID is “soccer stadium”, there is a method of providing viewpoint IDs indicating four places: the home goal back, the home zone, the away goal back, and the away zone. The home zone and the away zone may be further divided into the first floor and the second floor to provide a total of six shooting location IDs. By the way, when the user is at the position indicated by the viewpoint ID and the user faces the shooting target (for example, when the place indicated by the shooting place ID is “soccer stadium”, the user indicates the direction of the field. A user coordinate system based on the user's position and line-of-sight direction is assumed. Conversion parameters for converting the coordinate system determined for each shooting location ID into the user coordinate system are obtained in advance for each viewpoint ID, and are set in advance in the location shooting environment management information 131 of the DB 130 in association with the viewpoint ID. Leave. In the case of FIG. 4, parameters such as a rotation angle, translation, and enlargement / reduction associated with the viewpoint ID are conversion parameters.

図5は、本発明の第1の実施の形態におけるサーバの処理のフローチャートである。   FIG. 5 is a flowchart of server processing according to the first embodiment of this invention.

ステップ100) サーバ100の処理部120が、ユーザ端末200から送信された撮影場所ID、視点IDに対応する場所撮影環境管理情報を取得する。   Step 100) The processing unit 120 of the server 100 acquires location shooting environment management information corresponding to the shooting location ID and viewpoint ID transmitted from the user terminal 200.

ステップ101) 撮影場所ID、視点IDをユーザが指定すると、ユーザ端末200の通信部210を介して、サーバ100の通信部110が撮影場所ID、視点IDを取得する。     Step 101) When the user specifies the shooting location ID and viewpoint ID, the communication unit 110 of the server 100 acquires the shooting location ID and viewpoint ID via the communication unit 210 of the user terminal 200.

ステップ102) 処理部120は、DB130の場所撮影環境管理情報131を参照して、撮影場所IDに対応する撮影対象絶対座標値と視点基準点を取得する。なお、撮影対象絶対座標値は、その撮影場所IDで示される場所に設置された撮影機器のID(撮影機器ID)と、各撮影機器で撮影される撮影対象の重心である撮影対象代表座標からなる。     Step 102) The processing unit 120 refers to the location shooting environment management information 131 in the DB 130, and acquires the shooting target absolute coordinate value and the viewpoint reference point corresponding to the shooting location ID. The absolute coordinate value of the shooting target is obtained from the ID of the shooting device (shooting device ID) installed at the location indicated by the shooting location ID and the shooting target representative coordinates that are the center of gravity of the shooting target shot by each shooting device. Become.

ステップ200) 処理部120は、ユーザから見た場合の、各撮影機器が撮影している対象の配置(例:3つの撮影機器での撮影対象が縦に1列に等間隔で並んでいる)を求める。   Step 200) The processing unit 120, when viewed from the user, arranges the objects captured by each imaging device (for example, the imaging targets of the three imaging devices are vertically arranged in a line at equal intervals). Ask for.

ステップ201) ステップ102で取得した撮影機器IDの中に、未処理の機器IDがあるかどうかを判定する。未処理の撮影機器IDがない場合には、終了に進む。未処理の撮影機器IDがある場合、ステップ202に進み、未処理と判定された1つの撮影機器IDに対して、ステップ202以降の処理を実施する。     Step 201) It is determined whether or not there is an unprocessed device ID among the photographing device IDs acquired in Step 102. If there is no unprocessed imaging device ID, the process proceeds to the end. If there is an unprocessed imaging device ID, the process proceeds to step 202, and the processing from step 202 onward is executed for one imaging device ID determined to be unprocessed.

ステップ202) 処理部120は、場所撮影環境管理情報131を参照して、ステップ102で取得した撮影場所IDに対応する各撮影機器に対する撮影対象代表座標と、視点基準点を用いて、撮影機器に対する撮影対象代表座標をユーザ座標系に座標変換する。具体的には、処理部120は、場所撮影環境管理情報131の各機器IDに対する撮影対象絶対座標値に対して、視点基準点で示された変換パラメータを適用して、撮影機器に対する撮影対象代表座標値をユーザ座標系に座標変換する。ユーザ座標系で撮影対象絶対座標値を表現した結果が、ユーザ視点から見たときの各撮影機器で撮影した映像の配置となる。処理部120は、当該ステップ202の座標変換結果をステップ203の処理に渡す。なお、撮影対象絶対座標値を(x,y)、視点IDで示される回転角をθ、x方向の平行移動量をα、y方向の平行移動量をβ、x方向の拡大率をj、y方向の拡大率をkとすると、変換後の座標値(S,T)は、以下の式を用いて算出される。     Step 202) The processing unit 120 refers to the location shooting environment management information 131 and uses the shooting target representative coordinates for each shooting device corresponding to the shooting location ID acquired in Step 102 and the viewpoint reference point to the shooting device. The image-capturing target representative coordinates are transformed into the user coordinate system. Specifically, the processing unit 120 applies the conversion parameter indicated by the viewpoint reference point to the photographing target absolute coordinate value for each device ID of the place photographing environment management information 131, and represents the photographing target representative for the photographing device. Coordinates the coordinate value to the user coordinate system. The result of expressing the photographing target absolute coordinate value in the user coordinate system is the arrangement of the images photographed by each photographing device when viewed from the user viewpoint. The processing unit 120 passes the coordinate conversion result of step 202 to the process of step 203. Note that the absolute coordinate value to be imaged is (x, y), the rotation angle indicated by the viewpoint ID is θ, the parallel movement amount in the x direction is α, the parallel movement amount in the y direction is β, the enlargement factor in the x direction is j, When the enlargement ratio in the y direction is k, the converted coordinate values (S, T) are calculated using the following equations.

Figure 2010074437
ステップ203) 処理部120は、ユーザ座標系に変換された撮影対象絶対座標値を、撮影場所ID、撮影機器ID、視点IDに対応付けたDB130に記録する。必要に応じて、ステップ202以降の処理を実施した機器IDが処理済であることを保持した後、ステップ201に戻る。
Figure 2010074437
Step 203) The processing unit 120 records the shooting target absolute coordinate value converted into the user coordinate system in the DB 130 associated with the shooting location ID, the shooting device ID, and the viewpoint ID. If necessary, after holding that the device ID that has executed the processing from step 202 has been processed, the processing returns to step 201.

なお、上記の図5のフローチャートでは、ステップ203で座標変換結果をDB130に記録する処理を示したが、ステップ203ではDB130は座標変換結果を単に保持することとし、ステップ201にて全ての機器IDが処理済と判定された場合に、座標変換結果を他の処理に引き渡すこととしてもよい。   In the flowchart of FIG. 5 described above, the process of recording the coordinate conversion result in the DB 130 is shown in Step 203. However, in Step 203, the DB 130 simply holds the coordinate conversion result, and in Step 201, all device IDs are stored. May be handed over to another process when it is determined that is processed.

ステップ203で算出した座標変換結果の利用方法としては、例えば、ユーザが保持する端末に複数の撮影機器のアイコンを表示する際に、ユーザ視点で見た各撮影機器の配置とアイコンの配置が類似するようにする方法がある。   As a method of using the coordinate conversion result calculated in step 203, for example, when displaying icons of a plurality of photographing devices on a terminal held by the user, the arrangement of each photographing device viewed from the user's viewpoint is similar to the icon arrangement. There is a way to do that.

具体的には、複数の機器で撮影された現場を見ながら、映像に対してアノテーションを行う状況を想定する。この時、ユーザは現場を目で見ているが、何らかのタイミングで映像に対してアノテーションを行いたいと感じることがある。アノテーションを実施したいと感じた状況は、どのカメラで撮影されているのかを短時間で判断可能とする支援方法の1つとして、実際のカメラの配置と、端末上で表示するカメラアイコンの配置を一致させる方法が有効である。   Specifically, a situation is assumed in which an image is annotated while looking at sites photographed by a plurality of devices. At this time, the user looks at the site visually, but sometimes feels that he wants to annotate the video at some timing. The situation where I wanted to implement annotation is one of the support methods that can determine in short time which camera is being shot. Actual camera placement and the placement of camera icons to be displayed on the terminal A matching method is effective.

例えば、サッカー場に3台の撮影機器が設置されており、2つのゴールとフィールド中央がカメラで撮影されている状況を想定する。さらに、ユーザはアウェイチームのゴール裏にいる状況を想定する。このとき、ユーザが保持する端末には、縦に3つ、撮影機器を示すアイコンが並んでいる。この状況下で、ユーザがホームチームのゴールシーンに対してアノテーションを行いたいと感じた場合、アウェイのゴールを撮影している撮影機器を選択して、その機器で撮影している映像に対してアノテーションを行う必要がある。撮影機器を選択する際、各撮影機器で撮影している場所の配置と、端末に表示された撮影機器での撮影対象を示す場所の配置が類似している場合、ユーザは直感的にアノテーションを行いたい撮影機器を選択可能となる。例えば、この例の場合、ユーザは3つの撮影機器を示す縦に3つ並んだアイコンのうち、最も下に表示されたアイコンを選択することで、アウェイのゴール付近の撮影中の撮影機器を選択可能となる。   For example, assume a situation where three shooting devices are installed in a soccer field, and two goals and the center of the field are shot with a camera. Further, assume that the user is behind the goal of the away team. At this time, on the terminal held by the user, three icons indicating the photographing devices are arranged vertically. In this situation, if the user feels that he wants to annotate the goal scene of the home team, select the camera that captures the away goal and Annotations need to be done. When selecting an imaging device, if the location of the location where each of the imaging devices is capturing is similar to the location of the location that indicates the shooting target displayed on the terminal, the user can intuitively annotate It is possible to select a photographing device to be performed. For example, in this example, the user selects a shooting device that is shooting near the goal of the away by selecting the icon displayed at the bottom of the three vertically arranged icons indicating the three shooting devices. It becomes possible.

[第2の実施の形態]
本実施の形態では、第1の実施の形態でのステップ203で算出した座標値を用いて、ユーザが保有する端末に、撮影機器を示すアイコンを表示する処理を含めた例を説明する。
[Second Embodiment]
In the present embodiment, an example will be described that includes processing for displaying an icon indicating a photographing device on a terminal held by a user using the coordinate value calculated in step 203 in the first embodiment.

図6は、本発明の第2の実施の形態におけるシステム構成図である。同図に示すシステムは、サーバ300とユーザ端末400から構成される。   FIG. 6 is a system configuration diagram according to the second embodiment of the present invention. The system shown in the figure includes a server 300 and a user terminal 400.

サーバ300は、映像端末キー対応付け処理部310、複数映像開始点保持処理部320、アノテーション対象指定処理部330、アノテーション付与処理部340、アノテーション時間変換処理部350、アノテーション登録処理部360、ダイジェスト映像再生処理部370、場所撮影環境管理情報DB301、ユーザ・端末毎端末キー対応情報DB302、映像管理情報DB303、アノテーション情報DB304から構成される。   The server 300 includes a video terminal key association processing unit 310, a multiple video start point holding processing unit 320, an annotation target designation processing unit 330, an annotation assignment processing unit 340, an annotation time conversion processing unit 350, an annotation registration processing unit 360, a digest video. The reproduction processing unit 370, the location shooting environment management information DB 301, the user / terminal terminal key correspondence information DB 302, the video management information DB 303, and the annotation information DB 304 are configured.

図7は、本発明の第2の実施の形態におけるサーバの処理のフローチャートである。   FIG. 7 is a flowchart of server processing according to the second embodiment of this invention.

ステップ301) 映像端末キー対応付け処理部310は、場所撮影環境管理情報DB301に記憶された場所撮影環境管理情報で管理されている撮影対象絶対座標値を取り出す。また、図8に示すような、ユーザが指定したユーザ端末IDに対応するユーザ端末情報のキーパターン、キー配列を、ユーザ端末400から取得する。次に、ユーザ端末から指定されたユーザID、撮影場所ID、視点IDを用いて、後述する図10、図11に示す方法により、端末キー、撮影機器対応処理により、ユーザIDで指定されたユーザが使用する端末のキーと撮影機器との対応付けデータがユーザ・端末毎映像端末キー対応情報DB302に保持される。ユーザ・端末毎映像端末キー対応情報DB302には、図9に示すようなユーザ端末ID,撮影場所ID,キー文字撮影映像対応マップ{キー配列、(キー文字、撮影機器ID)の組}が格納される。   Step 301) The video terminal key association processing unit 310 takes out the photographing target absolute coordinate values managed by the place photographing environment management information stored in the place photographing environment management information DB 301. Also, a key pattern and key arrangement of user terminal information corresponding to the user terminal ID designated by the user as shown in FIG. Next, using the user ID, the shooting location ID, and the viewpoint ID specified from the user terminal, the user specified by the user ID by the terminal key and the shooting device corresponding process according to the method shown in FIGS. The association data of the terminal key used by the camera and the photographing device is stored in the video terminal key correspondence information DB 302 for each user / terminal. The user terminal-specific video terminal key correspondence information DB 302 stores a user terminal ID, a shooting location ID, a key character shooting video correspondence map {key arrangement, (key character, shooting device ID) set} as shown in FIG. Is done.

この対応付け処理は、撮影対象の位置を視聴するユーザが見る視点に合わせて座標系を変換することで、ユーザ視線の座標系での撮影対象の位置関係を把握し、その位置関係に合わせてユーザ端末400のキーの配列にマッピングすることを目的としている。具体的な処理詳細については、図10、図11を用いて説明する。   In this association processing, the coordinate system is converted in accordance with the viewpoint viewed by the user who views the position of the shooting target, so that the positional relationship of the shooting target in the coordinate system of the user's line of sight is grasped and matched with the positional relationship. The purpose is to map the key arrangement of the user terminal 400. Specific processing details will be described with reference to FIGS. 10 and 11.

なお、図10では、固定キー配列の場合を示し、図11では、自由キー配列の場合を示す。   10 shows the case of a fixed key arrangement, and FIG. 11 shows the case of a free key arrangement.

ステップ401) まず、ユーザからの撮影場所ID、視点ID、ユーザ端末IDを受信する。   Step 401) First, a photographing location ID, a viewpoint ID, and a user terminal ID are received from a user.

ステップ402) ユーザから撮影対象の始点で撮影対象の位置関係を捉えることができるように撮影対象座標を絶対座標系から視点からの座標系に変換する。ここでは、撮影場所IDで場所撮影環境管理情報DB301から撮影対象絶対座標を取得し、視点IDでユーザ視点での座標系に変換するための回転角度、並行移動、拡大縮小率のデータを取得する。この取得した変換前の撮影対象絶対座標をx,yに、回転をθとし、x拡大率(j)、y拡大率(k)とすると、以下の式で座標変換(S,T)が行える。   Step 402) The photographing target coordinates are converted from the absolute coordinate system to the coordinate system from the viewpoint so that the user can grasp the positional relationship of the photographing target at the starting point of the photographing target. Here, the absolute coordinates of the shooting target are acquired from the location shooting environment management information DB 301 with the shooting location ID, and the rotation angle, parallel movement, and enlargement / reduction ratio data for conversion to the coordinate system at the user viewpoint are acquired with the viewpoint ID. . Assuming that the acquired absolute coordinates to be photographed before conversion are x, y, rotation is θ, and x magnification (j) and y magnification (k), coordinate transformation (S, T) can be performed by the following equations. .

Figure 2010074437
これにより、撮影機器と対応した撮影対象の視点から座標系での座標値を計算できる。
Figure 2010074437
Thereby, the coordinate value in a coordinate system can be calculated from the viewpoint of the imaging target corresponding to the imaging device.

ステップ403) 視点からの座標系で撮影対象が横に並んで見えるのか、縦に並んで見えるのかを考慮して、見えによって横方向(視点座標系のx方向)、または縦方向(視点座標系のy方向)に並んでいると考え、端末キーに対応付けていく。具体的には、このステップ403では、ステップ402の結果座標値でのx座標の分散、y座標の分散を計算し、分散の大きい方の座標系を使って、視点座標系のx座標値で撮影機器をソートする。その分散が大きい方が基準の軸となる。図10、図11の処理では、ここまではほぼ同じ処理となる。   Step 403) Taking into consideration whether the subject is viewed side by side or vertically in the coordinate system from the viewpoint, depending on the appearance, the horizontal direction (x direction of the viewpoint coordinate system) or the vertical direction (viewpoint coordinate system) In the y direction), and is associated with the terminal key. Specifically, in step 403, the variance of the x coordinate and the variance of the y coordinate in the result coordinate value of step 402 are calculated, and the coordinate system having the larger variance is used to calculate the x coordinate value of the viewpoint coordinate system. Sort shooting equipment. The larger the variance is the axis of reference. In the processing of FIG. 10 and FIG. 11, the processing is almost the same so far.

ステップ404) 固定のキー配置の場合(図10)を説明する。   Step 404) The case of fixed key arrangement (FIG. 10) will be described.

ユーザ端末ID,ステップ403の基準軸の結果を使って、ユーザ端末情報から入力端末のキー配列の基準キーを取得し、ステップ403でソートした結果の順に撮影機器IDを読み、キー文字は基準キーから順にキー文字を読み、そのセットとユーザ端末のキー配列をユーザ・端末毎映像端末キー対応情報DB302に出力する。固定キー配列の場合は、キー配列のx方向及びy方向の数が決まっているため、撮影機器が端末キーの各方向の個数より大きい場合は、どの文字キーをマッピングするのかの情報を予め指定しておくことにより、対応可能である。   Using the user terminal ID and the result of the reference axis in step 403, the reference key of the key arrangement of the input terminal is acquired from the user terminal information, and the photographing device IDs are read in the order of the result sorted in step 403. The key characters are read in order, and the set and the key arrangement of the user terminal are output to the video terminal key correspondence information DB 302 for each user / terminal. In the case of a fixed key arrangement, the number of key arrangements in the x and y directions is fixed, so if the shooting device is larger than the number of terminal keys in each direction, information on which character key to map is specified in advance. This can be handled.

ステップ404')また、当該ステップで自由キーの場合(図11)では、ステップ403で決定した方向に撮影対象分のキーを作成し、ソート結果順に、撮影機器とキー文字との対応テーブルを作成する。自由キー配置の場合は、決定した基準軸で、その方向に撮影機器分の個数を並べて表示することを想定すればよい。これでユーザの端末キーと、アノテーション対象との関連付けの準備が完了となる。   Step 404 ′) In the case of a free key in this step (FIG. 11), keys for shooting targets are created in the direction determined in Step 403, and a table of correspondence between shooting devices and key characters is created in the order of sorting results. To do. In the case of the free key arrangement, it may be assumed that the number of photographing devices is displayed side by side in the direction on the determined reference axis. This completes the preparation for associating the user's terminal key with the annotation target.

また、視点角度が違う場合の例を図12に示す。同図では、長方形以外のライブ観戦でも対応できるようにした例である。同図の例では、カメラAからCが視点1側から撮影しているものとする。同図の例における処理は、基本的には図10または図11と同様であるが、ステップ402の座標系変換が異なる。図12における各視点からの座標系変換例は以下通りである。   FIG. 12 shows an example when the viewpoint angles are different. In the figure, it is an example in which it is possible to cope with a live game other than a rectangle. In the example of the figure, it is assumed that the cameras A to C are shooting from the viewpoint 1 side. The processing in the example in the figure is basically the same as that in FIG. 10 or FIG. 11, but the coordinate system conversion in step 402 is different. An example of coordinate system conversion from each viewpoint in FIG. 12 is as follows.

視点1:グローバル座標系と同じ(A(ax,ay),B(bx,by),C(cx,cy))
視点2:拡大率1倍、45度回転、(a,0)並行移動
視点3:拡大率1倍、180度回転、(a,a)並行移動
視点4:拡大率1倍、−45度回転、(−a/√2,a/√2)並行移動
θ:回転度,(α,β)が並行移動でこれを行列計算図10の行列計算式(2)に代入すれば、結果座標が求められる。そして、x軸、y軸の分散が大きい方を基準軸として、図10または図11のキー配置への変換配置とする。
Viewpoint 1: Same as global coordinate system (A (ax, ay), B (bx, by), C (cx, cy))
Viewpoint 2: Magnification rate 1 time, 45 degree rotation, (a, 0) parallel movement Viewpoint 3: Magnification ratio 1 time, 180 degree rotation, (a, a) Parallel movement Viewpoint 4: Magnification ratio 1 time, -45 degree rotation , (−a / √2, a / √2) parallel movement θ: degree of rotation, (α, β) is parallel movement, and if this is substituted into matrix calculation formula (2) in FIG. Desired. Then, the conversion arrangement to the key arrangement of FIG. 10 or FIG.

図12においては、サッカーやテニス、一般的な教室といった長方形をベースしたものでなくとも、同様に上記のステップ401〜404の処理を実行できる。   In FIG. 12, even if it is not based on rectangles, such as soccer, tennis, and a general classroom, the process of said steps 401-404 can be performed similarly.

ステップ302) 次に、ユーザは撮影場所において、撮影開始要求を行うことで、実際の各撮影機器からの撮影映像の同期処理と現在の日時と撮影映像上の映像時間との対応付けを行うことを目的とする。   Step 302) Next, the user makes a shooting start request at the shooting location, thereby associating actual video synchronization from each shooting device with the current date and time on the shot video. With the goal.

図13に示すように、ユーザが撮影開始要求を行うと、複数映像開始点保持処理部320は、ユーザからの撮影開始要求を受け付け(ステップ501)、サーバ300が現在日時を撮影開始日時としてメモリ(図示せず)に保持し、また物理的に撮影機器が録画を開始していなければ、録画開始と撮影開始映像時間オフセットを0にセットし、撮影機器が常時撮影している場合には、現在の映像時間を撮影開始映像時間オフセットにセットする。これらの結果は、図14のような映像管理情報として映像管理情報DB303に保持される。図14に示す映像管理情報には、撮影ID、撮影機器ID、撮影開始日時、撮影開始映像時間オフセット、録画済撮影映像ファイル保存先が設定される。これでアノテーション対象を選択し、アノテーション情報を付与するための準備が完了となる。この処理は、撮影場所に存在する1ユーザが設定すればよい。   As shown in FIG. 13, when the user makes a shooting start request, the multiple video start point holding processing unit 320 receives a shooting start request from the user (step 501), and the server 300 stores the current date and time as the shooting start date and time. (Not shown), and if the photographic device has not physically started recording, set the recording start and shoot start video time offset to 0, and if the photographic device is always shooting, Set the current video time to the shooting start video time offset. These results are held in the video management information DB 303 as video management information as shown in FIG. In the video management information shown in FIG. 14, a shooting ID, a shooting device ID, a shooting start date and time, a shooting start video time offset, and a recorded shot video file storage destination are set. This completes the preparation for selecting an annotation target and adding annotation information. This process may be set by one user existing at the shooting location.

ステップ303) 次に、ユーザは撮影場所で、ライブで視聴しながらライブの撮影対象と視覚的な順に関連付いた端末キーを選択することで、どの撮影機器で撮影した映像にアノテーション情報を付与するかを選択することができる。具体的には、図15に示すようなインタフェース例が考えられる。固定キー配置の場合(図15(A))、各撮影機器に対応した代表画像を固定キー配置と同じ並びで表示することで、どの端末キーがどの撮影機器に対応するかを確認しながら入力することができるインタフェースの例である。一方、自由キー配列の場合(図15(B))は、画面上に入力キーを自由に配置できるため、各撮影機器の代表画像自体を実際に見える位置(視点座標系での撮影対象座標)で配置して表示し、サーバ300へはキー文字を送信することが可能である。また、固定キーのケースと類似の表示形態として、代表画面を1画面上で分離して表示することも考えられる。このように実際のユーザからのライブでの見えと感覚的に近いインタフェースで撮影対象を選択可能とすることが可能となる。   Step 303) Next, the user assigns annotation information to the video shot by which shooting device by selecting a terminal key that is associated with the live shooting target in visual order while watching live at the shooting location. Can be selected. Specifically, an interface example as shown in FIG. 15 can be considered. In the case of the fixed key arrangement (FIG. 15A), the representative images corresponding to the respective photographing devices are displayed in the same arrangement as the fixed key arrangement, thereby confirming which terminal key corresponds to which photographing device. An example of an interface that can be On the other hand, in the case of the free key arrangement (FIG. 15B), since the input keys can be freely arranged on the screen, the position where the representative image itself of each photographing device can actually be seen (the photographing target coordinates in the viewpoint coordinate system). The key characters can be transmitted to the server 300. Further, as a display form similar to the case of the fixed key, it may be possible to display the representative screen separately on one screen. In this way, it is possible to select a shooting target with an interface that is close in sensation to a live appearance from an actual user.

具体的には、図16に示すように、ユーザ端末400からアノテーション対象映像指定要求により、ユーザ端末ID,端末キー情報をサーバ300に送信すると、サーバ300のアノテーション対象指定処理部330は、図8に示すユーザ端末ID、端末キー、撮影場所IDを受信し(ステップ601)、これらの情報に基づいて、ユーザ・端末毎撮影映像端末キー対応情報DB302から図9に示すようなユーザ・端末毎撮影映像端末キー対応情報とユーザ端末情報を検索し、ユーザID、撮影機器IDをアノテーション付与処理部340へ送信する(ステップ602)。   Specifically, as shown in FIG. 16, when the user terminal ID and terminal key information are transmitted to the server 300 in response to the annotation target video designation request from the user terminal 400, the annotation target designation processing unit 330 of the server 300 The user terminal ID, terminal key, and shooting location ID shown in FIG. 9 are received (step 601), and based on these pieces of information, the user / terminal shooting as shown in FIG. The video terminal key correspondence information and the user terminal information are searched, and the user ID and the imaging device ID are transmitted to the annotation assignment processing unit 340 (step 602).

これで、ユーザが指定したアノテーション対象に対応した撮影機器IDをアノテーション付与処理部340へ渡すことができ、アノテーション付与処理部340で受け取るアノテーション情報を撮影機器IDが撮影した映像と関連付けることができる。   Thus, the imaging device ID corresponding to the annotation target specified by the user can be passed to the annotation addition processing unit 340, and the annotation information received by the annotation addition processing unit 340 can be associated with the video captured by the imaging device ID.

ステップ304) 次に、ユーザ端末400からアノテーション付与要求として、撮影ID、ユーザID、アノテーション情報(コメント、公開フラグ、投票、タイムマークのいずれか)をサーバ300に送信すると、アノテーション付与処理部340では、図17に示すように、アノテーション対象指定処理部330からユーザID、撮影機器IDを受信し(ステップ610)、ユーザ入力である撮影ID、ユーザID、アノテーション情報を受信し、アノテーション受信日時として、受信日時を保持する(ステップ611)。最後に、ユーザID、アノテーション受信日時、撮影ID、撮影機器ID、アノテーション情報をセットにして、アノテーション時間変換処理部350に出力する(ステップ612)。ここでは、アノテーション対象映像指定処理部330の入力とユーザの入力タイミングでの受信日時の保持、及びユーザ入力情報を全てマージして、アノテーション時間変換処理部350へ渡すことを行っている。   Step 304) Next, when the shooting ID, user ID, and annotation information (any one of a comment, a public flag, a vote, and a time mark) are transmitted from the user terminal 400 as an annotation grant request, the annotation grant processor 340 As shown in FIG. 17, the user ID and photographing device ID are received from the annotation target designation processing unit 330 (step 610), and the photographing ID, user ID, and annotation information which are user inputs are received, and the annotation reception date and time is as follows. The reception date and time are held (step 611). Finally, the user ID, annotation reception date / time, photographing ID, photographing device ID, and annotation information are set and output to the annotation time conversion processing unit 350 (step 612). Here, all of the input of the annotation target video designation processing unit 330 and the reception date and time at the input timing of the user and the user input information are merged and passed to the annotation time conversion processing unit 350.

ステップ305) 次に、アノテーション時間変換処理部350では、図18に示すように、アノテーション付与処理部340からの送信(ユーザID、アノテーション受信日時、撮影ID、撮影機器ID、アノテーション情報のセット)を受信し(ステップ701)、撮影ID、撮影機器IDに基づいて映像管理情報DB303から対象撮影機器IDの撮影開始日時、撮影開始映像時間オフセットを取得し(ステップ702)、アノテーション付与の映像時間を次の式により計算して導く(ステップ703)。   Step 305) Next, in the annotation time conversion processing unit 350, as shown in FIG. 18, transmission (set of user ID, annotation reception date / time, shooting ID, shooting device ID, annotation information) from the annotation assignment processing unit 340 is performed. Received (step 701), obtains the shooting start date and time and the shooting start video time offset of the target shooting device ID from the video management information DB 303 based on the shooting ID and the shooting device ID (step 702). (Step 703)

[アノテーション付与映像時間]=[アノテーション受信日時]−[撮影開始日時]
+[撮影開始映像時間オフセット]
最後に、ユーザID,ステップ703で計算したアノテーション付与映像時間、撮影ID,撮影機器ID,アノテーション情報をセットにして、アノテーション登録処理部360に出力する(ステップ704)。ここでは、各撮影機器で撮影された映像の時間に付与するアノテーションを対応付けるための処理を行っている。
[Annotation video time] = [Annotation reception date and time]-[Shooting start date and time]
+ [Shooting start video time offset]
Finally, the user ID, the annotation addition video time calculated in step 703, the shooting ID, the shooting device ID, and the annotation information are set and output to the annotation registration processing unit 360 (step 704). Here, processing for associating an annotation to be given to the time of the video shot by each imaging device is performed.

ステップ306) 次に、アノテーション登録処理部360では、アノテーション時間変換処理部350から受信したデータをアノテーション情報DB304に記憶する。具体的なアノテーション情報DB304への登録結果例を図19に示す。   Step 306) Next, the annotation registration processing unit 360 stores the data received from the annotation time conversion processing unit 350 in the annotation information DB 304. A specific example of registration results in the annotation information DB 304 is shown in FIG.

これにより、アノテーション情報が撮影機器の映像と対応付け可能な状態で保持されることになる。アノテーション情報としては、
・コメント:コメントテキスト;
・公開フラグ:コメントを公開するか、個人メモとするか;
・投票:アノテーション(アノテーションID指定)に投票(コメントへの投票);
・タイムマーク:対象映像の映像時間へのマーク(重要と思われる対象と時間をマーク);
などがある。
As a result, the annotation information is held in a state where it can be associated with the video of the photographing device. As annotation information,
・ Comment: Comment text;
・ Public flag: whether to make a comment public or a personal note;
・ Voting: voting for annotation (annotation ID designation) (voting for comments);
・ Time mark: Mark to the video time of the target video (mark the target and time that seems to be important);
and so on.

ステップ307) 最後にダイジェスト映像再生処理について説明する。   Step 307) Finally, digest video playback processing will be described.

図20は、本発明の第2の実施の形態におけるアノテーション付きダイジェスト映像再生処理部の内部処理の概要のフローチャートである。   FIG. 20 is a flowchart of an outline of internal processing of the annotated digest video reproduction processing unit according to the second embodiment of the present invention.

ステップ810) まず、ダイジェスト映像再生処理部370は、ダイジェスト映像を構成する。ここでは、アノテーション情報を指定ユーザ、あるいは、ユーザ全体で重要映像区間を判定しながら、ダイジェスト映像再生リストを構成する。   Step 810) First, the digest video reproduction processing unit 370 composes a digest video. Here, the digest video reproduction list is constructed while determining the important video section for the user who designates the annotation information or the entire user.

ステップ820) 映像区間に関連するアノテーションを取得し、ダイジェスト映像と同期しながら表示再生する。   Step 820) An annotation related to the video section is acquired and displayed and reproduced in synchronization with the digest video.

以下では、ステップ810、ステップ820に関して順次詳細に説明する。   Hereinafter, step 810 and step 820 will be sequentially described in detail.

上記のステップ810では、ユーザからダイジェスト映像再生要求でのユーザID、撮影、ID、ダイジェスト映像再生時間または重要度閾値の送信により、ダイジェスト映像再生処理部370では、図21または、図23に示すような処理を行う。   In step 810 above, the digest video playback processing unit 370 transmits the user ID, shooting, ID, digest video playback time or importance threshold in the digest video playback request from the user, as shown in FIG. 21 or FIG. Perform proper processing.

最初に、指定ユーザパターンについて説明する。   First, the designated user pattern will be described.

図21は、本発明の第2の実施の形態におけるアノテーション付きダイジェスト映像再生処理部のダイジェスト映像処理(指定ユーザパターン)のフローチャートである。   FIG. 21 is a flowchart of digest video processing (designated user pattern) of the digest video playback processing unit with annotation according to the second embodiment of the present invention.

ステップ811) まず、受信したユーザID、撮影IDに関連する各撮影機器の録画済映像を読み込む。映像管理情報DB303に録画済映像の置き場所を管理しているので、その情報から録画済映像を指定することができる。   Step 811) First, the recorded video of each photographing device related to the received user ID and photographing ID is read. Since the location of the recorded video is managed in the video management information DB 303, the recorded video can be designated from the information.

ステップ812) 映像機器毎の録画済映像を各々映像区間に分割し、分割した各分割の開始映像時間、終了映像時間を分割点として、各分割点間を映像区間としてセットする。映像を映像区間に分割する方法として、例えば、同じ背景景色を写し続けている場面、ある人物が表示されている区間、音声発話がある区間、意味的な区間が考えられる。意味的な区間についてはライブ映像を確認しながら、手動で映像区観点をセットすることになる。それ以外は物理的な特徴量を対象に映像解析技術を使って自動で分割する方法がある。映像解析技術に関しては、特開平8−214210号公報、特開平9−238298号公報、特開平11−178007号公報等に記載されている。本実施の形態では、図22に示すように、場面の切り替わり点を用いた映像区間から最終的な映像区間をセットする方法を用いるものとする。   Step 812) The recorded video for each video device is divided into video sections, the start video time and the end video time of each divided part are set as division points, and the intervals between the division points are set as video sections. As a method of dividing the video into video sections, for example, a scene in which the same background scenery is continuously captured, a section in which a certain person is displayed, a section in which voice utterance is present, and a meaningful section are conceivable. For the semantic section, the video section viewpoint is set manually while checking the live video. Other than that, there is a method of automatically dividing a physical feature amount using image analysis technology. The video analysis techniques are described in JP-A-8-214210, JP-A-9-238298, JP-A-11-178007, and the like. In the present embodiment, as shown in FIG. 22, a method of setting a final video section from a video section using scene switching points is used.

ステップ813) アノテーション情報DB304からユーザID、撮影IDをキーとして、指定のユーザのアノテーション情報を取得する。   Step 813) The annotation information of the designated user is acquired from the annotation information DB 304 using the user ID and shooting ID as keys.

ステップ814) ステップ812で分割した映像区間情報を取得し、ステップ813のアノテーション情報を対象として、撮影映像・映像区間毎に以下の処理を行う分割した映像区間毎に、コメントありのアノテーション数を総計し、アノテーション量(A)としてセットし、分割した映像区間毎に、"投票有"のアノテーション数を総計し、アノテーション評価度(B)としてセットし、分割した映像区間毎に、"タイムマーク有"のアノテーション数を総計し、映像区間注目度(C)としてセットし、重要度(X)を以下の方法で算出し、各撮影映像の映像区間毎に重要度を保持する。   Step 814) The video section information divided in Step 812 is acquired, and the following processing is performed for each captured video / video section for the annotation information in Step 813. The total number of annotations with comments is totaled for each divided video section. Set the amount of annotation (A) and total the number of annotations with “voting” for each divided video segment and set it as the annotation evaluation level (B). The total number of annotations "" is set as the video section attention level (C), the importance level (X) is calculated by the following method, and the importance level is held for each video section of each captured video.

重要度(X)=αA+βB+γC (0≦α,β,γ≦1)
ステップ815) 最初の映像区間から最後の映像区間まで順に以下の処理を行う。同映像区間で重要度の一番高い撮影映像ID及びその重要度を降順でメモリ(図示せず)に保持する。
Importance (X) = αA + βB + γC (0 ≦ α, β, γ ≦ 1)
Step 815) The following processing is performed in order from the first video section to the last video section. The photographed video ID having the highest importance in the same video section and its importance are stored in a memory (not shown) in descending order.

ステップ816a) 重要度閾値が指定されている場合は、ステップ815においてメモリ(図示せず)に保持されている結果順に読み出し、重要度が当該重要度閾値以上である限り、撮影映像ID、重要度、映像区間の組を取得することで重要度閾値を超えた映像区間だけを探すことができる。   Step 816a) If the importance threshold is specified, the results are read in the order of the results held in the memory (not shown) in Step 815. As long as the importance is equal to or higher than the importance threshold, the captured video ID and the importance By acquiring a set of video segments, it is possible to search only video segments that exceed the importance threshold.

ステップ816b) ダイジェスト再生時間が指定されている場合、ステップ815においてメモリ(図示せず)に保持されている結果順により読み出し、映像区間の映像時間を累積で加算し、
累積加算時間≦生成時間
が成立する間、撮影映像ID、重要度、映像区間の組を取得することで再生時間以内の映像ダイジェストを構成することができる。
Step 816b) If the digest playback time is specified, read in the order of the results held in the memory (not shown) in Step 815, add the video time of the video section cumulatively,
While the cumulative addition time ≦ the generation time is satisfied, a video digest within the reproduction time can be configured by acquiring a set of the captured video ID, importance, and video section.

ステップ817) ステップ816の結果を映像区間の開始映像時間順にソートし直し、ダイジェスト映像再生リストとして、撮影映像ID、映像区間(区間開始時間、区間終了時間)のセットを次のダイジェスト再生処理へ送信する。この処理により、ユーザ自身がアノテーション情報を付与したものに基づいてダイジェスト映像再生リストが構成される。   Step 817) The results of Step 816 are sorted again in the order of the start video time of the video section, and the set of the captured video ID and the video section (section start time, section end time) is transmitted to the next digest playback process as a digest video playback list. To do. By this process, a digest video reproduction list is constructed based on the user's own annotation information.

次に、全ユーザ統計パターンについて説明する。   Next, all user statistical patterns will be described.

図23は、本発明の第2の実施の形態におけるアノテーション付きダイジェスト映像再生処理部のダイジェスト映像構成処理(全ユーザ統計パターン)のフローチャートである。   FIG. 23 is a flowchart of digest video composition processing (all user statistical patterns) of the digest video playback processing unit with annotation according to the second embodiment of the present invention.

ステップ811´) 受信した撮影IDに関連する各撮影機器の録画済映像を読み込む。映像管理情報DB303に録画済映像の置き場所を管理しているので、その情報から録画済映像を指定することができる。   Step 811 ′) The recorded video of each photographing device related to the received photographing ID is read. Since the location of the recorded video is managed in the video management information DB 303, the recorded video can be designated from the information.

ステップ812´) 前述の図21の場合と同様に、撮影機器毎の録画済映像を各々映像区間に分割し、分割した各分割開始映像時間、終了映像時間を分割点として、各分割点を映像区間としてセットする。図22の方法で映像区間がセットできる。   Step 812 ′) Similar to the case of FIG. 21 described above, the recorded video for each photographing device is divided into video sections, and each divided point is video with each divided start video time and end video time as division points. Set as interval. The video section can be set by the method of FIG.

ステップ813´) アノテーション情報DB304から撮影IDをキーとして、全ユーザのアノテーション情報を取得する。   Step 813 ′) The annotation information of all users is acquired from the annotation information DB 304 using the shooting ID as a key.

これ以降のステップ814´からステップ817´までは図21のステップ814からステップ817と同様の処理となる。これで撮影場所にいる全利用ユーザを対象としたアノテーション情報付与に基づいてダイジェスト映像再生リストが生成できる。   Subsequent steps 814 ′ to 817 ′ are the same as steps 814 to 817 in FIG. 21. Thus, a digest video reproduction list can be generated based on the annotation information assignment for all users at the shooting location.

次に、図20のステップ820の処理について説明する。   Next, the process of step 820 in FIG. 20 will be described.

図23は、本発明の第2の実施の形態におけるアノテーション付きダイジェスト映像再生処理部の同期再生処理のフローチャートである。   FIG. 23 is a flowchart of synchronous playback processing of the annotated digest video playback processing unit in the second embodiment of the present invention.

ステップ821) まず、ダイジェスト映像再生処理部370は、図21、図23の処理によって作成されたダイジェスト映像再生リストを読み込む。   Step 821) First, the digest video playback processing unit 370 reads the digest video playback list created by the processing of FIGS.

ステップ822) リストの最初から順に映像対象の映像区間を取得する。   Step 822) The video sections of the video target are acquired in order from the beginning of the list.

ステップ823) 映像対象の映像区間を再生する。当該ステップの表示処理でのユーザ側へのインタフェースの例を図25に示す。同図において、映像領域とコメント領域を分離して表示する(図25,パターン1)、映像領域内にコメント領域を重畳させて表示する(図25,パターン2)、2画面を分離したディスプレイを持つ端末では映像とコメント領域を画面毎に分離して表示する(図25,パターン3)、ダイジェスト映像再生リストをサムネイルとコメントを併記しながら一覧でき、サムネイルを選択、または、音声のみ再生しながら、サムネイルとコメント併記の画面が同期しながらスクロールするなどして速覧する(図25,パターン4)等のインタフェースが考えられる。   Step 823) Play the video segment of the video target. FIG. 25 shows an example of an interface to the user side in the display process of the step. In the figure, the video area and the comment area are displayed separately (FIG. 25, pattern 1), and the comment area is displayed superimposed on the video area (FIG. 25, pattern 2). The terminal has a video and comment area separately for each screen (FIG. 25, pattern 3). A digest video playback list can be listed together with thumbnails and comments, while thumbnails can be selected or only audio can be played back. In addition, an interface such as scrolling while synchronizing the screens of thumbnails and comments can be considered (FIG. 25, pattern 4).

ステップ824) 再生中の映像対象と映像区間に対応したアノテーション情報を取得し、映像区間の再生が終了するまで同期して表示を行う。   Step 824) Annotation information corresponding to the video object being reproduced and the video section is acquired, and display is performed in synchronization until the playback of the video section is completed.

以上により、ライブでのスポーツのスタジアムでの観戦中に撮影対象を選択して、アノテーション情報を付与することや、講義や講演といったライブでのプレゼンテーション受講中に撮影対象を選択して、アノテーション情報を付与することなど、複製撮影機器で撮影することを前提として、様々なライブでのアノテーション情報付与において、携帯端末などの持ち運び易い端末機器からライブでのユーザの視点に合わせた映像対象へのアノテーション情報付与や、複数カメラからの同期映像の中からユーザに理解し易い、ユーザ全体の利用統計情報からの重要な映像区間を複数映像からダイジェスト映像を構成することができることで、短時間で理解し易くかつ重要な箇所を拾いながら効果的に速覧することで、ライブ状態でも迷わず、他ユーザでも間違った理解をされないような、アノテーション情報提供、付与環境を提供することができる。   With the above, you can select the shooting target while watching a live sports stadium and add annotation information, or select the shooting target while attending a live presentation such as a lecture or lecture, and the annotation information Annotation information for video objects that match the user's point of view from a portable device such as a portable terminal, in a variety of live annotation information on the premise that the image is taken with a duplicate photographic device Easy to understand in a short time because digest video can be composed of multiple video with important video sections from usage statistics information of the entire user, which can be easily given to users from synchronized video from multiple cameras Also, by picking up important points and speeding up effectively, you won't get lost even in live situations. So as not to be a wrong understanding even over The, it is possible to provide the annotation information provided, given environment.

なお、上記の第1の実施の形態におけるサーバ100、第2の実施の形態におけるサーバ300の構成要素の動作をプログラムとして構築し、当該サーバとして利用されるコンピュータにインストールして実行させる、または、ネットワークを介して流通させることが可能である。   In addition, the operation | movement of the component of the server 100 in said 1st Embodiment and the server 300 in 2nd Embodiment is constructed | assembled as a program, and it installs and runs on the computer utilized as the said server, or It is possible to distribute through a network.

また、構築されたプログラムをハードディスクや、フレキシブルディスク・CD−ROM等の可搬記憶媒体に格納し、コンピュータにインストールする、または、配布することが可能である。   Further, the constructed program can be stored in a portable storage medium such as a hard disk, a flexible disk, or a CD-ROM, and can be installed or distributed in a computer.

なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made within the scope of the claims.

本発明は、映像に対してアノテーションを付与する技術に適用可能である。   The present invention is applicable to a technique for adding an annotation to a video.

本発明の原理を説明するための図である。It is a figure for demonstrating the principle of this invention. 本発明の原理構成図である。It is a principle block diagram of this invention. 本発明の第1の実施の形態におけるシステム構成図である。It is a system configuration figure in a 1st embodiment of the present invention. 本発明の第1の実施の形態における場所撮影環境管理情報の例である。It is an example of the place imaging | photography environment management information in the 1st Embodiment of this invention. 本発明の第1の実施の形態におけるサーバの処理のフローチャートである。It is a flowchart of the process of the server in the 1st Embodiment of this invention. 本発明の第2の実施の形態におけるシステム構成図である。It is a system block diagram in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるサーバの処理のフローチャートである。It is a flowchart of the process of the server in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における映像端末キー対応付け処理部の入力例である。It is an example of an input of the video terminal key matching process part in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における映像端末キー対応付け処理部の結果の例である。It is an example of the result of the video terminal key matching process part in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における映像端末キー対応付け処理部のフローチャート(固定キー配列)である。It is a flowchart (fixed key arrangement | sequence) of the video terminal key matching process part in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における映像端末キー対応付け処理部のフローチャート(自由キー配列)である。It is a flowchart (free key arrangement | sequence) of the video terminal key matching process part in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における映像端末キー対応付け処理部を説明するための図(視点の角度が違う例)である。It is a figure (example from which the angle of a viewpoint differs) for demonstrating the video terminal key matching process part in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における複数映像開始点保持処理部のフローチャートである。It is a flowchart of the multiple image | video start point holding | maintenance process part in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における複数映像開始点保持処理部の登録結果(映像管理情報例)である。It is a registration result (an example of video management information) of the multiple video start point holding processing unit in the second embodiment of the present invention. 本発明の第2の実施の形態におけるアノテーション対象指定時の指定インタフェース例である。It is an example of the designation | designated interface at the time of annotation object designation | designated in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるアノテーション対象指定処理部のフローチャートである。It is a flowchart of the annotation object designation | designated process part in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるアノテーション付与処理部のフローチャートである。It is a flowchart of the annotation provision process part in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるアノテーション時間変換処理部のフローチャートである。It is a flowchart of the annotation time conversion process part in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるアノテーション登録処理部のアノテーション情報DBへの登録結果例である。It is an example of the registration result to annotation information DB of the annotation registration process part in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるアノテーション付きダイジェスト映像再生処理部の概要動作のフローチャートである。It is a flowchart of outline | summary operation | movement of the digest video reproduction | regeneration processing part with an annotation in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるアノテーション付きダイジェスト映像再生処理部のダイジェスト映像構成処理のフローチャート(指定ユーザパターン)である。It is a flowchart (designated user pattern) of the digest video structure process of the digest video reproduction process part with an annotation in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における映像分割方法の例である。It is an example of the image | video division | segmentation method in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるアノテーション付きダイジェスト映像再生処理部のダイジェスト映像構成処理のフローチャート(全ユーザ統計パターン)である。It is a flowchart (all user statistical pattern) of the digest video structure process of the digest video reproduction process part with an annotation in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるアノテーション付きダイジェスト映像再生処理部の同期再生処理のフローチャートである。It is a flowchart of the synchronous reproduction | regeneration processing of the digest video reproduction | regeneration processing part with an annotation in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるアノテーション付きダイジェスト映像再生処理部の表示例(同期再生)を示す図である。It is a figure which shows the example of a display (synchronous reproduction) of the digest video reproduction | regeneration processing part with an annotation in the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

100 サーバ
110 通信部
120 処理部
121 場所撮影環境管理情報取得手段
122 参照手段
123 座標変換手段
130 場所撮影環境管理情報記憶手段、DB
131 場所撮影環境管理情報
200 ユーザ端末
210 通信部
300 サーバ
301 場所撮影環境管理情報DB
302 ユーザ・端末毎映像端末キー対応情報DB
303 映像管理情報DB
304 アノテーション情報DB
310 映像端末キー対応付け処理部
320 複数映像開始点保持処理部
330 アノテーション対象指定処理部
340 アノテーション付与処理部
350 アノテーション時間変換処理部
360 アノテーション登録処理部
370 ダイジェスト映像再生処理部
100 server 110 communication unit 120 processing unit 121 location shooting environment management information acquisition unit 122 reference unit 123 coordinate conversion unit 130 location shooting environment management information storage unit, DB
131 Location shooting environment management information 200 User terminal 210 Communication unit 300 Server 301 Location shooting environment management information DB
302 User / terminal video terminal key correspondence information DB
303 Video management information DB
304 Annotation information DB
310 Video terminal key association processing unit 320 Multiple video start point holding processing unit 330 Annotation target designation processing unit 340 Annotation giving processing unit 350 Annotation time conversion processing unit 360 Annotation registration processing unit 370 Digest video reproduction processing unit

Claims (6)

複数の撮影対象の映像に対して、映像撮影中にライブでアノテーションを付与するサーバにおけるアノテーション付与方法であって、
ユーザ端末から撮影場所ID、撮影機器IDに対応する撮影対象絶対座標、視点IDに対応する視点基準点、撮影対象範囲絶対座標、撮影対象代表画像、撮影場所を含む場所撮影環境管理情報を取得して場所撮影環境管理情報記憶手段に格納する場所撮影環境管理情報取得ステップと、
前記場所撮影環境情報記憶手段を参照して、前記撮影場所IDに対応する場所に設置された撮影機器の撮影機器IDと、各撮影機器で撮影される撮影対象の重心である撮影対象代表座標からなる撮影対象絶対座標値と、視点基準点を取得する参照ステップと、
前記撮影場所IDに対応する前記各撮影機器の撮影対象代表座標と、前記視点基準点で示された変換パラメータを用いて、該撮影機器に対する撮影対象代表座標を、ユーザから見た場合の各撮影機器が撮影している撮影対象の配置であるユーザ座標系に座標変換し、該撮影対象絶対座標を前記場所撮影環境管理情報記憶手段に出力する座標変換ステップと、
を行うことを特徴とするアノテーション付与方法。
An annotation adding method in a server that annotates a plurality of shooting target videos live during video shooting,
The shooting location ID, the shooting target absolute coordinate corresponding to the shooting device ID, the viewpoint reference point corresponding to the viewpoint ID, the shooting target range absolute coordinate, the shooting target representative image, and the shooting location management information including the shooting location are acquired from the user terminal. A location shooting environment management information acquisition step stored in the location shooting environment management information storage means;
Referring to the location shooting environment information storage means, from the shooting device ID of the shooting device installed at the location corresponding to the shooting location ID and the shooting target representative coordinates that are the center of gravity of the shooting target shot by each shooting device. An imaging target absolute coordinate value and a reference step for obtaining a viewpoint reference point;
Each shooting when the shooting target representative coordinates for the shooting device are viewed from the user using the shooting target representative coordinates of the shooting device corresponding to the shooting location ID and the conversion parameter indicated by the viewpoint reference point. A coordinate conversion step of performing coordinate conversion to a user coordinate system, which is an arrangement of shooting targets that the device is shooting, and outputting the shooting target absolute coordinates to the location shooting environment management information storage means;
Annotation method characterized by performing
前記撮影対象の方を向いているユーザが、前記撮影対象を撮影した映像を表示するユーザ端末の複数の映像に対してライブでアノテーションを付与する際に、
前記ユーザ端末から指定された撮影場所ID,視点IDに基づいて、前記場所撮影環境管理情報記憶手段から前記撮影対象絶対座標を取得し、該撮影対象絶対座標に基づいて、前記ユーザが使用するユーザ端末の端末キーと撮影機器で撮影している撮影映像を対応付けてユーザ・端末毎映像端末キー対応情報記憶手段に保持する映像端末キー対応付けステップと、
前記ユーザ端末から撮影開始要求を受け付けると、現在日時を撮影開始日時として保持し、撮影機器が録画を開始していなければ、録画開始と撮影開始映像時間オフセットを0にセットし、該撮影機器が常時撮影している場合、現在の映像時間を撮影開始時間オフセットにセットし、撮影ID、撮影機器IDと共に映像管理情報記憶手段に格納する映像開始点保持ステップと、
前記ユーザ端末からアノテーション付与要求を取得すると、前記映像管理情報記憶手段から対象となる撮影機器IDの撮影開始日時、撮影開始映像時間オフセットを取得して、アノテーション付与映像時間を算出するアノテーション時間変換ステップと、
前記アノテーション付与映像時間と前記ユーザ端末から取得したアノテーション情報をアノテーション情報記憶手段に登録するアノテーション情報登録ステップと、
撮影済みの映像に対して指定特徴量を用いて映像区間を定義して、前記アノテーションを含む映像区間を対象にダイジェスト映像を生成し、前記アノテーション情報記憶手段から前記映像日時及び前記アノテーション情報を取得して、該ダイジェスト映像と同期表示するアノテーション付きダイジェスト映像再生ステップと、
を更に行う請求項1記載のアノテーション付与方法。
When a user facing the shooting target adds a live annotation to a plurality of videos on the user terminal that displays the video shot of the shooting target,
Based on the shooting location ID and viewpoint ID specified from the user terminal, the shooting target absolute coordinates are acquired from the location shooting environment management information storage means, and the user used by the user based on the shooting target absolute coordinates A video terminal key associating step of associating a terminal key of the terminal with a captured video imaged by the photographing device and storing the video in the terminal key correspondence information storage unit for each user / terminal;
When a shooting start request is received from the user terminal, the current date and time is held as the shooting start date and time. If the shooting device has not started recording, the recording start and shooting start video time offsets are set to 0, and the shooting device A video start point holding step of setting the current video time to a shooting start time offset and storing it in the video management information storage means together with the shooting ID and the shooting device ID, when shooting constantly;
An annotation time conversion step of obtaining the annotation start video time by acquiring the shooting start date and time and the shooting start video time offset of the target shooting device ID from the video management information storage unit when the annotation grant request is acquired from the user terminal When,
Annotation information registration step of registering the annotation giving video time and the annotation information acquired from the user terminal in the annotation information storage unit;
Define the video segment using the specified feature value for the captured video, generate the digest video for the video segment including the annotation, and acquire the video date and time and the annotation information from the annotation information storage means And an annotated digest video playback step for synchronously displaying the digest video,
The annotation assigning method according to claim 1, further comprising:
複数の撮影対象の映像に対して、映像撮影中にライブでアノテーションを付与するサーバにおけるアノテーション付与装置であって、
ユーザ端末から撮影場所ID、撮影機器IDに対応する撮影対象絶対座標、視点IDに対応する視点基準点、撮影対象範囲絶対座標、撮影対象代表画像、撮影場所を含む場所撮影環境管理情報を取得して場所撮影環境管理情報記憶手段に格納する場所撮影環境管理情報取得手段と、
前記場所撮影環境情報記憶手段を参照して、前記撮影場所IDに対応する場所に設置された撮影機器の撮影機器IDと、各撮影機器で撮影される撮影対象の重心である撮影対象代表座標からなる撮影対象絶対座標値と、視点基準点を取得する参照手段と、
前記撮影場所IDに対応する前記各撮影機器の撮影対象代表座標と、前記視点基準点で示された変換パラメータを用いて、該撮影機器に対する撮影対象代表座標を、ユーザから見た場合の各撮影機器が撮影している撮影対象の配置であるユーザ座標系に座標変換し、該撮影対象絶対座標を前記場所撮影環境管理情報記憶手段に出力する座標変換手段と、
を有することを特徴とするアノテーション付与装置。
An annotation adding device in a server that annotates a plurality of shooting target videos live during video shooting,
The shooting location ID, the shooting target absolute coordinate corresponding to the shooting device ID, the viewpoint reference point corresponding to the viewpoint ID, the shooting target range absolute coordinate, the shooting target representative image, and the shooting location management information including the shooting location are acquired from the user terminal. Location shooting environment management information acquisition means stored in the location shooting environment management information storage means,
Referring to the location shooting environment information storage means, from the shooting device ID of the shooting device installed at the location corresponding to the shooting location ID and the shooting target representative coordinates that are the center of gravity of the shooting target shot by each shooting device. An imaging target absolute coordinate value and a reference means for acquiring a viewpoint reference point;
Each shooting when the shooting target representative coordinates for the shooting device are viewed from the user using the shooting target representative coordinates of the shooting device corresponding to the shooting location ID and the conversion parameter indicated by the viewpoint reference point. A coordinate conversion unit that converts the coordinates into a user coordinate system that is an arrangement of shooting targets that the device is shooting, and outputs the shooting target absolute coordinates to the location shooting environment management information storage unit;
An annotation giving device characterized by comprising:
前記ユーザ端末から指定された撮影場所ID,視点IDに基づいて、前記場所撮影環境管理情報記憶手段から前記撮影対象絶対座標を取得し、該撮影対象絶対座標に基づいて、前記ユーザが使用するユーザ端末の端末キーと撮影機器で撮影している撮影映像を対応付けてユーザ・端末毎映像端末キー対応情報記憶手段に保持する映像端末キー対応付け手段と、
前記ユーザ端末から撮影開始要求を受け付けると、現在日時を撮影開始日時として保持し、撮影機器が録画を開始していなければ、録画開始と撮影開始映像時間オフセットを0にセットし、該撮影機器が常時撮影している場合、現在の映像時間を撮影開始時間オフセットにセットし、撮影ID、撮影機器IDと共に映像管理情報記憶手段に格納する映像開始点保持手段と、
前記ユーザ端末からアノテーション付与要求を取得すると、前記映像管理情報記憶手段から対象となる撮影機器IDの撮影開始日時、撮影開始映像時間オフセットを取得して、アノテーション付与映像時間を算出するアノテーション時間変換手段と、
前記アノテーション付与映像時間と前記ユーザ端末から取得したアノテーション情報をアノテーション情報記憶手段に登録するアノテーション情報登録手段と、
撮影済みの映像に対して指定特徴量を用いて映像区間を定義して、前記アノテーションを含む映像区間を対象にダイジェスト映像を生成し、前記アノテーション情報記憶手段から前記映像日時及び前記アノテーション情報を取得して、該ダイジェスト映像と同期表示するアノテーション付きダイジェスト映像再生手段と、
を更に有する請求項3記載のアノテーション付与装置。
Based on the shooting location ID and viewpoint ID specified from the user terminal, the shooting target absolute coordinates are acquired from the location shooting environment management information storage means, and the user used by the user based on the shooting target absolute coordinates Video terminal key associating means for associating a terminal key of the terminal with a captured video imaged by the photographing device and holding the video terminal key corresponding information storage means for each user / terminal;
When a shooting start request is received from the user terminal, the current date and time is held as the shooting start date and time. If the shooting device has not started recording, the recording start and shooting start video time offsets are set to 0, and the shooting device In the case of continuous shooting, a video start point holding unit that sets the current video time to a shooting start time offset and stores it in the video management information storage unit together with the shooting ID and the shooting device ID;
Annotation time conversion means for obtaining the annotation start video time by acquiring the shooting start date and time and the shooting start video time offset of the target shooting device ID from the video management information storage means upon obtaining the annotation assignment request from the user terminal When,
Annotation information registration means for registering the annotation-added video time and the annotation information acquired from the user terminal in the annotation information storage means;
Define the video segment using the specified feature value for the captured video, generate the digest video for the video segment including the annotation, and acquire the video date and time and the annotation information from the annotation information storage means An annotated digest video reproduction means for synchronously displaying the digest video;
The annotation applying apparatus according to claim 3, further comprising:
請求項3または4記載のアノテーション付与装置を構成する各手段としてコンピュータを機能させるためのアノテーション付与プログラム。   An annotation assignment program for causing a computer to function as each means constituting the annotation assignment apparatus according to claim 3. 請求項5記載のアノテーション付与プログラムを格納したことを特徴とするコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium storing the annotation assigning program according to claim 5.
JP2008238656A 2008-09-17 2008-09-17 Method, device and program for adding annotation, and computer readable recording medium Pending JP2010074437A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008238656A JP2010074437A (en) 2008-09-17 2008-09-17 Method, device and program for adding annotation, and computer readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008238656A JP2010074437A (en) 2008-09-17 2008-09-17 Method, device and program for adding annotation, and computer readable recording medium

Publications (1)

Publication Number Publication Date
JP2010074437A true JP2010074437A (en) 2010-04-02

Family

ID=42205824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008238656A Pending JP2010074437A (en) 2008-09-17 2008-09-17 Method, device and program for adding annotation, and computer readable recording medium

Country Status (1)

Country Link
JP (1) JP2010074437A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016224687A (en) * 2015-05-29 2016-12-28 キヤノン株式会社 Video processing device, video processing method, and program
CN114726816A (en) * 2021-01-05 2022-07-08 腾讯科技(深圳)有限公司 Method and device for establishing association relationship, electronic equipment and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016224687A (en) * 2015-05-29 2016-12-28 キヤノン株式会社 Video processing device, video processing method, and program
CN114726816A (en) * 2021-01-05 2022-07-08 腾讯科技(深圳)有限公司 Method and device for establishing association relationship, electronic equipment and storage medium
CN114726816B (en) * 2021-01-05 2023-06-06 腾讯科技(深圳)有限公司 Method and device for establishing association relationship, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
CN106170101B (en) Contents providing system, information processing equipment and content reproducing method
EP2398021A2 (en) Information processing apparatus, information processing method, and program
KR20160112898A (en) Method and apparatus for providing dynamic service based augmented reality
CN103248810A (en) Image processing device, image processing method, and program
JP2010093713A (en) Display control device, display control method, and program
US20210150223A1 (en) Information processing apparatus, information processing method, and storage medium
US10074216B2 (en) Information processing to display information based on position of the real object in the image
US20170256283A1 (en) Information processing device and information processing method
EP2795402A1 (en) A method, an apparatus and a computer program for determination of an audio track
JP6095618B2 (en) Information processing apparatus, information processing method, and information processing program
CN106385614A (en) Picture synthesis method and apparatus
US9779306B2 (en) Content playback system, server, mobile terminal, content playback method, and recording medium
JPWO2019026919A1 (en) Image processing system, image processing method, and program
JP2023153790A (en) program
JP2010074437A (en) Method, device and program for adding annotation, and computer readable recording medium
WO2017022296A1 (en) Information management device, information management method, image reproduction device and image reproduction method
JP2014182650A (en) Image sharing device, method for controlling image sharing device and program
JP2020057329A (en) Guide system
JP2017108356A (en) Image management system, image management method and program
JP2012244343A (en) Multi-image reproduction device and multi-image reproduction method
KR102372181B1 (en) Display device and method for control thereof
JP5114140B2 (en) Image display system and method
JP2020071519A (en) Guide device and guide system
JP6849851B2 (en) Shooting system, shooting device and user shooting method
WO2014033357A1 (en) Multitrack media creation