JP2010061231A - Three-dimensional moving image reproduction device, three-dimensional moving image reproduction method, and program thereof - Google Patents

Three-dimensional moving image reproduction device, three-dimensional moving image reproduction method, and program thereof Download PDF

Info

Publication number
JP2010061231A
JP2010061231A JP2008223933A JP2008223933A JP2010061231A JP 2010061231 A JP2010061231 A JP 2010061231A JP 2008223933 A JP2008223933 A JP 2008223933A JP 2008223933 A JP2008223933 A JP 2008223933A JP 2010061231 A JP2010061231 A JP 2010061231A
Authority
JP
Japan
Prior art keywords
display
moving image
information
additional information
dimensional moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008223933A
Other languages
Japanese (ja)
Other versions
JP5047103B2 (en
Inventor
Takehiko Watanabe
岳彦 渡邉
Takuya Ogawa
琢也 小川
Makoto Nakamura
誠 中村
Tomoko Ito
智子 伊藤
Shigetetsu Ogawara
成哲 小河原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Comware Corp
Original Assignee
NTT Comware Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Comware Corp filed Critical NTT Comware Corp
Priority to JP2008223933A priority Critical patent/JP5047103B2/en
Publication of JP2010061231A publication Critical patent/JP2010061231A/en
Application granted granted Critical
Publication of JP5047103B2 publication Critical patent/JP5047103B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a proper three-dimensional moving image reproduction device, suitable for performing indirect edition on a 3D image displayed on a 3D display by a space mouse. <P>SOLUTION: The three-dimensional moving image reproduction device is configured to detect a designated position by a space mouth in a 3D image, according to the change of the position of the space mouse, and to detect a plurality of display positions of 3D meta data in the 3D moving image among the designated positions, based on the position specification information received from the space mouse and the designated position by the space mouth at prescribed time intervals; to detect the time elapsed, from the start time of the 3D moving image displaying the 3D data in the 3D moving image, based on the start time of the 3D image and the time when the display position of the 3D data has been detected; and to record a plurality of display attribute information configured of the display position of the 3D data and the elapsed time, from the start time of the 3D moving image, when the 3D meta data are displayed at the display position in the 3D meta data DB at each display position of the 3D meta data. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、3Dディスプレイに3D動画像とメタデータとを表示する3次元動画像再生装置及び3次元動画像再生方法ならびにそのプログラムに関する。   The present invention relates to a three-dimensional moving image reproduction device, a three-dimensional moving image reproduction method, and a program for displaying a 3D moving image and metadata on a 3D display.

動画像中に表示された対象画像を編集する技術は多く存在しており、例えば、2D(2Dimension)ディスプレイ上に表示された2次元画像中の対象物に対するマウス等の入力装置を用いた編集や、2Dディスプレイ上に表示された3次元動画像中の対象物に対する空間マウス等の入力装置を用いた編集が、動画像編集ソフトや、コンピュータゲームアプリケーションなどで応用されている。なお空間マウスとは、実空間の位置の変動によってその変動に基づく移動量から画像上の指定位置を特定入力するための入力装置である。そして、動画像中に表示されている3D(3Dimension)情報により表示されている2D画像上において動画像の編集を行う技術が特許文献1および特許文献2に開示されている。
“ソリッドレイ研究所 オメガスペース概要”、「online」、「平成20年7月7日検索」、インターネット<URL:http://www.solidray.co.jp/product/omega/index.html#1> “Autodesk 3ds Max”、「online」、「平成20年7月7日検索」、インターネット<URL:http://usa.autodesk.com/adsk/servlet/index?id=5659302&siteID=123112>
There are many techniques for editing a target image displayed in a moving image. For example, editing using an input device such as a mouse for an object in a two-dimensional image displayed on a 2D (2Dimension) display is possible. Editing using an input device such as a spatial mouse for an object in a three-dimensional moving image displayed on a 2D display is applied to moving image editing software, a computer game application, or the like. The spatial mouse is an input device for specifically inputting a designated position on an image from a movement amount based on a change in the position of the real space. Patent Documents 1 and 2 disclose a technique for editing a moving image on a 2D image displayed by 3D (3Dimension) information displayed in the moving image.
“Overview of Solid Ray Laboratories Omega Space”, “online”, “Search July 7, 2008”, Internet <URL: http://www.solidray.co.jp/product/omega/index.html#1 > “Autodesk 3ds Max”, “online”, “July 7, 2008 search”, Internet <URL: http://usa.autodesk.com/adsk/servlet/index?id=5659302&siteID=123112>

ここで動画像の編集には、オリジナルの動画像中の編集対象画像を編集する直接編集と、オリジナルの動画像とは別の情報として記憶させ当該動画像中に表示させる付加情報を編集する間接編集とがあるが、間接編集を空間マウスで行う場合に適切な技術の開発が望まれている。   Here, in the editing of the moving image, direct editing for editing the image to be edited in the original moving image and indirect editing for additional information to be stored as information different from the original moving image and displayed in the moving image. Although there is editing, it is desired to develop an appropriate technique when performing indirect editing with a spatial mouse.

そこでこの発明は、3Dディスプレイに表示される3D動画像上の間接編集を空間マウスで行う場合に適切な3次元動画像再生装置及び3次元動画像再生方法ならびにそのプログラムを提供することを目的としている。   Accordingly, an object of the present invention is to provide a three-dimensional moving image reproducing apparatus, a three-dimensional moving image reproducing method, and a program thereof suitable for performing indirect editing on a 3D moving image displayed on a 3D display with a spatial mouse. Yes.

上記目的を達成するために、本発明は、予め記憶する3次元動画像を3次元動画像表示手段に再生出力する3次元動画像再生装置であって、実空間に存在する空間入力装置の位置を検出し、当該位置の変化に応じて前記3次元動画像中の前記空間入力装置による指定位置を検出する指定位置検出手段と、前記空間入力装置による指定位置のうち、前記3次元動画像中の付加情報の表示位置を、前記空間入力装置から受信した位置特定情報、または所定の時間間隔における前記空間入力装置による指定位置の何れかに基づいて複数検出する付加情報表示位置検出手段と、前記3次元動画像の開始時刻と、前記付加情報の表示位置を検出した時刻とに基づいて、前記3次元動画像中において前記付加情報を表示する前記開始時刻からの経過時間を検出する表示時刻検出手段と、前記付加情報の前記表示位置とその表示位置において前記付加情報を表示する前記3次元動画像の開始時刻からの経過時間とからなる表示属性情報を、当該付加情報の表示位置毎に表示属性情報記憶手段へ複数記録する表示属性情報記録手段と、を備えることを特徴とする3次元動画像再生装置である。   In order to achieve the above object, the present invention provides a three-dimensional moving image reproduction apparatus for reproducing and outputting a preliminarily stored three-dimensional moving image on a three-dimensional moving image display means, the position of the spatial input device existing in real space. And a designated position detecting means for detecting a designated position by the spatial input device in the three-dimensional moving image according to a change in the position, and among the designated positions by the spatial input device, in the three-dimensional moving image Additional information display position detecting means for detecting a plurality of additional information display positions based on either the position specifying information received from the spatial input device or the designated position by the spatial input device at a predetermined time interval; Based on the start time of the three-dimensional moving image and the time when the display position of the additional information is detected, an elapsed time from the start time for displaying the additional information in the three-dimensional moving image is calculated. Display attribute information including display time detection means to be output, and the display position of the additional information and the elapsed time from the start time of the three-dimensional moving image for displaying the additional information at the display position. A display attribute information recording unit that records a plurality of information to a display attribute information storage unit for each display position.

また本発明は、上述の3次元動画像再生装置において、前記付加情報の複数の前記表示位置から、当該複数の表示位置を結んだ表示軌跡を特定する表示軌跡情報を算出する表示軌跡算出手段と、を備え、前記表示属性情報記録手段は、前記算出した表示軌跡情報をさらに含む前記表示属性情報を、前記付加情報の表示位置毎に表示属性情報記憶手段へ複数記録することを特徴とする。   According to the present invention, in the above-described three-dimensional moving image reproduction device, display trajectory calculation means for calculating display trajectory information for specifying a display trajectory connecting the plurality of display positions from the plurality of display positions of the additional information. The display attribute information recording means records a plurality of the display attribute information further including the calculated display trajectory information in the display attribute information storage means for each display position of the additional information.

また本発明は、上述の3次元動画像再生装置において、前記表示軌跡情報は、前記付加情報の複数の前記表示位置を結んだ各直線を表わす式の各係数であることを特徴とする。   Further, the present invention is characterized in that, in the above-described three-dimensional moving image reproduction apparatus, the display trajectory information is each coefficient of an expression representing each straight line connecting the plurality of display positions of the additional information.

また本発明は、上述の3次元動画像再生装置において、前記表示軌跡情報は、前記付加情報の複数の前記表示位置を結んだスプライン曲線を表わす式の各係数であることを特徴とする。   Further, the present invention is characterized in that, in the above-described three-dimensional moving image reproduction device, the display trajectory information is each coefficient of an expression representing a spline curve connecting a plurality of the display positions of the additional information.

また本発明は、上述の3次元動画像再生装置において、前記複数検出した前記3次元動画像中の付加情報の表示位置のうち連続する複数の表示位置が、当該連続する複数の表示位置の始点の表示位置と次点の表示位置とを結ぶ直線の延伸線を中心とした所定の半径の仮想円柱内に位置するかを、前記次点の表示位置の次の表示位置から順に判定し、当該仮想円柱内に初めて位置しないと判定した表示位置の1つ前の表示位置と前記始点の表示位置とを結んだ直線を表わす式の係数からなる表示軌跡情報を算出する表示軌跡算出手段と、を備え、前記表示軌跡算出手段は、前記仮想円柱内に初めて位置しないと判定した表示位置の1つ前の表示位置を始点として前記表示軌跡情報を繰り返し算出し、前記表示属性情報記録手段は、前記算出した表示軌跡情報をさらに含む前記表示属性情報を、前記付加情報の表示位置毎に表示属性情報記憶手段へ複数記録することを特徴とする。   According to the present invention, in the above-described three-dimensional moving image reproduction device, a plurality of continuous display positions among the display positions of the additional information in the plurality of detected three-dimensional moving images are start points of the plurality of continuous display positions. Whether or not it is located in a virtual cylinder with a predetermined radius centered on an extension line of a straight line connecting the display position of the next point and the display position of the next point, in order from the display position next to the display position of the next point, Display trajectory calculation means for calculating display trajectory information comprising coefficients of a formula representing a straight line connecting a display position immediately before a display position determined not to be located in the virtual cylinder for the first time and the display position of the start point; The display trajectory calculating means repeatedly calculates the display trajectory information starting from the display position immediately before the display position determined not to be located in the virtual cylinder for the first time, and the display attribute information recording means Calculated The display attribute information further including 示軌 trace information, characterized by a plurality of recording to the display attribute information storage unit for each display position of the additional information.

また本発明は、上述の3次元動画像再生装置において、前記表示軌跡情報で表わされる、前記付加情報の複数の前記表示位置を結んだ表示軌跡と、予め定められた軌跡テンプレートとを比較して、一致する軌跡テンプレートを特定する軌跡テンプレート特定手段と、を備え、前記表示属性情報記録手段は、前記軌跡テンプレートをさらに含む前記表示属性情報を、前記付加情報の表示位置毎に表示属性情報記憶手段へ複数記録することを特徴とする。   According to the present invention, in the above-described 3D moving image reproduction device, a display trajectory connecting the plurality of display positions of the additional information represented by the display trajectory information is compared with a predetermined trajectory template. Trajectory template specifying means for specifying a matching trajectory template, wherein the display attribute information recording means displays the display attribute information further including the trajectory template for each display position of the additional information. A plurality of recordings are recorded.

また本発明は、上述の3次元動画像再生装置において、前記複数検出した前記3次元動画像中の付加情報の表示位置のうち2つの連続する各表示位置とそれら表示位置の表示時刻とに基づいて、それら2つの連続する各表示位置における前記付加情報の移動速度と移動方向とを算出する移動情報算出手段と、前記表示属性情報記録手段は、前記算出した移動速度と移動方向とをさらに含む前記表示属性情報を、前記付加情報の表示位置毎に表示属性情報記憶手段へ複数記録することを特徴とする。   According to the present invention, in the above-described three-dimensional moving image reproduction device, two consecutive display positions among the display positions of the additional information in the plurality of detected three-dimensional moving images and display times of these display positions are based. The movement information calculation means for calculating the movement speed and movement direction of the additional information at each of the two consecutive display positions, and the display attribute information recording means further include the calculated movement speed and movement direction. A plurality of the display attribute information is recorded in a display attribute information storage unit for each display position of the additional information.

また本発明は、上述の3次元動画像再生装置において、前記3次元動画像を3次元動画像表示手段に再生出力する3次元動画像再生手段と、前記付加情報の表示属性情報を前記表示属性情報記憶手段から読み取って、当該表示属性情報に基づいて前記付加情報を前記3次元動画像中に表示する付加情報表示手段と、前記空間入力装置による指定位置に基づいて、前記付加情報が選択されたかを判定する付加情報選択有無判定手段と、前記空間入力装置による指定位置の移動を検出する指定位置移動検出手段と、前記付加情報が選択されている間に、前記指定位置の移動を検出した場合に、前記3次元動画像中に表示している付加情報の前記移動後の表示軌跡情報を、当該付加情報に関する表示軌跡情報と、前記指定位置の移動量に基づいて再計算する軌跡再計算手段と、を備え、前記付加情報表示手段は、前記移動後の表示軌跡情報に基づいて、前記3次元動画像中に前記付加情報を表示することを特徴とする。   According to the present invention, in the above-described three-dimensional moving image reproduction device, the three-dimensional moving image reproducing unit that reproduces and outputs the three-dimensional moving image to the three-dimensional moving image display unit, and the display attribute information of the additional information as the display attribute The additional information is read based on the display attribute information, and the additional information display means for displaying the additional information in the three-dimensional moving image based on the display attribute information, and the additional information is selected based on the designated position by the spatial input device. Additional information selection presence / absence determining means for determining whether or not the designated position movement detecting means for detecting movement of the designated position by the spatial input device, and movement of the designated position is detected while the additional information is selected. In this case, the display trajectory information after the movement of the additional information displayed in the three-dimensional moving image is reproduced based on the display trajectory information related to the additional information and the movement amount of the designated position. And a trajectory recalculation means for calculation, the additional information display means, based on the display locus information after the mobile, and displaying the additional information in the 3-dimensional moving image.

また本発明は、予め記憶する3次元動画像を3次元動画像表示手段に再生出力する3次元動画像再生装置における処理方法であって、前記3次元動画像再生装置の指定位置検出手段が、実空間に存在する空間入力装置の位置を検出し、当該位置の変化に応じて前記3次元動画像中の前記空間入力装置による指定位置を検出し、前記3次元動画像再生装置の付加情報表示位置検出手段が、前記空間入力装置による指定位置のうち、前記3次元動画像中の付加情報の表示位置を、前記空間入力装置から受信した位置特定情報、または所定の時間間隔における前記空間入力装置による指定位置の何れかに基づいて複数検出し、前記3次元動画像再生装置の表示時刻検出手段が、前記3次元動画像の開始時刻と、前記付加情報の表示位置を検出した時刻とに基づいて、前記3次元動画像中において前記付加情報を表示する前記開始時刻からの経過時間を検出し、前記3次元動画像再生装置の表示属性情報記録手段が、前記付加情報の前記表示位置とその表示位置において前記付加情報を表示する前記3次元動画像の開始時刻からの経過時間とからなる表示属性情報を、当該付加情報の表示位置毎に表示属性情報記憶手段へ複数記録することを特徴とする処理方法である。   The present invention also relates to a processing method in a three-dimensional moving image reproduction apparatus that reproduces and outputs a three-dimensional moving image stored in advance to a three-dimensional moving image display means, wherein the designated position detection means of the three-dimensional moving image reproduction apparatus comprises: The position of the spatial input device existing in the real space is detected, the designated position by the spatial input device in the three-dimensional moving image is detected according to the change of the position, and the additional information display of the three-dimensional moving image reproduction device The position detection means receives the display position of the additional information in the three-dimensional moving image among the specified positions by the spatial input device, the position specifying information received from the spatial input device, or the spatial input device at a predetermined time interval When the display time detection means of the three-dimensional moving image reproduction apparatus detects the start time of the three-dimensional moving image and the display position of the additional information. Based on the above, an elapsed time from the start time for displaying the additional information in the three-dimensional moving image is detected, and display attribute information recording means of the three-dimensional moving image reproducing apparatus is configured to display the display of the additional information. A plurality of display attribute information including a position and an elapsed time from the start time of the three-dimensional moving image for displaying the additional information at the display position are recorded in the display attribute information storage unit for each display position of the additional information. Is a processing method characterized by

また本発明は、上述の処理方法において、前記3次元動画像再生装置の表示軌跡算出手段が、前記付加情報の複数の前記表示位置から、当該複数の表示位置を結んだ表示軌跡を特定する表示軌跡情報を算出し、前記3次元動画像再生装置の前記表示属性情報記録手段は、前記算出した表示軌跡情報をさらに含む前記表示属性情報を、前記付加情報の表示位置毎に表示属性情報記憶手段へ複数記録することを特徴とする。   According to the present invention, in the processing method described above, the display trajectory calculating means of the three-dimensional moving image playback device specifies a display trajectory connecting the plurality of display positions from the plurality of display positions of the additional information. Trajectory information is calculated, and the display attribute information recording means of the three-dimensional moving image reproduction device displays the display attribute information further including the calculated display trajectory information for each display position of the additional information. A plurality of recordings are recorded.

また本発明は、上述の処理方法において、前記3次元動画像再生装置の表示軌跡算出手段が、前記複数検出した前記3次元動画像中の付加情報の表示位置のうち連続する複数の表示位置が、当該連続する複数の表示位置の始点の表示位置と次点の表示位置とを結ぶ直線の延伸線を中心とした所定の半径の仮想円柱内に位置するかを、前記次点の表示位置の次の表示位置から順に判定し、当該仮想円柱内に初めて位置しないと判定した表示位置の1つ前の表示位置と前記始点の表示位置とを結んだ直線を表わす式の係数からなる表示軌跡情報を算出し、前記3次元動画像再生装置の前記表示軌跡算出手段が、前記仮想円柱内に初めて位置しないと判定した表示位置の1つ前の表示位置を始点として前記表示軌跡情報を繰り返し算出し、前記3次元動画像再生装置の前記表示属性情報記録手段が、前記算出した表示軌跡情報をさらに含む前記表示属性情報を、前記付加情報の表示位置毎に表示属性情報記憶手段へ複数記録することを特徴とする。   According to the present invention, in the processing method described above, the display trajectory calculation unit of the three-dimensional moving image reproduction device has a plurality of continuous display positions among the display positions of the additional information in the plurality of detected three-dimensional moving images. , Whether the position of the display point of the next point is within a virtual cylinder having a predetermined radius centered on an extension line of a straight line connecting the display position of the start point and the display point of the next point. Display trajectory information comprising coefficients of an expression representing a straight line connecting the display position immediately before the display position determined in order from the next display position and not first positioned in the virtual cylinder and the display position of the start point And the display trajectory calculation means of the three-dimensional moving image reproduction apparatus repeatedly calculates the display trajectory information starting from the display position immediately before the display position determined not to be positioned for the first time in the virtual cylinder. The third order The display attribute information recording unit of the moving image reproducing apparatus records a plurality of the display attribute information further including the calculated display trajectory information in a display attribute information storage unit for each display position of the additional information. .

また本発明は、上述の処理方法において、前記3次元動画像再生装置の軌跡テンプレート特定手段が、前記表示軌跡情報で表わされる、前記付加情報の複数の前記表示位置を結んだ表示軌跡と、予め定められた軌跡テンプレートとを比較して、一致する軌跡テンプレートを特定し、前記3次元動画像再生装置の前記表示属性情報記録手段が、前記軌跡テンプレートをさらに含む前記表示属性情報を、前記付加情報の表示位置毎に表示属性情報記憶手段へ複数記録することを特徴とする。   According to the present invention, in the processing method described above, a trajectory template specifying unit of the three-dimensional moving image playback device includes a display trajectory connecting the plurality of display positions of the additional information represented by the display trajectory information, The matching trajectory template is compared to identify a matching trajectory template, and the display attribute information recording means of the three-dimensional moving image reproduction device uses the display attribute information further including the trajectory template as the additional information. A plurality of display positions are recorded in the display attribute information storage means.

また本発明は、上述の処理方法において、前記3次元動画像再生装置の移動情報算出手段が、前記複数検出した前記3次元動画像中の付加情報の表示位置のうち2つの連続する各表示位置とそれら表示位置の表示時刻とに基づいて、それら2つの連続する各表示位置における前記付加情報の移動速度と移動方向とを算出し、前記3次元動画像再生装置の前記表示属性情報記録手段が、前記算出した移動速度と移動方向とをさらに含む前記表示属性情報を、前記付加情報の表示位置毎に表示属性情報記憶手段へ複数記録することを特徴とする。   According to the present invention, in the processing method described above, the movement information calculation unit of the three-dimensional moving image reproduction device includes two consecutive display positions among the display positions of the additional information in the plurality of detected three-dimensional moving images. And the display attribute information recording means of the three-dimensional moving image reproduction device, calculating the moving speed and moving direction of the additional information at each of the two consecutive display positions. A plurality of the display attribute information further including the calculated moving speed and moving direction is recorded in a display attribute information storage unit for each display position of the additional information.

また本発明は、上述の処理方法において、前記3次元動画像再生装置の3次元動画像再生手段が、前記3次元動画像を3次元動画像表示手段に再生出力し、前記3次元動画像再生装置の付加情報表示手段が、前記付加情報の表示属性情報を前記表示属性情報記憶手段から読み取って、当該表示属性情報に基づいて前記付加情報を前記3次元動画像中に表示し、前記3次元動画像再生装置の付加情報選択有無判定手段が、前記空間入力装置による指定位置に基づいて、前記付加情報が選択されたかを判定し、前記3次元動画像再生装置の指定位置移動検出手段が、前記空間入力装置による指定位置の移動を検出し、前記3次元動画像再生装置の軌跡再計算手段が、前記付加情報が選択されている間に、前記指定位置の移動を検出した場合に、前記3次元動画像中に表示している付加情報の前記移動後の表示軌跡情報を、当該付加情報に関する表示軌跡情報と、前記指定位置の移動量に基づいて再計算し、前記3次元動画像再生装置の前記付加情報表示手段が、前記移動後の表示軌跡情報に基づいて、前記3次元動画像中に前記付加情報を表示することを特徴とする。   According to the present invention, in the processing method described above, the three-dimensional moving image reproducing unit of the three-dimensional moving image reproducing device reproduces and outputs the three-dimensional moving image to a three-dimensional moving image display unit, and the three-dimensional moving image reproducing unit The additional information display unit of the apparatus reads the display attribute information of the additional information from the display attribute information storage unit, displays the additional information in the three-dimensional moving image based on the display attribute information, and The additional information selection presence / absence determining means of the moving image reproduction device determines whether the additional information has been selected based on the designated position by the spatial input device, and the designated position movement detecting means of the three-dimensional moving image reproduction device includes: When the movement of the designated position is detected by the spatial input device, and the trajectory recalculation unit of the three-dimensional moving image reproduction device detects the movement of the designated position while the additional information is selected, The display trajectory information after the movement of the additional information displayed in the three-dimensional moving image is recalculated based on the display trajectory information related to the additional information and the movement amount of the designated position, and the three-dimensional moving image is reproduced. The additional information display means of the apparatus displays the additional information in the three-dimensional moving image based on the display trajectory information after the movement.

また本発明は、予め記憶する3次元動画像を3次元動画像表示手段に再生出力する3次元動画像再生装置のコンピュータを、実空間に存在する空間入力装置の位置を検出し、当該位置の変化に応じて前記3次元動画像中の前記空間入力装置による指定位置を検出する指定位置検出手段、前記空間入力装置による指定位置のうち、前記3次元動画像中の付加情報の表示位置を、前記空間入力装置から受信した位置特定情報、または所定の時間間隔における前記空間入力装置による指定位置の何れかに基づいて複数検出する付加情報表示位置検出手段、前記3次元動画像の開始時刻と、前記付加情報の表示位置を検出した時刻とに基づいて、前記3次元動画像中において前記付加情報を表示する前記開始時刻からの経過時間を検出する表示時刻検出手段、前記付加情報の前記表示位置とその表示位置において前記付加情報を表示する前記3次元動画像の開始時刻からの経過時間とからなる表示属性情報を、当該付加情報の表示位置毎に表示属性情報記憶手段へ複数記録する表示属性情報記録手段、として機能させるためのプログラムである。   According to the present invention, a computer of a three-dimensional moving image reproduction apparatus that reproduces and outputs a three-dimensional moving image stored in advance to a three-dimensional moving image display means detects the position of the spatial input device existing in the real space, and A designated position detecting means for detecting a designated position by the spatial input device in the three-dimensional moving image according to a change, and a display position of additional information in the three-dimensional moving image among the designated positions by the spatial input device, A plurality of additional information display position detection means for detecting a plurality of positions based on any one of the position specifying information received from the spatial input device or the designated position by the spatial input device at a predetermined time interval; and the start time of the three-dimensional moving image; Based on the time when the display position of the additional information is detected, a display time detection for detecting an elapsed time from the start time for displaying the additional information in the three-dimensional moving image. Means for displaying the display attribute information including the display position of the additional information and the elapsed time from the start time of the three-dimensional moving image for displaying the additional information at the display position for each display position of the additional information. This is a program for causing a plurality of display attribute information recording units to be recorded in the information storage unit.

また本発明は、前記コンピュータを、さらに、前記付加情報の複数の前記表示位置から、当該複数の表示位置を結んだ表示軌跡を特定する表示軌跡情報を算出する表示軌跡算出手段、として機能させ、前記表示属性情報記録手段が、前記算出した表示軌跡情報をさらに含む前記表示属性情報を、前記付加情報の表示位置毎に表示属性情報記憶手段へ複数記録することを特徴とするプログラムである。   The present invention further causes the computer to function as display trajectory calculation means for calculating display trajectory information for specifying a display trajectory connecting the plurality of display positions from the plurality of display positions of the additional information, The display attribute information recording unit records a plurality of the display attribute information further including the calculated display trajectory information in a display attribute information storage unit for each display position of the additional information.

また本発明は、前記コンピュータを、さらに、前記3次元動画像を3次元動画像表示手段に再生出力する3次元動画像再生手段、前記付加情報の表示属性情報を前記表示属性情報記憶手段から読み取って、当該表示属性情報に基づいて前記付加情報を前記3次元動画像中に表示する付加情報表示手段、前記空間入力装置による指定位置に基づいて、前記付加情報が選択されたかを判定する付加情報選択有無判定手段、前記空間入力装置による指定位置の移動を検出する指定位置移動検出手段、前記付加情報が選択されている間に、前記指定位置の移動を検出した場合に、前記3次元動画像中に表示している付加情報の前記移動後の表示軌跡情報を、当該付加情報に関する表示軌跡情報と、前記指定位置の移動量に基づいて再計算する軌跡再計算手段、として機能させ、前記付加情報表示手段が、前記移動後の表示軌跡情報に基づいて、前記3次元動画像中に前記付加情報を表示することを特徴とするプログラムである。   According to the present invention, the computer further includes a three-dimensional moving image reproduction unit that reproduces and outputs the three-dimensional moving image to a three-dimensional moving image display unit, and reads the display attribute information of the additional information from the display attribute information storage unit. Additional information display means for displaying the additional information in the three-dimensional moving image based on the display attribute information, and additional information for determining whether the additional information is selected based on a designated position by the spatial input device A selection presence / absence determination unit; a specified position movement detection unit that detects movement of a specified position by the spatial input device; and when the movement of the specified position is detected while the additional information is selected, the three-dimensional moving image Trajectory re-calculation for recalculating the display trajectory information after the movement of the additional information displayed inside based on the display trajectory information related to the additional information and the amount of movement of the specified position Means, to function as the additional information display means, based on the display locus information after the mobile is a program and displaying said additional information in said three-dimensional moving image.

本発明によれば、3D動画像上に合成表示させる3Dメタデータの作成を、空間マウスを用いた容易な操作(空間における空間マウスの上下左右前後への移動のみ)により行うことができる。
また、本発明によれば、3Dメタデータの作成時に、空間マウスにより指定した3D動画像上の全ての位置を3Dメタデータの表示軌跡の情報として保持せず、離散的な複数のサンプルポイントのみを軌跡情報として保持することとなるため、格納するデータの削減を行うことができる。
また、本発明によれば、3Dメタデータの表示軌跡の編集を、空間マウスを用いた容易な操作(空間における空間マウスの上下左右前後への移動のみ)により行うことができる。
また、本発明によれば、3Dメタデータの表示軌跡の編集時においてユーザが表示軌跡を選択する際には、3Dメタデータを直接指定しなくとも、一定の範囲であれば3Dメタデータを選択可能とするため、容易に編集のための3Dメタデータの選択を行うことができる。
また、各3Dメタデータの表示軌跡についての、定型テンプレートや、移動速度や移動方向を動き表現情報として記憶しておくことができるため、3D動画像において表示される3Dメタデータの検索などを行う機能が備えられていた場合には、定型テンプレートや移動速度や移動方向を被検索用データとして指定することにより、3D動画像上に表示される3Dメタデータの検索の処理を行うことが可能となる。
また、本発明によれば、ユーザが3D動画像再生時に表示されている3Dメタデータの編集を行うと、直ちにその編集後の表示軌跡が算出されて、その表示軌跡により3Dメタデータの合成表示が行われるため、3Dメタデータの編集をリアルタイムで行うことが可能となる。
また、本発明によれば、3Dメタデータの作成時にユーザが空間マウスを移動させることで、自動的に3Dメタデータの表示位置が特定されるため、容易に3Dメタデータの表示軌跡を入力することができる。
According to the present invention, 3D metadata to be synthesized and displayed on a 3D moving image can be created by an easy operation using a space mouse (only movement of the space mouse up and down, left and right and back and forth in space).
In addition, according to the present invention, at the time of creating 3D metadata, not all the positions on the 3D moving image designated by the spatial mouse are held as 3D metadata display trajectory information, and only a plurality of discrete sample points are stored. Is stored as trajectory information, so that data to be stored can be reduced.
In addition, according to the present invention, editing of the display trajectory of 3D metadata can be performed by an easy operation using a space mouse (only movement of the space mouse up and down, left and right and back and forth in space).
Further, according to the present invention, when a user selects a display track when editing a display track of 3D metadata, the 3D metadata is selected within a certain range without directly specifying the 3D metadata. Therefore, it is possible to easily select 3D metadata for editing.
In addition, a fixed template, a moving speed and a moving direction of each 3D metadata display trajectory can be stored as motion expression information, so that the 3D metadata displayed in the 3D moving image is searched. When the function is provided, it is possible to perform processing for searching for 3D metadata displayed on the 3D moving image by designating the template, the moving speed, and the moving direction as the data to be searched. Become.
Further, according to the present invention, when the user edits the 3D metadata displayed at the time of playback of the 3D moving image, the display trajectory after the editing is immediately calculated, and the composite display of the 3D metadata is performed based on the display trajectory. Therefore, 3D metadata can be edited in real time.
Further, according to the present invention, since the display position of the 3D metadata is automatically specified by moving the spatial mouse when the user creates the 3D metadata, the display locus of the 3D metadata is easily input. be able to.

以下、本発明の一実施形態による3次元動画像再生装置を図面を参照して説明する。
図1は同実施形態による3次元動画像再生装置の構成を示すブロック図である。
この図より、3次元動画像再生装置は、空間マウス11、空間マウス制御部12、3D動画DB13、3DメタデータDB14(表示属性情報記憶手段)、3Dディスプレイ15、再生処理部16(付加情報表示位置検出手段、表示時刻検出手段、3次元動画像再生手段、付加情報表示手段)、動き表現情報生成部17(表示軌跡算出手段、軌跡テンプレート特定手段、移動情報算出手段、軌跡再計算手段)、サンプルポイント生成部18(指定位置検出手段、付加情報選択有無判定手段、指定位置移動検出手段)、3Dメタデータ生成編集部19(表示属性情報記録手段)の各処理部および記憶部を備えている。ここで、空間マウス11はユーザが手に持って実空間における位置を変化させることによって情報の入力を3次元動画像再生装置へ行うものであり、3次元動画像再生装置はこの空間マウス11の変動によってその変動に基づく移動量から画像上の指定位置等を検出する。具体的な処理としては、ユーザが空間マウス11を実空間で移動させると、その空間マウスとの距離や相対位置を3次元動画像再生装置に接続または取り付けられた検出部が赤外線などにより計測し、その計測結果に基づいて空間マウス制御部12が3D画像上の位置を特定する処理を行う。また空間マウス制御部12は、空間マウス11からの情報を受信して空間マウスの指定位置等の検出を行う処理部である。また、3D動画DB13は3D動画像のデータを記憶するDB(データベース)である。また3DメタデータDB14は3D動画像に合成表示させる付加情報である3Dメタデータを記憶している。また3Dディスプレイ15は、パララックスバリア方式(視差バリア方式)等の技術により、平面に表示された画像を観た人間が3次元に見えるような3D画像表示専用のディスプレイである。
Hereinafter, a three-dimensional moving image reproduction apparatus according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a three-dimensional moving image reproduction apparatus according to the embodiment.
From this figure, the three-dimensional moving image reproduction apparatus includes a spatial mouse 11, a spatial mouse control unit 12, a 3D moving image DB 13, a 3D metadata DB 14 (display attribute information storage means), a 3D display 15, a reproduction processing unit 16 (additional information display). Position detection means, display time detection means, three-dimensional moving image reproduction means, additional information display means), motion expression information generation unit 17 (display locus calculation means, locus template specification means, movement information calculation means, locus recalculation means), Each processing unit and storage unit of the sample point generation unit 18 (designated position detection means, additional information selection presence / absence judgment means, designated position movement detection means), 3D metadata generation editing unit 19 (display attribute information recording means) are provided. . Here, the space mouse 11 is used to input information to the three-dimensional moving image reproduction device by changing the position in the real space with the hand held by the user. The designated position on the image is detected from the amount of movement based on the variation. As a specific process, when the user moves the space mouse 11 in the real space, a detection unit connected to or attached to the three-dimensional moving image reproduction apparatus measures the distance and relative position with the space mouse by infrared rays or the like. Based on the measurement result, the spatial mouse control unit 12 performs processing for specifying the position on the 3D image. The spatial mouse control unit 12 is a processing unit that receives information from the spatial mouse 11 and detects a designated position of the spatial mouse. The 3D moving image DB 13 is a DB (database) that stores 3D moving image data. In addition, the 3D metadata DB 14 stores 3D metadata that is additional information to be combined and displayed on the 3D moving image. In addition, the 3D display 15 is a display dedicated to 3D image display so that a human who sees an image displayed on a plane can be seen three-dimensionally by a technique such as a parallax barrier method (parallax barrier method).

また再生処理部16は3D動画像の3Dディスプレイ15への出力や3Dメタデータの3D動画像上への出力の処理をおこなう処理部である。また動き表現情報生成部17は、3Dメタデータの表示位置や表示時間、3Dメタデータの3D動画像上における移動速度、移動方向、軌跡を特定するための表示軌跡情報、などからなる動き表現情報を生成する処理部である。またサンプルポイント生成部18は、空間マウス制御部12による3D動画像上の指定位置のうち、3D動画像中の3Dメタデータの表示位置を検出する処理を行う。また3Dメタデータ生成編集部19は、動き表現情報生成部17の生成した動き表現情報などに基づいて3DメタデータDB14で記憶する情報を書き換える等の処理を行う。   The reproduction processing unit 16 is a processing unit that performs processing of outputting a 3D moving image to the 3D display 15 and outputting 3D metadata onto the 3D moving image. The motion expression information generating unit 17 also includes movement expression information including display position and display time of 3D metadata, display speed information for specifying a moving speed, a moving direction, and a trajectory of the 3D metadata on the 3D moving image. Is a processing unit for generating In addition, the sample point generation unit 18 performs a process of detecting the display position of 3D metadata in the 3D moving image among the designated positions on the 3D moving image by the spatial mouse control unit 12. The 3D metadata generation / editing unit 19 performs processing such as rewriting information stored in the 3D metadata DB 14 based on the motion expression information generated by the motion expression information generation unit 17.

そして、本実施形態による3次元動画像再生装置は、予め記憶する3D動画像を3Dディスプレイ15に再生出力するものであって、実空間に存在する空間マウス11の位置を検出し、当該位置の変化に応じて3D動画像中の空間マウス11による指定位置を検出し、空間マウス11による指定位置のうち、3D動画像中の3Dメタデータの表示位置を、空間マウス11から受信した位置特定情報、または所定の時間間隔における空間マウス11による指定位置に基づいて複数検出する。そして、3次元動画像再生装置は、3D動画像の開始時刻と、3Dメタデータの表示位置を検出した時刻とに基づいて、3D動画像中において3Dメタデータを表示する3D動画像の開始時刻からの経過時間を検出し、3Dメタデータの表示位置とその表示位置において3Dメタデータを表示する3D動画像の開始時刻からの経過時間とからなる表示属性情報を、当該3Dメタデータの表示位置毎に3DメタデータDB14へ複数記録する処理を行う。   The 3D moving image playback apparatus according to the present embodiment plays back and outputs a 3D moving image stored in advance to the 3D display 15, detects the position of the space mouse 11 existing in the real space, and The specified position by the spatial mouse 11 in the 3D moving image is detected according to the change, and the position specifying information received from the spatial mouse 11 is the display position of the 3D metadata in the 3D moving image out of the specified position by the spatial mouse 11. Alternatively, a plurality of detections are made based on the designated position by the spatial mouse 11 at a predetermined time interval. Then, the 3D moving image reproduction device starts the 3D moving image for displaying 3D metadata in the 3D moving image based on the start time of the 3D moving image and the time when the display position of the 3D metadata is detected. The display attribute information including the display time of 3D metadata and the elapsed time from the start time of the 3D moving image for displaying the 3D metadata at the display position is detected as the display position of the 3D metadata. A process of recording a plurality of records in the 3D metadata DB 14 is performed every time.

また、3次元動画像再生装置は、3Dメタデータの複数の表示位置から、当該複数の表示位置を結んだ表示軌跡を特定する表示軌跡情報を算出し、その算出した表示軌跡情報をさらに含む表示属性情報を生成して、3Dメタデータの表示位置毎に3DメタデータDB14へ複数記録する処理を行う。さらに、3次元動画像再生装置は、3D動画像を3Dディスプレイ15に再生出力し、3Dメタデータの表示属性情報を3DメタデータDB14から読み取って、当該表示属性情報に基づいて3Dメタデータを3D動画像中に表示する。そして、3次元動画像再生装置は、空間マウス11による指定位置に基づいて、3Dメタデータが選択されたかを判定し、空間マウス11による指定位置の移動を検出し、3Dメタデータが選択されている間に、空間マウス11による指定位置の移動を検出した場合に、3D動画像中に表示している3Dメタデータの移動後の表示軌跡情報を、その3Dメタデータに関する元の表示軌跡情報と、指定位置の移動量に基づいて再計算し、移動後の表示軌跡情報に基づいて、3D動画像中に3Dメタデータを再表示する処理を行う。   Further, the 3D moving image reproduction apparatus calculates display trajectory information for specifying a display trajectory connecting the plurality of display positions from the plurality of display positions of the 3D metadata, and further includes the calculated display trajectory information. A process of generating attribute information and recording a plurality of attribute information in the 3D metadata DB 14 for each display position of the 3D metadata is performed. Further, the 3D moving image playback apparatus plays back and outputs the 3D moving image to the 3D display 15, reads the display attribute information of the 3D metadata from the 3D metadata DB 14, and converts the 3D metadata to 3D based on the display attribute information. Display in the video. Then, the 3D moving image reproduction device determines whether 3D metadata is selected based on the designated position by the spatial mouse 11, detects the movement of the designated position by the spatial mouse 11, and selects the 3D metadata. When the movement of the designated position by the spatial mouse 11 is detected, the display trajectory information after the movement of the 3D metadata displayed in the 3D moving image is replaced with the original display trajectory information related to the 3D metadata. Then, recalculation is performed based on the movement amount of the designated position, and 3D metadata is redisplayed in the 3D moving image based on the display trajectory information after the movement.

図2は3Dメタデータ情報テーブルを示す図である。
図3はサンプルポイント情報テーブルを示す図である。
次に、図2、図3を用いて3DメタデータDB14が記憶するデータテーブルについて説明する。図2で示す3Dメタデータ情報テーブルは、3Dメタデータ毎に記憶するものであり、3Dメタデータを特定するためのID、3Dメタデータのタイプ(文字情報や図形情報など)、3Dメタデータの3D動画像上への表示の開始時刻、3D動画像上への表示開始時刻からの表示時間幅、表示開始時刻において3D動画像上に表示する位置である空間座標、3Dメタデータのタイプ別の個別情報、3Dメタデータを3D動画像上に表示するために用いられるサンプルポイント情報(表示属性情報)を対応付けて記憶している。
FIG. 2 is a diagram showing a 3D metadata information table.
FIG. 3 shows a sample point information table.
Next, a data table stored in the 3D metadata DB 14 will be described with reference to FIGS. The 3D metadata information table shown in FIG. 2 is stored for each 3D metadata. The ID for specifying the 3D metadata, the 3D metadata type (character information, graphic information, etc.), and the 3D metadata Display start time on the 3D moving image, display time width from the display start time on the 3D moving image, spatial coordinates that are positions to be displayed on the 3D moving image at the display start time, according to the type of 3D metadata Individual point information and sample point information (display attribute information) used for displaying 3D metadata on a 3D moving image are stored in association with each other.

図3で示すサンプルポイント情報テーブルは、図2で示した3Dメタデータ情報テーブル内のサンプルポイント情報の詳細を記憶するデータテーブルである。この図が示すようにサンプルポイント情報テーブルは、3Dメタデータの3D動画像上の離散的な各表示位置を識別するためのサンプルポイント番号、そのサンプルポイント番号で示される表示位置の3D動画像の仮想空間上の座標、2つの連続する離散的なサンプルポイントの表示位置と各表示時刻に基づいて算出される3Dメタデータの移動方向、移動速度、3Dメタデータの軌跡のテンプレート、また、3Dメタデータの軌跡の線を表す数式の係数、を対応付けて記憶している。なお図3では、3Dメタデータの軌跡が、サンプルポイントを結んだスプライン曲線で表現する場合の当該軌跡の線を現す数式の係数を記憶する場合の例を示している。   The sample point information table shown in FIG. 3 is a data table that stores details of the sample point information in the 3D metadata information table shown in FIG. As shown in this figure, the sample point information table includes a sample point number for identifying each discrete display position on the 3D moving image of 3D metadata, and the 3D moving image of the display position indicated by the sample point number. Coordinates in virtual space, display position of two consecutive discrete sample points and 3D metadata movement direction, movement speed calculated based on each display time, 3D metadata trajectory template, and 3D metadata The coefficient of the mathematical expression representing the data locus line is stored in association with each other. Note that FIG. 3 shows an example in which the coefficient of the mathematical expression representing the trajectory line when the trajectory of the 3D metadata is expressed by a spline curve connecting sample points is shown.

図4は3Dメタデータの作成時の処理フローを示す図である。
次に、3次元動画像再生装置の処理フローについて図4を用いて説明する。
3次元動画像再生装置における3Dメタデータの作成は、3Dディスプレイ15上に3D動画像が表示された状況で行われる。この時、まず、再生処理部16が、ユーザによって指定された3D動画像データを3D動画DB13から読み取って再生処理し(ステップS101)、3Dディスプレイ15上に出力する。そして、ユーザはこの3Dディスプレイ15に出力された3D動画像上に表示させたい3Dメタデータを、空間マウス11を用いて選択する(例えば一覧などから選択する)。すると、再生処理部16は選択された3Dメタデータの情報を3D動画像上に合成して表示する(ステップS102)。ここでユーザは、3D動画像上に表示された3Dメタデータを、空間マウス11を用いて選択し、選択しながら空間マウス11を実空間の上下左右前後のいずれかの方向に移動させることにより、3D動画像上に表示された3Dメタデータを移動させることができる。具体的にこの処理は、空間マウス制御部12が空間マウス11の移動方向や移動量を検出し、その移動方向や移動量を再生処理部16に通知することにより、再生処理部16が、3Dメタデータの3D動画像上における表示位置を移動させる処理を行う。
FIG. 4 is a diagram showing a processing flow when creating 3D metadata.
Next, the processing flow of the three-dimensional moving image reproduction apparatus will be described with reference to FIG.
Creation of 3D metadata in the 3D moving image playback apparatus is performed in a state where a 3D moving image is displayed on the 3D display 15. At this time, first, the reproduction processing unit 16 reads the 3D moving image data designated by the user from the 3D moving image DB 13 and performs reproduction processing (step S101), and outputs it to the 3D display 15. Then, the user selects 3D metadata to be displayed on the 3D moving image output to the 3D display 15 using the spatial mouse 11 (for example, selects from a list or the like). Then, the reproduction processing unit 16 synthesizes and displays the selected 3D metadata information on the 3D moving image (step S102). Here, the user selects the 3D metadata displayed on the 3D moving image by using the space mouse 11, and moves the space mouse 11 in any direction of up, down, left, right, and back in the real space while selecting. The 3D metadata displayed on the 3D moving image can be moved. Specifically, in this process, the spatial mouse control unit 12 detects the movement direction and movement amount of the spatial mouse 11 and notifies the reproduction processing unit 16 of the movement direction and movement amount so that the reproduction processing unit 16 performs 3D. Processing for moving the display position of the metadata on the 3D moving image is performed.

そして、3D動画像上を3Dメタデータが移動表示されている際に、ユーザは空間マウス11を用いてメタデータの作成開始を指示する。すると、サンプルポイント生成部18は、メタデータの作成開始の指示を空間マウス制御部12から受け付け(ステップS103)、また空間マウス11から空間マウス制御部12を介して位置特定情報を受信する(ステップS104)。この位置特定情報は、ユーザが空間マウス11を用いて3Dメタデータを表示すると指定した位置を特定するためのものである。そしてサンプルポイント生成部18は、位置特定情報を受信した時における、3Dメタデータの3D動画像上の表示位置(3D動画像の仮想空間内での座標)と、その表示位置に3Dメタデータが表示されている時刻の3D動画像の再生開始時刻からの経過時間を再生処理部16へ問い合わせる。再生処理部16は、位置特定情報の受信時刻における3Dメタデータの3D動画像上の表示位置(3D動画像の仮想空間内での座標)を検出し(ステップS105)、また再生開始時刻からの経過時間を計測しているため、そのときの経過時間を検出して(ステップS106)、当該検出した3Dメタデータの表示位置と再生開始時刻からの経過時間と3DメタデータのIDとからなる表示属性情報を、サンプルポイント生成部18へ送信する。するとサンプルポイント生成部18は受信した表示属性情報と、3Dメタデータの作成指示を3Dメタデータ生成編集部19に送信する。   When the 3D metadata is moved and displayed on the 3D moving image, the user uses the space mouse 11 to instruct the start of metadata creation. Then, the sample point generation unit 18 receives an instruction to start creating metadata from the spatial mouse control unit 12 (step S103), and receives position specifying information from the spatial mouse 11 via the spatial mouse control unit 12 (step S103). S104). This position specifying information is for specifying a position specified by the user to display 3D metadata using the spatial mouse 11. The sample point generation unit 18 receives the position specifying information, the display position of the 3D metadata on the 3D moving image (the coordinates in the virtual space of the 3D moving image), and the 3D metadata at the display position. The playback processing unit 16 is inquired about the elapsed time from the playback start time of the 3D moving image at the displayed time. The reproduction processing unit 16 detects a display position (coordinates in the virtual space of the 3D moving image) of the 3D metadata at the reception time of the position specifying information (step S105), and also from the reproduction start time. Since the elapsed time is measured, the elapsed time at that time is detected (step S106), and the display including the detected display position of the 3D metadata, the elapsed time from the reproduction start time, and the ID of the 3D metadata. The attribute information is transmitted to the sample point generation unit 18. Then, the sample point generation unit 18 transmits the received display attribute information and 3D metadata creation instruction to the 3D metadata generation / editing unit 19.

次に表示属性情報と、3Dメタデータの作成指示を受け付けた3Dメタデータ生成編集部19は、表示属性情報を一時的に記憶する。また、ユーザが空間マウス11を用いて表示位置の入力を複数回行うことを契機に、または、所定の間隔で表示位置が自動的に検出されることにより、その都度サンプルポイント生成部18が位置特定情報を再生処理部16へ送信し、その結果、サンプルポイント生成部18が、再生処理部16から表示属性情報を受信して、3Dメタデータ生成編集部19へ送信する。これにより3Dメタデータ生成編集部19は、複数の表示属性情報を一時的に記憶することとなる。そして、空間マウス制御部12は、ユーザの操作に基づいて空間マウス11から3Dメタデータの表示終了の入力を受け付けたかを判定し(ステップS107)、表示終了の入力を受け付けると、その表示終了時点までのメタデータの作成を行うようサンプルポイント生成部18に通知する。するとサンプルポイント生成部18は3Dメタデータの生成を3Dメタデータ生成編集部19へ通知し、3Dメタデータ生成編集部19が、一時的に記憶している複数の表示属性情報を、動き表現情報生成部17に送信し、被検索用データの生成を指示する。   Next, the 3D metadata generation / editing unit 19 that has received the display attribute information and the 3D metadata creation instruction temporarily stores the display attribute information. In addition, when the user inputs the display position a plurality of times using the space mouse 11 or when the display position is automatically detected at a predetermined interval, the sample point generation unit 18 is positioned each time. The specific information is transmitted to the reproduction processing unit 16, and as a result, the sample point generation unit 18 receives the display attribute information from the reproduction processing unit 16 and transmits it to the 3D metadata generation / editing unit 19. As a result, the 3D metadata generation / editing unit 19 temporarily stores a plurality of display attribute information. Then, the spatial mouse control unit 12 determines whether the display end input of the 3D metadata has been received from the spatial mouse 11 based on the user's operation (step S107). The sample point generation unit 18 is notified to create the metadata up to. Then, the sample point generation unit 18 notifies the generation of 3D metadata to the 3D metadata generation / editing unit 19, and the 3D metadata generation / editing unit 19 converts the plurality of display attribute information temporarily stored into motion expression information. The data is transmitted to the generation unit 17 to instruct generation of search target data.

次に動き表現情報生成部17は、受信した複数の表示属性情報に基づいて、被検索用データの生成を開始する(ステップS108)。ここで被検索用データとは、表示属性情報で示される3Dメタデータの表示位置、再生開始時刻からの経過時刻に基づいて算出される、3Dメタデータの3D動画像上での移動方向、移動速度、軌跡の形状テンプレートである。そして、これら移動方向、移動速度、軌跡の形状テンプレートなどの被検索用データは、3D動画像中に表示される3Dメタデータの検索に利用される情報となる。そして被検索用データの生成が完了すると、動き表現情報生成部17は、その生成した被検索用データを3Dメタデータ生成編集部19へ送信する。被検索用データは表示属性情報で示される3Dメタデータの表示位置(サンプルポイント)ごとに計算されることとなる。そして、3Dメタデータ生成編集部19は、一時的に記憶している各表示属性情報と、それら各表示属性情報について算出された被検索用データを対応付けて、3DメタデータDB14のサンプルポイント情報テーブルに登録する(ステップS109)。つまり、各表示属性情報には、3DメタデータのIDと、当該3Dメタデータの表示位置と、その表示位置に表示される再生開始時刻からの経過時間と、その表示位置における移動方向、移動速度、軌跡の形状テンプレートがサンプルポイント情報テーブルに登録される。なお、上記のようなサンプルポイント情報テーブルに記録した情報を用いて、3Dメタデータを3D動画像の再生時に出力することとなる。   Next, the motion expression information generation unit 17 starts generating search target data based on the received plurality of display attribute information (step S108). Here, the data to be searched is the moving direction and movement of the 3D metadata on the 3D moving image calculated based on the display position of the 3D metadata indicated by the display attribute information and the elapsed time from the reproduction start time. This is a shape template for speed and trajectory. The data to be searched such as the moving direction, moving speed, and trajectory shape template is information used for searching 3D metadata displayed in the 3D moving image. When the generation of the search target data is completed, the motion expression information generation unit 17 transmits the generated search target data to the 3D metadata generation / editing unit 19. The search target data is calculated for each display position (sample point) of the 3D metadata indicated by the display attribute information. Then, the 3D metadata generation / editing unit 19 associates each temporarily stored display attribute information with the searched data calculated for each display attribute information, and sample point information in the 3D metadata DB 14 Register in the table (step S109). That is, each display attribute information includes an ID of 3D metadata, a display position of the 3D metadata, an elapsed time from a reproduction start time displayed at the display position, a moving direction and a moving speed at the display position. The locus shape template is registered in the sample point information table. Note that, using the information recorded in the sample point information table as described above, 3D metadata is output when a 3D moving image is reproduced.

以上の処理により、3D動画像上に表示される3Dメタデータの、ユーザが指定した、または自動的に検出した表示位置における移動方向、移動速度、軌跡の形状テンプレートや、その表示位置、表示位置に表示させる再生開始時刻からの経過時刻を登録しておくことができる。そして、このように離散的な表示位置(サンプルポイント)の情報を登録しておくため、データベースに記憶させておく情報を削減することができる。   Through the above processing, the moving direction, moving speed, trajectory shape template, display position, and display position of the 3D metadata displayed on the 3D moving image at the display position specified by the user or automatically detected. It is possible to register the elapsed time from the reproduction start time to be displayed on the screen. Since information on discrete display positions (sample points) is registered in this way, the information stored in the database can be reduced.

図5は3D動画像再生時における3Dメタデータの合成表示の処理フローを示す図である。
以下、3D動画像再生時における3Dメタデータの合成表示の処理について説明する。
3D動画像の再生が指示されると再生処理部16は、その再生指示された3D動画像のデータを3D動画DB13から読み取って再生し(ステップS201)、3Dディスプレイ15へ出力する。また、再生した3D動画像に合成させる3DメタデータのIDが、3D動画像データのIDに対応付けられて3DメタデータDB14に格納されており、再生処理部16はその3DメタデータのIDを読み取ると共に、その3DメタデータIDに対応付けられて3DメタデータDB14に登録されているサンプルポイント情報を取得する(ステップS202)。そして再生処理部16は取得したサンプルポイント情報に格納されている各サンプルポイントの表示位置とその表示位置における再生開始時刻からの経過時間の組と、合成表示する3DメタデータのIDを動き表現情報生成部17に出力して、表示軌跡情報の生成を指示する(ステップS203)。
FIG. 5 is a diagram showing a processing flow of the composite display of 3D metadata during 3D moving image playback.
Hereinafter, 3D metadata composite display processing during 3D moving image playback will be described.
When instructed to reproduce the 3D moving image, the reproduction processing unit 16 reads the 3D moving image data instructed to reproduce from the 3D moving image DB 13 and reproduces it (step S201), and outputs it to the 3D display 15. Also, the ID of 3D metadata to be combined with the reproduced 3D moving image is stored in the 3D metadata DB 14 in association with the ID of the 3D moving image data, and the reproduction processing unit 16 sets the ID of the 3D metadata. In addition to reading, sample point information associated with the 3D metadata ID and registered in the 3D metadata DB 14 is acquired (step S202). Then, the reproduction processing unit 16 sets the display position of each sample point stored in the acquired sample point information, the set time elapsed from the reproduction start time at the display position, and the ID of the 3D metadata to be synthesized and displayed as motion expression information. It outputs to the production | generation part 17 and instruct | indicates the production | generation of display locus information (step S203).

次に動き表現情報生成部17は、表示軌跡情報の生成にあたり、各サンプルポイントの表示位置とその表示位置における再生開始時刻からの経過時間の組に基づいて、表示軌跡情報(サンプルポイントの表示位置を結んだ軌跡を現す数式の係数)を算出し(ステップS204)、その表示軌跡情報と、各サンプルポイントの表示位置とその表示位置における再生開始時刻からの経過時間の組の情報とを、3DメタデータIDに対応付けて自処理部内のメモリ等に記憶する(ステップS205)。そして、動き表現情報生成部17は、再生処理部16による3D動画像の再生時に、合成表示する3Dメタデータの各サンプルポイントの表示位置とその表示位置における再生開始時刻からの経過時間の組と、その3Dメタデータの表示軌跡情報とに基づいて、3D動画像の再生開始時刻からの経過時間に対応する表示位置を算出し(ステップS206)、その表示位置に3Dメタデータを表示するよう指示する処理を再生処理部16に対して行う(ステップS207)。これにより、再生処理部16は、3D動画像を再生すると共に、その3D動画像上に3Dメタデータを合成表示する処理を行う(ステップS208)。なおこの表示軌跡情報の算出は、3D動画像の再生処理前に事前に行っても良いし、3D動画像の再生と同時に行うようにしてもよい。また表示軌跡情報は3Dメタデータの作成時に予め行っておき、動き表現情報の一部としてサンプルポイント情報テーブル(図3)に記録しておくようにしても良い。また表示軌跡を、各サンプルポイントの表示位置を直線に結ぶ軌跡とする場合や、各サンプルポイントの表示位置をスプライン曲線により結ぶ軌跡とする場合、あるいは定型軌跡テンプレートとして特定する場合などがあるが、これらの各表示軌跡とする場合のそれぞれの表示軌跡情報の算出例について後述する。   Next, when generating the display trajectory information, the motion expression information generating unit 17 displays the display trajectory information (sample point display position based on the set of the display position of each sample point and the elapsed time from the reproduction start time at the display position. Is calculated (step S204), and the display trajectory information and the information of the set of the display position of each sample point and the elapsed time from the playback start time at the display position are calculated in 3D. Corresponding to the metadata ID, it is stored in a memory or the like in its own processing unit (step S205). Then, the motion expression information generation unit 17 sets a set of the display position of each sample point of the 3D metadata to be synthesized and displayed and the elapsed time from the reproduction start time at the display position when the reproduction processing unit 16 reproduces the 3D moving image. Based on the display trajectory information of the 3D metadata, a display position corresponding to the elapsed time from the playback start time of the 3D moving image is calculated (step S206), and an instruction to display the 3D metadata at the display position is issued. Processing to be performed is performed on the reproduction processing unit 16 (step S207). Thereby, the reproduction processing unit 16 reproduces the 3D moving image and performs a process of combining and displaying the 3D metadata on the 3D moving image (step S208). The calculation of the display trajectory information may be performed in advance before the 3D moving image reproduction process or may be performed simultaneously with the reproduction of the 3D moving image. The display trajectory information may be recorded in advance when creating the 3D metadata, and recorded in the sample point information table (FIG. 3) as a part of the motion expression information. In addition, there are cases where the display trajectory is a trajectory connecting the display position of each sample point to a straight line, a display trajectory connecting the display position of each sample point by a spline curve, or a specific trajectory template. A calculation example of each display trajectory information when each of these display trajectories is used will be described later.

図6は表示軌跡情報算出処理の処理フローを示す第1の図である。
図7は表示軌跡情報算出処理の概要を示す第1の図である。
次に、表示軌跡を各サンプルポイントの表示位置を直線に結ぶ軌跡とする場合の表示軌跡情報の算出例について図6および図7を用いて説明する。
まず、動き表現情報生成部17は、各サンプルポイントの表示位置とその表示位置における再生開始時刻からの経過時間の組と、合成表示する3DメタデータのIDの情報を再生処理部16から受信する(ステップS301)。すると動き表現情報生成部17は、各サンプルポイントの表示位置のうち、再生開始時刻からの経過時間が最も早いサンプルポイントP1の表示位置と、その次に再生開始時刻からの経過時間が早いサンプルポイントP2の表示位置との2点間の直線式(3D動画像の仮想空間における直線式)の各係数を求める。また同様に、動き表現情報生成部17はサンプルポイントP2の表示位置と、その次に再生開始時刻からの経過時間が早いサンプルポイントP3の表示位置との2点間の直線式の各係数を求め、経過時間が近い2つの表示位置の組み毎に、その2点間を結ぶ直線式の各係数を求める(ステップS302)。この直線式の各係数を表示軌跡情報とする。
FIG. 6 is a first diagram illustrating a processing flow of display trajectory information calculation processing.
FIG. 7 is a first diagram showing an overview of the display trajectory information calculation process.
Next, a calculation example of display trajectory information when the display trajectory is a trajectory that connects the display positions of the sample points to a straight line will be described with reference to FIGS. 6 and 7.
First, the motion expression information generation unit 17 receives from the reproduction processing unit 16 information on the display position of each sample point, the set of elapsed time from the reproduction start time at the display position, and the ID of the 3D metadata to be synthesized and displayed. (Step S301). Then, the motion expression information generation unit 17 displays the display position of the sample point P1 having the earliest elapsed time from the playback start time and the sample point having the earliest elapsed time from the playback start time among the display positions of the respective sample points. Each coefficient of the linear equation (linear equation in the virtual space of the 3D moving image) between two points with the display position of P2 is obtained. Similarly, the motion expression information generation unit 17 obtains each coefficient of a linear equation between the display position of the sample point P2 and the display position of the sample point P3 that has elapsed from the playback start time next. Then, for each set of two display positions whose elapsed times are close, linear coefficients connecting the two points are obtained (step S302). Each linear coefficient is used as display trajectory information.

そして、この表示軌跡情報の算出が3D動画像の再生時や再生直前に計算される場合には、動き表現情報生成部17は、生成した各直線式の各係数を示す表示軌跡情報を一時的に記憶し(ステップS303)、再生処理部16に表示軌跡情報の算出完了を通知する(ステップS304)。また表示軌跡情報の算出が3Dメタデータの作成時に行われる場合には、動き表現情報生成部17は生成した表示軌跡情報を3Dメタデータ生成編集部19へ送信し、当該3Dメタデータ生成編集部19が、その表示軌跡情報を、3DメタデータIDに対応付けて3DメタデータDB14へ登録する。そして、動き表現情報生成部17は、再生処理部16による3D動画像の再生時に、合成表示する3Dメタデータの各サンプルポイントの表示位置とその表示位置における再生開始時刻からの経過時間の組と、その3Dメタデータの表示軌跡情報とに基づいて、3D動画像の再生開始時刻からの経過時間に対応する表示位置を算出し(ステップS305)、その表示位置に3Dメタデータを表示するよう指示する処理を再生処理部16に対して行う(ステップS306)。これにより、再生処理部16は、3D動画像を再生すると共に、その3D動画像上における指示された表示位置に3Dメタデータを合成表示する処理を行う(ステップS307)。   Then, when the calculation of the display trajectory information is performed at the time of reproduction of the 3D moving image or immediately before the reproduction, the motion expression information generation unit 17 temporarily displays the display trajectory information indicating each coefficient of each generated linear expression. (Step S303), and notifies the reproduction processing unit 16 of completion of calculation of the display trajectory information (step S304). When the calculation of the display trajectory information is performed at the time of creating the 3D metadata, the motion expression information generation unit 17 transmits the generated display trajectory information to the 3D metadata generation / editing unit 19, and the 3D metadata generation / editing unit 19 registers the display trajectory information in the 3D metadata DB 14 in association with the 3D metadata ID. Then, the motion expression information generation unit 17 sets a set of the display position of each sample point of the 3D metadata to be synthesized and displayed and the elapsed time from the reproduction start time at the display position when the reproduction processing unit 16 reproduces the 3D moving image. Based on the display trajectory information of the 3D metadata, a display position corresponding to the elapsed time from the playback start time of the 3D moving image is calculated (step S305), and an instruction to display the 3D metadata at the display position is issued. The processing to be performed is performed on the reproduction processing unit 16 (step S306). As a result, the reproduction processing unit 16 reproduces the 3D moving image and performs a process of combining and displaying the 3D metadata at the designated display position on the 3D moving image (step S307).

図8は表示軌跡情報算出処理の処理フローを示す第2の図である。
図9は表示軌跡情報算出処理の概要を示す第2の図である。
次に、表示軌跡を、各サンプルポイントの表示位置をスプライン曲線により結ぶ軌跡とする場合の表示軌跡情報の算出例について図8および図9を用いて説明する。
動き表現情報生成部17は、各サンプルポイントの表示位置とその表示位置における再生開始時刻からの経過時間の組、合成表示する3DメタデータのIDの情報を再生処理部16から受信する(ステップS401)。すると動き表現情報生成部17は全てのサンプルポイントの表示位置を滑らかな曲線で結ぶスプライン曲線の計算式を求め、さらに、その各計算式の係数を求め、このスプライン曲線を表わす式の各係数を表示軌跡情報とする(ステップS402)。ここで本実施形態においてはスプライン曲線の式は、下記で示すような再生開始時刻からの経過時間tの3次関数で表わすものとする。
x=a+b+ct+d
y=a+b+ct+d
z=a+b+ct+d
FIG. 8 is a second diagram showing a processing flow of the display trajectory information calculation processing.
FIG. 9 is a second diagram showing an overview of the display trajectory information calculation process.
Next, an example of calculating the display trajectory information when the display trajectory is a trajectory connecting the display positions of the sample points by spline curves will be described with reference to FIGS.
The motion expression information generation unit 17 receives from the reproduction processing unit 16 information on the display position of each sample point and the set time elapsed from the reproduction start time at the display position and the ID of the 3D metadata to be displayed in combination (step S401). ). Then, the motion expression information generation unit 17 obtains a calculation formula for a spline curve that connects the display positions of all the sample points with a smooth curve, further obtains a coefficient for each calculation formula, and obtains each coefficient for the expression representing this spline curve. Display trajectory information is set (step S402). Here, in the present embodiment, the expression of the spline curve is expressed by a cubic function of the elapsed time t from the reproduction start time as shown below.
x = a 1 t 3 + b 1 t 2 + c 1 t + d 1
y = a 2 t 3 + b 2 t 2 + c 2 t + d 2
z = a 3 t 3 + b 3 t 2 + c 3 t + d 3

そして、表示軌跡情報の算出が3D動画像の再生時や再生直前に計算される場合には、動き表現情報生成部17は、生成した各直線式の各係数で示される表示軌跡情報を一時的に記憶し(ステップS403)、再生処理部16に表示軌跡情報の算出完了を通知する(ステップS404)。また表示軌跡情報の算出が3Dメタデータの作成時に行われる場合には、動き表現情報生成部17は生成した表示軌跡情報を3Dメタデータ生成編集部19へ送信し、当該3Dメタデータ生成編集部19が、その表示軌跡情報を、3DメタデータIDに対応付けて3DメタデータDB14へ登録する。そして、動き表現情報生成部17は、再生処理部16による3D動画像の再生時に、合成表示する3Dメタデータの各サンプルポイントの表示位置とその表示位置における再生開始時刻からの経過時間の組と、その3Dメタデータの表示軌跡情報とに基づいて、3D動画像の再生開始時刻からの経過時間に対応する表示位置を算出し(ステップS405)、その表示位置に3Dメタデータを表示するよう指示する処理を再生処理部16に対して行う(ステップS406)。これにより、再生処理部16は、3D動画像を再生すると共に、その3D動画像上に3Dメタデータを合成表示する処理を行う(ステップS407)。   When the calculation of the display trajectory information is performed at the time of playback of the 3D moving image or immediately before the playback, the motion expression information generation unit 17 temporarily displays the display trajectory information indicated by each coefficient of each generated linear expression. (Step S403), and notifies the reproduction processing unit 16 of completion of calculation of the display trajectory information (step S404). When the calculation of the display trajectory information is performed at the time of creating the 3D metadata, the motion expression information generation unit 17 transmits the generated display trajectory information to the 3D metadata generation / editing unit 19, and the 3D metadata generation / editing unit 19 registers the display trajectory information in the 3D metadata DB 14 in association with the 3D metadata ID. Then, the motion expression information generation unit 17 sets a set of the display position of each sample point of the 3D metadata to be synthesized and displayed and the elapsed time from the reproduction start time at the display position when the reproduction processing unit 16 reproduces the 3D moving image. Based on the display trajectory information of the 3D metadata, a display position corresponding to the elapsed time from the playback start time of the 3D moving image is calculated (step S405), and an instruction to display the 3D metadata at the display position is given. Processing to be performed is performed on the reproduction processing unit 16 (step S406). Thereby, the reproduction processing unit 16 reproduces the 3D moving image and performs a process of combining and displaying the 3D metadata on the 3D moving image (step S407).

図10は表示軌跡情報算出処理の処理フローを示す第3の図である。
図11は表示軌跡情報の算出処理の概要を示す第3の図である。
次に、表示軌跡を、各サンプルポイントの表示位置に基づいて特定した定型軌跡テンプレートとする場合の表示軌跡情報の算出例について図10および図11を用いて説明する。
この場合、動き表現情報生成部17は、予め定型軌跡テンプレートのデータを記憶しているものとする。まず、動き表現情報生成部17は、各サンプルポイントの表示位置を再生処理部16から受信する(ステップS501)。そして動き表現情報生成部17は、各サンプルポイントの表示位置の重心と、定型軌跡テンプレートの重心とを一致させ、各サンプルポイントの表示位置が定型軌跡テンプレートで示される軌跡から一定距離以内にあるかどうかを判定する(ステップS502)。そして、複数の定型軌跡テンプレートを用いて各サンプルポイントの表示位置が定型軌跡テンプレートで示される軌跡から一定距離以内にあるかどうかを判定し、各サンプルポイントの表示位置の全てが一定距離以内にあると判定された定型軌跡テンプレートの数式の係数を、その各サンプルポイントの表示位置に基づいて算出される表示軌跡情報と特定する(ステップS503)。なお、定型軌跡テンプレートとしては仮想空間上の円、楕円、3つの直線により表わされる三角形、4つの直線により表わされる四角形、サインやコサインの曲線などであり、その軌跡は再生開始時刻からの経過時間tの関数により表わされるものである。また複数の定型軌跡テンプレートを特定できた場合には、例えば、各サンプルポイントの表示位置の定型軌跡テンプレートからの距離の平均が最も小さい場合の、定型軌跡テンプレートを特定する。
FIG. 10 is a third diagram illustrating the processing flow of the display trajectory information calculation processing.
FIG. 11 is a third diagram showing an outline of the calculation process of the display trajectory information.
Next, a calculation example of display trajectory information when the display trajectory is a fixed trajectory template specified based on the display position of each sample point will be described with reference to FIGS. 10 and 11.
In this case, it is assumed that the motion expression information generation unit 17 stores data of a fixed trajectory template in advance. First, the motion expression information generation unit 17 receives the display position of each sample point from the reproduction processing unit 16 (step S501). Then, the motion expression information generation unit 17 matches the center of gravity of the display position of each sample point with the center of gravity of the standard trajectory template, and whether the display position of each sample point is within a certain distance from the trajectory indicated by the standard trajectory template. It is determined whether or not (step S502). Then, it is determined whether or not the display position of each sample point is within a certain distance from the locus indicated by the fixed locus template using a plurality of fixed locus templates, and all the display positions of each sample point are within a certain distance. The coefficient of the formula of the standard trajectory template determined to be specified as display trajectory information calculated based on the display position of each sample point (step S503). The standard trajectory template includes a circle, an ellipse, a triangle represented by three straight lines, a quadrangle represented by four straight lines, a sine and cosine curve, etc. in the virtual space, and the trajectory is an elapsed time from the reproduction start time. It is represented by a function of t. When a plurality of standard trajectory templates can be specified, for example, the standard trajectory template when the average of the distances from the standard trajectory template of the display position of each sample point is the smallest is specified.

そして、表示軌跡情報の算出が3D動画像の再生時や再生直前に計算される場合には、動き表現情報生成部17は、特定した表示軌跡情報を一時的にメモリ等に記憶し(ステップS504)、再生処理部16に表示軌跡情報の算出完了を通知する(ステップS505)。また表示軌跡情報の算出が3Dメタデータの作成時に行われる場合には、動き表現情報生成部17は特定した表示軌跡情報を3Dメタデータ生成編集部19へ送信し、当該3Dメタデータ生成編集部19が、その表示軌跡情報を、3DメタデータIDに対応付けて3DメタデータDB14へ登録する。そして、動き表現情報生成部17は、再生処理部16による3D動画像の再生時に、合成表示する3Dメタデータの各サンプルポイントの表示位置とその表示位置における再生開始時刻からの経過時間の組と、その3Dメタデータの表示軌跡情報とに基づいて、3D動画像の再生開始時刻からの経過時間に対応する表示位置を算出し(ステップS506)、その表示位置に3Dメタデータを表示するよう指示する処理を再生処理部16に対して行う(ステップS507)。これにより、再生処理部16は、3D動画像を再生すると共に、その3D動画像上に3Dメタデータを合成表示する処理を行う(ステップS508)。   When the calculation of the display trajectory information is calculated during or immediately before the playback of the 3D moving image, the motion expression information generation unit 17 temporarily stores the specified display trajectory information in a memory or the like (step S504). ), The reproduction processing unit 16 is notified of the completion of calculation of the display trajectory information (step S505). If the calculation of the display trajectory information is performed at the time of creating the 3D metadata, the motion expression information generating unit 17 transmits the specified display trajectory information to the 3D metadata generation / editing unit 19, and the 3D metadata generation / editing unit 19 registers the display trajectory information in the 3D metadata DB 14 in association with the 3D metadata ID. Then, the motion expression information generation unit 17 sets a set of the display position of each sample point of the 3D metadata to be synthesized and displayed and the elapsed time from the reproduction start time at the display position when the reproduction processing unit 16 reproduces the 3D moving image. Based on the display trajectory information of the 3D metadata, a display position corresponding to the elapsed time from the playback start time of the 3D moving image is calculated (step S506), and an instruction to display the 3D metadata at the display position is given. The processing to be performed is performed on the reproduction processing unit 16 (step S507). As a result, the reproduction processing unit 16 reproduces the 3D moving image and performs a process of combining and displaying the 3D metadata on the 3D moving image (step S508).

図12は表示軌跡情報算出処理の処理フローを示す第4の図である。
図13は表示軌跡情報算出処理の概要を示す第4の図である。
次に、各サンプルポイントの表示位置に基づいてそれらサンプルポイントによる近似曲線により表示軌跡情報を算出する例について図12および図13を用いて説明する。
動き表現情報生成部17は、各サンプルポイントの表示位置P1〜P17とその表示位置における再生開始時刻からの経過時間の組と、合成表示する3DメタデータのIDの情報を再生処理部16から受信する(ステップS601)。すると動き表現情報生成部17は、各サンプルポイントの表示位置のうち連続する複数の表示位置P1〜P17が、当該連続する複数の表示位置P1〜P17のうちの始点の表示位置P1とその始点P1の次点の表示位置P2とを結ぶ直線の延伸線を中心とした所定の半径の仮想円柱D1内に位置するかを、次点の表示位置P2の次の表示位置P3から順に判定し(ステップS602)、当該仮想円柱D1内に位置しないと初めて判定した表示位置P7の1つ前の表示位置P6と始点の表示位置P1とを結んだ直線T1を表わす式の係数からなる表示軌跡情報を算出する(ステップS603)。そして全てのサンプルポイントの表示位置が表示軌跡情報で示される直線に含まれたかを判定し(ステップS604)、含まれない場合には、当該表示軌跡情報の直線に含まれない表示位置のうち最も早い再生開始時刻からの経過時間に表示されるポイントを示すサンプルポイントの表示位置を始点と設定し(ステップS605)、上述のステップS602およびステップS603の表示軌跡情報の算出処理を繰り返す。
FIG. 12 is a fourth diagram illustrating a processing flow of the display trajectory information calculation processing.
FIG. 13 is a fourth diagram showing an overview of the display trajectory information calculation process.
Next, an example in which the display trajectory information is calculated based on the approximate position of each sample point based on the display position of each sample point will be described with reference to FIGS.
The motion expression information generation unit 17 receives from the reproduction processing unit 16 information on the display positions P1 to P17 of each sample point and the elapsed time from the reproduction start time at the display position and the ID of the 3D metadata to be synthesized and displayed. (Step S601). Then, the motion expression information generation unit 17 includes a plurality of continuous display positions P1 to P17 among the display positions of the sample points, and the start display position P1 and the start point P1 of the plurality of continuous display positions P1 to P17. It is determined in order from the display position P3 next to the display position P2 of the next point whether it is located within the virtual cylinder D1 having a predetermined radius centered on the straight line extending to the display position P2 of the next point (step) In step S602), display trajectory information including a coefficient of an expression representing a straight line T1 connecting the display position P6 immediately before the display position P7 determined to be not located in the virtual cylinder D1 and the display position P1 of the start point is calculated. (Step S603). Then, it is determined whether the display positions of all the sample points are included in the straight line indicated by the display trajectory information (step S604). If not included, the display position that is not included in the straight line of the display trajectory information is the most. The display position of the sample point indicating the point displayed at the elapsed time from the early reproduction start time is set as the start point (step S605), and the above-described display trajectory information calculation process in steps S602 and S603 is repeated.

つまり、動き表現情報生成部17は、仮想円柱内D1に初めて位置しないと判定した表示位置P7の1つ前の表示位置P6を始点として同様に表示軌跡情報の算出を繰り返す。つまり、始点の表示位置P6とその始点P6の次点の表示位置P7とを結ぶ直線の延伸線を中心とした所定の半径の仮想円柱D2内に位置するかを、次点の表示位置P7の次の表示位置P8から順に判定し、当該仮想円柱D2内に位置しないと初めて判定した表示位置P8の1つ前の表示位置P7と始点の表示位置P6とを結んだ直線T2を表わす式の係数からなる表示軌跡情報を算出する。
また同様に、次に始点と判定される表示位置P7とその始点P7の次点の表示位置P8とを結ぶ直線の延伸線を中心とした所定の半径の仮想円柱D3内に位置するかを、次点の表示位置P8の次の表示位置P9から順に判定し、当該仮想円柱D3内に位置しないと初めて判定した表示位置P9の1つ前の表示位置P8と始点の表示位置P7とを結んだ直線T3を表わす式の係数からなる表示軌跡情報を算出する。
また同様に、次に始点と判定される表示位置P8とその始点P8の次点の表示位置P9とを結ぶ直線の延伸線を中心とした所定の半径の仮想円柱D4内に位置するかを、次点の表示位置P9の次の表示位置P10から順に判定し、当該仮想円柱D4内に位置しないと初めて判定した表示位置P10の1つ前の表示位置P9と始点の表示位置P8とを結んだ直線T4を表わす式の係数からなる表示軌跡情報を算出する。
That is, the motion expression information generation unit 17 repeats the calculation of the display trajectory information in the same manner, starting from the display position P6 immediately before the display position P7 determined not to be positioned for the first time in the virtual cylinder D1. That is, whether or not the position is within the virtual cylinder D2 having a predetermined radius centered on a straight extension line connecting the display position P6 of the start point and the display position P7 of the next point of the start point P6. A coefficient of an expression representing a straight line T2 that is determined in order from the next display position P8 and connects the display position P7 immediately before the display position P8 that is first determined not to be located in the virtual cylinder D2 and the display position P6 of the start point. Display trajectory information consisting of
Similarly, whether or not it is located within a virtual cylinder D3 having a predetermined radius centered on a straight extension line connecting the display position P7 determined to be the next start point and the display position P8 of the next point of the start point P7, The next display position P8 of the next point is sequentially determined from the display position P9, and the display position P8 immediately before the display position P9 determined for the first time not to be located in the virtual cylinder D3 is connected to the display position P7 of the start point. Display trajectory information including the coefficient of the equation representing the straight line T3 is calculated.
Similarly, whether or not it is located within a virtual cylinder D4 having a predetermined radius centered on a straight extension line connecting the display position P8 determined next as the start point and the display position P9 of the next point of the start point P8, The next display position P9 is determined in order from the next display position P10, and the display position P9 immediately before the display position P10 determined for the first time not to be located in the virtual cylinder D4 is connected to the start display position P8. Display trajectory information composed of coefficients of an expression representing the straight line T4 is calculated.

また同様に、次に始点と判定される表示位置P9とその始点P9の次点の表示位置P10とを結ぶ直線の延伸線を中心とした所定の半径の仮想円柱D5内に位置するかを、次点の表示位置P10の次の表示位置P11から順に判定し、当該仮想円柱D5内に位置しないと初めて判定した表示位置P12の1つ前の表示位置P11と始点の表示位置P9とを結んだ直線T5を表わす式の係数からなる表示軌跡情報を算出する。
また同様に、次に始点と判定される表示位置P11とその始点P11の次点の表示位置P12とを結ぶ直線の延伸線を中心とした所定の半径の仮想円柱D6内に位置するかを、次点の表示位置P12の次の表示位置P13から順に判定し、当該仮想円柱D6内に位置しないと初めて判定した表示位置P15の1つ前の表示位置P14と始点の表示位置P11とを結んだ直線T6を表わす式の係数からなる表示軌跡情報を算出する。
また同様に、次に始点と判定される表示位置P14とその始点P14の次点の表示位置P15とを結ぶ直線の延伸線を中心とした所定の半径の仮想円柱D7内に位置するかを、次点の表示位置P15の次の表示位置P16から順に判定し、当該仮想円柱D7内に位置しない表示位置がP17までないため、その表示位置P17と始点の表示位置P14とを結んだ直線T7を表わす式の係数からなる表示軌跡情報を算出する。
Similarly, whether or not it is located within a virtual cylinder D5 having a predetermined radius centered on a straight extension line connecting the display position P9 determined next as the start point and the display position P10 of the next point of the start point P9, The next display position P10 of the next point is sequentially determined from the display position P11, and the display position P11 immediately before the display position P12 determined for the first time not to be located within the virtual cylinder D5 is connected to the display position P9 of the start point. Display trajectory information including the coefficient of the equation representing the straight line T5 is calculated.
Similarly, whether or not it is located within a virtual cylinder D6 having a predetermined radius centered on a straight extension line connecting the display position P11 determined as the next start point and the display position P12 of the next point of the start point P11. The next display position P12 of the next point is sequentially determined from the display position P13, and the display position P14 immediately before the display position P15 that is determined for the first time not to be located in the virtual cylinder D6 is connected to the display position P11 of the start point. Display trajectory information including the coefficient of the equation representing the straight line T6 is calculated.
Similarly, whether or not it is located within a virtual cylinder D7 having a predetermined radius centered on a straight extension line connecting the display position P14 determined next as the start point and the display position P15 of the next point of the start point P14, Since the display position P16 is determined in order from the display position P16 next to the display position P15 of the next point and there is no display position up to P17 in the virtual cylinder D7, a straight line T7 connecting the display position P17 and the display position P14 of the start point is obtained. Display trajectory information composed of coefficients of the expression to be expressed is calculated.

そして、表示軌跡情報の算出が3D動画像の再生時や再生直前に計算される場合には、動き表現情報生成部17は、算出した各表示軌跡情報を一時的に記憶し(ステップS606)、再生処理部16に表示軌跡情報の算出完了を通知する(ステップS607)。また表示軌跡情報の算出が3Dメタデータの作成時に行われる場合には、動き表現情報生成部17は算出した各表示軌跡情報を3Dメタデータ生成編集部19へ送信し、当該3Dメタデータ生成編集部19が、その表示軌跡情報を、3DメタデータIDに対応付けて3DメタデータDB14へ登録する。そして、動き表現情報生成部17は、再生処理部16による3D動画像の再生時に、合成表示する3Dメタデータの各サンプルポイントの表示位置とその表示位置における再生開始時刻からの経過時間の組と、その3Dメタデータの表示軌跡情報とに基づいて、3D動画像の再生開始時刻からの経過時間に対応する表示位置を算出し(ステップS608)、その表示位置に3Dメタデータを表示するよう指示する処理を再生処理部16に対して行う(ステップS609)。これにより、再生処理部16は、3D動画像を再生すると共に、その3D動画像上に3Dメタデータを合成表示する処理を行う(ステップS610)。   When the calculation of the display trajectory information is calculated at the time of playback of the 3D moving image or immediately before the playback, the motion expression information generation unit 17 temporarily stores the calculated display trajectory information (step S606). The reproduction processing unit 16 is notified of the completion of calculation of the display trajectory information (step S607). When the display trajectory information is calculated when the 3D metadata is created, the motion expression information generation unit 17 transmits the calculated display trajectory information to the 3D metadata generation / editing unit 19, and the 3D metadata generation / editing unit The unit 19 registers the display trajectory information in the 3D metadata DB 14 in association with the 3D metadata ID. Then, the motion expression information generation unit 17 sets a set of the display position of each sample point of the 3D metadata to be synthesized and displayed and the elapsed time from the reproduction start time at the display position when the reproduction processing unit 16 reproduces the 3D moving image. Based on the display trajectory information of the 3D metadata, a display position corresponding to the elapsed time from the playback start time of the 3D moving image is calculated (step S608), and an instruction to display the 3D metadata at the display position is issued. The processing to be performed is performed on the reproduction processing unit 16 (step S609). As a result, the reproduction processing unit 16 reproduces the 3D moving image and performs a process of combining and displaying the 3D metadata on the 3D moving image (step S610).

図14は3Dメタデータ合成表示の処理フローを示す図である。
図15は3Dメタデータ合成表示の処理概要を示す図である。
次に、表示軌跡情報を用いた3D動画像上への3Dメタデータ合成表示の処理について、図14および図15を用いて説明する。
再生処理部16は、3D動画像を再生している際には、その3D動画像のIDに対応付けられて3DメタデータDB14で記録されている3Dメタデータと、その3DメタデータのIDを読み取る(ステップS701)。そして再生処理部16は、動き表現情報生成部17に対して合成表示する3DメタデータのIDを通知するとともに3Dメタデータの表示位置を問い合わせる(ステップS702)。なお、表示軌跡情報が予め計算されたサンプルポイント情報テーブル(図3)に登録されているという実施形態の場合には、再生処理部16は、3DメタデータのIDに基づいてサンプルポイント情報テーブル(図3)から表示軌跡情報を取得して、動き表現情報生成部17に送信し、動き表現情報生成部17が一時的に3DメタデータのIDと表示軌跡情報を対応付けて記憶する。
FIG. 14 is a diagram showing a processing flow of 3D metadata composition display.
FIG. 15 is a diagram showing an outline of processing of 3D metadata composition display.
Next, 3D metadata composition display processing on a 3D moving image using display trajectory information will be described with reference to FIGS. 14 and 15.
When reproducing the 3D moving image, the reproduction processing unit 16 associates the 3D metadata recorded in the 3D metadata DB 14 with the ID of the 3D moving image and the ID of the 3D metadata. Read (step S701). The reproduction processing unit 16 notifies the motion expression information generation unit 17 of the ID of the 3D metadata to be synthesized and displayed and inquires about the display position of the 3D metadata (step S702). In the case of the embodiment in which the display trajectory information is registered in a pre-calculated sample point information table (FIG. 3), the reproduction processing unit 16 uses the sample point information table (based on the 3D metadata ID ( The display trajectory information is acquired from FIG. 3) and transmitted to the motion expression information generation unit 17, and the motion expression information generation unit 17 temporarily stores the ID of the 3D metadata and the display trajectory information in association with each other.

動き表現情報生成部17は3DメタデータのIDの通知を受けると、そのIDに対応付けて記憶している各サンプルポイントの表示位置とその表示位置における再生開始時刻からの経過時間と、表示軌跡情報とを自処理部内の記憶部から読み取る(ステップS703)。そして再生開始時刻からの現在の経過時間を再生処理部16より取得し(ステップS704)、各サンプルポイントの再生開始時刻からの経過時間に基づいて、現在の経過時間と最も近い経過時間を示す2つのサンプルポイントの表示位置を特定する(ステップS705)。そして、それら特定した2つのサンプルポイントの経過時間の差における現在の経過時間の割合wを求める(ステップS706)。そして、特定した2つのサンプルポイントを通過する表示軌跡情報で示される軌跡における割合wの位置を、現在の経過時間における3Dメタデータの表示位置と算出し(ステップS707)、その表示位置を再生処理部16に通知する(ステップS708)。再生処理部16は、動き表現情報生成部17から通知を受けた3D動画像上の表示位置に3Dメタデータを合成表示する(ステップS709)。そしてこの処理を所定の時間ごとに繰り返して行うことで、3D動画像上を3Dメタデータが移動する動画像を3Dディスプレイ15に表示することができる。   When the motion expression information generation unit 17 receives the notification of the ID of the 3D metadata, the display position of each sample point stored in association with the ID, the elapsed time from the reproduction start time at the display position, and the display locus Information is read from the storage unit in the processing unit (step S703). Then, the current elapsed time from the reproduction start time is obtained from the reproduction processing unit 16 (step S704), and 2 indicating the elapsed time closest to the current elapsed time based on the elapsed time from the reproduction start time of each sample point. The display position of one sample point is specified (step S705). Then, the ratio w of the current elapsed time in the difference between the elapsed times of the two specified sample points is obtained (step S706). Then, the position of the ratio w in the trajectory indicated by the display trajectory information passing through the two specified sample points is calculated as the display position of the 3D metadata at the current elapsed time (step S707), and the display position is reproduced. The unit 16 is notified (step S708). The reproduction processing unit 16 synthesizes and displays 3D metadata at the display position on the 3D moving image received from the motion expression information generation unit 17 (step S709). By repeating this process every predetermined time, a moving image in which 3D metadata moves on the 3D moving image can be displayed on the 3D display 15.

図16は動画像再生中における3Dメタデータの編集の処理フローを示す第1の図である。
図17は動画像再生中における3Dメタデータの編集処理の概要を示す第1の図である。
次に、3D動画像と3Dメタデータが再生されている状況において、ユーザが3Dメタデータの編集を行う処理について説明する。ここで3Dメタデータの編集とは3Dメタデータが3D動画像上を移動する表示軌跡を修正することを言う。
まず、再生処理部16が3D動画像を再生し(ステップS801)、その動画像上に3Dメタデータを合成表示している(ステップS802)。そのような状況において、ユーザが空間マウス11を操作して当該空間マウス11の3Dディスプレイ上に表示されているマウスポインタを移動させ、3Dメタデータの表示位置に合わせ、さらに選択ボタンを押下したとする。すると空間マウス制御部12が3Dメタデータの選択イベントを空間マウス11より受信し(ステップS803)、その選択イベントの受信を契機とした選択開始通知をサンプルポイント生成部18へ行う(ステップS804)。サンプルポイント生成部18は、選択開始通知を受け付けると、現在のマウスポインタの表示位置と3Dメタデータの表示位置とを比較して、マウスポインタが3Dメタデータを選択しているかどうかを判定する(ステップS805)。この判定においては、マウスポインタの表示位置と3Dメタデータの表示位置が一致した場合に3Dメタデータが選択されたと判定する処理と、マウスポインタの表示位置が3Dメタデータの表示位置から一定距離以内であるかを判定し、一定距離以内であれば3Dメタデータが選択されたと判定する処理のいずれかを行う。なお、マウスポインタの表示位置が3Dメタデータの表示位置から一定距離以内であればその3Dメタデータが選択されたと判定する処理であれば、空間マウス11によるマウスポインタの3Dメタデータへの位置合わせが難しい場合でも、簡単にユーザが選択できるようになる。
FIG. 16 is a first diagram showing a processing flow of editing 3D metadata during moving image reproduction.
FIG. 17 is a first diagram illustrating an overview of 3D metadata editing processing during moving image playback.
Next, processing in which the user edits 3D metadata in a situation where 3D moving images and 3D metadata are being reproduced will be described. Here, editing of 3D metadata means correcting a display trajectory in which 3D metadata moves on a 3D moving image.
First, the reproduction processing unit 16 reproduces a 3D moving image (step S801), and 3D metadata is synthesized and displayed on the moving image (step S802). In such a situation, the user operates the spatial mouse 11 to move the mouse pointer displayed on the 3D display of the spatial mouse 11, matches the display position of the 3D metadata, and further presses the selection button. To do. Then, the spatial mouse control unit 12 receives a 3D metadata selection event from the spatial mouse 11 (step S803), and sends a selection start notification triggered by the reception of the selection event to the sample point generation unit 18 (step S804). When the sample point generation unit 18 receives the selection start notification, the sample point generation unit 18 compares the current display position of the mouse pointer with the display position of the 3D metadata to determine whether the mouse pointer has selected the 3D metadata ( Step S805). In this determination, a process for determining that the 3D metadata is selected when the display position of the mouse pointer matches the display position of the 3D metadata, and the display position of the mouse pointer is within a certain distance from the display position of the 3D metadata. If it is within a certain distance, one of the processes for determining that the 3D metadata is selected is performed. If the processing of determining that the 3D metadata is selected if the display position of the mouse pointer is within a certain distance from the display position of the 3D metadata, the spatial mouse 11 aligns the mouse pointer with the 3D metadata. Even if it is difficult, the user can easily select.

そして、サンプルポイント生成部18は、マウスポインタが3Dメタデータを選択していると判定した場合には、その3DメタデータのIDを3Dメタデータ生成編集部19へ通知する。そして3Dメタデータ生成編集部19は、選択された3Dメタデータの移動要求を受信するまで待機する。ユーザは、空間マウス11を用いて選択した3Dメタデータの3D動画像上における表示軌跡を修正したい場合などに、その3Dメタデータを選択しながら空間マウスを操作してマウスポインタを移動させる。空間マウス制御部12は空間マウス11の操作による3Dメタデータの移動量を検出すると(ステップS806)、その移動量を再生処理部16とサンプルポイント生成部18とへ通知する。再生処理部16は移動量の通知を受けると、その移動量に基づいて3D動画像上に表示しているサンプルポイントを移動表示させるとともに、そのサンプルポイントの移動表示に伴って、選択されている3Dメタデータも移動表示させる(ステップS807)。またサンプルポイント生成部18は、再生処理部16が移動表示させた3Dメタデータの3D動画像上の移動量と、その3DメタデータのIDとを格納した移動要求を3Dメタデータ生成編集部19へ送信する。すると3Dメタデータ生成編集部19は、受信した3Dメタデータの移動量を一時的に記憶すると共に、その移動要求を動き表現情報生成部17へ転送する。   If the sample point generator 18 determines that the 3D metadata is selected by the mouse pointer, the sample point generator 18 notifies the 3D metadata generator / editor 19 of the ID of the 3D metadata. Then, the 3D metadata generation / editing unit 19 waits until it receives a movement request for the selected 3D metadata. When the user wants to correct the display trajectory of the 3D metadata selected using the spatial mouse 11 on the 3D moving image, the user moves the mouse pointer by operating the spatial mouse while selecting the 3D metadata. When the spatial mouse control unit 12 detects the movement amount of the 3D metadata by the operation of the spatial mouse 11 (step S806), the spatial mouse control unit 12 notifies the reproduction processing unit 16 and the sample point generation unit 18 of the movement amount. When the reproduction processing unit 16 receives the notification of the movement amount, the reproduction processing unit 16 moves and displays the sample point displayed on the 3D moving image based on the movement amount, and is selected along with the movement display of the sample point. The 3D metadata is also moved and displayed (step S807). Further, the sample point generation unit 18 generates a movement request storing the movement amount of the 3D metadata displayed by the reproduction processing unit 16 on the 3D moving image and the ID of the 3D metadata, and the 3D metadata generation editing unit 19. Send to. Then, the 3D metadata generation / editing unit 19 temporarily stores the movement amount of the received 3D metadata and transfers the movement request to the motion expression information generation unit 17.

動き表現情報生成部17では移動要求を受信すると、その移動要求で示される移動量を検出し、3Dメタデータの表示軌跡全体を、検出した移動量分変更するための表示軌跡情報の再計算処理を行う(ステップS808)。ここで移動量は3D動画像の仮想空間における(x,y,z)の各移動量で示される。したがって、動き表現情報生成部17は、移動要求で示される3DメタデータのIDから表示軌跡情報を特定し、その表示軌跡情報で示される軌跡を表す数式を、移動量で示される分だけ変換し、その移動後の表示軌跡を表す数式の各係数を算出し、その算出した各係数を示す表示軌跡情報を、新たな表示軌跡情報として3DメタデータIDに対応付けて記憶する(ステップS809)。また動き表現情報生成部17は、再計算後の新たな表示軌跡情報に基づいて、再生開始時刻からの経過時間における3Dメタデータの表示位置を算出し(ステップS810)、再生処理部16に通知することにより、再生処理部16は新たな表示軌跡の3Dメタデータを3D動画像上に合成表示する(ステップS811)。また動き表現情報生成部17は、再計算後の新たな表示軌跡情報を3Dメタデータ生成編集部19に送信する。3Dメタデータ生成編集部19は、空間マウス制御部12からサンプルポイント生成部18を介して編集終了の通知を受けた場合には(例えばユーザが空間マウス11を操作して選択していた3Dメタデータ以外の3D動画像上をクリックすることによりこのイベントが空間マウス制御部12に通知される)、再計算後の新たな表示軌跡情報を、選択された3DメタデータのIDに対応付けて3DメタデータDB14におけるサンプルポイント情報テーブルに記録する(ステップS812)。   When the movement expression information generation unit 17 receives the movement request, the movement amount indicated by the movement request is detected, and the display trajectory information is recalculated to change the entire display trajectory of the 3D metadata by the detected movement amount. Is performed (step S808). Here, the moving amount is indicated by each moving amount of (x, y, z) in the virtual space of the 3D moving image. Therefore, the motion expression information generation unit 17 identifies display trajectory information from the ID of the 3D metadata indicated by the movement request, and converts the mathematical expression representing the trajectory indicated by the display trajectory information by the amount indicated by the movement amount. Then, each coefficient of the mathematical expression representing the display trajectory after the movement is calculated, and the display trajectory information indicating the calculated coefficient is stored in association with the 3D metadata ID as new display trajectory information (step S809). The motion expression information generation unit 17 calculates the display position of the 3D metadata in the elapsed time from the reproduction start time based on the new display trajectory information after recalculation (step S810), and notifies the reproduction processing unit 16 of the display position. As a result, the reproduction processing unit 16 synthesizes and displays the 3D metadata of the new display locus on the 3D moving image (step S811). In addition, the motion expression information generation unit 17 transmits new display trajectory information after recalculation to the 3D metadata generation / editing unit 19. When the 3D metadata generation / editing unit 19 receives a notification of editing completion from the spatial mouse control unit 12 via the sample point generation unit 18 (for example, the 3D metadata generation / editing unit 19 selected by the user operating the spatial mouse 11). This event is notified to the spatial mouse control unit 12 by clicking on the 3D moving image other than the data), and the new display trajectory information after the recalculation is associated with the ID of the selected 3D metadata. It records in the sample point information table in metadata DB14 (step S812).

図18は動画像再生中における3Dメタデータの編集の処理フローを示す第2の図である。
図19は動画像再生中における3Dメタデータの編集処理の概要を示す第2の図である。
上述のステップS801〜8012処理においては、選択された3Dメタデータの移動量に応じて、その3Dメタデータの表示軌跡全体を移動させて新たな表示軌跡情報を再計算した場合の例について説明したが、選択された3Dメタデータのあるサンプルポイントの表示位置の変更の指示を受け付け、そのサンプルポイントの表示位置のみを変更した、新たな表示軌跡情報を再計算するようにしてもよい。
FIG. 18 is a second diagram illustrating a processing flow of editing 3D metadata during moving image reproduction.
FIG. 19 is a second diagram showing an overview of 3D metadata editing processing during moving image playback.
In the processing in steps S801 to 8012 described above, an example in which the entire display trajectory of the 3D metadata is moved and new display trajectory information is recalculated according to the movement amount of the selected 3D metadata has been described. However, an instruction to change the display position of a sample point having the selected 3D metadata may be received, and new display trajectory information in which only the display position of the sample point is changed may be recalculated.

つまりこの場合、上述同様に、ステップS801〜ステップS805を行う。そして、ユーザが空間マウス11を用いて選択した3Dメタデータの3D動画像上における表示軌跡を修正したい場合などに、その3Dメタデータの表示軌跡中におけるサンプルポイントを選択しながら空間マウスを操作してマウスポインタを移動させる。空間マウス制御部12は空間マウス11の操作による移動量を検出すると(ステップS906)、その移動量を再生処理部16とサンプルポイント生成部18とへ通知する。再生処理部16は移動量の通知を受けると、その移動量に基づいて3D動画像上に表示しているサンプルポイントを移動表示させる(ステップS907)。またサンプルポイント生成部18は、再生処理部16が移動表示させたサンプルポイントの3D動画像上の移動量と、そのサンプルポイントに対応する3DメタデータのIDとを格納した移動要求を3Dメタデータ生成編集部19へ送信する。すると3Dメタデータ生成編集部19は、受信した3Dメタデータの移動量を一時的に記憶すると共に、その移動量を示す移動要求を動き表現情報生成部17へ転送する。   That is, in this case, Steps S801 to S805 are performed as described above. When the user wants to correct the display trajectory of the 3D metadata selected by the user using the spatial mouse 11 on the 3D moving image, the user operates the spatial mouse while selecting a sample point in the display trajectory of the 3D metadata. Move the mouse pointer. When the spatial mouse control unit 12 detects the movement amount due to the operation of the spatial mouse 11 (step S906), it notifies the reproduction processing unit 16 and the sample point generation unit 18 of the movement amount. Upon receiving the movement amount notification, the reproduction processing unit 16 moves and displays the sample points displayed on the 3D moving image based on the movement amount (step S907). In addition, the sample point generation unit 18 outputs a movement request storing the movement amount of the sample point on the 3D moving image displayed by the reproduction processing unit 16 and the ID of the 3D metadata corresponding to the sample point to the 3D metadata. The data is transmitted to the generation / editing unit 19. Then, the 3D metadata generation / editing unit 19 temporarily stores the movement amount of the received 3D metadata, and transfers a movement request indicating the movement amount to the motion expression information generation unit 17.

動き表現情報生成部17では移動要求を受信すると、その移動要求で示される移動量を検出し、3Dメタデータの表示軌跡のうち移動されたサンプルポイントの箇所における移動軌跡を、検出した移動量分変更する、表示軌跡情報の再計算処理を行う(ステップS908)。ここで移動量は3D動画像の仮想空間における(x,y,z)の各移動量で示される。したがって、動き表現情報生成部17は、移動要求で示される3DメタデータのIDから表示軌跡情報を特定し、その表示軌跡情報で示される各サンプルポイントのうち、移動されたサンプルポイントの表示位置を変更し、その表示軌跡を表す数式の各係数を算出し、その算出した各係数を示す表示軌跡情報を、新たな表示軌跡情報として3DメタデータIDに対応付けて記憶する(ステップS909)。また動き表現情報生成部17は再計算後の新たな表示軌跡情報に基づいて、再生開始時刻からの現在の経過時間における3Dメタデータの表示位置を算出し(ステップS910)、再生処理部16に通知することにより、再生処理部16は新たな表示軌跡の3Dメタデータを3D動画像上に合成表示する(ステップS911)。また動き表現情報生成部17は、再計算後の新たな表示軌跡情報を3Dメタデータ生成編集部19に送信する。3Dメタデータ生成編集部19は、空間マウス制御部12からサンプルポイント生成部18を介して編集終了の通知を受けた場合には(例えばユーザが空間マウス11を操作して選択していた3Dメタデータ以外の3D動画像上をクリックすることによりこのイベントが空間マウス制御部12に通知される)、再計算後の新たな表示軌跡情報を、選択された3DメタデータのIDに対応付けて3DメタデータDB14におおけるサンプルポイント情報テーブルに記録する(ステップS912)。   When the movement expression information generation unit 17 receives the movement request, the movement expression indicated by the movement request is detected, and the movement trajectory at the moved sample point in the display trajectory of the 3D metadata is detected by the detected movement amount. The recalculation process of the display trajectory information to be changed is performed (step S908). Here, the moving amount is indicated by each moving amount of (x, y, z) in the virtual space of the 3D moving image. Therefore, the motion expression information generation unit 17 specifies display trajectory information from the ID of the 3D metadata indicated by the movement request, and among the sample points indicated by the display trajectory information, the display position of the moved sample point is determined. Then, each coefficient of the mathematical expression representing the display trajectory is calculated, and the display trajectory information indicating the calculated coefficient is stored in association with the 3D metadata ID as new display trajectory information (step S909). The motion expression information generation unit 17 calculates the display position of the 3D metadata at the current elapsed time from the reproduction start time based on the new display trajectory information after recalculation (step S910). By receiving the notification, the reproduction processing unit 16 composites and displays the 3D metadata of the new display locus on the 3D moving image (step S911). In addition, the motion expression information generation unit 17 transmits new display trajectory information after recalculation to the 3D metadata generation / editing unit 19. When the 3D metadata generation / editing unit 19 receives a notification of editing completion from the spatial mouse control unit 12 via the sample point generation unit 18, the 3D metadata generation / editing unit 19 (for example, the 3D metadata selected by the user operating the spatial mouse 11). This event is notified to the spatial mouse control unit 12 by clicking on the 3D moving image other than the data), and the new display trajectory information after the recalculation is associated with the ID of the selected 3D metadata. It records in the sample point information table in metadata DB14 (step S912).

以上、本発明の実施形態について説明したが、上述の処理によれば、3D動画像上に合成表示させる3Dメタデータの作成を、空間マウスを用いた容易な操作(空間における空間マウスの上下左右前後への移動のみ)により行うことができる。
また、本発明によれば、3Dメタデータの作成時に、空間マウスにより指定した3D動画像上の全ての位置を3Dメタデータの表示軌跡の情報として保持せず、離散的な複数のサンプルポイントのみを軌跡情報として保持することとなるため、格納するデータの削減を行うことができる。
また、本発明によれば、3Dメタデータの表示軌跡の編集を、空間マウスを用いた容易な操作(空間における空間マウスの上下左右前後への移動のみ)により行うことができる。
また、本発明によれば、3Dメタデータの表示軌跡の編集時においてユーザが表示軌跡を選択する際には、3Dメタデータを直接指定しなくとも、一定の範囲であれば3Dメタデータを選択可能とするため、容易に編集のための3Dメタデータの選択を行うことができる。
また、各3Dメタデータの表示軌跡についての、定型テンプレートや、移動速度や移動方向を動き表現情報として記憶しておくことができるため、3D動画像において表示される3Dメタデータの検索などを行う機能が備えられていた場合には、定型テンプレートや移動速度や移動方向を被検索用データとして指定することにより、3D動画像上に表示される3Dメタデータの検索の処理を行うことが可能となる。
また、本発明によれば、ユーザが3D動画像再生時に表示されている3Dメタデータの編集を行うと、直ちにその編集後の表示軌跡が算出されて、その表示軌跡により3Dメタデータの合成表示が行われるため、3Dメタデータの編集をリアルタイムで行うことが可能となる。
また、本発明によれば、3Dメタデータの作成時にユーザが空間マウスを移動させることで、自動的に3Dメタデータの表示位置が特定されるため、容易に3Dメタデータの表示軌跡を入力することができる。
As described above, the embodiment of the present invention has been described. According to the above-described processing, 3D metadata to be synthesized and displayed on a 3D moving image can be easily created using a space mouse (up, down, left, and right of the space mouse in space). This can be done only by moving back and forth.
In addition, according to the present invention, at the time of creating 3D metadata, not all the positions on the 3D moving image designated by the spatial mouse are held as 3D metadata display trajectory information, and only a plurality of discrete sample points are stored. Is stored as trajectory information, so that data to be stored can be reduced.
In addition, according to the present invention, editing of the display trajectory of 3D metadata can be performed by an easy operation using a space mouse (only movement of the space mouse up and down, left and right and back and forth in space).
Further, according to the present invention, when a user selects a display track when editing a display track of 3D metadata, the 3D metadata is selected within a certain range without directly specifying the 3D metadata. Therefore, it is possible to easily select 3D metadata for editing.
In addition, since a fixed template, a moving speed and a moving direction of each 3D metadata display trajectory can be stored as motion expression information, search of 3D metadata displayed in the 3D moving image is performed. When the function is provided, it is possible to perform processing for searching for 3D metadata displayed on the 3D moving image by designating the template, the moving speed, and the moving direction as the data to be searched. Become.
Further, according to the present invention, when the user edits the 3D metadata displayed at the time of playback of the 3D moving image, the display trajectory after the editing is immediately calculated, and the composite display of the 3D metadata is performed based on the display trajectory. Therefore, 3D metadata can be edited in real time.
Further, according to the present invention, since the display position of the 3D metadata is automatically specified by moving the spatial mouse when the user creates the 3D metadata, the display locus of the 3D metadata is easily input. be able to.

なお、上述の3次元動画像再生装置は内部に、コンピュータシステムを有している。そして、上述した各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。   Note that the above-described three-dimensional moving image reproduction apparatus has a computer system therein. Each process described above is stored in a computer-readable recording medium in the form of a program, and the above process is performed by the computer reading and executing the program. Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.

また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

3次元動画像再生装置の構成を示すブロック図である。It is a block diagram which shows the structure of a three-dimensional moving image reproducing device. 3Dメタデータ情報テーブルを示す図である。It is a figure which shows 3D metadata information table. サンプルポイント情報テーブルを示す図である。It is a figure which shows a sample point information table. 3Dメタデータの作成時の処理フローを示す図である。It is a figure which shows the processing flow at the time of preparation of 3D metadata. 3Dメタデータの合成表示の処理フローを示す図である。It is a figure which shows the processing flow of a composite display of 3D metadata. 表示軌跡情報算出処理の処理フローを示す第1の図である。It is a 1st figure which shows the processing flow of a display trace information calculation process. 表示軌跡情報算出処理の概要を示す第1の図である。It is a 1st figure which shows the outline | summary of a display trace information calculation process. 表示軌跡情報算出処理の処理フローを示す第2の図である。It is a 2nd figure which shows the processing flow of a display trace information calculation process. 表示軌跡情報算出処理の概要を示す第2の図である。It is a 2nd figure which shows the outline | summary of a display trace information calculation process. 表示軌跡情報算出処理の処理フローを示す第3の図である。It is a 3rd figure which shows the processing flow of a display trace information calculation process. 表示軌跡情報の算出処理の概要を示す第3の図である。It is a 3rd figure which shows the outline | summary of the calculation process of display locus information. 表示軌跡情報算出処理の処理フローを示す第4の図である。It is a 4th figure which shows the processing flow of a display locus | trajectory information calculation process. 表示軌跡情報算出処理の概要を示す第4の図である。It is a 4th figure which shows the outline | summary of a display trace information calculation process. 3Dメタデータ合成表示の処理フローを示す図である。It is a figure which shows the processing flow of 3D metadata synthetic | combination display. 3Dメタデータ合成表示の処理概要を示す図である。It is a figure which shows the process outline | summary of 3D metadata synthetic | combination display. 3Dメタデータの編集の処理フローを示す第1の図である。It is a 1st figure which shows the processing flow of edit of 3D metadata. 3Dメタデータの編集処理の概要を示す第1の図である。It is a 1st figure which shows the outline | summary of the edit process of 3D metadata. 3Dメタデータの編集の処理フローを示す第2の図である。It is a 2nd figure which shows the processing flow of edit of 3D metadata. 3Dメタデータの編集処理の概要を示す第2の図である。It is a 2nd figure which shows the outline | summary of the edit process of 3D metadata.

符号の説明Explanation of symbols

11・・・空間マウス
12・・・空間マウス制御部
13・・・3D動画DB
14・・・3DメタデータDB
15・・・3Dディスプレイ
16・・・再生処理部
17・・・動き表現情報生成部
18・・・サンプルポイント生成部
19・・・3Dメタデータ生成編集部
11 ... Spatial mouse 12 ... Spatial mouse control unit 13 ... 3D animation DB
14 ... 3D metadata DB
DESCRIPTION OF SYMBOLS 15 ... 3D display 16 ... Reproduction | regeneration processing part 17 ... Motion expression information generation part 18 ... Sample point generation part 19 ... 3D metadata production | generation edit part

Claims (17)

予め記憶する3次元動画像を3次元動画像表示手段に再生出力する3次元動画像再生装置であって、
実空間に存在する空間入力装置の位置を検出し、当該位置の変化に応じて前記3次元動画像中の前記空間入力装置による指定位置を検出する指定位置検出手段と、
前記空間入力装置による指定位置のうち、前記3次元動画像中の付加情報の表示位置を、前記空間入力装置から受信した位置特定情報、または所定の時間間隔における前記空間入力装置による指定位置の何れかに基づいて複数検出する付加情報表示位置検出手段と、
前記3次元動画像の開始時刻と、前記付加情報の表示位置を検出した時刻とに基づいて、前記3次元動画像中において前記付加情報を表示する前記開始時刻からの経過時間を検出する表示時刻検出手段と、
前記付加情報の前記表示位置とその表示位置において前記付加情報を表示する前記3次元動画像の開始時刻からの経過時間とからなる表示属性情報を、当該付加情報の表示位置毎に表示属性情報記憶手段へ複数記録する表示属性情報記録手段と、
を備えることを特徴とする3次元動画像再生装置。
A three-dimensional moving image reproducing device for reproducing and outputting a three-dimensional moving image stored in advance to a three-dimensional moving image display means,
A designated position detecting means for detecting a position of the spatial input device existing in the real space and detecting a designated position by the spatial input device in the three-dimensional moving image according to a change in the position;
Among the designated positions by the spatial input device, the display position of the additional information in the three-dimensional moving image is either the position specifying information received from the spatial input device or the designated position by the spatial input device at a predetermined time interval. A plurality of additional information display position detecting means for detecting the
A display time for detecting an elapsed time from the start time for displaying the additional information in the three-dimensional moving image based on a start time of the three-dimensional moving image and a time at which a display position of the additional information is detected. Detection means;
Display attribute information including the display position of the additional information and the elapsed time from the start time of the three-dimensional moving image for displaying the additional information at the display position is displayed for each display position of the additional information. A plurality of display attribute information recording means for recording on the means;
A three-dimensional moving image reproduction apparatus comprising:
前記付加情報の複数の前記表示位置から、当該複数の表示位置を結んだ表示軌跡を特定する表示軌跡情報を算出する表示軌跡算出手段と、を備え、
前記表示属性情報記録手段は、前記算出した表示軌跡情報をさらに含む前記表示属性情報を、前記付加情報の表示位置毎に表示属性情報記憶手段へ複数記録する
ことを特徴とする請求項1に記載の3次元動画像再生装置。
Display trajectory calculation means for calculating display trajectory information for specifying a display trajectory connecting the plurality of display positions from the plurality of display positions of the additional information, and
The display attribute information recording unit records a plurality of the display attribute information further including the calculated display trajectory information in a display attribute information storage unit for each display position of the additional information. 3D video playback device.
前記表示軌跡情報は、前記付加情報の複数の前記表示位置を結んだ各直線を表わす式の各係数である
ことを特徴とする請求項2に記載の3次元動画像再生装置。
The three-dimensional moving image reproducing apparatus according to claim 2, wherein the display trajectory information is each coefficient of an expression representing each straight line connecting the plurality of display positions of the additional information.
前記表示軌跡情報は、前記付加情報の複数の前記表示位置を結んだスプライン曲線を表わす式の各係数である
ことを特徴とする請求項2に記載の3次元動画像再生装置。
The three-dimensional moving image reproduction apparatus according to claim 2, wherein the display trajectory information is each coefficient of an expression representing a spline curve connecting the plurality of display positions of the additional information.
前記複数検出した前記3次元動画像中の付加情報の表示位置のうち連続する複数の表示位置が、当該連続する複数の表示位置の始点の表示位置と次点の表示位置とを結ぶ直線の延伸線を中心とした所定の半径の仮想円柱内に位置するかを、前記次点の表示位置の次の表示位置から順に判定し、当該仮想円柱内に初めて位置しないと判定した表示位置の1つ前の表示位置と前記始点の表示位置とを結んだ直線を表わす式の係数からなる表示軌跡情報を算出する表示軌跡算出手段と、を備え、
前記表示軌跡算出手段は、前記仮想円柱内に初めて位置しないと判定した表示位置の1つ前の表示位置を始点として前記表示軌跡情報を繰り返し算出し、
前記表示属性情報記録手段は、前記算出した表示軌跡情報をさらに含む前記表示属性情報を、前記付加情報の表示位置毎に表示属性情報記憶手段へ複数記録する
ことを特徴とする請求項1に記載の3次元動画像再生装置。
A plurality of continuous display positions among the display positions of the additional information in the detected three-dimensional moving image are straight lines connecting the display position of the start point and the display position of the next point. One of the display positions that are determined in order from the display position next to the display position of the next point in order to determine whether they are located within a virtual cylinder with a predetermined radius centered on a line, and are determined not to be located in the virtual cylinder for the first time Display trajectory calculation means for calculating display trajectory information consisting of coefficients of an expression representing a straight line connecting the previous display position and the display position of the start point, and
The display trajectory calculation means repeatedly calculates the display trajectory information starting from the display position immediately before the display position determined not to be positioned for the first time in the virtual cylinder,
The display attribute information recording unit records a plurality of the display attribute information further including the calculated display trajectory information in a display attribute information storage unit for each display position of the additional information. 3D video playback device.
前記表示軌跡情報で表わされる、前記付加情報の複数の前記表示位置を結んだ表示軌跡と、予め定められた軌跡テンプレートとを比較して、一致する軌跡テンプレートを特定する軌跡テンプレート特定手段と、を備え、
前記表示属性情報記録手段は、前記軌跡テンプレートをさらに含む前記表示属性情報を、前記付加情報の表示位置毎に表示属性情報記憶手段へ複数記録する
ことを特徴とする請求項1または請求項2または請求項5の何れかに記載の3次元動画像再生装置。
A trajectory template specifying means for comparing a display trajectory connecting the plurality of display positions of the additional information, which is represented by the display trajectory information, with a predetermined trajectory template and specifying a matching trajectory template; Prepared,
The display attribute information recording unit records a plurality of the display attribute information further including the trajectory template in a display attribute information storage unit for each display position of the additional information. The three-dimensional moving image reproducing device according to claim 5.
前記複数検出した前記3次元動画像中の付加情報の表示位置のうち2つの連続する各表示位置とそれら表示位置の表示時刻とに基づいて、それら2つの連続する各表示位置における前記付加情報の移動速度と移動方向とを算出する移動情報算出手段と、
前記表示属性情報記録手段は、前記算出した移動速度と移動方向とをさらに含む前記表示属性情報を、前記付加情報の表示位置毎に表示属性情報記憶手段へ複数記録する
ことを特徴とする請求項1または請求項2または請求項5の何れかに記載の3次元動画像再生装置。
Based on the two consecutive display positions of the plurality of detected display positions of the additional information in the three-dimensional moving image and the display times of the display positions, the additional information at the two consecutive display positions is displayed. Movement information calculation means for calculating a movement speed and a movement direction;
The display attribute information recording unit records a plurality of the display attribute information further including the calculated moving speed and moving direction in a display attribute information storage unit for each display position of the additional information. The three-dimensional moving image reproduction device according to claim 1 or claim 2 or claim 5.
前記3次元動画像を3次元動画像表示手段に再生出力する3次元動画像再生手段と、
前記付加情報の表示属性情報を前記表示属性情報記憶手段から読み取って、当該表示属性情報に基づいて前記付加情報を前記3次元動画像中に表示する付加情報表示手段と、
前記空間入力装置による指定位置に基づいて、前記付加情報が選択されたかを判定する付加情報選択有無判定手段と、
前記空間入力装置による指定位置の移動を検出する指定位置移動検出手段と、
前記付加情報が選択されている間に、前記指定位置の移動を検出した場合に、前記3次元動画像中に表示している付加情報の前記移動後の表示軌跡情報を、当該付加情報に関する表示軌跡情報と、前記指定位置の移動量に基づいて再計算する軌跡再計算手段と、を備え、
前記付加情報表示手段は、前記移動後の表示軌跡情報に基づいて、前記3次元動画像中に前記付加情報を表示する
ことを特徴とする請求項2から請求項7の何れかに記載の3次元動画像再生装置。
3D moving image reproduction means for reproducing and outputting the 3D moving image to 3D moving image display means;
Additional information display means for reading the display attribute information of the additional information from the display attribute information storage means, and displaying the additional information in the three-dimensional moving image based on the display attribute information;
Additional information selection presence / absence determining means for determining whether the additional information is selected based on a designated position by the spatial input device;
Designated position movement detecting means for detecting movement of the designated position by the spatial input device;
When the movement of the designated position is detected while the additional information is selected, the display trajectory information after the movement of the additional information displayed in the three-dimensional moving image is displayed on the additional information. Trajectory information, and trajectory recalculation means for recalculating based on the movement amount of the specified position,
The said additional information display means displays the said additional information in the said three-dimensional moving image based on the display locus | trajectory information after the said movement. The Claim 3 characterized by the above-mentioned. Dimensional video playback device.
予め記憶する3次元動画像を3次元動画像表示手段に再生出力する3次元動画像再生装置における処理方法であって、
前記3次元動画像再生装置の指定位置検出手段が、実空間に存在する空間入力装置の位置を検出し、当該位置の変化に応じて前記3次元動画像中の前記空間入力装置による指定位置を検出し、
前記3次元動画像再生装置の付加情報表示位置検出手段が、前記空間入力装置による指定位置のうち、前記3次元動画像中の付加情報の表示位置を、前記空間入力装置から受信した位置特定情報、または所定の時間間隔における前記空間入力装置による指定位置の何れかに基づいて複数検出し、
前記3次元動画像再生装置の表示時刻検出手段が、前記3次元動画像の開始時刻と、前記付加情報の表示位置を検出した時刻とに基づいて、前記3次元動画像中において前記付加情報を表示する前記開始時刻からの経過時間を検出し、
前記3次元動画像再生装置の表示属性情報記録手段が、前記付加情報の前記表示位置とその表示位置において前記付加情報を表示する前記3次元動画像の開始時刻からの経過時間とからなる表示属性情報を、当該付加情報の表示位置毎に表示属性情報記憶手段へ複数記録する
ことを特徴とする処理方法。
A processing method in a three-dimensional moving image reproducing apparatus for reproducing and outputting a three-dimensional moving image stored in advance to a three-dimensional moving image display means,
The designated position detecting means of the three-dimensional moving image reproducing device detects the position of the spatial input device existing in real space, and determines the designated position by the spatial input device in the three-dimensional moving image according to the change of the position. Detect
Position specifying information received from the spatial input device by the additional information display position detecting means of the three-dimensional moving image reproduction device, of the positions specified by the spatial input device, the display position of the additional information in the three-dimensional moving image. Or a plurality of detections based on any of the designated positions by the spatial input device at a predetermined time interval,
Based on the start time of the three-dimensional moving image and the time when the display position of the additional information is detected by the display time detecting means of the three-dimensional moving image reproduction device, the additional information is displayed in the three-dimensional moving image. Detect the elapsed time from the start time to display,
The display attribute information recording means of the three-dimensional moving image reproduction apparatus includes the display position of the additional information and the elapsed time from the start time of the three-dimensional moving image that displays the additional information at the display position. A plurality of pieces of information are recorded in the display attribute information storage unit for each display position of the additional information.
前記3次元動画像再生装置の表示軌跡算出手段が、前記付加情報の複数の前記表示位置から、当該複数の表示位置を結んだ表示軌跡を特定する表示軌跡情報を算出し、
前記3次元動画像再生装置の前記表示属性情報記録手段は、前記算出した表示軌跡情報をさらに含む前記表示属性情報を、前記付加情報の表示位置毎に表示属性情報記憶手段へ複数記録する
ことを特徴とする請求項9に記載の処理方法。
The display trajectory calculating means of the three-dimensional moving image reproduction device calculates display trajectory information for specifying a display trajectory connecting the plurality of display positions from the plurality of display positions of the additional information,
The display attribute information recording unit of the three-dimensional moving image reproduction device records a plurality of the display attribute information further including the calculated display trajectory information in a display attribute information storage unit for each display position of the additional information. The processing method according to claim 9, wherein the processing method is characterized.
前記3次元動画像再生装置の表示軌跡算出手段が、前記複数検出した前記3次元動画像中の付加情報の表示位置のうち連続する複数の表示位置が、当該連続する複数の表示位置の始点の表示位置と次点の表示位置とを結ぶ直線の延伸線を中心とした所定の半径の仮想円柱内に位置するかを、前記次点の表示位置の次の表示位置から順に判定し、当該仮想円柱内に初めて位置しないと判定した表示位置の1つ前の表示位置と前記始点の表示位置とを結んだ直線を表わす式の係数からなる表示軌跡情報を算出し、
前記3次元動画像再生装置の前記表示軌跡算出手段が、前記仮想円柱内に初めて位置しないと判定した表示位置の1つ前の表示位置を始点として前記表示軌跡情報を繰り返し算出し、
前記3次元動画像再生装置の前記表示属性情報記録手段が、前記算出した表示軌跡情報をさらに含む前記表示属性情報を、前記付加情報の表示位置毎に表示属性情報記憶手段へ複数記録する
ことを特徴とする請求項9に記載の処理方法。
The display trajectory calculating means of the three-dimensional moving image reproduction apparatus has a plurality of continuous display positions among the display positions of the additional information in the plurality of detected three-dimensional moving images as starting points of the plurality of continuous display positions. It is determined in order from the display position next to the display position of the next point whether it is located in a virtual cylinder having a predetermined radius centered on a straight line extending from the display position to the display position of the next point. Calculating display trajectory information composed of coefficients of a formula representing a straight line connecting the display position immediately before the display position determined not to be located in the cylinder for the first time and the display position of the start point;
The display trajectory calculating means of the three-dimensional moving image reproduction device repeatedly calculates the display trajectory information starting from the display position immediately before the display position determined not to be positioned for the first time in the virtual cylinder,
The display attribute information recording unit of the three-dimensional moving image reproduction device records a plurality of the display attribute information further including the calculated display trajectory information in a display attribute information storage unit for each display position of the additional information. The processing method according to claim 9, wherein the processing method is characterized.
前記3次元動画像再生装置の軌跡テンプレート特定手段が、前記表示軌跡情報で表わされる、前記付加情報の複数の前記表示位置を結んだ表示軌跡と、予め定められた軌跡テンプレートとを比較して、一致する軌跡テンプレートを特定し、
前記3次元動画像再生装置の前記表示属性情報記録手段が、前記軌跡テンプレートをさらに含む前記表示属性情報を、前記付加情報の表示位置毎に表示属性情報記憶手段へ複数記録する
ことを特徴とする請求項9から請求項11の何れかに記載の処理方法。
The trajectory template specifying means of the three-dimensional moving image reproducing device compares a display trajectory connecting the plurality of display positions of the additional information represented by the display trajectory information with a predetermined trajectory template, Identify matching trajectory templates,
The display attribute information recording unit of the three-dimensional moving image reproduction apparatus records a plurality of the display attribute information further including the trajectory template in a display attribute information storage unit for each display position of the additional information. The processing method according to claim 9.
前記3次元動画像再生装置の移動情報算出手段が、前記複数検出した前記3次元動画像中の付加情報の表示位置のうち2つの連続する各表示位置とそれら表示位置の表示時刻とに基づいて、それら2つの連続する各表示位置における前記付加情報の移動速度と移動方向とを算出し、
前記3次元動画像再生装置の前記表示属性情報記録手段が、前記算出した移動速度と移動方向とをさらに含む前記表示属性情報を、前記付加情報の表示位置毎に表示属性情報記憶手段へ複数記録する
ことを特徴とする請求項9から請求項11の何れかに記載の処理方法。
The movement information calculation means of the three-dimensional moving image reproduction apparatus is based on two consecutive display positions among the display positions of the additional information in the plurality of detected three-dimensional moving images and the display times of the display positions. , Calculating the moving speed and moving direction of the additional information at each of the two consecutive display positions,
The display attribute information recording unit of the three-dimensional moving image reproduction apparatus records a plurality of the display attribute information further including the calculated moving speed and moving direction in the display attribute information storage unit for each display position of the additional information. The processing method according to any one of claims 9 to 11, wherein:
前記3次元動画像再生装置の3次元動画像再生手段が、前記3次元動画像を3次元動画像表示手段に再生出力し、
前記3次元動画像再生装置の付加情報表示手段が、前記付加情報の表示属性情報を前記表示属性情報記憶手段から読み取って、当該表示属性情報に基づいて前記付加情報を前記3次元動画像中に表示し、
前記3次元動画像再生装置の付加情報選択有無判定手段が、前記空間入力装置による指定位置に基づいて、前記付加情報が選択されたかを判定し、
前記3次元動画像再生装置の指定位置移動検出手段が、前記空間入力装置による指定位置の移動を検出し、
前記3次元動画像再生装置の軌跡再計算手段が、前記付加情報が選択されている間に、前記指定位置の移動を検出した場合に、前記3次元動画像中に表示している付加情報の前記移動後の表示軌跡情報を、当該付加情報に関する表示軌跡情報と、前記指定位置の移動量に基づいて再計算し、
前記3次元動画像再生装置の前記付加情報表示手段が、前記移動後の表示軌跡情報に基づいて、前記3次元動画像中に前記付加情報を表示する
ことを特徴とする請求項10から請求項13の何れかに記載の処理方法。
Three-dimensional moving image reproducing means of the three-dimensional moving image reproducing device reproduces and outputs the three-dimensional moving image to a three-dimensional moving image display means;
The additional information display unit of the three-dimensional moving image reproduction apparatus reads the display attribute information of the additional information from the display attribute information storage unit, and the additional information is included in the three-dimensional moving image based on the display attribute information. Display
The additional information selection presence / absence determining means of the three-dimensional moving image reproduction device determines whether the additional information is selected based on a designated position by the spatial input device,
The designated position movement detecting means of the three-dimensional moving image reproducing device detects the movement of the designated position by the spatial input device,
When the trajectory recalculation unit of the three-dimensional moving image reproduction apparatus detects the movement of the designated position while the additional information is selected, the additional information displayed in the three-dimensional moving image is displayed. Recalculate the display trajectory information after the movement based on the display trajectory information related to the additional information and the amount of movement of the designated position,
11. The additional information display unit of the three-dimensional moving image reproduction device displays the additional information in the three-dimensional moving image based on the display trajectory information after the movement. 14. The processing method according to any one of items 13.
予め記憶する3次元動画像を3次元動画像表示手段に再生出力する3次元動画像再生装置のコンピュータを、
実空間に存在する空間入力装置の位置を検出し、当該位置の変化に応じて前記3次元動画像中の前記空間入力装置による指定位置を検出する指定位置検出手段、
前記空間入力装置による指定位置のうち、前記3次元動画像中の付加情報の表示位置を、前記空間入力装置から受信した位置特定情報、または所定の時間間隔における前記空間入力装置による指定位置の何れかに基づいて複数検出する付加情報表示位置検出手段、
前記3次元動画像の開始時刻と、前記付加情報の表示位置を検出した時刻とに基づいて、前記3次元動画像中において前記付加情報を表示する前記開始時刻からの経過時間を検出する表示時刻検出手段、
前記付加情報の前記表示位置とその表示位置において前記付加情報を表示する前記3次元動画像の開始時刻からの経過時間とからなる表示属性情報を、当該付加情報の表示位置毎に表示属性情報記憶手段へ複数記録する表示属性情報記録手段、
として機能させるためのプログラム。
A computer of a three-dimensional moving image reproducing apparatus for reproducing and outputting a three-dimensional moving image stored in advance to a three-dimensional moving image display means,
A designated position detecting means for detecting a position of the spatial input device existing in the real space and detecting a designated position by the spatial input device in the three-dimensional moving image according to a change in the position;
Among the designated positions by the spatial input device, the display position of the additional information in the three-dimensional moving image is either the position specifying information received from the spatial input device or the designated position by the spatial input device at a predetermined time interval. A plurality of additional information display position detecting means for detecting the
A display time for detecting an elapsed time from the start time for displaying the additional information in the three-dimensional moving image based on a start time of the three-dimensional moving image and a time at which a display position of the additional information is detected. Detection means,
Display attribute information including the display position of the additional information and the elapsed time from the start time of the three-dimensional moving image for displaying the additional information at the display position is displayed for each display position of the additional information. A plurality of display attribute information recording means for recording on the means;
Program to function as.
前記コンピュータを、さらに、
前記付加情報の複数の前記表示位置から、当該複数の表示位置を結んだ表示軌跡を特定する表示軌跡情報を算出する表示軌跡算出手段、
として機能させ、
前記表示属性情報記録手段が、前記算出した表示軌跡情報をさらに含む前記表示属性情報を、前記付加情報の表示位置毎に表示属性情報記憶手段へ複数記録する
ことを特徴とする請求項15に記載のプログラム。
Said computer further
Display trajectory calculation means for calculating display trajectory information for specifying a display trajectory connecting the plurality of display positions from the plurality of display positions of the additional information;
Function as
The display attribute information recording unit records a plurality of the display attribute information further including the calculated display trajectory information in a display attribute information storage unit for each display position of the additional information. Program.
前記コンピュータを、さらに、
前記3次元動画像を3次元動画像表示手段に再生出力する3次元動画像再生手段、
前記付加情報の表示属性情報を前記表示属性情報記憶手段から読み取って、当該表示属性情報に基づいて前記付加情報を前記3次元動画像中に表示する付加情報表示手段、
前記空間入力装置による指定位置に基づいて、前記付加情報が選択されたかを判定する付加情報選択有無判定手段、
前記空間入力装置による指定位置の移動を検出する指定位置移動検出手段、
前記付加情報が選択されている間に、前記指定位置の移動を検出した場合に、前記3次元動画像中に表示している付加情報の前記移動後の表示軌跡情報を、当該付加情報に関する表示軌跡情報と、前記指定位置の移動量に基づいて再計算する軌跡再計算手段、
として機能させ、
前記付加情報表示手段が、前記移動後の表示軌跡情報に基づいて、前記3次元動画像中に前記付加情報を表示する
ことを特徴とする請求項16に記載のプログラム。
Said computer further
3D moving image reproduction means for reproducing and outputting the 3D moving image to 3D moving image display means;
Additional information display means for reading the display attribute information of the additional information from the display attribute information storage means and displaying the additional information in the three-dimensional moving image based on the display attribute information;
Additional information selection presence / absence determining means for determining whether the additional information is selected based on a designated position by the spatial input device;
Designated position movement detecting means for detecting movement of the designated position by the spatial input device;
When the movement of the designated position is detected while the additional information is selected, the display trajectory information after the movement of the additional information displayed in the three-dimensional moving image is displayed on the additional information. Trajectory recalculation means for recalculating based on trajectory information and the amount of movement of the specified position,
Function as
The program according to claim 16, wherein the additional information display unit displays the additional information in the three-dimensional moving image based on the display trajectory information after the movement.
JP2008223933A 2008-09-01 2008-09-01 Three-dimensional moving image reproducing apparatus, three-dimensional moving image reproducing method and program thereof Active JP5047103B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008223933A JP5047103B2 (en) 2008-09-01 2008-09-01 Three-dimensional moving image reproducing apparatus, three-dimensional moving image reproducing method and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008223933A JP5047103B2 (en) 2008-09-01 2008-09-01 Three-dimensional moving image reproducing apparatus, three-dimensional moving image reproducing method and program thereof

Publications (2)

Publication Number Publication Date
JP2010061231A true JP2010061231A (en) 2010-03-18
JP5047103B2 JP5047103B2 (en) 2012-10-10

Family

ID=42187982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008223933A Active JP5047103B2 (en) 2008-09-01 2008-09-01 Three-dimensional moving image reproducing apparatus, three-dimensional moving image reproducing method and program thereof

Country Status (1)

Country Link
JP (1) JP5047103B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1173518A (en) * 1997-06-20 1999-03-16 Nippon Telegr & Teleph Corp <Ntt> Device and method for interactive picture operation display and program storage medium
JP2003180895A (en) * 2001-12-19 2003-07-02 Akio Okada Sport coating system and storage medium for storing sport coaching program
JP2005025600A (en) * 2003-07-04 2005-01-27 Hitachi Ltd Three-dimensional map display device equipped with three-dimensional walk-through device
JP2006014090A (en) * 2004-06-28 2006-01-12 Toshiba Corp Structure of metadata and editing method thereof
JP2006065517A (en) * 2004-08-25 2006-03-09 Nippon Telegr & Teleph Corp <Ntt> Real space information adding device, method and program
JP2006195525A (en) * 2005-01-11 2006-07-27 Nippon Hoso Kyokai <Nhk> Apparatus and program for adding video object locus
JP2007318321A (en) * 2006-05-24 2007-12-06 Nippon Hoso Kyokai <Nhk> Additional image generating device and additional image composing device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1173518A (en) * 1997-06-20 1999-03-16 Nippon Telegr & Teleph Corp <Ntt> Device and method for interactive picture operation display and program storage medium
JP2003180895A (en) * 2001-12-19 2003-07-02 Akio Okada Sport coating system and storage medium for storing sport coaching program
JP2005025600A (en) * 2003-07-04 2005-01-27 Hitachi Ltd Three-dimensional map display device equipped with three-dimensional walk-through device
JP2006014090A (en) * 2004-06-28 2006-01-12 Toshiba Corp Structure of metadata and editing method thereof
JP2006065517A (en) * 2004-08-25 2006-03-09 Nippon Telegr & Teleph Corp <Ntt> Real space information adding device, method and program
JP2006195525A (en) * 2005-01-11 2006-07-27 Nippon Hoso Kyokai <Nhk> Apparatus and program for adding video object locus
JP2007318321A (en) * 2006-05-24 2007-12-06 Nippon Hoso Kyokai <Nhk> Additional image generating device and additional image composing device

Also Published As

Publication number Publication date
JP5047103B2 (en) 2012-10-10

Similar Documents

Publication Publication Date Title
JP4488612B2 (en) Multi-dimensional narration recording and playback method and apparatus
JP4210029B2 (en) Method, apparatus and recording medium for generating display of document with sound
KR101860313B1 (en) Method and system for editing scene in three-dimensional space
CN107111620A (en) Video editing using context data and the content discovery using group
KR101804848B1 (en) Video Object Detecting Apparatus, Video Object Deforming Apparatus and Method thereof
JP2007172702A (en) Method and apparatus for selecting content
KR20070065798A (en) Content reproducing apparatus, list correcting apparatus, content reproducing method, and list correcting method
Ribeiro et al. 3D annotation in contemporary dance: Enhancing the creation-tool video annotator
JP2019033430A (en) Movie reproduction apparatus, control method thereof, and program
Garcia et al. Interactive-compositional authoring of sound spatialization
WO2018173791A1 (en) Image processing device and method, and program
Sugimoto et al. Building movie map-a tool for exploring areas in a city-and its evaluations
JP4056167B2 (en) Library information search space construction / retrieval apparatus and computer-readable recording medium recording a book information retrieval space construction / retrieval program
JP4376340B2 (en) Curve slider device
JP2015097639A (en) Karaoke device, dance scoring method, and program
JP2009200601A (en) Video editing device and method
JP2011155329A (en) Video content editing device, video content editing method, and video content editing program
JP5047102B2 (en) Three-dimensional moving image reproduction apparatus, additional information retrieval method and program
JP5047103B2 (en) Three-dimensional moving image reproducing apparatus, three-dimensional moving image reproducing method and program thereof
JP2004110096A (en) User operation log visualizing method, user operation log visualizing device, program and its recording medium
JP7070547B2 (en) Image processing equipment and methods, as well as programs
JP2000244812A (en) Device and method for integrating multimedia information and recording medium where same method is recorded
JP2006155231A (en) Viewing system and program
JP4967983B2 (en) Information recording apparatus and program
Tsita et al. A Configurable Design Approach for Virtual Museums.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120619

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120717

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150727

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5047103

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250