JP4395082B2 - Video generation apparatus and program - Google Patents

Video generation apparatus and program Download PDF

Info

Publication number
JP4395082B2
JP4395082B2 JP2005023646A JP2005023646A JP4395082B2 JP 4395082 B2 JP4395082 B2 JP 4395082B2 JP 2005023646 A JP2005023646 A JP 2005023646A JP 2005023646 A JP2005023646 A JP 2005023646A JP 4395082 B2 JP4395082 B2 JP 4395082B2
Authority
JP
Japan
Prior art keywords
candidate position
candidate
viewpoint position
viewpoint
shot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005023646A
Other languages
Japanese (ja)
Other versions
JP2006211531A (en
Inventor
竜基 坂本
郁 田中
格 北原
美香 里見
仁 土川
潔 小暮
進 國藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005023646A priority Critical patent/JP4395082B2/en
Publication of JP2006211531A publication Critical patent/JP2006211531A/en
Application granted granted Critical
Publication of JP4395082B2 publication Critical patent/JP4395082B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、自由視点映像の技術分野に属する発明である。   The present invention belongs to the technical field of free viewpoint video.

自由視点映像の技術とは、複数カメラから得られた映像を統合して、三次元解析を行い、この解析結果を基に、自由な視点からの映像を得る技術である。
自由視点映像を得ることができる撮影システムを、社内の会議室に設置しておけば、自由な視点から、社内会議における出席者の言動を撮影することができる。また医療現場に設置しておけば、自由な視点から、医師や看護婦の医療行為を撮影することができる。
Free viewpoint video technology is a technology that integrates video obtained from a plurality of cameras, performs three-dimensional analysis, and obtains video from a free viewpoint based on the analysis result.
If a shooting system that can obtain free-viewpoint images is installed in a meeting room in the company, the behavior of attendees at the company meeting can be shot from a free viewpoint. Moreover, if it is installed at a medical site, it is possible to take pictures of medical practices of doctors and nurses from a free viewpoint.

そうして得られた自由視点映像は、後日、映像化された議事録や職場の改善資料として役立てることができる。議事録や改善資料等への応用が可能であるので、自由視点映像の技術は、今後の発展が大いに期待される。尚、自由視点映像の技術に関しては、以下の非特許文献に記載された先行技術があることを出願人は認識している。
Takeo Kanade, Peter Rander, and P. J. Narayanan. Virtualized reality: Constructing virtual worlds from real scenes. IEEE MultiMedia, Vol. 4, No.1, pp. 34〜47, 1997. 井上亮文, 吉田竜二, 平石絢子, 重野寛, 岡田謙一, 松下温,映画の映像理論に基づく対面会議シーンの自動撮影手法,情報処理学会論文誌, Vol.45, No.1, pp.212-221,2004年1月.
The free viewpoint video obtained in this way can be used later as a video of the minutes and workplace improvement materials. Since it can be applied to the minutes and materials for improvement, free viewpoint video technology is expected to develop in the future. The applicant recognizes that there is a prior art described in the following non-patent literature regarding the technique of free viewpoint video.
Takeo Kanade, Peter Rander, and PJ Narayanan.Virtualized reality: Constructing virtual worlds from real scenes.IEEE MultiMedia, Vol. 4, No.1, pp. 34-47, 1997. Ryofumi Inoue, Ryuji Yoshida, Atsuko Hiraishi, Hiroshi Shigeno, Kenichi Okada, Atsushi Matsushita, Automatic Shooting Method for Face-to-face Meeting Scenes Based on Movie Image Theory, IPSJ Transactions, Vol.45, No.1, pp.212 -221, January 2004.

ところで自由視点からの映像生成に関しては、上述した非特許文献においてある程度の成果が認められるものの、自由視点を、時間的にどのように変化させてゆくかについては、未だ研究の余地が残っている。何故なら、視点位置の変化は、その変化のさせかたによっては、大きな違和感を視聴者に与えかねないからである。一方、映画等の映像制作の分野では、かかる違和感を生じないための様々な撮影手法が産み出されている。   By the way, with respect to video generation from a free viewpoint, although some achievements are recognized in the above-mentioned non-patent literature, there is still room for research on how to change the free viewpoint in time. . This is because a change in viewpoint position may give viewers a great sense of incongruity depending on how the change is made. On the other hand, in the field of video production such as movies, various shooting techniques have been produced to prevent such a sense of incongruity.

このことから、自由視点についての研究が進んでいる今日であっても、映画のような見易さを追究するには、やはり、プロの撮影スタッフによる撮影手法の力を借りなければない。しかしプロの撮影スタッフの協力には、多額の投資が必要となるので、たとえ自由視点技術が発展したとはいえ、映画のようにユーザの印象に残るような、ドキュメンタリを制作することは非常に困難であるといわれている。   For this reason, even today, when research on free viewpoints is progressing, in order to pursue ease of viewing like a movie, it is still necessary to borrow the power of shooting techniques by professional shooting staff. However, the cooperation of professional photography staff requires a large amount of investment, so it is very difficult to produce a documentary that will leave the impression of the user like a movie, even though free-viewpoint technology has developed. It is said that it is difficult.

本発明の目的は、プロの撮影スタッフによる手腕に頼らなくても、映画のような見易い映像を得ることができる、映像生成装置、及びプログラムを提供することである。   An object of the present invention is to provide an image generation device and a program that can obtain an easy-to-view image such as a movie without depending on the skill of a professional shooting staff.

上記目的は、シーン記述情報に基づき、視点位置を変化させて動画像を得る映像生成装置であって、シーン記述情報は、複数の候補位置のそれぞれに対応したカメラ制御情報を配してなり、直前の視点位置と、1の候補位置との組みに対して、所定の規則を適用させることにより、各候補位置が、カレントの視点位置にどれだけ相応しいかの評価を行う評価手段と、評価結果が最も高い候補位置を、カレント視点位置に選んで、当該カレント視点位置に対応したカメラ制御情報を用いて、カレント視点位置から被写体を見た場合の動画像を生成する生成手段と、評価手段、及び生成手段に処理を繰り返し実行させる制御手段とを備えることにより達成される。   The above object is a video generation device that obtains a moving image by changing the viewpoint position based on the scene description information, and the scene description information includes camera control information corresponding to each of a plurality of candidate positions, Evaluation means for evaluating how much each candidate position corresponds to the current viewpoint position by applying a predetermined rule to the set of the previous viewpoint position and one candidate position, and the evaluation result Selecting the highest candidate position as the current viewpoint position, and using the camera control information corresponding to the current viewpoint position, generating means for generating a moving image when the subject is viewed from the current viewpoint position, evaluation means, And a control unit that causes the generation unit to repeatedly execute the process.

また、前記所定の規則には、被写体空間を分割する境界に関する制約を含むものがあり、当該制約に基づいて、直前の視点位置と、候補位置とを結ぶ直線が、前記境界に交差する場合、当該候補位置に対する評価を低くし、直前の視点位置と、候補位置とを結ぶ直線が、前記境界に交差しない場合、当該候補位置に対する評価を高くするとしてもよい。
さらに、前記被写体空間は、二人以上の人物を含み、前記境界は、被写体空間に含まれる二人の人物間を結ぶ直線、又は任意の直線を含み前記被写体空間を二分割するとしてもよい。
In addition, the predetermined rule includes a constraint on a boundary that divides the subject space, and based on the constraint, when a straight line connecting a previous viewpoint position and a candidate position intersects the boundary, The evaluation for the candidate position may be made low, and if the straight line connecting the immediately preceding viewpoint position and the candidate position does not intersect the boundary, the evaluation for the candidate position may be made high.
Furthermore, the subject space may include two or more persons, and the boundary may include a straight line connecting two persons included in the subject space, or an arbitrary straight line, and the subject space may be divided into two.

また、カメラ制御情報には、カメラのパン制御を意図するものがあり、前記所定の規則には、何れかの候補位置に対応付けられたカメラ制御情報が、直前の視点位置から当該候補位置までのパン制御を示している場合、当該候補位置の評価値を高くし、何れかの候補位置に対応付けられたカメラ制御情報が、直前の視点位置から当該候補位置までのパン制御を示していない場合、当該候補位置の評価値を低くするというものがあるとしてもよい。   Also, some camera control information is intended for camera pan control. According to the predetermined rule, camera control information associated with any candidate position is displayed from the previous viewpoint position to the candidate position. When the pan control is indicated, the evaluation value of the candidate position is increased, and the camera control information associated with any candidate position does not indicate the pan control from the previous viewpoint position to the candidate position. In some cases, the evaluation value of the candidate position may be lowered.

さらに、前記所定の規則には、被写体空間を分割する境界に関する制約を含むものがあり、当該制約に基づいて、直前の視点位置と、候補位置とを結ぶ直線が、前記境界に交差する場合、当該候補位置に対する評価を低くし、直前の視点位置と、候補位置とを結ぶ直線が、前記境界に交差しない場合、当該候補位置に対する評価を高くするとしてもよい。
さらに、何れかの候補位置に対応付けられたカメラ制御情報が、直前の視点位置から当該候補位置までのパン制御を示している場合の当該候補位置に対する評価値は、直前の視点位置と、候補位置とを結ぶ直線が、前記境界に交差しない場合の当該候補位置に対する評価よりも高いとしてもよい。
Further, the predetermined rule includes a constraint on a boundary that divides the subject space, and based on the constraint, when a straight line connecting a previous viewpoint position and a candidate position intersects the boundary, The evaluation for the candidate position may be made low, and if the straight line connecting the immediately preceding viewpoint position and the candidate position does not intersect the boundary, the evaluation for the candidate position may be made high.
Furthermore, when the camera control information associated with any candidate position indicates pan control from the previous viewpoint position to the candidate position, the evaluation value for the candidate position is the previous viewpoint position, the candidate The straight line connecting the positions may be higher than the evaluation for the candidate position when the line does not intersect the boundary.

また、カメラ制御情報は、被写体に対して候補位置がどの方向にあるかを示す視点角度θ、及び被写体が画面に占めるべき割合を示すフレーミング条件情報を含み、前記動画像を得る手順は、フレーミング条件情報に基づき、被写体と、視点位置との距離rを決定して、視点角度θ及び距離rから、候補位置の三次元座標を得る手順を含むとしてもよい。
上記目的は、シーン記述情報に基づいて視点位置を変化させた動画像を、コンピュータに生成させるプログラムであって、シーン記述情報は、複数の候補位置のそれぞれに対応したカメラ制御情報を配してなり、直前の視点位置と、1の候補位置との組みに対して、所定の規則を適用させることにより、各候補位置が、カレントの視点位置にどれだけ相応しいかの評価を行うステップと、評価結果が最も高い候補位置を、カレント視点位置に選んで、当該カレント視点位置に対応したカメラ制御情報を用いて、カレント視点位置から被写体を見た場合の動画像を得るステップとを繰り返しコンピュータに実行させることにより達成される。
The camera control information, the procedure view angle θ that determines the candidate position is in which direction the subject, and the subject comprises a framing condition information indicating a ratio should occupy on the screen, to obtain the moving image, the framing A procedure for determining the distance r between the subject and the viewpoint position based on the condition information and obtaining the three-dimensional coordinates of the candidate position from the viewpoint angle θ and the distance r may be included.
The above object is a program for causing a computer to generate a moving image whose viewpoint position is changed based on scene description information. The scene description information includes camera control information corresponding to each of a plurality of candidate positions. And by applying a predetermined rule to the set of the previous viewpoint position and one candidate position, and evaluating how each candidate position corresponds to the current viewpoint position The candidate position with the highest result is selected as the current viewpoint position, and using the camera control information corresponding to the current viewpoint position, the step of obtaining a moving image when the subject is viewed from the current viewpoint position is repeatedly executed on the computer. To achieve this.

上述した構成において所定の基準の1つが、"イマジナリラインと交差するような視点移動を避ける"というような基準、つまり、映画撮影の作法に従った基準である場合、かかる基準を、カレントの視点位置と、1の候補位置との組みに適用させ、この基準に基づく視点位置の選択を繰り返すことにより、映画撮影現場においてプロのカメラマンが実践しているような、視点移動を行うことができる。かかる視点移動により動画像が得られれば、プロの撮影スタッフの力を借りなくても、ユーザにとって違和感がない自由視点映像を得ることができる。   In the above-described configuration, if one of the predetermined criteria is a criterion such as “avoids viewpoint movement that crosses the imaginary line”, that is, a criterion according to the manner of shooting a movie, this criterion is determined as the current viewpoint. By applying the position to a set of one candidate position and repeating the selection of the viewpoint position based on this criterion, it is possible to perform viewpoint movement as practiced by professional photographers at movie shooting sites. If a moving image can be obtained by such viewpoint movement, a free viewpoint video that does not give the user a sense of incongruity can be obtained without the help of professional shooting staff.

様々な撮影手法のノウハウをデータベース化して、所定の基準として適用させれば、映画と比較して遜色がない、自由視点映像を得ることができる。映画のように、ユーザの印象に残る自由視点映像を、小さな投資で作成することができるので、映像ドキュメンタリの制作を身近なものにすることができる。   If know-how of various shooting methods is compiled into a database and applied as a predetermined standard, a free viewpoint video that is inferior to movies can be obtained. Like movies, free viewpoint videos that remain in the impression of the user can be created with a small investment, so that the production of video documentaries can be made familiar.

本発明に係る三次元自由視点映像システムの実施形態について図面を参照しながら説明する。
三次元自由視点映像システムは、スタジオ内に設置された6台の固定カメラで撮影した映像を統合して、固定カメラの被写体となる空間(以下、「撮影空間」という。)を自由な視点から見た映像(以下、「三次元自由視点映像」という。)を生成する。
An embodiment of a 3D free viewpoint video system according to the present invention will be described with reference to the drawings.
The 3D free-viewpoint video system integrates video shot with six fixed cameras installed in the studio, and allows the space (hereinafter referred to as “shooting space”) that is the subject of the fixed camera from a free viewpoint. Generates the viewed video (hereinafter referred to as “three-dimensional free viewpoint video”).

図1は本発明に係る三次元自由視点映像システムの全体構成を示す図である。図1に示すように、三次元自由視点映像システム1は映像生成部2と、アノテーション管理部3と、映像スクリプト変換部4とを含む。
映像生成部2は、固定カメラで撮影した画像から生成した未編集の三次元自由視点映像を、アノテーション管理部3、映像スクリプト変換部4に送出する。また、各時刻における視点位置座標をXML(eXtensible Mark-up Language)にて記述したカメラワーク制御コマンドを映像スクリプト変換部4から受け取り、各時刻における指定された視点位置からの三次元自由視点映像(以下、「レンダリング映像」という。)を生成し、出力する。ここで、未編集の三次元自由視点映像とは、図2のように互いに直交するように設定されたXYZの3軸に対し、それぞれ並行な向きに撮影空間をみた側面映像、正面映像、及びトップ映像の3つの映像からなる映像データである。尚、X軸とY軸とは、撮影空間の水平面をなす座標軸であり、Z軸は撮影空間の水平面に直交する座標軸である。また、本実施形態における時刻とは、カメラ11a乃至11fで撮影された映像内での時刻を意味する。
FIG. 1 is a diagram showing the overall configuration of a 3D free viewpoint video system according to the present invention. As shown in FIG. 1, the 3D free viewpoint video system 1 includes a video generation unit 2, an annotation management unit 3, and a video script conversion unit 4.
The video generation unit 2 sends an unedited three-dimensional free viewpoint video generated from an image captured by a fixed camera to the annotation management unit 3 and the video script conversion unit 4. In addition, a camera work control command in which the viewpoint position coordinates at each time are described in XML (eXtensible Mark-up Language) is received from the video script conversion unit 4, and a three-dimensional free viewpoint video (from a designated viewpoint position at each time) ( Hereinafter, it is referred to as “rendered video”) and output. Here, the unedited three-dimensional free viewpoint image is a side image, a front image, and a front image in which the photographing space is viewed in parallel directions with respect to the three axes XYZ set to be orthogonal to each other as shown in FIG. This is video data consisting of three top videos. The X axis and the Y axis are coordinate axes that form a horizontal plane of the imaging space, and the Z axis is a coordinate axis that is orthogonal to the horizontal plane of the imaging space. In addition, the time in the present embodiment means the time in the video captured by the cameras 11a to 11f.

アノテーション管理部3は、未編集の三次元自由視点映像に関するアノテーション情報の作成と管理を行う。また、アノテーション情報を映像スクリプト変換部4に送出する。アノテーション情報とは、撮影空間で生じた出来事(以下、「イベント」という。)と、そのイベントに関連する人物や物体とを識別することで、未編集の三次元自由視点映像の内容を示す注釈である。   The annotation management unit 3 creates and manages annotation information related to an unedited 3D free viewpoint video. Also, the annotation information is sent to the video script conversion unit 4. Annotation information is an annotation that indicates the contents of an unedited 3D free viewpoint video by identifying an event that occurred in the shooting space (hereinafter referred to as an “event”) and a person or object related to the event. It is.

映像スクリプト変換部4は、レンダリング映像を生成したいシーンの指定をシステム利用者より受け、そのシーンをレンダリングするための視点位置を示すカメラワーク制御コマンドを生成し、映像生成部2へ送出する。ここでシーンとは、所定の連続した時間内に1種類以上のショットで同一の撮影対象を撮影した一連の映像であり、例えば、撮影対象の人物Aが撮影空間に入り撮影空間の中央で立ち止まるまでの一連の動作を撮影した入場シーンや、撮影対象の人物Bが人物Cと会話する会話シーンなどが想定される。また、ショットとは、映画の撮影でカメラが回り始めてから止まるまで連続撮影されるような一連の動画像を意味し、本実施形態では、静止した視点位置や、連続的に移動する視点位置からの三次元自由視点映像として表現される。例えば入場シーンは、撮影空間に入った人物Aの足もとを正面からとらえたショットや、続けて、歩き出した人物Aの全身像を側面から捕らえたショット等で構成できる。   The video script conversion unit 4 receives a designation of a scene for which a rendering video is to be generated from a system user, generates a camera work control command indicating a viewpoint position for rendering the scene, and sends it to the video generation unit 2. Here, the scene is a series of images obtained by shooting the same shooting target with one or more types of shots within a predetermined continuous time. For example, the person A to be shot enters the shooting space and stops at the center of the shooting space. An entrance scene in which a series of operations up to the above are photographed, a conversation scene in which the subject person B talks to the person C, and the like are assumed. In addition, a shot means a series of moving images that are continuously shot from when the camera starts turning until it stops when shooting a movie, and in this embodiment, from a stationary viewpoint position or a continuously moving viewpoint position. It is expressed as a 3D free viewpoint video. For example, the entrance scene can be composed of a shot in which the foot of the person A entering the shooting space is captured from the front, a shot in which the whole body image of the person A who has started walking is captured from the side, and the like.

以下、各構成について詳細に説明する。
映像生成部2は、カメラ11a乃至11fと、キャプチャユニット12と、空間モデル構築用サーバ13と、XML解釈部23と、映像出力部2425とを含む。
カメラ11a乃至11fは、スタジオ内に設置された6台の固定カメラであり、それぞれ異なる位置から撮影空間の映像を撮影する。
Hereinafter, each configuration will be described in detail.
The video generation unit 2 includes cameras 11 a to 11 f, a capture unit 12, a spatial model construction server 13, an XML interpretation unit 23, and a video output unit 2425.
The cameras 11a to 11f are six fixed cameras installed in the studio, and shoot images of the shooting space from different positions.

キャプチャユニット12は、カメラの映像をデジタル形式に変換し、画像ファイルとして保存する。
空間モデル構築用サーバ13は、キャプチャされたカメラ11a乃至11fの映像ファイルを蓄積し、映像ファイルを基に任意の時点での三次元自由視点映像を生成する。
XML解釈部23は、カメラワーク制御コマンドを解釈する。
The capture unit 12 converts the video from the camera into a digital format and stores it as an image file.
The spatial model construction server 13 accumulates the captured video files of the cameras 11a to 11f, and generates a 3D free viewpoint video at an arbitrary time point based on the video files.
The XML interpretation unit 23 interprets the camera work control command.

映像出力部24は、カメラワーク制御コマンドに従い、レンダリング映像を生成し出力する。
アノテーション管理部3は、アノテーション情報登録部15と、アノテーションデータベース16とを含む。
アノテーション情報登録部15は、システム利用者からアノテーション情報の入力を受け付け、アノテーションデータベース16に登録する。図3にアノテーション情報の一例を示す。アノテーション情報は、イベント名と、開始時刻と、終了時刻と、オブジェクト名と、アノテーション領域と、注視点とで構成される。
The video output unit 24 generates and outputs a rendered video in accordance with the camera work control command.
The annotation management unit 3 includes an annotation information registration unit 15 and an annotation database 16.
The annotation information registration unit 15 receives input of annotation information from the system user and registers it in the annotation database 16. FIG. 3 shows an example of annotation information. The annotation information includes an event name, a start time, an end time, an object name, an annotation area, and a gaze point.

イベント名は、システム利用者により入力される任意の名称である。
開始時刻は、イベントの開始を示す時刻であり、アノテーション領域が変化しない期間の開始の時刻を示す。
終了時刻は、イベントの終了を示す時刻であり、アノテーション領域が変化しない期間の終了の時刻を示す。
The event name is an arbitrary name input by the system user.
The start time is a time indicating the start of the event, and indicates the start time of a period in which the annotation area does not change.
The end time is the time indicating the end of the event, and indicates the end time of the period in which the annotation area does not change.

オブジェクト名は、イベントに関連する人物、物体等のオブジェクトの名称を示す。
アノテーション領域は、オブジェクト名で名称を付されたオブジェクトが存在する領域であり、システム利用者により指定される2点の三次元座標が対角線となる直方体で示される。
注視点は、視点位置から撮影空間をレンダリングする際に、視線が注がれる点の座標である。
The object name indicates the name of an object such as a person or an object related to the event.
The annotation area is an area where an object named by an object name exists, and is indicated by a rectangular parallelepiped in which two-dimensional three-dimensional coordinates designated by the system user are diagonal lines.
The gaze point is a coordinate of a point at which a line of sight is poured when rendering the shooting space from the viewpoint position.

続いて、アノテーション情報の入力インタフェースの一例を図4に示す。これにより、GUI操作によって、時刻単位でのアノテーション領域の指定が可能となる。また、一つのイベントは多数のフレームから構成されており、その一枚一枚にアノテーションを付与していくことは非常に手間のかかる作業となる。そのため、一つのイベント内で連続するフレーム間においては、アノテーション領域と注視点とを自動で補完する。このとき注視点には、アノテーション領域の中心座標が用いられる。このインタフェースで作成されたアノテーションは、アノテーションデータベース16に蓄積される。   Next, an example of an annotation information input interface is shown in FIG. Thereby, it is possible to specify the annotation area in time units by GUI operation. One event is composed of a large number of frames, and adding an annotation to each frame is a very time-consuming work. For this reason, the annotation region and the gazing point are automatically complemented between consecutive frames in one event. At this time, the center coordinate of the annotation area is used as the gaze point. Annotations created with this interface are accumulated in the annotation database 16.

入力インタフェースは、トップ表示画面、正面表示画面、側面(右)表示画面、及び入力パネルとで構成される。それぞれの表示画面には、入力パネルの時刻指定バーで指定した時刻のトップ映像、正面映像、及び側面映像が表示され、これらの画像において、システム利用者はマウス等のポインティングデバイスを用い、ボックス型のマーカーで頭部又は全身を指定する。これにより、アノテーション領域を示す2点の座標を決定する。なお、アノテーション領域を示す2点の座標を変更することにより、ボックス型のマーカーを変化させるとしても良い。注視点については、システム利用者はマウス等を用い、任意の点をクリックすることにより決定することができるが、本実施形態では、説明を簡便にするため、注視点としてアノテーション領域の中心座標を用いる。   The input interface includes a top display screen, a front display screen, a side (right) display screen, and an input panel. On each display screen, the top video, front video, and side video at the time specified in the time specification bar on the input panel are displayed. In these images, the system user uses a pointing device such as a mouse to make a box type Specify the head or whole body with the marker. Thereby, the coordinates of two points indicating the annotation area are determined. Note that the box-type marker may be changed by changing the coordinates of two points indicating the annotation area. The gazing point can be determined by the system user by clicking an arbitrary point using a mouse or the like. However, in this embodiment, for ease of explanation, the center coordinates of the annotation area are used as the gazing point. Use.

イベント名及びオブジェクト名については、システム利用者はキーボード等を用い、入力パネルにて入力する。開始時刻及び終了時刻については、システム利用者はそれぞれの時刻を時刻指定バーにより指定し、Addボタンを押すことにより決定する。
ここで時刻指定バーは、時刻を示すスライドバーである。つまり、システム利用者はアノテーション領域を示す2点の座標が変化しない期間を、時刻指定バーを操作することにより確認し、その開始時刻及び終了時刻において、Addボタンを押すことにより開始時刻及び終了時刻を決定する。
The event name and object name are entered on the input panel by the system user using a keyboard or the like. The start time and end time are determined by the system user by designating each time using the time designation bar and pressing the Add button.
Here, the time designation bar is a slide bar indicating the time. That is, the system user confirms the period in which the coordinates of the two points indicating the annotation area do not change by operating the time designation bar, and presses the Add button at the start time and end time to start and end time. To decide.

アノテーションデータベース16は、アノテーション情報登録部15により登録されたアノテーション情報を蓄積する。
映像スクリプト変換部4は、シーンリスト取得部17と、シーン制御部18と、ショット制御部19と、実パラメータ取得部20と、撮影知識データベース21と、カメラワーク制御XML作成部22とを含む。
The annotation database 16 accumulates annotation information registered by the annotation information registration unit 15.
The video script conversion unit 4 includes a scene list acquisition unit 17, a scene control unit 18, a shot control unit 19, an actual parameter acquisition unit 20, a shooting knowledge database 21, and a camera work control XML creation unit 22.

シーンリスト取得部17は、レンダリング映像を生成したいシーンを特定する情報を連ねたシーンリストを、システム利用者から取得する。シーンリストの一例を図5に示す。シーンリストは、シーン名、シーン開始時刻、シーン終了時刻、撮影対象、及び、イマジナリベクトル終点座標で構成される。撮影対象としては、大量の対象が存在する場合や、誰も存在しない場合などに任意で与えられた領域と、注視点とをもって代替することもある。   The scene list acquisition unit 17 acquires, from the system user, a scene list in which information for specifying a scene for which a rendered video is to be generated is linked. An example of the scene list is shown in FIG. The scene list includes a scene name, a scene start time, a scene end time, a shooting target, and an imaginary vector end point coordinate. An imaging target may be replaced with an arbitrarily given area and a gazing point when there are a large number of objects or when no one exists.

シーン名は、シーンを特定する名称である。
シーン開始時刻、及びシーン終了時刻は、カメラ11a乃至11fで撮影された映像のうち、シーンとして切り出す区間を時刻で示す。
撮影対象は、レンダリング映像において注視すべき撮影対象を、アノテーション情報のオブジェクト名で指定する。
The scene name is a name that identifies the scene.
The scene start time and the scene end time indicate the section to be cut out as a scene in the video shot by the cameras 11a to 11f.
As the shooting target, the shooting target to be watched in the rendered video is designated by the object name of the annotation information.

イマジナリベクトル終点座標は、イマジナリベクトルの終点の三次元座標である。イマジナリベクトルとは、撮影対象である人物Aの中心座標PAを始点とし、会話相手である人物Bの中心座標PBを終点としたベクトルである。また、上方無限遠に位置する視点からXY平面(以下、「地面」という。)を垂直に見下ろした場合に、撮影空間を分割するように引かれる直線をイマジナリラインという。本実施形態では、イマジナリベクトルを含む直線をイマジナリラインとする。 The imaginary vector end point coordinates are the three-dimensional coordinates of the imaginary vector end points. The imaginary vector is a vector whose starting point is the center coordinate P A of the person A who is the subject of photographing and whose end point is the center coordinate P B of the person B who is the conversation partner. A straight line drawn so as to divide the imaging space when the XY plane (hereinafter referred to as “the ground”) is looked down vertically from a viewpoint located at infinity above is called an imaginary line. In this embodiment, a straight line including an imaginary vector is defined as an imaginary line.

シーン制御部18は、シーンリスト取得部17よりシーンリストを受け取ると、シーンリストに含まれるシーン名、シーン開始時刻、シーン終了時刻、撮影対象、及び、イマジナリベクトル終点座標の各情報を、シーン毎にショット制御部19に送出する。また、シーンリストの各情報に応じてショット制御部19において生成されたカメラポジションリストを、シーン毎にカメラワーク制御XML作成部22に送出する。   When the scene control unit 18 receives the scene list from the scene list acquisition unit 17, the scene control unit 18 obtains information on the scene name, scene start time, scene end time, shooting target, and imaginary vector end point coordinates included in the scene list for each scene. To the shot control unit 19. Further, the camera position list generated in the shot control unit 19 according to each information of the scene list is sent to the camera work control XML creating unit 22 for each scene.

ショット制御部19は、シーン制御部18から得た情報によりシーンを特定し、そのシーンをレンダリングする視点位置を時刻毎に示すカメラポジションリストを、撮影対象の三次元座標と後述するショット情報とから生成し、シーン制御部18へ送出する。
実パラメータ取得部20は、ショット制御部19から時刻と撮影対象との指定を受けて、アノテーションデータベース16に登録されているアノテーション情報から、指定の時刻に撮影対象が含まれるアノテーション領域、及び注視点の三次元座標を取得し、ショット制御部19へ送出する。
The shot control unit 19 identifies a scene based on information obtained from the scene control unit 18, and obtains a camera position list indicating the viewpoint position for rendering the scene at each time from the three-dimensional coordinates of the shooting target and shot information described later. It is generated and sent to the scene control unit 18.
The actual parameter acquisition unit 20 receives the designation of the time and the photographing target from the shot control unit 19, and from the annotation information registered in the annotation database 16, the annotation region including the photographing target at the designated time, and the gazing point Are obtained and sent to the shot control unit 19.

撮影知識データベース21は、シーン記述情報、ショット情報、及び撮影規則を蓄積しているデータベースである。シーン記述情報、ショット情報、及び撮影規則は、ショット制御部19において、カメラポジションリストを生成する場合に用いられる情報である。
図6の(a)はシーン記述情報のデータ構造を示す図である。シーン記述情報は、シーン名で特定されるシーン毎に、使用するショットパターンの候補を示す情報であり、シーン名と、ショット指定1〜nとからなる。ショット指定1〜nは、候補のショットパターンを定義したショット情報を指定する情報であり、ショット名を用いてショット情報を指定する。
The shooting knowledge database 21 is a database that stores scene description information, shot information, and shooting rules. The scene description information, the shot information, and the shooting rule are information used when the shot control unit 19 generates a camera position list.
FIG. 6A shows the data structure of scene description information. The scene description information is information indicating shot pattern candidates to be used for each scene specified by the scene name, and includes a scene name and shot designations 1 to n. Shot designations 1 to n are information for designating shot information defining candidate shot patterns, and designate shot information using shot names.

ここでショットパターンとは、1つのショットの映像において、撮影対象の向きや、大きさ、配置等を、どのような見かけにするかを示す画面レイアウトのイメージであり、その詳細は、ショット情報として記述される。
図6の(b)はショット情報のデータ構造を示す図である。ショット情報は、撮影対象の三次元座標に応じて、所望のショットパターンで映像をクリップする為の視点位置が一意に定まるカメラ制御情報であり、ショット名、水平角度Dh、上下角度Dv、フレーミングバターン、パン角度、及び継続時間からなる。ショット情報に含まれる水平角度Dhとは、図7の(a)に示すように、撮影対象の中心座標PAを含む水平面において、イマジナリベクトルとなす角度であり、上下角度Dvとは、図7の(b)に示すように、中心座標PAを含む水平線となす角度であり、水平角度Dhと上下角度Dvとにより、レンダリングする視点が中心座標PAに対してどの方向にあるかが特定される。フレーミングパターンとは、図8に示すように、レンダリングした映像において撮影対象が画面の縦方向占める割合、及び、中心座標PAの画面上での位置により表現される画像のイメージを、「Long」、「Full」等のパターン名で特定する情報である。以下、撮影対象が画面の縦方向占める割合を「フレーミング条件R1」、中心座標PAの画面上での位置を「フレーミング条件R2」という。パン角度は、ショット中で中心座標PAを中心に視点位置を回転させる角度である。パン角度が正の値であれば、撮影対象の上方からみて、中心座標PAを中心に視点位置を右回りに回転させることを示し、パン角度が負の値であれば、中心座標PAを中心に視点位置を左周りに回転させることを示す。継続時間は、ショット情報により示されるカメラ演出を適用した1つのショットを継続させる時間である。
Here, a shot pattern is an image of a screen layout that shows how the direction, size, arrangement, etc. of an object to be photographed looks in one shot video. Described.
FIG. 6B shows a data structure of shot information. The shot information is camera control information in which a viewpoint position for clipping a video with a desired shot pattern is uniquely determined according to the three-dimensional coordinates of a subject to be shot, and includes shot name, horizontal angle Dh, vertical angle Dv, framing pattern , Pan angle, and duration. As shown in FIG. 7A, the horizontal angle Dh included in the shot information is an angle formed with the imaginary vector on the horizontal plane including the center coordinate PA of the object to be imaged, and the vertical angle Dv is the vertical angle Dv. As shown in (b), it is an angle formed with a horizontal line including the center coordinate PA, and the horizontal angle Dh and the vertical angle Dv specify in which direction the viewpoint to be rendered is with respect to the center coordinate PA. As shown in FIG. 8, the framing pattern is an image of an image represented by the ratio of the shooting target in the vertical direction of the screen in the rendered video and the position on the screen of the center coordinates PA, “Long”, This is information specified by a pattern name such as “Full”. Hereinafter, the ratio of the shooting target in the vertical direction of the screen is referred to as “framing condition R1”, and the position of the center coordinate PA on the screen is referred to as “framing condition R2”. The pan angle is an angle by which the viewpoint position is rotated around the center coordinate PA in the shot. If the pan angle is a positive value, it indicates that the viewpoint position is rotated clockwise around the center coordinate PA as viewed from above the object to be imaged. If the pan angle is a negative value, the center coordinate PA is the center. Indicates that the viewpoint position is rotated counterclockwise. The duration is a time for which one shot to which the camera effect indicated by the shot information is applied is continued.

撮影規則とは、ショット情報に基づいて確定する視点位置の候補(以下、「候補位置」という。)を評価する基準であり、映画の撮影技法として体系化された制約条件が適用される。
例えば、映画の撮影技法として、イマジナリラインを跨いで視点位置が切り替わると、画面上での人物の位置関係が逆になってしまい、視聴者に違和感を与えることが知られている。このような映画撮影技法を適用して、「直前の視点位置と候補位置とを結ぶ線分を地面に垂直に投影した線分が、イマジナリラインを地面に垂直に投影した直線と交差しない場合、候補位置の評価を高くし、直前の視点位置と候補位置とを結ぶ線分を地面に垂直に投影した線分が、イマジナリラインを地面に投影した直線と交差する場合、候補位置の評価を低くする」という撮影規則が、撮影知識データベース21に蓄積されている。また、撮影規則の他の一例として、「候補位置に対応するショット情報が、視点位置のパン制御を意図するものであれば、候補位置の評価を高くし、候補位置に対応するショット情報が、視点位置のパン制御を意図しないものであれば、候補位置の評価を低くする」というものがある。撮影規則のさらに他の一例として、「直前の視点位置と候補位置とが同一の位置であれば、評価を低くする」というものもある。
The shooting rule is a reference for evaluating viewpoint position candidates (hereinafter referred to as “candidate positions”) determined based on shot information, and restrictions systematized as a movie shooting technique are applied.
For example, it is known as a movie shooting technique that if the viewpoint position is switched across the imaginary line, the positional relationship of the person on the screen is reversed, giving the viewer a sense of incongruity. Applying such a movie shooting technique, `` If the line segment that projects the line connecting the previous viewpoint position and the candidate position vertically to the ground does not intersect the straight line that projects the imaginary line vertically to the ground, If the candidate position is highly evaluated and the line segment that projects the line connecting the previous viewpoint position and the candidate position perpendicularly to the ground intersects with the straight line that projects the imaginary line on the ground, the candidate position is evaluated low. The shooting rule “Yes” is stored in the shooting knowledge database 21. As another example of the shooting rule, “If the shot information corresponding to the candidate position is intended to perform pan control of the viewpoint position, the evaluation of the candidate position is increased, and the shot information corresponding to the candidate position is If the panning control of the viewpoint position is not intended, the evaluation of the candidate position is lowered ”. Still another example of the shooting rule is “if the previous viewpoint position and the candidate position are the same position, the evaluation is lowered”.

尚、候補位置は、複数の撮影規則に基づいての評価するとしてもよい。例えば、候補位置に対応するショット情報が、視点位置のパン制御を意図するものである場合の当該候補位置に対する評価は、直前の視点位置と候補位置とを結ぶ線分を地面に垂直に投影した線分が、イマジナリラインを地面に垂直に投影した直線と交差しない場合の当該候補位置に対する評価よりも高く評価する。   The candidate position may be evaluated based on a plurality of shooting rules. For example, when the shot information corresponding to the candidate position is intended for pan control of the viewpoint position, the evaluation of the candidate position is performed by projecting a line segment connecting the immediately preceding viewpoint position and the candidate position vertically onto the ground. The line segment is evaluated to be higher than the evaluation for the candidate position in the case where the line segment does not intersect the straight line obtained by projecting the imaginary line perpendicularly to the ground.

カメラワーク制御XML作成部22は、シーン制御部18からカメラポジションリストを取得し、カメラポジションリストに示される時刻毎の視点位置をXMLにて記述したカメラワーク制御コマンドを作成する。
以上が、三次元自由視点映像システム1の構成である。
続いて、上述の映像スクリプト変換部4において、各時刻毎におけるレンダリング映像の視点位置を決定する動作について、詳細に説明する。図9は、カメラポジションリストを生成する動作の流れを示すフローチャートである。
The camera work control XML creation unit 22 acquires a camera position list from the scene control unit 18 and creates a camera work control command in which the viewpoint position at each time indicated in the camera position list is described in XML.
The above is the configuration of the three-dimensional free viewpoint video system 1.
Next, the operation for determining the viewpoint position of the rendered video at each time in the video script conversion unit 4 will be described in detail. FIG. 9 is a flowchart showing a flow of operations for generating a camera position list.

シーンリスト取得部17においてシーンリストが取得されると、シーン制御部18は、図10に示すデータ構造のカメラポジションリストと図11に示すデータ構造のショットリストとを、ワークメモリ上に生成する(S11)。ズームなどのカメラパラメータを生成してもよい。次にシーン制御部18は、シーンリストから開始時刻が早いものから順にシーンを選択し、選択したシーンのシーン名、シーン開始時刻、シーン終了時刻、撮影対象、及び、イマジナリベクトル終点座標の各パラメータを、ショット制御部19へ通知する(S12)。   When the scene list is acquired by the scene list acquisition unit 17, the scene control unit 18 generates a camera position list having the data structure shown in FIG. 10 and a shot list having the data structure shown in FIG. S11). Camera parameters such as zoom may be generated. Next, the scene control unit 18 selects scenes in order from the earliest start time from the scene list, and each parameter of the scene name, scene start time, scene end time, shooting target, and imaginary vector end point coordinates of the selected scene. Is notified to the shot control unit 19 (S12).

ショット制御部19は、ショットリストを初期化した後、シーン制御部18から通知されたシーン名に対応するシーン記述情報を撮影知識データベース21から読み出し、読み出したシーン記述情報のショット指定に含まれるショット名を、シーン記述情報に含まれる順番でショットリストに登録する(S13)。ショットリストの初期化とは、ショットリストに登録されている全てのデータを削除することであり、S13の処理が終了した時点でショットリストには、シーン記述情報において指定されているショット名のみが登録されており、候補座標、及び評価点にはデータが登録されていない。   After initializing the shot list, the shot control unit 19 reads out the scene description information corresponding to the scene name notified from the scene control unit 18 from the shooting knowledge database 21, and the shot included in the shot designation of the read scene description information Names are registered in the shot list in the order included in the scene description information (S13). The initialization of the shot list is to delete all the data registered in the shot list. When the processing of S13 is completed, only the shot name specified in the scene description information is included in the shot list. It is registered, and no data is registered for candidate coordinates and evaluation points.

次にショット制御部19は、ショットリストにショット名が登録されている順に1つのショットパターンを選択し、選択したショットパターンを記述したショット情報を、撮影知識データベース21から読み出す(S14)。ショット制御部19は、S14で選択したショットパターンで撮影対象を撮影する為の視点位置の座標を、カメラポジション決定処理により算出し、算出した座標を候補位置としてショットリストに登録する(S15)。ショット制御部19はさらに、S15において決定した候補位置を採点し、点数を評価点としてショットリストに登録する(S16)。   Next, the shot control unit 19 selects one shot pattern in the order in which the shot names are registered in the shot list, and reads shot information describing the selected shot pattern from the shooting knowledge database 21 (S14). The shot control unit 19 calculates the coordinates of the viewpoint position for shooting the shooting target with the shot pattern selected in S14 by the camera position determination process, and registers the calculated coordinates in the shot list as candidate positions (S15). The shot control unit 19 further scores the candidate positions determined in S15 and registers the score as an evaluation score in the shot list (S16).

候補位置の採点では、カメラポジションリストに最後に登録されたカメラポジションの終了視点を直前の視点位置とし、直前の視点位置と候補位置との関係が、撮影知識データベース21に登録されている撮影規則に照らし合わせて、好ましい位置関係にあれば点数を増加させ、好ましくない位置関係にあれば、点数を減少させることで、候補位置を評価する。ただし、カメラポジションリストにカメラポジションが一つも登録されていない場合には、直前の視点位置として候補位置と同一の座標を用いる。   In scoring the candidate positions, the end viewpoint of the camera position registered last in the camera position list is set as the immediately preceding viewpoint position, and the relationship between the immediately preceding viewpoint position and the candidate position is registered in the imaging rule database 21. The candidate position is evaluated by increasing the score if it is in the preferred positional relationship and decreasing the score if it is in the undesirable positional relationship. However, when no camera position is registered in the camera position list, the same coordinates as the candidate position are used as the immediately preceding viewpoint position.

ショット制御部19は、ショットリストにショット名が登録されている全てのショットパターンについて、ショットリストに候補座標、及び評価点を登録するまでS14乃至S16の処理を繰り返す。全てのショットパターンについて処理が終わると(S17:No)、ショット制御部19は、ショットリストに登録された評価点が最も高いショットの候補位置を用いて、図10に示すカメラポジションリストに新たなカメラポジションを追加する(S18)。ただし、複数のショットパターンが同点で最高点となった場合には、評価点が最も高いもののうち、ショットリストにおいて最も上位に登録されているものの候補位置を、カメラポジションの追加に用いる。   The shot control unit 19 repeats the processes of S14 to S16 until candidate coordinates and evaluation points are registered in the shot list for all shot patterns whose shot names are registered in the shot list. When the processing is completed for all the shot patterns (S17: No), the shot control unit 19 uses the candidate position of the shot with the highest evaluation score registered in the shot list to newly add to the camera position list shown in FIG. A camera position is added (S18). However, when a plurality of shot patterns have the same score, the candidate position of the highest evaluation score registered in the shot list is used to add the camera position.

カメラポジションの追加とは、以下の手順でなされる。先ず、注視点には、シーン制御部18から通知されたイマジナリベクトル終点座標を、開始視点には、評価点が最も高かった候補位置の座標を設定する。次に、評価点が最も高かったショットに対応するショット情報においてパン角度が0度である場合は、開始視点と同じ座標を終了視点に設定し、前記ショット情報のパン角度が0度以外である場合は、評価点が最も高かった候補座標を、指定角度だけパンさせた座標を終了視点に設定する。さらに、開始時刻には、一つ前に登録されているカメラポジションの終了時刻と同じ時刻を設定し、終了時刻には、評価点が最も高かったショットに対応するショット情報の継続時間を開始時刻に加算した時刻を設定する。ただし、カメラポジションリストに最初のカメラポジションを登録する場合には、カメラポジションの開始時刻としてS12で選択したシーンのシーン開始時刻を設定する。   The addition of the camera position is performed according to the following procedure. First, the imaginary vector end point coordinate notified from the scene control unit 18 is set for the gaze point, and the coordinate of the candidate position with the highest evaluation score is set for the start point of view. Next, when the pan angle is 0 degrees in the shot information corresponding to the shot with the highest evaluation score, the same coordinates as the start viewpoint are set as the end viewpoint, and the pan angle of the shot information is other than 0 degrees. In this case, a coordinate obtained by panning the candidate coordinate having the highest evaluation score by a specified angle is set as the end viewpoint. Furthermore, the same time as the end time of the previously registered camera position is set as the start time, and the duration of the shot information corresponding to the shot with the highest evaluation score is set as the start time. Set the time added to. However, when the first camera position is registered in the camera position list, the scene start time of the scene selected in S12 is set as the camera position start time.

ここで終了時刻に設定された時刻が、S12で選択されたシーンのシーン終了時刻に達していなければ(S19:No)、ショット制御部19は、S13においてショットリストを再度初期化して、S18までの処理を繰り返す。カメラポジションリストの終了時刻に設定された時刻が、S12で選択されたシーンのシーン終了時刻に達した場合には(S19:Yes)、シーン制御部18は、カメラポジションリストを、カメラワーク制御XML作成部22へ出力する。カメラポジションリストを取得したカメラワーク制御XML作成部22では、時刻毎の視点位置座標をXMLにて記述したカメラワーク制御コマンドに変換し、映像生成部2へ出力する(S20)。カメラワーク制御XML作成部22によるカメラワーク制御コマンドへの変換が完了した後、シーン制御部18は、全てのカメラポジションのデータを削除してカメラポジションリストを初期化する。   If the time set here as the end time has not reached the scene end time of the scene selected in S12 (S19: No), the shot control unit 19 reinitializes the shot list in S13, and until S18. Repeat the process. When the time set as the end time of the camera position list reaches the scene end time of the scene selected in S12 (S19: Yes), the scene control unit 18 converts the camera position list into the camera work control XML. Output to the creation unit 22. The camera work control XML creation unit 22 that has acquired the camera position list converts the viewpoint position coordinates for each time into camera work control commands described in XML, and outputs them to the video generation unit 2 (S20). After the conversion to the camera work control command by the camera work control XML creation unit 22 is completed, the scene control unit 18 deletes all the camera position data and initializes the camera position list.

映像スクリプト変換部4は、シーンリスト取得部17において取得されたシーンリストに登録されている全てのシーンについて、S12乃至S20の処理を繰り返す。
以上の動作により、利用者がシーンリストにおいてレンダリング映像の生成を指示した期間の各時刻毎における視点位置を決定することができる。
次に、図9のS15において実行されるカメラポジション決定処理について、図12乃至図14を用いて説明する。図12は、カメラポジション決定処理の処理の流れを示すフローチャートであり、図13、及び図14は、注視点PAと視点位置Cptの関係を模式的に示す図である。
The video script conversion unit 4 repeats the processes of S12 to S20 for all scenes registered in the scene list acquired by the scene list acquisition unit 17.
With the above operation, it is possible to determine the viewpoint position at each time in the period in which the user instructs the generation of the rendered video in the scene list.
Next, the camera position determination process executed in S15 of FIG. 9 will be described with reference to FIGS. Figure 12 is a flowchart showing the flow of processing of the camera position determination process, 13, and 14 are diagrams schematically showing the relationship between the fixation point P A and the viewpoint position Cpt.

S14において選択されたショットパターンで撮影対象を撮影する視点位置を決定するために、先ず、ショット制御部19は、シーン制御部18から通知されている撮影対象と、カメラポジションリストに登録されている最後のカメラポジションの終了時刻とを、実パラメータ取得部20に通知し、これらの情報に基づいてアノテーション領域、及び注視点の座標を実パラメータ取得部20から取得する(S31)。ただし、このときカメラポジションリストにカメラポジションが一つも登録されていない場合には、最後のカメラポジションの終了時刻に代えて、シーン制御部18から通知されているシーン開始時刻を通知する。   In order to determine the viewpoint position at which the shooting target is shot with the shot pattern selected in S14, first, the shot control unit 19 is registered in the shooting position notified from the scene control unit 18 and the camera position list. The actual parameter acquisition unit 20 is notified of the end time of the last camera position, and the annotation region and the coordinates of the gazing point are acquired from the actual parameter acquisition unit 20 based on these pieces of information (S31). However, if no camera position is registered in the camera position list at this time, the scene start time notified from the scene control unit 18 is notified instead of the end time of the last camera position.

アノテーション領域、及び注視点の座標を取得したショット制御部19は、図13に示す仮ポジションCpttmpの座標を算出する(S32)。仮ポジションCpttmpは、注視点PAを中心とし半径がr0である単位球面上において、イマジナリベクトルPABに対して、水平角度Dh、及び、上下角度Dvのそれぞれの角度をなす位置である。
ショット制御部19は、仮ポジションCpttmpから注視点PAに向かって所定の視野角でクリップしたが画面において、アノテーション領域が画面の縦方向に占める割合R0を算出する(S33)。R0は、図14に示すようにアノテーション領域の高さhAを、仮ポジションCpttmpから所定の画角でクリップしたが画面の高さh0で除算することで得られる。
The shot control unit 19 that has acquired the annotation area and the coordinates of the gazing point calculates the coordinates of the temporary position Cpt tmp shown in FIG. 13 (S32). The temporary position Cpt tmp has the horizontal angle D h and the vertical angle D v with respect to the imaginary vector P A P B on the unit sphere centered on the gazing point P A and having a radius r 0. It is a position to make.
Shot Control unit 19 is clipped at a predetermined viewing angle toward the fixation point P A from the temporary position Cpt tmp in the screen, the annotation area is calculated ratio R0 occupying the longitudinal direction of the screen (S33). R0 is obtained by dividing the height h A of the annotation area from the temporary position Cpt tmp by a predetermined angle of view but dividing it by the height h 0 of the screen as shown in FIG.

ショット制御部19は、さらに、S33において算出したR0と、ショット情報に設定されたフレーミングパターンのフレーミング条件R1との比率kを算出し(S34)、注視点PAからの距離がk・r0の点であり、且つ、注視点PAと仮ポジションCpttmpを結ぶ線分を仮ポジションCpttmp側に延ばした延長線上の点を、S14で選択されたショットで撮影対象を撮影する為の視点位置Cptとして、その座標を算出する(S35)。以上が、カメラポジション決定処理の詳細である。 Shot Control unit 19 further includes a R0 calculated in S33, and calculates the ratio k between the framing condition R1 framing pattern set in the shot information (S34), the fixation point P distance from A is k · r 0 It is a point, and the viewpoint for a point on an extension line of a line segment is extended to the temporary position Cpt tmp side for photographing the photographic subject in the shot which is selected in S14 connecting the fixation point P a and the tentative position Cpt tmp The coordinates are calculated as the position Cpt (S35). The above is the details of the camera position determination process.

以上のように、本実施形態に係る三次元自由視点映像システム1は、
システム利用者から、利用したいシーン記述情報と、レンダリング映像を生成したいシーンの開始時刻、終了時刻、被写体、及び、被写体の行為対象の座標との指定を受けるだけで、映画のような見易いレンダリング映像を生成することができる。
<その他の変形例>
以上、本発明を上記の実施形態に基づいて説明してきたが、本発明は、上記の実施形態に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
As described above, the three-dimensional free viewpoint video system 1 according to the present embodiment is
Just by specifying the scene description information you want to use, the start time and end time of the scene you want to generate the rendered video, the subject, and the coordinates of the subject's action target, you can easily view the rendered video like a movie Can be generated.
<Other variations>
As mentioned above, although this invention has been demonstrated based on said embodiment, of course, this invention is not limited to said embodiment. The following cases are also included in the present invention.

(1)本発明は、上記のフローチャートに手順を示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するプログラムであるとしてもよいし、前記プログラムからなるデジタル信号であるとしてもよい。
また、本発明は、前記プログラム又は前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、磁気ディスク、光磁気ディスク、光ディスク、半導体メモリなど、に記録したものとしてもよい。
(1) The present invention may be a method showing a procedure in the above flowchart. Further, the present invention may be a program that realizes these methods by a computer, or may be a digital signal composed of the program.
Further, the present invention may be a program in which the program or the digital signal is recorded on a computer-readable recording medium, such as a magnetic disk, a magneto-optical disk, an optical disk, or a semiconductor memory.

また、本発明は、前記プログラム又は前記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送するものとしてもよい。
また、前記プログラム又は前記デジタル信号を前記記録媒体に記録して移送することにより、又は前記プログラム又は前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
In the present invention, the program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, or the like.
In addition, the program or the digital signal is recorded on the recording medium and transferred, or the program or the digital signal is transferred via the network or the like, and is executed by another independent computer system. It is good.

(2)上記実施の形態では、システム利用者からイマジナリベクトルの指定を受け、イマジナリベクトルを含む直線をイマジナリラインとして用いる構成について説明したが、本発明に係る映像生成装置は、イマジナリベクトルとは別個に外部からイマジナリラインの指定を受ける構成としてもよい。
例えば、システム利用者からシーンリストと共にイマジナリラインの指定を受けるとしてもよい。具体的には、システム利用者が撮影空間中の任意の2点の座標を入力することにより、2点を通過する直線がイマジナリラインとして得られる。
(2) In the above embodiment, a configuration has been described in which a system user receives designation of an imaginary vector and uses a straight line including the imaginary vector as an imaginary line. However, the video generation apparatus according to the present invention is separate from the imaginary vector. It may be configured to receive designation of an imaginary line from the outside.
For example, an imaginary line specification may be received together with a scene list from a system user. Specifically, when the system user inputs the coordinates of two arbitrary points in the imaging space, a straight line passing through the two points is obtained as an imaginary line.

このような変形例では、イマジナリベクトルとは別個に、上方無限遠から見て撮影空間を二分割するように引かれる任意の直線をイマジナリラインとして指定することができる。そのため、撮影対象の人物Aが人物Bと正対していながら人物Cと会話しているような、撮影空間に三人以上の人物が存在するシーンでも、違和感のない三次元自由視点映像を得ることができる。   In such a modification, separately from the imaginary vector, an arbitrary straight line drawn so as to divide the photographing space as viewed from the upper infinity can be designated as the imaginary line. Therefore, even in a scene where there are three or more persons in the shooting space, such as when the person A to be photographed is talking to the person C while facing the person B, a three-dimensional free viewpoint image without a sense of incongruity is obtained. Can do.

(3)上記実施の形態では、撮影知識データベースに蓄積されているシーン記述情報を用いて、視点位置を決定する構成について説明したが、シーン記述情報は必ずしも装置内に予め蓄積されている必要はない。
例えば、システム利用者が、シーンリストと共にシーン記述情報とショット情報とを入力するとしてもよい。
(3) In the above embodiment, the configuration for determining the viewpoint position using the scene description information stored in the shooting knowledge database has been described. However, the scene description information does not necessarily have to be stored in advance in the apparatus. Absent.
For example, the system user may input scene description information and shot information together with the scene list.

(4)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。   (4) The above embodiment and the above modifications may be combined.

本発明は、社内会議における出席者の言動を撮影したり、医療現場における医師や看護婦の医療行為を撮影したり、アミューズメント施設、テーマパーク、老人ホーム及び介護施設などにおける利用者の言動を撮影した映像から、議事録、改善資料、映像サービス提供媒体に用いるドキュメンタリを生成する映像生成装置等の用途に適用できる。   The present invention captures the behavior of attendees at internal meetings, photographs the medical practices of doctors and nurses at medical sites, and photographs the behavior of users at amusement facilities, theme parks, nursing homes and nursing homes, etc. It can be applied to uses such as a video generation device that generates documentary used for minutes, improvement materials, and video service providing media from the recorded video.

本発明に係る三次元自由視点映像システムの全体構成を示す図。The figure which shows the whole structure of the three-dimensional free viewpoint image | video system which concerns on this invention. 未編集の三次元自由視点映像を模式的に示す図。The figure which shows an unedited three-dimensional free viewpoint image | video typically. アノテーション情報の一例を示す図。The figure which shows an example of annotation information. アノテーション情報の入力インタフェースの一例を示す図。The figure which shows an example of the input interface of annotation information. シーンリストの一例を示す図。The figure which shows an example of a scene list. (a)はシーン記述情報のデータ構造を示す図。 (b)はショット情報のデータ構造を示す図。(A) is a figure which shows the data structure of scene description information. FIG. 6B is a diagram illustrating a data structure of shot information. (a)はイマジナリベクトルと水平角度Dhとの関係を示す模式図。 (b)はイマジナリベクトルと上下角度Dvとの関係を示す模式図。(A) is a schematic diagram showing the relationship between the imaginary vector and the horizontal angle D h. (B) is a schematic diagram showing the relationship between the vertical angle D v and imaginary vector. フレーミングパターンの例を示す図。The figure which shows the example of a framing pattern. カメラポジションリストを生成する動作の流れを示すフローチャート。The flowchart which shows the flow of the operation | movement which produces | generates a camera position list. カメラポジションリストの一例を示す図。The figure which shows an example of a camera position list. ショットリストの一例を示す図。The figure which shows an example of a shot list. カメラポジション決定処理の処理の流れを示すフローチャート。The flowchart which shows the flow of a process of a camera position determination process. 注視点PAと視点位置Cptの関係を示す斜視図。Perspective view showing the relationship between the fixation point P A and the viewpoint position Cpt. 注視点PAと視点位置Cptの関係を示す模式図。Schematic view showing the relationship between the fixation point P A and the viewpoint position Cpt.

符号の説明Explanation of symbols

1 三次元自由視点映像システム
2 映像生成部
3 アノテーション管理部
4 映像スクリプト変換部
11a〜11f カメラ
12 キャプチャユニット
13 空間モデル構築用サーバ
15 アノテーション情報登録部
16 アノテーションデータベース
17 シーンリスト取得部
18 シーン制御部
19 ショット制御部
20 実パラメータ取得部
21 撮影知識データベース
22 カメラワーク制御XML作成部
23 XML解釈部
24 映像出力部
DESCRIPTION OF SYMBOLS 1 3D free viewpoint video system 2 Video generation part 3 Annotation management part 4 Video script conversion part 11a-11f Camera 12 Capture unit 13 Spatial model construction server 15 Annotation information registration part 16 Annotation database 17 Scene list acquisition part 18 Scene control part 19 shot control unit 20 actual parameter acquisition unit 21 imaging knowledge database 22 camera work control XML creation unit 23 XML interpretation unit 24 video output unit

Claims (8)

シーン記述情報に基づき、視点位置を変化させて動画像を得る映像生成装置であって、
シーン記述情報は、複数の候補位置のそれぞれに対応したカメラ制御情報を配してなり、
直前の視点位置と、1の候補位置との組みに対して、所定の規則を適用させることにより、各候補位置が、カレントの視点位置にどれだけ相応しいかの評価を行う評価手段と、
評価結果が最も高い候補位置を、カレント視点位置に選んで、当該カレント視点位置に対応したカメラ制御情報を用いて、カレント視点位置から被写体を見た場合の動画像を生成する生成手段と、
評価手段、及び生成手段に処理を繰り返し実行させる制御手段と
を備えることを特徴とする映像生成装置。
A video generation device that obtains a moving image by changing a viewpoint position based on scene description information,
The scene description information consists of camera control information corresponding to each of a plurality of candidate positions.
An evaluation unit that evaluates how much each candidate position corresponds to the current viewpoint position by applying a predetermined rule to the set of the immediately preceding viewpoint position and one candidate position;
A generation unit that selects a candidate position with the highest evaluation result as a current viewpoint position and generates a moving image when the subject is viewed from the current viewpoint position using camera control information corresponding to the current viewpoint position;
An image generation apparatus comprising: an evaluation unit; and a control unit that causes the generation unit to repeatedly execute a process.
前記所定の規則には、被写体空間を分割する境界に関する制約を含むものがあり、
当該制約に基づいて、
直前の視点位置と、候補位置とを結ぶ直線が、前記境界に交差する場合、当該候補位置に対する評価を低くし、
直前の視点位置と、候補位置とを結ぶ直線が、前記境界に交差しない場合、当該候補位置に対する評価を高くする、請求項1記載の映像生成装置。
The predetermined rule includes a restriction regarding a boundary that divides the subject space,
Based on these constraints,
When a straight line connecting the previous viewpoint position and the candidate position intersects the boundary, the evaluation for the candidate position is lowered,
The video generation device according to claim 1, wherein when a straight line connecting the immediately preceding viewpoint position and the candidate position does not intersect the boundary, the evaluation for the candidate position is increased.
前記被写体空間は、二人以上の人物を含み、
前記境界は、被写体空間に含まれる二人の人物間を結ぶ直線、又は任意の直線を含み前記被写体空間を二分割する、請求項2記載の映像生成装置。
The subject space includes two or more persons,
The video generation apparatus according to claim 2, wherein the boundary includes a straight line connecting two persons included in the subject space or an arbitrary straight line, and divides the subject space into two.
カメラ制御情報には、カメラのパン制御を意図するものがあり、
前記所定の規則には、
何れかの候補位置に対応付けられたカメラ制御情報が、直前の視点位置から当該候補位置までのパン制御を示している場合、当該候補位置の評価値を高くし、
何れかの候補位置に対応付けられたカメラ制御情報が、直前の視点位置から当該候補位置までのパン制御を示していない場合、当該候補位置の評価値を低くするというものがある、請求項1記載の映像生成装置
Some camera control information is intended for camera pan control,
The predetermined rule includes:
When the camera control information associated with any candidate position indicates pan control from the previous viewpoint position to the candidate position, the evaluation value of the candidate position is increased,
The camera control information associated with any candidate position does not indicate pan control from the previous viewpoint position to the candidate position, and the evaluation value of the candidate position is lowered. The video generation device described
前記所定の規則には、被写体空間を分割する境界に関する制約を含むものがあり、
当該制約に基づいて、
直前の視点位置と、候補位置とを結ぶ直線が、前記境界に交差する場合、当該候補位置に対する評価を低くし、
直前の視点位置と、候補位置とを結ぶ直線が、前記境界に交差しない場合、当該候補位置に対する評価を高くする、請求項4記載の映像生成装置。
The predetermined rule includes a restriction regarding a boundary that divides the subject space,
Based on these constraints,
When a straight line connecting the previous viewpoint position and the candidate position intersects the boundary, the evaluation for the candidate position is lowered,
The video generation device according to claim 4, wherein when a straight line connecting a previous viewpoint position and a candidate position does not intersect the boundary, the evaluation for the candidate position is increased.
何れかの候補位置に対応付けられたカメラ制御情報が、直前の視点位置から当該候補位置までのパン制御を示している場合の当該候補位置に対する評価値は、
直前の視点位置と、候補位置とを結ぶ直線が、前記境界に交差しない場合の当該候補位置に対する評価よりも高い
ことを特徴とする請求項5記載の映像生成装置。
When the camera control information associated with any candidate position indicates pan control from the previous viewpoint position to the candidate position, the evaluation value for the candidate position is:
The video generation device according to claim 5, wherein a straight line connecting the immediately preceding viewpoint position and the candidate position is higher than an evaluation for the candidate position when the boundary does not intersect the boundary.
カメラ制御情報は、被写体に対して候補位置がどの方向にあるかを示す視点角度θ、及び被写体が画面に占めるべき割合を示すフレーミング条件情報を含み、
前記動画像を得る手順は、
フレーミング条件情報に基づき、被写体と、視点位置との距離rを決定して、視点角度θ及び距離rから、候補位置の三次元座標を得る手順を含む、請求項1〜6の何れかに記載の映像生成装置。
The camera control information includes a viewing angle θ indicating in which direction the candidate position is with respect to the subject, and framing condition information indicating a ratio that the subject should occupy on the screen ,
The procedure for obtaining the moving image is as follows:
The method according to claim 1, further comprising: determining a distance r between the subject and the viewpoint position based on the framing condition information , and obtaining a three-dimensional coordinate of the candidate position from the viewpoint angle θ and the distance r. Video generation device.
シーン記述情報に基づいて視点位置を変化させた動画像を、コンピュータに生成させるプログラムであって、
シーン記述情報は、複数の候補位置のそれぞれに対応したカメラ制御情報を配してなり、
直前の視点位置と、1の候補位置との組みに対して、所定の規則を適用させることにより、各候補位置が、カレントの視点位置にどれだけ相応しいかの評価を行うステップと、
評価結果が最も高い候補位置を、カレント視点位置に選んで、当該カレント視点位置に対応したカメラ制御情報を用いて、カレント視点位置から被写体を見た場合の動画像を得るステップと
を繰り返しコンピュータに実行させることを特徴とするプログラム。
A program for causing a computer to generate a moving image whose viewpoint position is changed based on scene description information,
The scene description information consists of camera control information corresponding to each of a plurality of candidate positions.
Evaluating how each candidate position corresponds to the current viewpoint position by applying a predetermined rule to the set of the previous viewpoint position and one candidate position;
Selecting the candidate position with the highest evaluation result as the current viewpoint position and using the camera control information corresponding to the current viewpoint position to obtain a moving image when the subject is viewed from the current viewpoint position. A program characterized by being executed.
JP2005023646A 2005-01-31 2005-01-31 Video generation apparatus and program Expired - Fee Related JP4395082B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005023646A JP4395082B2 (en) 2005-01-31 2005-01-31 Video generation apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005023646A JP4395082B2 (en) 2005-01-31 2005-01-31 Video generation apparatus and program

Publications (2)

Publication Number Publication Date
JP2006211531A JP2006211531A (en) 2006-08-10
JP4395082B2 true JP4395082B2 (en) 2010-01-06

Family

ID=36967852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005023646A Expired - Fee Related JP4395082B2 (en) 2005-01-31 2005-01-31 Video generation apparatus and program

Country Status (1)

Country Link
JP (1) JP4395082B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5517596B2 (en) * 2009-12-17 2014-06-11 キヤノン株式会社 Imaging apparatus, imaging control method, and computer program
JP5562103B2 (en) * 2010-04-16 2014-07-30 キヤノン株式会社 Image processing apparatus and method
JP5295416B1 (en) * 2012-08-01 2013-09-18 ヤフー株式会社 Image processing apparatus, image processing method, and image processing program
JP7467074B2 (en) 2019-11-05 2024-04-15 キヤノン株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP2006211531A (en) 2006-08-10

Similar Documents

Publication Publication Date Title
Matsuyama et al. 3D video and its applications
US9041899B2 (en) Digital, virtual director apparatus and method
US9367942B2 (en) Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation
JP2018107793A (en) Generation device, generation method and program of virtual view point image
KR20130090621A (en) Apparatus and method for pre-visualization image
CA2866672A1 (en) Motion picture project management system
KR20160098949A (en) Apparatus and method for generating a video, and computer program for executing the method
KR20160021706A (en) Playing method and the system of 360 degree spacial video
JP4395082B2 (en) Video generation apparatus and program
US11200919B2 (en) Providing a user interface for video annotation tools
CN111064946A (en) Video fusion method, system, device and storage medium based on indoor scene
JP6494455B2 (en) Video processing apparatus, video processing method, and program
CN111064947A (en) Panoramic-based video fusion method, system, device and storage medium
Duan et al. Flad: a human-centered video content flaw detection system for meeting recordings
JP2023057124A (en) Image processing apparatus, method, and program
CN114401368A (en) Method and device for processing co-shooting video
WO2022230718A1 (en) Information processing device, information processing method, and program
Vanherle et al. Automatic Camera Control and Directing with an Ultra-High-Definition Collaborative Recording System
Albuquerque et al. An overview on virtual sets
DeHart Directing audience attention: cinematic composition in 360 natural history films
JP2023121531A (en) Information processing device and method for creating movement path, and program
KR101966112B1 (en) Method and apparatus of monitoring immersive contents
JP2024056581A (en) Image generating device and control method thereof
CN115967779A (en) Method and device for displaying bitmap of virtual camera machine, electronic equipment and medium
KR20220155933A (en) User upload VR system that exchanges data with multiple user accounts

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091013

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091016

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121023

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees