JP4395082B2 - Video generation apparatus and program - Google Patents
Video generation apparatus and program Download PDFInfo
- Publication number
- JP4395082B2 JP4395082B2 JP2005023646A JP2005023646A JP4395082B2 JP 4395082 B2 JP4395082 B2 JP 4395082B2 JP 2005023646 A JP2005023646 A JP 2005023646A JP 2005023646 A JP2005023646 A JP 2005023646A JP 4395082 B2 JP4395082 B2 JP 4395082B2
- Authority
- JP
- Japan
- Prior art keywords
- candidate position
- candidate
- viewpoint position
- viewpoint
- shot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、自由視点映像の技術分野に属する発明である。 The present invention belongs to the technical field of free viewpoint video.
自由視点映像の技術とは、複数カメラから得られた映像を統合して、三次元解析を行い、この解析結果を基に、自由な視点からの映像を得る技術である。
自由視点映像を得ることができる撮影システムを、社内の会議室に設置しておけば、自由な視点から、社内会議における出席者の言動を撮影することができる。また医療現場に設置しておけば、自由な視点から、医師や看護婦の医療行為を撮影することができる。
Free viewpoint video technology is a technology that integrates video obtained from a plurality of cameras, performs three-dimensional analysis, and obtains video from a free viewpoint based on the analysis result.
If a shooting system that can obtain free-viewpoint images is installed in a meeting room in the company, the behavior of attendees at the company meeting can be shot from a free viewpoint. Moreover, if it is installed at a medical site, it is possible to take pictures of medical practices of doctors and nurses from a free viewpoint.
そうして得られた自由視点映像は、後日、映像化された議事録や職場の改善資料として役立てることができる。議事録や改善資料等への応用が可能であるので、自由視点映像の技術は、今後の発展が大いに期待される。尚、自由視点映像の技術に関しては、以下の非特許文献に記載された先行技術があることを出願人は認識している。
ところで自由視点からの映像生成に関しては、上述した非特許文献においてある程度の成果が認められるものの、自由視点を、時間的にどのように変化させてゆくかについては、未だ研究の余地が残っている。何故なら、視点位置の変化は、その変化のさせかたによっては、大きな違和感を視聴者に与えかねないからである。一方、映画等の映像制作の分野では、かかる違和感を生じないための様々な撮影手法が産み出されている。 By the way, with respect to video generation from a free viewpoint, although some achievements are recognized in the above-mentioned non-patent literature, there is still room for research on how to change the free viewpoint in time. . This is because a change in viewpoint position may give viewers a great sense of incongruity depending on how the change is made. On the other hand, in the field of video production such as movies, various shooting techniques have been produced to prevent such a sense of incongruity.
このことから、自由視点についての研究が進んでいる今日であっても、映画のような見易さを追究するには、やはり、プロの撮影スタッフによる撮影手法の力を借りなければない。しかしプロの撮影スタッフの協力には、多額の投資が必要となるので、たとえ自由視点技術が発展したとはいえ、映画のようにユーザの印象に残るような、ドキュメンタリを制作することは非常に困難であるといわれている。 For this reason, even today, when research on free viewpoints is progressing, in order to pursue ease of viewing like a movie, it is still necessary to borrow the power of shooting techniques by professional shooting staff. However, the cooperation of professional photography staff requires a large amount of investment, so it is very difficult to produce a documentary that will leave the impression of the user like a movie, even though free-viewpoint technology has developed. It is said that it is difficult.
本発明の目的は、プロの撮影スタッフによる手腕に頼らなくても、映画のような見易い映像を得ることができる、映像生成装置、及びプログラムを提供することである。 An object of the present invention is to provide an image generation device and a program that can obtain an easy-to-view image such as a movie without depending on the skill of a professional shooting staff.
上記目的は、シーン記述情報に基づき、視点位置を変化させて動画像を得る映像生成装置であって、シーン記述情報は、複数の候補位置のそれぞれに対応したカメラ制御情報を配してなり、直前の視点位置と、1の候補位置との組みに対して、所定の規則を適用させることにより、各候補位置が、カレントの視点位置にどれだけ相応しいかの評価を行う評価手段と、評価結果が最も高い候補位置を、カレント視点位置に選んで、当該カレント視点位置に対応したカメラ制御情報を用いて、カレント視点位置から被写体を見た場合の動画像を生成する生成手段と、評価手段、及び生成手段に処理を繰り返し実行させる制御手段とを備えることにより達成される。 The above object is a video generation device that obtains a moving image by changing the viewpoint position based on the scene description information, and the scene description information includes camera control information corresponding to each of a plurality of candidate positions, Evaluation means for evaluating how much each candidate position corresponds to the current viewpoint position by applying a predetermined rule to the set of the previous viewpoint position and one candidate position, and the evaluation result Selecting the highest candidate position as the current viewpoint position, and using the camera control information corresponding to the current viewpoint position, generating means for generating a moving image when the subject is viewed from the current viewpoint position, evaluation means, And a control unit that causes the generation unit to repeatedly execute the process.
また、前記所定の規則には、被写体空間を分割する境界に関する制約を含むものがあり、当該制約に基づいて、直前の視点位置と、候補位置とを結ぶ直線が、前記境界に交差する場合、当該候補位置に対する評価を低くし、直前の視点位置と、候補位置とを結ぶ直線が、前記境界に交差しない場合、当該候補位置に対する評価を高くするとしてもよい。
さらに、前記被写体空間は、二人以上の人物を含み、前記境界は、被写体空間に含まれる二人の人物間を結ぶ直線、又は任意の直線を含み前記被写体空間を二分割するとしてもよい。
In addition, the predetermined rule includes a constraint on a boundary that divides the subject space, and based on the constraint, when a straight line connecting a previous viewpoint position and a candidate position intersects the boundary, The evaluation for the candidate position may be made low, and if the straight line connecting the immediately preceding viewpoint position and the candidate position does not intersect the boundary, the evaluation for the candidate position may be made high.
Furthermore, the subject space may include two or more persons, and the boundary may include a straight line connecting two persons included in the subject space, or an arbitrary straight line, and the subject space may be divided into two.
また、カメラ制御情報には、カメラのパン制御を意図するものがあり、前記所定の規則には、何れかの候補位置に対応付けられたカメラ制御情報が、直前の視点位置から当該候補位置までのパン制御を示している場合、当該候補位置の評価値を高くし、何れかの候補位置に対応付けられたカメラ制御情報が、直前の視点位置から当該候補位置までのパン制御を示していない場合、当該候補位置の評価値を低くするというものがあるとしてもよい。 Also, some camera control information is intended for camera pan control. According to the predetermined rule, camera control information associated with any candidate position is displayed from the previous viewpoint position to the candidate position. When the pan control is indicated, the evaluation value of the candidate position is increased, and the camera control information associated with any candidate position does not indicate the pan control from the previous viewpoint position to the candidate position. In some cases, the evaluation value of the candidate position may be lowered.
さらに、前記所定の規則には、被写体空間を分割する境界に関する制約を含むものがあり、当該制約に基づいて、直前の視点位置と、候補位置とを結ぶ直線が、前記境界に交差する場合、当該候補位置に対する評価を低くし、直前の視点位置と、候補位置とを結ぶ直線が、前記境界に交差しない場合、当該候補位置に対する評価を高くするとしてもよい。
さらに、何れかの候補位置に対応付けられたカメラ制御情報が、直前の視点位置から当該候補位置までのパン制御を示している場合の当該候補位置に対する評価値は、直前の視点位置と、候補位置とを結ぶ直線が、前記境界に交差しない場合の当該候補位置に対する評価よりも高いとしてもよい。
Further, the predetermined rule includes a constraint on a boundary that divides the subject space, and based on the constraint, when a straight line connecting a previous viewpoint position and a candidate position intersects the boundary, The evaluation for the candidate position may be made low, and if the straight line connecting the immediately preceding viewpoint position and the candidate position does not intersect the boundary, the evaluation for the candidate position may be made high.
Furthermore, when the camera control information associated with any candidate position indicates pan control from the previous viewpoint position to the candidate position, the evaluation value for the candidate position is the previous viewpoint position, the candidate The straight line connecting the positions may be higher than the evaluation for the candidate position when the line does not intersect the boundary.
また、カメラ制御情報は、被写体に対して候補位置がどの方向にあるかを示す視点角度θ、及び被写体が画面に占めるべき割合を示すフレーミング条件情報を含み、前記動画像を得る手順は、フレーミング条件情報に基づき、被写体と、視点位置との距離rを決定して、視点角度θ及び距離rから、候補位置の三次元座標を得る手順を含むとしてもよい。
上記目的は、シーン記述情報に基づいて視点位置を変化させた動画像を、コンピュータに生成させるプログラムであって、シーン記述情報は、複数の候補位置のそれぞれに対応したカメラ制御情報を配してなり、直前の視点位置と、1の候補位置との組みに対して、所定の規則を適用させることにより、各候補位置が、カレントの視点位置にどれだけ相応しいかの評価を行うステップと、評価結果が最も高い候補位置を、カレント視点位置に選んで、当該カレント視点位置に対応したカメラ制御情報を用いて、カレント視点位置から被写体を見た場合の動画像を得るステップとを繰り返しコンピュータに実行させることにより達成される。
The camera control information, the procedure view angle θ that determines the candidate position is in which direction the subject, and the subject comprises a framing condition information indicating a ratio should occupy on the screen, to obtain the moving image, the framing A procedure for determining the distance r between the subject and the viewpoint position based on the condition information and obtaining the three-dimensional coordinates of the candidate position from the viewpoint angle θ and the distance r may be included.
The above object is a program for causing a computer to generate a moving image whose viewpoint position is changed based on scene description information. The scene description information includes camera control information corresponding to each of a plurality of candidate positions. And by applying a predetermined rule to the set of the previous viewpoint position and one candidate position, and evaluating how each candidate position corresponds to the current viewpoint position The candidate position with the highest result is selected as the current viewpoint position, and using the camera control information corresponding to the current viewpoint position, the step of obtaining a moving image when the subject is viewed from the current viewpoint position is repeatedly executed on the computer. To achieve this.
上述した構成において所定の基準の1つが、"イマジナリラインと交差するような視点移動を避ける"というような基準、つまり、映画撮影の作法に従った基準である場合、かかる基準を、カレントの視点位置と、1の候補位置との組みに適用させ、この基準に基づく視点位置の選択を繰り返すことにより、映画撮影現場においてプロのカメラマンが実践しているような、視点移動を行うことができる。かかる視点移動により動画像が得られれば、プロの撮影スタッフの力を借りなくても、ユーザにとって違和感がない自由視点映像を得ることができる。 In the above-described configuration, if one of the predetermined criteria is a criterion such as “avoids viewpoint movement that crosses the imaginary line”, that is, a criterion according to the manner of shooting a movie, this criterion is determined as the current viewpoint. By applying the position to a set of one candidate position and repeating the selection of the viewpoint position based on this criterion, it is possible to perform viewpoint movement as practiced by professional photographers at movie shooting sites. If a moving image can be obtained by such viewpoint movement, a free viewpoint video that does not give the user a sense of incongruity can be obtained without the help of professional shooting staff.
様々な撮影手法のノウハウをデータベース化して、所定の基準として適用させれば、映画と比較して遜色がない、自由視点映像を得ることができる。映画のように、ユーザの印象に残る自由視点映像を、小さな投資で作成することができるので、映像ドキュメンタリの制作を身近なものにすることができる。 If know-how of various shooting methods is compiled into a database and applied as a predetermined standard, a free viewpoint video that is inferior to movies can be obtained. Like movies, free viewpoint videos that remain in the impression of the user can be created with a small investment, so that the production of video documentaries can be made familiar.
本発明に係る三次元自由視点映像システムの実施形態について図面を参照しながら説明する。
三次元自由視点映像システムは、スタジオ内に設置された6台の固定カメラで撮影した映像を統合して、固定カメラの被写体となる空間(以下、「撮影空間」という。)を自由な視点から見た映像(以下、「三次元自由視点映像」という。)を生成する。
An embodiment of a 3D free viewpoint video system according to the present invention will be described with reference to the drawings.
The 3D free-viewpoint video system integrates video shot with six fixed cameras installed in the studio, and allows the space (hereinafter referred to as “shooting space”) that is the subject of the fixed camera from a free viewpoint. Generates the viewed video (hereinafter referred to as “three-dimensional free viewpoint video”).
図1は本発明に係る三次元自由視点映像システムの全体構成を示す図である。図1に示すように、三次元自由視点映像システム1は映像生成部2と、アノテーション管理部3と、映像スクリプト変換部4とを含む。
映像生成部2は、固定カメラで撮影した画像から生成した未編集の三次元自由視点映像を、アノテーション管理部3、映像スクリプト変換部4に送出する。また、各時刻における視点位置座標をXML(eXtensible Mark-up Language)にて記述したカメラワーク制御コマンドを映像スクリプト変換部4から受け取り、各時刻における指定された視点位置からの三次元自由視点映像(以下、「レンダリング映像」という。)を生成し、出力する。ここで、未編集の三次元自由視点映像とは、図2のように互いに直交するように設定されたXYZの3軸に対し、それぞれ並行な向きに撮影空間をみた側面映像、正面映像、及びトップ映像の3つの映像からなる映像データである。尚、X軸とY軸とは、撮影空間の水平面をなす座標軸であり、Z軸は撮影空間の水平面に直交する座標軸である。また、本実施形態における時刻とは、カメラ11a乃至11fで撮影された映像内での時刻を意味する。
FIG. 1 is a diagram showing the overall configuration of a 3D free viewpoint video system according to the present invention. As shown in FIG. 1, the 3D free
The
アノテーション管理部3は、未編集の三次元自由視点映像に関するアノテーション情報の作成と管理を行う。また、アノテーション情報を映像スクリプト変換部4に送出する。アノテーション情報とは、撮影空間で生じた出来事(以下、「イベント」という。)と、そのイベントに関連する人物や物体とを識別することで、未編集の三次元自由視点映像の内容を示す注釈である。
The
映像スクリプト変換部4は、レンダリング映像を生成したいシーンの指定をシステム利用者より受け、そのシーンをレンダリングするための視点位置を示すカメラワーク制御コマンドを生成し、映像生成部2へ送出する。ここでシーンとは、所定の連続した時間内に1種類以上のショットで同一の撮影対象を撮影した一連の映像であり、例えば、撮影対象の人物Aが撮影空間に入り撮影空間の中央で立ち止まるまでの一連の動作を撮影した入場シーンや、撮影対象の人物Bが人物Cと会話する会話シーンなどが想定される。また、ショットとは、映画の撮影でカメラが回り始めてから止まるまで連続撮影されるような一連の動画像を意味し、本実施形態では、静止した視点位置や、連続的に移動する視点位置からの三次元自由視点映像として表現される。例えば入場シーンは、撮影空間に入った人物Aの足もとを正面からとらえたショットや、続けて、歩き出した人物Aの全身像を側面から捕らえたショット等で構成できる。
The video
以下、各構成について詳細に説明する。
映像生成部2は、カメラ11a乃至11fと、キャプチャユニット12と、空間モデル構築用サーバ13と、XML解釈部23と、映像出力部2425とを含む。
カメラ11a乃至11fは、スタジオ内に設置された6台の固定カメラであり、それぞれ異なる位置から撮影空間の映像を撮影する。
Hereinafter, each configuration will be described in detail.
The
The
キャプチャユニット12は、カメラの映像をデジタル形式に変換し、画像ファイルとして保存する。
空間モデル構築用サーバ13は、キャプチャされたカメラ11a乃至11fの映像ファイルを蓄積し、映像ファイルを基に任意の時点での三次元自由視点映像を生成する。
XML解釈部23は、カメラワーク制御コマンドを解釈する。
The
The spatial
The XML interpretation unit 23 interprets the camera work control command.
映像出力部24は、カメラワーク制御コマンドに従い、レンダリング映像を生成し出力する。
アノテーション管理部3は、アノテーション情報登録部15と、アノテーションデータベース16とを含む。
アノテーション情報登録部15は、システム利用者からアノテーション情報の入力を受け付け、アノテーションデータベース16に登録する。図3にアノテーション情報の一例を示す。アノテーション情報は、イベント名と、開始時刻と、終了時刻と、オブジェクト名と、アノテーション領域と、注視点とで構成される。
The
The
The annotation
イベント名は、システム利用者により入力される任意の名称である。
開始時刻は、イベントの開始を示す時刻であり、アノテーション領域が変化しない期間の開始の時刻を示す。
終了時刻は、イベントの終了を示す時刻であり、アノテーション領域が変化しない期間の終了の時刻を示す。
The event name is an arbitrary name input by the system user.
The start time is a time indicating the start of the event, and indicates the start time of a period in which the annotation area does not change.
The end time is the time indicating the end of the event, and indicates the end time of the period in which the annotation area does not change.
オブジェクト名は、イベントに関連する人物、物体等のオブジェクトの名称を示す。
アノテーション領域は、オブジェクト名で名称を付されたオブジェクトが存在する領域であり、システム利用者により指定される2点の三次元座標が対角線となる直方体で示される。
注視点は、視点位置から撮影空間をレンダリングする際に、視線が注がれる点の座標である。
The object name indicates the name of an object such as a person or an object related to the event.
The annotation area is an area where an object named by an object name exists, and is indicated by a rectangular parallelepiped in which two-dimensional three-dimensional coordinates designated by the system user are diagonal lines.
The gaze point is a coordinate of a point at which a line of sight is poured when rendering the shooting space from the viewpoint position.
続いて、アノテーション情報の入力インタフェースの一例を図4に示す。これにより、GUI操作によって、時刻単位でのアノテーション領域の指定が可能となる。また、一つのイベントは多数のフレームから構成されており、その一枚一枚にアノテーションを付与していくことは非常に手間のかかる作業となる。そのため、一つのイベント内で連続するフレーム間においては、アノテーション領域と注視点とを自動で補完する。このとき注視点には、アノテーション領域の中心座標が用いられる。このインタフェースで作成されたアノテーションは、アノテーションデータベース16に蓄積される。
Next, an example of an annotation information input interface is shown in FIG. Thereby, it is possible to specify the annotation area in time units by GUI operation. One event is composed of a large number of frames, and adding an annotation to each frame is a very time-consuming work. For this reason, the annotation region and the gazing point are automatically complemented between consecutive frames in one event. At this time, the center coordinate of the annotation area is used as the gaze point. Annotations created with this interface are accumulated in the
入力インタフェースは、トップ表示画面、正面表示画面、側面(右)表示画面、及び入力パネルとで構成される。それぞれの表示画面には、入力パネルの時刻指定バーで指定した時刻のトップ映像、正面映像、及び側面映像が表示され、これらの画像において、システム利用者はマウス等のポインティングデバイスを用い、ボックス型のマーカーで頭部又は全身を指定する。これにより、アノテーション領域を示す2点の座標を決定する。なお、アノテーション領域を示す2点の座標を変更することにより、ボックス型のマーカーを変化させるとしても良い。注視点については、システム利用者はマウス等を用い、任意の点をクリックすることにより決定することができるが、本実施形態では、説明を簡便にするため、注視点としてアノテーション領域の中心座標を用いる。 The input interface includes a top display screen, a front display screen, a side (right) display screen, and an input panel. On each display screen, the top video, front video, and side video at the time specified in the time specification bar on the input panel are displayed. In these images, the system user uses a pointing device such as a mouse to make a box type Specify the head or whole body with the marker. Thereby, the coordinates of two points indicating the annotation area are determined. Note that the box-type marker may be changed by changing the coordinates of two points indicating the annotation area. The gazing point can be determined by the system user by clicking an arbitrary point using a mouse or the like. However, in this embodiment, for ease of explanation, the center coordinates of the annotation area are used as the gazing point. Use.
イベント名及びオブジェクト名については、システム利用者はキーボード等を用い、入力パネルにて入力する。開始時刻及び終了時刻については、システム利用者はそれぞれの時刻を時刻指定バーにより指定し、Addボタンを押すことにより決定する。
ここで時刻指定バーは、時刻を示すスライドバーである。つまり、システム利用者はアノテーション領域を示す2点の座標が変化しない期間を、時刻指定バーを操作することにより確認し、その開始時刻及び終了時刻において、Addボタンを押すことにより開始時刻及び終了時刻を決定する。
The event name and object name are entered on the input panel by the system user using a keyboard or the like. The start time and end time are determined by the system user by designating each time using the time designation bar and pressing the Add button.
Here, the time designation bar is a slide bar indicating the time. That is, the system user confirms the period in which the coordinates of the two points indicating the annotation area do not change by operating the time designation bar, and presses the Add button at the start time and end time to start and end time. To decide.
アノテーションデータベース16は、アノテーション情報登録部15により登録されたアノテーション情報を蓄積する。
映像スクリプト変換部4は、シーンリスト取得部17と、シーン制御部18と、ショット制御部19と、実パラメータ取得部20と、撮影知識データベース21と、カメラワーク制御XML作成部22とを含む。
The
The video
シーンリスト取得部17は、レンダリング映像を生成したいシーンを特定する情報を連ねたシーンリストを、システム利用者から取得する。シーンリストの一例を図5に示す。シーンリストは、シーン名、シーン開始時刻、シーン終了時刻、撮影対象、及び、イマジナリベクトル終点座標で構成される。撮影対象としては、大量の対象が存在する場合や、誰も存在しない場合などに任意で与えられた領域と、注視点とをもって代替することもある。
The scene
シーン名は、シーンを特定する名称である。
シーン開始時刻、及びシーン終了時刻は、カメラ11a乃至11fで撮影された映像のうち、シーンとして切り出す区間を時刻で示す。
撮影対象は、レンダリング映像において注視すべき撮影対象を、アノテーション情報のオブジェクト名で指定する。
The scene name is a name that identifies the scene.
The scene start time and the scene end time indicate the section to be cut out as a scene in the video shot by the
As the shooting target, the shooting target to be watched in the rendered video is designated by the object name of the annotation information.
イマジナリベクトル終点座標は、イマジナリベクトルの終点の三次元座標である。イマジナリベクトルとは、撮影対象である人物Aの中心座標PAを始点とし、会話相手である人物Bの中心座標PBを終点としたベクトルである。また、上方無限遠に位置する視点からXY平面(以下、「地面」という。)を垂直に見下ろした場合に、撮影空間を分割するように引かれる直線をイマジナリラインという。本実施形態では、イマジナリベクトルを含む直線をイマジナリラインとする。 The imaginary vector end point coordinates are the three-dimensional coordinates of the imaginary vector end points. The imaginary vector is a vector whose starting point is the center coordinate P A of the person A who is the subject of photographing and whose end point is the center coordinate P B of the person B who is the conversation partner. A straight line drawn so as to divide the imaging space when the XY plane (hereinafter referred to as “the ground”) is looked down vertically from a viewpoint located at infinity above is called an imaginary line. In this embodiment, a straight line including an imaginary vector is defined as an imaginary line.
シーン制御部18は、シーンリスト取得部17よりシーンリストを受け取ると、シーンリストに含まれるシーン名、シーン開始時刻、シーン終了時刻、撮影対象、及び、イマジナリベクトル終点座標の各情報を、シーン毎にショット制御部19に送出する。また、シーンリストの各情報に応じてショット制御部19において生成されたカメラポジションリストを、シーン毎にカメラワーク制御XML作成部22に送出する。
When the
ショット制御部19は、シーン制御部18から得た情報によりシーンを特定し、そのシーンをレンダリングする視点位置を時刻毎に示すカメラポジションリストを、撮影対象の三次元座標と後述するショット情報とから生成し、シーン制御部18へ送出する。
実パラメータ取得部20は、ショット制御部19から時刻と撮影対象との指定を受けて、アノテーションデータベース16に登録されているアノテーション情報から、指定の時刻に撮影対象が含まれるアノテーション領域、及び注視点の三次元座標を取得し、ショット制御部19へ送出する。
The
The actual
撮影知識データベース21は、シーン記述情報、ショット情報、及び撮影規則を蓄積しているデータベースである。シーン記述情報、ショット情報、及び撮影規則は、ショット制御部19において、カメラポジションリストを生成する場合に用いられる情報である。
図6の(a)はシーン記述情報のデータ構造を示す図である。シーン記述情報は、シーン名で特定されるシーン毎に、使用するショットパターンの候補を示す情報であり、シーン名と、ショット指定1〜nとからなる。ショット指定1〜nは、候補のショットパターンを定義したショット情報を指定する情報であり、ショット名を用いてショット情報を指定する。
The shooting
FIG. 6A shows the data structure of scene description information. The scene description information is information indicating shot pattern candidates to be used for each scene specified by the scene name, and includes a scene name and shot
ここでショットパターンとは、1つのショットの映像において、撮影対象の向きや、大きさ、配置等を、どのような見かけにするかを示す画面レイアウトのイメージであり、その詳細は、ショット情報として記述される。
図6の(b)はショット情報のデータ構造を示す図である。ショット情報は、撮影対象の三次元座標に応じて、所望のショットパターンで映像をクリップする為の視点位置が一意に定まるカメラ制御情報であり、ショット名、水平角度Dh、上下角度Dv、フレーミングバターン、パン角度、及び継続時間からなる。ショット情報に含まれる水平角度Dhとは、図7の(a)に示すように、撮影対象の中心座標PAを含む水平面において、イマジナリベクトルとなす角度であり、上下角度Dvとは、図7の(b)に示すように、中心座標PAを含む水平線となす角度であり、水平角度Dhと上下角度Dvとにより、レンダリングする視点が中心座標PAに対してどの方向にあるかが特定される。フレーミングパターンとは、図8に示すように、レンダリングした映像において撮影対象が画面の縦方向占める割合、及び、中心座標PAの画面上での位置により表現される画像のイメージを、「Long」、「Full」等のパターン名で特定する情報である。以下、撮影対象が画面の縦方向占める割合を「フレーミング条件R1」、中心座標PAの画面上での位置を「フレーミング条件R2」という。パン角度は、ショット中で中心座標PAを中心に視点位置を回転させる角度である。パン角度が正の値であれば、撮影対象の上方からみて、中心座標PAを中心に視点位置を右回りに回転させることを示し、パン角度が負の値であれば、中心座標PAを中心に視点位置を左周りに回転させることを示す。継続時間は、ショット情報により示されるカメラ演出を適用した1つのショットを継続させる時間である。
Here, a shot pattern is an image of a screen layout that shows how the direction, size, arrangement, etc. of an object to be photographed looks in one shot video. Described.
FIG. 6B shows a data structure of shot information. The shot information is camera control information in which a viewpoint position for clipping a video with a desired shot pattern is uniquely determined according to the three-dimensional coordinates of a subject to be shot, and includes shot name, horizontal angle Dh, vertical angle Dv, framing pattern , Pan angle, and duration. As shown in FIG. 7A, the horizontal angle Dh included in the shot information is an angle formed with the imaginary vector on the horizontal plane including the center coordinate PA of the object to be imaged, and the vertical angle Dv is the vertical angle Dv. As shown in (b), it is an angle formed with a horizontal line including the center coordinate PA, and the horizontal angle Dh and the vertical angle Dv specify in which direction the viewpoint to be rendered is with respect to the center coordinate PA. As shown in FIG. 8, the framing pattern is an image of an image represented by the ratio of the shooting target in the vertical direction of the screen in the rendered video and the position on the screen of the center coordinates PA, “Long”, This is information specified by a pattern name such as “Full”. Hereinafter, the ratio of the shooting target in the vertical direction of the screen is referred to as “framing condition R1”, and the position of the center coordinate PA on the screen is referred to as “framing condition R2”. The pan angle is an angle by which the viewpoint position is rotated around the center coordinate PA in the shot. If the pan angle is a positive value, it indicates that the viewpoint position is rotated clockwise around the center coordinate PA as viewed from above the object to be imaged. If the pan angle is a negative value, the center coordinate PA is the center. Indicates that the viewpoint position is rotated counterclockwise. The duration is a time for which one shot to which the camera effect indicated by the shot information is applied is continued.
撮影規則とは、ショット情報に基づいて確定する視点位置の候補(以下、「候補位置」という。)を評価する基準であり、映画の撮影技法として体系化された制約条件が適用される。
例えば、映画の撮影技法として、イマジナリラインを跨いで視点位置が切り替わると、画面上での人物の位置関係が逆になってしまい、視聴者に違和感を与えることが知られている。このような映画撮影技法を適用して、「直前の視点位置と候補位置とを結ぶ線分を地面に垂直に投影した線分が、イマジナリラインを地面に垂直に投影した直線と交差しない場合、候補位置の評価を高くし、直前の視点位置と候補位置とを結ぶ線分を地面に垂直に投影した線分が、イマジナリラインを地面に投影した直線と交差する場合、候補位置の評価を低くする」という撮影規則が、撮影知識データベース21に蓄積されている。また、撮影規則の他の一例として、「候補位置に対応するショット情報が、視点位置のパン制御を意図するものであれば、候補位置の評価を高くし、候補位置に対応するショット情報が、視点位置のパン制御を意図しないものであれば、候補位置の評価を低くする」というものがある。撮影規則のさらに他の一例として、「直前の視点位置と候補位置とが同一の位置であれば、評価を低くする」というものもある。
The shooting rule is a reference for evaluating viewpoint position candidates (hereinafter referred to as “candidate positions”) determined based on shot information, and restrictions systematized as a movie shooting technique are applied.
For example, it is known as a movie shooting technique that if the viewpoint position is switched across the imaginary line, the positional relationship of the person on the screen is reversed, giving the viewer a sense of incongruity. Applying such a movie shooting technique, `` If the line segment that projects the line connecting the previous viewpoint position and the candidate position vertically to the ground does not intersect the straight line that projects the imaginary line vertically to the ground, If the candidate position is highly evaluated and the line segment that projects the line connecting the previous viewpoint position and the candidate position perpendicularly to the ground intersects with the straight line that projects the imaginary line on the ground, the candidate position is evaluated low. The shooting rule “Yes” is stored in the
尚、候補位置は、複数の撮影規則に基づいての評価するとしてもよい。例えば、候補位置に対応するショット情報が、視点位置のパン制御を意図するものである場合の当該候補位置に対する評価は、直前の視点位置と候補位置とを結ぶ線分を地面に垂直に投影した線分が、イマジナリラインを地面に垂直に投影した直線と交差しない場合の当該候補位置に対する評価よりも高く評価する。 The candidate position may be evaluated based on a plurality of shooting rules. For example, when the shot information corresponding to the candidate position is intended for pan control of the viewpoint position, the evaluation of the candidate position is performed by projecting a line segment connecting the immediately preceding viewpoint position and the candidate position vertically onto the ground. The line segment is evaluated to be higher than the evaluation for the candidate position in the case where the line segment does not intersect the straight line obtained by projecting the imaginary line perpendicularly to the ground.
カメラワーク制御XML作成部22は、シーン制御部18からカメラポジションリストを取得し、カメラポジションリストに示される時刻毎の視点位置をXMLにて記述したカメラワーク制御コマンドを作成する。
以上が、三次元自由視点映像システム1の構成である。
続いて、上述の映像スクリプト変換部4において、各時刻毎におけるレンダリング映像の視点位置を決定する動作について、詳細に説明する。図9は、カメラポジションリストを生成する動作の流れを示すフローチャートである。
The camera work control
The above is the configuration of the three-dimensional free
Next, the operation for determining the viewpoint position of the rendered video at each time in the video
シーンリスト取得部17においてシーンリストが取得されると、シーン制御部18は、図10に示すデータ構造のカメラポジションリストと図11に示すデータ構造のショットリストとを、ワークメモリ上に生成する(S11)。ズームなどのカメラパラメータを生成してもよい。次にシーン制御部18は、シーンリストから開始時刻が早いものから順にシーンを選択し、選択したシーンのシーン名、シーン開始時刻、シーン終了時刻、撮影対象、及び、イマジナリベクトル終点座標の各パラメータを、ショット制御部19へ通知する(S12)。
When the scene list is acquired by the scene
ショット制御部19は、ショットリストを初期化した後、シーン制御部18から通知されたシーン名に対応するシーン記述情報を撮影知識データベース21から読み出し、読み出したシーン記述情報のショット指定に含まれるショット名を、シーン記述情報に含まれる順番でショットリストに登録する(S13)。ショットリストの初期化とは、ショットリストに登録されている全てのデータを削除することであり、S13の処理が終了した時点でショットリストには、シーン記述情報において指定されているショット名のみが登録されており、候補座標、及び評価点にはデータが登録されていない。
After initializing the shot list, the
次にショット制御部19は、ショットリストにショット名が登録されている順に1つのショットパターンを選択し、選択したショットパターンを記述したショット情報を、撮影知識データベース21から読み出す(S14)。ショット制御部19は、S14で選択したショットパターンで撮影対象を撮影する為の視点位置の座標を、カメラポジション決定処理により算出し、算出した座標を候補位置としてショットリストに登録する(S15)。ショット制御部19はさらに、S15において決定した候補位置を採点し、点数を評価点としてショットリストに登録する(S16)。
Next, the
候補位置の採点では、カメラポジションリストに最後に登録されたカメラポジションの終了視点を直前の視点位置とし、直前の視点位置と候補位置との関係が、撮影知識データベース21に登録されている撮影規則に照らし合わせて、好ましい位置関係にあれば点数を増加させ、好ましくない位置関係にあれば、点数を減少させることで、候補位置を評価する。ただし、カメラポジションリストにカメラポジションが一つも登録されていない場合には、直前の視点位置として候補位置と同一の座標を用いる。
In scoring the candidate positions, the end viewpoint of the camera position registered last in the camera position list is set as the immediately preceding viewpoint position, and the relationship between the immediately preceding viewpoint position and the candidate position is registered in the
ショット制御部19は、ショットリストにショット名が登録されている全てのショットパターンについて、ショットリストに候補座標、及び評価点を登録するまでS14乃至S16の処理を繰り返す。全てのショットパターンについて処理が終わると(S17:No)、ショット制御部19は、ショットリストに登録された評価点が最も高いショットの候補位置を用いて、図10に示すカメラポジションリストに新たなカメラポジションを追加する(S18)。ただし、複数のショットパターンが同点で最高点となった場合には、評価点が最も高いもののうち、ショットリストにおいて最も上位に登録されているものの候補位置を、カメラポジションの追加に用いる。
The
カメラポジションの追加とは、以下の手順でなされる。先ず、注視点には、シーン制御部18から通知されたイマジナリベクトル終点座標を、開始視点には、評価点が最も高かった候補位置の座標を設定する。次に、評価点が最も高かったショットに対応するショット情報においてパン角度が0度である場合は、開始視点と同じ座標を終了視点に設定し、前記ショット情報のパン角度が0度以外である場合は、評価点が最も高かった候補座標を、指定角度だけパンさせた座標を終了視点に設定する。さらに、開始時刻には、一つ前に登録されているカメラポジションの終了時刻と同じ時刻を設定し、終了時刻には、評価点が最も高かったショットに対応するショット情報の継続時間を開始時刻に加算した時刻を設定する。ただし、カメラポジションリストに最初のカメラポジションを登録する場合には、カメラポジションの開始時刻としてS12で選択したシーンのシーン開始時刻を設定する。
The addition of the camera position is performed according to the following procedure. First, the imaginary vector end point coordinate notified from the
ここで終了時刻に設定された時刻が、S12で選択されたシーンのシーン終了時刻に達していなければ(S19:No)、ショット制御部19は、S13においてショットリストを再度初期化して、S18までの処理を繰り返す。カメラポジションリストの終了時刻に設定された時刻が、S12で選択されたシーンのシーン終了時刻に達した場合には(S19:Yes)、シーン制御部18は、カメラポジションリストを、カメラワーク制御XML作成部22へ出力する。カメラポジションリストを取得したカメラワーク制御XML作成部22では、時刻毎の視点位置座標をXMLにて記述したカメラワーク制御コマンドに変換し、映像生成部2へ出力する(S20)。カメラワーク制御XML作成部22によるカメラワーク制御コマンドへの変換が完了した後、シーン制御部18は、全てのカメラポジションのデータを削除してカメラポジションリストを初期化する。
If the time set here as the end time has not reached the scene end time of the scene selected in S12 (S19: No), the
映像スクリプト変換部4は、シーンリスト取得部17において取得されたシーンリストに登録されている全てのシーンについて、S12乃至S20の処理を繰り返す。
以上の動作により、利用者がシーンリストにおいてレンダリング映像の生成を指示した期間の各時刻毎における視点位置を決定することができる。
次に、図9のS15において実行されるカメラポジション決定処理について、図12乃至図14を用いて説明する。図12は、カメラポジション決定処理の処理の流れを示すフローチャートであり、図13、及び図14は、注視点PAと視点位置Cptの関係を模式的に示す図である。
The video
With the above operation, it is possible to determine the viewpoint position at each time in the period in which the user instructs the generation of the rendered video in the scene list.
Next, the camera position determination process executed in S15 of FIG. 9 will be described with reference to FIGS. Figure 12 is a flowchart showing the flow of processing of the camera position determination process, 13, and 14 are diagrams schematically showing the relationship between the fixation point P A and the viewpoint position Cpt.
S14において選択されたショットパターンで撮影対象を撮影する視点位置を決定するために、先ず、ショット制御部19は、シーン制御部18から通知されている撮影対象と、カメラポジションリストに登録されている最後のカメラポジションの終了時刻とを、実パラメータ取得部20に通知し、これらの情報に基づいてアノテーション領域、及び注視点の座標を実パラメータ取得部20から取得する(S31)。ただし、このときカメラポジションリストにカメラポジションが一つも登録されていない場合には、最後のカメラポジションの終了時刻に代えて、シーン制御部18から通知されているシーン開始時刻を通知する。
In order to determine the viewpoint position at which the shooting target is shot with the shot pattern selected in S14, first, the
アノテーション領域、及び注視点の座標を取得したショット制御部19は、図13に示す仮ポジションCpttmpの座標を算出する(S32)。仮ポジションCpttmpは、注視点PAを中心とし半径がr0である単位球面上において、イマジナリベクトルPAPBに対して、水平角度Dh、及び、上下角度Dvのそれぞれの角度をなす位置である。
ショット制御部19は、仮ポジションCpttmpから注視点PAに向かって所定の視野角でクリップしたが画面において、アノテーション領域が画面の縦方向に占める割合R0を算出する(S33)。R0は、図14に示すようにアノテーション領域の高さhAを、仮ポジションCpttmpから所定の画角でクリップしたが画面の高さh0で除算することで得られる。
The
Shot
ショット制御部19は、さらに、S33において算出したR0と、ショット情報に設定されたフレーミングパターンのフレーミング条件R1との比率kを算出し(S34)、注視点PAからの距離がk・r0の点であり、且つ、注視点PAと仮ポジションCpttmpを結ぶ線分を仮ポジションCpttmp側に延ばした延長線上の点を、S14で選択されたショットで撮影対象を撮影する為の視点位置Cptとして、その座標を算出する(S35)。以上が、カメラポジション決定処理の詳細である。
Shot
以上のように、本実施形態に係る三次元自由視点映像システム1は、
システム利用者から、利用したいシーン記述情報と、レンダリング映像を生成したいシーンの開始時刻、終了時刻、被写体、及び、被写体の行為対象の座標との指定を受けるだけで、映画のような見易いレンダリング映像を生成することができる。
<その他の変形例>
以上、本発明を上記の実施形態に基づいて説明してきたが、本発明は、上記の実施形態に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
As described above, the three-dimensional free
Just by specifying the scene description information you want to use, the start time and end time of the scene you want to generate the rendered video, the subject, and the coordinates of the subject's action target, you can easily view the rendered video like a movie Can be generated.
<Other variations>
As mentioned above, although this invention has been demonstrated based on said embodiment, of course, this invention is not limited to said embodiment. The following cases are also included in the present invention.
(1)本発明は、上記のフローチャートに手順を示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するプログラムであるとしてもよいし、前記プログラムからなるデジタル信号であるとしてもよい。
また、本発明は、前記プログラム又は前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、磁気ディスク、光磁気ディスク、光ディスク、半導体メモリなど、に記録したものとしてもよい。
(1) The present invention may be a method showing a procedure in the above flowchart. Further, the present invention may be a program that realizes these methods by a computer, or may be a digital signal composed of the program.
Further, the present invention may be a program in which the program or the digital signal is recorded on a computer-readable recording medium, such as a magnetic disk, a magneto-optical disk, an optical disk, or a semiconductor memory.
また、本発明は、前記プログラム又は前記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送するものとしてもよい。
また、前記プログラム又は前記デジタル信号を前記記録媒体に記録して移送することにより、又は前記プログラム又は前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
In the present invention, the program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, or the like.
In addition, the program or the digital signal is recorded on the recording medium and transferred, or the program or the digital signal is transferred via the network or the like, and is executed by another independent computer system. It is good.
(2)上記実施の形態では、システム利用者からイマジナリベクトルの指定を受け、イマジナリベクトルを含む直線をイマジナリラインとして用いる構成について説明したが、本発明に係る映像生成装置は、イマジナリベクトルとは別個に外部からイマジナリラインの指定を受ける構成としてもよい。
例えば、システム利用者からシーンリストと共にイマジナリラインの指定を受けるとしてもよい。具体的には、システム利用者が撮影空間中の任意の2点の座標を入力することにより、2点を通過する直線がイマジナリラインとして得られる。
(2) In the above embodiment, a configuration has been described in which a system user receives designation of an imaginary vector and uses a straight line including the imaginary vector as an imaginary line. However, the video generation apparatus according to the present invention is separate from the imaginary vector. It may be configured to receive designation of an imaginary line from the outside.
For example, an imaginary line specification may be received together with a scene list from a system user. Specifically, when the system user inputs the coordinates of two arbitrary points in the imaging space, a straight line passing through the two points is obtained as an imaginary line.
このような変形例では、イマジナリベクトルとは別個に、上方無限遠から見て撮影空間を二分割するように引かれる任意の直線をイマジナリラインとして指定することができる。そのため、撮影対象の人物Aが人物Bと正対していながら人物Cと会話しているような、撮影空間に三人以上の人物が存在するシーンでも、違和感のない三次元自由視点映像を得ることができる。 In such a modification, separately from the imaginary vector, an arbitrary straight line drawn so as to divide the photographing space as viewed from the upper infinity can be designated as the imaginary line. Therefore, even in a scene where there are three or more persons in the shooting space, such as when the person A to be photographed is talking to the person C while facing the person B, a three-dimensional free viewpoint image without a sense of incongruity is obtained. Can do.
(3)上記実施の形態では、撮影知識データベースに蓄積されているシーン記述情報を用いて、視点位置を決定する構成について説明したが、シーン記述情報は必ずしも装置内に予め蓄積されている必要はない。
例えば、システム利用者が、シーンリストと共にシーン記述情報とショット情報とを入力するとしてもよい。
(3) In the above embodiment, the configuration for determining the viewpoint position using the scene description information stored in the shooting knowledge database has been described. However, the scene description information does not necessarily have to be stored in advance in the apparatus. Absent.
For example, the system user may input scene description information and shot information together with the scene list.
(4)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。 (4) The above embodiment and the above modifications may be combined.
本発明は、社内会議における出席者の言動を撮影したり、医療現場における医師や看護婦の医療行為を撮影したり、アミューズメント施設、テーマパーク、老人ホーム及び介護施設などにおける利用者の言動を撮影した映像から、議事録、改善資料、映像サービス提供媒体に用いるドキュメンタリを生成する映像生成装置等の用途に適用できる。 The present invention captures the behavior of attendees at internal meetings, photographs the medical practices of doctors and nurses at medical sites, and photographs the behavior of users at amusement facilities, theme parks, nursing homes and nursing homes, etc. It can be applied to uses such as a video generation device that generates documentary used for minutes, improvement materials, and video service providing media from the recorded video.
1 三次元自由視点映像システム
2 映像生成部
3 アノテーション管理部
4 映像スクリプト変換部
11a〜11f カメラ
12 キャプチャユニット
13 空間モデル構築用サーバ
15 アノテーション情報登録部
16 アノテーションデータベース
17 シーンリスト取得部
18 シーン制御部
19 ショット制御部
20 実パラメータ取得部
21 撮影知識データベース
22 カメラワーク制御XML作成部
23 XML解釈部
24 映像出力部
DESCRIPTION OF
Claims (8)
シーン記述情報は、複数の候補位置のそれぞれに対応したカメラ制御情報を配してなり、
直前の視点位置と、1の候補位置との組みに対して、所定の規則を適用させることにより、各候補位置が、カレントの視点位置にどれだけ相応しいかの評価を行う評価手段と、
評価結果が最も高い候補位置を、カレント視点位置に選んで、当該カレント視点位置に対応したカメラ制御情報を用いて、カレント視点位置から被写体を見た場合の動画像を生成する生成手段と、
評価手段、及び生成手段に処理を繰り返し実行させる制御手段と
を備えることを特徴とする映像生成装置。 A video generation device that obtains a moving image by changing a viewpoint position based on scene description information,
The scene description information consists of camera control information corresponding to each of a plurality of candidate positions.
An evaluation unit that evaluates how much each candidate position corresponds to the current viewpoint position by applying a predetermined rule to the set of the immediately preceding viewpoint position and one candidate position;
A generation unit that selects a candidate position with the highest evaluation result as a current viewpoint position and generates a moving image when the subject is viewed from the current viewpoint position using camera control information corresponding to the current viewpoint position;
An image generation apparatus comprising: an evaluation unit; and a control unit that causes the generation unit to repeatedly execute a process.
当該制約に基づいて、
直前の視点位置と、候補位置とを結ぶ直線が、前記境界に交差する場合、当該候補位置に対する評価を低くし、
直前の視点位置と、候補位置とを結ぶ直線が、前記境界に交差しない場合、当該候補位置に対する評価を高くする、請求項1記載の映像生成装置。 The predetermined rule includes a restriction regarding a boundary that divides the subject space,
Based on these constraints,
When a straight line connecting the previous viewpoint position and the candidate position intersects the boundary, the evaluation for the candidate position is lowered,
The video generation device according to claim 1, wherein when a straight line connecting the immediately preceding viewpoint position and the candidate position does not intersect the boundary, the evaluation for the candidate position is increased.
前記境界は、被写体空間に含まれる二人の人物間を結ぶ直線、又は任意の直線を含み前記被写体空間を二分割する、請求項2記載の映像生成装置。 The subject space includes two or more persons,
The video generation apparatus according to claim 2, wherein the boundary includes a straight line connecting two persons included in the subject space or an arbitrary straight line, and divides the subject space into two.
前記所定の規則には、
何れかの候補位置に対応付けられたカメラ制御情報が、直前の視点位置から当該候補位置までのパン制御を示している場合、当該候補位置の評価値を高くし、
何れかの候補位置に対応付けられたカメラ制御情報が、直前の視点位置から当該候補位置までのパン制御を示していない場合、当該候補位置の評価値を低くするというものがある、請求項1記載の映像生成装置 Some camera control information is intended for camera pan control,
The predetermined rule includes:
When the camera control information associated with any candidate position indicates pan control from the previous viewpoint position to the candidate position, the evaluation value of the candidate position is increased,
The camera control information associated with any candidate position does not indicate pan control from the previous viewpoint position to the candidate position, and the evaluation value of the candidate position is lowered. The video generation device described
当該制約に基づいて、
直前の視点位置と、候補位置とを結ぶ直線が、前記境界に交差する場合、当該候補位置に対する評価を低くし、
直前の視点位置と、候補位置とを結ぶ直線が、前記境界に交差しない場合、当該候補位置に対する評価を高くする、請求項4記載の映像生成装置。 The predetermined rule includes a restriction regarding a boundary that divides the subject space,
Based on these constraints,
When a straight line connecting the previous viewpoint position and the candidate position intersects the boundary, the evaluation for the candidate position is lowered,
The video generation device according to claim 4, wherein when a straight line connecting a previous viewpoint position and a candidate position does not intersect the boundary, the evaluation for the candidate position is increased.
直前の視点位置と、候補位置とを結ぶ直線が、前記境界に交差しない場合の当該候補位置に対する評価よりも高い
ことを特徴とする請求項5記載の映像生成装置。 When the camera control information associated with any candidate position indicates pan control from the previous viewpoint position to the candidate position, the evaluation value for the candidate position is:
The video generation device according to claim 5, wherein a straight line connecting the immediately preceding viewpoint position and the candidate position is higher than an evaluation for the candidate position when the boundary does not intersect the boundary.
前記動画像を得る手順は、
フレーミング条件情報に基づき、被写体と、視点位置との距離rを決定して、視点角度θ及び距離rから、候補位置の三次元座標を得る手順を含む、請求項1〜6の何れかに記載の映像生成装置。 The camera control information includes a viewing angle θ indicating in which direction the candidate position is with respect to the subject, and framing condition information indicating a ratio that the subject should occupy on the screen ,
The procedure for obtaining the moving image is as follows:
The method according to claim 1, further comprising: determining a distance r between the subject and the viewpoint position based on the framing condition information , and obtaining a three-dimensional coordinate of the candidate position from the viewpoint angle θ and the distance r. Video generation device.
シーン記述情報は、複数の候補位置のそれぞれに対応したカメラ制御情報を配してなり、
直前の視点位置と、1の候補位置との組みに対して、所定の規則を適用させることにより、各候補位置が、カレントの視点位置にどれだけ相応しいかの評価を行うステップと、
評価結果が最も高い候補位置を、カレント視点位置に選んで、当該カレント視点位置に対応したカメラ制御情報を用いて、カレント視点位置から被写体を見た場合の動画像を得るステップと
を繰り返しコンピュータに実行させることを特徴とするプログラム。 A program for causing a computer to generate a moving image whose viewpoint position is changed based on scene description information,
The scene description information consists of camera control information corresponding to each of a plurality of candidate positions.
Evaluating how each candidate position corresponds to the current viewpoint position by applying a predetermined rule to the set of the previous viewpoint position and one candidate position;
Selecting the candidate position with the highest evaluation result as the current viewpoint position and using the camera control information corresponding to the current viewpoint position to obtain a moving image when the subject is viewed from the current viewpoint position. A program characterized by being executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005023646A JP4395082B2 (en) | 2005-01-31 | 2005-01-31 | Video generation apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005023646A JP4395082B2 (en) | 2005-01-31 | 2005-01-31 | Video generation apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006211531A JP2006211531A (en) | 2006-08-10 |
JP4395082B2 true JP4395082B2 (en) | 2010-01-06 |
Family
ID=36967852
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005023646A Expired - Fee Related JP4395082B2 (en) | 2005-01-31 | 2005-01-31 | Video generation apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4395082B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5517596B2 (en) * | 2009-12-17 | 2014-06-11 | キヤノン株式会社 | Imaging apparatus, imaging control method, and computer program |
JP5562103B2 (en) * | 2010-04-16 | 2014-07-30 | キヤノン株式会社 | Image processing apparatus and method |
JP5295416B1 (en) * | 2012-08-01 | 2013-09-18 | ヤフー株式会社 | Image processing apparatus, image processing method, and image processing program |
JP7467074B2 (en) | 2019-11-05 | 2024-04-15 | キヤノン株式会社 | Image processing device, image processing method, and program |
-
2005
- 2005-01-31 JP JP2005023646A patent/JP4395082B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006211531A (en) | 2006-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Matsuyama et al. | 3D video and its applications | |
US9041899B2 (en) | Digital, virtual director apparatus and method | |
US9367942B2 (en) | Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation | |
JP2018107793A (en) | Generation device, generation method and program of virtual view point image | |
KR20130090621A (en) | Apparatus and method for pre-visualization image | |
CA2866672A1 (en) | Motion picture project management system | |
KR20160098949A (en) | Apparatus and method for generating a video, and computer program for executing the method | |
KR20160021706A (en) | Playing method and the system of 360 degree spacial video | |
JP4395082B2 (en) | Video generation apparatus and program | |
US11200919B2 (en) | Providing a user interface for video annotation tools | |
CN111064946A (en) | Video fusion method, system, device and storage medium based on indoor scene | |
JP6494455B2 (en) | Video processing apparatus, video processing method, and program | |
CN111064947A (en) | Panoramic-based video fusion method, system, device and storage medium | |
Duan et al. | Flad: a human-centered video content flaw detection system for meeting recordings | |
JP2023057124A (en) | Image processing apparatus, method, and program | |
CN114401368A (en) | Method and device for processing co-shooting video | |
WO2022230718A1 (en) | Information processing device, information processing method, and program | |
Vanherle et al. | Automatic Camera Control and Directing with an Ultra-High-Definition Collaborative Recording System | |
Albuquerque et al. | An overview on virtual sets | |
DeHart | Directing audience attention: cinematic composition in 360 natural history films | |
JP2023121531A (en) | Information processing device and method for creating movement path, and program | |
KR101966112B1 (en) | Method and apparatus of monitoring immersive contents | |
JP2024056581A (en) | Image generating device and control method thereof | |
CN115967779A (en) | Method and device for displaying bitmap of virtual camera machine, electronic equipment and medium | |
KR20220155933A (en) | User upload VR system that exchanges data with multiple user accounts |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090611 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090623 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090821 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091013 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091016 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121023 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |