JP2006172037A - Virtual reality system, method, software, and recording medium with the software recorded thereon - Google Patents

Virtual reality system, method, software, and recording medium with the software recorded thereon Download PDF

Info

Publication number
JP2006172037A
JP2006172037A JP2004362333A JP2004362333A JP2006172037A JP 2006172037 A JP2006172037 A JP 2006172037A JP 2004362333 A JP2004362333 A JP 2004362333A JP 2004362333 A JP2004362333 A JP 2004362333A JP 2006172037 A JP2006172037 A JP 2006172037A
Authority
JP
Japan
Prior art keywords
camera
camera work
virtual
target object
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004362333A
Other languages
Japanese (ja)
Inventor
Koichi Yoshino
弘一 吉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Printing Co Ltd filed Critical Toppan Printing Co Ltd
Priority to JP2004362333A priority Critical patent/JP2006172037A/en
Publication of JP2006172037A publication Critical patent/JP2006172037A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To enable both a user and a producer to easily make the user perform camera work according to the intention of the producer. <P>SOLUTION: This virtual reality system is provided with a means for storing photographic priorities and camera work information of each object as subject information of each object that can be a virtual camera subject within a virtual space, a means for making the object having the highest photographic priority among objects coming into the field of view of the camera a target object, and a means for providing the user with camera work specified in the camera work information of the target object. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、仮想現実(Virtual Reality)の技術に関する。   The present invention relates to a technology of virtual reality.

一般に、VR(Virtual Reality)ソフトウェアとは、3DCG(3 Dimension Computer Graphics)で構築された仮想空間内を、ユーザが見ることのできるコンピュータプログラムである。この仮想空間では、仮想的なカメラを想定し、そこから覗く視野がユーザの見るカメラの画面となる。   In general, VR (Virtual Reality) software is a computer program that allows a user to view a virtual space constructed with 3DCG (3 Dimension Computer Graphics). In this virtual space, a virtual camera is assumed, and the field of view seen from there is the camera screen viewed by the user.

従来、VRソフトウェアにおける視点移動や注視点移動などのカメラワークは、ユーザの操作に依存する自由なものと、制作者側が事前にその動きを付けておく自動的なものとの二種類がある。しかし、前者は、一般には操作が複雑であるという問題と、また自由度が高いことがかえって制作者側からの意図を伝え難いという問題とがある。後者は、制作者の意図が伝わる反面、ユーザにとって興味深い被写体について多角的な視点から見ることができないという問題がある。また後者では、カメラの動作条件を制作者が事前に固定イベントとして定義するために、仮想空間内で仮想的なカメラの被写体になりうるオブジェクトの変更や追加によって、イベントプログラムの修正が必要となるという問題もある。   Conventionally, there are two types of camera work such as viewpoint movement and gazing point movement in VR software, which are free depending on the user's operation, and automatic which the creator side attaches its movement in advance. However, the former has a problem that the operation is generally complicated and a problem that it is difficult to convey the intention from the producer because the degree of freedom is high. In the latter case, the intention of the creator is transmitted, but there is a problem that the subject interesting to the user cannot be seen from various viewpoints. In the latter case, since the creator defines the camera operating conditions as fixed events in advance, it is necessary to modify the event program by changing or adding objects that can be virtual camera subjects in the virtual space. There is also a problem.

本発明は斯かる背景技術に鑑みてなされたもので、制作者の意図に従ったカメラワークを、ユーザに行ってもらうことが、ユーザと制作者の双方にとって、容易にできるようにすることを課題とする。   The present invention has been made in view of such background art, and is intended to enable both users and producers to easily perform camera work according to the creator's intention. Let it be an issue.

本発明において上記課題を達成するために、まず請求項1の発明では、仮想空間内で仮想的なカメラの被写体になりうる各オブジェクトの被写体情報として、各オブジェクトの撮影優先順位とカメラワーク情報とを保持する手段と、
前記カメラの視野に入ったオブジェクトの中で、最高の撮影優先順位を持つものを、対象オブジェクトにする手段と、
対象オブジェクトのカメラワーク情報に規定されているカメラワークをユーザに提供する手段とを備えることを特徴とする仮想現実システムとしたものである。
In order to achieve the above object in the present invention, first, in the invention of claim 1, as subject information of each object that can be a subject of a virtual camera in a virtual space, shooting priority of each object, camera work information, Means for holding
Among the objects entering the field of view of the camera, a unit having the highest photographing priority as a target object;
A virtual reality system comprising: means for providing a user with camera work defined in camera work information of a target object.

また請求項2の発明では、仮想空間内で仮想的なカメラの被写体になりうる各オブジェクトの被写体情報として、各オブジェクトの関連オブジェクトも保持する手段と、
前記カメラワークのユーザへの提供が終了したとき、対象オブジェクトの関連オブジェクトを、新たに、対象オブジェクトにする手段とを備える請求項1記載の仮想現実システムとしたものである。
In the invention of claim 2, means for holding a related object of each object as subject information of each object that can be a subject of a virtual camera in the virtual space;
The virtual reality system according to claim 1, further comprising: a unit that newly sets a related object of a target object as a target object when provision of the camera work to a user is completed.

また請求項3の発明では、コンピュータが実行する方法であって、
仮想空間内で仮想的なカメラの被写体になりうる各オブジェクトの被写体情報として、各オブジェクトの撮影優先順位とカメラワーク情報とを保持する工程と、
前記カメラの視野に入ったオブジェクトの中で、最高の撮影優先順位を持つものを、対象オブジェクトにする工程と、
対象オブジェクトのカメラワーク情報に規定されているカメラワークをユーザに提供す
る工程とを含むことを特徴とする仮想現実方法としたものである。
The invention of claim 3 is a method executed by a computer,
Holding the shooting priority of each object and camera work information as subject information of each object that can be a subject of a virtual camera in a virtual space;
Of the objects entering the field of view of the camera, the one having the highest shooting priority is set as a target object;
And providing a user with camera work defined in the camera work information of the target object.

また請求項4の発明では、仮想空間内で仮想的なカメラの被写体になりうる各オブジェクトの被写体情報として、各オブジェクトの関連オブジェクトも保持する工程と、
前記カメラワークのユーザへの提供が終了したとき、対象オブジェクトの関連オブジェクトを、新たに、対象オブジェクトにする工程とを含む請求項3記載の仮想現実方法としたものである。
According to a fourth aspect of the present invention, a process of holding a related object of each object as subject information of each object that can be a subject of a virtual camera in the virtual space;
The virtual reality method according to claim 3, further comprising a step of making a related object of the target object a new target object when provision of the camera work to the user is completed.

また請求項5の発明では、コンピュータに、
仮想空間内で仮想的なカメラの被写体になりうる各オブジェクトの被写体情報として、各オブジェクトの撮影優先順位とカメラワーク情報とを保持する工程と、
前記カメラの視野に入ったオブジェクトの中で、最高の撮影優先順位を持つものを、対象オブジェクトにする工程と、
対象オブジェクトのカメラワーク情報に規定されているカメラワークをユーザに提供する工程とを実行させるプログラムであることを特徴とする仮想現実ソフトウェアとしたものである。
In the invention of claim 5, the computer
Holding the shooting priority of each object and camera work information as subject information of each object that can be a subject of a virtual camera in a virtual space;
Of the objects entering the field of view of the camera, the one having the highest shooting priority is set as a target object;
The virtual reality software is a program that executes a process of providing a user with camera work defined in camera work information of a target object.

また請求項6の発明では、仮想空間内で仮想的なカメラの被写体になりうる各オブジェクトの被写体情報として、各オブジェクトの関連オブジェクトも保持する工程と、
前記カメラワークのユーザへの提供が終了したとき、対象オブジェクトの関連オブジェクトを、新たに、対象オブジェクトにする工程とを含む請求項5記載の仮想現実ソフトウェアとしたものである。
Further, in the invention of claim 6, a process of holding a related object of each object as subject information of each object that can be a subject of a virtual camera in the virtual space;
6. The virtual reality software according to claim 5, further comprising a step of making a related object of a target object a new target object when provision of the camera work to a user is completed.

また請求項7の発明では、請求項5又は請求項6に記載の仮想現実ソフトウェアを記録した記録媒体としたものである。   According to a seventh aspect of the present invention, there is provided a recording medium on which the virtual reality software according to the fifth or sixth aspect is recorded.

請求項1、請求項3、請求項5、及び請求項5を引用する請求項7の発明は、各オブジェクトを、撮影優先順に、カメラワーク情報に規定されたカメラワークで、ユーザに見てもらうことが可能になるという効果がある。   In the invention of claim 7, which cites claim 1, claim 3, claim 5, and claim 5, the user is allowed to see each object with the camera work specified in the camera work information in the order of photographing priority. There is an effect that it becomes possible.

請求項2、請求項4、請求項6、及び請求項6を引用する請求項7の発明は、ユーザに、あるオブジェクトを、このオブジェクトのカメラワーク情報に規定されたカメラワークで、見て貰った直後に、このオブジェクトの関連オブジェクトを、この関連オブジェクトのカメラワーク情報に規定されたカメラワークで、見て貰えるという効果がある。   The invention according to claim 2, claim 4, claim 6, and claim 6 allows the user to see an object with the camera work defined in the camera work information of the object. Immediately after that, there is an effect that the related object of this object can be seen with the camera work defined in the camera work information of the related object.

従って、制作者が、各オブジェクトの見せ方を考慮して、各オブジェクト対して、撮影優先順、カメラワーク情報、関連オブジェクトを与えれば、制作者の意図に従ったカメラワークに、ユーザに負担を掛けることなく、ユーザを導くことができる。また、オブジェクトの追加や変更があっても、撮影優先順、カメラワーク情報、関連オブジェクトの追加や変更で済み、イベントプログラムを修正する必要が無い。   Therefore, if the producer gives the shooting priority order, camerawork information, and related objects to each object in consideration of how to show each object, the burden is placed on the user according to the intention of the producer. The user can be guided without hanging. Further, even if an object is added or changed, the shooting priority order, camera work information, and related objects need only be added or changed, and there is no need to modify the event program.

以上、制作者の意図に従ったカメラワークを、ユーザに行ってもらうことが、ユーザと制作者の双方にとって、容易にできるという効果がある。   As described above, there is an effect that it is easy for both the user and the creator to have the user perform camera work according to the intention of the producer.

以下に、本発明の最良の一実施形態を説明する。   The best embodiment of the present invention will be described below.

ここで、単にオブジェクトと云えば、3DCGで構築された仮想空間内に存在し、仮想的なカメラの被写体になりうる、3DCGモデルの物体を意味するものとする。また、一
つの仮想空間を、一つのシーンとも云う。また、単にカメラと云えば、仮想空間内に想定された仮想的なカメラのことを意味するものとする。また、視点とは、カメラのある位置のことを意味するものとする。また、注視点とは、カメラが注視している点のことを意味するものとする。
Here, an object simply means an object of a 3DCG model that exists in a virtual space constructed with 3DCG and can be a subject of a virtual camera. One virtual space is also called one scene. Further, simply referring to a camera means a virtual camera assumed in a virtual space. The viewpoint means a certain position of the camera. Further, the gazing point means a point where the camera is gazing.

また、制作者は、コンピュータで、3DCG作成ソフトウェアを利用して、各オブジェクトに被写体情報を持たせる。オブジェクトが持つ被写体情報は、実装レベルでは、図1に示すように、このオブジェクトのクラス内のデータファイルに保持される。   Further, the creator uses the 3DCG creation software on a computer to give subject information to each object. Subject information held by an object is held in a data file in the class of the object at the implementation level, as shown in FIG.

データファイルに記述される被写体情報の項目には、図1に示すように、位置、サイズ、撮影優先順位、関連オブジェクト、カメラワーク情報がある。   As shown in FIG. 1, the subject information items described in the data file include position, size, shooting priority, related objects, and camera work information.

カメラワーク情報は、オブジェクトに対する視点移動や注視点移動などのカメラワークを規定する情報である。この規定は、オブジェクトに対するカメラワークを、制作者の意図に適うように、制作者が決める。このカメラワークには、定形的なカメラワークである、パン(左右首振り)、ドリー(前後)、ティルト(上下首振り)、トラック(平行移動)が含まれていても良い。カメラワーク情報の詳細については、後述する。   The camera work information is information that defines camera work such as viewpoint movement or gazing point movement with respect to an object. This rule is determined by the producer so that the camera work for the object fits the intention of the producer. This camera work may include standard camera work such as pan (left and right swing), dolly (front and back), tilt (up and down swing), and track (parallel movement). Details of the camera work information will be described later.

被写体情報の項目の内、位置と、サイズと、撮影優先順位と、関連オブジェクトとは、対象オブジェクトを1つ決めるためのものである。対象オブジェクトとは、このオブジェクトのカメラワーク情報に規定されたカメラワークを、ユーザに提供することになるオブジェクトのことである。   Among the items of the subject information, the position, size, shooting priority, and related object are for determining one target object. The target object is an object that provides the user with the camera work specified in the camera work information of the object.

位置は、オブジェクト内でユーザが注視点として期待する点と定義された点である。この位置は、制作者がオブジェクト作成時に任意の点に定義しておくもので、このオブジェクトの位置を把握する際に使われる。   The position is a point defined as a point that the user expects as a gaze point in the object. This position is defined by the creator at an arbitrary point when creating the object, and is used when grasping the position of the object.

サイズは、オブジェクトの幅、高さ、奥行きである。このサイズは、上記の位置とともに、このオブジェクトが、カメラの視野に入るか否かの判定を行うための仮想モデル(例えば、バウンティングボックス、バウンティングスフィアなど)の形成に使われる。   The size is the width, height, and depth of the object. This size is used in conjunction with the above position to form a virtual model (eg, a bouncing box, a bouncing sphere, etc.) for determining whether this object enters the camera's field of view.

撮影優先順位は、オブジェクトがカメラの視野に入った場合に、このオブジェクトが、この視野に入っている他のオブジェクトに優先して、対象オブジェクトに選ばれる度合いを、数値で表したものである。この撮影優先順位は、各シーン内でユーザに見せるオブジェクトの順序に応じて制作者が事前に決めておくもので、ひとつのシーンでは、同じ撮影優先順位のオブジェクトが無いように設定する。   The shooting priority is a numerical value indicating the degree to which an object is selected as a target object in preference to other objects in the field of view when the object enters the field of view of the camera. The shooting priority is determined in advance by the producer in accordance with the order of objects to be shown to the user in each scene, and is set so that there is no object having the same shooting priority in one scene.

関連オブジェクトは、オブジェクトに意味的な結び付きが強いオブジェクトとして、制作者が一つ指定したものである。対象オブジェクトのカメラワーク情報に規定されたカメラワークのユーザへの提供が終了すると、対象オブジェクトの関連オブジェクトが、強制的に次の対象オブジェクトとなる。   The related object is specified by the creator as an object having a strong semantic connection to the object. When the provision of the camera work specified in the camera work information of the target object to the user is completed, the related object of the target object is forcibly set as the next target object.

VRソフトウェアでは、カメラの視野は、四角錐型の範囲で表現される。この範囲に、オブジェクトが入ると、コンピュータは、このオブジェクトが視野に入っていると見なし、このオブジェクトの視野に入っている部分をカメラの画面に表示する。具体的に述べると、範囲を表現する四角錐型の図形と、オブジェクトのサイズと位置とから算出される仮想モデルとが交わると、視野に入ったと見なし、交わったところのオブジェクトの部分を、カメラの画面に表示する。図3に示すような、四角錐型の視野と、バウンディングボックスの仮想モデルとが交わった結果として、カメラの画面に表示されたオブジェクトの部分の例を、図4に示す。   In the VR software, the field of view of the camera is expressed in a quadrangular pyramid range. When an object enters this range, the computer considers that the object is in the field of view and displays the portion of the object in the field of view on the camera screen. Specifically, when a quadrangular pyramid shape representing the range and a virtual model calculated from the size and position of the object intersect, it is considered that the object has entered the field of view, and the part of the object at the intersection is the camera. On the screen. FIG. 4 shows an example of the object portion displayed on the camera screen as a result of the intersection of the quadrangular pyramid field of view and the virtual model of the bounding box as shown in FIG.

以下に、VRソフトウェアによって、コンピュータが実行する処理の流れの例を、図2のフローチャートに従って、説明する。   Hereinafter, an example of the flow of processing executed by the computer by the VR software will be described with reference to the flowchart of FIG.

S(STEP)1;
VRソフトウェアの起動時に、シーン内に存在する各オブジェクトの被写体情報を、各オブジェクトのクラスのデータファイルから読み出して、メモリに保持する。
S (STEP) 1;
When the VR software is activated, the subject information of each object existing in the scene is read from the data file of each object class and stored in the memory.

S(STEP)2;
各オブジェクトの被写体情報の中から位置とサイズとをメモリに参照し、これら位置とサイズとから、各オブジェクトの仮想モデル(例えば、バウンティングボックス、バンティングスフィアなど)を算出してメモリに保持する。
S (STEP) 2;
The position and size of the object information of each object is referred to the memory, and a virtual model (for example, a bouncing box, a banting sphere, etc.) of each object is calculated and stored in the memory from the position and size. .

S(STEP)3;
視点移動や注視点移動などのカメラワークを自由にユーザに行わせる。
S (STEP) 3;
Lets the user freely perform camera work such as viewpoint movement and gazing point movement.

S(STEP)4;
常時、ユーザからVRソフトウェアの終了要求が入力されたか否かを監視し、
ユーザからVRソフトウェアの終了要求が入力されたならば、VRソフトウェアを終了して、ENDに進み、
ユーザからVRソフトウェアの終了要求が入力されてないならば、STEP5に進む。
S (STEP) 4;
Always monitor whether a VR software termination request is input from the user,
If a VR software termination request is input from the user, terminate the VR software and proceed to END.
If the VR software termination request is not input from the user, the process proceeds to STEP5.

S(STEP)5;
常時、各オブジェクトの仮想モデルをメモリに参照して、各オブジェクトがカメラの視野に入ったか否かを監視し、
カメラの視野にオブジェクトが入ったならば、STEP6に進み、
他方、カメラの視野にオブジェクトが入らないならば、STEP3に戻る。
S (STEP) 5;
Always refer to the virtual model of each object in memory and monitor whether each object is in the camera's field of view,
If an object enters the camera's field of view, go to STEP 6,
On the other hand, if the object does not enter the field of view of the camera, the process returns to STEP3.

S(STEP)6;
カメラの視野に入った各オブジェクトの被写体情報の中から撮影優先順位をメモリに参照し、
何れかのオブジェクトの撮影優先順位を読み出せたならば、何れかのオブジェクトが撮影優先順位を持っているとして、STEP7に進み、
他方、何れのオブジェクトの撮影優先順位も読み出せないならば、何れのオブジェクトも撮影優先順位を持ってないとして、STEP3に戻る。
S (STEP) 6;
Refer to the shooting priority from the subject information of each object in the camera's field of view,
If the shooting priority of any object can be read, it is determined that any object has the shooting priority, and the process proceeds to STEP7.
On the other hand, if the photographing priority order of any object cannot be read, it is determined that no object has the photographing priority order, and the process returns to STEP 3.

S(STEP)7;
カメラの視野に入りかつ撮影優先順位を持つオブジェクトの中で、最高の撮影順位にあるものを、対象オブジェクトとする。
S (STEP) 7;
Among the objects that are in the camera's field of view and have the photographing priority, the object having the highest photographing priority is set as the target object.

S(STEP)8;
対象オブジェクトの被写体情報の中からカメラワーク情報をメモリに参照し、
対象オブジェクトのカメラワーク情報が読み出せたならば、対象オブジェクトがカメラワーク情報を持っているとして、STEP9に進み、
他方、対象オブジェクトのカメラワーク情報が読み出せないならば、対象オブジェクトがカメラワーク情報を持ってないとして、STEP3に戻る。
S (STEP) 8;
Refer to the camera work information from the subject information of the target object in the memory,
If the camera work information of the target object can be read, it is determined that the target object has the camera work information, and the process proceeds to STEP 9.
On the other hand, if the camera work information of the target object cannot be read, the process returns to STEP 3 assuming that the target object does not have camera work information.

S(STEP)9;
対象オブジェクトのカメラワーク情報に規定されているカメラワークを、ユーザに提供する。
S (STEP) 9;
The camera work specified in the camera work information of the target object is provided to the user.

S(STEP)10;
上記カメラワークのユーザへの提供が終了すると、対象オブジェクトの被写体情報の中から関連オブジェクトをメモリに参照し、
対象オブジェクトの関連オブジェクトが読み出せたならば、対象オブジェクトの関連オブジェクトがあるとして、STEP11に進み、
対象オブジェクトの関連オブジェクトが読み出せないならば、対象オブジェクトの関連オブジェクトがないとして、STEP3に戻る。
S (STEP) 10;
When the provision of the camera work to the user ends, the related object is referred to the memory from the subject information of the target object,
If the related object of the target object can be read out, it is determined that there is a related object of the target object, and the process proceeds to STEP11.
If the related object of the target object cannot be read, the process returns to STEP 3 because there is no related object of the target object.

S(STEP)11;
対象オブジェクトの関連オブジェクトを、新たに、対象オブジェクトとし、その後、STEP8に戻る。
S (STEP) 11;
The related object of the target object is newly set as the target object, and then the process returns to STEP8.

最後に、カメラワーク情報の詳細を説明する。カメラワーク情報には、少なくとも、2つの種類がある。   Finally, details of the camera work information will be described. There are at least two types of camera work information.

第1種のカメラワーク情報は、所定の軌道に沿って、カメラを移動させると同時に、この軌道の各点で、所定の注視点をカメラに注視させることを、自動的に、或は、手動で行うカメラワークを規定するものである。例えば、図5に示すように、対象オブジェクトを注視しながら、所定の軌道上を、所定の方向に、カメラを移動させるカメラワークでも良い。   The first type of camera work information is to automatically or manually move the camera along a predetermined trajectory and simultaneously cause the camera to gaze at a predetermined point of interest at each point of the trajectory. This defines the camera work performed in For example, as shown in FIG. 5, camera work may be used in which a camera is moved in a predetermined direction on a predetermined trajectory while gazing at a target object.

軌道と軌道上の各点での注視点とは、制作者が明示的に指定しても良いし、或は、制作者が指定した情報に基づいて、コンピュータが算出しても良い。例えば、対象オブジェクトを、カメラの画面の中心に捉えるとの制作者の指定に基づいて、コンピュータが、視野に入り始めたオブジェクトを、カメラの画面の中心に捉えるための軌道と軌道上の各点での注視点とを算出し、この軌道の各点で、算出された注視点にカメラを注視させながら、この軌道に沿ってカメラを移動させることで、図6に示すように、視野に入り始めたオブジェクトに、カメラの注視点を合せるカメラワークであっても良い。また例えば、対象オブジェクトから、このオブジェクトの関連オブジェクトへトラック(平行移動)させるとの制作者の指定に基づいて、コンピュータは、このトラックのための軌道と軌道上の各点での注視点とを算出し、この軌道の各点で、算出された注視点にカメラを注視させながら、この軌道に沿ってカメラを移動させることで、図7に示すように、対象オブジェクトに、カメラの注視点を合せた後に、関連オブジェクトに、カメラの注視点を合せるカメラワークであっても良い。   The trajectory and the gazing point at each point on the trajectory may be explicitly specified by the producer, or may be calculated by the computer based on information designated by the producer. For example, based on the author's specification that the target object is captured at the center of the camera screen, the computer uses the trajectory to capture the object that has entered the field of view at the center of the camera screen and each point on the trajectory. By moving the camera along this trajectory while gazing at the calculated gazing point at each point in the trajectory, as shown in FIG. It may be camera work in which the camera's gazing point is aligned with the started object. Also, for example, based on the author's designation to track (translate) from the target object to the related object of this object, the computer will determine the trajectory for this track and the point of interest at each point on the trajectory. By calculating and moving the camera along this trajectory while gazing at the calculated gaze point at each point of the trajectory, as shown in FIG. After matching, the camera work may be such that the camera is focused on the related object.

第2種のカメラワーク情報は、ユーザの行うカメラワークについて、制限を規定するものである。例えば、カメラの立ち入れない領域を規定するものであっても良い。また例えば、カメラが注視する注視点の位置を規定するものであっても良い。   The second type of camera work information defines restrictions on camera work performed by the user. For example, an area where the camera cannot enter may be defined. Further, for example, the position of the gazing point that the camera gazes at may be specified.

ユーザの行うカメラワークに制限を加えることで、ユーザの行うカメラワークに、ある程度の自由度を残しつつ、制作者が意図するシーン内の見せ方に、ユーザを誘導することが可能になる。また、シーン内の見せる部分と見せない部分とを事前に定めることができるので、見せない部分にあるデータ量の多いモデルを省略することができ、データ処理コストの軽減につながる。   By limiting the camera work performed by the user, it is possible to guide the user in the way the creator intends to show the scene while leaving a certain degree of freedom in the camera work performed by the user. In addition, since a portion to be shown and a portion not to be shown in the scene can be determined in advance, a model having a large amount of data in the portion not to be shown can be omitted, leading to reduction in data processing cost.

オブジェクトに持たせる被写体情報を説明する図。The figure explaining the subject information given to an object. VRソフトウェアによって、コンピュータが実行する処理の流れの例を示すフローチャート。The flowchart which shows the example of the flow of the process which a computer performs by VR software. 四角錐型の視野と、バウンディングボックスの仮想モデルとの交わりを示す図。The figure which shows the intersection of a quadrangular pyramid type visual field and the virtual model of a bounding box. 図3に示す交わりによりカメラの画面に表示されたオブジェクトの部分の例を示す図。The figure which shows the example of the part of the object displayed on the screen of the camera by the intersection shown in FIG. 対象オブジェクトを注視しながら、所定の軌道上を、所定の方向に、カメラを移動させるカメラワークの例を示す図。The figure which shows the example of the camera work which moves a camera to a predetermined | prescribed direction on a predetermined | prescribed track | orbit while gazing at a target object. 視野に入り始めた対象オブジェクトに、カメラの注視点を合せるカメラワークの例を示す図。The figure which shows the example of the camera work which matches the gazing point of a camera with the target object which began to enter into a visual field. 対象オブジェクトに、カメラの注視点を合せた後に、関連オブジェクトに、カメラの注視点を合せるカメラワークの例を示す図。The figure which shows the example of the camera work which matches the gaze point of a camera to a related object after aligning the gaze point of a camera with a target object.

Claims (7)

仮想空間内で仮想的なカメラの被写体になりうる各オブジェクトの被写体情報として、各オブジェクトの撮影優先順位とカメラワーク情報とを保持する手段と、
前記カメラの視野に入ったオブジェクトの中で、最高の撮影優先順位を持つものを、対象オブジェクトにする手段と、
対象オブジェクトのカメラワーク情報に規定されているカメラワークをユーザに提供する手段とを備えることを特徴とする仮想現実システム。
Means for holding shooting priority of each object and camera work information as subject information of each object that can be a subject of a virtual camera in a virtual space;
Among the objects entering the field of view of the camera, a unit having the highest photographing priority as a target object;
A virtual reality system comprising: means for providing a user with camera work defined in camera work information of a target object.
仮想空間内で仮想的なカメラの被写体になりうる各オブジェクトの被写体情報として、各オブジェクトの関連オブジェクトも保持する手段と、
前記カメラワークのユーザへの提供が終了したとき、対象オブジェクトの関連オブジェクトを、新たに、対象オブジェクトにする手段とを備える請求項1記載の仮想現実システム。
Means for holding a related object of each object as subject information of each object that can be a subject of a virtual camera in the virtual space;
The virtual reality system according to claim 1, further comprising a unit that newly sets a related object of the target object when the provision of the camera work to the user is completed.
コンピュータが実行する方法であって、
仮想空間内で仮想的なカメラの被写体になりうる各オブジェクトの被写体情報として、各オブジェクトの撮影優先順位とカメラワーク情報とを保持する工程と、
前記カメラの視野に入ったオブジェクトの中で、最高の撮影優先順位を持つものを、対象オブジェクトにする工程と、
対象オブジェクトのカメラワーク情報に規定されているカメラワークをユーザに提供する工程とを含むことを特徴とする仮想現実方法。
A method performed by a computer,
Holding the shooting priority of each object and camera work information as subject information of each object that can be a subject of a virtual camera in a virtual space;
Of the objects entering the field of view of the camera, the one having the highest shooting priority is set as a target object;
Providing a user with camera work defined in the camera work information of the target object.
仮想空間内で仮想的なカメラの被写体になりうる各オブジェクトの被写体情報として、各オブジェクトの関連オブジェクトも保持する工程と、
前記カメラワークのユーザへの提供が終了したとき、対象オブジェクトの関連オブジェクトを、新たに、対象オブジェクトにする工程とを含む請求項3記載の仮想現実方法。
Holding a related object of each object as subject information of each object that can be a subject of a virtual camera in the virtual space;
The virtual reality method according to claim 3, further comprising the step of newly setting the related object of the target object as the target object when the provision of the camera work to the user is completed.
コンピュータに、
仮想空間内で仮想的なカメラの被写体になりうる各オブジェクトの被写体情報として、各オブジェクトの撮影優先順位とカメラワーク情報とを保持する工程と、
前記カメラの視野に入ったオブジェクトの中で、最高の撮影優先順位を持つものを、対象オブジェクトにする工程と、
対象オブジェクトのカメラワーク情報に規定されているカメラワークをユーザに提供する工程とを実行させるプログラムであることを特徴とする仮想現実ソフトウェア。
On the computer,
Holding the shooting priority of each object and camera work information as subject information of each object that can be a subject of a virtual camera in a virtual space;
Of the objects entering the field of view of the camera, the one having the highest shooting priority is set as a target object;
Virtual reality software, which is a program for executing a process of providing a user with camera work defined in camera work information of a target object.
仮想空間内で仮想的なカメラの被写体になりうる各オブジェクトの被写体情報として、各オブジェクトの関連オブジェクトも保持する工程と、
前記カメラワークのユーザへの提供が終了したとき、対象オブジェクトの関連オブジェクトを、新たに、対象オブジェクトにする工程とを含む請求項5記載の仮想現実ソフトウェア。
Holding a related object of each object as subject information of each object that can be a subject of a virtual camera in the virtual space;
The virtual reality software according to claim 5, further comprising a step of making a related object of the target object a new target object when provision of the camera work to the user is completed.
請求項5又は請求項6に記載の仮想現実ソフトウェアを記録した記録媒体。   A recording medium on which the virtual reality software according to claim 5 is recorded.
JP2004362333A 2004-12-15 2004-12-15 Virtual reality system, method, software, and recording medium with the software recorded thereon Pending JP2006172037A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004362333A JP2006172037A (en) 2004-12-15 2004-12-15 Virtual reality system, method, software, and recording medium with the software recorded thereon

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004362333A JP2006172037A (en) 2004-12-15 2004-12-15 Virtual reality system, method, software, and recording medium with the software recorded thereon

Publications (1)

Publication Number Publication Date
JP2006172037A true JP2006172037A (en) 2006-06-29

Family

ID=36672736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004362333A Pending JP2006172037A (en) 2004-12-15 2004-12-15 Virtual reality system, method, software, and recording medium with the software recorded thereon

Country Status (1)

Country Link
JP (1) JP2006172037A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11276202B2 (en) 2019-04-19 2022-03-15 Ricoh Company, Ltd. Moving image generation apparatus, moving image generation method, and non-transitory recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11276202B2 (en) 2019-04-19 2022-03-15 Ricoh Company, Ltd. Moving image generation apparatus, moving image generation method, and non-transitory recording medium

Similar Documents

Publication Publication Date Title
US20230016490A1 (en) Systems and methods for virtual and augmented reality
US10845969B2 (en) System and method for navigating a field of view within an interactive media-content item
US10671239B2 (en) Three dimensional digital content editing in virtual reality
JP7348895B2 (en) System and method for controlling virtual camera
US9781354B2 (en) Controlling a virtual camera
US10902676B2 (en) System and method of controlling a virtual camera
EP2441505A2 (en) Using a portable gaming device to record or modify a game or application in real-time running on a home gaming system
JP5770918B1 (en) Information processing program and information processing method
US8754959B2 (en) Image processing device, dynamic image reproduction device, and processing method and program in them
JP5732218B2 (en) Display control program, display control device, display control system, and display control method
JP2012068730A (en) Display control program, display controller, display control system and display control method
JP5868044B2 (en) Information processing apparatus, control method therefor, program, and computer-readable program storage medium
JP2017084055A (en) Information processing apparatus, operation control method, and operation control program
US11070724B2 (en) Image processing apparatus and method
CN110868583A (en) Information processing apparatus, information processing method, and storage medium
CN108924534B (en) Panoramic image display method, client, server and storage medium
US20210297753A1 (en) Method for controlling vr video playing and related apparatus
JP2006172037A (en) Virtual reality system, method, software, and recording medium with the software recorded thereon
EP3599539A1 (en) Rendering objects in virtual views
CN105807952A (en) Information processing method and electronic equipment
JP7075073B2 (en) How and devices to add interactive objects to a virtual reality environment
US11308670B2 (en) Image processing apparatus and method
JP2012141753A5 (en)
WO2023002792A1 (en) Information processing device, information processing method, and computer program
WO2023002793A1 (en) Information processing device, information processing method, and computer program