JP5998829B2 - Camera work control device and camera work control program - Google Patents

Camera work control device and camera work control program Download PDF

Info

Publication number
JP5998829B2
JP5998829B2 JP2012227827A JP2012227827A JP5998829B2 JP 5998829 B2 JP5998829 B2 JP 5998829B2 JP 2012227827 A JP2012227827 A JP 2012227827A JP 2012227827 A JP2012227827 A JP 2012227827A JP 5998829 B2 JP5998829 B2 JP 5998829B2
Authority
JP
Japan
Prior art keywords
camera
output image
control unit
control
optical flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012227827A
Other languages
Japanese (ja)
Other versions
JP2014081706A (en
Inventor
小黒 久史
久史 小黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Inc filed Critical Toppan Inc
Priority to JP2012227827A priority Critical patent/JP5998829B2/en
Publication of JP2014081706A publication Critical patent/JP2014081706A/en
Application granted granted Critical
Publication of JP5998829B2 publication Critical patent/JP5998829B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、カメラワーク制御装置、及びカメラワーク制御プログラムに関する。   The present invention relates to a camera work control device and a camera work control program.

鑑賞者の視聴環境に最適化されたコンテンツ画像(ユニバーサルコンテンツ画像)を生成することを目的に、動画像が鑑賞者に与える感性的効果(例えば、画像の迫力感)が調査されている。例えば、画像生成装置は、カメラワークを自由に変化させることができるというVR(Virtual Reality)の特徴を活用し、同一の原カメラワークから、動きの異なる画像を生成する。感性的効果(主観的印象)は、動きの異なる画像を評価者が鑑賞者に提示し、自己の受けた印象の強さを鑑賞者が評価者に報告するという主観評価法により評価される。特許文献1には、鑑賞者の嗜好に応じた動画像を生成することを目的とした画像生成装置が開示されている。   For the purpose of generating a content image (universal content image) optimized for the viewing environment of the viewer, the sensibility effect (for example, the feeling of power of the image) given to the viewer by the moving image has been investigated. For example, the image generation device uses a VR (Virtual Reality) feature that camera work can be freely changed, and generates images with different motions from the same original camera work. The emotional effect (subjective impression) is evaluated by a subjective evaluation method in which an evaluator presents images with different movements to the viewer and the viewer reports the strength of the impression received by the viewer. Patent Document 1 discloses an image generation apparatus for generating a moving image according to a viewer's preference.

特開2008−262392号公報JP 2008-262392 A

しかしながら、特許文献1に開示された画像生成装置は、快適さや楽しさなどを強調するためのカメラワーク付加情報を人の操作の介在により予め作成しておく必要があり、快適性及び楽しさなどの印象を鑑賞者に与える動画像を、人の操作の介在無しには生成することができないという問題がある。そのため、特許文献1に開示された画像生成装置は、鑑賞者がカメラを自分で操作する対話型VRなどへの適用が制限される。   However, the image generation apparatus disclosed in Patent Document 1 needs to create camerawork additional information for emphasizing comfort and enjoyment in advance through human operation, such as comfort and enjoyment. There is a problem in that a moving image that gives the viewer an impression of the above cannot be generated without human intervention. Therefore, application of the image generation device disclosed in Patent Document 1 to an interactive VR in which a viewer operates the camera by himself / herself is limited.

本発明は、前記の点に鑑みてなされたものであり、快適性及び楽しさなどの印象を鑑賞者に与える動画像を、人の操作の介在無しに生成することができるカメラワーク制御装置、及びカメラワーク制御プログラムを提供することを目的とする。   The present invention has been made in view of the above points, and a camera work control device capable of generating a moving image that gives an impression of comfort and enjoyment to a viewer without human intervention, And a camera work control program.

本発明の一態様は、入力画像に基づく出力画像に予め定められた単位領域毎に、当該出力画像の距離分布を算出する算出部と、前記距離分布に応じて、動画像としての前記出力画像におけるカメラワークを制御する制御部と、を備えることを特徴とするカメラワーク制御装置である。   According to one aspect of the present invention, a calculation unit that calculates a distance distribution of an output image for each unit region predetermined in an output image based on the input image, and the output image as a moving image according to the distance distribution And a controller for controlling the camera work in the camera work control apparatus.

また、本発明の一態様は、前記算出部が、前記入力画像に関連付けられた距離情報に基づいて、前記距離分布を算出することを特徴とするカメラワーク制御装置である。   One embodiment of the present invention is the camera work control apparatus, wherein the calculation unit calculates the distance distribution based on distance information associated with the input image.

また、本発明の一態様は、前記算出部が、前記入力画像としてのコンピュータグラフィックスから算出された距離情報に基づいて、前記距離分布を算出することを特徴とするカメラワーク制御装置である。   One embodiment of the present invention is the camera work control device, wherein the calculation unit calculates the distance distribution based on distance information calculated from computer graphics as the input image.

また、本発明の一態様は、前記制御部が、前記カメラワークとして、カメラアングルを制御することを特徴とするカメラワーク制御装置である。   One embodiment of the present invention is the camera work control device, wherein the control unit controls a camera angle as the camera work.

また、本発明の一態様は、前記制御部が、前記距離分布に応じたオプティカルフローに基づいて、前記カメラワークを制御することを特徴とするカメラワーク制御装置である。   One embodiment of the present invention is the camera work control device, wherein the control unit controls the camera work based on an optical flow corresponding to the distance distribution.

また、本発明の一態様は、前記制御部が、前記オプティカルフローの勾配に基づいて、前記カメラワークを制御することを特徴とするカメラワーク制御装置である。   One embodiment of the present invention is the camera work control apparatus, wherein the control unit controls the camera work based on a gradient of the optical flow.

また、本発明の一態様は、前記算出部が、前記入力画像に予め定められた被写体毎の興味度に応じて、前記出力画像における前記被写体毎の興味度の分布を算出し、前記制御部が、前記出力画像における前記被写体毎の興味度の分布に基づいて、前記カメラワークを制御することを特徴とするカメラワーク制御装置である。   Further, according to one aspect of the present invention, the calculation unit calculates a distribution of the degree of interest for each subject in the output image according to the degree of interest for each subject predetermined in the input image, and the control unit Is a camera work control apparatus that controls the camera work based on a distribution of the degree of interest for each subject in the output image.

また、本発明の一態様は、前記制御部が、前記カメラワークとして、カメラパスを制御することを特徴とするカメラワーク制御装置である。   One embodiment of the present invention is a camera work control apparatus in which the control unit controls a camera path as the camera work.

また、本発明の一態様は、コンピュータに、入力画像に基づく出力画像に予め定められた単位領域毎に、当該出力画像の距離分布を算出する手順と、前記距離分布に応じて、動画像としての前記出力画像におけるカメラワークを制御する手順と、を実行させるためのカメラワーク制御プログラムである。   Further, according to one embodiment of the present invention, a computer calculates, as a moving image, a procedure for calculating a distance distribution of an output image for each unit region predetermined in an output image based on the input image, and the distance distribution. And a procedure for controlling camera work in the output image.

本発明によれば、制御部は、距離分布に応じて、動画像としての出力画像におけるカメラワークを制御する。これにより、カメラワーク制御装置、及びカメラワーク制御プログラムは、快適性及び楽しさなどの印象を鑑賞者に与える動画像を、人の操作の介在無しに生成することができる。   According to the present invention, the control unit controls the camera work in the output image as the moving image according to the distance distribution. Thereby, the camera work control device and the camera work control program can generate a moving image that gives the viewer an impression of comfort and enjoyment without the intervention of a human operation.

本発明の一実施形態における、カメラワーク制御装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the camera work control apparatus in one Embodiment of this invention. 本発明の一実施形態における、コンピュータグラフィックス及びデプス画像の例を示す図である。It is a figure which shows the example of a computer graphics and a depth image in one Embodiment of this invention. 本発明の一実施形態における、透視投影変換を説明するための図である。It is a figure for demonstrating perspective projection conversion in one Embodiment of this invention. 本発明の一実施形態における、カメラパスの例を示す図である。It is a figure which shows the example of the camera path | pass in one Embodiment of this invention. 本発明の一実施形態における、オプティカルフローを示す出力画像の例を示す図である。It is a figure which shows the example of the output image which shows the optical flow in one Embodiment of this invention. 本発明の一実施形態における、出力画像に予め定められた領域を示す図である。It is a figure which shows the area | region predetermined in the output image in one Embodiment of this invention. 本発明の一実施形態における、直線のカメラパスと、オプティカルフローとの関係例を示す図である。It is a figure which shows the example of a relationship between a linear camera path | pass and an optical flow in one Embodiment of this invention. 本発明の一実施形態における、曲線のカメラパスと、オプティカルフローとの関係例を示す図である。It is a figure which shows the example of a relationship between the camera path of a curve, and an optical flow in one Embodiment of this invention. 本発明の一実施形態における、カメラアングルの例を示す図である。It is a figure which shows the example of the camera angle in one Embodiment of this invention. 本発明の一実施形態における、被写体毎の興味度の分布例を示す図である。It is a figure which shows the example of distribution of the interest degree for every to-be-photographed object in one Embodiment of this invention. 本発明の一実施形態における、カメラの位置に応じた興味度の変化例を示す図である。It is a figure which shows the example of a change of the interest degree according to the position of the camera in one Embodiment of this invention. 本発明の一実施形態における、カメラパスの終点の例を示す図である。It is a figure which shows the example of the end point of a camera path | pass in one Embodiment of this invention. 本発明の一実施形態における、オプティカルフローと閾値との関係例を示す図である。It is a figure which shows the example of a relationship between the optical flow and threshold value in one Embodiment of this invention. 本発明の一実施形態における、終点でのカメラアングルの例を示す図である。It is a figure which shows the example of the camera angle in the end point in one Embodiment of this invention. 本発明の一実施形態における、カメラパスの終点を定める動作手順の例を示すフローチャートである。It is a flowchart which shows the example of the operation | movement procedure which determines the end point of a camera path in one Embodiment of this invention. 本発明の一実施形態における、直線のカメラパスを定める動作手順の例を示すフローチャートである。It is a flowchart which shows the example of the operation | movement procedure which defines the straight camera path in one Embodiment of this invention. 本発明の一実施形態における、オプティカルフローを算出する動作手順の例を示すフローチャートである。It is a flowchart which shows the example of the operation | movement procedure which calculates the optical flow in one Embodiment of this invention. 本発明の一実施形態における、興味度の分布を算出する動作手順の例を示すフローチャートである。It is a flowchart which shows the example of the operation | movement procedure which calculates distribution of an interest degree in one Embodiment of this invention. 本発明の一実施形態における、カメラワークを制御する動作手順の例を示すフローチャートである。It is a flowchart which shows the example of the operation | movement procedure which controls camera work in one Embodiment of this invention.

本発明の一実施形態について図面を参照して詳細に説明する。図1には、カメラワーク制御装置の構成例が、ブロック図により示されている。カメラワーク制御装置100は、快適性及び楽しさなどの印象を鑑賞者に与える動画像を生成する。カメラワーク制御装置100は、算出部110と、記憶部120と、操作部130と、制御部140と、表示部150とを備える。   An embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration example of a camera work control apparatus. The camera work control device 100 generates a moving image that gives the viewer an impression of comfort and enjoyment. The camerawork control device 100 includes a calculation unit 110, a storage unit 120, an operation unit 130, a control unit 140, and a display unit 150.

算出部110は、入力画像としてのコンピュータグラフィックス(Computer Graphics:CG)を示す三次元空間データ(シーンデータ)を、記憶部120から読み込む。算出部110は、この仮想的な三次元空間に定められたカメラパス(移動経路)をカメラが移動した場合における、入力画像に基づく出力画像の距離分布を算出する。また、算出部110は、入力画像に基づく出力画像の距離分布に基づいて、入力画像に基づく出力画像のオプティカルフローを算出する。なお、距離分布とオプティカルフローとは、逆数の関係にある。   The calculation unit 110 reads, from the storage unit 120, three-dimensional space data (scene data) indicating computer graphics (CG) as an input image. The calculation unit 110 calculates the distance distribution of the output image based on the input image when the camera moves on the camera path (movement path) defined in the virtual three-dimensional space. Further, the calculation unit 110 calculates the optical flow of the output image based on the input image based on the distance distribution of the output image based on the input image. Note that the distance distribution and the optical flow have a reciprocal relationship.

ここで、オプティカルフローとは、画像における動きの分布を示すベクトルである。入力画像が実写画像である場合、算出部110は、ブロックマッチング法などの画像処理により、動画像としての入力画像に含まれるフレーム間の差分に基づいて、入力画像に基づく出力画像のオプティカルフローを算出する。一方、入力画像がコンピュータグラフィックスである場合、入力画像の三次元空間を表す幾何学情報が全て既知であるため、算出部110は、画像処理を実行することなく、三次元空間データに含まれるコンピュータグラフィックスモデル、及び、カメラワークに関する数値データに基づいて、入力画像に基づく出力画像のオプティカルフローを算出する。   Here, the optical flow is a vector indicating a motion distribution in an image. When the input image is a real image, the calculation unit 110 performs an optical flow of the output image based on the input image based on a difference between frames included in the input image as a moving image by image processing such as a block matching method. calculate. On the other hand, when the input image is computer graphics, since all geometric information representing the three-dimensional space of the input image is known, the calculation unit 110 is included in the three-dimensional space data without performing image processing. The optical flow of the output image based on the input image is calculated based on the computer graphics model and the numerical data regarding the camera work.

また、算出部110は、入力画像がコンピュータグラフィックスである場合、入力画像の三次元空間に仮想的に置かれたカメラ(視点)から、入力画像の三次元空間に仮想的に置かれた被写体(オブジェクト)の表面までの距離を示すデプス(深度)画像を生成する。例えば、OpenGL(登録商標)を用いる場合、算出部110は、レンダリングを実行する過程において、glReadPixels関数(glReadPixels(0,0,nWidth,nHeight,GL_DEPTH_COMPONENT,GL_FLOAT,depthImage))を呼び出すことにより、デプス画像を得る。   In addition, when the input image is computer graphics, the calculation unit 110 performs a subject virtually placed in the three-dimensional space of the input image from a camera (viewpoint) virtually placed in the three-dimensional space of the input image. A depth (depth) image indicating the distance to the surface of the (object) is generated. For example, when OpenGL (registered trademark) is used, the calculation unit 110 calls a glReadPixels function (glReadPixels (0, 0, nWidth, nHeight, GL_DEPTTH_COMPONENT, GL_FLOAT, depthImage)) in the process of rendering. Get.

図2には、コンピュータグラフィックス及びデプス画像の例が示されている。図2(A)には、入力画像としてのコンピュータグラフィックスが、スクリーン座標系に示されている。このコンピュータグラフィックスには、被写体200の一例として、神殿が描かれている。また、図2(B)は、このコンピュータグラフィックスに基づいて生成された、デプス画像である。図2(B)では、カメラ(視点)から被写体200の表面までの距離が短いほど黒く表され、長いほど白く表されている。   FIG. 2 shows examples of computer graphics and depth images. In FIG. 2A, computer graphics as an input image is shown in the screen coordinate system. In this computer graphics, a temple is depicted as an example of the subject 200. FIG. 2B is a depth image generated based on the computer graphics. In FIG. 2B, the shorter the distance from the camera (viewpoint) to the surface of the subject 200 is, the more black it is, and the longer it is, the white it is.

図3は、透視投影変換を説明するための図である。OpenGL(登録商標)を用いる場合、算出部110は、glFrustum関数を呼び出すことにより、入力画像の三次元空間に対して、ビュー座標系からスクリーン座標系に変換する透視投影変換を設定することができる。算出部110は、前方クリップ面310から後方クリップ面320までのZ座標値(奥行き)を、式(1)に基づいて、−1.0〜1.0の範囲に変換する。   FIG. 3 is a diagram for explaining perspective projection conversion. When OpenGL (registered trademark) is used, the calculation unit 110 can set perspective projection conversion for converting the view coordinate system to the screen coordinate system for the three-dimensional space of the input image by calling the glFrustum function. . The calculation unit 110 converts the Z coordinate value (depth) from the front clip surface 310 to the rear clip surface 320 into a range of −1.0 to 1.0 based on Expression (1).

ここで、nearは、カメラ300から前方クリップ面310までの距離を示す。また、farは、カメラ300から後方クリップ面320までの距離を示す。また、topは、前方クリップ面310の上(Y軸正方向)端を示す。また、bottomは、前方クリップ面310の下(Y軸負方向)端を示す。また、rightは、前方クリップ面310の右(X軸正方向)端を示す。また、leftは、前方クリップ面310の左(X軸負方向)端を示す。   Here, near indicates the distance from the camera 300 to the front clip surface 310. Further, far indicates the distance from the camera 300 to the rear clip surface 320. Further, top indicates the upper end (Y-axis positive direction) of the front clip surface 310. “Bottom” indicates a lower end (Y-axis negative direction) of the front clip surface 310. Further, right indicates the right (X-axis positive direction) end of the front clip surface 310. Left indicates the left (X-axis negative direction) end of the front clip surface 310.

デプス画像は、GL_FLOAT形式で読み出された場合、−1.0〜1.0の範囲に透視投影変換された値が、さらに0.0〜1.0の範囲に正規化されている。したがって、算出部110は、この逆演算をデプス画像に施すことにより、カメラ300(視点)から被写体の表面の点までの距離Zを、入力画像の画素毎に算出する。   When the depth image is read out in the GL_FLOAT format, the value obtained by perspective projection conversion to the range of −1.0 to 1.0 is further normalized to the range of 0.0 to 1.0. Therefore, the calculation unit 110 calculates the distance Z from the camera 300 (viewpoint) to the surface point of the subject for each pixel of the input image by performing this inverse operation on the depth image.

また、算出部110は、ビュー座標系における視点の移動速度(Vx,Vy,Vz)と、視点の回転角速度(ωp,ωy,ωr)と、スクリーン座標(Sx,Sy)と、視体積(right,left,top,bottom,far,nearにより定まる体積)とに基づいて、スクリーン座標系における動きベクトル(Fx,Fy)を算出する。ここで、スクリーン座標(Sx,Sy)は、−1.0〜1.0の範囲に正規化されていてもよい。   The calculation unit 110 also includes a viewpoint movement speed (Vx, Vy, Vz), a viewpoint rotation angular speed (ωp, ωy, ωr), a screen coordinate (Sx, Sy), and a viewing volume (right) in the view coordinate system. , Left, top, bottom, far, and near), a motion vector (Fx, Fy) in the screen coordinate system is calculated. Here, the screen coordinates (Sx, Sy) may be normalized in a range of −1.0 to 1.0.

入力画像のスクリーン座標系における動きベクトルは、入力画像の三次元空間を、カメラ300(図3を参照)が移動等することにより生じる。動きベクトルは、生じる要因に応じて、式(2)〜(6)により算出される。以下、これら動きベクトルの和を、「オプティカルフロー」という。また、算出部110は、入力画像に基づく出力画像に予め定められた単位領域毎に、オプティカルフローを算出する。   The motion vector in the screen coordinate system of the input image is generated when the camera 300 (see FIG. 3) moves in the three-dimensional space of the input image. The motion vector is calculated by the equations (2) to (6) according to the factors that occur. Hereinafter, the sum of these motion vectors is referred to as “optical flow”. In addition, the calculation unit 110 calculates an optical flow for each unit region predetermined in the output image based on the input image.

入力画像の三次元空間で、カメラ300が被写体に対して平行移動することにより生じる、入力画像のスクリーン座標系における動きベクトルは、式(2)により示される。ここで、Dは、被写体距離を示す。このように、距離分布とオプティカルフローとは、逆数の関係にある。なお、ビュー座標系では、D=−Zである。   A motion vector in the screen coordinate system of the input image, which is generated when the camera 300 moves parallel to the subject in the three-dimensional space of the input image, is expressed by Expression (2). Here, D indicates the subject distance. Thus, the distance distribution and the optical flow have a reciprocal relationship. In the view coordinate system, D = −Z.

また、入力画像の三次元空間で、カメラ300が直線移動することにより生じる、入力画像のスクリーン座標系における動きベクトルは、式(3)により示される。ここで、Dは、被写体距離を示す。なお、ビュー座標系では、D=−Zである。   In addition, a motion vector in the screen coordinate system of the input image, which is generated when the camera 300 moves linearly in the three-dimensional space of the input image, is expressed by Expression (3). Here, D indicates the subject distance. In the view coordinate system, D = −Z.

また、入力画像の三次元空間で、カメラ300がヨー回転(左右回転)することにより生じる、入力画像のスクリーン座標系における動きベクトルは、式(4)により示される。  Further, a motion vector in the screen coordinate system of the input image, which is generated by the yaw rotation (left-right rotation) of the camera 300 in the three-dimensional space of the input image, is expressed by Expression (4).

また、入力画像の三次元空間で、カメラ300がピッチ回転(上下回転)することにより生じる、入力画像のスクリーン座標系における動きベクトルは、式(5)により示される。  In addition, a motion vector in the screen coordinate system of the input image, which is generated when the camera 300 performs pitch rotation (up and down rotation) in the three-dimensional space of the input image, is expressed by Expression (5).

また、入力画像の三次元空間で、カメラ300がロール回転(ねじり回転)することにより生じる、入力画像のスクリーン座標系における動きベクトルは、式(6)により示される。  In addition, a motion vector in the screen coordinate system of the input image, which is generated when the camera 300 rolls (twists) in the three-dimensional space of the input image, is expressed by Expression (6).

また、算出部110は、入力画像の三次元空間に予め定められた被写体毎の興味度に応じて、出力画像における被写体200毎の興味度の分布を算出する。興味度の分布の詳細については、図10を用いて後述する。   Further, the calculation unit 110 calculates the distribution of the interest level for each subject 200 in the output image according to the interest level for each subject predetermined in the three-dimensional space of the input image. Details of the distribution of interest will be described later with reference to FIG.

図4には、カメラパスの例が示されている。図4では、カメラパス400は、ユーザが指定した目的位置700に向かう直線の移動経路(破線で示されている)に対して、一例として、曲線の移動経路(実線で示されている)に定められている。   FIG. 4 shows an example of a camera path. In FIG. 4, the camera path 400 is a curved moving path (shown by a solid line) as an example with respect to a straight moving path (shown by a broken line) toward the target position 700 designated by the user. It has been established.

図5には、オプティカルフローを示す出力画像の例が示されている。図5(A)には、カメラ300(図3を参照)が、被写体200を向きながら、カメラパス400(図4を参照)に沿って、被写体200の周囲を高速旋回している場合における、オプティカルフローの例が、矢印の向き及び大きさにより示されている。   FIG. 5 shows an example of an output image showing an optical flow. FIG. 5A illustrates a case where the camera 300 (see FIG. 3) is turning around the subject 200 at high speed along the camera path 400 (see FIG. 4) while facing the subject 200. An example of optical flow is indicated by the direction and size of the arrow.

図5(A)において、出力画像の下側領域(図2における、地面が描かれている領域に相当)には、右方向(X軸正方向)を向く所定値以上のオプティカルフローが示されている。また、出力画像の中央領域(図2における、被写体200が描かれている領域に相当)には、前記所定値以下のオプティカルフローが示されている。また、出力画像の上側領域(図2における、空が描かれている領域に相当)には、左方向(X軸負方向)を向くオプティカルフローが示されている。   In FIG. 5 (A), the lower region of the output image (corresponding to the region where the ground is drawn in FIG. 2) shows an optical flow of a predetermined value or more that faces rightward (X-axis positive direction). ing. Further, an optical flow equal to or less than the predetermined value is shown in the central area of the output image (corresponding to the area where the subject 200 is drawn in FIG. 2). In addition, in the upper area of the output image (corresponding to the area in which the sky is drawn in FIG. 2), an optical flow facing the left direction (X-axis negative direction) is shown.

一方、図5(B)には、カメラ300が、被写体200を向きながら、カメラパス400に沿って、被写体200の周囲を低速旋回している場合における、オプティカルフローの例が、矢印の向き及び大きさにより示されている。図5(B)において、出力画像の右下側領域(図2における、被写体200の右側の輪郭が描かれている領域に相当)には、1点に向かって集中するオプティカルフローが示されている。ここで、1点に向かって集中するオプティカルフローが示されている理由は、カメラ300が旋回したことにより、被写体200の右側の輪郭(図2を参照)から、カメラ300が離れ始めたからである。   On the other hand, FIG. 5B shows an example of an optical flow in the case where the camera 300 is turning at low speed around the subject 200 along the camera path 400 while facing the subject 200. It is indicated by size. In FIG. 5B, an optical flow concentrated toward one point is shown in the lower right area of the output image (corresponding to the area where the right outline of the subject 200 is drawn in FIG. 2). Yes. Here, the reason why the optical flow concentrated toward one point is shown is that the camera 300 starts to move away from the right contour of the subject 200 (see FIG. 2) as the camera 300 turns. .

図1に戻り、画像生成装置の構成例の説明を続ける。
記憶部120は、入力画像としてのコンピュータグラフィックスを示す三次元空間データ(シーンデータ)を、予め記憶する。また、記憶部120は、算出部110による算出結果、例えば、オプティカルフローを示す情報を記憶する。また、記憶部120は、カメラパス400(図4を参照)などのカメラワークに関する数値データを、予め記憶する。なお、記憶部120は、制御部140を動作させるためのプログラムを予め記憶してもよい。
Returning to FIG. 1, the description of the configuration example of the image generation apparatus will be continued.
The storage unit 120 stores in advance three-dimensional spatial data (scene data) indicating computer graphics as an input image. In addition, the storage unit 120 stores a calculation result by the calculation unit 110, for example, information indicating an optical flow. In addition, the storage unit 120 stores numerical data related to camera work such as the camera path 400 (see FIG. 4) in advance. Note that the storage unit 120 may store a program for operating the control unit 140 in advance.

操作部130は、ユーザによる操作入力を受け付け、操作入力に応じた信号を制御部140に出力する。ここで、操作入力に応じた信号は、例えば、各種の設定条件(閾値など)を示す信号である。   The operation unit 130 receives an operation input by the user and outputs a signal corresponding to the operation input to the control unit 140. Here, the signal corresponding to the operation input is, for example, a signal indicating various setting conditions (threshold value or the like).

制御部140は、動画像としての出力画像のオプティカルフローに応じて、出力画像におけるカメラワークを制御する。ここで、制御部140は、カメラワークとして、カメラアングル、カメラパス、及び、ズーム倍率の少なくとも一つを制御する。制御部140の詳細については後述する。   The control unit 140 controls camera work in the output image according to the optical flow of the output image as a moving image. Here, the control unit 140 controls at least one of camera angle, camera path, and zoom magnification as camera work. Details of the control unit 140 will be described later.

表示部150は、制御部140が制御するカメラワークにより生成された動画像としての出力画像のうち、出力画像に定められた表示領域を表示する。また、表示部150は、操作部130をユーザが操作するための操作パネル(不図示)を表示する。   The display unit 150 displays a display area defined in the output image among output images as moving images generated by camera work controlled by the control unit 140. Further, the display unit 150 displays an operation panel (not shown) for the user to operate the operation unit 130.

次に、出力画像の詳細を説明する。
図6には、出力画像に予め定められた領域が示されている。出力画像は、入力画像の三次元空間に置かれたカメラ300(図3を参照)から見える画像である。図6では、出力画像は、16×16個の単位領域500−X−Y(単位領域500−0−0〜単位領域500−15−15)に分割されている。以下、単位領域500−X−Yの全てに共通する事項については、符号X及びYを省略して、「単位領域500」と表記する。なお、単位領域500の境界線は、出力画像に表示されなくてもよい。
Next, details of the output image will be described.
FIG. 6 shows a predetermined area in the output image. The output image is an image seen from the camera 300 (see FIG. 3) placed in the three-dimensional space of the input image. In FIG. 6, the output image is divided into 16 × 16 unit areas 500-XY (unit areas 500-0-0 to unit areas 500-15-15). Hereinafter, items common to all of the unit areas 500-XY are denoted as “unit area 500” by omitting the symbols X and Y. The boundary line of the unit area 500 may not be displayed on the output image.

また、以下、単位領域500−0−0、単位領域500−0−15、単位領域500−7−15、及び、単位領域500−7−0を頂点する長方形の領域、すなわち、出力画像の左半分の領域を「左領域」という。また、単位領域500−8−0、単位領域500−8−15、単位領域500−15−15、及び、単位領域500−15−0を頂点する長方形の領域、すなわち、出力画像の右半分の領域を「右領域」という。   Hereinafter, the unit area 500-0-0, the unit area 500-0-15, the unit area 500-7-15, and the rectangular area that apexes the unit area 500-7-0, that is, the left of the output image The half area is called “left area”. In addition, the unit area 500-8-0, the unit area 500-8-15, the unit area 500-15-15, and the rectangular area that apexes the unit area 500-15-0, that is, the right half of the output image The area is referred to as a “right area”.

また、以下、単位領域500−0−7、単位領域500−0−15、単位領域500−15−15、及び、単位領域500−15−8を頂点する長方形の領域、すなわち、出力画像の上半分の領域を「上領域」という。また、単位領域500−0−0、単位領域500−0−7、単位領域500−15−7、及び、単位領域500−15−0を頂点する長方形の領域、すなわち、出力画像の下半分の領域を「下領域」という。   In addition, hereinafter, the unit area 500-0-7, the unit area 500-0-15, the unit area 500-15-15, and the rectangular area that apexes the unit area 500-15-8, that is, above the output image Half of the area is called the “upper area”. In addition, the unit area 500-0-0, the unit area 500-0-7, the unit area 500-15-7, and the rectangular area that apexes the unit area 500-15-0, that is, the lower half of the output image The area is referred to as a “lower area”.

また、単位領域500毎に、係数が定められていてもよい。ここで、例えば、出力画像の所定位置(例えば、中央付近)の単位領域500に定められた係数は、他の位置と比較して、重み付けが相対的に大きく定められてもよい。   A coefficient may be defined for each unit region 500. Here, for example, the coefficient determined in the unit region 500 at a predetermined position (for example, near the center) of the output image may be set to have a relatively large weight compared to other positions.

次に、制御部の詳細を説明する。
図7には、直線のカメラパスと、オプティカルフローとの関係例が示されている。図7(A)には、入力画像の三次元空間に予め配置された被写体200及び被写体210が示されている。ここで、被写体210は、被写体200に向かう直線のカメラパス410(初期カメラパス)の右側に、予め配置されているものとする。直線のカメラパス410上には、一例として、制御点411、制御点412及び制御点413が配置されている。
Next, details of the control unit will be described.
FIG. 7 shows an example of the relationship between a straight camera path and an optical flow. FIG. 7A shows a subject 200 and a subject 210 that are arranged in advance in the three-dimensional space of the input image. Here, it is assumed that the subject 210 is arranged in advance on the right side of the straight camera path 410 (initial camera path) toward the subject 200. On the straight camera path 410, as an example, a control point 411, a control point 412 and a control point 413 are arranged.

図7(B)には、出力画像のフレーム毎、すなわち、直線のカメラパス410上の位置毎に、出力画像のオプティカルフローが示されている。横軸は、出力画像のフレームを示す。縦軸は、出力画像のオプティカルフローを示す。ここで、オプティカルフローについては、右領域における総和と、左領域における総和と、上領域における総和と、下領域における総和とが示されている。なお、オプティカルフローの総和が算出される際、オプティカルフローには、係数による重み付けが、単位領域500毎にされてもよい。   FIG. 7B shows the optical flow of the output image for each frame of the output image, that is, for each position on the straight camera path 410. The horizontal axis indicates the frame of the output image. The vertical axis represents the optical flow of the output image. Here, for the optical flow, the sum in the right region, the sum in the left region, the sum in the upper region, and the sum in the lower region are shown. Note that when the sum of the optical flows is calculated, the optical flows may be weighted for each unit region 500 by a coefficient.

直線のカメラパス410の右側に、被写体210が予め配置されているため、図7(B)では、出力画像の右領域におけるオプティカルフローの総和の絶対値が、出力画像の左領域におけるオプティカルフローの総和の絶対値よりも大きくなっていることが、示されている。   Since the subject 210 is arranged in advance on the right side of the straight camera path 410, in FIG. 7B, the absolute value of the sum of the optical flows in the right region of the output image is the optical flow in the left region of the output image. It is shown that it is larger than the absolute value of the sum.

カメラパス410が直線であるため、出力画像のオプティカルフローは、式(3)のみから算出可能である。すなわち、出力画像のオプティカルフローは、カメラ300(図3を参照)の移動速度とスクリーン座標とに比例し、距離に反比例するので、出力画像の距離分布のみに基づいて近似的に算出可能である。   Since the camera path 410 is a straight line, the optical flow of the output image can be calculated only from Equation (3). That is, the optical flow of the output image is proportional to the moving speed of the camera 300 (see FIG. 3) and the screen coordinates, and is inversely proportional to the distance, so that it can be calculated approximately based only on the distance distribution of the output image. .

図8には、曲線のカメラパスと、オプティカルフローとの関係例が示されている。直線のカメラパス410上の各制御点の位置が、制御部140によって移動されることにより、カメラパス410は、直線から曲線に修整される。図8(A)には、入力画像の三次元空間に予め配置された被写体200及び被写体210が示されている。ここで、被写体200及び被写体210は、図7(A)に示された場合と同じ位置に予め配置されている。なお、図7(A)に示された直線のカメラパスは、図8(A)では、破線で示されている。   FIG. 8 shows an example of the relationship between a curved camera path and an optical flow. When the position of each control point on the straight camera path 410 is moved by the control unit 140, the camera path 410 is modified from a straight line to a curved line. FIG. 8A shows a subject 200 and a subject 210 that are arranged in advance in the three-dimensional space of the input image. Here, the subject 200 and the subject 210 are arranged in advance at the same position as that shown in FIG. Note that the straight camera path shown in FIG. 7A is indicated by a broken line in FIG.

図7(A)に示された直線のカメラパス上の各制御点の位置は、制御部140により移動され、スプライン補間により繋がれる。これにより、カメラパス410は、図8(A)に示されているように、直線から曲線に修整される。図8(A)では、各制御点は、図7(A)に示された直線のカメラパス410に対して直交する方向に移動されている。また、制御部140は、ここで、制御部140は、出力画像の右領域におけるオプティカルフローの総和と、出力画像の左領域におけるオプティカルフローの総和との和を、値0に近づけるようにカメラパス410を曲げる。被写体210からの十分な距離が保たれてカメラパス410が曲げられているので、出力画像は、過剰な刺激のない快適な視覚効果を、鑑賞者に与えることができる。   The position of each control point on the straight camera path shown in FIG. 7A is moved by the control unit 140 and connected by spline interpolation. As a result, the camera path 410 is modified from a straight line to a curved line as shown in FIG. In FIG. 8A, each control point is moved in a direction orthogonal to the straight camera path 410 shown in FIG. In addition, the control unit 140 uses the camera path so that the sum of the optical flow sum in the right region of the output image and the sum of the optical flow in the left region of the output image approaches 0. Bend 410. Since a sufficient distance from the subject 210 is maintained and the camera path 410 is bent, the output image can give the viewer a comfortable visual effect without excessive stimulation.

図8(B)には、出力画像のフレーム毎、すなわち、曲線のカメラパス410上の位置毎に、出力画像のオプティカルフローが示されている。横軸は、出力画像のフレームを示す。縦軸は、出力画像のオプティカルフローを示す。ここで、オプティカルフローについては、右領域における総和と、左領域における総和と、上領域における総和と、下領域における総和とが示されている。   FIG. 8B shows an optical flow of the output image for each frame of the output image, that is, for each position on the camera path 410 of the curve. The horizontal axis indicates the frame of the output image. The vertical axis represents the optical flow of the output image. Here, for the optical flow, the sum in the right region, the sum in the left region, the sum in the upper region, and the sum in the lower region are shown.

被写体200に向かう曲線のカメラパス410の右側に、被写体210が予め配置されているため、図8(B)では、出力画像の右領域におけるオプティカルフローの総和の絶対値が、出力画像の左領域におけるオプティカルフローの総和の絶対値よりも大きくなっていることが示されている。また、制御部140によりカメラパス410が曲げられたため、図8(B)では、出力画像の右領域におけるオプティカルフローの総和と、出力画像の左領域におけるオプティカルフローの総和との和は、図7(B)に示された場合と比較して、値0に近づけられていることが示されている。   Since the subject 210 is arranged in advance on the right side of the curved camera path 410 toward the subject 200, in FIG. 8B, the absolute value of the sum of the optical flows in the right region of the output image is the left region of the output image. It is shown that it is larger than the absolute value of the sum of the optical flows at. Further, since the camera path 410 is bent by the control unit 140, in FIG. 8B, the sum of the optical flow sum in the right region of the output image and the sum of the optical flows in the left region of the output image is shown in FIG. Compared to the case shown in (B), it is shown that the value is close to 0.

なお、制御部140は、カメラパス410が曲げられたことにより、カメラパス410が他の被写体(不図示)にぶつからないよう、すなわち、当該他の被写体とカメラ300との最短距離以上を保つように、カメラパス410の位置を修整してもよい。また、出力画像の上領域及び下領域についても、制御部140は、出力画像の上領域におけるオプティカルフローの総和と、出力画像の下領域におけるオプティカルフローの総和との和を、値0に近づけるようにカメラパス410を曲げてもよい。   It should be noted that the control unit 140 prevents the camera path 410 from colliding with another subject (not shown) due to the camera path 410 being bent, that is, maintains the minimum distance between the other subject and the camera 300. In addition, the position of the camera path 410 may be modified. For the upper area and lower area of the output image, the control unit 140 causes the sum of the optical flow in the upper area of the output image and the sum of the optical flows in the lower area of the output image to approach 0. The camera path 410 may be bent.

また、左領域及び右領域、又は、上領域及び下領域のオプティカルフローの総和が大きくなるように、カメラパス410が曲げられることにより、出力画像は、適度な快適性及び楽しさなどの印象とは逆の視覚効果(例えば、過度な速度感)を、鑑賞者に与えることができる。さらに、出力画像は、カメラパス410の曲げ量が調整係数により操作されることにより、適度な快適性及び楽しさなどの印象となる中間的な視覚効果(例えば、適度な速度感)を、鑑賞者に与えることができる。   In addition, the camera path 410 is bent so that the sum of optical flows in the left region and the right region, or the upper region and the lower region is increased, so that the output image has an impression such as moderate comfort and fun. Can give the viewer the opposite visual effect (eg, excessive speed). In addition, the output image is manipulated by adjusting the bending amount of the camera path 410 according to the adjustment factor, so that an intermediate visual effect (for example, moderate speed feeling) that gives an impression of appropriate comfort and enjoyment can be viewed. Can be given to a person.

図9には、カメラアングルの例が示されている。制御部140は、出力画像のオプティカルフローに基づいて、カメラ300(図3を参照)のカメラアングル(カメラパスに対する回転角度)を制御する。図9(A)及び(B)には、比較のため、直線のカメラパス410を移動するカメラ300のカメラアングルの一例が、制御点411、制御点412及び制御点413について、矢印の向きにより示されている。   FIG. 9 shows an example of the camera angle. The control unit 140 controls the camera angle (rotation angle with respect to the camera path) of the camera 300 (see FIG. 3) based on the optical flow of the output image. 9A and 9B, for comparison, an example of the camera angle of the camera 300 moving on the straight camera path 410 is shown by the direction of the arrow at the control point 411, the control point 412, and the control point 413. It is shown.

図9(A)では、カメラ300のカメラアングルは、出力画像のオプティカルフローに応じて変更されていない。一方、図9(B)では、カメラ300のカメラアングルは、出力画像のオプティカルフローに応じて変更されている。具体的には、制御点411では、カメラ300が被写体210の近傍を通過しているので、カメラ300は、出力画像のオプティカルフローが大きい方向、すなわち、被写体210の方向に向けられている。また、制御点412では、カメラ300が被写体210を通過しているため、オプティカルフローの勾配が小さくなる。このため、カメラ300は、出力画像のオプティカルフローが大きい方向、すなわち、被写体210の方向と被写体200の方向との中間(カメラアングルの回転量が減少する方向)に向けられている。また、制御点413では、カメラ300が被写体200に接近しているため、オプティカルフローの勾配が充分に小さくなる。このため、カメラ300は、カメラアングルが変化せず、被写体200の方向に向けられている。   In FIG. 9A, the camera angle of the camera 300 is not changed according to the optical flow of the output image. On the other hand, in FIG. 9B, the camera angle of the camera 300 is changed according to the optical flow of the output image. Specifically, at the control point 411, since the camera 300 passes in the vicinity of the subject 210, the camera 300 is directed in the direction in which the optical flow of the output image is large, that is, the direction of the subject 210. At the control point 412, since the camera 300 passes through the subject 210, the gradient of the optical flow becomes small. For this reason, the camera 300 is directed in the direction in which the optical flow of the output image is large, that is, in the middle of the direction of the subject 210 and the direction of the subject 200 (the direction in which the amount of rotation of the camera angle decreases). At the control point 413, since the camera 300 is approaching the subject 200, the gradient of the optical flow becomes sufficiently small. Therefore, the camera 300 is directed toward the subject 200 without changing the camera angle.

これにより、鑑賞者の興味を引き易い領域、すなわち、出力画像のオプティカルフローが大きい領域、又は、被写体(オブジェクト)が存在する領域に、カメラ300のカメラアングルが定められるので、出力画像は、鑑賞者の興味を満足させることができる快適な視覚効果を、鑑賞者に与えることができる。あえて、オプティカルフローが小さくなる方向に、カメラ300のカメラアングルが定められた場合には、出力画像は、適度な快適性及び楽しさなどの印象とは逆の視覚効果(例えば、退屈感)を、鑑賞者に与えることができる。さらに、出力画像は、カメラ300のカメラアングルの回転量が調整係数により操作されることにより、適度な快適性及び楽しさなどの印象となる中間的な視覚効果(例えば、適度な速度感)を、鑑賞者に与えることができる。   As a result, the camera angle of the camera 300 is determined in a region where the viewer is likely to be interested, that is, a region where the optical flow of the output image is large, or a region where a subject (object) exists. The viewer can be provided with a comfortable visual effect that can satisfy the viewer's interest. If the camera angle of the camera 300 is determined in a direction in which the optical flow becomes smaller, the output image has a visual effect (for example, bored feeling) opposite to an impression such as moderate comfort and fun. Can be given to the viewer. Further, the output image has an intermediate visual effect (for example, a moderate sense of speed) that gives an impression of appropriate comfort and enjoyment as the amount of rotation of the camera angle of the camera 300 is manipulated by an adjustment coefficient. Can be given to the viewer.

図10には、被写体毎の興味度の分布例が示されている。入力画像としてのコンピュータグラフィックスを示す三次元空間データに含まれている各被写体(オブジェクト)には、予め定められた興味度を示す情報が、メタデータとして付加されている。ここで、興味度は、鑑賞者が被写体に対して興味を持つ度合いであり、例えば、三次元空間データを作成した作成者により予め定められる。   FIG. 10 shows an example of the distribution of the degree of interest for each subject. Information indicating a predetermined degree of interest is added as metadata to each subject (object) included in the three-dimensional space data indicating computer graphics as an input image. Here, the degree of interest is the degree to which the viewer is interested in the subject, and is determined in advance by, for example, the creator who created the three-dimensional space data.

例えば、被写体への興味度がその被写体の画像特徴量(例えば、輝度、色)に比例すると仮定して、被写体がその画像特徴量に応じてレンダリングされることにより、出力画像における画像特徴量の分布は、出力画像における興味度の分布となる。図10では、出力画像の左領域の中央に主に描かれている被写体200の輝度が高いため、被写体毎の興味度は、出力画像の左領域の中央で高くなっている。   For example, assuming that the degree of interest in a subject is proportional to the image feature amount (for example, luminance, color) of the subject, the subject is rendered according to the image feature amount, and thus the image feature amount in the output image The distribution is a distribution of interest in the output image. In FIG. 10, since the luminance of the subject 200 mainly drawn at the center of the left region of the output image is high, the degree of interest for each subject is high at the center of the left region of the output image.

図11には、カメラの位置に応じた興味度の変化例が示されている。横軸は、カメラ300の位置を示す。図11では、図9(A)に示した制御点411、制御点412、及び、制御点413が、カメラ300の位置として示されている。縦軸は、出力画像の所定領域における興味度の総和を示す。ここで、興味度については、一例として、右領域における興味度の総和と、左領域における興味度の総和とが示されている。なお、興味度は、出力画像の画素値として記憶されてもよい。   FIG. 11 shows an example of a change in the degree of interest according to the position of the camera. The horizontal axis indicates the position of the camera 300. In FIG. 11, the control point 411, the control point 412, and the control point 413 illustrated in FIG. 9A are illustrated as the positions of the camera 300. The vertical axis represents the sum of the degrees of interest in a predetermined area of the output image. Here, for the degree of interest, as an example, the sum of the degrees of interest in the right region and the sum of the degrees of interest in the left region are shown. Note that the degree of interest may be stored as a pixel value of the output image.

カメラ300のカメラアングルは、出力画像における所定領域毎の興味度の分布の差に応じて変更される。すなわち、カメラ300のカメラアングルは、鑑賞者が見たいと思う方向に、制御部140により定められる。なお、興味度の分布の差が算出される際、単位領域500毎に係数により重み付けがされてもよい。   The camera angle of the camera 300 is changed according to the difference in the interest distribution for each predetermined region in the output image. That is, the camera angle of the camera 300 is determined by the control unit 140 in the direction that the viewer wants to see. Note that, when the difference in the interest distribution is calculated, each unit region 500 may be weighted with a coefficient.

図9(A)に示した制御点411では、被写体200を向いているカメラ300が被写体210の近傍を通過しているので、図11に示す制御点411では、右領域における興味度の総和が、左領域における興味度の総和と比較して高くなっている。したがって、図9(B)に示すように、制御点411では、カメラ300は、興味度の総和が高い右方向に向けられる。   At the control point 411 shown in FIG. 9A, the camera 300 facing the subject 200 passes near the subject 210. Therefore, at the control point 411 shown in FIG. , It is higher than the sum of interest in the left area. Therefore, as shown in FIG. 9B, at the control point 411, the camera 300 is directed rightward where the sum of the degrees of interest is high.

また、図9(A)に示した制御点412では、カメラ300が被写体210を通過したので、図11に示す制御点412では、右領域における興味度の総和と、左領域における興味度の総和とが、ほぼ同じになっている。したがって、図9(B)に示すように、制御点412では、カメラ300は、カメラパス410とほぼ同じ方向に向けられている。制御点413についても同様である。   Further, since the camera 300 has passed the subject 210 at the control point 412 shown in FIG. 9A, at the control point 412 shown in FIG. 11, the sum of the interest degrees in the right region and the sum of the interest degrees in the left region. Is almost the same. Therefore, as shown in FIG. 9B, at the control point 412, the camera 300 is directed in substantially the same direction as the camera path 410. The same applies to the control point 413.

なお、出力画像の上領域及び下領域についても、制御部140は、出力画像の上領域における興味度の総和と、出力画像の下領域における興味度の総和との差に基づいて、鑑賞者が見たいと思う上方向又は下方向に、カメラ300を向けてもよい。これにより、鑑賞者の興味を引き易い領域、すなわち、出力画像における興味度の総和が大きい領域に、カメラ300のカメラアングルが定められるので、出力画像は、鑑賞者の興味を満足させることができる快適な視覚効果を、鑑賞者に与えることができる。あえて、左領域及び右領域、又は、上領域及び下領域の興味度の総和が小さくなる方向に、カメラ300のカメラアングルが定められた場合には、出力画像は、適度な快適性及び楽しさなどの印象とは逆の視覚効果(例えば、退屈感)を、鑑賞者に与えることができる。さらに、出力画像は、カメラ300のカメラアングルの回転量が調整係数により操作されることにより、適度な快適性及び楽しさなどの印象となる中間的な視覚効果(例えば、適度な速度感)を、鑑賞者に与えることができる。   For the upper and lower regions of the output image, the control unit 140 determines whether the viewer has a difference between the total interest level in the upper region of the output image and the total interest level in the lower region of the output image. You may point the camera 300 in the upward direction or the downward direction that you want to see. As a result, the camera angle of the camera 300 is determined in a region where the viewer's interest is easily attracted, that is, a region where the sum of the degrees of interest in the output image is large, so that the output image can satisfy the viewer's interest. A comfortable visual effect can be given to the viewer. If the camera angle of the camera 300 is determined in a direction in which the sum of the degrees of interest in the left region and the right region, or the upper region and the lower region is reduced, the output image has moderate comfort and enjoyment. It is possible to give the viewer a visual effect (for example, bored feeling) that is opposite to the impression. Further, the output image has an intermediate visual effect (for example, a moderate sense of speed) that gives an impression of appropriate comfort and enjoyment as the amount of rotation of the camera angle of the camera 300 is manipulated by an adjustment coefficient. Can be given to the viewer.

図12には、カメラパスの終点の例が示されている。制御部140は、鑑賞者が被写体200を鑑賞するのに適した位置としての終点410aを、ユーザが指定した目的位置700の手前に定める。ここで、制御部140は、目的位置700から終点410aまでの距離(観察距離)を、オプティカルフロー及び予め定められた閾値に基づいて定める。これにより、カメラ300(図3を参照)は、終点410aからの視点で、被写体200の大きさにかかわらず、被写体200を出力画像に捉えることができる。   FIG. 12 shows an example of the end point of the camera path. The control unit 140 determines an end point 410a as a position suitable for the viewer to view the subject 200 before the target position 700 designated by the user. Here, the control unit 140 determines the distance (observation distance) from the target position 700 to the end point 410a based on the optical flow and a predetermined threshold value. Accordingly, the camera 300 (see FIG. 3) can capture the subject 200 as an output image regardless of the size of the subject 200 from the viewpoint from the end point 410a.

図13には、オプティカルフローと閾値との関係例が示されている。図13には、出力画像のフレーム毎、すなわち、カメラパス410(図12を参照)上の位置毎に、出力画像のオプティカルフローが示されている。横軸は、出力画像のフレームを示す。縦軸は、出力画像のオプティカルフローを示す。ここで、オプティカルフローについては、右領域における総和と、左領域における総和と、上領域における総和と、下領域における総和とが示されている。   FIG. 13 shows an example of the relationship between the optical flow and the threshold value. FIG. 13 shows the optical flow of the output image for each frame of the output image, that is, for each position on the camera path 410 (see FIG. 12). The horizontal axis indicates the frame of the output image. The vertical axis represents the optical flow of the output image. Here, for the optical flow, the sum in the right region, the sum in the left region, the sum in the upper region, and the sum in the lower region are shown.

カメラパス410(図12を参照)を移動しているカメラ300(図3を参照)が被写体200に接近するほど、出力画像のオプティカルフローは、その絶対値が大きくなる。また、オプティカルフローの絶対値が大きすぎる場合、すなわち、カメラ300と被写体200とが接近しすぎている場合、鑑賞者が被写体200を鑑賞するのに適した位置を、カメラ300が越えていることになる。そこで、制御部140は、出力画像のオプティカルフローが、予め定められた閾値と等しくなる位置に、カメラパス410の終点410aを定める。図13では、出力画像の右領域におけるオプティカルフローが、閾値(破線で示されている)よりも一旦下がってから再び等しくなる位置に、カメラパス410の終点410aが定められている。   As the camera 300 (see FIG. 3) moving along the camera path 410 (see FIG. 12) approaches the subject 200, the absolute value of the optical flow of the output image increases. In addition, when the absolute value of the optical flow is too large, that is, when the camera 300 and the subject 200 are too close, the camera 300 exceeds a position suitable for the viewer to view the subject 200. become. Therefore, the control unit 140 determines the end point 410a of the camera path 410 at a position where the optical flow of the output image becomes equal to a predetermined threshold value. In FIG. 13, the end point 410a of the camera path 410 is determined at a position where the optical flow in the right region of the output image once falls below the threshold value (shown by a broken line) and becomes equal again.

図14には、終点でのカメラアングルの例が示されている。図14(A)では、被写体200に斜めから接近する軌跡に、カメラパス410が定められているため、カメラパス410の終点410aに在るカメラ300(図3を参照)から、カメラアングル414により見える被写体200は、カメラ300に対して正対していないため、出力画像において鑑賞に適さない構図となっている。   FIG. 14 shows an example of the camera angle at the end point. In FIG. 14A, since the camera path 410 is defined in a locus that approaches the subject 200 from an oblique direction, the camera angle 414 from the camera 300 (see FIG. 3) at the end point 410a of the camera path 410 is determined. Since the visible subject 200 does not face the camera 300, the composition is not suitable for viewing in the output image.

図14(B)では、制御部140は、カメラパス410の終点410aについて、出力画像の左領域におけるオプティカルフローと、出力画像の右領域におけるオプティカルフローとを比較し、より大きなオプティカルフローを生じている右領域の方向に、カメラ300を向けている。また、制御部140は、カメラパス410の終点410aの座標も修正する。ここで、制御部140は、例えば、被写体200に対してカメラパス410が平行となるように、カメラパス410の終点410aの座標を修正する。   In FIG. 14B, the control unit 140 compares the optical flow in the left region of the output image with the optical flow in the right region of the output image for the end point 410a of the camera path 410, and generates a larger optical flow. The camera 300 is directed toward the right region. The control unit 140 also corrects the coordinates of the end point 410a of the camera path 410. Here, the control unit 140 corrects the coordinates of the end point 410a of the camera path 410 so that the camera path 410 is parallel to the subject 200, for example.

次に、カメラワーク制御装置の動作手順例を説明する。
図15は、カメラパスの終点を定める動作手順の例を示すフローチャートである。
(ステップSa1)ユーザは、操作部130を操作(例えば、マウスによるクリック操作)することにより、カメラ300の移動先である目的位置700を出力画像上で指定したとする。制御部140は、操作入力に応じた信号に基づいて、スクリーン座標における目的位置700の座標(例えば、クリック操作された際のマウスポインタの座標)を取得する。
Next, an example of the operation procedure of the camera work control device will be described.
FIG. 15 is a flowchart illustrating an example of an operation procedure for determining the end point of the camera path.
(Step Sa1) It is assumed that the user designates the target position 700, which is the movement destination of the camera 300, on the output image by operating the operation unit 130 (for example, clicking with a mouse). The control unit 140 acquires the coordinates of the target position 700 in the screen coordinates (for example, the coordinates of the mouse pointer when the click operation is performed) based on the signal according to the operation input.

(ステップSa2)算出部110は、目的位置700のデプス値を算出し、算出したデプス値を、記憶部120に記憶させる。制御部140は、算出部110が算出したデプス値を、記憶部120から取得する。   (Step Sa2) The calculation unit 110 calculates the depth value of the target position 700 and causes the storage unit 120 to store the calculated depth value. The control unit 140 acquires the depth value calculated by the calculation unit 110 from the storage unit 120.

(ステップSa3)制御部140は、スクリーン座標における目的位置700の座標を、デプス値に基づいてビュー座標系における目的位置700の座標に変換する。
(ステップSa4)制御部140は、ビュー座標系に変換した目的位置700の座標を、ワールド座標系における目的位置700(ターゲット点)の座標に変換する。
(Step Sa3) The control unit 140 converts the coordinates of the target position 700 in the screen coordinates into the coordinates of the target position 700 in the view coordinate system based on the depth value.
(Step Sa4) The control unit 140 converts the coordinates of the target position 700 converted into the view coordinate system into the coordinates of the target position 700 (target point) in the world coordinate system.

(ステップSa5)制御部140は、カメラパスを移動するカメラ300の停止位置を定める。ここで、制御部140は、目的位置700に在る被写体とカメラ300との観察距離を、その被写体の大きさに応じて定める。例えば、制御部140は、予め定められた設定値C(終点基準フロー)をオプティカルフローが超えた際に、カメラ300が停止するよう、カメラパスの終点(ターゲット点)の座標を定める。オプティカルフローは、目的位置700に在る被写体が大きいほど、その被写体とカメラ300との接近に応じて増加が急となる。 (Step Sa5) The control unit 140 determines the stop position of the camera 300 that moves on the camera path. Here, the control unit 140 determines the observation distance between the subject at the target position 700 and the camera 300 according to the size of the subject. For example, the control unit 140 determines the coordinates of the end point (target point) of the camera path so that the camera 300 stops when the optical flow exceeds a predetermined setting value C 6 (end point reference flow). As the subject at the target position 700 increases, the optical flow increases more rapidly as the subject and the camera 300 approach each other.

(ステップSa6)制御部140は、カメラパスの終点でのカメラアングルを定める。ここで、制御部140は、カメラ300の現在の位置から、カメラパスの終点(ターゲット点)を望むカメラアングル(回転角度)を、カメラパスの終点でのカメラアングルの水平角YYEND及び垂直角PPENDと定める (Step Sa6) The control unit 140 determines the camera angle at the end point of the camera path. Here, the control unit 140 determines the camera angle (rotation angle) at which the end point (target point) of the camera path is desired from the current position of the camera 300, the horizontal angle YY END and the vertical angle of the camera angle at the end point of the camera path. Set as PP END

(ステップSa7)制御部140は、カメラ300のカメラアングルを補正する。ここで、制御部140は、終点の直前でのオプティカルフローの不均衡量FLR及びFTBと、調整係数C(終点角度制御量)とに基づいて、終点でのカメラアングルの補正量「ΔYYEND=FLR×C」及び「ΔPPEND=FTB×C」を算出する。 (Step Sa7) The control unit 140 corrects the camera angle of the camera 300. Here, based on the optical flow imbalance amounts F LR and F TB immediately before the end point and the adjustment coefficient C 7 (end point angle control amount), the control unit 140 corrects the camera angle correction amount at the end point “ “ΔYY END = F LR × C 7 ” and “ΔPP END = F TB × C 7 ” are calculated.

(ステップSa8)制御部140は、カメラ300の停止位置を補正する。ここで、制御部140は、補正後のカメラアングルで、カメラパスの終点(ターゲット点)を出力画像に捉える位置に、カメラ300の停止位置を補正する。   (Step Sa8) The control unit 140 corrects the stop position of the camera 300. Here, the control unit 140 corrects the stop position of the camera 300 to a position where the end point (target point) of the camera path is captured in the output image with the corrected camera angle.

図16は、直線のカメラパスを定める動作手順の例を示すフローチャートである。
(ステップSb1)制御部140は、カメラ300の総移動距離L(カメラ300の現在の位置から、終点(ターゲット点)までの距離)、すなわち、直線のカメラパスの長さを定める。
(ステップSb2)制御部140は、カメラ300の総移動距離Lを速度Vで除算することにより、カメラ300の総移動時間TTOTALを定める。ここで、制御部140は、総移動距離Lが所定閾値より短い又は長い場合、総移動時間TTOTALが極端な値とならないよう、例えば、総移動時間TTOTALを最短3秒〜最長20秒に調整してもよい。
FIG. 16 is a flowchart illustrating an example of an operation procedure for determining a straight camera path.
(Step Sb1) The control unit 140 determines the total movement distance L of the camera 300 (the distance from the current position of the camera 300 to the end point (target point)), that is, the length of the straight camera path.
(Step Sb2) The control unit 140 determines the total movement time T TOTAL of the camera 300 by dividing the total movement distance L of the camera 300 by the speed V. Here, when the total moving distance L is shorter or longer than the predetermined threshold, the control unit 140 prevents the total moving time T TOTAL from becoming an extreme value, for example, the total moving time T TOTAL is set to the shortest 3 seconds to the longest 20 seconds. You may adjust.

(ステップSb3)制御部140は、初期カメラパスとしての直線のカメラパスに配置する制御点の数Nを、総移動時間TTOTALに応じて定める。ここで、制御点の数Nが少ない場合、制御部140は、カメラパスを細かく制御することができない。一方、制御点の数Nが多い場合、カメラパスは、揺らぎの多い不安定なカメラパスとなってしまう。そこで、制御部140は、例えば、「N=TTOTAL/2+3」のように、少なくとも3個の制御点、且つ、総移動時間2秒毎に1個の制御点を、カメラパスに追加してもよい。 (Step Sb3) The control unit 140 determines the number N of control points to be arranged in the straight camera path as the initial camera path in accordance with the total movement time T TOTAL . Here, when the number N of control points is small, the control unit 140 cannot finely control the camera path. On the other hand, when the number N of control points is large, the camera path becomes an unstable camera path with many fluctuations. Therefore, the control unit 140 adds at least three control points and one control point to the camera path every 2 seconds, for example, “N = T TOTAL / 2 + 3”. Also good.

(ステップSb4)制御部140は、初期カメラパスとしての直線のカメラパスに、制御点を配置する。すなわち、制御部140は、カメラ300の現在の位置と、カメラパスの終点(ターゲット点)の座標とを直線補間するように、N個の制御点を生成する。   (Step Sb4) The control unit 140 arranges control points on a straight camera path as an initial camera path. That is, the control unit 140 generates N control points so as to linearly interpolate the current position of the camera 300 and the coordinates of the end point (target point) of the camera path.

図17は、オプティカルフローを算出する動作手順の例を示すフローチャートである。
(ステップSc1)算出部110は、X方向N個及びY方向N個に、出力画像を格子状に分割する(図6を参照)。以下、各単位領域をGXY(0≦X<N,0≦Y<N)と表記する。
(ステップSc2)算出部110は、カメラ300がカメラパスを前進することにより生じるオプティカルフローのX成分及びY成分を、全ての単位領域GXY(0≦X<N,0≦Y<N)について算出する。
FIG. 17 is a flowchart illustrating an example of an operation procedure for calculating an optical flow.
(Step Sc1) The calculation unit 110 divides the output image into a grid pattern in the X direction N X pieces and the Y direction N Y pieces (see FIG. 6). Hereinafter, each unit region is expressed as G XY (0 ≦ X <N X , 0 ≦ Y <N Y ).
(Step Sc2) The calculation unit 110 converts the X and Y components of the optical flow generated when the camera 300 advances the camera path into all unit regions G XY (0 ≦ X <N X , 0 ≦ Y <N Y ).

(ステップSc3)算出部110は、単位領域GXY(0≦X<N/2,0≦Y<N)におけるオプティカルフローのX成分(出力画像の左領域におけるオプティカルフローF)の総和を算出する。
(ステップSc4)算出部110は、単位領域GXY(N/2≦X<N,0≦Y<N)におけるオプティカルフローのX成分(出力画像の右領域におけるオプティカルフローF)の総和を算出する。
(Step Sc3) The calculating unit 110 calculates the sum of the X components of the optical flow (the optical flow F L in the left region of the output image) in the unit region G XY (0 ≦ X <N X / 2, 0 ≦ Y <N Y ). Is calculated.
(Step Sc4) The calculation unit 110 calculates the X component of the optical flow in the unit region G XY (N X / 2 ≦ X <N X , 0 ≦ Y <N Y ) (optical flow F R in the right region of the output image). Calculate the sum.

(ステップSc5)算出部110は、単位領域GXY(0≦X<N,0≦Y<N/2)におけるオプティカルフローのY成分(出力画像の下領域におけるオプティカルフローF)の総和を算出する。
(ステップSc6)算出部110は、単位領域GXY(0≦X<N,N/2≦Y<N)におけるオプティカルフローのY成分(出力画像の上領域におけるオプティカルフローF)の総和を算出する。
(Step Sc5) The calculating unit 110 calculates the sum of the Y components of the optical flow (optical flow F B in the lower region of the output image) in the unit region G XY (0 ≦ X <N X , 0 ≦ Y <N Y / 2). Is calculated.
(Step Sc6) The calculation unit 110 calculates the Y component of the optical flow in the unit region G XY (0 ≦ X <N X , N Y / 2 ≦ Y <N Y ) (optical flow F T in the upper region of the output image). Calculate the sum.

(ステップSc7)算出部110は、カメラパス上の制御点間を補間する補間位置MにおけるオプティカルフローF(M)、F(M)、F(M)、及び、F(M)を、記憶部120に記憶させる。 (Step Sc7) The calculation unit 110 performs optical flows F L (M), F R (M), F B (M), and F T (M) at the interpolation position M for interpolating between control points on the camera path. Is stored in the storage unit 120.

図18は、興味度の分布を算出する動作手順の例を示すフローチャートである。
(ステップSd1)算出部110は、X方向N個及びY方向N個に、出力画像を格子状に分割する(図6を参照)。以下、各単位領域をGXY(0≦X<N,0≦Y<N)と表記する。
FIG. 18 is a flowchart illustrating an example of an operation procedure for calculating the interest degree distribution.
(Step Sd1) The calculation unit 110 divides the output image into a grid pattern in the X direction N X pieces and the Y direction N Y pieces (see FIG. 6). Hereinafter, each unit region is expressed as G XY (0 ≦ X <N X , 0 ≦ Y <N Y ).

(ステップSd2)算出部110は、単位領域GXY(0≦X<N/2,0≦Y<N)における画素値(出力画像の左領域における興味度I)の総和を算出する。
(ステップSd3)算出部110は、単位領域GXY(N/2≦X<N,0≦Y<N)における画素値(出力画像の右領域における興味度I)の総和を算出する。
(Step Sd2) The calculation unit 110 calculates the total sum of the pixel values (the degree of interest I L in the left region of the output image) in the unit region G XY (0 ≦ X <N X / 2, 0 ≦ Y <N Y ). .
(Step Sd3) The calculation unit 110 calculates the total sum of the pixel values (degree of interest I R in the right region of the output image) in the unit region G XY (N X / 2 ≦ X <N X , 0 ≦ Y <N Y ). To do.

(ステップSd4)算出部110は、単位領域GXY(0≦X<N,0≦Y<N/2)における画素値(出力画像の下領域における興味度I)の総和を算出する。
(ステップSd5)算出部110は、単位領域GXY(0≦X<N,N/2≦Y<N)における画素値(出力画像の上領域における興味度I)の総和を算出する。
(Step Sd4) The calculation unit 110 calculates the sum of the pixel values (interesting degree I B in the lower region of the output image) in the unit region G XY (0 ≦ X <N X , 0 ≦ Y <N Y / 2). .
(Step Sd5) The calculation unit 110 calculates the sum of the pixel values (interest degree I T in the upper region of the output image) in the unit region G XY (0 ≦ X <N X , N Y / 2 ≦ Y <N Y ). To do.

(ステップSd6)算出部110は、カメラパス上の制御点間を補間する補間位置Mにおける興味度I(M)、I(M)、I(M)、及び、I(M)を、記憶部120に記憶させる。 (Step Sd6) The calculation unit 110 calculates the interest levels I L (M), I R (M), I B (M), and I T (M) at the interpolation position M for interpolating between control points on the camera path. Is stored in the storage unit 120.

図19は、カメラワークを制御する動作手順の例を示すフローチャートである。
(ステップS1)算出部110は、シーンデータを記憶部120から読み込む。
(ステップS2)算出部110は、カメラ300(図3を参照)の視点の位置及び向きの初期値を定める。
(ステップS3)算出部110は、シーンデータに基づいて、レンダリングを実行する。
FIG. 19 is a flowchart illustrating an example of an operation procedure for controlling camera work.
(Step S <b> 1) The calculation unit 110 reads scene data from the storage unit 120.
(Step S2) The calculation unit 110 determines initial values of the position and orientation of the viewpoint of the camera 300 (see FIG. 3).
(Step S3) The calculation unit 110 performs rendering based on the scene data.

(ステップS4)制御部140は、カメラ300が移動する終点を定める。ここで、制御部140は、例えば、操作部130を介してユーザが表示部150の画面をクリック操作することにより、その位置に表示されている被写体(オブジェクト)の座標を終点に定めてもよい。
(ステップS5)制御部140は、直線のカメラパス410(図7(A)を参照)を生成する。すなわち、制御部140は、カメラ300の現在の位置から終点までを結ぶ直線のカメラパス(初期カメラパス)の座標と、カメラアングルを算出するための補間曲線とを定める。ここで、制御部140は、制御点の数N(例えば、制御点P〜PN−1)と、速度Vでカメラパスを移動するカメラ300の総移動時間TTOTALと、カメラアングルとを定める。なお、カメラパス上の制御点間を補間する補間位置Sは、整数値0(カメラ300の現在の位置)から、整数値(N−1)(終点)の間の実数値で参照される。
(Step S4) The control unit 140 determines an end point where the camera 300 moves. Here, for example, when the user clicks on the screen of the display unit 150 via the operation unit 130, the control unit 140 may determine the coordinates of the subject (object) displayed at the position as the end point. .
(Step S5) The control unit 140 generates a straight camera path 410 (see FIG. 7A). That is, the control unit 140 determines the coordinates of a straight camera path (initial camera path) connecting the current position of the camera 300 to the end point, and the interpolation curve for calculating the camera angle. Here, the control unit 140 calculates the number N of control points (for example, control points P 0 to P N-1 ), the total movement time T TOTAL of the camera 300 that moves the camera path at the speed V, and the camera angle. Determine. The interpolation position S for interpolating between control points on the camera path is referred to by a real value between an integer value 0 (current position of the camera 300) and an integer value (N−1) (end point).

(ステップS6)制御部140は、カメラパス上の制御点間を補間する補間位置Sを示すインデックス値を、値0に初期化する。
(ステップS7)制御部140は、補間位置Sにカメラ300を移動させる。
(ステップS8)単位領域500に対応するRGB(赤・緑・青)画像及びデプス値(距離情報)を取得するため、算出部110は、オフ・スクリーン・レンダリング(非表示状態での試し描画)を縮小状態で実行する。このRGB画像の画素値は、コンピュータグラフィックスオブジェクト(例えば、被写体200)毎に付加情報として予め定められた興味度に応じた値となる。
(Step S6) The control unit 140 initializes an index value indicating the interpolation position S for interpolating between control points on the camera path to a value of 0.
(Step S <b> 7) The control unit 140 moves the camera 300 to the interpolation position S.
(Step S8) In order to obtain an RGB (red / green / blue) image and depth value (distance information) corresponding to the unit region 500, the calculation unit 110 performs off-screen rendering (trial drawing in a non-display state). Is executed in a reduced state. The pixel value of the RGB image is a value corresponding to the degree of interest predetermined as additional information for each computer graphics object (for example, the subject 200).

(ステップS9)算出部110は、オプティカルフローを算出し、算出したオプティカルフローを記憶部120に記憶させる。なお、算出部110は、算出したオプティカルフローを、記憶部120を介さずに、制御部140に直接出力してもよい。
(ステップS10)算出部110は、出力画像における興味度の分布を算出し、算出した興味度の分布を記憶部120に記憶させる。
(Step S <b> 9) The calculation unit 110 calculates an optical flow and causes the storage unit 120 to store the calculated optical flow. Note that the calculation unit 110 may directly output the calculated optical flow to the control unit 140 without using the storage unit 120.
(Step S <b> 10) The calculation unit 110 calculates the interest level distribution in the output image and causes the storage unit 120 to store the calculated interest level distribution.

(ステップS11)制御部140は、補間位置(S+ΔS)にカメラ300を移動させる。ここで、各制御点を含む区間における平均値を取得するため、制御部140は、制御点の中間点についても補間位置Sを算出する。制御点間をK個に分割する場合、「ΔS=1/K」である。   (Step S11) The controller 140 moves the camera 300 to the interpolation position (S + ΔS). Here, in order to acquire the average value in the section including each control point, the control unit 140 calculates the interpolation position S for the intermediate point of the control points. When the control points are divided into K pieces, “ΔS = 1 / K”.

(ステップS12)制御部140は、補間位置を示すインデックス値Sが、制御点の数Nから値1を減算した値未満であるか否かを判定する。補間位置を示すインデックス値Sが、制御点の数Nから値1を減算した値未満である場合(ステップS12:Yes)、制御部140は、ステップS7に処理を戻す。一方、補間位置を示すインデックス値Sが、制御点の数Nから値1を減算した値未満でない場合(ステップS12:No)、制御部140は、ステップS13に処理を進める。   (Step S12) The control unit 140 determines whether or not the index value S indicating the interpolation position is less than a value obtained by subtracting the value 1 from the number N of control points. When the index value S indicating the interpolation position is less than the value obtained by subtracting the value 1 from the number N of control points (step S12: Yes), the control unit 140 returns the process to step S7. On the other hand, when the index value S indicating the interpolation position is not less than the value obtained by subtracting the value 1 from the number N of control points (step S12: No), the control unit 140 advances the process to step S13.

(ステップS13)制御部140は、カメラパスに定められた制御点間を補間する補間位置を示すインデックス値Mを、値1に初期化する。これにより、以下のステップS14〜ステップ17では、制御部140は、初期位置における制御点Pについて、カメラパス(各制御点の座標値)及びカメラアングル(各制御点におけるカメラの回転角)を調整することがない。制御部140は、制御点Pと終点の制御点PN−1との間の各制御点について、カメラパス及びカメラアングルを調整することになる。 (Step S13) The control unit 140 initializes an index value M indicating an interpolation position for interpolating between control points determined in the camera path to a value of 1. Thus, in the following step S14~ step 17, the control unit 140, the control point P 0 in the initial position, the camera path (coordinate values of the control points) and camera angle (rotation angle of the camera at each control point) There is no adjustment. The control unit 140 adjusts the camera path and the camera angle for each control point between the control point P 0 and the end point control point P N−1 .

(ステップS14)制御部140は、制御点Pを含むカメラパスの前後に亘るK枚のフレーム(=補間位置(M±0.5)の範囲)について、出力画像の領域(図6を参照)毎のオプティカルフローの平均値の和を算出する。具体的には、制御部140は、出力画像の左領域におけるオプティカルフローFの平均値と、出力画像の右領域におけるオプティカルフローFの平均値との和を算出する。また、制御部140は、出力画像の上領域におけるオプティカルフローFの平均値と、出力画像の下領域におけるオプティカルフローFの平均値との和を算出する。 (Step S14) The control unit 140 outputs an output image area (see FIG. 6) for K frames (= interpolation position (M ± 0.5) range) before and after the camera path including the control point P M. ) Calculate the sum of the average values of the optical flows for each. Specifically, the control unit 140 calculates the average value of optical flow F L in the left area of the output image, the sum of the average value of optical flow F R in the right region of the output image. The control unit 140 calculates the average value of optical flow F T in the upper region of the output image, the sum of the average value of optical flow F B in the area below the output image.

このように、制御部140は、着目する制御点Pを含む前後に亘るK枚のフレーム(直前の制御点との中間点から、直後の制御点との中間点まで)について、オプティカルフローの平均値を用いた制御を実行する。 Thus, the control unit 140, the K frames over the front and rear, including a control point P M of the focused (from the middle point between the control point immediately before, to the intermediate point between the control point immediately after), the optical flow Control using the average value is executed.

出力画像の上領域及び下領域で画像の動きが対称である場合、オプティカルフロー(動きベクトル)は、その値の正負が上領域及び下領域で逆になるので、オプティカルフローの和が不均衡量となる。左領域及び右領域についても同様である。なお、初期値として定められたカメラパスについて算出されたオプティカルフローが、カメラ300(図3を参照)の視線方向以外の動き成分を含む場合、制御部140は、カメラ300の視線方向のみの動き成分を用いて、制御を実行する。   If the motion of the image is symmetric in the upper and lower regions of the output image, the optical flow (motion vector) has the opposite value in the upper and lower regions, so the sum of the optical flows is an unbalanced amount. It becomes. The same applies to the left region and the right region. When the optical flow calculated for the camera path determined as the initial value includes a motion component other than the viewing direction of the camera 300 (see FIG. 3), the control unit 140 moves only in the viewing direction of the camera 300. Control is executed using the components.

(ステップS15)制御部140は、制御点Pを含むカメラパスの前後に亘るK枚のフレーム(=補間位置(M±0.5)の範囲)について、出力画像の領域(図6を参照)毎の興味度の平均値の差を算出する。具体的には、制御部140は、出力画像の左領域における興味度Iの平均値と、出力画像の右領域における興味度Iの平均値との差(不均衡量)を算出する。また、制御部140は、出力画像の上領域における興味度Iの平均値と、出力画像の下領域における興味度Iの平均値との差(不均衡量)を算出する。 (Step S15) The control unit 140 references the K frames (= interpolation position (M range ± 0.5)) over the front and rear of the camera path, the region (Figure 6 of an output image including the control point P M ) Calculate the difference in the average value of the degree of interest for each. Specifically, the control unit 140 calculates the average value of the degree of interest I L in the left area of the output image, the difference between the average value of the degree of interest I R in the right area of the output image (imbalance). The control unit 140 calculates the average value of the degree of interest I T in the upper region of the output image, the difference between the average value of the degree of interest I B in the area below the output image (imbalance).

(ステップS16)制御部140は、カメラパスを調整するため、制御点Pの座標を調整し、調整した位置に制御点Pを移動させる。X方向(図3を参照)への水平移動量は、「(FXL+FXR)×C」である。また、Y方向(図3を参照)への垂直移動量は、「(FYT+FYB)×C」である。ここで、Cは、水平座標の制御量として定められた調整係数である。また、Cは、垂直座標の制御量として定められた調整係数である。 (Step S16) The control unit 140 to adjust the camera path to adjust the coordinates of the control points P M, moving the control point P M to adjust the position. The amount of horizontal movement in the X direction (see FIG. 3) is “(F XL + F XR ) × C 0 ”. Also, the vertical movement amount in the Y direction (see FIG. 3) is “(F YT + F YB ) × C 1 ”. Here, C 0 is an adjustment coefficient defined as a control amount of the horizontal coordinate. Also, C 1 is an adjustment factor defined as the control amount of the vertical coordinate.

(ステップS17)制御部140は、制御点Pでのカメラアングルを調整する。X方向(図3を参照)についての水平(ヨー)回転は、「ΔYY=(FXL+FXR)×C+(I―I)×C」である。また、Y方向(図3を参照)についての垂直(ピッチ)回転は、「ΔPP=(FYT+FYB)×C+(I―I)×C」である。ここで、Cは、水平角度の制御量として定められた調整係数である。また、Cは、垂直角度の制御量として定められた調整係数である。また、Cは、水平方向における興味度の制御量として定められた調整係数である。また、Cは、垂直方向における興味度の制御量として定められた調整係数である。 (Step S17) The control unit 140 adjusts the camera angle at the control point P M. The horizontal (yaw) rotation in the X direction (see FIG. 3) is “ΔYY M = (F XL + F XR ) × C 2 + (I L −I R ) × C 3 ”. The vertical (pitch) rotation about the Y direction (see FIG. 3) is a "ΔPP M = (F YT + F YB) × C 4 + (I T -I B) × C 5 ". Here, C 2 is the adjustment factor defined as the control amount of the horizontal angle. Moreover, C 4 is an adjustment factor defined as a control amount for the vertical angle. Also, C 3 are adjustment factor defined as the control amount of the interest degree in the horizontal direction. Furthermore, C 5 is a adjustment factor defined as the control amount of the interest degree in the vertical direction.

(ステップS18)制御部140は、カメラパスに定められた制御点間を補間する補間位置を示すインデックス値Mに、値1を加算する。
(ステップS19)制御部140は、制御部140は、カメラパスに定められた制御点間を補間する補間位置を示すインデックス値Mが、制御点の数Nから値2を減算した値未満であるか否かを判定する。これにより、ステップS14〜ステップ17では、制御部140は、終点の制御点PN−1について、カメラパス(各制御点の座標値)及びカメラアングル(各制御点におけるカメラの回転角)を調整することがない。制御部140は、制御点Pと終点の制御点PN−1との間の各制御点について、カメラパス及びカメラアングルを調整することになる。
(Step S18) The control unit 140 adds a value 1 to an index value M indicating an interpolation position for interpolating between control points determined in the camera path.
(Step S19) The control unit 140 determines that the control unit 140 has an index value M indicating an interpolation position for interpolating between control points determined in the camera path, less than a value obtained by subtracting the value 2 from the number N of control points. It is determined whether or not. Thereby, in Step S14 to Step 17, the control unit 140 adjusts the camera path (the coordinate value of each control point) and the camera angle (the rotation angle of the camera at each control point) for the end point control point P N-1. There is nothing to do. The control unit 140 adjusts the camera path and the camera angle for each control point between the control point P 0 and the end point control point P N−1 .

カメラパスに定められた制御点間を補間する補間位置を示すインデックス値Mが、制御点の数Nから値2を減算した値未満である場合(ステップS19:Yes)、制御部140は、ステップS14に処理を戻す。一方、カメラパスに定められた制御点間を補間する補間位置を示すインデックス値Mが、制御点の数Nから値2を減算した値未満でない場合(ステップS19:No)、制御部140は、ステップS20に処理を進める。   When the index value M indicating the interpolation position for interpolating between control points determined in the camera path is less than the value obtained by subtracting the value 2 from the number N of control points (step S19: Yes), the control unit 140 performs step The process returns to S14. On the other hand, when the index value M indicating the interpolation position for interpolating between the control points determined in the camera path is not less than the value obtained by subtracting the value 2 from the number N of control points (step S19: No), the control unit 140 The process proceeds to step S20.

(ステップS20)制御部140は、タイマー変数Tを、値0にリセットする。
(ステップS21)制御部140は、タイマー変数Tを用いて、計時を開始する。
(ステップS22)制御部140は、時刻Tにおけるカメラ300の位置及びカメラアングル(回転角度)を算出し、算出した位置及びカメラアングルに基づいて、出力画像を更新する。
(Step S20) The controller 140 resets the timer variable T to the value 0.
(Step S <b> 21) The control unit 140 starts measuring time using the timer variable T.
(Step S22) The control unit 140 calculates the position and camera angle (rotation angle) of the camera 300 at time T, and updates the output image based on the calculated position and camera angle.

(ステップS23)算出部110は、更新された出力画像に基づいて、レンダリングを実行する。
(ステップS24)制御部140は、タイマー変数Tに現在時刻を代入する。
(ステップS25)制御部140は、タイマー変数Tが、カメラ300の総移動時間TTOTAL未満であるか否かを判定する。タイマー変数Tが、カメラ300の総移動時間TTOTAL未満である場合(ステップS25:Yes)、制御部140は、ステップS22に処理を戻す。一方、タイマー変数Tが、カメラ300の総移動時間TTOTAL未満でない場合(ステップS25:No)、制御部140は、ステップS26に処理を進める。
(Step S23) The calculation unit 110 executes rendering based on the updated output image.
(Step S24) The controller 140 substitutes the current time for the timer variable T.
(Step S <b> 25) The control unit 140 determines whether the timer variable T is less than the total movement time T TOTAL of the camera 300. When the timer variable T is less than the total movement time T TOTAL of the camera 300 (step S25: Yes), the control unit 140 returns the process to step S22. On the other hand, when the timer variable T is not less than the total movement time T TOTAL of the camera 300 (step S25: No), the control unit 140 advances the process to step S26.

(ステップS26)制御部140は、操作を続行するか否かを、操作入力に応じた信号に基づいて判定する。操作を続行する場合(ステップS26:Yes)、制御部140は、ステップS4に処理を戻す。一方、操作を続行しない場合(ステップS26:No)、制御部140は、カメラワークを制御する処理を終了する。   (Step S26) The control unit 140 determines whether or not to continue the operation based on a signal corresponding to the operation input. When the operation is continued (step S26: Yes), the control unit 140 returns the process to step S4. On the other hand, when the operation is not continued (step S26: No), the control unit 140 ends the process of controlling the camera work.

以上のように、カメラワーク制御装置100は、入力画像に基づく出力画像に予め定められた単位領域500毎に(例えば、図6を参照)、当該出力画像の距離分布(距離分布とは逆数の関係にあるオプティカルフローについては、例えば、図5を参照)を算出する算出部110と、前記距離分布に応じて、動画像としての前記出力画像におけるカメラワークを制御する制御部140と、を備える。
また、カメラワーク制御プログラムは、コンピュータに、入力画像に基づく出力画像に予め定められた単位領域500毎に、当該出力画像の距離分布を算出する手順と、前記距離分布に応じて、動画像としての前記出力画像におけるカメラワークを制御する手順と、を実行させる。
As described above, the camera work control device 100 performs the distance distribution of the output image (for example, the reciprocal of the distance distribution) for each unit region 500 predetermined in the output image based on the input image (see, for example, FIG. 6). For the optical flow in the relationship, for example, a calculation unit 110 that calculates (see FIG. 5) and a control unit 140 that controls camerawork in the output image as a moving image according to the distance distribution. .
Further, the camera work control program causes the computer to generate a moving image according to a procedure for calculating the distance distribution of the output image for each unit region 500 predetermined in the output image based on the input image, and the distance distribution. And a procedure for controlling camera work in the output image.

この構成により、制御部140は、距離分布に応じて、動画像としての出力画像におけるカメラワークを制御する。これにより、カメラワーク制御装置100及びカメラワーク制御プログラムは、快適性及び楽しさなどの印象を鑑賞者に与える動画像を生成することができる。   With this configuration, the control unit 140 controls camera work in the output image as a moving image according to the distance distribution. Thereby, the camera work control apparatus 100 and the camera work control program can generate a moving image that gives the viewer an impression of comfort and enjoyment.

また、算出部110は、前記入力画像に関連付けられた距離情報に基づいて、前記距離分布(例えば、デプス画像)を算出する。
また、算出部110は、前記入力画像としてのコンピュータグラフィックスから算出された距離情報に基づいて、前記距離分布を算出する。
Further, the calculation unit 110 calculates the distance distribution (for example, a depth image) based on distance information associated with the input image.
The calculation unit 110 calculates the distance distribution based on distance information calculated from computer graphics as the input image.

また、制御部140は、前記カメラワークとして、カメラアングル(例えば、図9(B)を参照)を制御する。
また、制御部140は、前記距離分布に応じたオプティカルフローに基づいて、前記カメラワークを制御する。
また、制御部140は、前記オプティカルフロー(例えば、図5を参照)の勾配に基づいて、前記カメラワークを制御する。例えば、制御部140は、前記出力画像における左領域及び右領域の前記オプティカルフローの和が小さくなるように、前記カメラワークを制御してもよい。
また、算出部110は、前記入力画像に予め定められた被写体毎の興味度に応じて、前記出力画像における前記被写体毎の興味度の分布(例えば、図10を参照)を算出し、制御部140は、前記出力画像における前記被写体毎の興味度の分布に基づいて(例えば、図11を参照)、前記カメラワーク(例えば、カメラアングル)を制御する。
また、制御部140は、前記カメラワークとして、カメラパス(例えば、図8(A)を参照)を制御する。
Further, the control unit 140 controls a camera angle (see, for example, FIG. 9B) as the camera work.
The control unit 140 controls the camera work based on an optical flow corresponding to the distance distribution.
The control unit 140 controls the camera work based on the gradient of the optical flow (see, for example, FIG. 5). For example, the control unit 140 may control the camera work so that the sum of the optical flows of the left region and the right region in the output image becomes small.
In addition, the calculation unit 110 calculates a distribution of the degree of interest for each subject in the output image (see, for example, FIG. 10) according to the degree of interest for each subject determined in advance in the input image. 140 controls the camera work (for example, camera angle) based on the distribution of the degree of interest for each subject in the output image (for example, see FIG. 11).
Further, the control unit 140 controls a camera path (see, for example, FIG. 8A) as the camera work.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

例えば、入力画像が実写画像である場合、制御部140は、多視点から撮像された複数の実写画像に基づいて、カメラ300の無い視点から見た出力画像を生成してもよい。   For example, when the input image is a real image, the control unit 140 may generate an output image viewed from a viewpoint without the camera 300 based on a plurality of real images captured from multiple viewpoints.

また、例えば、制御部140は、鑑賞環境(例えば、画面サイズ)に応じて、カメラワークを変更してもよい。制御部140は、表示部150の画面サイズが小さい場合、視覚効果が強まるように、カメラワークを変更してもよい。また、制御部140は、表示部150の画面サイズが大きい場合、視覚効果が弱まるように、カメラワークを変更してもよい。また、制御部140は、鑑賞者の個人差(例えば、年齢)に応じて、カメラワークを変更してもよい。   For example, the control unit 140 may change the camera work according to the viewing environment (for example, the screen size). When the screen size of the display unit 150 is small, the control unit 140 may change the camera work so that the visual effect is enhanced. In addition, when the screen size of the display unit 150 is large, the control unit 140 may change the camera work so that the visual effect is weakened. Further, the control unit 140 may change the camera work according to the individual difference (for example, age) of the viewer.

また、上記に説明したカメラワーク制御装置を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、実行処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。   Further, an execution process is performed by recording a program for realizing the camera work control device described above on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium. May be performed. Here, the “computer system” may include an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access−memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” refers to a volatile memory (for example, DRAM (Dynamic) in a computer system serving as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Random Access-memory)) is also included that holds a program for a certain period of time.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above.
Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

100…カメラワーク制御装置、110…算出部、120…記憶部、130…操作部、140…制御部、150…表示部、200…被写体、210…被写体、300…カメラ、310…前方クリップ面、320…後方クリップ面、330…視錐台、400…カメラパス、410…カメラパス、410a…終点、411…制御点、412…制御点、413…制御点、414…カメラアングル、500…単位領域、700…目的位置 DESCRIPTION OF SYMBOLS 100 ... Camera work control apparatus, 110 ... Calculation part, 120 ... Memory | storage part, 130 ... Operation part, 140 ... Control part, 150 ... Display part, 200 ... Subject, 210 ... Subject, 300 ... Camera, 310 ... Front clip surface, 320 ... rear clip plane, 330 ... viewing frustum, 400 ... camera path, 410 ... camera path, 410a ... end point, 411 ... control point, 412 ... control point, 413 ... control point, 414 ... camera angle, 500 ... unit area 700 ... Destination position

Claims (9)

入力画像に基づく出力画像に予め定められた単位領域毎に、当該出力画像の距離分布を算出する算出部と、
前記距離分布に応じて、動画像としての前記出力画像におけるカメラワークを制御する制御部と、
を備えることを特徴とするカメラワーク制御装置。
A calculation unit that calculates a distance distribution of the output image for each unit region predetermined in the output image based on the input image;
A control unit that controls camera work in the output image as a moving image according to the distance distribution;
A camera work control device comprising:
前記算出部は、前記入力画像に関連付けられた距離情報に基づいて、前記距離分布を算出することを特徴とする請求項1に記載のカメラワーク制御装置。   The camerawork control apparatus according to claim 1, wherein the calculation unit calculates the distance distribution based on distance information associated with the input image. 前記算出部は、前記入力画像としてのコンピュータグラフィックスから算出された距離情報に基づいて、前記距離分布を算出することを特徴とする請求項2に記載のカメラワーク制御装置。   The camerawork control device according to claim 2, wherein the calculation unit calculates the distance distribution based on distance information calculated from computer graphics as the input image. 前記制御部は、前記カメラワークとして、カメラアングルを制御することを特徴とする請求項1から請求項3のいずれか一項に記載のカメラワーク制御装置。   The camera control apparatus according to claim 1, wherein the control unit controls a camera angle as the camera work. 前記制御部は、前記距離分布に応じたオプティカルフローに基づいて、前記カメラワークを制御することを特徴とする請求項1から請求項4のいずれか一項に記載のカメラワーク制御装置。   5. The camera work control apparatus according to claim 1, wherein the control unit controls the camera work based on an optical flow corresponding to the distance distribution. 6. 前記制御部は、前記オプティカルフローの勾配に基づいて、前記カメラワークを制御することを特徴とする請求項5に記載のカメラワーク制御装置。   The camera work control apparatus according to claim 5, wherein the control unit controls the camera work based on a gradient of the optical flow. 前記算出部は、前記入力画像に予め定められた被写体毎の興味度に応じて、前記出力画像における前記被写体毎の興味度の分布を算出し、
前記制御部は、前記出力画像における前記被写体毎の興味度の分布に基づいて、前記カメラワークを制御することを特徴とする請求項1から請求項6のいずれか一項に記載のカメラワーク制御装置。
The calculation unit calculates a distribution of the degree of interest for each subject in the output image according to the degree of interest for each subject predetermined for the input image,
The camera work control according to any one of claims 1 to 6, wherein the control unit controls the camera work based on a distribution of the degree of interest for each subject in the output image. apparatus.
前記制御部は、前記カメラワークとして、カメラパスを制御することを特徴とする請求項1から請求項7のいずれか一項に記載のカメラワーク制御装置。   The camera control apparatus according to claim 1, wherein the control unit controls a camera path as the camera work. コンピュータに、
入力画像に基づく出力画像に予め定められた単位領域毎に、当該出力画像の距離分布を算出する手順と、
前記距離分布に応じて、動画像としての前記出力画像におけるカメラワークを制御する手順と、
を実行させるためのカメラワーク制御プログラム。
On the computer,
A procedure for calculating a distance distribution of the output image for each unit region predetermined in the output image based on the input image;
A procedure for controlling camera work in the output image as a moving image according to the distance distribution;
Camera work control program for executing
JP2012227827A 2012-10-15 2012-10-15 Camera work control device and camera work control program Active JP5998829B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012227827A JP5998829B2 (en) 2012-10-15 2012-10-15 Camera work control device and camera work control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012227827A JP5998829B2 (en) 2012-10-15 2012-10-15 Camera work control device and camera work control program

Publications (2)

Publication Number Publication Date
JP2014081706A JP2014081706A (en) 2014-05-08
JP5998829B2 true JP5998829B2 (en) 2016-09-28

Family

ID=50785869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012227827A Active JP5998829B2 (en) 2012-10-15 2012-10-15 Camera work control device and camera work control program

Country Status (1)

Country Link
JP (1) JP5998829B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112292852A (en) * 2018-09-28 2021-01-29 英特尔公司 Automatic generation of camera paths

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07320092A (en) * 1994-05-30 1995-12-08 Hitachi Ltd Animation generation system

Also Published As

Publication number Publication date
JP2014081706A (en) 2014-05-08

Similar Documents

Publication Publication Date Title
CN105354820B (en) Adjust the method and device of virtual reality image
US20230093676A1 (en) Virtual reality system and method
JP4226639B1 (en) Image processing apparatus, image processing method, and program
JP5996814B1 (en) Method and program for providing image of virtual space to head mounted display
KR101623288B1 (en) Rendering system, rendering server, control method thereof, program, and recording medium
WO2012147363A1 (en) Image generation device
EP2105905A2 (en) Image generation apparatus
JP7030010B2 (en) Stereoscopic image depth compression device and stereoscopic image depth compression program
JP2011258160A (en) Program, information storage medium and image generation system
JPH10334275A (en) Method and system for virtual reality and storage medium
JP6310898B2 (en) Image processing apparatus, information processing apparatus, and image processing method
JP2006178900A (en) Stereoscopic image generating device
WO2018064287A1 (en) Predictive virtual reality display system with post rendering correction
JP2017021824A (en) Head-mounted display control method and head-mounted display control program
JP5998829B2 (en) Camera work control device and camera work control program
JP4749198B2 (en) Program, information storage medium, and image generation system
JP2023171298A (en) Adaptation of space and content for augmented reality and composite reality
CN108986228B (en) Method and device for displaying interface in virtual reality
KR101177793B1 (en) Stereoscopic virtual experience apparatus and method
WO2020036114A1 (en) Image processing device, image processing method, and program
KR102192153B1 (en) Method and program for providing virtual reality image
JP6503098B1 (en) Image processing apparatus, image processing program and image processing method
JP5174522B2 (en) Image display device, control method and program for image display device
CN113476835B (en) Picture display method and device
JP3867071B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160815

R150 Certificate of patent or registration of utility model

Ref document number: 5998829

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250