JP2019121238A - Program, image processing method, and image processing device - Google Patents

Program, image processing method, and image processing device Download PDF

Info

Publication number
JP2019121238A
JP2019121238A JP2018001357A JP2018001357A JP2019121238A JP 2019121238 A JP2019121238 A JP 2019121238A JP 2018001357 A JP2018001357 A JP 2018001357A JP 2018001357 A JP2018001357 A JP 2018001357A JP 2019121238 A JP2019121238 A JP 2019121238A
Authority
JP
Japan
Prior art keywords
horizontal plane
shadow
virtual
dimensional space
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018001357A
Other languages
Japanese (ja)
Inventor
翔太郎 出口
Shotaro Deguchi
翔太郎 出口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koei Tecmo Holdings Co Ltd
Original Assignee
Koei Tecmo Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koei Tecmo Holdings Co Ltd filed Critical Koei Tecmo Holdings Co Ltd
Priority to JP2018001357A priority Critical patent/JP2019121238A/en
Publication of JP2019121238A publication Critical patent/JP2019121238A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

To display a shade of an object at a faster speed.SOLUTION: There is provided a program causing an image processing device to perform the steps of: acquiring height information associated with each position on a horizontal plane of a virtual three-dimensional space; calculating a shade range on the horizontal plane on the basis of the height information and an incident direction of light beams with respect to the horizontal plane; and shading the region included in the shade range in a surface of an object on the virtual three-dimensional space and displaying the shaded region.SELECTED DRAWING: Figure 3

Description

本発明は、プログラム、画像処理方法、及び画像処理装置に関する。   The present invention relates to a program, an image processing method, and an image processing apparatus.

従来、コンピュータゲームやシミュレーション等において、3次元コンピュータグラフィックスにより、仮想3次元空間上のオブジェクトに、太陽等の光源に対する影を付けて表示する技術が知られている。   2. Description of the Related Art Conventionally, in computer games, simulations, etc., there is known a technique of displaying an object in a virtual three-dimensional space with a shadow on a light source such as the sun by three-dimensional computer graphics.

この技術において、例えば、各オブジェクトの3次元のモデルのデータを用い、ある画素の位置から、各オブジェクトの3次元のモデルに妨げられ、光源を見ることができなければ、当該画素の位置を影と判定する技術が知られている(例えば、特許文献1乃至2を参照)。   In this technique, for example, using data of a three-dimensional model of each object, if the three-dimensional model of each object is obstructed from the position of a pixel and the light source can not be seen, the position of the pixel is shaded. There is known a technique for determining that (see, for example, Patent Documents 1 and 2).

特許第4995054号公報Patent No. 4995054 特許第4513423号公報Patent No. 4513423

しかしながら、従来技術には、表示するオブジェクトの数が比較的多い等の場合、各画素が影であるか否かを判定する処理に時間がかかるという問題がある。   However, in the prior art, when the number of objects to be displayed is relatively large or the like, there is a problem that it takes time to determine whether each pixel is a shadow.

そこで、一側面では、オブジェクトの影の表示をより高速に行える技術を提供することを目的とする。   Therefore, an object of the present invention is to provide a technology capable of displaying the shadow of an object at higher speed.

一つの案では、画像処理装置に、仮想3次元空間の水平面上の各位置に対応付けられた高さの情報を取得するステップと、前記高さの情報と、前記水平面に対する光線の入射方向とに基づいて、前記水平面における影の範囲を算出するステップと、前記仮想3次元空間上のオブジェクトの表面のうち、前記影の範囲に含まれる領域に影を付して画面に表示するステップと、を実行させるプログラムが提供される。   In one scheme, the image processing apparatus obtains information of heights corresponding to each position on the horizontal plane of the virtual three-dimensional space, the information on the heights, and the incident direction of the light beam to the horizontal plane. Calculating the range of the shadow in the horizontal plane, and applying a shadow to an area included in the range of the shadow on the surface of the object in the virtual three-dimensional space; A program is provided to execute the program.

一側面によれば、オブジェクトの影の表示をより高速に行うことができる。   According to one aspect, the shadow of an object can be displayed faster.

実施形態に係る画像処理装置のハードウェア構成例を示す図である。It is a figure showing the example of hardware constitutions of the image processing device concerning an embodiment. 実施形態に係る画像処理装置の機能ブロック図である。It is a functional block diagram of an image processing device concerning an embodiment. 実施形態に係る画像処理装置の処理の一例を示すフローチャートである。It is a flow chart which shows an example of processing of an image processing device concerning an embodiment. 実施形態に係る高さマップの一例を示す図である。It is a figure showing an example of the height map concerning an embodiment. 実施形態に係る影の範囲の算出方法の一例について説明する図である。It is a figure explaining an example of the calculation method of the range of the shadow concerning an embodiment. 実施形態に係る影の範囲の算出結果の一例について説明する図である。It is a figure explaining an example of the calculation result of the range of the shadow concerning an embodiment. 実施形態に係る影の表示の一例について説明する図である。It is a figure explaining an example of a display of a shadow concerning an embodiment.

以下、図面に基づいて本発明の実施形態を説明する。   Hereinafter, an embodiment of the present invention will be described based on the drawings.

<ハードウェア構成>
図1は、実施形態に係る画像処理装置10のハードウェア構成例を示す図である。図1に示す画像処理装置10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、インタフェース装置105、表示装置106、及び入力装置107等を有する。
<Hardware configuration>
FIG. 1 is a diagram illustrating an example of a hardware configuration of an image processing apparatus 10 according to an embodiment. The image processing apparatus 10 shown in FIG. 1 has a drive unit 100, an auxiliary storage unit 102, a memory unit 103, a CPU 104, an interface unit 105, a display unit 106, an input unit 107, etc. .

画像処理装置10での処理を実現するゲームプログラムは、記録媒体101によって提供される。ゲームプログラムを記録した記録媒体101がドライブ装置100にセットされると、ゲームプログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、ゲームプログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたゲームプログラムを格納すると共に、必要なファイルやデータ等を格納する。   A game program for realizing the processing in the image processing apparatus 10 is provided by the recording medium 101. When the recording medium 101 having the game program recorded thereon is set in the drive unit 100, the game program is installed from the recording medium 101 into the auxiliary storage unit 102 via the drive unit 100. However, the installation of the game program does not necessarily have to be performed from the recording medium 101, and may be downloaded from another computer via a network. The auxiliary storage device 102 stores the installed game program and also stores necessary files and data.

メモリ装置103は、例えば、DRAM(Dynamic Random Access Memory)、またはSRAM(Static Random Access Memory)等のメモリであり、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従って画像処理装置10に係る機能を実現する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。表示装置106はプログラムによるGUI(Graphical User Interface)等を表示する。入力装置107は、コントローラ等、キーボード及びマウス等、またはタッチパネル及びボタン等で構成され、様々な操作指示を入力させるために用いられる。   The memory device 103 is, for example, a memory such as a dynamic random access memory (DRAM) or a static random access memory (SRAM). . The CPU 104 implements functions related to the image processing apparatus 10 in accordance with a program stored in the memory device 103. The interface device 105 is used as an interface for connecting to a network. The display device 106 displays a graphical user interface (GUI) according to a program. The input device 107 includes a controller, a keyboard and a mouse, or a touch panel and a button, and is used to input various operation instructions.

なお、記録媒体101の一例としては、CD−ROM、DVDディスク、ブルーレイディスク、又はUSBメモリ等の可搬型の記録媒体が挙げられる。また、補助記憶装置102の一例としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又はフラッシュメモリ等が挙げられる。記録媒体101及び補助記憶装置102のいずれについても、コンピュータ読み取り可能な記録媒体に相当する。   In addition, as an example of the recording medium 101, a portable recording medium such as a CD-ROM, a DVD disc, a Blu-ray disc, or a USB memory may be mentioned. In addition, examples of the auxiliary storage device 102 include a hard disk drive (HDD), a solid state drive (SSD), a flash memory, and the like. The recording medium 101 and the auxiliary storage device 102 both correspond to computer readable recording media.

<機能構成>
次に、図2を参照し、画像処理装置10の機能構成について説明する。図2は、実施形態に係る画像処理装置10の機能ブロック図である。
<Functional configuration>
Next, the functional configuration of the image processing apparatus 10 will be described with reference to FIG. FIG. 2 is a functional block diagram of the image processing apparatus 10 according to the embodiment.

画像処理装置10は、記憶部11を有する。記憶部11は、例えば、補助記憶装置102等を用いて実現される。記憶部11は、3次元データ111、及び高さマップ112等を記憶する。3次元データ111は、各オブジェクトの3次元モデル(3Dモデル)等のデータであり、ポリゴンの集合等により表される3次元モデルのデータ、及びテクスチャ画像のデータ等を含むデータである。高さマップ112は、仮想3次元空間の水平面上の各位置に対応付けられた高さのデータである。   The image processing apparatus 10 has a storage unit 11. The storage unit 11 is realized using, for example, the auxiliary storage device 102 or the like. The storage unit 11 stores three-dimensional data 111, a height map 112, and the like. The three-dimensional data 111 is data such as a three-dimensional model (3D model) of each object, and is data including data of a three-dimensional model represented by a set of polygons and the like, data of texture images, and the like. The height map 112 is data of height corresponding to each position on the horizontal plane of the virtual three-dimensional space.

また、画像処理装置10は、取得部12、制御部13、及び表示制御部14を有する。これら各部は、画像処理装置10にインストールされた1以上のプログラムが、画像処理装置10のCPU104に実行させる処理により実現される。   The image processing apparatus 10 further includes an acquisition unit 12, a control unit 13, and a display control unit 14. These units are realized by processing that one or more programs installed in the image processing apparatus 10 cause the CPU 104 of the image processing apparatus 10 to execute.

取得部12は、3次元データ111、及び高さマップ112等のデータを記憶部11から取得する。   The acquisition unit 12 acquires data such as the three-dimensional data 111 and the height map 112 from the storage unit 11.

制御部13は、ゲームの進行等を制御する。また、制御部13は、ゲームにおける現在日時(「仮想3次元空間における仮想的な時刻」)に基づき、仮想3次元空間上の水平面に対する太陽による平行光線の入射方向(以下で、単に「太陽の入射方向」とも称する。)を算出する。また、制御部13は、高さマップ112と、太陽の入射方向とに基づいて、当該水平面における影の範囲を算出する。   The control unit 13 controls the progress of the game and the like. In addition, the control unit 13 determines the direction of incidence of parallel rays by the sun with respect to the horizontal plane in the virtual three-dimensional space (hereinafter simply referred to as “the sun's direction” based on the current date and time in the game (“virtual Also referred to as “incident direction”. The control unit 13 also calculates the range of the shadow in the horizontal plane based on the height map 112 and the incident direction of the sun.

表示制御部14は、制御部13からの指示に従い、仮想3次元空間上のオブジェクトの表面のうち、算出した影の範囲に含まれる領域に影を付して、画面に表示する。
ゲームにおける画像を画面に表示させる。
According to the instruction from the control unit 13, the display control unit 14 applies shadows to the area included in the calculated shadow range on the surface of the object in the virtual three-dimensional space, and displays the area on the screen.
Display the image in the game on the screen.

<処理>
次に、図3乃至図7を参照して、画像処理装置10の処理について説明する。図3は、実施形態に係る画像処理装置10の処理の一例を示すフローチャートである。図4は、実施形態に係る高さマップ112の一例を示す図である。図5は、実施形態に係る影の範囲の算出方法の一例について説明する図である。図6は、実施形態に係る影の範囲の算出結果の一例について説明する図である。図7は、実施形態に係る影の表示の一例について説明する図である。
<Processing>
Next, processing of the image processing apparatus 10 will be described with reference to FIGS. 3 to 7. FIG. 3 is a flowchart showing an example of processing of the image processing apparatus 10 according to the embodiment. FIG. 4 is a view showing an example of the height map 112 according to the embodiment. FIG. 5 is a diagram for explaining an example of a method of calculating a shadow range according to the embodiment. FIG. 6 is a view for explaining an example of the calculation result of the range of the shadow according to the embodiment. FIG. 7 is a diagram for explaining an example of shadow display according to the embodiment.

以下では、オープンワールド(サンドボックス、フリーローミング)のゲームを例として説明する。オープンワールドのゲームでは、ユーザにより操作されるプレイヤーキャラクターの移動に応じて、プレイヤーキャラクターの周辺の地形、建造物、草木等の3次元データ等を読み込んで表示する。これにより、ユーザは、プレイヤーキャラクターを、比較的広大な仮想3次元空間上の世界において、マップの切り替え等がなされずにシームレスに動き回ることができる。また、オープンワールドのゲームでは、ゲーム内の現在時刻に応じて、太陽の位置が変わる。すなわち、ゲーム内の現在時刻が日の出の時刻になると太陽が昇り、正午になると太陽が一日のうち最も高い位置となり、日の入りの時刻になると太陽が沈む。また、オープンワールドのゲームでは、時刻に応じて天候も変化する。   In the following, an open world (sandbox, free roaming) game will be described as an example. In the open world game, according to the movement of the player character operated by the user, three-dimensional data of terrain, buildings, plants and the like around the player character are read and displayed. As a result, the user can move the player character around the world in a relatively large virtual three-dimensional space seamlessly without switching maps or the like. In the open world game, the position of the sun changes according to the current time in the game. That is, when the current time in the game is sunrise time, the sun rises, and at noon, the sun is at the highest position of the day, and when the sunset time comes, the sun sinks. In the open world game, the weather also changes according to the time.

ステップS1において、制御部13は、ユーザの操作等によりゲームが起動されると、3次元データ111、及び高さマップ112等を含むゲームのデータを読み込む。ここで、3次元データ111には、例えば、地形、建造物、草木、及びキャラクター等の、仮想3次元空間上の各オブジェクトの3次元モデル等のデータが含まれる。また、高さマップ112には、仮想3次元空間の水平面上の各位置に対応付けられた高さのデータが含まれる。   In step S1, when the game is started by the user's operation or the like, the control unit 13 reads game data including the three-dimensional data 111, the height map 112, and the like. Here, the three-dimensional data 111 includes, for example, data of a three-dimensional model of each object in a virtual three-dimensional space, such as terrain, buildings, plants, and characters. Further, the height map 112 includes data of heights associated with each position on the horizontal plane of the virtual three-dimensional space.

続いて、制御部13は、ゲームにおける現在日時(「仮想3次元空間における仮想的な時刻」)に基づき、太陽の入射方向を算出する(ステップS2)。   Subsequently, the control unit 13 calculates the incident direction of the sun based on the current date and time ("virtual time in virtual three-dimensional space") in the game (step S2).

続いて、制御部13は、算出した太陽の入射方向と、高さマップ112とに基づき、仮想3次元空間上における各オブジェクトの影の範囲を算出する(ステップS3)。   Subsequently, the control unit 13 calculates the range of the shadow of each object on the virtual three-dimensional space based on the calculated incident direction of the sun and the height map 112 (step S3).

図4に示す高さマップ112の例では、仮想3次元空間上の丘のオブジェクトに対するデータが設定されている。図4に示す高さマップ112には、仮想3次元空間における水平面をx軸、及びy軸で表した各座標(x,y)に対してそれぞれ一の高さの値が設定されている。図4の例では、各座標における色が濃い程、高さが高いことを示している。高さマップ112は、例えば、地形を表す山、及び丘等、オブジェクトの最も高い位置から水平面の位置までに空間がないオブジェクトに対する影を算出するために用いられる。   In the example of the height map 112 shown in FIG. 4, data for the hill object on the virtual three-dimensional space is set. In the height map 112 shown in FIG. 4, the value of one height is set for each coordinate (x, y) representing the horizontal plane in the virtual three-dimensional space by the x-axis and the y-axis. In the example of FIG. 4, the darker the color at each coordinate, the higher the height. The height map 112 is used, for example, to calculate a shadow for an object having no space from the highest position of the object to the position of the horizontal surface, such as a mountain representing a terrain and a hill.

なお、制御部13は、キャラクター、建造物、及び草木等の、オブジェクトの最も高い位置から水平面の位置までに空間があるオブジェクトに対しては、公知の方法により影を算出してもよい。この場合、制御部13は、例えば、仮想3次元空間上の複数のオブジェクトのうち、高さマップ112が設定されているオブジェクトについては、高さマップ112と、太陽の入射方向とに基づいて、影の範囲を算出する。   The control unit 13 may calculate the shadow by a known method for an object having a space from the highest position of the object to the horizontal position, such as a character, a building, and a plant. In this case, for example, among the plurality of objects in the virtual three-dimensional space, the control unit 13 sets an object for which the height map 112 is set, based on the height map 112 and the incident direction of the sun. Calculate the shadow range.

そして、制御部13は、例えば、仮想3次元空間上の複数のオブジェクトのうち、高さマップ112が設定されていないオブジェクトについては、3次元データ111に含まれる当該オブジェクトの3次元モデルのデータと、太陽の入射方向とに基づいて、影の範囲を算出する。なお、3次元モデルのデータと、太陽の入射方向とに基づいて、影の範囲を算出する処理は、公知の手法を用いて実行されてもよい。例えば、制御部13は、レイキャスティング法(ray-casting)のシャドーイング(shadowing)の手法を用い、オブジェクトの表面の一の画素の位置から太陽の入射方向に延びる直線が、他のオブジェクトと交差する場合は、当該一の画素は影の範囲内であると判定する。   Then, for example, among the plurality of objects in the virtual three-dimensional space, the control unit 13 sets the data of the three-dimensional model of the object included in the three-dimensional data 111 for an object for which the height map 112 is not set. , The range of the shadow is calculated based on the direction of incidence of the sun. The process of calculating the range of the shadow based on the data of the three-dimensional model and the incident direction of the sun may be performed using a known method. For example, the control unit 13 uses a ray-casting shadowing method, and a straight line extending from the position of one pixel on the surface of the object to the direction of the sun's incidence intersects with another object If so, it is determined that the one pixel is within the shadow range.

図5では、太陽の入射方向を横方向(水平方向)とした鉛直面が示されている。制御部13は、高さマップ112に設定された水平面上の各位置の座標について、以下の処理を行う。以下では、当該各位置に含まれる一の位置501を例として説明する。   In FIG. 5, a vertical plane is shown in which the incident direction of the sun is in the lateral direction (horizontal direction). The control unit 13 performs the following process on the coordinates of each position on the horizontal surface set in the height map 112. In the following, one position 501 included in each position is described as an example.

制御部13は、図5に示すように、図4及び図5における位置501に対する高さの位置502を通り、太陽の入射方向500に平行な直線503を算出する。ここで、図5に示すように、仮想3次元空間上の水平面に対する直線503の入射角θは、太陽の入射方向500の入射角θと等しい。   As shown in FIG. 5, the control unit 13 calculates a straight line 503 which is parallel to the incident direction 500 of the sun, passing through the position 502 at a height relative to the position 501 in FIGS. 4 and 5. Here, as shown in FIG. 5, the incident angle θ of the straight line 503 with respect to the horizontal plane in the virtual three-dimensional space is equal to the incident angle θ of the incident direction 500 of the sun.

そして、制御部13は、図6に示すように、仮想3次元空間における水平面をx軸、及びy軸で表した各座標(x,y)に対して、直線503が水平面と交わる位置504から位置501を結ぶ直線505上の座標を影の範囲に含まれる座標とする。   Then, as shown in FIG. 6, the control unit 13 starts from the position 504 where the straight line 503 intersects the horizontal plane with respect to each coordinate (x, y) representing the horizontal plane in the virtual three-dimensional space by the x axis and the y axis. Coordinates on a straight line 505 connecting the position 501 are coordinates included in the range of the shadow.

制御部13は、高さマップ112に設定された水平面上の各位置の座標について、これらの処理を行うことにより、オブジェクトに対する影の範囲を決定する。なお、制御部13は、例えば、近傍比率フィルタリング(PCF、Percentage-Closer Filtering)等の方法を用いて、各座標における影の濃さを、当該各座標の周囲の座標における影の濃さに応じて調整してもよい。これにより、高さマップ112の水平方向、及び垂直方向の解像度が比較的低く設定されている場合でも、違和感が比較的低い自然な影を表現することができる。   The control unit 13 performs the above processing on the coordinates of each position on the horizontal surface set in the height map 112 to determine the range of the shadow with respect to the object. In addition, the control unit 13 uses, for example, a method such as proximity ratio filtering (PCF, Percentage-Closer Filtering), etc., according to the darkness of the shadow at each coordinate according to the darkness of the shadow at the coordinates around the respective coordinates. May be adjusted. As a result, even when the horizontal and vertical resolutions of the height map 112 are set to be relatively low, it is possible to express natural shadows with relatively low discomfort.

続いて、制御部13は、3次元コンピュータグラフィックスにより、仮想3次元空間上の各オブジェクトと、各オブジェクトの影を表示制御部14により画面に表示させる(ステップS4)。ここで、制御部13は、図7に示すように、高さマップ112が設定されたオブジェクトの表面のうち、仮想3次元空間上の水平面における影の範囲に含まれる領域に影を付して画面に表示する。図7の例では、山のオブジェクト701に対して、影702が付されて表示されている。ここで、制御部13は、図4に示す高さマップ112の例では、丘のオブジェクトの表面のうち影の範囲に対して、例えば、テクスチャ画像の輝度等を低下させてテクスチャマッピングを行うようしてもよい。   Subsequently, the control unit 13 causes the display control unit 14 to display each object in the virtual three-dimensional space and the shadow of each object on the screen by three-dimensional computer graphics (step S4). Here, as shown in FIG. 7, the control unit 13 adds a shadow to an area included in the range of the shadow in the horizontal plane on the virtual three-dimensional space in the surface of the object for which the height map 112 is set. Display on the screen. In the example of FIG. 7, a shadow 702 is added to the mountain object 701 and displayed. Here, in the example of the height map 112 shown in FIG. 4, the control unit 13 performs texture mapping, for example, by reducing the luminance of the texture image or the like to the range of the shadow on the surface of the hill object. You may

続いて、制御部13は、ユーザの操作等により、ゲームを終了するか否かを判定する(ステップS5)。ゲームを終了しない場合(ステップS5でNO)、ステップS2の処理に進む。これにより、仮想3次元空間における仮想的な時刻の経過に応じて、オブジェクトの影がリアルタイムで算出され、算出された影が表示される。   Subsequently, the control unit 13 determines whether or not the game is ended by the user's operation or the like (step S5). If the game is not ended (NO in step S5), the process proceeds to step S2. Thus, the shadow of the object is calculated in real time and the calculated shadow is displayed according to the passage of virtual time in the virtual three-dimensional space.

ゲームを終了する場合(ステップS5でYES)、処理を終了する。   When the game is ended (YES in step S5), the process is ended.

<効果>
プレイヤーキャラクターが広大な仮想3次元空間上の世界を自由に移動できるオープンワールドのゲームでは、高い位置から一帯の風景を眺める場合等において、スケールの大きな映像表現が可能である。この場合、周辺の建物や木等のオブジェクトのみならず、遠くに位置するオブジェクトもできる限り表示することが臨場感の点で好ましい。また、この仮想3次元空間は、山、及び丘等で、起伏に富んでいることが好ましい場合がある。
<Effect>
In an open world game in which player characters can freely move the world in a vast virtual three-dimensional space, it is possible to express a large-scale image, for example, when looking at a landscape from a high position. In this case, it is preferable from the point of reality to display not only objects such as surrounding buildings and trees but also objects located far away as much as possible. Moreover, it may be preferable that the virtual three-dimensional space is rich in undulations, such as mountains and hills.

そのため、オープンワールドのゲームでは、個々の空間の端に到達したら別の空間に切り替えるようなオープンワールドではないゲームと比較して、メモリに読み込んでおくべきオブジェクト等のデータ量や、オブジェクトの表示等のための処理の負荷が大きい。   Therefore, in an open world game, the amount of data such as objects to be read in memory, display of objects, etc., as compared to a game that is not an open world, such as switching to another space when reaching an edge of each space Processing load for is heavy.

また、オープンワールドのゲームでは、仮想3次元空間における仮想的な時刻に応じて、太陽の位置が変化するため、予め影の範囲を算出して記憶しておくことはメモリの使用量等の観点から困難である。   Also, in an open world game, the position of the sun changes according to the virtual time in the virtual three-dimensional space, so calculating and storing the range of shadows in advance is an aspect such as the amount of memory usage etc. It is difficult from

ゲーム装置のハードウェアの性能により、メモリサイズやCPU等の演算速度には上限がある。そのため、レイキャスティング法等を用いる従来技術では、例えば、オープンワールドのゲーム等、表示するオブジェクトの数が多いこと等により、リアルタイムで各オブジェクトの影を算出する処理の負荷が比較的高い場合、表示させるオブジェクトの数を減らす等の対応が必要になる。   There is an upper limit to the operation speed of the memory size, CPU, etc. due to the performance of the hardware of the game device. Therefore, in the prior art using the ray casting method etc., for example, when the processing load for calculating the shadow of each object in real time is relatively high due to the large number of objects to be displayed, such as an open world game, display It is necessary to take measures such as reducing the number of objects to be sent.

一方、上述した実施形態によれば、仮想3次元空間の水平面上の各位置に対応付けられた高さの情報と、当該水平面に対する光線の入射方向とに基づいて、当該水平面における影の範囲を算出する。そして、仮想3次元空間上のオブジェクトの表面のうち、当該水平面における影の範囲に含まれる領域に影を付して画面に表示する。これにより、オブジェクトの影の表示をより高速に行うことができる。   On the other hand, according to the above-described embodiment, the range of the shadow in the horizontal plane is determined based on the information of the height corresponding to each position on the horizontal plane of the virtual three-dimensional space and the incident direction of the light beam to the horizontal plane. calculate. Then, of the surface of the object in the virtual three-dimensional space, a region included in the range of the shadow in the horizontal plane is shaded and displayed on the screen. This makes it possible to display the shadow of an object more quickly.

以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   Although the embodiments of the present invention have been described above in detail, the present invention is not limited to such specific embodiments, and various modifications may be made within the scope of the present invention as set forth in the claims.・ Change is possible.

画像処理装置10の各機能部は、例えば1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。また、画像処理装置10は、ユーザの端末にゲームの画面を表示させる、オンラインゲーム用のサーバであってもよい。   Each functional unit of the image processing apparatus 10 may be realized by, for example, cloud computing configured by one or more computers. In addition, the image processing apparatus 10 may be a server for an online game that displays a game screen on the terminal of the user.

なお、上述した実施形態では、オープンワールドのゲームを例として説明したが、開示の技術は、オープンワールド以外のゲーム、シミュレーション等の3次元コンピュータグラフィックスにおいて、仮想3次元空間上で所定のオブジェクトを他のオブジェクトの上に乗せる場合に適用できる。   In the embodiment described above, an open world game has been described as an example, but the disclosed technology relates to a predetermined object in a virtual three-dimensional space in three-dimensional computer graphics such as games other than open world games and simulations. It is applicable when putting on another object.

なお、制御部13は、「算出部」の一例である。   The control unit 13 is an example of a “calculation unit”.

10 画像処理装置
11 記憶部
111 3次元データ
112 高さマップ
12 取得部
13 制御部
14 表示制御部
10 image processing device 11 storage unit 111 three-dimensional data 112 height map 12 acquisition unit 13 control unit 14 display control unit

Claims (6)

画像処理装置に、
仮想3次元空間の水平面上の各位置に対応付けられた高さの情報を取得するステップと、
前記高さの情報と、前記水平面に対する光線の入射方向とに基づいて、前記水平面における影の範囲を算出するステップと、
前記仮想3次元空間上のオブジェクトの表面のうち、前記影の範囲に含まれる領域に影を付して画面に表示するステップと、
を実行させるプログラム。
In the image processing device,
Acquiring height information associated with each position on the horizontal plane of the virtual three-dimensional space;
Calculating the range of the shadow in the horizontal plane based on the information on the height and the incident direction of the light beam on the horizontal plane;
Shadowing an area included in the range of the shadow in the surface of the object in the virtual three-dimensional space, and displaying the area on the screen;
A program that runs
前記算出するステップは、仮想3次元空間における仮想的な時刻の経過に応じて、前記水平面に対する光線の入射方向を算出し、前記高さの情報と、算出した前記水平面に対する光線の入射方向とに基づいて、前記影の範囲を算出する、
請求項1に記載のプログラム。
The calculating step calculates the incident direction of the light beam with respect to the horizontal plane according to the passage of virtual time in the virtual three-dimensional space, and information of the height and the incident direction of the light beam with respect to the horizontal plane calculated Based on the range of the shadow,
The program according to claim 1.
前記算出するステップは、前記水平面上の所定の位置に対応付けられた高さの位置を通り、前記光線の入射方向に平行な直線を算出し、当該直線が前記水平面に交わる位置と、前記所定の位置との間を前記影の範囲として算出する、
請求項1または2に記載のプログラム。
In the calculating step, a straight line parallel to the incident direction of the light beam is calculated by passing through the position at a height corresponding to the predetermined position on the horizontal surface, the position where the straight line intersects the horizontal surface, and the predetermined Calculate the range between the position of
The program according to claim 1 or 2.
前記算出するステップは、前記仮想3次元空間上の複数のオブジェクトのうち、前記高さの情報が設定されているオブジェクトについては、前記高さの情報と、前記水平面に対する光線の入射方向とに基づいて、前記影の範囲を算出し、
前記高さの情報が設定されていないオブジェクトについては、当該オブジェクトの3次元モデルの情報と、前記水平面に対する光線の入射方向とに基づいて、当該オブジェクトの影を算出する、
請求項1乃至3のいずれか一項に記載のプログラム。
The calculating step is performed based on the information on the height and the incident direction of the light beam on the horizontal surface, for the object for which the information on the height is set among the plurality of objects in the virtual three-dimensional space. Calculate the range of the shadow,
For an object for which the height information is not set, the shadow of the object is calculated based on the information of the three-dimensional model of the object and the incident direction of the light beam on the horizontal plane.
The program according to any one of claims 1 to 3.
画像処理装置が、
仮想3次元空間の水平面上の各位置に対応付けられた高さの情報を取得するステップと、
前記高さの情報と、前記水平面に対する光線の入射方向とに基づいて、前記水平面における影の範囲を算出するステップと、
前記仮想3次元空間上のオブジェクトの表面のうち、前記影の範囲に含まれる領域に影を付して画面に表示するステップと、
を実行する画像処理方法。
The image processing device
Acquiring height information associated with each position on the horizontal plane of the virtual three-dimensional space;
Calculating the range of the shadow in the horizontal plane based on the information on the height and the incident direction of the light beam on the horizontal plane;
Shadowing an area included in the range of the shadow in the surface of the object in the virtual three-dimensional space, and displaying the area on the screen;
Image processing method to perform.
仮想3次元空間の水平面上の各位置に対応付けられた高さの情報を取得する取得部と、
前記高さの情報と、前記水平面に対する光線の入射方向とに基づいて、前記水平面における影の範囲を算出する算出部と、
前記仮想3次元空間上のオブジェクトの表面のうち、前記影の範囲に含まれる領域に影を付して画面に表示する表示制御部と、
を有する画像処理装置。
An acquisition unit for acquiring information of heights corresponding to respective positions on the horizontal plane of the virtual three-dimensional space;
A calculation unit that calculates the range of the shadow in the horizontal plane based on the information on the height and the incident direction of the light beam on the horizontal plane;
A display control unit that applies shadows to areas included in the range of the shadow among surfaces of objects in the virtual three-dimensional space;
An image processing apparatus having:
JP2018001357A 2018-01-09 2018-01-09 Program, image processing method, and image processing device Pending JP2019121238A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018001357A JP2019121238A (en) 2018-01-09 2018-01-09 Program, image processing method, and image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018001357A JP2019121238A (en) 2018-01-09 2018-01-09 Program, image processing method, and image processing device

Publications (1)

Publication Number Publication Date
JP2019121238A true JP2019121238A (en) 2019-07-22

Family

ID=67306332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018001357A Pending JP2019121238A (en) 2018-01-09 2018-01-09 Program, image processing method, and image processing device

Country Status (1)

Country Link
JP (1) JP2019121238A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021006217A (en) * 2019-06-28 2021-01-21 株式会社大一商会 Game machine
JP2021006216A (en) * 2019-06-28 2021-01-21 株式会社大一商会 Game machine

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000040169A (en) * 1995-05-24 2000-02-08 Sega Enterp Ltd Image processor and game device using the same
JP2002139576A (en) * 2000-11-06 2002-05-17 Sekisui House Ltd Sun shadow display system and its display method
JP2009140135A (en) * 2007-12-05 2009-06-25 Copcom Co Ltd Game program, recording medium with the game program recorded thereon, and computer
JP2014153849A (en) * 2013-02-07 2014-08-25 Tokyo Gas Co Ltd Shade simulation system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000040169A (en) * 1995-05-24 2000-02-08 Sega Enterp Ltd Image processor and game device using the same
JP2002139576A (en) * 2000-11-06 2002-05-17 Sekisui House Ltd Sun shadow display system and its display method
JP2009140135A (en) * 2007-12-05 2009-06-25 Copcom Co Ltd Game program, recording medium with the game program recorded thereon, and computer
JP2014153849A (en) * 2013-02-07 2014-08-25 Tokyo Gas Co Ltd Shade simulation system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HIKAKINGAMES: "GTA5楽しく実況プレイ!Part3−チート使って街で遊んでみた!", YOUTUBE[VIDEO][ONLINE], JPN7022000303, 30 October 2013 (2013-10-30), ISSN: 0004747571 *
ROCKSTAR GAMES 日本: "『グランド・セフト・オートV』公式ゲームプレイ動画", YOUTUBE[VIDEO][ONLINE], JPN7022000304, 6 August 2013 (2013-08-06), ISSN: 0004747572 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021006217A (en) * 2019-06-28 2021-01-21 株式会社大一商会 Game machine
JP2021006216A (en) * 2019-06-28 2021-01-21 株式会社大一商会 Game machine

Similar Documents

Publication Publication Date Title
KR102165124B1 (en) Dynamic graphical interface shadows
US10593098B2 (en) Smooth draping layer for rendering vector data on complex three dimensional objects
US9911221B2 (en) Animated page turning
KR20120009564A (en) Apparatus and method for generating 3 dimentional mouse pointer
US20130016102A1 (en) Simulating three-dimensional features
CN102289845B (en) Three-dimensional model drawing method and device
US8237722B2 (en) Systems and method for visualization of fluids
TW201601115A (en) Varying effective resolution by screen location in graphics processing by approximating projection of vertices onto curved viewport
BRPI0300983B1 (en) method for providing controllable texture sampling and co-processing device
US8854392B2 (en) Circular scratch shader
JP2020198066A (en) Systems and methods for augmented reality applications
JP2019121238A (en) Program, image processing method, and image processing device
JP2019121236A (en) Program, image processing method, and image processing device
JP7039294B2 (en) Programs, image processing methods, and image processing equipment
JP5007633B2 (en) Image processing program, computer-readable recording medium storing the program, image processing apparatus, and image processing method
CN115970275A (en) Projection processing method and device for virtual object, storage medium and electronic equipment
WO2018175299A1 (en) System and method for rendering shadows for a virtual environment
JP7303340B2 (en) Program, image processing method, and image processing apparatus
CN116740298B (en) Method for constructing scene real-time map based on three-dimensional engine
JP7475625B2 (en) Method and program for receiving and displaying input in three-dimensional space, and device for receiving and displaying input in three-dimensional space
KR101824178B1 (en) Method and apparatus for controlling transparency based on view on 3 dimension rendering device
CN117351126A (en) Method and device for generating special effects of rain and snow in virtual scene and electronic equipment
Li et al. Visualization for hpc data-large terrain model
CN113570697A (en) Shadow rendering method and device based on model prebaking and readable storage medium
CN116647657A (en) Responsive Video Canvas Generation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220412