JP4954043B2 - Image generation program, information storage medium, and image generation system - Google Patents

Image generation program, information storage medium, and image generation system Download PDF

Info

Publication number
JP4954043B2
JP4954043B2 JP2007316792A JP2007316792A JP4954043B2 JP 4954043 B2 JP4954043 B2 JP 4954043B2 JP 2007316792 A JP2007316792 A JP 2007316792A JP 2007316792 A JP2007316792 A JP 2007316792A JP 4954043 B2 JP4954043 B2 JP 4954043B2
Authority
JP
Japan
Prior art keywords
unit
image
page
search
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007316792A
Other languages
Japanese (ja)
Other versions
JP2009140294A (en
Inventor
慶太 高橋
優 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2007316792A priority Critical patent/JP4954043B2/en
Publication of JP2009140294A publication Critical patent/JP2009140294A/en
Application granted granted Critical
Publication of JP4954043B2 publication Critical patent/JP4954043B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Digital Computer Display Output (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、画像生成プログラム、情報記憶媒体、及び画像生成システムに関する。   The present invention relates to an image generation program, an information storage medium, and an image generation system.

従来より、WWW(World Wide Web、以下WEBという。)ブラウザなどのように、ユーザが端末においてWEB上のアドレスを入力すると、サーバなどの外部システムと通信を行い、入力したアドレスに対応するファイルをサーバから取得してページ画像を描画し、ユーザの端末の表示部に表示させるブラウザシステムが存在する。このようなブラウザシステムとしては、例えば特表2002−519950号公報に開示される従来技術がある。
特表2002−519950号公報
Conventionally, when a user inputs an address on the WEB at a terminal, such as a WWW (World Wide Web) browser, a file corresponding to the input address is communicated with an external system such as a server. There is a browser system that obtains a page image from a server and displays it on a display unit of a user terminal. As such a browser system, there is a conventional technique disclosed in, for example, JP-T-2002-519950.
Special table 2002-519950 gazette

かかるブラウザシステムでは、WEB検索エンジンとして機能するサーバと通信を行う場合には、ユーザが端末において検索キーワードなどの検索情報を入力すると、入力した検索情報に対応する検索結果をサーバから取得して、検索結果をページ画像として表示させる。そして、ユーザが検索結果から所望のアドレスを選択する操作を行うと、選択された検索結果に対応するアドレスにアクセスし、対応するページ画像を表示させる。   In such a browser system, when communicating with a server functioning as a WEB search engine, when a user inputs search information such as a search keyword on the terminal, a search result corresponding to the input search information is acquired from the server, The search result is displayed as a page image. Then, when the user performs an operation of selecting a desired address from the search result, the address corresponding to the selected search result is accessed and the corresponding page image is displayed.

しかし従来のブラウザシステムでは、外部システムから取得したファイルに基づいて描画したページ画像を、ウィンドウなどの矩形の表示領域に2次元画像として表示させているに過ぎなかった。すなわち従来のブラウザシステムでは、ページ画像を見やすくするためいずれのページ画像も画一的に表示させており、ページ画像の見せ方に変化を与えることができなかった。   However, in a conventional browser system, a page image drawn based on a file acquired from an external system is merely displayed as a two-dimensional image in a rectangular display area such as a window. That is, in the conventional browser system, in order to make it easy to see the page image, all the page images are displayed uniformly, and it has not been possible to change how the page image is displayed.

また従来のブラウザシステムでは、アドレスの文字列の入力を必要とし、検索エンジンを用いた場合でも、検索情報の文字列の入力を必要とし、更に検索結果を選択するための画像表示、それに対する入力受付を必要とする。従って、例えばキャラクタを移動・動作させることが中心で、文字列の入力を前提としないゲームシステムとの融合性が低いという問題があった。   In addition, the conventional browser system requires input of a character string of an address, and even when a search engine is used, it requires input of a character string of search information, and further displays an image for selecting a search result, and inputs to the image display. Requires reception. Therefore, there is a problem that, for example, the character is moved / moved mainly, and the compatibility with a game system that does not assume the input of a character string is low.

本発明は、以上のような課題に鑑みてなされたものであり、その第1の目的は、ページ画像の見せ方に変化を与えることができる画像生成プログラム、情報記憶媒体及び画像生成システムを提供することにあり、第2の目的は、キャラクタを移動・動作させることなどが中心で、文字列の入力を前提としないゲームシステムとブラウザシステムとを融合させた画像生成プログラム、情報記憶媒体及び画像生成システムを提供することにある。   The present invention has been made in view of the above-described problems, and a first object thereof is to provide an image generation program, an information storage medium, and an image generation system that can change how a page image is displayed. The second object is to move and move a character, etc., and an image generation program, an information storage medium, and an image in which a game system and a browser system that do not assume input of a character string are combined To provide a generation system.

(1)本発明は、
画像生成システムであって、
オブジェクト空間にオブジェクトを設定するオブジェクト空間設定部と、
前記オブジェクト空間に設定された前記オブジェクトの画像を描画する描画部と、
所与のデータベースを検索するための第1の検索情報を記憶する記憶部と、
所与の条件が満たされた場合に、前記記憶部から該条件に対応する前記第1の検索情報を取得する検索情報取得部と、
所与のデータベースを検索する検索部にアクセスし、前記第1の検索情報に対応する検索結果を取得する検索結果取得部と、
前記検索結果に対応するアドレスにアクセスし、アクセスしたアドレスに対応するページ構成情報を取得するページ構成情報取得部とを含み、
前記描画部が、
前記ページ構成情報に基づいてページ画像を前記オブジェクトの位置に対応させて描画することを特徴とする画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。
(1) The present invention
An image generation system,
An object space setting section for setting an object in the object space;
A drawing unit for drawing an image of the object set in the object space;
A storage unit for storing first search information for searching a given database;
A search information acquisition unit that acquires the first search information corresponding to the condition from the storage unit when a given condition is satisfied;
A search result acquiring unit for accessing a search unit for searching a given database and acquiring a search result corresponding to the first search information;
A page configuration information acquisition unit that accesses an address corresponding to the search result and acquires page configuration information corresponding to the accessed address;
The drawing unit
The present invention relates to an image generation system that renders a page image corresponding to the position of the object based on the page configuration information. The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit.

本発明において「検索部」とは、例えばWEB検索エンジンとして機能するサーバなど、外部システムに構築されているデータベースを検索する外部の検索システムにより実現することができる。また本発明において「検索結果」とは、例えばWEBサイトなどのアドレス情報を含む情報とすることができる。また本発明において「ページ構成情報」とは、例えばHTML、XML、XHTMLなどのマークアップ言語で記述されたテキストデータや、マークアップ言語で参照される画像データや、マークアップ言語で特定されるテキストや画像の配置データや、他のアドレスへのハイパーリンクデータなどとすることができる。   In the present invention, the “search unit” can be realized by an external search system that searches a database built in an external system, such as a server that functions as a WEB search engine. In the present invention, the “search result” may be information including address information such as a WEB site. In the present invention, “page configuration information” refers to text data described in a markup language such as HTML, XML, XHTML, image data referred to in the markup language, or text specified in the markup language. And image arrangement data, hyperlink data to other addresses, and the like.

本発明では、操作者の検索情報の入力操作に拠らずに、所与の条件が満たされたことを契機として、満たされた条件に対応する第1の検索情報を取得して検索結果を取得するとともに、操作者の検索結果の選択操作に拠らずに、検索結果に対応するページ構成情報を取得する。従って本発明によれば、所与の条件が満たされたことを契機として、満たされた条件に応じたページ画像を自動的に表示させるとともに、ページ画像の表示態様にオブジェクトの位置に応じた変化をもたせることができる。   In the present invention, the first search information corresponding to the satisfied condition is acquired and the search result is obtained when the given condition is satisfied without relying on the operator's input operation of the search information. In addition to the acquisition, the page configuration information corresponding to the search result is acquired without depending on the selection operation of the search result by the operator. Therefore, according to the present invention, when a given condition is satisfied, a page image corresponding to the satisfied condition is automatically displayed, and the display mode of the page image changes according to the position of the object. Can be given.

(2)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記ページ画像を評価するページ評価部と、
前記ページ評価部の評価結果に基づいて、前記オブジェクトを移動させる移動処理部とを更に含むようにしてもよい。
(2) In the image generation system, program, and information storage medium according to the present invention,
A page evaluation unit for evaluating the page image;
A movement processing unit that moves the object based on the evaluation result of the page evaluation unit may be further included.

本発明において「評価結果」とは、ページ構成情報のデータ量やデータの種類、ページ構成情報に含まれる画像データの色分布(配色)など、ページ構成情報またはページ構成情報に基づいて描画されるページ画像のデータ特性や属性に応じて定まる評価値とすることができる。   In the present invention, the “evaluation result” is rendered based on page configuration information or page configuration information such as the data amount and type of page configuration information, and the color distribution (color arrangement) of image data included in the page configuration information. The evaluation value can be set according to the data characteristics and attributes of the page image.

本発明によれば、ページ画像とオブジェクトの画像とを、ページ画像の特性や属性に応じて移動させることにより、ページ画像の表示態様にページ画像の特性や属性に応じた変化をもたせることができる。   According to the present invention, it is possible to change the display mode of a page image according to the characteristics and attributes of the page image by moving the page image and the object image according to the characteristics and attributes of the page image. .

(3)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記ページ画像を評価するページ評価部と、
前記ページ評価部の評価結果に基づいて、前記オブジェクトの種類、形状、大きさ、色の少なくとも1つを制御するオブジェクト制御部とを更に含むようにしてもよい。
(3) In the image generation system, the program, and the information storage medium according to the present invention,
A page evaluation unit for evaluating the page image;
An object control unit that controls at least one of the type, shape, size, and color of the object based on the evaluation result of the page evaluation unit may be further included.

本発明によれば、ページ画像が対応付けられるオブジェクトの種類、形状、大きさ、色を、ページ画像の特性や属性に応じて変化させることにより、ページ画像の表示態様にページ画像の特性や属性に応じた変化をもたせることができる。   According to the present invention, the type, shape, size, and color of the object associated with the page image are changed in accordance with the characteristics and attributes of the page image, whereby the page image characteristics and attributes are changed in the page image display mode. Can be changed according to

(4)また本発明は、
画像生成システムであって、
オブジェクト空間にオブジェクトを設定するオブジェクト空間設定部と、
前記オブジェクトを移動・動作させる移動・動作処理部と、
前記オブジェクト空間に設定された前記オブジェクトの画像を描画する描画部と、
所与のデータベースを検索するための第1の検索情報を取得する検索情報取得部と、
所与のデータベースを検索する検索部にアクセスし、前記第1の検索情報に対応する検索結果を取得する検索結果取得部と、
前記検索結果に対応するアドレスにアクセスし、アクセスしたアドレスに対応するページ構成情報を取得するページ構成情報取得部とを含み、
前記描画部が、
前記ページ構成情報に基づいてページ画像を前記オブジェクトの位置に対応させて描画することを特徴とする画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。
(4) The present invention also provides:
An image generation system,
An object space setting section for setting an object in the object space;
A movement / motion processing unit for moving / moving the object;
A drawing unit for drawing an image of the object set in the object space;
A search information acquisition unit for acquiring first search information for searching a given database;
A search result acquiring unit for accessing a search unit for searching a given database and acquiring a search result corresponding to the first search information;
A page configuration information acquisition unit that accesses an address corresponding to the search result and acquires page configuration information corresponding to the accessed address;
The drawing unit
The present invention relates to an image generation system that renders a page image corresponding to the position of the object based on the page configuration information. The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit.

本発明によれば、ページ画像をオブジェクトの移動・動作に対応させて表示させることにより、ページ画像の表示態様に変化をもたせることができる。   According to the present invention, it is possible to change the display mode of the page image by displaying the page image corresponding to the movement / motion of the object.

(5)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記ページ画像を評価するページ評価部を更に含み、
前記移動・動作処理部が、
前記ページ評価部の評価結果に基づいて、前記オブジェクトを移動・動作させるようにしてもよい。
(5) In the image generation system, the program, and the information storage medium according to the present invention,
A page evaluation unit for evaluating the page image;
The movement / motion processing unit
The object may be moved and operated based on the evaluation result of the page evaluation unit.

本発明によれば、ページ画像とオブジェクトの画像とを、ページ画像の特性や属性に応じて移動させることにより、ページ画像の表示態様にページ画像の特性や属性に応じた変化をもたせることができる。   According to the present invention, it is possible to change the display mode of a page image according to the characteristics and attributes of the page image by moving the page image and the object image according to the characteristics and attributes of the page image. .

(6)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記ページ画像を評価するページ評価部と、
前記オブジェクトの種類、行動、大きさ、色の少なくとも1つを制御するオブジェクト制御部とを更に含み、
前記オブジェクト制御部が、
前記ページ評価部の評価結果に基づいて、前記オブジェクトの種類、行動、大きさ、色の少なくとも1つを制御するようにしてもよい。
(6) In the image generation system, the program, and the information storage medium according to the present invention,
A page evaluation unit for evaluating the page image;
An object control unit that controls at least one of the type, action, size, and color of the object,
The object control unit
Based on the evaluation result of the page evaluation unit, at least one of the type, action, size, and color of the object may be controlled.

本発明によれば、ページ画像が対応付けられるオブジェクトの種類、行動、大きさ、色を、ページ画像の特性や属性に応じて変化させることにより、ページ画像の表示態様にページ画像の特性や属性に応じた変化をもたせることができる。   According to the present invention, by changing the type, action, size, and color of an object associated with a page image according to the characteristics and attributes of the page image, the page image characteristics and attributes are changed to the page image display mode. Can be changed according to

(7)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
所与のデータベースを検索するための第2の検索情報を記憶する記憶部を更に含み、
前記検索結果取得部が、
前記第1の検索情報と前記第2の検索情報とに対応する検索結果を取得するようにしてもよい。
(7) In the image generation system, the program, and the information storage medium according to the present invention,
A storage unit for storing second search information for searching a given database;
The search result acquisition unit
Search results corresponding to the first search information and the second search information may be acquired.

本発明によれば、第2の検索情報によって、オブジェクトの位置に対応させて表示されるページ画像に一定の傾向をもたせることができる。   According to the present invention, the second search information can give a certain tendency to the page image displayed in correspondence with the position of the object.

(8)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記描画部が、
前記オブジェクトにテクスチャをマッピングして前記オブジェクト空間を仮想カメラから見た3次元画像を描画する3次元画像描画部と、
前記ページ構成情報に基づいてページ画像を描画するページ画像描画部とを更に含み、
前記ページ画像描画部が、
前記ページ画像とテクスチャ座標とを対応付ける処理を行い、
前記3次元画像描画部が、
前記テクスチャ座標が対応付けられた前記ページ画像を前記テクスチャとして前記オブジェクトにマッピングする処理を行うようにしてもよい。
(8) In the image generation system, the program, and the information storage medium according to the present invention,
The drawing unit
A 3D image drawing unit that maps a texture to the object and draws a 3D image of the object space viewed from a virtual camera;
A page image drawing unit for drawing a page image based on the page configuration information,
The page image drawing unit
A process for associating the page image with the texture coordinates,
The three-dimensional image drawing unit
You may make it perform the process which maps the said page image matched with the said texture coordinate to the said object as the said texture.

本発明によれば、ページ画像をテクスチャとしてオブジェクトにマッピングすることにより、ページ画像を3次元画像の一部として表示させることができる。従って本発明によれば、ページ画像がテクスチャとしてマッピングされるオブジェクトの表示態様を変化させることにより、ページ画像を種々の態様で表示させることができる。   According to the present invention, a page image can be displayed as a part of a three-dimensional image by mapping the page image to an object as a texture. Therefore, according to the present invention, the page image can be displayed in various modes by changing the display mode of the object to which the page image is mapped as the texture.

(9)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記オブジェクト空間設定部が、
前記オブジェクト空間にキャラクタオブジェクトおよび前記キャラクタオブジェクトとともに移動する特定オブジェクトを設定し、
前記描画部が、
前記キャラクタオブジェクトおよび前記特定オブジェクトにテクスチャをマッピングして前記オブジェクト空間を仮想カメラから見た3次元画像を描画する3次元画像描画部と、
前記ページ構成情報に基づいてページ画像を描画するページ画像描画部とを更に含み、
前記ページ画像描画部が、
前記ページ画像とテクスチャ座標とを対応付ける処理を行い、
前記3次元画像描画部が、
前記テクスチャ座標が対応付けられた前記ページ画像を前記テクスチャとして前記特定オブジェクトにマッピングする処理を行うようにしてもよい。
(9) In the image generation system, the program, and the information storage medium according to the present invention,
The object space setting unit
Set a specific object that moves with the character object and the character object in the object space,
The drawing unit
A three-dimensional image drawing unit for mapping a texture to the character object and the specific object and drawing a three-dimensional image when the object space is viewed from a virtual camera;
A page image drawing unit for drawing a page image based on the page configuration information,
The page image drawing unit
A process for associating the page image with the texture coordinates,
The three-dimensional image drawing unit
You may make it perform the process which maps the said page image matched with the said texture coordinate to the said specific object as the said texture.

本発明によれば、ページ画像をテクスチャとして特定オブジェクトにマッピングすることにより、ページ画像を3次元画像の一部として表示させることができる。従って本発明によれば、キャラクタオブジェクトまたは特定オブジェクトの表示態様を変化させることにより、ページ画像を種々の態様で表示させることができる。   According to the present invention, a page image can be displayed as a part of a three-dimensional image by mapping the page image as a texture to a specific object. Therefore, according to the present invention, the page image can be displayed in various modes by changing the display mode of the character object or the specific object.

(10)また本発明に係る画像生成システム、プログラム及び情報記憶媒体では、
前記3次元画像描画部が、
前記テクスチャ座標が対応付けられた前記ページ画像のうち、前記テクスチャとして前記オブジェクトにマッピングする範囲を変化させるようにしてもよい。
(10) In the image generation system, the program, and the information storage medium according to the present invention,
The three-dimensional image drawing unit
In the page image associated with the texture coordinates, a range mapped to the object as the texture may be changed.

本発明によれば、ページ画像がテクスチャとしてマッピングされるオブジェクトにおいて、ページ画像に対応するテクスチャをスクロール表示させることができる。   According to the present invention, a texture corresponding to a page image can be scroll-displayed in an object in which the page image is mapped as a texture.

(11)また本発明は、
画像生成システムであって、
オブジェクト空間にオブジェクトを設定するオブジェクト空間設定部と、
前記オブジェクト空間に設定された前記オブジェクトの画像を描画する描画部と、
所与のデータベースを検索するための第1の検索情報を記憶する記憶部と、
所与の条件が満たされた場合に、前記記憶部から該条件に対応する前記第1の検索情報を取得する検索情報取得部と、
所与のデータベースを検索する検索部にアクセスし、前記第1の検索情報に対応する検索結果を取得する検索結果取得部とを含み、
前記描画部が、
前記検索結果に含まれる特定画像情報に基づいて特定画像を前記オブジェクトの位置に対応させて描画することを特徴とする画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。
(11) The present invention also provides:
An image generation system,
An object space setting section for setting an object in the object space;
A drawing unit for drawing an image of the object set in the object space;
A storage unit for storing first search information for searching a given database;
A search information acquisition unit that acquires the first search information corresponding to the condition from the storage unit when a given condition is satisfied;
A search result obtaining unit for accessing a search unit for searching a given database and obtaining a search result corresponding to the first search information;
The drawing unit
The present invention relates to an image generation system that draws a specific image in correspondence with the position of the object based on specific image information included in the search result. The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit.

本発明において「特定画像情報」とは、「検索結果」にWEBサイトなどのアドレス情報の他に、HTML、XML、XHTMLなどのマークアップ言語で記述されたテキスト情報や、マークアップ言語で参照される画像情報が含まれている場合において、検索結果を示すページの一部として表示することが指定されている画像情報とすることができる。   In the present invention, “specific image information” refers to “search results” in text information described in markup languages such as HTML, XML, and XHTML, in addition to address information such as a WEB site, and in markup languages. Image information that is specified to be displayed as part of a page indicating the search result.

本発明では、操作者の検索情報の入力操作に拠らずに、所与の条件が満たされたことを契機として、満たされた条件に対応する第1の検索情報を取得して検索結果を取得するとともに、操作者の検索結果の選択操作に拠らずに、検索結果に含まれる特定画像情報を取得する。従って本発明によれば、所与の条件が満たされたことを契機として、満たされた条件に応じた特定画像を自動的に表示させるとともに、特定画像の表示態様にオブジェクトの位置に応じた変化をもたせることができる。   In the present invention, the first search information corresponding to the satisfied condition is acquired and the search result is obtained when the given condition is satisfied without relying on the operator's input operation of the search information. Acquiring and acquiring specific image information included in the search result without depending on the selection operation of the search result by the operator. Therefore, according to the present invention, when a given condition is satisfied, a specific image corresponding to the satisfied condition is automatically displayed, and the display mode of the specific image changes according to the position of the object. Can be given.

(12)また本発明は、
画像生成システムであって、
オブジェクト空間にオブジェクトを設定するオブジェクト空間設定部と、
前記オブジェクトを移動・動作させる移動・動作処理部と、
前記オブジェクト空間に設定された前記オブジェクトの画像を描画する描画部と、
所与のデータベースを検索するための第1の検索情報を取得する検索情報取得部と、
所与のデータベースを検索する検索部にアクセスし、前記第1の検索情報に対応する検索結果を取得する検索結果取得部とを含み、
前記描画部が、
前記検索結果に含まれる特定画像情報に基づいて特定画像を前記オブジェクトの位置に対応させて描画することを特徴とする画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラムに関係する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関係する。
(12) The present invention also provides:
An image generation system,
An object space setting section for setting an object in the object space;
A movement / motion processing unit for moving / moving the object;
A drawing unit for drawing an image of the object set in the object space;
A search information acquisition unit for acquiring first search information for searching a given database;
A search result obtaining unit for accessing a search unit for searching a given database and obtaining a search result corresponding to the first search information;
The drawing unit
The present invention relates to an image generation system that draws a specific image in correspondence with the position of the object based on specific image information included in the search result. The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit.

本発明によれば、特定画像をオブジェクトの移動・動作に対応させて表示させることにより、特定画像の表示態様に変化をもたせることができる。   According to the present invention, it is possible to change the display mode of the specific image by displaying the specific image corresponding to the movement / motion of the object.

1.第1の実施形態
以下、第1の実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
1. First Embodiment A first embodiment will be described below. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1−1.システム全体の概略
図1は、本実施形態の画像生成システムを適用したゲームシステムの一例を示す外観図である。本実施形態のゲームシステムGSは、プレーヤが操作情報を入力する操作部CTと、操作部CTからの操作情報に基づいてゲーム画像を生成する本体装置PSと、本体装置PSで生成したゲーム画像を表示させるモニタMNとを含む。
1-1. FIG. 1 is an external view showing an example of a game system to which the image generation system of this embodiment is applied. The game system GS of the present embodiment includes an operation unit CT for a player to input operation information, a main unit PS that generates a game image based on the operation information from the operation unit CT, and a game image generated by the main unit PS. And a monitor MN to be displayed.

操作部CTは、図1に示すようにプレーヤが左手で握る左グリップGLと、右手で握る右グリップGRとが設けられている。そして図中正面左部に、左グリップGLを左手で握ったプレーヤが左手の親指で操作することができる方向キーDKと、左アナログスティックASLとが設けられている。この方向キーDKは、方向キーDKを押下した位置に応じて異なる信号を入力することができるように構成され、左アナログスティックASLは、左アナログスティックASLを傾倒させた角度と方向に応じて異なる信号を入力することができるように構成されている。また図中正面右部に、右グリップGRを右手で握ったプレーヤが右手の親指で操作することができる右アナログスティックASLと、4つのボタンBTとが設けられている。この右アナログスティックASLは左アナログスティックASLと同様の構成とされ、4つのボタンBTは、押下したボタンに応じて異なる信号を入力することができるように構成されている。   As shown in FIG. 1, the operation unit CT is provided with a left grip GL that the player holds with the left hand and a right grip GR that the player holds with the right hand. A directional key DK and a left analog stick ASL that can be operated with the thumb of the left hand by a player who holds the left grip GL with the left hand are provided on the left side of the figure. The direction key DK is configured to be able to input a different signal depending on the position where the direction key DK is pressed, and the left analog stick ASL differs depending on the angle and direction in which the left analog stick ASL is tilted. A signal can be input. In addition, a right analog stick ASL that can be operated with the thumb of the right hand, and four buttons BT, are provided at the front right part of the drawing. The right analog stick ASL has the same configuration as the left analog stick ASL, and the four buttons BT are configured so that different signals can be input according to the pressed button.

また操作部CTは、図中上面左部に、プレーヤが左手の人差し指で操作することができるL1ボタンL1と、中指で操作することができるL2ボタンL2とが設けられており、図中上面右部に、プレーヤが右手の人差し指で操作することができるR1ボタンR1と、中指で操作することができるR2ボタンR2とが設けられている。これらL1ボタンL1〜R2ボタンR2は、押下したボタンに応じて異なる信号を入力することができるように構成されている。   The operation unit CT is provided with an L1 button L1 that can be operated by the player with the index finger of the left hand and an L2 button L2 that can be operated with the middle finger on the upper left side in the drawing. An R1 button R1 that can be operated with the index finger of the right hand and an R2 button R2 that can be operated with the middle finger are provided in the section. These L1 buttons L1 to R2 buttons R2 are configured such that different signals can be input depending on the pressed button.

本体装置PSは、操作部CTからの操作情報やプログラムに基づいてゲーム画像を生成するなど種々のゲーム演算を実行する。特に本実施形態の本体装置PSは、操作部CTからの操作情報に応じてプレーヤキャラクタなどがリアルタイムにオブジェクト空間を移動・動作する3次元画像をゲーム画像として生成し、モニタMNに表示させる。   The main body device PS executes various game operations such as generating game images based on operation information and programs from the operation unit CT. In particular, the main body device PS of the present embodiment generates a three-dimensional image in which a player character or the like moves and moves in the object space in real time in accordance with operation information from the operation unit CT as a game image and displays it on the monitor MN.

図2は、本実施形態のゲームシステムGSと外部システムとをネットワークを介して接続した一例を示す概略図である。本実施形態の本体装置PSは、端末装置の一種として、インターネット(ネットワークの一例)INを介してサーバSVや他の端末装置(他の本体装置PS)と接続することができる。   FIG. 2 is a schematic diagram illustrating an example in which the game system GS of the present embodiment and an external system are connected via a network. The main device PS of this embodiment can be connected to a server SV or another terminal device (another main device PS) via the Internet (an example of a network) IN as a kind of terminal device.

そして本実施形態の本体装置PSは、インターネットINを介してサーバSVと通信を行い、サーバSVにデータをアップロードしたり、サーバSVからデータをダウンロードすることができる。特に本実施形態の本体装置PSは、WEBブラウザとしての機能を備えており、サーバSVや他の端末装置にアクセスしてページ構成情報を取得し、WEBページ画像をモニタMNに表示させることができる。   The main device PS of the present embodiment can communicate with the server SV via the Internet IN, and can upload data to the server SV or download data from the server SV. In particular, the main device PS of the present embodiment has a function as a WEB browser, and can access the server SV and other terminal devices to acquire page configuration information and display a WEB page image on the monitor MN. .

サーバSVは、実装されているアプリケーションに応じてWEBサーバとして機能したり、メールサーバとして機能するなどして、本体装置PSなどの端末に種々のサービスを提供する。特にWEB検索エンジンとして機能するサーバSV1(検索部の一例)は、他のサーバSV2や端末装置に格納されているWEBページ(WEBサイト)を構成するページ構成情報とアドレス情報について索引情報(インデックス)を作成してデータベース化している。そしてサーバSV1は、本体装置PSなどの端末装置から検索キーワードなどの検索情報を受信するとデータベースを検索し、検索情報の文字列を含むWEBページのアドレスを検索結果として本体装置PSなどの端末装置に送信する。   The server SV functions as a WEB server or functions as a mail server according to installed applications, and provides various services to terminals such as the main device PS. In particular, the server SV1 (an example of a search unit) functioning as a WEB search engine has index information (index) for page configuration information and address information constituting a WEB page (WEB site) stored in another server SV2 or a terminal device. Create a database. When the server SV1 receives search information such as a search keyword from a terminal device such as the main device PS, the server SV1 searches the database, and uses the address of the WEB page including the character string of the search information as a search result to the terminal device such as the main device PS. Send.

そして本実施形態の本体装置PSは、WEBブラウザとして機能して、受信した検索結果に含まれるアドレスにアクセスし、検索情報の文字列を含むWEBページ画像をモニタMNに表示させる。特に本実施形態の本体装置PSは、検索情報の文字列を含むWEBページ画像をテクスチャとしてオブジェクトにマッピングし、3次元画像であるゲーム画像の一部としてモニタMNに表示させる。   The main device PS of the present embodiment functions as a WEB browser, accesses an address included in the received search result, and causes the monitor MN to display a WEB page image including a character string of the search information. In particular, the main unit PS of the present embodiment maps a WEB page image including a character string of search information to an object as a texture, and displays it on the monitor MN as a part of a game image that is a three-dimensional image.

1−2.ゲームシステムの機能ブロック
図3に本実施形態のゲームシステム(画像生成システム)の機能ブロック図の例を示す。なお本実施形態のゲームシステムは図3の構成要素(各部)の一部を省略した構成としてもよい。
1-2. Functional Block of Game System FIG. 3 shows an example of a functional block diagram of the game system (image generation system) of this embodiment. Note that the game system of this embodiment may have a configuration in which some of the components (each unit) in FIG. 3 are omitted.

操作部160は、プレーヤがプレーヤキャラクタ(移動体、プレーヤオブジェクト、ゲームキャラクタを含む)の操作情報を入力するためのものであり、その機能は、アナログスティック、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、カメラ、加速度センサ、角速度センサ或いは筺体などにより実現できる。   The operation unit 160 is for a player to input operation information of a player character (including a moving object, a player object, and a game character), and functions thereof are an analog stick, a button, a steering, a microphone, a touch panel display, This can be realized by a camera, an acceleration sensor, an angular velocity sensor, or a housing.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAMやVRAMなどにより実現できる。特に、本実施形態の記憶部170は、主記憶部172、描画バッファ174、テクスチャバッファ176、ページ画像バッファ178を有している。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM, a VRAM, or the like. In particular, the storage unit 170 of the present embodiment includes a main storage unit 172, a drawing buffer 174, a texture buffer 176, and a page image buffer 178.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを入力するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)、メモリカードなどにより実現できる。処理部100は、情報記憶媒体180に入力されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)や種々のデータが記憶される。   The information storage medium 180 (computer-readable medium) is used for inputting programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM), a memory card, or the like. The processing unit 100 performs various processes of the present embodiment based on a program (data) input to the information storage medium 180. That is, the information storage medium 180 stores a program for causing the computer to function as each unit of the present embodiment (a program for causing the computer to execute the processing of each unit) and various data.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like.

音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

通信部196は外部(例えば、サーバや他のゲームシステム)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with the outside (for example, a server or other game system), and functions thereof are hardware such as various processors or communication ASICs, programs, etc. Can be realized.

なお、本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)を、ネットワークを介してサーバからダウンロードし、情報記憶媒体180に記憶するようにしてもよい。このようなサーバに入力されているプログラムの出力も本発明の範囲内に含めることができる。   Note that a program (data) for causing a computer to function as each unit of the present embodiment may be downloaded from a server via a network and stored in the information storage medium 180. The output of the program input to such a server can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作情報(操作データ)やプログラムなどに基づいて、ゲーム処理、画像生成処理、WEBブラウザ処理などの処理を行う。この処理部100は記憶部170内の主記憶部172をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, and WEB browser processing based on operation information (operation data) from the operation unit 160, a program, and the like. The processing unit 100 performs various processes using the main storage unit 172 in the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

そして処理部100は、ゲーム処理部102、移動・動作処理部104、オブジェクト空間設定部106、仮想カメラ制御部108、描画部109、音生成部112、検索情報取得部114、検索結果取得部116、ページ構成情報取得部118、ページ評価部122、オブジェクト制御部124を含む。なおこれらの一部を省略する構成としてもよい。   The processing unit 100 includes a game processing unit 102, a movement / motion processing unit 104, an object space setting unit 106, a virtual camera control unit 108, a drawing unit 109, a sound generation unit 112, a search information acquisition unit 114, and a search result acquisition unit 116. , A page configuration information acquisition unit 118, a page evaluation unit 122, and an object control unit 124. Note that some of these may be omitted.

ゲーム処理部102は、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲームイベントを発生させる処理、ゲーム条件を判定する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理など、種々のゲーム処理を行う。   The game processing unit 102 is a process for starting a game when a game start condition is satisfied, a process for advancing a game, a process for generating a game event, a process for determining a game condition, a process for calculating a game result, or a game Various game processes such as a process of ending the game when the end condition is satisfied are performed.

移動・動作処理部104は、モデル(プレーヤキャラクタ、AIキャラクタ、車、電車又は飛行機等)の移動・動作演算(移動・動作シミュレーション)を行う。すなわち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、モデルをオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させたりする処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(オブジェクトを構成する各パーツの位置、或いは回転角度)を、1フレーム(1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。   The movement / motion processing unit 104 performs a movement / motion calculation (movement / motion simulation) of a model (player character, AI character, car, train, airplane, or the like). That is, the model is moved in the object space or the object is moved (motion, animation) based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), or the like. ) Process. Specifically, object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part that constitutes the object) are sequentially transmitted every frame (1/60 seconds). Perform the required simulation process. A frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing.

オブジェクト空間設定部106は、プレーヤキャラクタ、AIキャラクタ、移動体、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)を3次元のオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 106 includes various objects (polygons, free-form surfaces, subdivision surfaces, etc.) representing display objects such as player characters, AI characters, moving objects, buildings, stadiums, cars, trees, columns, walls, and maps (terrain). The object is arranged and set in the three-dimensional object space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects.

またオブジェクト空間設定部106は、2次元のデータで規定された各種オブジェクト(例えばスプライト)を2次元のオブジェクト空間に配置設定する処理を行うようにしてもよい。そしてオブジェクト空間設定部106は、オブジェクト空間を2次元空間とした場合には、複数のオブジェクトそれぞれについて設定された優先順位に基づいてオブジェクトを配置する。例えば、奥側にあるように見せたいオブジェクトから順にオブジェクトを配置し、手前側にあるように見せたいオブジェクトを重ねて配置する処理を行うことができる。また、描画サイズが大きなオブジェクトを画像の下方に配置し、描画サイズが小さなオブジェクトを画像の上方に配置すれば、画面の上方に対応するオブジェクト空間が奥側にあるように見せることができ、画面の下方に対応するオブジェクト空間が手間側にあるように見せることができる。   In addition, the object space setting unit 106 may perform a process of arranging and setting various objects (for example, sprites) defined by the two-dimensional data in the two-dimensional object space. When the object space is a two-dimensional space, the object space setting unit 106 arranges the objects based on the priority order set for each of the plurality of objects. For example, it is possible to perform processing in which objects are arranged in order from the object that the user wants to appear on the back side, and the objects that the user wants to see on the near side are superimposed. Also, if you place an object with a large drawing size below the image and an object with a small drawing size above the image, you can make the object space corresponding to the top of the screen appear to be on the back side. It is possible to make it appear that the corresponding object space is on the troublesome side.

仮想カメラ制御部108は、オブジェクト空間内の所与(任意)の仮想カメラ(視点)から見える画像を生成するための仮想カメラの制御処理を行う。具体的には、操作部160によりプレーヤが入力した操作データや、プログラム(移動アルゴリズム)や、各種データ(移動データ)などに基づいて、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向を制御する処理)を行う。また、画角を制御するようにしてもよい。   The virtual camera control unit 108 performs a virtual camera control process for generating an image that can be viewed from a given (arbitrary) virtual camera (viewpoint) in the object space. Specifically, based on operation data, a program (movement algorithm), various data (movement data) input by the player through the operation unit 160, the position (X, Y, Z) or rotation angle (rotation angle ( Processing for controlling the rotation angle around the X, Y, and Z axes (processing for controlling the viewpoint position and the line-of-sight direction) is performed. Further, the angle of view may be controlled.

例えば仮想カメラによりオブジェクト(例えば、プレーヤキャラクタ、ボール、車)を後方から撮影する場合には、オブジェクトの位置又は回転の変化に仮想カメラが追従するように、仮想カメラの位置又は回転角度(仮想カメラの向き)を制御する。この場合には、移動・動作処理部104で得られたオブジェクトの位置、回転角度又は速度などの情報に基づいて、仮想カメラを制御できる。またオブジェクトの位置など関わらず、操作部160によりプレーヤが入力した操作データに基づいて、仮想カメラを制御してもよい。また仮想カメラを、予め決められた回転角度で回転させたり、予め決められた移動経路で移動させる制御を行ってもよい。この場合には、仮想カメラの位置(移動経路)又は回転角度を特定するための仮想カメラデータに基づいて仮想カメラを制御する。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラについて上記の制御処理が行われる。   For example, when an object (for example, a player character, a ball, or a car) is photographed from behind using a virtual camera, the position or rotation angle of the virtual camera (virtual camera is set so that the virtual camera follows changes in the position or rotation of the object. The direction). In this case, the virtual camera can be controlled based on information such as the position, rotation angle, or speed of the object obtained by the movement / motion processing unit 104. The virtual camera may be controlled based on operation data input by the player through the operation unit 160 regardless of the position of the object. Further, the virtual camera may be controlled to rotate at a predetermined rotation angle or to move along a predetermined movement path. In this case, the virtual camera is controlled based on the virtual camera data for specifying the position (movement path) or rotation angle of the virtual camera. When there are a plurality of virtual cameras (viewpoints), the above control process is performed for each virtual camera.

描画部109は、処理部100で行われる種々の処理(ゲーム処理)の結果に基づいて描画処理を行い、これによりゲーム画像を生成し、表示部190に出力する。本実施形態では、描画部109が生成するゲーム画像は、2次元ゲーム画像であってもよいし、3次元ゲーム画像であってもよい。例えば2次元ゲーム画像を生成する場合には、描画部109は、設定された優先度が低い第1の移動体オブジェクトから順に描画バッファ174に描画して、オブジェクト同士が重なる場合には、優先度の高いオブジェクトを上書きして描画する。   The drawing unit 109 performs drawing processing based on the results of various processes (game processing) performed by the processing unit 100, thereby generating a game image and outputting the game image to the display unit 190. In the present embodiment, the game image generated by the drawing unit 109 may be a two-dimensional game image or a three-dimensional game image. For example, in the case of generating a two-dimensional game image, the drawing unit 109 draws the first moving object having a lower priority set in order in the drawing buffer 174, and when the objects overlap each other, the priority is set. Draw over a high object.

また3次元ゲーム画像を生成する場合には、描画部109は3次元画像描画部110として機能し、まずオブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータ(モデルデータ)に含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、あるいは透視変換等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、仮想カメラ(視点)が複数存在する場合には、それぞれの仮想カメラから見える画像を分割画像として1画面に表示できるように画像を生成することができる。   When generating a three-dimensional game image, the drawing unit 109 functions as the three-dimensional image drawing unit 110. First, vertex data (vertex position coordinates, texture coordinates, color data, legal data) of each vertex of the object (model) is generated. Object data (model data) including line vectors or α values is input, and vertex processing (shading by a vertex shader) is performed based on vertex data included in the input object data (model data). When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary. In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate conversion (world coordinate conversion, camera coordinate conversion), clipping processing, perspective processing, and other geometric processing are performed. On the basis of the processing result, the vertex data given to the vertex group constituting the object is changed (updated or adjusted). Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed. In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed object is output (drawn) to the drawing buffer 174 (a buffer capable of storing image information in units of pixels; VRAM, rendering target). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. Note that when there are a plurality of virtual cameras (viewpoints), an image can be generated so that an image seen from each virtual camera can be displayed as a divided image on one screen.

なお頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現される。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、従来のハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   Note that the vertex processing and pixel processing are realized by hardware that enables polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of drawing processing is high, and expressive power is greatly improved compared to conventional hardware-based fixed drawing processing. Can do.

そして3次元画像描画部110は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The three-dimensional image drawing unit 110 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理が行われる。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、記憶部170に保存される。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. Then, the object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the storage unit 170. .

テクスチャマッピングは、記憶部170のテクスチャバッファ176に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170のテクスチャバッファ176からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   Texture mapping is a process for mapping a texture (texel value) stored in the texture buffer 176 of the storage unit 170 to an object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the texture buffer 176 of the storage unit 170 using the texture coordinates set (given) at the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が入力されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに入力されるZ値を参照する。そして参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。   As the hidden surface removal processing, hidden surface removal processing can be performed by a Z buffer method (depth comparison method, Z test) using a Z buffer (depth buffer) to which a Z value (depth information) of a drawing pixel is input. . That is, when a drawing pixel corresponding to the primitive of the object is drawn, the Z value input to the Z buffer is referred to. Then, the Z value of the referenced Z buffer is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is a Z value (for example, a small Z value) on the near side when viewed from the virtual camera. In some cases, the drawing process of the drawing pixel is performed and the Z value of the Z buffer is updated to a new Z value.

αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。   α blending (α synthesis) is a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value).

なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして出力できる。   The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be output as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

音生成部112は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 112 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

このように本実施形態のゲームシステムは、操作部160からの操作情報に応じてキャラクタオブジェクトなどがリアルタイムにオブジェクト空間を移動する3次元画像をゲーム画像として生成し、表示部190に表示させる。そして本実施形態のゲームシステムは、WEBページなどのブラウザとしての機能を備えており、サーバや他の端末装置にアクセスしてWEBページ画像などを表示部190に表示させることができる。以下、ブラウザとしての機能について詳述する。   As described above, the game system according to the present embodiment generates a three-dimensional image in which a character object or the like moves in the object space in real time in accordance with operation information from the operation unit 160 as a game image and causes the display unit 190 to display the game image. The game system of this embodiment has a function as a browser such as a WEB page, and can access a server or another terminal device to display a WEB page image or the like on the display unit 190. The browser function will be described in detail below.

検索情報取得部114は、所与のデータベースを検索するためのキーワードとなる第1の検索情報を取得する。具体的には本実施形態では、オブジェクト空間に設定される種々のオブジェクトについて、各オブジェクトに対応する第1の検索情報が記憶部170に記憶されている。そして検索情報取得部114は、オブジェクトについて所与の条件が満たされた場合に、オブジェクトに関連付けられた第1の検索情報を取得する。   The search information acquisition unit 114 acquires first search information that is a keyword for searching a given database. Specifically, in the present embodiment, first search information corresponding to each object is stored in the storage unit 170 for various objects set in the object space. Then, the search information acquisition unit 114 acquires the first search information associated with the object when a given condition is satisfied for the object.

また本実施形態では、ゲームに関連付けて設定された各種の条件について、各条件に対応する第1の検索情報が記憶部170に記憶されている。そして検索情報取得部114は、ゲームに関連付けて設定された所与の条件が満たされた場合に、満たされた条件に関連付けられた第1の検索情報を取得する。   In the present embodiment, the first search information corresponding to each condition is stored in the storage unit 170 for various conditions set in association with the game. Then, when a given condition set in association with the game is satisfied, the search information acquisition unit 114 acquires first search information associated with the satisfied condition.

また検索情報取得部114は、操作部160からの入力に基づいて第1の検索情報を取得するようにしてもよい。この場合本実施形態では、表示部190に文字が配列されたキーボード画像を表示させ、図1に示す方向キーDKやボタンBTなどへの操作に応じて入力文字の選択、決定を受け付けることにより第1の検索情報を取得するようにしてもよい。   The search information acquisition unit 114 may acquire the first search information based on the input from the operation unit 160. In this case, in this embodiment, a keyboard image in which characters are arranged is displayed on the display unit 190, and selection and determination of input characters are accepted in response to an operation on the direction key DK, the button BT, or the like shown in FIG. One search information may be acquired.

なお検索情報取得部114は、1つのオブジェクトや条件について第1の検索情報として1つの文字列を取得するようにしてもよいし、複数の文字列を取得するようにしてもよい。   The search information acquisition unit 114 may acquire one character string as the first search information for one object or condition, or may acquire a plurality of character strings.

検索結果取得部116は、所与のデータベースを検索する検索部200にアクセスし、第1の検索情報に対応する検索結果を取得する。本実施形態では検索結果取得部116は、検索情報取得部114が第1の検索情報を取得すると、ネットワークを介して検索部200にアクセスし、第1の検索情報を送信するとともに、第1の検索情報を用いたデータベースの検索要求を送信する。すると検索部200は、受信した第1の検索情報に基づいてデータベースを検索し、第1の検索情報に対応する検索結果を検索要求の送信元であるゲームシステムに送信し、検索結果取得部116がこれを取得する。   The search result acquisition unit 116 accesses the search unit 200 that searches a given database, and acquires a search result corresponding to the first search information. In the present embodiment, when the search information acquisition unit 114 acquires the first search information, the search result acquisition unit 116 accesses the search unit 200 via the network and transmits the first search information. A database search request using search information is transmitted. Then, the search unit 200 searches the database based on the received first search information, transmits the search result corresponding to the first search information to the game system that is the transmission source of the search request, and the search result acquisition unit 116. Get this.

ここで本実施形態では検索部200として、WEB、WAN、LANなどのネットワークを介して本実施形態のゲームシステムと接続され、検索エンジンとして機能するサーバを用いることができる。かかる検索部200では、他のサーバや端末に格納され、ネットワークに対して公開されたWEBページなどの公開ページについて、クローラなどのプログラムを用いて、HTML、XML、XHTMLなどのマークアップ言語で記述されたテキストデータや、マークアップ言語で参照される画像データや、最終的に表示部190に表示される公開ページにおけるテキストや画像の配置データや、他の公開ページのアドレスへのハイパーリンクデータなど、最終的に表示部190に表示される公開ページを構成するための各種のページ構成情報とそのアドレス情報を収集し、索引情報(インデックス)を作成してデータベース化している。そして検索部200は、入力された第1の検索情報に基づいてデータベースの索引情報を参照することにより、第1の検索情報の文字列を含む公開ページのアドレス情報など、第1の検索情報に対応する検索結果を抽出し、本実施形態のゲームシステムなどの端末に提供する。   Here, in the present embodiment, as the search unit 200, a server connected to the game system of the present embodiment via a network such as WEB, WAN, or LAN and functioning as a search engine can be used. In the search unit 200, a public page such as a WEB page stored in another server or terminal and published to the network is described in a markup language such as HTML, XML, XHTML using a program such as a crawler. Text data, image data referenced in a markup language, layout data of text and images on a public page that is finally displayed on the display unit 190, hyperlink data to addresses of other public pages, etc. In addition, various page configuration information and address information for configuring the public page that is finally displayed on the display unit 190 are collected, and index information (index) is created to create a database. Then, the search unit 200 refers to the index information of the database based on the input first search information, thereby obtaining the first search information such as the address information of the public page including the character string of the first search information. Corresponding search results are extracted and provided to a terminal such as the game system of this embodiment.

これにより検索結果取得部116は、第1の検索情報に対応する検索結果として、第1の検索情報の文字列を含む公開ページなどのアドレス情報を取得することができる。   Accordingly, the search result acquisition unit 116 can acquire address information such as a public page including the character string of the first search information as a search result corresponding to the first search information.

また本実施形態では、所与のデータベースを検索するための第2の検索情報が記憶部170に記憶されている。本実施形態では第2の検索情報を、本実施形態のゲームを通じてプレーヤに提供しようとする世界観や雰囲気を示す文字列とすることができ、例えば「楽しい」、「のびのび」などのような文字列とすることができる。そして検索情報取得部114が第1の検索情報を取得すると、検索結果取得部116は、検索部200に第1の検索情報と第2の検索情報とを送信するとともに、第1の検索情報と第2の検索情報とを用いたデータベースの検索要求を送信し、第1の検索情報と第2の検索情報とに対応する検索結果を取得する。従って本実施形態では、ゲームを通じてプレーヤに提供しようとする世界観や雰囲気に関連したWEBページのアドレス情報を含む検索結果を取得することができる。   In the present embodiment, the second search information for searching a given database is stored in the storage unit 170. In the present embodiment, the second search information can be a character string indicating the world view or atmosphere to be provided to the player through the game of the present embodiment. For example, characters such as “fun”, “freely”, etc. Can be a column. When the search information acquisition unit 114 acquires the first search information, the search result acquisition unit 116 transmits the first search information and the second search information to the search unit 200, and the first search information and A database search request using the second search information is transmitted, and search results corresponding to the first search information and the second search information are acquired. Therefore, in this embodiment, it is possible to acquire a search result including address information of a WEB page related to the world view and atmosphere to be provided to the player through the game.

ページ構成情報取得部118は、検索結果に対応するアドレス情報にアクセスし、アクセスしたアドレス情報に対応するページ構成情報を取得する。ここでページ構成情報には、最終的に表示部190に表示される公開ページを構成するための各種の情報であって、HTML、XML、XHTMLなどのマークアップ言語で記述されたテキストデータや、マークアップ言語で参照される画像データや、最終的に表示部190に表示される公開ページにおけるテキストや画像の配置データや、他の公開ページのアドレスへのハイパーリンクデータなどが含まれる。   The page configuration information acquisition unit 118 accesses address information corresponding to the search result, and acquires page configuration information corresponding to the accessed address information. Here, the page configuration information includes various types of information for configuring a public page that is finally displayed on the display unit 190, such as text data described in a markup language such as HTML, XML, and XHTML, This includes image data referred to in a markup language, text and image arrangement data on a public page that is finally displayed on the display unit 190, hyperlink data to addresses of other public pages, and the like.

本実施形態ではページ構成情報取得部118は、検索結果取得部116が検索結果を取得すると、検索結果に含まれる複数のアドレス情報のうち任意のアドレス情報を自動的に(操作者の操作に拠らず)選択する。本実施形態ではページ構成情報取得部118は、検索部200が提供する複数のアドレス情報における各アドレス情報の優先順位に関わらず、ランダムに、或いは所与のアルゴリズムに基づいて、複数のアドレス情報を選択する。そして選択したアドレス情報に基づいて、ネットワークを介してWEBサーバや他の端末のファイルにアクセスし、ファイルに格納されているページ構成情報を取得する。   In the present embodiment, when the search result acquisition unit 116 acquires a search result, the page configuration information acquisition unit 118 automatically selects arbitrary address information from among a plurality of address information included in the search result (based on the operation of the operator). Select). In the present embodiment, the page configuration information acquisition unit 118 obtains a plurality of address information randomly or based on a given algorithm regardless of the priority order of each address information in the plurality of address information provided by the search unit 200. select. Based on the selected address information, the file of the WEB server or another terminal is accessed via the network, and the page configuration information stored in the file is acquired.

すると描画部109がページ画像描画部120として機能し、取得したページ構成情報に基づいてページ画像を描画する。具体的にはページ画像描画部120は、記憶部170のページ画像バッファ178に、ページ構成情報が指定する範囲内にテキスト、画像、ハイパーリンクが配置された画像をページ画像として描画する。このページ画像バッファ178に描画されたページ画像は、表示部190にウィンドウ形式で表示するためのものである。   Then, the drawing unit 109 functions as the page image drawing unit 120 and draws a page image based on the acquired page configuration information. Specifically, the page image drawing unit 120 draws an image in which text, an image, and a hyperlink are arranged in a page image buffer 178 of the storage unit 170 within a range specified by the page configuration information as a page image. The page image drawn in the page image buffer 178 is for display on the display unit 190 in a window format.

そして描画部109が3次元画像描画部110として機能して3次元ゲーム画像を描画する場合には、ページ画像描画部120は、かかるページ画像とテクスチャ座標とを対応付ける処理を行う。具体的にはページ画像描画部120は、ページ画像バッファ178に描画したページ画像の一部または全部をコピーして、ページ画像の一部または全部のコピーを構成する各ピクセルにテクスチャ座標(UV座標、2次元座標の一例)を対応付けながら、ページ画像の一部または全部のコピーをページ画像テクスチャとして記憶部170のテクスチャバッファ176に格納する。   When the drawing unit 109 functions as the three-dimensional image drawing unit 110 to draw a three-dimensional game image, the page image drawing unit 120 performs processing for associating the page image with the texture coordinates. Specifically, the page image drawing unit 120 copies part or all of the page image drawn in the page image buffer 178, and applies texture coordinates (UV coordinates) to each pixel constituting the copy of part or all of the page image. A copy of a part or all of the page image is stored in the texture buffer 176 of the storage unit 170 as a page image texture while associating (an example of two-dimensional coordinates).

なおページ画像描画部120は、ページ構成情報に基づいてページ画像をテクスチャバッファ176に直接的に描画することにより、ページ画像を構成する各ピクセルにテクスチャ座標を対応付けながら、ページ画像をページ画像テクスチャとしてテクスチャバッファ176に格納するようにしてもよい。   Note that the page image drawing unit 120 draws the page image directly in the texture buffer 176 based on the page configuration information, thereby associating the page image with the texture coordinates to each pixel constituting the page image. May be stored in the texture buffer 176.

そして本実施形態では、3次元画像描画部110が、テクスチャ座標が対応付けられたページ画像をテクスチャとしてオブジェクトにマッピングする処理を行う。具体的には3次元画像描画部110は、ページ画像がテクスチャとしてマッピングされるオブジェクトを描画する場合に、対応するページ画像テクスチャをテクスチャバッファ176から読出し、オブジェクトの頂点に予め設定されたテクスチャ座標を用いてオブジェクトに対応するピクセルとページ画像テクスチャのテクセルとを対応付けることにより、ページ画像テクスチャがマッピングされたオブジェクトを描画する。なお、キャラクタオブジェクトにページ画像をテクスチャとしてマッピングするようにしてもよい。   In this embodiment, the three-dimensional image drawing unit 110 performs a process of mapping a page image associated with texture coordinates to an object as a texture. Specifically, when drawing an object in which a page image is mapped as a texture, the 3D image drawing unit 110 reads the corresponding page image texture from the texture buffer 176, and sets the texture coordinates set in advance at the vertex of the object. The object to which the page image texture is mapped is drawn by associating the pixel corresponding to the object with the texel of the page image texture. In addition, you may make it map a page image as a texture to a character object.

一方、描画部109が2次元ゲーム画像を描画する場合には、描画部109は、ページ画像バッファ178に描画されたページ画像の一部または全部のコピーを、描画バッファ174において特定のオブジェクトの位置に対応させて描画する。なおページ画像描画部120が、ページ構成情報に基づいてページ画像を描画バッファ174に直接的に描画するようにしてもよい。   On the other hand, when the drawing unit 109 draws a two-dimensional game image, the drawing unit 109 copies a part or all of the page image drawn in the page image buffer 178 to the position of a specific object in the drawing buffer 174. Draw corresponding to. The page image drawing unit 120 may draw the page image directly in the drawing buffer 174 based on the page configuration information.

すなわち本実施形態では、描画部109は、2次元ゲーム画像を生成する場合、3次元ゲーム画像を生成する場合のいずれの場合でも、オブジェクト空間に設定されたオブジェクトの画像を描画するとともに、ページ構成情報に基づいてページ画像をオブジェクトの位置に対応させて描画する。   That is, in the present embodiment, the drawing unit 109 draws an image of an object set in the object space and generates a page configuration in any case of generating a two-dimensional game image or a three-dimensional game image. Based on the information, the page image is drawn in correspondence with the position of the object.

ページ評価部122は、ページ構成情報取得部118が取得したページ構成情報に基づいて、あるいはページ構成情報に基づいて描画されたページ画像に基づいて、あるいはページ画像テクスチャに基づいて、ページ画像を評価する。具体的にはページ評価部122は、ページ構成情報のデータ量やデータの種類、ページ構成情報に含まれる画像データの色分布(配色)や、ページ画像、あるいはページ画像テクスチャのデータ量や色分布を解析して、評価結果を与える。   The page evaluation unit 122 evaluates the page image based on the page configuration information acquired by the page configuration information acquisition unit 118, based on the page image drawn based on the page configuration information, or based on the page image texture. To do. Specifically, the page evaluation unit 122 determines the data amount and data type of the page configuration information, the color distribution (color arrangement) of the image data included in the page configuration information, the data amount and color distribution of the page image or page image texture. To give an evaluation result.

オブジェクト制御部124は、ページ画像がテクスチャとしてマッピングされるオブジェクトの種類、形状、大きさ、色を制御するとともに、キャラクタオブジェクトの種類、行動、大きさ、色を制御する。具体的にはオブジェクト制御部124は、複数種類のオブジェクトあるいはキャラクタオブジェクトから、オブジェクト空間に設定するオブジェクトあるいはキャラクタオブジェクトを選択する処理を行ったり、オブジェクト空間に設定するオブジェクトあるいはキャラクタオブジェクトを変形させたり、色を変化させたり、オブジェクトにマッピングするテクスチャを変更する処理を行う。またキャラクタオブジェクトの行動の制御として、複数のモーションデータからキャラクタオブジェクトについて用いるモーションデータを変更したり、キャラクタオブジェクトの台詞を示す表示や音声を変更する処理を行う。そしてオブジェクト制御部124は、ページ評価部122の評価結果に基づいて、これらの処理を行う。   The object control unit 124 controls the type, shape, size, and color of an object to which the page image is mapped as a texture, and controls the type, action, size, and color of the character object. Specifically, the object control unit 124 performs a process of selecting an object or character object set in the object space from a plurality of types of objects or character objects, deforms the object or character object set in the object space, A process of changing the color or changing the texture mapped to the object is performed. Further, as control of the action of the character object, processing for changing the motion data used for the character object from a plurality of motion data, or changing the display or voice indicating the dialogue of the character object is performed. Then, the object control unit 124 performs these processes based on the evaluation result of the page evaluation unit 122.

また本実施形態では、移動・動作処理部108が、ページ評価部122の評価結果に基づいて、ページ画像がテクスチャとしてマッピングされるオブジェクトを移動させる。また本実施形態では、移動・動作処理部108が、ページ画像がテクスチャとしてマッピングされるオブジェクトと関連付けてキャラクタオブジェクトを移動・動作させる。例えばページ画像がテクスチャとしてマッピングされるオブジェクトを、キャラクタオブジェクトが持ちながら移動するように、ページ画像がテクスチャとしてマッピングされるオブジェクトとキャラクタオブジェクトの位置、回転角度などを制御する。この場合、ページ画像がテクスチャとしてマッピングされるオブジェクトを、キャラクタオブジェクトの一部として構成するようにしてもよい。   In this embodiment, the movement / motion processing unit 108 moves an object on which a page image is mapped as a texture based on the evaluation result of the page evaluation unit 122. In this embodiment, the movement / motion processing unit 108 moves / moves the character object in association with an object to which the page image is mapped as a texture. For example, the position, rotation angle, and the like of the object and the character object to which the page image is mapped as the texture are controlled so that the character object moves while holding the object to which the page image is mapped as the texture. In this case, an object in which the page image is mapped as a texture may be configured as a part of the character object.

1−3.本実施形態の手法
本実施形態のゲームシステムGSは、検索情報に対応するWEBページ画像をテクスチャとしてオブジェクトにマッピングし、3次元画像であるゲーム画像の一部としてモニタMNに表示させる手法を採用する。以下、本実施形態の手法の一例について詳細に説明する。
1-3. Method of the present embodiment The game system GS of the present embodiment employs a method of mapping a WEB page image corresponding to search information to an object as a texture and displaying it on the monitor MN as a part of a game image that is a three-dimensional image. . Hereinafter, an example of the method of the present embodiment will be described in detail.

1−3−1.ページ構成情報の取得
本実施形態のゲームシステムGSは、図1に示すように、操作部CTからの操作情報に応じてプレーヤキャラクタをオブジェクト空間においてリアルタイムに移動・動作させ、オブジェクト空間に設定されるAIキャラクタや、種々のオブジェクトに遭遇させたり、買い物をさせるなど、種々のイベントを発生させるゲームを実行する。
1-3-1. Acquisition of Page Configuration Information In the game system GS of the present embodiment, as shown in FIG. 1, a player character is moved and operated in real time in the object space in accordance with operation information from the operation unit CT, and is set in the object space. A game that generates various events, such as causing an AI character or various objects to encounter or shopping, is executed.

そして本実施形態では、オブジェクト空間に設定される種々のオブジェクトに、各オブジェクトに対応する文字列が第1の検索情報として関連付けられて記憶されている。例えば本実施形態では、図4(A)に示すように、リンゴの形状をしたオブジェクトには、「リンゴ」の文字列が第1の検索情報として関連付けられ、車の形状をしたオブジェクトには、「車」の文字列が第1の検索情報として関連付けられている。そして本実施形態では、リンゴの形状をしたオブジェクトをプレーヤキャラクタが食べると、「リンゴ」などの文字列を第1の検索情報として取得し、車の形状をしたオブジェクトにキャラクタが接触すると、「車」などの文字列を第1の検索情報として取得する。   In this embodiment, a character string corresponding to each object is stored in association with various objects set in the object space as first search information. For example, in the present embodiment, as shown in FIG. 4 (A), an apple-shaped object is associated with the character string “apple” as the first search information, and an object having a car shape is The character string “car” is associated as the first search information. In this embodiment, when the player character eats an apple-shaped object, a character string such as “apple” is acquired as the first search information, and when the character comes into contact with a car-shaped object, “car "Is acquired as the first search information.

また本実施形態では、ゲームに関連付けて設定された各種の条件に、各条件に対応する文字列が第1の検索情報として関連付けられて記憶されている。例えば本実施形態では、図4(B)に示すように、ゲーム中の時間進行が夜になるという条件には、「夜」などの文字列が第1の検索情報として関連付けられ、プレーヤキャラクタが泳ぐという条件には、「水泳」などの文字列が第1の検索情報として関連付けられている。そして本実施形態では、ゲーム中の時間進行が夜になると「夜」の文字列を第1の検索情報として取得し、プレーヤキャラクタが泳ぐと「水泳」の文字列を第1の検索情報として取得する。   In the present embodiment, a character string corresponding to each condition is stored in association with the various conditions set in association with the game as first search information. For example, in the present embodiment, as shown in FIG. 4B, a character string such as “night” is associated as the first search information with the condition that the time progress during the game is night, and the player character A character string such as “Swimming” is associated as first search information with the condition of swimming. In this embodiment, when the time progress in the game is night, the character string “night” is acquired as the first search information, and when the player character swims, the character string “swimming” is acquired as the first search information. To do.

このように本実施形態では、パーソナルコンピュータなどにインストールされたWEBブラウザなどのように、ユーザに検索情報の文字列を入力させることにより検索情報を取得するのではなく、操作部CTに対するプレーヤキャラクタに移動・動作を行わせるための操作を契機として、あるいはプレーヤがゲームを進行させることにより条件が満たされたことを契機として、第1の検索情報を取得する。   As described above, in the present embodiment, the search character is not acquired by causing the user to input the character string of the search information, such as a WEB browser installed in a personal computer or the like. The first search information is acquired when triggered by an operation for performing movement / motion or when a condition is satisfied when the player advances the game.

図5は、本実施形態のゲームシステムGSが第1の検索情報を取得した後に、ゲームシステムGSとサーバSVとの間で送受信される情報の流れの一例を示す図である。本実施形態のゲームシステムGSは、第1の検索情報を取得したことを契機として、図5のA1に示すように、第1の検索情報に加え、本実施形態のゲームを通じてプレーヤに提供しようとする世界観や雰囲気を示す文字列として予め定められた第2の検索情報を、インターネットINを介して検索エンジンとして機能するサーバSV1に送信する。本実施形態では、検索エンジンのアドレス情報に、データベースの検索を要求する式と、第1の検索情報の文字列と第2の検索情報とをAND条件で結ぶ式とを付加した文字列を、TCP/IPプロトコル群に従って送信する。   FIG. 5 is a diagram illustrating an example of a flow of information transmitted and received between the game system GS and the server SV after the game system GS of the present embodiment acquires the first search information. The game system GS according to the present embodiment, in response to the acquisition of the first search information, tries to provide it to the player through the game according to the present embodiment in addition to the first search information as shown in A1 of FIG. 2nd search information predetermined as a character string indicating the world view and atmosphere to be transmitted is transmitted to the server SV1 functioning as a search engine via the Internet IN. In the present embodiment, a character string obtained by adding an expression for requesting a database search to the address information of the search engine and an expression for connecting the character string of the first search information and the second search information with an AND condition, Transmit according to the TCP / IP protocol group.

するとサーバSV1は、第1の検索情報と第2の検索情報とに基づいてデータベースの索引情報を参照することにより、第1の検索情報の文字列と第2の検索情報の文字列とを含むWEBページを検索する。そしてサーバSV1は、検索エンジンのアルゴリズムに従った優先順位で10個のWEBページを抽出すると、図5のA2に示すように、10個のWEBページについて、各WEBページのアドレス情報1〜10と、当該WEBページに含まれる一部のテキスト情報1〜10とを対応させて配置したHTML形式のテキストデータを、検索結果のページ構成情報RSとして作成し、本実施形態のゲームシステムGSに送信する。   Then, the server SV1 includes the character string of the first search information and the character string of the second search information by referring to the index information of the database based on the first search information and the second search information. Search the WEB page. When the server SV1 extracts 10 WEB pages in the priority order according to the algorithm of the search engine, as shown in A2 of FIG. 5, the address information 1 to 10 of each WEB page for 10 WEB pages Then, HTML-format text data arranged in correspondence with some text information 1 to 10 included in the WEB page is created as search configuration page configuration information RS, and transmitted to the game system GS of the present embodiment. .

するとゲームシステムGSは、パーソナルコンピュータなどにインストールされたWEBブラウザなどのように、検索結果のページ構成情報RSに基づいて検索結果のページ画像を表示させるのではなく、検索結果のページ構成情報RSに含まれるアドレス情報1〜10から、ランダムに、或いは所与のアルゴリズムに基づいて、複数のアドレス情報を抽出する。そして、図5のA3に示すように、抽出した複数のアドレス情報に基づいて、インターネットINを介して複数のアドレス情報に対応するWEBサーバや他の端末のファイルにアクセスする。図5のA3の例では、図5のA2で取得した検索結果のページ構成情報RSに含まれるアドレス情報1〜10のうち、アドレス情報1、5、6、8が抽出されており、アドレス情報1、5、6、8に対応するサーバSV2にアクセスしている。   Then, the game system GS does not display the page image of the search result based on the page configuration information RS of the search result like the WEB browser installed on the personal computer or the like, but displays the page configuration information RS of the search result. A plurality of pieces of address information are extracted from the included address information 1 to 10 randomly or based on a given algorithm. Then, as shown at A3 in FIG. 5, based on the extracted plurality of address information, the WEB server corresponding to the plurality of address information and the files of other terminals are accessed via the Internet IN. In the example of A3 in FIG. 5, address information 1, 5, 6, and 8 are extracted from the address information 1 to 10 included in the page configuration information RS of the search result acquired in A2 of FIG. The server SV2 corresponding to 1, 5, 6, 8 is accessed.

すると、アドレス情報1、5、6、8に対応するサーバSV2は、各アドレス情報に対応するファイルに格納されているページ構成情報STを、本実施形態のゲームシステムGSに送信する。そして本実施形態のゲームシステムGSは、図5のA4に示すように、アドレス情報1、5、6、8に対応するHTML形式のテキストデータTD1、5、6、8と、各テキストデータTDで参照される画像データPD1、5、6、8とを、ページ構成情報ST1、5、6、8として取得する。   Then, the server SV2 corresponding to the address information 1, 5, 6, 8 transmits the page configuration information ST stored in the file corresponding to each address information to the game system GS of the present embodiment. Then, the game system GS of the present embodiment includes HTML text data TD1, 5, 6, 8 corresponding to the address information 1, 5, 6, 8 and each text data TD, as indicated by A4 in FIG. Referenced image data PD1, 5, 6, and 8 are acquired as page configuration information ST1, 5, 6, and 8.

こうして本実施形態のゲームシステムGSは、操作部CTに対するプレーヤキャラクタを移動・動作させるための操作を契機として、あるいはプレーヤがゲームを進行させることにより条件が満たされたことを契機として、対応するWEBページを構成するページ構成情報STを自動的に取得することができる。すなわち本実施形態のゲームシステムGSでは、キーボードのように文字列に対応する数の操作子がない図1に示すような操作部CTを用いつつ、ゲームを行いながらWEBページを構成するページ構成情報STを取得することができる。   Thus, the game system GS of the present embodiment is triggered by an operation for moving / moving the player character with respect to the operation unit CT or when a condition is satisfied by the player progressing the game. The page configuration information ST constituting the page can be automatically acquired. That is, in the game system GS of the present embodiment, page configuration information that configures a WEB page while playing a game while using the operation unit CT as shown in FIG. 1 that does not have the number of operators corresponding to a character string like a keyboard. ST can be acquired.

1−3−2.テクスチャ座標の対応付け
図6は、本実施形態のゲームシステムGSでWEBページ画像を描画する手法を説明するための図である。本実施形態のゲームシステムGSでは、上述のようにして取得したアドレス情報1、5、6、8に対応するページ構成情報ST1、5、6、8に基づいて、記憶部170のページ画像バッファ178に、アドレス情報1、5、6、8に対応するWEBページ画像PP1、5、6、8を描画する。このページ画像バッファ178に描画されるWEBページ画像PP1、5、6、8は、モニタMNにウィンドウ形式で表示するためのものであり、ページ構成情報ST1、5、6、8によってページの範囲や、テキスト、画像、ハイパーリンクの配置位置などが指定される。
1-3-2. Association of Texture Coordinates FIG. 6 is a diagram for explaining a technique for drawing a WEB page image in the game system GS of the present embodiment. In the game system GS of the present embodiment, the page image buffer 178 of the storage unit 170 is based on the page configuration information ST1, 5, 6, 8 corresponding to the address information 1, 5, 6, 8 acquired as described above. WEB page images PP1, 5, 6, and 8 corresponding to the address information 1, 5, 6, and 8 are drawn. The WEB page images PP1, 5, 6, and 8 drawn in the page image buffer 178 are for display in the window format on the monitor MN. The page range information ST1, 5, 6, and 8 , Text, image, hyperlink placement position, etc. are specified.

そして本実施形態では、ページ画像バッファ178に描画したWEBページ画像PP1、5、6、8をモニタMNにウィンドウ形式で表示せずに、これらのコピー画像を構成する各ピクセルにテクスチャ座標としてUV座標を対応付けながら、当該コピー画像をページ画像テクスチャTX1、5、6、8として記憶部170のテクスチャバッファ176に格納する。こうして本実施形態では、WEBページ画像PP1、5、6、8に基づいて、ページ画像テクスチャTX1、5、6、8を生成する。   In this embodiment, the WEB page images PP1, 5, 6, and 8 drawn in the page image buffer 178 are not displayed in the window format on the monitor MN, and UV coordinates are used as texture coordinates for each pixel constituting these copy images. , The copy image is stored in the texture buffer 176 of the storage unit 170 as page image textures TX1, 5, 6, and 8. Thus, in the present embodiment, page image textures TX1, 5, 6, and 8 are generated based on the WEB page images PP1, 5, 6, and 8.

図7は、WEBページ画像PPに基づいてページ画像テクスチャTXを生成する際の詳細を説明するための図である。一般的なWEBブラウザでは、モニタMNに表示させるWEBページ画像PPの範囲を縦方向に移動させるスクロール表示を行うことにより、1つのWEBページ画像PPに多くの情報を掲載することができることから、図7に示すようにWEBページ画像PPは縦長とされている場合が多い。ここで、縦長のWEBページ画像PPの全範囲に対応するページ画像テクスチャTXを生成すると、オブジェクトにマッピングした際にはページ画像テクスチャTXが非常に小さな画像となってしまい、ページ画像テクスチャTXからWEBページの内容を判別することができなくなってしまう。   FIG. 7 is a diagram for explaining details when the page image texture TX is generated based on the WEB page image PP. In a general WEB browser, a large amount of information can be posted on one WEB page image PP by performing scroll display in which the range of the WEB page image PP displayed on the monitor MN is moved in the vertical direction. As shown in FIG. 7, the WEB page image PP is often vertically long. Here, if the page image texture TX corresponding to the entire range of the vertically long WEB page image PP is generated, the page image texture TX becomes a very small image when mapped to an object, and the page image texture TX to the WEB The contents of the page cannot be determined.

そこで本実施形態では、図7に示す縦長のWEBページ画像PPのうち、最初にモニタMNに表示させる範囲である上端を含む1画面分の範囲のWEBページ画像PPをコピーし、コピー画像の各ピクセルの左上端を(0,0)として、テクスチャ座標(UV座標)を対応付ける処理を行う。こうして本実施形態では、1画面分の範囲のWEBページ画像PPに基づいて、図7に示すページ画像テクスチャTXを生成する。これにより本実施形態では、オブジェクトにマッピングした際にページ画像テクスチャTXからWEBページの内容を判別することができるように、ページ画像テクスチャTXを生成することができる。   Therefore, in the present embodiment, among the vertically long WEB page images PP shown in FIG. 7, the WEB page image PP in the range of one screen including the upper end, which is the range to be displayed on the monitor MN, is copied first. A process of associating texture coordinates (UV coordinates) with the upper left corner of the pixel as (0, 0) is performed. Thus, in the present embodiment, the page image texture TX shown in FIG. 7 is generated based on the WEB page image PP in the range of one screen. Thus, in the present embodiment, the page image texture TX can be generated so that the contents of the WEB page can be determined from the page image texture TX when mapped to an object.

1−3−3.ページ画像の評価とオブジェクト制御
本実施形態では、上述のようにして生成したページ画像テクスチャTXを、プレーヤの操作部CTに対する操作に関わらず行動するAIキャラクタAIが持つ板状オブジェクトBOにマッピングする。本実施形態では、図8に示すように、複数種類のAIキャラクタAIおよび板状オブジェクトBOが用意されており、各AIキャラクタAIにはそれぞれ異なる行動パターンデータが用意されている。そして各板状オブジェクトBOを構成するポリゴンの頂点には、ページ画像テクスチャTXをマッピングするためのテクスチャ座標(UV座標)が、各板状オブジェクトBOの左上端を(0,0)として対応付けられている。
1-3-3. Page Image Evaluation and Object Control In this embodiment, the page image texture TX generated as described above is mapped to the plate-like object BO possessed by the AI character AI that acts regardless of the operation of the player on the operation unit CT. In the present embodiment, as shown in FIG. 8, a plurality of types of AI characters AI and plate-like objects BO are prepared, and different action pattern data are prepared for each AI character AI. Then, texture coordinates (UV coordinates) for mapping the page image texture TX are associated with the vertices of the polygons constituting each plate-like object BO, with the upper left corner of each plate-like object BO being (0, 0). ing.

そして本実施形態では、図6のようにして生成したページ画像テクスチャTX1、5、6、8の各ページ画像テクスチャTXに、マッピング先としていずれかの板状オブジェクトBO(AIキャラクタAI)を対応付ける。なお本実施形態では、各ページ画像テクスチャTXに、その元画像であるページ画像PPと、そのアドレス情報と、いずれかのAIキャラクタAIと、いずれかの板状オブジェクトBOとが対応付けられる。なおAIキャラクタAIと板状オブジェクトBOとは、1つのモデルとして予め対応付けられていてもよい。   In this embodiment, any one of the plate-like objects BO (AI character AI) is associated with each page image texture TX of the page image textures TX1, 5, 6, and 8 generated as shown in FIG. 6 as a mapping destination. In the present embodiment, each page image texture TX is associated with a page image PP that is the original image, its address information, one of the AI characters AI, and one of the plate-like objects BO. The AI character AI and the plate-like object BO may be associated in advance as one model.

ここで本実施形態では、ページ画像テクスチャTX1、5、6、8それぞれのデータ量や色分布を所定のアルゴリズムを用いて解析して、それぞれに評価結果を与える。例えば、データ量が所定値よりも大きい場合には評価Aを、画像データの割合が多い場合には評価Bを、テキストデータの割合が多い場合には評価Cを、画像の色に黒が多い場合には評価Dを与える。ここで複数の評価基準が満たされる場合には、各評価基準の優先順位に従っていずれかの評価結果を与えるようにしてもよいし、別の新たな評価結果を与えるようにしてもよい。   Here, in this embodiment, the data amount and the color distribution of each of the page image textures TX1, 5, 6, and 8 are analyzed using a predetermined algorithm, and an evaluation result is given to each. For example, when the amount of data is larger than a predetermined value, evaluation A is performed. When the ratio of image data is large, evaluation B is performed. When the ratio of text data is large, evaluation C is performed. In some cases, rating D is given. Here, when a plurality of evaluation criteria are satisfied, one of the evaluation results may be given according to the priority order of each evaluation criteria, or another new evaluation result may be given.

そして本実施形態では、かかる評価結果に基づいて、各ページ画像テクスチャTXをマッピングする板状オブジェクトBOおよび板状オブジェクトBOを持つAIキャラクタAIを選択する。例えば、データ量が所定値よりも大きい場合に与えられる評価Aが与えられたページ画像テクスチャTXには、図8に示すような、板状オブジェクトBO1を重そうに持ちながらゆっくりと移動する行動パターンデータ1で制御されるAIキャラクタAI1が対応付けられる。   In this embodiment, based on the evaluation result, the AI object AI having the plate-like object BO and the plate-like object BO to which each page image texture TX is mapped is selected. For example, the page image texture TX given with the evaluation A given when the data amount is larger than a predetermined value has an action pattern that moves slowly while holding the plate-like object BO1 as shown in FIG. An AI character AI1 controlled by data 1 is associated.

そして本実施形態では、複数のAIキャラクタAIをオブジェクト空間に配置し、各AIキャラクタAIに対応付けられたページ画像テクスチャTXを、各AIキャラクタAIが持つ板状オブジェクトBOにマッピングし、図9に示すように、かかるオブジェクト空間を仮想カメラから見た3次元画像を描画する。こうして本実施形態では、図9に示すように、例えばプレーヤキャラクタPCが、リンゴの形状をしたリンゴオブジェクトAPを食べると、「リンゴ」に関するWEBページ画像がページ画像テクスチャTXとしてマッピングされた板状オブジェクトBOを持ったAIキャラクタAIが、各AIキャラクタAIに応じた行動パターンで移動・動作する画像をモニタMNに表示させることができる。   In this embodiment, a plurality of AI characters AI are arranged in the object space, and the page image texture TX associated with each AI character AI is mapped to the plate-like object BO included in each AI character AI. As shown, a three-dimensional image of the object space viewed from a virtual camera is drawn. Thus, in this embodiment, as shown in FIG. 9, for example, when the player character PC eats an apple object AP having an apple shape, a WEB page image related to “apple” is mapped as a page image texture TX. An image in which an AI character AI having BO moves and operates with an action pattern corresponding to each AI character AI can be displayed on the monitor MN.

ここで本実施形態では、各AIキャラクタAIの行動パターンデータを種々の態様とすることができ、各AIキャラクタAIが各WEBページ画像を評価結果に応じてアピールするようにプレーヤキャラクタPCに近寄ってきたり、板状オブジェクトBOを上げ下げするような動作を行うようにすることができる。ここで本実施形態では、板状オブジェクトBOにマッピングされたページ画像テクスチャTXをプレーヤが視認しやすいようにAIキャラクタAIを行動させなくともよい。例えば、図9に示すAIキャラクタAI2のように、ページ画像テクスチャTXがマッピングされている面を仮想カメラの方向とは異なる方向に向けることがあってもよい。   Here, in the present embodiment, the action pattern data of each AI character AI can take various forms, and each AI character AI approaches the player character PC so as to appeal each WEB page image according to the evaluation result. Or the operation of raising and lowering the plate-like object BO can be performed. Here, in the present embodiment, the AI character AI need not be acted so that the player can easily view the page image texture TX mapped to the plate-like object BO. For example, like the AI character AI2 shown in FIG. 9, the surface on which the page image texture TX is mapped may be directed in a direction different from the direction of the virtual camera.

1−3−4.WEBページ画像のウィンドウ表示
そして本実施形態では、プレーヤがページ画像テクスチャTXを見て興味があるWEBページがある場合には、操作部CTを操作してプレーヤキャラクタPCを移動させ、興味があるWEBページがテクスチャとしてマッピングされた板状オブジェクトBO(AIキャラクタAI)に接触させる。すると本実施形態では、接触させた板状オブジェクトBOにマッピングされたページ画像テクスチャTXに対応するWEBページ画像PPをページ画像バッファ178から読出し、図10に示すように、WEBページ画像PPをモニタMNにおいて矩形のウィンドウ領域WD内に表示させる。
1-3-4. WEB page image window display In this embodiment, when there is a WEB page in which the player is interested by looking at the page image texture TX, the player character PC is moved by operating the operation unit CT, and the WEB in which the player is interested is displayed. A page is brought into contact with a plate-like object BO (AI character AI) mapped as a texture. In this embodiment, the WEB page image PP corresponding to the page image texture TX mapped to the contacted plate-like object BO is read from the page image buffer 178, and the WEB page image PP is displayed on the monitor MN as shown in FIG. Are displayed in a rectangular window area WD.

この場合には本実施形態では、パーソナルコンピュータなどにインストールされるWEBブラウザと同様に、図10に示すようにウィンドウ領域WD内に矢印形状のポインタPTを表示させる。このポインタPTは、プレーヤが操作部CTのアナログスティックASなどを操作して移動させることができ、WEBページ画像PPにおいてハイパーリンクが設定されたテキストや画像が表示されている位置にポインタPTを合わせて操作部CTのボタンBTを押下することにより、リンク先のデータをウィンドウ領域WD内に表示させることができる。またウィンドウ領域WDは、操作部CTを操作することにより拡大、縮小、変形、移動させることができ、複数のウィンドウ領域WDを重ねて表示させることもできる。そして、ウィンドウ領域WDの背景には、プレーヤキャラクタPCなどを含む3次元画像を表示させているが、本実施形態では、ウィンドウ領域WDをモニタMNに表示させている間はプレーヤキャラクタPCの移動操作を受け付けず、AIキャラクタAIの移動・動作や、ゲーム中の時間進行も停止させている。   In this case, in the present embodiment, an arrow-shaped pointer PT is displayed in the window area WD as shown in FIG. 10, as in the case of a WEB browser installed in a personal computer or the like. The pointer PT can be moved by the player operating the analog stick AS or the like of the operation unit CT, and the pointer PT is aligned with a position where a text or image with a hyperlink is displayed on the WEB page image PP. By pressing the button BT of the operation unit CT, the link destination data can be displayed in the window area WD. Further, the window area WD can be enlarged, reduced, deformed and moved by operating the operation unit CT, and a plurality of window areas WD can be displayed in an overlapping manner. A three-dimensional image including the player character PC and the like is displayed on the background of the window area WD. In this embodiment, the player character PC is moved while the window area WD is displayed on the monitor MN. Is not accepted, and the movement / movement of the AI character AI and the time progress during the game are also stopped.

こうして本実施形態によれば、図1に示すような操作部CTを有するゲームシステムGSにおいて、オブジェクト空間においてプレーヤキャラクタPCを移動・動作させるゲームを実行し、プレーヤに操作部CTを用いたゲーム操作を行わせながら、ゲームの進行に関連しつつ、プレーヤが所望するWEBページ画像をモニタMNに表示させることができる。すなわち本実施形態によれば、キャラクタを移動・動作させることが中心で、文字列の入力を前提としないゲームシステムとブラウザシステムとを違和感なく融合させることができる。   Thus, according to the present embodiment, in the game system GS having the operation unit CT as shown in FIG. 1, a game for moving / moving the player character PC in the object space is executed, and the game operation using the operation unit CT for the player is performed. , The web page image desired by the player can be displayed on the monitor MN while being related to the progress of the game. That is, according to the present embodiment, it is possible to fuse a game system and a browser system that do not assume the input of a character string without a sense of incongruity, centering on moving / moving the character.

1−4.本実施形態の処理の流れ
続いて図11のフローチャートを参照しながら本実施形態の制御手法を実現する処理の一例について説明する。図11に示すように本実施形態のゲームシステムGSは、まず、第1の検索情報が関連付けられたオブジェクトについて、プレーヤキャラクタが接触するなど所与の条件が満たされたか否かを監視し、所与の条件が満たされると(ステップS10でY)、当該オブジェクトに関連付けられた第1の検索情報を取得する(ステップS12)。すると、第1の検索情報と第2の検索情報とを検索エンジンとして機能するサーバに送信し(ステップS13)、検索結果のページ構成情報を取得する(ステップS14)。
1-4. Process Flow of the Present Embodiment Next, an example of a process for realizing the control method of the present embodiment will be described with reference to the flowchart of FIG. As shown in FIG. 11, the game system GS of the present embodiment first monitors whether or not a given condition such as a player character touching an object associated with the first search information is satisfied. When a given condition is satisfied (Y in step S10), first search information associated with the object is acquired (step S12). Then, the first search information and the second search information are transmitted to a server functioning as a search engine (step S13), and the page configuration information of the search result is acquired (step S14).

すると、検索結果のページ構成情報から複数のアドレス情報を抽出し(ステップS16)、抽出した複数のアドレス情報に対応するファイルにアクセスする(ステップS18)。そして、アクセスした複数のファイルから各ファイルに格納されているページ構成情報を取得し(ステップS20)、各ページ構成情報に基づいて各WEBページ画像を描画する(ステップS22)。   Then, a plurality of address information is extracted from the page configuration information of the search result (step S16), and a file corresponding to the extracted plurality of address information is accessed (step S18). Then, the page configuration information stored in each file is acquired from the plurality of accessed files (step S20), and each WEB page image is drawn based on each page configuration information (step S22).

そして、各WEBページ画像について1画面分の範囲のWEBページ画像をコピーし、当該コピーの各ピクセルにテクスチャ座標を対応付け、ページ画像テクスチャを生成する(ステップS24)。そして、ページ画像テクスチャを評価し(ステップS26)、評価結果に基づいて、各ページ画像テクスチャに対応付けるAIキャラクタを選択する(ステップS28)。   Then, for each WEB page image, a WEB page image for a range of one screen is copied, and texture coordinates are associated with each pixel of the copy to generate a page image texture (step S24). Then, the page image texture is evaluated (step S26), and an AI character associated with each page image texture is selected based on the evaluation result (step S28).

そして、オブジェクト空間にAIキャラクタを配置し(ステップS30)、AIキャラクタが持つ板状オブジェクトにページ画像テクスチャをマッピングし(ステップS32)、オブジェクト空間を仮想カメラから見た3次元画像を描画する(ステップS34)。そして、プレーヤキャラクタがAIキャラクタに接触したか否かを監視し、接触した場合には(ステップS36でY)、接触したAIキャラクタに対応するWEBページ画像をウィンドウ表示する(ステップS38)。   Then, the AI character is arranged in the object space (step S30), the page image texture is mapped to the plate-like object possessed by the AI character (step S32), and a three-dimensional image obtained by viewing the object space from the virtual camera is drawn (step S32). S34). Then, it is monitored whether or not the player character has touched the AI character. If the player character has touched (Y in step S36), a WEB page image corresponding to the touched AI character is displayed in a window (step S38).

1−5.ハードウェア構成
図12に本実施形態を実現できるハードウェア構成の例を示す。メインプロセッサ900は、DVD982(情報記憶媒体)に格納されたプログラム、通信インターフェース990を介してダウンロードされたプログラム、或いはROM950に格納されたプログラムなどに基づき動作し、ゲーム処理、画像処理、音処理などを実行する。コプロセッサ902は、メインプロセッサ900の処理を補助するものであり、マトリクス演算(ベクトル演算)を高速に実行する。例えばオブジェクトを移動させたり動作(モーション)させる物理シミュレーションに、マトリクス演算処理が必要な場合には、メインプロセッサ900上で動作するプログラムが、その処理をコプロセッサ902に指示(依頼)する。
1-5. Hardware Configuration FIG. 12 shows an example of a hardware configuration capable of realizing this embodiment. The main processor 900 operates based on a program stored in the DVD 982 (information storage medium), a program downloaded via the communication interface 990, a program stored in the ROM 950, and the like, and includes game processing, image processing, sound processing, and the like. Execute. The coprocessor 902 assists the processing of the main processor 900, and executes matrix operation (vector operation) at high speed. For example, when a matrix calculation process is required for a physical simulation for moving or moving an object, a program operating on the main processor 900 instructs (requests) the process to the coprocessor 902.

ジオメトリプロセッサ904は、メインプロセッサ900上で動作するプログラムからの指示に基づいて、座標変換、透視変換、光源計算、曲面生成などのジオメトリ処理を行うものであり、マトリクス演算を高速に実行する。データ伸張プロセッサ906は、圧縮された画像データや音データのデコード処理を行ったり、メインプロセッサ900のデコード処理をアクセレートする。これにより、オープニング画面やゲーム画面において、MPEG方式等で圧縮された動画像を表示できる。   The geometry processor 904 performs geometry processing such as coordinate conversion, perspective conversion, light source calculation, and curved surface generation based on an instruction from a program operating on the main processor 900, and executes matrix calculation at high speed. The data decompression processor 906 performs decoding processing of compressed image data and sound data, and accelerates the decoding processing of the main processor 900. Thereby, a moving image compressed by the MPEG method or the like can be displayed on the opening screen or the game screen.

描画プロセッサ910は、ポリゴンや曲面などのプリミティブ面で構成されるオブジェクトの描画(レンダリング)処理を実行する。オブジェクトの描画の際には、メインプロセッサ900は、DMAコントローラ970を利用して、描画データを描画プロセッサ910に渡すと共に、必要であればテクスチャ記憶部924にテクスチャを転送する。すると描画プロセッサ910は、描画データやテクスチャに基づいて、Zバッファなどを利用した隠面消去を行いながら、オブジェクトをフレームバッファ922に描画する。また描画プロセッサ910は、αブレンディング(半透明処理)、デプスキューイング、テクスチャマッピング、フォグ処理、バイリニア・フィルタリング、トライリニア・フィルタリング、アンチエリアシング、シェーディング処理なども行う。1フレーム分の画像がフレームバッファ922に書き込まれるとその画像はディスプレイ912に表示される。   The drawing processor 910 executes drawing (rendering) processing of an object composed of primitive surfaces such as polygons and curved surfaces. When drawing an object, the main processor 900 uses the DMA controller 970 to pass the drawing data to the drawing processor 910 and, if necessary, transfers the texture to the texture storage unit 924. Then, the drawing processor 910 draws the object in the frame buffer 922 while performing hidden surface removal using a Z buffer or the like based on the drawing data and texture. The drawing processor 910 also performs α blending (translucent processing), depth cueing, texture mapping, fog processing, bilinear filtering, trilinear filtering, anti-aliasing, shading processing, and the like. When an image for one frame is written in the frame buffer 922, the image is displayed on the display 912.

サウンドプロセッサ930は、多チャンネルのADPCM音源などを内蔵し、BGM、効果音、音声などのゲーム音を生成し、スピーカ932を介して出力する。ゲームコントローラ942やメモリカード944からのデータはシリアルインターフェース940を介して入力される。   The sound processor 930 includes a multi-channel ADPCM sound source and the like, generates game sounds such as BGM, sound effects, and sounds, and outputs them through the speaker 932. Data from the game controller 942 and the memory card 944 is input via the serial interface 940.

ROM950にはシステムプログラムなどが格納される。業務用ゲームシステムの場合にはROM950が情報記憶媒体として機能し、ROM950に各種プログラムが格納される。なおROM950の代わりにハードディスクを利用してもよい。RAM960は各種プロセッサの作業領域となる。DMAコントローラ970は、プロセッサ、メモリ間でのDMA転送を制御する。DVDドライブ980は、プログラム、画像データ、或いは音データなどが格納されるDVD982にアクセスする。通信インターフェース990はネットワーク(通信回線、高速シリアルバス)を介して外部との間でデータ転送を行う。   The ROM 950 stores system programs and the like. In the case of an arcade game system, the ROM 950 functions as an information storage medium, and various programs are stored in the ROM 950. A hard disk may be used instead of the ROM 950. The RAM 960 is a work area for various processors. The DMA controller 970 controls DMA transfer between the processor and the memory. The DVD drive 980 accesses a DVD 982 in which programs, image data, sound data, and the like are stored. The communication interface 990 performs data transfer with the outside via a network (communication line, high-speed serial bus).

なお本実施形態の各部(各手段)の処理は、その全てをハードウェアのみにより実現してもよいし、情報記憶媒体に格納されるプログラムや通信インターフェースを介して配信されるプログラムにより実現してもよい。或いは、ハードウェアとプログラムの両方により実現してもよい。   The processing of each unit (each unit) of the present embodiment may be realized entirely by hardware, or may be realized by a program stored in an information storage medium or a program distributed via a communication interface. Also good. Alternatively, it may be realized by both hardware and a program.

そして本実施形態の各部の処理をハードウェアとプログラムの両方により実現する場合には、情報記憶媒体には、ハードウェア(コンピュータ)を本実施形態の各部として機能させるためのプログラムが格納される。より具体的には、上記プログラムが、ハードウェアである各プロセッサ902、904、906、910、930に処理を指示すると共に、必要であればデータを渡す。そして、各プロセッサ902、904、906、910、930は、その指示と渡されたデータとに基づいて本発明の各部の処理を実現する。   When the processing of each part of this embodiment is realized by both hardware and a program, a program for causing the hardware (computer) to function as each part of this embodiment is stored in the information storage medium. More specifically, the program instructs the processors 902, 904, 906, 910, and 930, which are hardware, and passes data if necessary. Each processor 902, 904, 906, 910, 930 realizes the processing of each unit of the present invention based on the instruction and the passed data.

2.第2の実施形態
次に第2の実施形態について説明する。基本的な構成は上述した第1の実施形態と同様であるので、以下では第2の実施形態に特徴的な部分について説明する。
2. Second Embodiment Next, a second embodiment will be described. Since the basic configuration is the same as that of the above-described first embodiment, only the characteristic features of the second embodiment will be described below.

2−1.本実施形態の構成
上述した第1の実施形態では、ページ構成情報取得部118が、検索部200からの検索結果に対応するアドレスにアクセスし、アクセスしたアドレスに対応するページ構成情報を取得し、ページ画像描画部120が、ページ構成情報に基づいてページ画像を描画するとともに、ページ画像とテクスチャ座標とを対応付ける処理を行う例を挙げて説明したが、本実施形態では特定画像描画部が、検索部200からの検索結果に含まれる特定画像情報に基づいて特定画像を描画するとともに、特定画像とテクスチャ座標とを対応付ける処理を行い、3次元画像描画部110が、テクスチャ座標が対応付けられた特定画像をテクスチャとしてオブジェクトにマッピングする処理を行う。
2-1. Configuration of the present embodiment In the first embodiment described above, the page configuration information acquisition unit 118 accesses the address corresponding to the search result from the search unit 200, acquires the page configuration information corresponding to the accessed address, The page image drawing unit 120 has been described with an example in which the page image is drawn based on the page configuration information and the process of associating the page image with the texture coordinates has been described. However, in the present embodiment, the specific image drawing unit performs the search. The specific image is drawn based on the specific image information included in the search result from the unit 200, the specific image and the texture coordinate are associated with each other, and the three-dimensional image drawing unit 110 performs the identification in which the texture coordinate is associated. A process of mapping an image to an object as a texture is performed.

詳細には、上述した検索部200においてデータベース化されるデータには、第1の実施形態で説明したWEBページなどのアドレス情報の他にも、HTML、XML、XHTMLなどのマークアップ言語で記述されたテキストデータや、マークアップ言語で参照される画像データや、最終的に表示部190に表示される公開ページにおけるテキストや画像の配置データや、他の公開ページのアドレスへのハイパーリンクデータなど、最終的に表示部190に表示されるWEBページを構成するための各種のページ構成情報を含めることができる。   Specifically, the data stored in the database in the search unit 200 described above is described in a markup language such as HTML, XML, or XHTML in addition to the address information such as the WEB page described in the first embodiment. Text data, image data referenced in a markup language, text and image arrangement data on a public page that is finally displayed on the display unit 190, hyperlink data to addresses of other public pages, etc. Various page configuration information for configuring the WEB page finally displayed on the display unit 190 can be included.

従って検索部200は、検索結果として、第1の検索情報に対応するアドレス情報の他にも、当該アドレス情報に対応するWEBページのテキストデータや画像データなど、各種のページ構成情報を、本実施形態の本体装置PSなどの端末に提供することができる。特に検索部200は、図5のA2で示したように、検索結果のページ構成情報RSに、アドレス情報1〜10やテキスト情報1〜10などのテキストデータだけでなく、図13のA2に示すように、検索結果のページ画像においてアドレス情報1〜10に対応させて表示させることが指定されている特定画像情報SP1〜10を含ませることができる。この特定画像情報SP1〜10とは、例えば商品を販売するためのWEBページに配置される代表的な商品画像情報などとすることができる。   Therefore, in addition to the address information corresponding to the first search information, the search unit 200 performs various types of page configuration information such as text data and image data of the WEB page corresponding to the address information as a search result. Can be provided to a terminal such as a main device PS in the form. Particularly, as shown by A2 in FIG. 5, the search unit 200 includes not only text data such as address information 1 to 10 and text information 1 to 10 but also A2 in FIG. 13 in the page configuration information RS of the search result. In this way, it is possible to include specific image information SP1 to SP10 designated to be displayed in correspondence with the address information 1 to 10 in the page image of the search result. The specific image information SP1 to SP10 can be representative product image information arranged on a WEB page for selling products, for example.

そして本実施形態のゲームシステムGSでは、検索結果取得部116が、第1の検索情報に対応する検索結果に特定画像情報SPを含めて取得し、検索結果から特定画像情報SPを抽出する。本実施形態では、検索結果のページ構成情報RSに含まれる特定画像情報SP1〜10から、ランダムに、或いは所与のアルゴリズムに基づいて、複数の特定画像情報を抽出する。そして本実施形態では特定画像描画部が、図14に示すように、特定画像情報SPを構成する各ピクセルにテクスチャ座標を対応付けながら、特定画像を特定画像テクスチャSTとして記憶部170のテクスチャバッファ176に格納する。なお、図14の例では、図13のA2で取得した特定画像情報SP1〜10のうち、アドレス情報1、5、6、8に対応する特定画像情報SP1、5、6、8を抽出している。   In the game system GS of this embodiment, the search result acquisition unit 116 acquires the search result corresponding to the first search information including the specific image information SP, and extracts the specific image information SP from the search result. In the present embodiment, a plurality of specific image information is extracted from the specific image information SP1 to SP10 included in the page configuration information RS as a search result, randomly or based on a given algorithm. In the present embodiment, as shown in FIG. 14, the specific image rendering unit associates texture coordinates with each pixel constituting the specific image information SP and sets the specific image as the specific image texture ST, and the texture buffer 176 of the storage unit 170. To store. In the example of FIG. 14, the specific image information SP1, 5, 6, 8 corresponding to the address information 1, 5, 6, 8 is extracted from the specific image information SP1 to 10 acquired in A2 of FIG. Yes.

このように本実施形態では、図5のA3、A4に示すように、検索結果に含まれるアドレス情報に対応するページ構成情報STを取得して、図6に示すように、ページ構成情報STに基づいてページ画像テクスチャTXを生成するのではなく、図13のA2に示すように、検索結果に含まれる特別画像情報SP1〜10を取得すると、図14に示すように、特別画像情報SP1、5、6、8に基づいて特別画像テクスチャST1、5、6、8を生成する。   As described above, in this embodiment, as shown in A3 and A4 in FIG. 5, the page configuration information ST corresponding to the address information included in the search result is acquired, and as shown in FIG. Instead of generating the page image texture TX based on it, as shown in A2 of FIG. 13, when the special image information SP1-10 included in the search result is acquired, the special image information SP1, 5 is obtained as shown in FIG. , 6, and 8 generate special image textures ST1, 5, 6, and 8.

2−2.本実施形態の処理の流れ
続いて図15のフローチャートを参照しながら本実施形態の制御手法を実現する処理の一例について説明する。図15に示すように本実施形態のゲームシステムGSは、まず、第1の検索情報が関連付けられたオブジェクトについて、プレーヤキャラクタが接触するなど所与の条件が満たされたか否かを監視し、所与の条件が満たされると(ステップS50でY)、当該オブジェクトに関連付けられた第1の検索情報を取得する(ステップS52)。すると、第1の検索情報と第2の検索情報とを検索エンジンとして機能するサーバSVに送信し(ステップS53)、検索結果のページ構成情報を取得する(ステップS54)。
2-2. Process Flow of the Present Embodiment Next, an example of a process for realizing the control method of the present embodiment will be described with reference to the flowchart of FIG. As shown in FIG. 15, the game system GS of the present embodiment first monitors whether or not a given condition such as a player character touching an object associated with the first search information is satisfied. When the given condition is satisfied (Y in step S50), the first search information associated with the object is acquired (step S52). Then, the first search information and the second search information are transmitted to the server SV functioning as a search engine (step S53), and the page configuration information of the search result is acquired (step S54).

すると、検索結果のページ構成情報から複数の特定画像情報とアドレス情報とを抽出し(ステップS56)、各特定画像情報の各ピクセルにテクスチャ座標を対応付け、特定画像テクスチャを生成する(ステップS58)。そして、特定画像テクスチャを評価し(ステップS60)、評価結果に基づいて、各特定画像テクスチャに対応付けるAIキャラクタを選択する(ステップS62)。   Then, a plurality of specific image information and address information are extracted from the page configuration information of the search result (step S56), and texture coordinates are associated with each pixel of each specific image information to generate a specific image texture (step S58). . Then, the specific image texture is evaluated (step S60), and the AI character associated with each specific image texture is selected based on the evaluation result (step S62).

そして、オブジェクト空間にAIキャラクタを配置し(ステップS64)、AIキャラクタが持つ板状オブジェクトに特定画像テクスチャをマッピングし(ステップS66)、オブジェクト空間を仮想カメラから見た3次元画像を描画する(ステップS68)。そして、プレーヤキャラクタがAIキャラクタに接触したか否かを監視し、接触した場合には(ステップS70でY)、接触したAIキャラクタに対応付けられた特定画像テクスチャのアドレス情報に対応するファイルにアクセスする(ステップS72)。そして、アクセスしたファイルからページ構成情報を取得し(ステップS74)、ページ構成情報に基づいて特定画像が掲載されているWEBページ画像を描画する(ステップS76)。こうして本実施形態では、接触したAIキャラクタに対応するWEBページ画像をウィンドウ表示する(ステップS78)。   Then, an AI character is arranged in the object space (step S64), a specific image texture is mapped to the plate-like object possessed by the AI character (step S66), and a three-dimensional image obtained by viewing the object space from the virtual camera is drawn (step S66). S68). Then, it is monitored whether or not the player character has touched the AI character. If the player character has touched (Y in step S70), the file corresponding to the address information of the specific image texture associated with the touched AI character is accessed. (Step S72). Then, the page configuration information is acquired from the accessed file (step S74), and the WEB page image on which the specific image is posted is drawn based on the page configuration information (step S76). In this way, in this embodiment, the WEB page image corresponding to the touched AI character is displayed in the window (step S78).

3.変形例
上記実施形態で説明した手法は、一例を示したに過ぎず、上記実施形態の手法と同様の効果を奏する均等な手法を採用した場合においても本発明の範囲に含めることができる。また本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。そして上記第1の実施形態、第2の実施形態や、変形例として後述する各種の手法は、本発明を実現する手法として適宜組み合わせて採用することができる。
3. Modification The method described in the above embodiment is merely an example, and even when an equivalent method that achieves the same effect as the method of the above embodiment is employed, it can be included in the scope of the present invention. The present invention is not limited to that described in the above embodiment, and various modifications can be made. The first embodiment, the second embodiment, and various methods described later as modified examples can be appropriately combined as a method for realizing the present invention.

例えば上記第1の実施形態で説明した、2次元ゲーム画像を生成する場合の手法、ページ画像を評価する手法、AIオブジェクトなどを制御する手法、WEBページ画像をウィンドウ表示する手法などは、第2の実施形態においても適宜採用することができる。   For example, the method for generating a two-dimensional game image, the method for evaluating a page image, the method for controlling an AI object, the method for displaying a WEB page image in a window, etc. described in the first embodiment are the second ones. The embodiments can also be adopted as appropriate.

また上述した第1の実施形態では、図6に示すように、ページ画像バッファ178に描画したWEBページ画像PP1、5、6、8のコピー画像を、ページ画像テクスチャTX1、5、6、8として記憶部170のテクスチャバッファ176に格納する例を挙げて説明したが、図16に示すように、ページ構成情報ST1、5、6、8に直接的に基づいて、各ピクセル(テクセル)にテクスチャ座標を対応付けながらテクスチャバッファ176にページ画像を描画することにより、ページ画像テクスチャTX1、5、6、8を生成するようにしてもよい。   In the first embodiment described above, as shown in FIG. 6, the copy images of the WEB page images PP1, 5, 6, and 8 drawn in the page image buffer 178 are used as page image textures TX1, 5, 6, and 8, respectively. Although an example of storing in the texture buffer 176 of the storage unit 170 has been described, as shown in FIG. 16, texture coordinates are assigned to each pixel (texel) directly based on the page configuration information ST 1, 5, 6, 8. The page image textures TX1, 5, 6, and 8 may be generated by drawing the page image in the texture buffer 176 while associating with each other.

また上述した第1の実施形態では、図7に示すように、1画面分の範囲のWEBページ画像PPに対応するページ画像テクスチャTXを生成する例を挙げて説明したが、図17に示すように、1画面分よりも広い範囲乃至WEBページ画像PPの全範囲に対応するページ画像テクスチャTXを生成するようにし、ページ画像テクスチャTXのうちオブジェクトにマッピングする範囲MAを変化させるようにしてもよい。これにより、AIキャラクタが持つ板状オブジェクトOBにおいて、ページ画像テクスチャTXをスクロール表示させることができる。この場合には、ページ画像描画部120が、縦長のWEBページ画像PPの全範囲に対応するページ画像テクスチャTXを生成し、3次元画像描画部110が、縦長のページ画像テクスチャTXを構成する各テクセルに対応付けられたテクスチャ座標を、操作部CTからの入力に基づいて、あるいは所定のアルゴリズムにより、縦方向に平行移動させるようにしてもよい。   In the first embodiment described above, as shown in FIG. 7, an example of generating the page image texture TX corresponding to the WEB page image PP in the range of one screen has been described, but as shown in FIG. Alternatively, a page image texture TX corresponding to a range wider than one screen or the entire range of the WEB page image PP may be generated, and the range MA to be mapped to the object may be changed in the page image texture TX. . Thereby, the page image texture TX can be scroll-displayed on the plate-like object OB possessed by the AI character. In this case, the page image drawing unit 120 generates a page image texture TX corresponding to the entire range of the vertically long WEB page image PP, and the three-dimensional image drawing unit 110 forms each of the vertically long page image texture TX. The texture coordinates associated with the texel may be translated in the vertical direction based on an input from the operation unit CT or by a predetermined algorithm.

また上述した第1の実施形態では、ページ画像テクスチャTXを生成した後でページ画像テクスチャTXを評価し、評価結果に応じてマッピング先の板状オブジェクトBO(AIキャラクタAI)などが対応付けられる例を挙げて説明したが、ページ画像テクスチャTXを生成する前にページ構成情報STやページ画像情報PPを評価し、評価結果に応じてマッピング先の板状オブジェクトBO(AIキャラクタAI)などを対応付けるようにしてもよい。この場合には、マッピング先の板状オブジェクトBOを決定してからページ画像テクスチャTXを生成することにより、マッピング先の板状オブジェクトBOに設定されたテクスチャ座標に合わせてページ画像PPの各ピクセルにテクスチャ座標を対応付けることにより、各ページ画像テクスチャTXを生成するようにしてもよい。従ってこの場合には、各板状オブジェクトBOの形状、大きさを異なるものとし、各板状オブジェクトBOの頂点に対応付けられるテクスチャ座標の範囲を異なるものとすることができる。   In the first embodiment described above, the page image texture TX is evaluated after the page image texture TX is generated, and the mapping destination plate-like object BO (AI character AI) is associated with the evaluation result. However, before generating the page image texture TX, the page configuration information ST and the page image information PP are evaluated, and the mapping destination plate-like object BO (AI character AI) is associated with the evaluation result. It may be. In this case, by determining the mapping destination plate-like object BO and generating the page image texture TX, each pixel of the page image PP is matched with the texture coordinates set in the mapping destination plate-like object BO. Each page image texture TX may be generated by associating texture coordinates. Therefore, in this case, the shape and size of each plate-like object BO can be made different, and the range of texture coordinates associated with the vertex of each plate-like object BO can be made different.

また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話等の種々の画像生成システムに適用できる。   The present invention can be applied to various games. Further, the present invention is applied to various image generation systems such as a business game system, a home game system, a large attraction system in which a large number of players participate, a simulator, a multimedia terminal, a system board for generating a game image, and a mobile phone. it can.

第1の実施形態の外観の一例を示す図。The figure which shows an example of the external appearance of 1st Embodiment. 第1の実施形態のネットワークの一例を示す図。The figure which shows an example of the network of 1st Embodiment. 第1の実施形態の機能ブロック図。The functional block diagram of 1st Embodiment. 第1の実施形態のデータテーブルの一例を示す図。The figure which shows an example of the data table of 1st Embodiment. 第1の実施形態で送受信される情報の一例を示す図。The figure which shows an example of the information transmitted / received in 1st Embodiment. 第1の実施形態で描画される画像の一例を示す図。FIG. 5 is a diagram illustrating an example of an image drawn in the first embodiment. 第1の実施形態で描画される画像の一例を示す図。FIG. 5 is a diagram illustrating an example of an image drawn in the first embodiment. 第1の実施形態で対応付けられる情報の一例を示す図。The figure which shows an example of the information matched by 1st Embodiment. 第1の実施形態で描画される画像の一例を示す図。FIG. 5 is a diagram illustrating an example of an image drawn in the first embodiment. 第1の実施形態で描画される画像の一例を示す図。FIG. 5 is a diagram illustrating an example of an image drawn in the first embodiment. 第1の実施形態の処理の流れの一例を示すフローチャート図。The flowchart figure which shows an example of the flow of a process of 1st Embodiment. 第1の実施形態のハードウェア構成の一例を示す図。FIG. 3 is a diagram illustrating an example of a hardware configuration according to the first embodiment. 第2の実施形態で送受信される情報の一例を示す図。The figure which shows an example of the information transmitted / received in 2nd Embodiment. 第2の実施形態で描画される画像の一例を示す図。The figure which shows an example of the image drawn by 2nd Embodiment. 第2の実施形態の処理の流れの一例を示すフローチャート図。The flowchart figure which shows an example of the flow of a process of 2nd Embodiment. 変形例の実施形態で描画される画像の一例を示す図。The figure which shows an example of the image drawn by embodiment of a modification. 変形例の実施形態で描画される画像の一例を示す図。The figure which shows an example of the image drawn by embodiment of a modification.

符号の説明Explanation of symbols

GS ゲームシステム、CT 操作部、PS 本体装置、MN モニタ、
GL 左グリップ、GR 右グリップ、DK 方向キー、
ASL 左アナログスティック、ASL 右アナログスティック、BT ボタン、
L1 L1ボタン、L2 L2ボタン、R1 R1ボタン、R2 R2ボタン、
IN インターネット、SV サーバ、RS 検索結果のページ構成情報、
ST ページ構成情報、PP WEBページ画像、TX ページ画像テクスチャ、
PC プレーヤキャラクタ、AI AIキャラクタ、BO 板状オブジェクト、
WD ウィンドウ領域、PT ポインタ、SP 特定画像情報、
ST 特定画像テクスチャ
GS game system, CT operation unit, PS main unit, MN monitor,
GL left grip, GR right grip, DK direction key,
ASL left analog stick, ASL right analog stick, BT button,
L1 L1 button, L2 L2 button, R1 R1 button, R2 R2 button,
IN Internet, SV server, RS search result page configuration information,
ST page configuration information, PP WEB page image, TX page image texture,
PC player character, AI AI character, BO plate-like object,
WD window area, PT pointer, SP specific image information,
ST Specific image texture

Claims (17)

画像生成プログラムであって、
オブジェクト空間にオブジェクトを設定するオブジェクト空間設定部と、
前記オブジェクト空間に設定された前記オブジェクトの画像を描画する描画部と、
所与のデータベースを検索するための第1の検索情報を記憶する記憶部と、
所与の条件が満たされた場合に、前記記憶部から該条件に対応する前記第1の検索情報を取得する検索情報取得部と、
所与のデータベースを検索する検索部にアクセスし、前記第1の検索情報に対応する検索結果を取得する検索結果取得部と、
前記検索結果に対応するアドレスにアクセスし、アクセスしたアドレスに対応するページ構成情報を取得するページ構成情報取得部としてコンピュータを機能させ、
前記描画部が、
前記ページ構成情報に基づいてページ画像を前記オブジェクトの位置に対応させて描画することを特徴とする画像生成プログラム。
An image generation program,
An object space setting section for setting an object in the object space;
A drawing unit for drawing an image of the object set in the object space;
A storage unit for storing first search information for searching a given database;
A search information acquisition unit that acquires the first search information corresponding to the condition from the storage unit when a given condition is satisfied;
A search result acquiring unit for accessing a search unit for searching a given database and acquiring a search result corresponding to the first search information;
The computer functions as a page configuration information acquisition unit that accesses an address corresponding to the search result and acquires page configuration information corresponding to the accessed address.
The drawing unit
An image generation program for rendering a page image corresponding to the position of the object based on the page configuration information.
請求項1において、
前記ページ画像を評価するページ評価部と、
前記ページ評価部の評価結果に基づいて、前記オブジェクトを移動させる移動処理部としてコンピュータを更に機能させることを特徴とする画像生成プログラム。
In claim 1,
A page evaluation unit for evaluating the page image;
An image generation program that causes a computer to further function as a movement processing unit that moves the object based on an evaluation result of the page evaluation unit.
請求項1、2のいずれかにおいて、
前記ページ画像を評価するページ評価部と、
前記ページ評価部の評価結果に基づいて、前記オブジェクトの種類、形状、大きさ、色の少なくとも1つを制御するオブジェクト制御部としてコンピュータを更に機能させることを特徴とする画像生成プログラム。
In any one of Claims 1, 2.
A page evaluation unit for evaluating the page image;
An image generation program that causes a computer to further function as an object control unit that controls at least one of the type, shape, size, and color of the object based on an evaluation result of the page evaluation unit.
画像生成プログラムであって、
オブジェクト空間にオブジェクトを設定するオブジェクト空間設定部と、
前記オブジェクトを移動・動作させる移動・動作処理部と、
前記オブジェクト空間に設定された前記オブジェクトの画像を描画する描画部と、
所与のデータベースを検索するための第1の検索情報を取得する検索情報取得部と、
所与のデータベースを検索する検索部にアクセスし、前記第1の検索情報に対応する検索結果を取得する検索結果取得部と、
前記検索結果に対応するアドレスにアクセスし、アクセスしたアドレスに対応するページ構成情報を取得するページ構成情報取得部としてコンピュータを機能させ、
前記描画部が、
前記ページ構成情報に基づいてページ画像を前記オブジェクトの位置に対応させて描画することを特徴とする画像生成プログラム。
An image generation program,
An object space setting section for setting an object in the object space;
A movement / motion processing unit for moving / moving the object;
A drawing unit for drawing an image of the object set in the object space;
A search information acquisition unit for acquiring first search information for searching a given database;
A search result acquiring unit for accessing a search unit for searching a given database and acquiring a search result corresponding to the first search information;
The computer functions as a page configuration information acquisition unit that accesses an address corresponding to the search result and acquires page configuration information corresponding to the accessed address.
The drawing unit
An image generation program for rendering a page image corresponding to the position of the object based on the page configuration information.
請求項4において、
前記ページ画像を評価するページ評価部としてコンピュータを更に機能させ、
前記移動・動作処理部が、
前記ページ評価部の評価結果に基づいて、前記オブジェクトを移動・動作させることを特徴とする画像生成プログラム。
In claim 4,
Further functioning a computer as a page evaluation unit for evaluating the page image,
The movement / motion processing unit
An image generation program that moves and operates the object based on an evaluation result of the page evaluation unit.
請求項4、5のいずれかにおいて、
前記ページ画像を評価するページ評価部と、
前記オブジェクトの種類、行動、大きさ、色の少なくとも1つを制御するオブジェクト制御部としてコンピュータを更に機能させ、
前記オブジェクト制御部が、
前記ページ評価部の評価結果に基づいて、前記オブジェクトの種類、行動、大きさ、色の少なくとも1つを制御することを特徴とする画像生成プログラム。
In any one of Claims 4 and 5,
A page evaluation unit for evaluating the page image;
Further causing the computer to function as an object control unit that controls at least one of the type, action, size, and color of the object,
The object control unit
An image generation program that controls at least one of a type, an action, a size, and a color of the object based on an evaluation result of the page evaluation unit.
請求項1〜6のいずれかにおいて、
所与のデータベースを検索するための第2の検索情報を記憶する記憶部としてコンピュータを更に機能させ、
前記検索結果取得部が、
前記第1の検索情報と前記第2の検索情報とに対応する検索結果を取得することを特徴とする画像生成プログラム。
In any one of Claims 1-6,
Further causing the computer to function as a storage unit for storing second search information for searching a given database;
The search result acquisition unit
An image generation program that acquires search results corresponding to the first search information and the second search information.
請求項1〜7のいずれかにおいて、
前記描画部を、
前記オブジェクトにテクスチャをマッピングして前記オブジェクト空間を仮想カメラから見た3次元画像を描画する3次元画像描画部と、
前記ページ構成情報に基づいてページ画像を描画するページ画像描画部として機能させ、
前記ページ画像描画部が、
前記ページ画像とテクスチャ座標とを対応付ける処理を行い、
前記3次元画像描画部が、
前記テクスチャ座標が対応付けられた前記ページ画像を前記テクスチャとして前記オブジェクトにマッピングする処理を行うことを特徴とする画像生成プログラム。
In any one of Claims 1-7,
The drawing unit is
A 3D image drawing unit that maps a texture to the object and draws a 3D image of the object space viewed from a virtual camera;
Function as a page image drawing unit for drawing a page image based on the page configuration information;
The page image drawing unit
A process for associating the page image with the texture coordinates,
The three-dimensional image drawing unit
An image generation program that performs a process of mapping the page image associated with the texture coordinates to the object as the texture.
請求項1〜7のいずれかにおいて、
前記オブジェクト空間設定部が、
前記オブジェクト空間にキャラクタオブジェクトおよび前記キャラクタオブジェクトとともに移動する特定オブジェクトを設定し、
前記描画部を、
前記キャラクタオブジェクトおよび前記特定オブジェクトにテクスチャをマッピングして前記オブジェクト空間を仮想カメラから見た3次元画像を描画する3次元画像描画部と、
前記ページ構成情報に基づいてページ画像を描画するページ画像描画部として機能させ、
前記ページ画像描画部が、
前記ページ画像とテクスチャ座標とを対応付ける処理を行い、
前記3次元画像描画部が、
前記テクスチャ座標が対応付けられた前記ページ画像を前記テクスチャとして前記特定オブジェクトにマッピングする処理を行うことを特徴とする画像生成プログラム。
In any one of Claims 1-7,
The object space setting unit
Set a specific object that moves with the character object and the character object in the object space,
The drawing unit is
A three-dimensional image drawing unit for mapping a texture to the character object and the specific object and drawing a three-dimensional image when the object space is viewed from a virtual camera;
Function as a page image drawing unit for drawing a page image based on the page configuration information;
The page image drawing unit
A process for associating the page image with the texture coordinates,
The three-dimensional image drawing unit
An image generation program that performs processing of mapping the page image associated with the texture coordinates as the texture to the specific object.
請求項8、9のいずれかにおいて、
前記3次元画像描画部が、
前記テクスチャ座標が対応付けられた前記ページ画像のうち、前記テクスチャとして前記オブジェクトにマッピングする範囲を変化させることを特徴とする画像生成プログラム。
In any one of Claims 8 and 9,
The three-dimensional image drawing unit
An image generation program that changes a range that is mapped to the object as the texture in the page image associated with the texture coordinates.
画像生成プログラムであって、
オブジェクト空間にオブジェクトを設定するオブジェクト空間設定部と、
前記オブジェクト空間に設定された前記オブジェクトの画像を描画する描画部と、
所与のデータベースを検索するための第1の検索情報を記憶する記憶部と、
所与の条件が満たされた場合に、前記記憶部から該条件に対応する前記第1の検索情報を取得する検索情報取得部と、
所与のデータベースを検索する検索部にアクセスし、前記第1の検索情報に対応する検索結果を取得する検索結果取得部としてコンピュータを機能させ、
前記描画部が、
前記検索結果に含まれる特定画像情報に基づいて特定画像を前記オブジェクトの位置に対応させて描画することを特徴とする画像生成プログラム。
An image generation program,
An object space setting section for setting an object in the object space;
A drawing unit for drawing an image of the object set in the object space;
A storage unit for storing first search information for searching a given database;
A search information acquisition unit that acquires the first search information corresponding to the condition from the storage unit when a given condition is satisfied;
Accessing a search unit for searching a given database, causing the computer to function as a search result acquisition unit for acquiring a search result corresponding to the first search information;
The drawing unit
An image generation program for rendering a specific image corresponding to the position of the object based on specific image information included in the search result.
画像生成プログラムであって、
オブジェクト空間にオブジェクトを設定するオブジェクト空間設定部と、
前記オブジェクトを移動・動作させる移動・動作処理部と、
前記オブジェクト空間に設定された前記オブジェクトの画像を描画する描画部と、
所与のデータベースを検索するための第1の検索情報を取得する検索情報取得部と、
所与のデータベースを検索する検索部にアクセスし、前記第1の検索情報に対応する検索結果を取得する検索結果取得部としてコンピュータを機能させ、
前記描画部が、
前記検索結果に含まれる特定画像情報に基づいて特定画像を前記オブジェクトの位置に対応させて描画することを特徴とする画像生成プログラム。
An image generation program,
An object space setting section for setting an object in the object space;
A movement / motion processing unit for moving / moving the object;
A drawing unit for drawing an image of the object set in the object space;
A search information acquisition unit for acquiring first search information for searching a given database;
Accessing a search unit for searching a given database, causing the computer to function as a search result acquisition unit for acquiring a search result corresponding to the first search information;
The drawing unit
An image generation program for rendering a specific image corresponding to the position of the object based on specific image information included in the search result.
コンピュータにより読み取り可能な情報記憶媒体であって、請求項1〜12のいずれかに記載されたプログラムを記憶することを特徴とする情報記憶媒体。   An information storage medium readable by a computer, wherein the program according to any one of claims 1 to 12 is stored. 画像生成システムであって、
オブジェクト空間にオブジェクトを設定するオブジェクト空間設定部と、
前記オブジェクト空間に設定された前記オブジェクトの画像を描画する描画部と、
所与のデータベースを検索するための第1の検索情報を記憶する記憶部と、
所与の条件が満たされた場合に、前記記憶部から該条件に対応する前記第1の検索情報を取得する検索情報取得部と、
所与のデータベースを検索する検索部にアクセスし、前記第1の検索情報に対応する検索結果を取得する検索結果取得部と、
前記検索結果に対応するアドレスにアクセスし、アクセスしたアドレスに対応するページ構成情報を取得するページ構成情報取得部とを含み、
前記描画部が、
前記ページ構成情報に基づいてページ画像を前記オブジェクトの位置に対応させて描画することを特徴とする画像生成システム。
An image generation system,
An object space setting section for setting an object in the object space;
A drawing unit for drawing an image of the object set in the object space;
A storage unit for storing first search information for searching a given database;
A search information acquisition unit that acquires the first search information corresponding to the condition from the storage unit when a given condition is satisfied;
A search result acquiring unit for accessing a search unit for searching a given database and acquiring a search result corresponding to the first search information;
A page configuration information acquisition unit that accesses an address corresponding to the search result and acquires page configuration information corresponding to the accessed address;
The drawing unit
An image generation system, wherein a page image is rendered in correspondence with the position of the object based on the page configuration information.
画像生成システムであって、
オブジェクト空間にオブジェクトを設定するオブジェクト空間設定部と、
前記オブジェクトを移動・動作させる移動・動作処理部と、
前記オブジェクト空間に設定された前記オブジェクトの画像を描画する描画部と、
所与のデータベースを検索するための第1の検索情報を取得する検索情報取得部と、
所与のデータベースを検索する検索部にアクセスし、前記第1の検索情報に対応する検索結果を取得する検索結果取得部と、
前記検索結果に対応するアドレスにアクセスし、アクセスしたアドレスに対応するページ構成情報を取得するページ構成情報取得部とを含み、
前記描画部が、
前記ページ構成情報に基づいてページ画像を前記オブジェクトの位置に対応させて描画することを特徴とする画像生成システム。
An image generation system,
An object space setting section for setting an object in the object space;
A movement / motion processing unit for moving / moving the object;
A drawing unit for drawing an image of the object set in the object space;
A search information acquisition unit for acquiring first search information for searching a given database;
A search result acquiring unit for accessing a search unit for searching a given database and acquiring a search result corresponding to the first search information;
A page configuration information acquisition unit that accesses an address corresponding to the search result and acquires page configuration information corresponding to the accessed address;
The drawing unit
An image generation system, wherein a page image is rendered in correspondence with the position of the object based on the page configuration information.
画像生成システムであって、
オブジェクト空間にオブジェクトを設定するオブジェクト空間設定部と、
前記オブジェクト空間に設定された前記オブジェクトの画像を描画する描画部と、
所与のデータベースを検索するための第1の検索情報を記憶する記憶部と、
所与の条件が満たされた場合に、前記記憶部から該条件に対応する前記第1の検索情報を取得する検索情報取得部と、
所与のデータベースを検索する検索部にアクセスし、前記第1の検索情報に対応する検索結果を取得する検索結果取得部とを含み、
前記描画部が、
前記検索結果に含まれる特定画像情報に基づいて特定画像を前記オブジェクトの位置に対応させて描画することを特徴とする画像生成システム。
An image generation system,
An object space setting section for setting an object in the object space;
A drawing unit for drawing an image of the object set in the object space;
A storage unit for storing first search information for searching a given database;
A search information acquisition unit that acquires the first search information corresponding to the condition from the storage unit when a given condition is satisfied;
A search result obtaining unit for accessing a search unit for searching a given database and obtaining a search result corresponding to the first search information;
The drawing unit
An image generation system, wherein a specific image is drawn in correspondence with a position of the object based on specific image information included in the search result.
画像生成システムであって、
オブジェクト空間にオブジェクトを設定するオブジェクト空間設定部と、
前記オブジェクトを移動・動作させる移動・動作処理部と、
前記オブジェクト空間に設定された前記オブジェクトの画像を描画する描画部と、
所与のデータベースを検索するための第1の検索情報を取得する検索情報取得部と、
所与のデータベースを検索する検索部にアクセスし、前記第1の検索情報に対応する検索結果を取得する検索結果取得部とを含み、
前記描画部が、
前記検索結果に含まれる特定画像情報に基づいて特定画像を前記オブジェクトの位置に対応させて描画することを特徴とする画像生成システム。
An image generation system,
An object space setting section for setting an object in the object space;
A movement / motion processing unit for moving / moving the object;
A drawing unit for drawing an image of the object set in the object space;
A search information acquisition unit for acquiring first search information for searching a given database;
A search result obtaining unit for accessing a search unit for searching a given database and obtaining a search result corresponding to the first search information;
The drawing unit
An image generation system, wherein a specific image is drawn in correspondence with a position of the object based on specific image information included in the search result.
JP2007316792A 2007-12-07 2007-12-07 Image generation program, information storage medium, and image generation system Active JP4954043B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007316792A JP4954043B2 (en) 2007-12-07 2007-12-07 Image generation program, information storage medium, and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007316792A JP4954043B2 (en) 2007-12-07 2007-12-07 Image generation program, information storage medium, and image generation system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012055593A Division JP2012155731A (en) 2012-03-13 2012-03-13 Retrieval system

Publications (2)

Publication Number Publication Date
JP2009140294A JP2009140294A (en) 2009-06-25
JP4954043B2 true JP4954043B2 (en) 2012-06-13

Family

ID=40870826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007316792A Active JP4954043B2 (en) 2007-12-07 2007-12-07 Image generation program, information storage medium, and image generation system

Country Status (1)

Country Link
JP (1) JP4954043B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002288547A (en) * 2001-03-26 2002-10-04 Mitsubishi Electric Corp Merchandise guide system

Also Published As

Publication number Publication date
JP2009140294A (en) 2009-06-25

Similar Documents

Publication Publication Date Title
JP5128276B2 (en) GAME DEVICE, GAME PROGRAM, COMPUTER-READABLE INFORMATION STORAGE MEDIUM, GAME SYSTEM, AND GAME PROCESSING METHOD
JP2009237680A (en) Program, information storage medium, and image generation system
JP2008225985A (en) Image recognition system
US6914612B2 (en) Image drawing method, image drawing apparatus, recording medium, and program
JP4717622B2 (en) Program, information recording medium, and image generation system
JP4728721B2 (en) Program, information storage medium, and image generation system
US6717575B2 (en) Image drawing method, image drawing apparatus, recording medium, and program
JP4305903B2 (en) Image generation system, program, and information storage medium
JP4412715B2 (en) Program, information storage medium, and image generation system
JP2007141082A (en) Program, texture data structure, information storage medium, and image generation system
JP4749198B2 (en) Program, information storage medium, and image generation system
JP4868586B2 (en) Image generation system, program, and information storage medium
JP4349733B2 (en) Method and apparatus for providing non-realistic cartoon outline in 3D video graphics system
JP2006323512A (en) Image generation system, program, and information storage medium
JP2009129167A (en) Program, information storage medium, and image generation system
JP2012155731A (en) Retrieval system
JP4754384B2 (en) Program, information recording medium, and image generation system
JP4743770B2 (en) Image generation system, program, and information storage medium
JP2007026111A (en) Program, information storage medium, and image creation system
JP5253118B2 (en) Image generation system, program, and information storage medium
JP4954043B2 (en) Image generation program, information storage medium, and image generation system
JP4913399B2 (en) Program, information storage medium, and image generation system
JP2010134798A (en) Program, information storage medium, game device, and game system
JP2010231364A (en) Image generation system, program and information recording medium
JP2010033253A (en) Program, information storage medium, and image generation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120229

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120313

R150 Certificate of patent or registration of utility model

Ref document number: 4954043

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150323

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150323

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250