JP5941207B1 - User interface program and computer mounting method - Google Patents

User interface program and computer mounting method Download PDF

Info

Publication number
JP5941207B1
JP5941207B1 JP2015178708A JP2015178708A JP5941207B1 JP 5941207 B1 JP5941207 B1 JP 5941207B1 JP 2015178708 A JP2015178708 A JP 2015178708A JP 2015178708 A JP2015178708 A JP 2015178708A JP 5941207 B1 JP5941207 B1 JP 5941207B1
Authority
JP
Japan
Prior art keywords
image
value
feature amount
program
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015178708A
Other languages
Japanese (ja)
Other versions
JP2017051492A (en
Inventor
洋平 三宅
洋平 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2015178708A priority Critical patent/JP5941207B1/en
Application granted granted Critical
Publication of JP5941207B1 publication Critical patent/JP5941207B1/en
Priority to PCT/JP2016/074193 priority patent/WO2017043287A1/en
Publication of JP2017051492A publication Critical patent/JP2017051492A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】タッチ操作に連動して生成されるUI画像として、ポリゴンの頂点計算を限定的にし、処理負荷を十分に低減させながら、多様且つ柔軟な画像生成処理を動的に実現するUIプログラムを提供する。【解決手段】本UIプログラムでは、タッチパネル上でのユーザのタッチ操作に対応する領域を決定する領域決定部と、上記領域に対し、所定の座標系の所定の範囲を対応付けて規定する座標規定部と、上記所定の範囲に対し、各座標値に基づいて各座標の特徴量を決定する特徴量決定部と、上記領域に関連付けられ、各特徴量を適用した画像を生成する画像生成部と、画像をタッチパネル上の上記領域に表示する画像表示部と、としてタッチパネルを具備するコンピュータに機能させる。【選択図】図5bAs a UI image generated in conjunction with a touch operation, a UI program that dynamically realizes various and flexible image generation processing while limiting polygon vertex calculation and sufficiently reducing processing load. provide. In this UI program, an area determination unit that determines an area corresponding to a user's touch operation on a touch panel, and a coordinate specification that specifies and associates a predetermined range of a predetermined coordinate system with the area. A feature amount determination unit that determines a feature amount of each coordinate based on each coordinate value with respect to the predetermined range, and an image generation unit that generates an image that is associated with the region and that applies the feature amount. And an image display unit for displaying an image in the region on the touch panel, and a computer having the touch panel as a function. [Selection] Figure 5b

Description

本発明は、ユーザ・インタフェース(以下、「UI」と称する。)画像表示のためのUIプログラムおよびコンピュータ実装方法に関するものである。より詳細には、スマートフォン上で実行されるゲーム(以下、「スマートフォン・ゲーム」と称する。)で使用され、指等の物体によるタッチ操作に応じて、効果的に、タッチパネル上にUI画像を表示させるためのUIプログラムおよびコンピュータ実装方法に関するものである。   The present invention relates to a UI program and a computer-implemented method for displaying a user interface (hereinafter referred to as “UI”) image. More specifically, it is used in a game executed on a smartphone (hereinafter referred to as “smart phone game”), and displays a UI image on the touch panel effectively in response to a touch operation with an object such as a finger. The present invention relates to a UI program and a computer mounting method.

スマートフォンをはじめとしたタッチパネルを具備する昨今のユーザ端末では、タッチパネル上で様々なUIが用いられる。例えば、特許文献1では、タッチパネル上のスライド操作に応じて、スライド操作の始点から終点へと伸び、始点側の一端部と終点側の他端部とで大きさ又は形状が異なるカーソルを表示するUIについて開示される(特許文献1の〔要約〕参照)。ここでは、スライド操作にわたり、カーソルが長くなるほどカーソルの面積が一定となるようにカーソルの幅を細くするような視覚上の変形処理も実施される(特許文献1の段落〔0018〕参照)。   In recent user terminals equipped with a touch panel such as a smartphone, various UIs are used on the touch panel. For example, in Patent Document 1, in accordance with a slide operation on the touch panel, a cursor that extends from the start point to the end point of the slide operation and has a different size or shape at one end on the start point side and the other end on the end point side is displayed. A UI is disclosed (see [Summary] in Patent Document 1). Here, over the slide operation, visual deformation processing is also performed in which the cursor width is narrowed so that the cursor area becomes constant as the cursor lengthens (see paragraph [0018] of Patent Document 1).

特開2012−33060号公報JP 2012-33060 A

本発明は、処理負荷を十分に低減させながら、多様且つ柔軟な画像生成処理を動的に実現可能なUIプログラムおよびそのためのコンピュータ実装方法を提供することを目的とする。   An object of the present invention is to provide a UI program capable of dynamically realizing various and flexible image generation processing while sufficiently reducing the processing load, and a computer-implemented method therefor.

上記の課題を解決するために、第1発明は、タッチパネル上でのユーザのタッチ操作に対応する領域を決定する領域決定部と、上記領域に対し、所定の座標系の所定の範囲を対応付けて規定する座標規定部と、上記所定の範囲に対し、各座標値に基づいて各座標の特徴量を決定する特徴量決定部と、上記領域に関連付けられ、各特徴量を適用した画像を生成する画像生成部と、画像をタッチパネル上の上記領域に表示する画像表示部と、としてタッチパネルを具備するコンピュータに機能させる、ユーザ・インタフェース(UI)プログラムが得られる。   In order to solve the above problems, the first invention relates to an area determination unit that determines an area corresponding to a user's touch operation on the touch panel, and a predetermined range of a predetermined coordinate system is associated with the area. A coordinate defining unit to be defined, a feature amount determining unit that determines a feature amount of each coordinate based on each coordinate value for the predetermined range, and an image that is associated with the region and that applies the feature amount A user interface (UI) program that causes a computer having a touch panel to function as an image generation unit that performs the above operation and an image display unit that displays an image in the region on the touch panel is obtained.

また、第2発明は、タッチパネル上で弾性オブジェクトの形状を変形して表示するユーザ・インタフェース(UI)プログラムであって、タッチパネル上の第1接触点の周囲に第1弾性オブジェクト画像を生成して表示する第1形成部と、タッチパネル上で第1接触点から第2接触点までのスライド操作が判定された場合に、スライド操作に連動して第1弾性オブジェクト画像を第2接触点に向けて変形させた第2弾性オブジェクト画像を形成して表示する第2形成部と、としてタッチパネルを具備する携帯端末に機能させ、上記第1形成部および上記第2形成部のそれぞれが、第1接触点を含む矩形領域を決定し、矩形領域に対し、所定の座標系の所定の範囲を対応付けて規定し、上記所定の範囲に対し、各座標値に基づいて各座標の特徴量を決定し、上記矩形領域に関連付けられ、各特徴量を適用した画像を生成して表示するように構成される、UIプログラムが得られる。   The second invention is a user interface (UI) program that displays a deformed shape of an elastic object on a touch panel, and generates a first elastic object image around the first contact point on the touch panel. When the slide operation from the first contact point to the second contact point is determined on the touch panel and the first forming unit to be displayed, the first elastic object image is directed to the second contact point in conjunction with the slide operation. A second forming unit that forms and displays a deformed second elastic object image, and functions as a portable terminal having a touch panel, and each of the first forming unit and the second forming unit has a first contact point. A rectangular area including the predetermined coordinate system is defined in association with the rectangular area, and a feature of each coordinate is determined based on each coordinate value with respect to the predetermined range. Determines, associated with the square area and is configured to display the generated image according to the feature quantities, UI program is obtained.

更に、第3発明は、タッチパネル上でのユーザのタッチ操作に対応する領域を決定するステップと、上記領域に対し、所定の座標系の所定の範囲を対応付けて規定するステップと、上記所定の範囲に対し、各座標値に基づいて各座標の特徴量を決定するステップと、上記領域に関連付けられ、各特徴量を適用した画像を生成するステップと、画像を前記タッチパネル上の上記領域に表示させるステップと、を含む、前記タッチ・スクリーンを具備するコンピュータに実装される、ユーザ・インタフェース(UI)画像表示のための方法が得られる。   Further, the third invention includes a step of determining an area corresponding to a user's touch operation on the touch panel, a step of defining a predetermined range of a predetermined coordinate system in association with the area, and the predetermined A step of determining a feature amount of each coordinate based on each coordinate value for a range, a step of generating an image associated with the region and applying each feature amount, and displaying an image in the region on the touch panel A method for user interface (UI) image display implemented on a computer comprising the touch screen.

本発明の特徴点および利点は、後述する発明の詳細な説明、並びに添付の図面および特許請求の範囲の記載から明らかなものとなる。   The features and advantages of the present invention will become apparent from the following detailed description of the invention, as well as from the accompanying drawings and claims.

図1は、本発明の実施形態によるUIプログラムを実施可能な一例のユーザ端末の模式図であるFIG. 1 is a schematic diagram of an example user terminal capable of executing a UI program according to an embodiment of the present invention. 図2は、図1のユーザ端末の物理的構成を示した模式図である。FIG. 2 is a schematic diagram showing a physical configuration of the user terminal of FIG. 図3は、図1のユーザ端末における入出力について示した模式図である。FIG. 3 is a schematic diagram showing input / output in the user terminal of FIG. 図4は、本発明の実施形態によるUIプログラムをゲーム・プログラムに適用した例示のゲーム画面である。FIG. 4 is an exemplary game screen in which the UI program according to the embodiment of the present invention is applied to a game program. 図5aは、本発明の実施形態により、タッチ操作に連動してタッチパネル上にUI画像を表示する一連の動作例である。FIG. 5a is a series of operation examples for displaying a UI image on a touch panel in conjunction with a touch operation according to an embodiment of the present invention. 図5bは、本発明の実施形態により、タッチ操作に連動してタッチパネル上にUI画像を表示する一連の動作例である。FIG. 5b is a series of operation examples for displaying a UI image on the touch panel in conjunction with a touch operation according to an embodiment of the present invention. 図6は、図5bで生成されるUI画像を適用するためのUV座標系について示す。FIG. 6 shows a UV coordinate system for applying the UI image generated in FIG. 5b. 図7は、本発明の実施形態によるUIプログラムを用いて実装される主要な機能ブロック図である。FIG. 7 is a main functional block diagram implemented using a UI program according to an embodiment of the present invention. 図8aは、本発明の実施形態によるUIプログラムにより実施される基本的な処理フロー図である。FIG. 8a is a basic process flow diagram implemented by a UI program according to an embodiment of the present invention. 図8bは、本発明の実施形態によるUIプログラムにより実施される詳細な処理フロー図である。FIG. 8b is a detailed process flow diagram implemented by the UI program according to an embodiment of the present invention. 図9は、本発明の実施形態によるUIプログラムで適用される特徴量に関する概略イメージ図である。FIG. 9 is a schematic image diagram regarding the feature amount applied in the UI program according to the embodiment of the present invention. 図10aは、本発明の実施形態によるUIプログラムを用いて生成される簡略化した画像イメージ例である。FIG. 10a is a simplified image example generated using a UI program according to an embodiment of the present invention. 図10bは、図10aに例示したUI画像イメージを生成するための輝度値計算に関するフロー図である。FIG. 10B is a flowchart relating to luminance value calculation for generating the UI image image illustrated in FIG. 10A. 図11aは、本発明の実施形態によるUIプログラムを用いて生成される第1実施例のプロシージャル画像について示す。FIG. 11a shows a procedural image of the first example generated using a UI program according to an embodiment of the present invention. 図11bは、本発明の実施形態によるUIプログラムを用いて生成される第1実施例のプロシージャル画像について示す。FIG. 11b shows a procedural image of the first example generated using a UI program according to an embodiment of the present invention. 図11cは、本発明の実施形態によるUIプログラムを用いて生成される第1実施例のプロシージャル画像について示す。FIG. 11c illustrates a first example procedural image generated using a UI program according to an embodiment of the present invention. 図12は、本発明の実施形態によるUIプログラムを用いて生成される第2実施例のプロシージャル画像について示す。FIG. 12 shows a procedural image of the second example generated using the UI program according to the embodiment of the present invention. 図13は、本発明の実施形態によるUIプログラムを用いて生成される第3実施例のプロシージャル画像について示す。FIG. 13 shows a procedural image of the third example generated using the UI program according to the embodiment of the present invention. 図14は、本発明の実施形態によるUIプログラムを用いて生成される第4実施例のプロシージャル画像について示す。FIG. 14 shows a procedural image of the fourth example generated using the UI program according to the embodiment of the present invention. 図15は、本発明の実施形態によるUIプログラムを用いて生成されるプロシージャル画像の他の手法との比較を示す。FIG. 15 shows a comparison of procedural images generated using a UI program according to an embodiment of the present invention with other methods.

[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の実施形態によるUIプログラムは、以下のような構成を備える。
[Description of Embodiment of the Present Invention]
First, the contents of the embodiment of the present invention will be listed and described. The UI program according to the embodiment of the present invention has the following configuration.

(項目1)
タッチパネル上でのユーザのタッチ操作に対応する領域を決定する領域決定部と、
前記領域に対し、所定の座標系の所定の範囲を対応付けて規定する座標規定部と、
前記所定の範囲に対し、各座標値に基づいて各座標の特徴量を決定する特徴量決定部と、
前記領域に関連付けられ、各前記特徴量を適用した画像を生成する画像生成部と、
前記画像を前記タッチパネル上の前記領域に表示する画像表示部と
として前記タッチパネルを具備するコンピュータに機能させる、ユーザ・インタフェース(UI)プログラム。
本項目によれば、最小限の計算量で画像を生成可能とする。これにより、メモリサイズを節約でき、画像品質を劣化させることなくCPU計算量を軽減させることができる。
(Item 1)
An area determination unit for determining an area corresponding to a user's touch operation on the touch panel;
A coordinate defining section that associates and defines a predetermined range of a predetermined coordinate system for the region;
A feature amount determination unit that determines a feature amount of each coordinate based on each coordinate value for the predetermined range;
An image generation unit that generates an image that is associated with the region and that applies the feature amount;
A user interface (UI) program that causes a computer including the touch panel to function as an image display unit that displays the image in the area on the touch panel.
According to this item, it is possible to generate an image with a minimum amount of calculation. Thereby, the memory size can be saved, and the CPU calculation amount can be reduced without degrading the image quality.

(項目2)
前記タッチ操作がスライド操作であり、スライド方向およびスライド距離に基づいて前記領域が決定される、項目1記載のUIプログラム。
本項目によれば、スライド操作全般にわたり、処理負荷の点で優れた画像を生成可能とする。
(Item 2)
The UI program according to item 1, wherein the touch operation is a slide operation, and the region is determined based on a slide direction and a slide distance.
According to this item, it is possible to generate an image excellent in processing load over the entire slide operation.

(項目3)
前記画像生成部において、前記特徴量に輝度値を採用する、項目1または2記載のUIプログラム。
本項目によれば、輝度値を適用することを通じて、視覚効果に優れたグラデーションを有する画像を生成することができる。
(Item 3)
The UI program according to item 1 or 2, wherein the image generation unit employs a luminance value as the feature amount.
According to this item, it is possible to generate an image having a gradation with excellent visual effect by applying the luminance value.

(項目4)
前記画像生成部において、前記特徴量にアルファ値を採用して、所定のRGB値と共に用いる、項目1から3のいずれか一項記載のUIプログラム。
本項目によれば、アルファ値を適用することを通じて、視覚効果に優れたグラデーションを有する画像を生成することができる。
(Item 4)
The UI program according to any one of items 1 to 3, wherein an alpha value is adopted as the feature amount and used together with a predetermined RGB value in the image generation unit.
According to this item, it is possible to generate an image having a gradation with excellent visual effects by applying an alpha value.

(項目5)
前記座標系がUV座標系であり、前記所定の範囲内の前記各座標値が0から1までの範囲のu値およびv値で規定され、
前記特徴量決定部において、前記各座標の特徴量が、前記各座標値に基づく特徴化ルールを適用することで決定され、
前記特徴化ルールが、u値およびv値に基づく2次関数の計算ルールを含む、項目1から4のいずれか一項記載のUIプログラム。
本項目によれば、2次関数の計算ルールを適用することを通じて、視覚的に優れた曲線を、過剰な処理負荷を掛けることなく表現することができる。
(Item 5)
The coordinate system is a UV coordinate system, and each coordinate value in the predetermined range is defined by a u value and a v value in a range from 0 to 1,
In the feature amount determination unit, the feature amount of each coordinate is determined by applying a characterization rule based on each coordinate value,
The UI program according to any one of items 1 to 4, wherein the characterization rule includes a quadratic function calculation rule based on a u value and a v value.
According to this item, a visually superior curve can be expressed without applying an excessive processing load by applying a calculation rule of a quadratic function.

(項目6)
前記特徴量決定部において、前記各座標の特徴量が、前記各座標値に基づく特徴化ルールを適用することで決定され、
前記特徴化ルールが、u値および/またはv値と前記タッチ操作がスライド操作である場合のスライド距離とに基づく補間ルールを含む、請求項1から5のいずれか一項記載のUIプログラム。
本項目によれば、補間ルールを適用することを通じて、視覚的に優れたグラデーションを有する画像を、処理負荷を掛けることなく生成することができる。
(Item 6)
In the feature amount determination unit, the feature amount of each coordinate is determined by applying a characterization rule based on each coordinate value,
The UI program according to any one of claims 1 to 5, wherein the characterization rule includes an interpolation rule based on a u value and / or a v value and a slide distance when the touch operation is a slide operation.
According to this item, an image having a visually excellent gradation can be generated without applying a processing load by applying an interpolation rule.

(項目7)
前記画像が3角形状を有する2つのポリゴンから形成される画像である、項目1から6のいずれか一項記載のUIプログラム。
本項目によれば、3角形状を有する2つのみのポリゴンから画像を生成することを可能にする。即ち、最小限の計算量で画像生成を可能とし、メモリサイズの節約およびCPU計算量の軽減を実現することができる。また、このように生成される画像は、拡大しても決してぼやけるようなことのないものとなる。
(Item 7)
The UI program according to any one of items 1 to 6, wherein the image is an image formed from two polygons having a triangular shape.
According to this item, it is possible to generate an image from only two polygons having a triangular shape. That is, it is possible to generate an image with a minimum amount of calculation, and it is possible to realize saving of memory size and reduction of CPU calculation amount. Further, the image generated in this way is never blurred even when enlarged.

(項目8)
タッチパネル上で弾性オブジェクトの形状を変形して表示するユーザ・インタフェース(UI)プログラムであって、
前記タッチパネル上の第1接触点の周囲に第1弾性オブジェクト画像を生成して表示する第1形成部と、
前記タッチパネル上で前記第1接触点から第2接触点までのスライド操作が判定された場合に、前記スライド操作に連動して前記第1弾性オブジェクト画像を前記第2接触点に向けて変形させた第2弾性オブジェクト画像を形成して表示する第2形成部と
として前記タッチパネルを具備する携帯端末に機能させ、前記第1形成部および前記第2形成部のそれぞれが、
前記第1接触点を含む矩形領域を決定し、
前記矩形領域に対し、所定の座標系の所定の範囲を対応付けて規定し、
前記所定の範囲に対し、各座標値に基づいて各座標の特徴量を決定し、
前記矩形領域に関連付けられ、各前記特徴量を適用した画像を生成して表示する
ように構成される、UIプログラム。
本項目によれば、最小限の計算量で画像生成を可能とする。これにより、メモリサイズを節約でき、画像品質を劣化させることなくCPU計算量を軽減させることができる。
(項目9)
項目8記載のUIプログラムであって、前記第1形成部において、
前記矩形領域が前記第1接触点の周囲の正方形領域であり、
前記第1弾性オブジェクト画像が、前記正方形領域内に形成される円放射状にグラデーションされた画像であり、且つ、3角形状を有する2つのポリゴンから形成される画像である、UIプログラム。
本項目によれば、視覚的に優れたグラデーションを有する特徴的な画像を、過剰な処理負荷を掛けることなく生成可能とする。
(Item 8)
A user interface (UI) program for deforming and displaying the shape of an elastic object on a touch panel,
A first forming unit that generates and displays a first elastic object image around a first contact point on the touch panel;
When a slide operation from the first contact point to the second contact point is determined on the touch panel, the first elastic object image is deformed toward the second contact point in conjunction with the slide operation. As a second forming part that forms and displays a second elastic object image, the portable terminal including the touch panel functions, and each of the first forming part and the second forming part includes:
Determining a rectangular region including the first contact point;
A predetermined range of a predetermined coordinate system is associated with the rectangular area and defined,
For the predetermined range, determine the feature amount of each coordinate based on each coordinate value,
A UI program configured to generate and display an image that is associated with the rectangular area and to which the feature amount is applied.
According to this item, it is possible to generate an image with a minimum amount of calculation. Thereby, the memory size can be saved, and the CPU calculation amount can be reduced without degrading the image quality.
(Item 9)
The UI program according to item 8, wherein in the first forming unit,
The rectangular area is a square area around the first contact point;
The UI program, wherein the first elastic object image is a circularly radiated image formed in the square area and an image formed from two polygons having a triangular shape.
According to this item, it is possible to generate a characteristic image having a visually excellent gradation without applying an excessive processing load.

(項目10)
項目9記載のUIプログラムであって、前記第2形成部において、
前記矩形領域が前記第1接触点および前記第2接触点の周囲の長方形領域であり、
前記第2オブジェクト画像が、前記長方形領域内に、前記円放射状にグラデーションされた画像を分割して離間し、該離間した間の部分を補間するように更にグラデーションされた画像であり、且つ、3角形状を有する2つのポリゴンから形成される画像である、UIプログラム。
本項目によれば、視覚的に優れたグラデーションを有する特徴的な画像を、過剰な処理負荷を掛けることなく生成可能とする。
(Item 10)
The UI program according to item 9, wherein in the second forming unit,
The rectangular region is a rectangular region around the first contact point and the second contact point;
The second object image is an image further gradationd so as to divide and separate the circularly radiated image within the rectangular region and interpolate a portion between the separated images, and 3 A UI program, which is an image formed from two polygons having a square shape.
According to this item, it is possible to generate a characteristic image having a visually excellent gradation without applying an excessive processing load.

(項目11)
タッチパネル上でのユーザのタッチ操作に対応する領域を決定するステップと、
前記領域に対し、所定の座標系の所定の範囲を対応付けて規定するステップと、
前記所定の範囲に対し、各座標値に基づいて各座標の特徴量を決定するステップと、
前記領域に関連付けられ、各前記特徴量を適用した画像を生成するステップと、
前記画像を前記タッチパネル上の前記領域に表示させるステップと
を含む、前記タッチ・スクリーンを具備するコンピュータに実装される、ユーザ・インタフェース(UI)画像表示のための方法。
本項目によれば、最小限の計算量で画像を生成可能とする。これにより、メモリサイズを節約でき、画像品質を劣化させることなくCPU計算量を軽減させることができる。
(Item 11)
Determining an area corresponding to a user's touch operation on the touch panel;
Defining a predetermined range of a predetermined coordinate system in association with the area;
Determining a feature amount of each coordinate based on each coordinate value for the predetermined range;
Generating an image associated with the region and applying each feature amount;
And displaying the image in the area on the touch panel. A method for user interface (UI) image display implemented in a computer comprising the touch screen.
According to this item, it is possible to generate an image with a minimum amount of calculation. Thereby, the memory size can be saved, and the CPU calculation amount can be reduced without degrading the image quality.

(項目12)
前記タッチ操作がスライド操作であり、スライド方向およびスライド距離に基づいて前記領域が決定される、項目11記載の方法。
本項目によれば、スライド操作全般にわたり、処理負荷の点で優れた画像を生成可能とする。
(Item 12)
The method according to item 11, wherein the touch operation is a slide operation, and the region is determined based on a slide direction and a slide distance.
According to this item, it is possible to generate an image excellent in processing load over the entire slide operation.

(項目13)
前記画像生成部において、前記特徴量に輝度値を採用する、項目11または12記載の方法。
本項目によれば、輝度値を適用することを通じて、視覚効果に優れたグラデーションを有する画像を生成することができる。
(Item 13)
Item 13. The method according to Item 11 or 12, wherein the image generation unit employs a luminance value as the feature amount.
According to this item, it is possible to generate an image having a gradation with excellent visual effect by applying the luminance value.

(項目14)
前記画像生成部において、前記特徴量にアルファ値を採用して、所定のRGB値と共に用いる、項目11から13のいずれか一項記載の方法。
本項目によれば、アルファ値を適用することを通じて、視覚効果に優れたグラデーションされた画像を生成することができる。
(Item 14)
14. The method according to any one of items 11 to 13, wherein the image generation unit adopts an alpha value as the feature value and uses the feature value together with a predetermined RGB value.
According to this item, by applying the alpha value, it is possible to generate a gradation image with excellent visual effects.

[本発明の実施形態の詳細]
これより図面を参照して、本発明の実施形態による、UI画像表示のためのUIプログラムおよびコンピュータ実装方法について説明する。図中、同一の構成要素には同一の符号を付してある。本UIプログラムは、主に、スマートフォン・ゲームとしてのゲーム・プログラムの一部として適用可能である。より詳しくは、本UIプログラムは、ゲーム・プログラムの一部としてゲームを進行させ、仮想空間や該仮想空間内のゲーム・キャラクタの動作を制御するために用いることが可能である。
[Details of the embodiment of the present invention]
A UI program and a computer-implemented method for displaying a UI image according to an embodiment of the present invention will now be described with reference to the drawings. In the figure, the same components are denoted by the same reference numerals. This UI program is mainly applicable as part of a game program as a smartphone game. More specifically, the UI program can be used to advance the game as part of the game program and to control the operation of the virtual space and the game character in the virtual space.

携帯端末のハードウェア構成
図1に示すスマートフォン1は、携帯端末の一例であり、タッチパネル2を備える。スマートフォンのユーザは当該タッチパネル2上でのタッチ操作を含むユーザ操作を介してゲームの進行を制御することができる。なお、本発明の実施形態によるUIプログラムを実行するための携帯端末は、図2のようなスマートフォン1に限定されず、例えば、PDA、タブレット型コンピュータのデバイスなど、タッチパネルを備える携帯端末であれば如何なるデバイスともできることが理解される。
Hardware Configuration of Mobile Terminal A smartphone 1 shown in FIG. 1 is an example of a mobile terminal and includes a touch panel 2. The user of the smartphone can control the progress of the game through a user operation including a touch operation on the touch panel 2. Note that the mobile terminal for executing the UI program according to the embodiment of the present invention is not limited to the smartphone 1 as shown in FIG. 2, and is, for example, a mobile terminal having a touch panel such as a PDA or a tablet computer device. It will be appreciated that any device can be used.

図2に示すように、スマートフォン1は、互いにバス接続されたCPU3、主記憶4、補助記憶5、送受信部6、表示部7および入力部8を備える。このうち主記憶4は例えばDRAMなどで構成され、補助記憶5は例えばHDDなどで構成されている。補助記憶5は、本発明の実施形態によるUIプログラムやゲーム・プログラムを記録可能な記録媒体である。補助記憶5に格納された各種プログラムは、主記憶4上に展開されてCPU3によって実行される。なお、主記憶4上には、CPU3がUIプログラムに従って動作している間に生成したデータやCPU3によって利用されるデータも一時的に格納される。送受信部6はCPU3の制御によりスマートフォン1とネットワークとの間の接続(無線接続および/または有線接続)を確立して各種情報の送受信を行う。表示部7は、CPUでの制御の下でユーザに提示することになる各種情報を表示する。入力部8は、ユーザのタッチパル2に対するタッチ入力操作(主に、タップ操作、スライド(スワイプ)操作、およびフリック操作等の物理的接触操作)を検知する。   As shown in FIG. 2, the smartphone 1 includes a CPU 3, a main memory 4, an auxiliary memory 5, a transmission / reception unit 6, a display unit 7, and an input unit 8 that are connected to each other via a bus. Of these, the main memory 4 is composed of, for example, a DRAM, and the auxiliary memory 5 is composed of, for example, an HDD. The auxiliary memory 5 is a recording medium capable of recording a UI program and a game program according to the embodiment of the present invention. Various programs stored in the auxiliary memory 5 are expanded on the main memory 4 and executed by the CPU 3. Note that data generated while the CPU 3 operates in accordance with the UI program and data used by the CPU 3 are also temporarily stored on the main memory 4. The transmission / reception unit 6 establishes connection (wireless connection and / or wired connection) between the smartphone 1 and the network under the control of the CPU 3 and transmits / receives various information. The display unit 7 displays various information to be presented to the user under the control of the CPU. The input unit 8 detects a touch input operation (mainly a physical contact operation such as a tap operation, a slide (swipe) operation, and a flick operation) on the touch pal 2 of the user.

表示部7および入力部8は、上述したタッチパネル2に相当する。図3に示すように、タッチパネル2は、入力部8に相当するタッチセンシング部301、および表示部7に相当する液晶表示部302を有する。タッチパネル2は、CPU3による制御の下で、画像を表示して、スマートフォンのユーザによるインタラクティブなタッチ操作(タッチパネル2における物理的接触操作等)を受ける。そして、制御部303での制御に基づいて、対応するグラフィックを液晶表示部302に表示する。   The display unit 7 and the input unit 8 correspond to the touch panel 2 described above. As illustrated in FIG. 3, the touch panel 2 includes a touch sensing unit 301 corresponding to the input unit 8 and a liquid crystal display unit 302 corresponding to the display unit 7. The touch panel 2 displays an image under the control of the CPU 3 and receives an interactive touch operation (such as a physical contact operation on the touch panel 2) by a smartphone user. Then, based on the control by the control unit 303, the corresponding graphic is displayed on the liquid crystal display unit 302.

より詳細には、上記タッチセンシング部301は、ユーザによるタッチ操作に応じた操作信号を制御部303に出力する。タッチ操作は、何れの物体によるものとすることができ、例えば、ユーザの指によりなされてもよいし、スタイラス等を用いてもよい。また、タッチセンシング部301として、例えば、静電容量タイプのものを採用することができるが、これに限定されない。制御部303は、タッチセンシング部301からの操作信号を検出すると、ユーザのキャラクタへの操作指示として判断し、当該指示操作に応じたグラフィック(図示せず)を液晶表示部へ表示信号として送信する処理を行う。制御部303で実装される主要機能については、図7を参照して後述する。液晶表示部302は、表示信号に応じたグラフィックを表示する。   More specifically, the touch sensing unit 301 outputs an operation signal corresponding to the touch operation by the user to the control unit 303. The touch operation can be performed by any object. For example, the touch operation may be performed by a user's finger, or a stylus may be used. In addition, as the touch sensing unit 301, for example, a capacitance type can be adopted, but is not limited thereto. When the control unit 303 detects an operation signal from the touch sensing unit 301, the control unit 303 determines as an operation instruction to the user's character, and transmits a graphic (not shown) corresponding to the instruction operation to the liquid crystal display unit as a display signal. Process. The main functions implemented by the control unit 303 will be described later with reference to FIG. The liquid crystal display unit 302 displays a graphic corresponding to the display signal.

ゲーム画面例
図4のゲーム画面例を参照しながら、本発明の実施形態によるUIプログラムおよびコンピュータ実装方法による動作について概略的に説明する。図4の画面例では、3次元仮想ゲーム空間内20にキャラクタ10が配置されている。そして、仮想カメラ(非図示)がキャラクタ10の画面手前上部から該キャラクタ10を撮影した視野画像が2次元画像としてタッチパネルに表示されている。同時に、2つのUI画像(画面左上の30と画面右下の40)が視界画像に重畳されている。UI画像30,40は、ユーザによるタッチパネルへのタッチ操作(例えば指によるスライド操作)の結果として、タッチパネル上に表示されたものである。そして、当該UI画像30,40が、本発明の実施形態によるUIプログラムおよびコンピュータ実装方法で生成されるものである。
Game Screen Example With reference to the game screen example of FIG. 4, the operation of the UI program and the computer mounting method according to the embodiment of the present invention will be schematically described. In the screen example of FIG. 4, the character 10 is arranged in the three-dimensional virtual game space 20. A field-of-view image obtained by photographing the character 10 from the upper front side of the character 10 with a virtual camera (not shown) is displayed on the touch panel as a two-dimensional image. At the same time, two UI images (30 at the upper left of the screen and 40 at the lower right of the screen) are superimposed on the view field image. The UI images 30 and 40 are displayed on the touch panel as a result of a touch operation on the touch panel by the user (for example, a slide operation with a finger). The UI images 30 and 40 are generated by the UI program and the computer mounting method according to the embodiment of the present invention.

スマートフォン・ゲームでは、通例、ユーザがスマートフォンを縦持ちして片手で操作することが多いが、勿論これに限らず、横持ちにより端末を両手で操作してもよい。両手で画面を操作する場合は、左手と右手によりそれぞれタッチ操作が許容される。図示したUI画像30,40も、左手と右手のタッチ操作によるものにそれぞれ対応するものである。   In a smartphone game, a user usually holds a smartphone vertically and operates with one hand, but of course, the present invention is not limited to this, and the terminal may be operated with both hands by holding horizontally. When the screen is operated with both hands, the touch operation is allowed with the left hand and the right hand, respectively. The UI images 30 and 40 shown in the figure also correspond to those obtained by touch operations of the left hand and the right hand, respectively.

これらUI画像により、ゲーム進行命令が生成および実行される。例えば、左手によるUI画像30は「Move」と表示されているとおり、UI画像が示している(右上)方向にキャラクタ10をゲーム空間20内の平面上を移動させる命令を実行する。同様に、右手によるUI画像40は「Camera」と表示されているとおり、UI画像が示している右上方向に視野を変更するよう仮想カメラをゲーム空間20内で移動させる命令を実行する。   A game progress command is generated and executed by these UI images. For example, as the UI image 30 with the left hand is displayed as “Move”, an instruction to move the character 10 on the plane in the game space 20 in the direction (upper right) indicated by the UI image is executed. Similarly, as the UI image 40 with the right hand is displayed as “Camera”, an instruction to move the virtual camera in the game space 20 is executed so as to change the field of view in the upper right direction indicated by the UI image.

このように、本発明の実施形態によるUI画像表示のためのUIプログラムは、ユーザのタッチ操作に応じて、UI画像を生成および表示する。本UIプログラムが、特にゲーム・プログラムに適用される場合は、それに対応したキャラクタ操作機能をコンピュータに実行させる。以下では、簡単のためにユーザによる片手操作に応じたUI画像生成および表示処理について例示により説明する。   As described above, the UI program for displaying a UI image according to the embodiment of the present invention generates and displays a UI image according to a user's touch operation. When this UI program is applied particularly to a game program, the computer is caused to execute a character operation function corresponding to the UI program. Hereinafter, for the sake of simplicity, UI image generation and display processing according to a one-handed operation by a user will be described by way of example.

UI画像表示処理
これより、図5aから図8bを参照して、本発明の実施形態によるUI画像表示のためのUIプログラムおよびコンピュータ実装方法について説明する。まず、図5aおよび図5bを参照して、タッチパネルへのタッチ操作に連動してユーザ・インタフェース(UI)画像を出力する一連の動作の概要について説明する。図5aは、タッチ操作がタップ操作である場合について示す。一方、図5bは、タッチ操作がスライド操作である場合である場合について示す。
UI Image Display Processing A UI program and a computer-implemented method for displaying a UI image according to an embodiment of the present invention will now be described with reference to FIGS. 5a to 8b. First, an outline of a series of operations for outputting a user interface (UI) image in conjunction with a touch operation on the touch panel will be described with reference to FIGS. 5a and 5b. FIG. 5a shows a case where the touch operation is a tap operation. On the other hand, FIG. 5b shows a case where the touch operation is a slide operation.

図5aの例に示すように、まず(i)において、タッチパネル2に対し、ユーザは指によるタップ操作を任意の位置で行う。当該タップ操作に対し、(ii)においてタップ位置の周囲に正方形の領域D(点線領域)が決定される。引き続き(iii)において領域D上に円放射状の画像Iが生成および表示される。ここで、「円放射状」とは、円形状を有し、且つ、円の中心から外周に向けて放射状にグラデーションされた状態のことである。以下では、「円放射状の画像」や「円放射状にグラデーションされた」等のように用いる同様に、図5bの例では、(i)において、タッチパネル2に対し、ユーザは指によるスライド操作を任意のスライド開始点からスライド終了点まで行う。図5bの場合は、当該スライド操作に対し、(ii)において、スライド開始点およびスライド終了点の周囲に長方形の領域D(点線領域)が決定される。なお、スライド操作の前後にわたり領域の幅は一定としているが、これに限定されない。 As shown in the example of FIG. 5a, first, in (i), the user performs a tap operation with a finger on the touch panel 2 at an arbitrary position. In response to the tap operation, a square area D 1 (dotted line area) is determined around the tap position in (ii). Continuing circle radial image I 1 on the region D 1 in (iii) is generated and displayed. Here, “circular radial” means a state having a circular shape and radially radiating from the center of the circle toward the outer periphery. In the following, as in the case of “circular radial image”, “circular gradation”, and the like, in the example of FIG. 5B, in FIG. 5B, in FIG. From the slide start point to the slide end point. In the case of FIG. 5B, a rectangular region D 2 (dotted line region) is determined around the slide start point and slide end point in (ii) for the slide operation. The width of the region is constant before and after the slide operation, but is not limited to this.

引き続き(iii)において、当該スライド操作に連動して、長方形領域D上に画像Iを生成して重畳する。画像Iは、図5aの画像Iをスライド終了点に向けて引き伸ばすようにして変形させる。具体的には、図5bの(iii)のように表示される領域D上の画像Iは、図5aの(iii)の画像Iをスライド操作方向に2つに分割して離間させ、そして、当該離間した間の部分を、更に、u値および/またはv値とスライド距離とに基づいて補間するように、グラデーションと共に生成される。 Subsequently, in (iii), the image I 2 is generated and superimposed on the rectangular area D 2 in conjunction with the slide operation. The image I 2 is deformed so that the image I 1 in FIG. 5 a is stretched toward the slide end point. Specifically, the image I 2 on the region D 2 which is displayed as (iii) in FIG. 5b, is separated by dividing into two slide operation direction image I 1 of the (iii) of FIG. 5a And the part between the said distance is produced | generated with a gradation so that it may interpolate further based on u value and / or v value, and a slide distance.

本発明の実施形態によれば、図5bの(ii)で領域Dが決定されると、図6(a)に示すように、当該領域Dに対して、UV座標と一般に称される座標系が適用される(なお、UV座標系はテクスチャ座標系と称されることもある。)。UV座標系は、u値は幅を、v値は高さを表す2次元の座標系である。そして、u値およびv値の各々の座標値が0から1となる範囲に小数点形式で表され、それぞれがテクスチャ座標の位置を構成する。例えば、UV座標系での位置は、座標値(0.5,0.5),(0.125,0.625)というように、上記所定の数のu値およびv値のセットで特定することができる。即ち、領域Dは、図6(a)のようにu値およびv値がそれぞれ0以上かつ1以下の範囲となる、(0,0),(1,0),(0,1),(1,1)の4点から構成される矩形領域となる。 According to an embodiment of the present invention, when the region D 2 in (ii) in FIG. 5b is determined, as shown in FIG. 6 (a), with respect to the region D 2, it referred to the UV coordinates and general A coordinate system is applied (note that the UV coordinate system may be referred to as a texture coordinate system). The UV coordinate system is a two-dimensional coordinate system in which the u value represents the width and the v value represents the height. Then, each coordinate value of the u value and the v value is expressed in a decimal point format in the range from 0 to 1, and each constitutes the position of the texture coordinate. For example, the position in the UV coordinate system is specified by the predetermined number of sets of u and v values such as coordinate values (0.5, 0.5) and (0.125, 0.625). be able to. That is, the region D 2 is, u value and v values is 0 or more and 1 or less in the range, respectively, as in FIG. 6 (a), (0,0) , (1,0), (0,1), This is a rectangular area composed of four points (1, 1).

領域D上に生成される画像、即ち、テクスチャ座標から生成したテクスチャ画像Iは、3角形状を有する2つのポリゴン、または4角形状を有する1つのポリゴンのみから形成可能なものである。つまり、テクスチャ画像Iは、最低4つの頂点情報のみをメモリに格納して表示可能なものであるため、従来技術のように、多数のポリゴンから構成するものとは処理負荷の点で大きく異なる。本発明は、視覚的に優れたグラデーションを有するテクチャ画像を、最小限の計算量で生成可能とする。これと共に、処理時のメモリサイズを節約でき、画像品質を劣化させることなくCPU計算量を軽減させることができるものである。なお、以降において、上記テクスチャ座標から動的に生成されるテクスチャ画像のことを「プロシージャル画像」と称することにする。一般的に、「プロシージャル」(procedural)とは動的に生成することを意味する語である。 Image generated on the regions D 2, i.e., a texture image I 2 generated from the texture coordinates are those that can be formed from only one polygon having two polygons or square shape, having a triangular shape. That is, since the texture image I 2 can be displayed by storing only at least four vertex information in the memory, the texture image I 2 is greatly different from the one composed of a large number of polygons in terms of processing load. . The present invention makes it possible to generate a texture image having a visually excellent gradation with a minimum amount of calculation. At the same time, the memory size at the time of processing can be saved, and the CPU calculation amount can be reduced without deteriorating the image quality. Hereinafter, a texture image dynamically generated from the texture coordinates will be referred to as a “procedural image”. In general, "procedural" is a word that means to generate dynamically.

図6(b)に示すように、矩形領域Dに対し、生成したプロシージャル画像Iを関連付ける。つまり、グラデーション表現されたプロシージャル画像Iを矩形領域D上に被せるようにマップする。なお、プロシージャル画像Iの生成、特にグラデーション表現については図9以降を参照して後述する。また、図6(b)およびこれ以降の図面では、グラデーション表現されたプロシージャル画像を図示する際、背景色を灰色にして示してある。これは、白色を明示的に可視化するために敢えて本願図面において対処したものである。 As shown in FIG. 6 (b), with respect to the rectangular region D 2, associates the generated procedural image I 2. That is, the map so as to cover the procedural image I 2 which is gradation represented on a rectangular region D 2. The generation of the procedural image I 2, will be described below with reference to subsequent figures 9, especially for gradient representation. In FIG. 6B and subsequent drawings, the background color is shown in gray when the procedural image expressed in gradation is illustrated. This has been dealt with in the drawings of the present application in order to explicitly visualize the white color.

図7は、本発明の実施形態によるUIプログラムとして実装され、タッチパネルを具備する携帯端末に機能させる主要な機能のセットについて示したものである。当該機能セットは、図3に示した制御部303に相当する制御部50を構成する。つまり、制御部50(303)を通じて、操作信号としての入力を処理し、表示信号としての出力を生成することになる。制御部50は、タッチパネルを通じたユーザ入力操作およびプロシージャル画像形成に関連するユーザ操作部100、タッチ操作に連動して図5に示したようなUI画像を生成および表示するためのUI形成部200、並びに当該ユーザ入力操作に応じたゲーム進行や仮想空間内のキャラクタを操作させるゲーム進行部(キャラクタ操作)500を含む。   FIG. 7 shows a set of main functions that are implemented as a UI program according to an embodiment of the present invention and that cause a mobile terminal having a touch panel to function. The function set constitutes a control unit 50 corresponding to the control unit 303 shown in FIG. That is, input as an operation signal is processed through the control unit 50 (303), and an output as a display signal is generated. The control unit 50 includes a user operation unit 100 related to user input operation and procedural image formation through a touch panel, and a UI formation unit 200 for generating and displaying a UI image as shown in FIG. 5 in conjunction with the touch operation. In addition, a game progress unit (character operation) 500 for operating a game in accordance with the user input operation and a character in the virtual space is included.

ユーザ操作部100は、接触・非接触判定部120およびスライド操作判定部140を含む。接触・非接触判定部120では、タッチパネルへのタッチ操作やデタッチ操作を判定する。また、スライド操作判定部140では、接触を通じたタッチ操作・デタッチ操作によるユーザ操作がスライド操作であるか(または単なるタップ操作であるか)を判定する。   The user operation unit 100 includes a contact / non-contact determination unit 120 and a slide operation determination unit 140. The contact / non-contact determination unit 120 determines a touch operation or a detach operation on the touch panel. Further, the slide operation determination unit 140 determines whether the user operation by the touch operation / detach operation through contact is a slide operation (or just a tap operation).

ユーザ操作部100で判定されるタッチ操作またはスライド操作に応答して、UI形成部200は第1形成部および第2形成部として機能する。第1形成部では、図5aの(iii)を参照して説明したように、接触点の周囲に円放射状のグラデーションを有するプロシージャル画像を生成および表示する。また、第2形成部では、図5bの(iii)を参照して説明したように、円放射状のグラデーションを有するプロシージャル画像に対し、スライド終了点に向けて変形させたような更なるグラデーションを有するプロシージャル画像を生成および表示する。UI形成部200は、次に説明するように、領域決定部210、UV座標規定部230、特徴量決定部250、UI画像生成部270、およびUI画像出力部290を含む。   In response to a touch operation or a slide operation determined by the user operation unit 100, the UI formation unit 200 functions as a first formation unit and a second formation unit. The first forming unit generates and displays a procedural image having a circular radial gradation around the contact point as described with reference to (iii) of FIG. 5a. Further, in the second forming unit, as described with reference to (iii) of FIG. 5b, the procedural image having a circular radial gradation is subjected to a further gradation that is deformed toward the slide end point. Produce and display procedural images. The UI formation unit 200 includes an area determination unit 210, a UV coordinate definition unit 230, a feature amount determination unit 250, a UI image generation unit 270, and a UI image output unit 290, as will be described below.

領域決定部210では、図5で説明したタッチ操作に対応した領域を規定する。UV座標規定部230では、図6で説明したUV座標系を、u値およびv値が0から1までの範囲の所定の値となるように、領域に対応付けて規定する。特徴量決定部250では、UV座標系における上記領域の範囲に対し、各座標値に基づく特徴化ルールを適用して、各座標の特徴量を決定する。UI画像生成部270では、上記領域に関連付けられると共に、各特徴量を適用した画像をUI画像として生成する。そして、UI画像表示部290では、生成したUI画像をタッチパネル上の上記領域部分に表示する。なお、UI画像生成については、図9以降を参照して後述する。   The area determination unit 210 defines an area corresponding to the touch operation described with reference to FIG. The UV coordinate defining unit 230 defines the UV coordinate system described with reference to FIG. 6 in association with the region so that the u value and the v value are predetermined values in the range from 0 to 1. The feature amount determination unit 250 determines the feature amount of each coordinate by applying a characterization rule based on each coordinate value to the range of the region in the UV coordinate system. The UI image generation unit 270 generates an image that is associated with the region and to which each feature amount is applied as a UI image. Then, the UI image display unit 290 displays the generated UI image in the region portion on the touch panel. UI image generation will be described later with reference to FIG.

UI形成部200で生成されたUI画像は、例えば図4に示したようなゲームでは、仮想ゲーム空間画像に重畳されると共に、ゲーム進行部500において、対応するゲーム進行命令を生成および実行してゲームを進行させる。   For example, in the game as shown in FIG. 4, the UI image generated by the UI forming unit 200 is superimposed on the virtual game space image, and the game progressing unit 500 generates and executes a corresponding game progress command. Advance the game.

図8aおよび図8bは、本発明の実施形態によるUI画像表示のためのコンピュータ実装方法について説明したフロー図である。そして、図8aのフロー図に示したステップS107の詳細が図8bのフロー図に相当する。     8a and 8b are flow diagrams illustrating a computer-implemented method for displaying UI images according to an embodiment of the present invention. The details of step S107 shown in the flowchart of FIG. 8a correspond to the flowchart of FIG. 8b.

図8aでは、ステップS101で処理が開始されると、ステップS103では、接触・非接触判定部120によって、タッチパネルへのタッチ操作を判定する。また、ステップS105では、ステップS103に応じて、スライド操作判定部140によって、タッチ操作がタップ操作かスライド操作であるかについて更に判定する。ここで、タップ操作は、タッチパネルへの1つの接触点のみで構成されるタッチ操作を意味する。一方、スライド操作は、タッチパネルへの2つの接触点(即ち接触開始点および接触終了点)を含んでなされる連続的なタッチ操作を意味する。   In FIG. 8 a, when the process is started in step S <b> 101, in step S <b> 103, the touch / non-contact determination unit 120 determines a touch operation on the touch panel. In step S105, the slide operation determination unit 140 further determines whether the touch operation is a tap operation or a slide operation in accordance with step S103. Here, the tap operation means a touch operation composed of only one contact point on the touch panel. On the other hand, the slide operation means a continuous touch operation that includes two contact points on the touch panel (that is, a contact start point and a contact end point).

ステップS105でタッチ操作判定がなされると、続いてステップS107において、UI形成部200によってプロシージャル画像を生成および表示する。タッチ操作がタップ操作の場合は、ステップS1071において、図5aにも示した、接触点を中心とした正方形領域に形成される円放射状のグラデーションを有する上記画像Iを生成してUI画像として表示する。一方、タッチ操作がスライド操作の場合は、ステップS1073において、図5bにも示した、接触開始点および終了点の周囲の長方形領域内に、円放射状のグラデーションを有する画像Iをスライド操作方向に変形した画像Iを生成して表示する。具体的には、画像Iを分割して離間し、離間した間の部分を補間するようにグラデーションされた画像Iを生成してUI画像として表示する。 When the touch operation determination is made in step S105, a procedural image is generated and displayed by the UI forming unit 200 in step S107. If the touch operation is a tap operation, the display in step S1071, also shown in Figure 5a, a UI image to generate the image I 1 with a circular radial gradient which is formed in a square area around a contact point To do. On the other hand, when the touch operation is a slide operation, in step S1073, also shown in FIG. 5b, in a rectangular area around the touch start point and end point, the image I 1 with a circular radial gradient in the sliding operation direction It generates an image I 2 which is deformed and displayed. Specifically, spaced by dividing the image I 1, and displays the UI image and generates an image I 2 which is gradation to interpolate portions between spaced-apart.

ステップS108では、ゲーム進行部500によって、ステップS107で生成したUI画像に対し、対応するゲーム進行命令を生成および実行して、図4に示したゲーム進行制御を実施する。ゲーム進行命令は、ここでは、キャラクタに対し移動等の動作を行わせるキャラクタ操作命令や、ゲーム空間を撮影する仮想カメラの動作を制御させる仮想カメラ操作命令を含むのがよい。   In step S108, the game progress unit 500 generates and executes a corresponding game progress command for the UI image generated in step S107, and performs the game progress control shown in FIG. Here, the game progress command preferably includes a character operation command for causing the character to perform an action such as movement, and a virtual camera operation command for controlling the operation of the virtual camera for photographing the game space.

次に図8bを参照して、上記ステップS107について詳細に説明する。図示のように、ステップS107はステップS201からS205を含む。なお、図8aに示したように、ステップS107は、タッチ操作に応じてステップS1071およびS10173の2種類が想定されるが、これらは、後述のステップS203において適用される際の違いによるものである。   Next, with reference to FIG. 8B, step S107 will be described in detail. As shown, step S107 includes steps S201 to S205. As shown in FIG. 8a, two types of steps S1071 and S10173 are assumed for step S107 depending on the touch operation. These are due to differences when applied in step S203 described later. .

ステップS201では、領域決定部210によって、タッチパネル上でのユーザのタッチ操作に対応する領域を決定する。例えば、図5aの領域Dおよび図5bの領域Dがこれに該当する。ステップS202では、UV座標規定部230によって、上記領域に対し、UV座標系におけるu値およびv値を0から1まで範囲で対応付けて規定する。ステップS203では、特徴量決定部250によって、0から1まで範囲内に対し、各座標値に基づく特徴化ルールを適用して、各座標の特徴量を決定する。ステップS1071とステップS1072は、当該ステップS203で与える特徴化ルールの点が大きく異なる。 In step S <b> 201, the region determination unit 210 determines a region corresponding to the user's touch operation on the touch panel. For example, the region D 2 of the region D 1 and Figure 5b in Figure 5a corresponds to this. In step S202, the UV coordinate defining unit 230 defines the u value and the v value in the UV coordinate system in a range from 0 to 1 with respect to the region. In step S203, the feature amount determination unit 250 determines the feature amount of each coordinate by applying a characterization rule based on each coordinate value to the range from 0 to 1. Step S1071 and step S1072 differ greatly in the points of the characterization rules given in step S203.

次いで、ステップS204では、UI画像生成部270によって、ステップS203で決定した特徴量を適用した画像を、上記領域に関連付けて生成する。ここでは、UV座標系における各位置を、UI画像が有する各画素に関連付け、更に、各位置の特徴量を、各画素が有する値(図9で後述する輝度値や不透明度値)として適用する。最後にステップS205では、UI画像表示部によって、UI画像をタッチパネル上の対応の領域に表示する。   Next, in step S204, the UI image generation unit 270 generates an image to which the feature amount determined in step S203 is applied in association with the region. Here, each position in the UV coordinate system is associated with each pixel included in the UI image, and the feature amount at each position is applied as a value (a luminance value or an opacity value described later in FIG. 9). . Finally, in step S205, the UI image display unit displays the UI image in a corresponding area on the touch panel.

特徴量の適用
ステップS203で決定される特徴量を、ステップS205で画像に適用することに関連して、図9にその概念を例示した概略イメージ図を示す。本発明の実施形態によれば、UV座標系における各位置を、プロシージャル画像が有する各画素に関連付け、各画素に対して各特徴量を適用する。uv座標系(図6(a))においてu値およびv値がそれぞれ0から1までの範囲に対応するように、図9でも特徴量も0から1までの範囲で表される。しかしながら、特徴量が当該範囲に限定されないことが当業者に理解されるべきである。
FIG. 9 is a schematic image diagram illustrating the concept in relation to applying the feature amount determined in the feature amount application step S203 to the image in step S205. According to the embodiment of the present invention, each position in the UV coordinate system is associated with each pixel included in the procedural image, and each feature amount is applied to each pixel. In FIG. 9, the feature amount is also expressed in the range from 0 to 1 so that the u value and the v value correspond to the range from 0 to 1 in the uv coordinate system (FIG. 6A). However, it should be understood by those skilled in the art that the feature amount is not limited to the range.

図9では、特徴量が0から1まで変化する場合に、対応する1つの画素がどのような表示となるかについての一連の遷移の様子が示される。なお、図中、各画素には黒枠を付してあるが、これは図示上の明瞭化のためであり、実際の画素には反映されない点に留意すべきである。図9では、特徴量を0.0→0.25→0.5→0.75→1.0と0.25刻みで変化させる。その際、(1)特徴量に「輝度値」を採用した場合、および(2)特徴量に「白地ベースの不透明度値」を採用した場合に、どのような表示パターンとして遷移するかについて示している。   FIG. 9 shows a state of a series of transitions as to how a corresponding pixel is displayed when the feature amount changes from 0 to 1. It should be noted that although each pixel has a black frame in the figure, this is for clarity of illustration and is not reflected in the actual pixel. In FIG. 9, the feature amount is changed in increments of 0.25 from 0.0 → 0.25 → 0.5 → 0.75 → 1.0. In this case, the display pattern changes when (1) “luminance value” is used as the feature amount, and (2) “white background-based opacity value” is used as the feature amount. ing.

上記(1)は、特徴量を「輝度値」として、輝度値0を「黒色」、輝度値1を「白色」とモノクロ化して対応付けた場合である。輝度値が0から1に近づくにつれ、黒色から白色に徐々に遷移する様子が理解される。なお、この例では特徴量に「輝度値」を採用しているが、これには限定されず、他にも「明度」のような色情報を採用した場合も類似の結果が得られることが当業者には理解される。また、色情報について、この例のようにモノクロ化することには限定されず、一般に用いられる0から255の整数値で表現されるRGB(Red:赤、Green:緑、Blue:青)値に基づいて決定される0から1までの小数範囲の如何なる複数の組み合わせともすることができることが当業者には理解される。   The case (1) is a case where the feature value is “brightness value”, the brightness value 0 is “black”, and the brightness value 1 is “white” in monochrome. As the luminance value approaches from 0 to 1, it is understood that the color gradually changes from black to white. In this example, the “luminance value” is used as the feature quantity, but the present invention is not limited to this, and a similar result can also be obtained when color information such as “brightness” is used. It will be understood by those skilled in the art. Further, the color information is not limited to monochrome as in this example, and is generally used as RGB (Red: Red, Green: Green, Blue: Blue) values represented by integer values from 0 to 255. Those skilled in the art will understand that any combination of decimal ranges from 0 to 1 determined on the basis of them can be used.

他方、上記(2)は、特徴量を「白地ベースの不透明度」として、不透明度値0を「完全透明」(透明率:100%)と対応付け、また、不透明度値1を「完全不透明」(透明率:0%)と対応付けた場合である。ここで、不透明度値は、上記(1)のRGBで表現される色情報とは概念が異なり、当該技術分野では「アルファ値」と一般に称される透過度を示す指標に相当する。そして、0から255の整数の範囲で通常表現されるアルファ値を、0から1までの小数の範囲で表したのが、ここでの「不透明度値」ということになる。図示のように、不透明度値が0の場合は完全透明状態であり、背景のグレー色に同化している。そして、不透明度値が1に近づくにつれ、基準としたベース色である白色に遷移する様子が理解される。なお、この例では、基準ベース色を「白色」(即ち「R:255,G:255,B:255」の値)に設定したが、これに限定されず、RGB値で表現される如何なる値に設定することができる。即ち、プロシージャル画像も任意の基準ベース色のグラデーションを有する画像として形成することができる。基準ベース色を変えることにより、例えば図4に示したゲーム画面例での2つのUI画像30,40にように、異なる色彩のグラデーションを有する画像を生成することができる。   On the other hand, in the above (2), the feature amount is “white background based opacity”, the opacity value 0 is associated with “completely transparent” (transparency: 100%), and the opacity value 1 is “completely opaque”. ”(Transparency: 0%). Here, the opacity value is different in concept from the color information expressed in RGB of (1) above, and corresponds to an index indicating transparency generally referred to as “alpha value” in the technical field. The alpha value normally expressed in the range of integers from 0 to 255 is represented by the decimal range from 0 to 1, which is the “opacity value” here. As shown in the figure, when the opacity value is 0, it is in a completely transparent state and is assimilated to the background gray color. Then, as the opacity value approaches 1, it is understood that the reference color transitions to white, which is the base color. In this example, the reference base color is set to “white” (that is, a value of “R: 255, G: 255, B: 255”). However, the present invention is not limited to this, and any value expressed by RGB values. Can be set to That is, a procedural image can also be formed as an image having a gradation of an arbitrary reference base color. By changing the reference base color, for example, two UI images 30 and 40 in the game screen example shown in FIG. 4 can be used to generate images having gradations of different colors.

図9では、特徴量に基づく1つの画素の表示態様について説明した。次の図10aでは、UV座標系において複数の画素から構成され、グラデーションを有する画像について説明する。図10aは、グラデーションを有する画像を示し、そして、図10bは当該画像を生成するための処理フローについて示す。なお、ここでは、特徴量として図9の(1)「輝度値」を採用した場合について想定する。   In FIG. 9, the display mode of one pixel based on the feature amount has been described. In the next FIG. 10a, an image composed of a plurality of pixels in the UV coordinate system and having gradation will be described. FIG. 10a shows an image with gradation, and FIG. 10b shows the processing flow for generating the image. Here, it is assumed that (1) “luminance value” in FIG. 9 is adopted as the feature amount.

図10aのようなグラデーションを有する画像例は、UV座標系の4点(0,0),(1,0),(0,1),(1,1)から形成される矩形領域を8個の小領域L(i,j)(即ち、L(1,1)からL(4,2))に分割し、各小領域に対して次に説明する特徴化ルールを適用して全体としてグラデーションを有する画像を生成する。当該画像は、U軸方向およびV軸方向共に、隣接する各小領域について輝度値が「0.25」間隔となるようにセットされている。例えば、小領域L(1,1)は、UV座標系の4点(0,0),(0.25,0),(0,0.5),(0.25,0.5)から形成される矩形領域であり、当該領域にわたる輝度値が「0.25」となるように各画素がセットされる。同様に、小領域L(4,2)は、UV座標系の4点(0.75,0.5),(1,0.5),(0.75,1),(1,1)から形成される矩形領域であり、当該領域にわたる輝度値が「0.75」となるように各画素がセットされる。 An example of an image having gradation as shown in FIG. 10a has eight rectangular areas formed from four points (0,0), (1,0), (0,1), (1,1) in the UV coordinate system. Are divided into small regions L (i, j) (ie, L (1,1) to L (4,2) ), and gradation is applied as a whole by applying a characterization rule described below to each small region Is generated. The image is set such that the luminance values are spaced by “0.25” for each adjacent small region in both the U-axis direction and the V-axis direction. For example, the small region L (1, 1) is obtained from four points (0, 0), (0.25, 0), (0, 0.5), (0.25, 0.5) in the UV coordinate system. Each pixel is set so that the luminance value over the rectangular area is “0.25”. Similarly, the small region L (4, 2) has four points (0.75, 0.5), (1, 0.5), (0.75, 1), (1, 1) in the UV coordinate system. Each pixel is set so that the luminance value over the region is “0.75”.

図10aのようなグラデーションを有する画像は、図10bの処理フローに示すような輝度値計算、即ち各(u,v)座標値に基づく特徴化ルールを用いて実装される。具体的には、まずステップS301およびS302において、u値およびv値とi値およびj値との対応付けをそれぞれ行う。ステップS301では、u値×4を計算し、更にその値の小数点以下を切り上げることで整数値iをセットする。当該計算により、u値が0から0.25の範囲ではi=1、u値が0.25から0.5の範囲ではi=2、u値が0.5から0.75の範囲ではi=3、u値が0.75から1の範囲ではi=4とセットされ、図10aのu値とi値の対応付けができていることが理解される。同様に、ステップS302では、v値×2を計算し、更にその値の小数点以下を切り上げることで整数値jをセットする。当該計算により、v値が0から0.5の範囲ではj=1、u値が0.5から1の範囲ではj=2とセットされ、図10aのv値とj値の対応付けができていることが理解される。   An image having a gradation as shown in FIG. 10a is implemented using a luminance value calculation as shown in the processing flow of FIG. 10b, that is, using a characterization rule based on each (u, v) coordinate value. Specifically, first, in steps S301 and S302, the u value and the v value are associated with the i value and the j value, respectively. In step S301, the u value × 4 is calculated, and the integer value i is set by rounding up the value after the decimal point. According to the calculation, i = 1 in the range of u value from 0 to 0.25, i = 2 in the range of u value from 0.25 to 0.5, and i in the range of u value from 0.5 to 0.75. = 3, i = 4 is set in the range of 0.75 to 1, and it is understood that the u value and the i value in FIG. Similarly, in step S302, v value × 2 is calculated, and an integer value j is set by rounding up the value after the decimal point. According to this calculation, j = 1 is set when the v value is in the range of 0 to 0.5, and j = 2 is set when the u value is in the range of 0.5 to 1, and the v value and the j value in FIG. It is understood that

次のL(i,j)の輝度値の計算では、jの値が「1」か「2」かによって計算式が分かれる。即ち、j=1の場合(ステップS303)は、ステップS304で数式「L(i,1)の輝度値=0.25×整数i」によって輝度値を計算する。一方、j=2の場合(ステップS305)は、ステップS306で数式「L(i,2)の輝度値=0.25×(整数i−1)」によって輝度値を計算する。   In the next calculation of the luminance value of L (i, j), the calculation formula is divided depending on whether the value of j is “1” or “2”. In other words, if j = 1 (step S303), the luminance value is calculated in step S304 by the formula “Luminance value of L (i, 1) = 0.25 × integer i”. On the other hand, in the case of j = 2 (step S305), the luminance value is calculated by the equation “Luminance value of L (i, 2) = 0.25 × (integer i−1)” in step S306.

このようにL(i,j)の輝度値を計算することにより、図10aに示した8つの小領域に対してセットする輝度値が決定され、UV座標系の矩形領域全体としてグラデーションを有する画像を生成することができる。生成される画像について、3角形状を有する2つのポリゴン、または4角形状を有する1つのポリゴンのみから形成されるものである。この点、本処理は、多数のポリゴンの頂点計算、並びに各頂点のメモリ格納・メモリアクセスを要することがなく、処理負荷が非常に軽いものとすることができる。なお、上記図10aおよび図10bの例は、特徴量として輝度値を採用して画像生成したが、代替として、図9を参照して説明したように、特徴量に不透明度(アルファ値)を採用してRGB値と共に画像生成してもよく、更には輝度値および不透明度の組み合わせでもよいことが当業者には理解される。   By calculating the luminance value of L (i, j) in this way, the luminance value to be set for the eight small areas shown in FIG. 10a is determined, and an image having gradation as a whole rectangular area of the UV coordinate system Can be generated. The generated image is formed from only two polygons having a triangular shape or one polygon having a quadrangular shape. In this respect, this processing does not require vertex calculation of a large number of polygons, memory storage / memory access of each vertex, and the processing load can be very light. In the example of FIGS. 10a and 10b, the luminance value is used as the feature amount to generate an image. Alternatively, as described with reference to FIG. 9, opacity (alpha value) is added to the feature amount. Those skilled in the art will appreciate that it may be employed to generate an image with RGB values, or even a combination of luminance values and opacity.

上記のようにUV座標値に基づいて生成されるプロシージャル画像について、そのグラデーション態様は数多くのパターンを想定することができる。そこで、以下に幾らかの好適な実施例と共に、様々なグラデーション態様について更に説明する。なお、以下の実施例では、ユーザによるタッチ操作が、距離dだけスライドさせるスライド操作であることを想定する。つまり、領域決定部210では、スライド方向およびスライド距離dに基づいて矩形領域を決定する。また、決定される矩形領域の幅は一定(2×r)であることを想定する。また、Lum(u,v)は、UV座標系における座標値(u,v)に対応する輝度値を示すものとする。   As described above, the gradation aspect of the procedural image generated based on the UV coordinate value can assume many patterns. Thus, various gradation aspects are further described below along with some preferred embodiments. In the following embodiments, it is assumed that the touch operation by the user is a slide operation for sliding by a distance d. That is, the area determination unit 210 determines a rectangular area based on the slide direction and the slide distance d. Further, it is assumed that the width of the determined rectangular area is constant (2 × r). Lum (u, v) represents a luminance value corresponding to the coordinate value (u, v) in the UV coordinate system.

第1実施例
図11aから図11cに示す一連の画像を形成する第1実施例では、UV座標値に基づく8つの特徴化ルール(1−1)から(1−8)を組み合わせて、各特徴化ルールに基づくUV座標の特徴量を計算しながらグラデーションを決定する。
First Embodiment In the first embodiment for forming a series of images shown in FIGS. 11a to 11c, each of the features is combined by combining eight characterization rules (1-1) to (1-8) based on UV coordinate values. The gradation is determined while calculating the feature value of the UV coordinate based on the conversion rule.

1)図11aに示した特徴化ルール(1−1)では、特徴量として輝度値を採用する。そして、U軸方向に輝度値を0から1まで連続的に分布させる。即ち、輝度値Lum(u,v)は、UV座標系での0≦u値≦1、且つ0≦v値≦1の範囲(以下、0≦uv値≦1と略す。)に対し、次の数式
Lum(u,v)=u
として定義されるパラメータuの関数式で計算される。計算された輝度値をプロシージャル画像として適用することにより、図示したようにU軸方向に沿ってグラデーションを有するプロシージャル画像を生成することができる。
1) In the characterization rule (1-1) shown in FIG. 11a, a luminance value is adopted as a feature amount. Then, the luminance value is continuously distributed from 0 to 1 in the U-axis direction. That is, the luminance value Lum (u, v) is the following for a range of 0 ≦ u value ≦ 1 and 0 ≦ v value ≦ 1 in the UV coordinate system (hereinafter abbreviated as 0 ≦ uv value ≦ 1). Equation Lum (u, v) = u
It is calculated by a functional expression of the parameter u defined as By applying the calculated luminance value as a procedural image, it is possible to generate a procedural image having gradation along the U-axis direction as illustrated.

2)図11aに示した特徴化ルール(1−2)でも、特徴量として輝度値を採用する。そして、V軸方向に輝度値を0から1まで連続的に分布させる。即ち、輝度値Lum(u,v)は、UV座標系での0≦uv値≦1の範囲に対し、次の数式
Lum(u,v)=1−v
として定義されるパラメータvの関数式で計算される。計算された輝度値をプロシージャル画像として適用することにより、図示したようにV軸方向に沿ってグラデーションを有するプロシージャル画像を生成することができる。
2) Also in the characterization rule (1-2) shown in FIG. 11a, the luminance value is adopted as the feature amount. Then, the luminance value is continuously distributed from 0 to 1 in the V-axis direction. That is, the luminance value Lum (u, v) is expressed by the following formula Lum (u, v) = 1−v with respect to a range of 0 ≦ uv value ≦ 1 in the UV coordinate system.
Is calculated by a functional expression of the parameter v defined as By applying the calculated luminance value as a procedural image, it is possible to generate a procedural image having gradation along the V-axis direction as illustrated.

3)図11aに示した特徴化ルール(1−3)でも、特徴量として輝度値を採用する。そして、U軸方向に、輝度値0から1、且つ1から0まで、u値=0.5を境界にして連続的に分布させる。即ち、輝度値Lum(u,v)は、UV座標系での0≦uv値≦1の範囲に対し、次の数式
Lum(u,v)=abs{(u−0.5)×2}
として定義されるパラメータuの関数式で計算される。なお、abs関数は、入力値に対してその絶対値を返す関数として知られる。計算された輝度値をプロシージャル画像として適用することにより、図示したようにU軸方向に沿ってグラデーションを有するプロシージャル画像を生成することができる。
3) In the characterization rule (1-3) shown in FIG. 11a, the luminance value is adopted as the feature amount. In the U-axis direction, luminance values 0 to 1 and 1 to 0 are continuously distributed with u value = 0.5 as a boundary. That is, the luminance value Lum (u, v) is expressed by the following formula Lum (u, v) = abs {(u−0.5) × 2} with respect to a range of 0 ≦ uv value ≦ 1 in the UV coordinate system.
It is calculated by a functional expression of the parameter u defined as The abs function is known as a function that returns an absolute value for an input value. By applying the calculated luminance value as a procedural image, it is possible to generate a procedural image having gradation along the U-axis direction as illustrated.

4)図11bに示した特徴化ルール(1−4)でも、特徴量として輝度値を採用する。そして、U軸方向に、輝度値0から1、且つ1から0まで、u値=0.5を境界にして連続的に分布させる。即ち、輝度値Lum(u,v)は、UV座標系での0≦uv値≦1の範囲に対し、次の数式
Lum(u,v)={(u−0.5)×2}
として定義されるパラメータuの関数式で計算される。特徴化ルール(1−3)とは、絶対値とするか、2乗するかの点で異なる。計算された輝度値をプロシージャル画像として適用することにより、図示したようなU軸方向に沿ってグラデーションを有するプロシージャル画像を生成することができる。
4) Also in the characterization rule (1-4) shown in FIG. In the U-axis direction, luminance values 0 to 1 and 1 to 0 are continuously distributed with u value = 0.5 as a boundary. That is, the luminance value Lum (u, v) is expressed by the following formula Lum (u, v) = {(u−0.5) × 2} 2 in the range of 0 ≦ uv value ≦ 1 in the UV coordinate system.
It is calculated by a functional expression of the parameter u defined as It differs from the characterization rule (1-3) in that it is an absolute value or squared. By applying the calculated luminance value as a procedural image, a procedural image having gradation along the U-axis direction as illustrated can be generated.

5)図11bに示した特徴化ルール(1−5)でも、特徴量として輝度値を採用する。そして、V軸方向に、輝度値を0から1まで、且つ1から0までv値=0.5を境界に連続的に分布させる。即ち、輝度値Lum(u,v)は、UV座標系での0≦uv値≦1の範囲に対し、次の数式
Lum(u,v)={(v−0.5)×2}
として定義されるパラメータvの関数式で計算される。計算された輝度値をプロシージャル画像として適用することにより、図示したようなV軸方向に沿ってグラデーションを有するプロシージャル画像を生成することができる。
5) Also in the characterization rule (1-5) shown in FIG. 11b, the luminance value is adopted as the feature amount. In the V-axis direction, the luminance value is continuously distributed from 0 to 1 and v value = 0.5 from 1 to 0 with the boundary being 0.5. That is, the luminance value Lum (u, v) is expressed by the following formula Lum (u, v) = {(v−0.5) × 2} 2 in the range of 0 ≦ uv value ≦ 1 in the UV coordinate system.
Is calculated by a functional expression of the parameter v defined as By applying the calculated luminance value as a procedural image, a procedural image having gradation along the V-axis direction as illustrated can be generated.

6)図11bに示した特徴化ルール(1−6)でも、特徴量として輝度値を採用する。そして、U軸およびV軸の両方向に、輝度値を0から1まで、且つ1から0までu値=0.5、v値=0.5を境界に各々連続的に分布させる。即ち、輝度値Lum(u,v)は、UV座標系での0≦uv値≦1の範囲に対し、次の数式
Lum(u,v)={(u−0.5)×2}+{(v−0.5)×2}
として定義されるパラメータuおよびvの2次関数式で計算される。計算された輝度値をプロシージャル画像として適用することにより、図示したようなU軸およびV軸方向に沿って楕円放射状のグラデーションを有するプロシージャル画像を生成することができる。UV座標によって表現される矩形が正方形の場合は、円放射状のプロシージャル画像が生成される。
6) Also in the characterization rule (1-6) shown in FIG. Then, in both the U-axis and V-axis directions, luminance values are continuously distributed from 0 to 1, and from 1 to 0, with u value = 0.5 and v value = 0.5, respectively. That is, the luminance value Lum (u, v) is expressed by the following formula Lum (u, v) = {(u−0.5) × 2} 2 in the range of 0 ≦ uv value ≦ 1 in the UV coordinate system. + {(V−0.5) × 2} 2
Is calculated by a quadratic function expression of parameters u and v defined as By applying the calculated luminance value as a procedural image, it is possible to generate a procedural image having an elliptical radial gradation along the U-axis and V-axis directions as illustrated. When the rectangle expressed by the UV coordinates is a square, a circular radial procedural image is generated.

なお、図9に関連し、特徴量は0から1の範囲内にあるものと説明したが、これに限定されない。即ち、輝度値(特徴量)を計算した結果、値が0未満となる場合は「0」の特徴(即ち黒色)を有するとしてもよいし、1より大きくなる場合は「1」の特徴(即ち白色)を有するとしてもよい。上記2次関数式の計算においても輝度値が1より大きくなる領域部分が矩形の4頂点周辺に存在する。本実施例1では、当該領域部分は、図示のように全て白色となるように処理している。   In addition, although the feature amount has been described as being in the range of 0 to 1 in relation to FIG. 9, the present invention is not limited to this. That is, as a result of calculating the luminance value (feature value), if the value is less than 0, it may have a feature of “0” (ie, black), and if greater than 1, a feature of “1” (ie, a feature value). White). Even in the calculation of the quadratic function equation, there are regions where the luminance value is greater than 1 around the four vertices of the rectangle. In the first embodiment, the region is processed so as to be all white as illustrated.

7)図11cに示した特徴化ルール(1−7)でも、特徴量として輝度値を採用する。ここでは、ルール(1−6)で生成した楕円放射状のグラデーションの外側白色部分、即ち輝度値が1より大きい領域部分に対して、次のルール(1−8)で不透明化処理するための事前準備として、反転処理を行って輝度値を0より小さくする。反転処理された輝度値をプロシージャル画像として適用することにより、図示したようなU軸およびV軸方向に沿って楕円放射状のグラデーションを有し、かつ外側が黒色を有するプロシージャル画像を生成することができる。   7) Even in the characterization rule (1-7) shown in FIG. 11c, the luminance value is adopted as the feature amount. Here, the outer white portion of the elliptical radial gradation generated by the rule (1-6), that is, the region portion having a luminance value larger than 1, is preliminarily processed for opacity by the next rule (1-8). As preparation, inversion processing is performed to make the luminance value smaller than zero. Applying the inverted luminance value as a procedural image to generate a procedural image having an elliptical radial gradation along the U-axis and V-axis directions as shown in the figure and having black outside Can do.

8)図11cに示した特徴化ルール(1−8)では、これまでの特徴化ルール(1−1)から(1−7)とは異なり、特徴量として不透明度値(アルファ値)を採用する。つまり、特徴化ルール(1−7)の結果生じた、輝度値としての特徴量の分布に対し、引き続き、特徴化ルール(1−8)では当該特徴量を不透明度値として採用する。この場合、図9において(1)特徴量に輝度値を採用する場合、および(2)特徴量に不透明度値を採用する場合の2つについて違いを図示したように、特徴量の値に応じて、特徴化ルール(1−7)で生成されたプロシージャル画像のグラデーションを図示のように変化させることができる。つまり、特徴化ルール(1−7)に対し、図示したようなU軸およびV軸方向に楕円放射状の不透明化処理されたグラデーションを有するプロシージャル画像を新たに生成することができる。なお、本明細書では、図9の(2)のように特徴量に不透明度値を採用して処理することを不透明化処理と称している。   8) Unlike the previous characterization rules (1-1) to (1-7), the characterization rule (1-8) shown in FIG. 11c adopts an opacity value (alpha value) as a feature quantity. To do. That is, with respect to the distribution of the feature quantity as the luminance value generated as a result of the characterization rule (1-7), the feature quantity is subsequently adopted as the opacity value in the characterization rule (1-8). In this case, as shown in FIG. 9, the difference between the two cases of (1) the case where the luminance value is adopted as the feature amount and (2) the case where the opacity value is adopted as the feature amount depends on the value of the feature amount. Thus, the gradation of the procedural image generated by the characterization rule (1-7) can be changed as illustrated. That is, for the characterization rule (1-7), it is possible to newly generate a procedural image having an elliptical radial opaque gradation in the U-axis and V-axis directions as illustrated. In the present specification, processing using an opacity value as a feature amount as shown in (2) of FIG. 9 is referred to as opacity processing.

第2実施例
図12に示す第2実施例では、UV座標値に基づく3つの特徴化ルール(2−1)から(2−3)を組み合わせて、各特徴化ルールに基づくUV座標の特徴量を計算しながらグラデーションを決定する。ここでは、スライド操作に対応する矩形領域の幅を2rと、スライド操作距離をdと標記する。即ち、タッチパネル上でのスライド操作に対応する矩形領域(例えば、図5bの領域D)の大きさは、「横(d+2r)×縦2r」ということになる。
Second Embodiment In the second embodiment shown in FIG. 12, three characterization rules (2-1) to (2-3) based on UV coordinate values are combined, and a feature amount of UV coordinates based on each characterization rule. Determine the gradation while calculating. Here, the width of the rectangular area corresponding to the slide operation is denoted by 2r, and the slide operation distance is denoted by d. That is, the size of the rectangular area (for example, the area D 2 in FIG. 5B) corresponding to the slide operation on the touch panel is “horizontal (d + 2r) × vertical 2r”.

第2実施例では、UV座標系の矩形領域をU軸方向に3つの領域部分に分割する。第1部分は、u値が「0」から「r/(2r+d)」となる部分、第2部分は、u値が「r/(2r+d)」から「(r+d)/(2r+d)」となる部分、そして第3部分は、u値が「(r+d)/(2r+d)」から「1」となる部分である。   In the second embodiment, a rectangular area of the UV coordinate system is divided into three area portions in the U-axis direction. In the first part, the u value is changed from “0” to “r / (2r + d)”, and in the second part, the u value is changed from “r / (2r + d)” to “(r + d) / (2r + d)”. The part and the third part are parts where the u value changes from “(r + d) / (2r + d)” to “1”.

1)図12に示した特徴化ルール(2−1)では、特徴量として輝度値を採用する。そして、U軸方向に沿って輝度値Lum(u,v)を0から1まで離散的に分布させる。輝度値Lum(u,v)の分布態様は次のとおりである。
・第1部分では、Lum(u,v)=0(定数)。即ち黒色。
・第2部分では、Lum(u,v)=0.5(定数)。即ちグレー色。
・第3部分では、Lum(u,v)=1(定数)。即ち白色。
上記に基づく輝度値Lum(u,v)をプロシージャル画像として適用することにより、図示したようなプロシージャル画像を生成することができる。
1) In the characterization rule (2-1) shown in FIG. 12, a luminance value is adopted as a feature amount. Then, the luminance value Lum (u, v) is distributed discretely from 0 to 1 along the U-axis direction. The distribution mode of the luminance value Lum (u, v) is as follows.
In the first part, Lum (u, v) = 0 (constant). That is, black.
In the second part, Lum (u, v) = 0.5 (constant). That is, gray.
In the third part, Lum (u, v) = 1 (constant). That is, white.
By applying the luminance value Lum (u, v) based on the above as a procedural image, a procedural image as illustrated can be generated.

2)図12に示した特徴化ルール(2−2)でも、同様に特徴量として輝度値を採用する。そして、U軸方向に沿って輝度値を0から1まで離散的に分布させる。輝度値Lum(u,v)の分布態様は次のとおりである。
・第1部分では、Lum(u,v)=1(定数)。即ち白色。
・第2部分では、Lum(u,v)=0(定数)。即ち黒色。
・第3部分では、Lum(u,v)=1(定数)。即ち白色。
上記に基づく輝度値L(u,v)をプロシージャル画像として適用することにより、図示したようなプロシージャル画像を生成することができる。
2) Similarly, in the characterization rule (2-2) shown in FIG. Then, the luminance values are distributed discretely from 0 to 1 along the U-axis direction. The distribution mode of the luminance value Lum (u, v) is as follows.
In the first part, Lum (u, v) = 1 (constant). That is, white.
In the second part, Lum (u, v) = 0 (constant). That is, black.
In the third part, Lum (u, v) = 1 (constant). That is, white.
By applying the luminance value L (u, v) based on the above as a procedural image, a procedural image as illustrated can be generated.

3)図12に示した特徴化ルール(2−3)でも、特徴量として輝度値を採用する。そして、U軸方向に沿って、輝度値を0から1まで連続的に分布させる。具体的には、輝度値Lum(u,v)の分布態様は次のとおりである。
・第1部分では、Lum(0,v)=0、且つ、Lum(r/(2r+d),v)=0.5とし、その間(0<u<r/(2r+d))では、Lum(u,v)を0(黒色)から0.5(グレー色)に向けて線形補間する。(以下、線形補間関数f(u)で表す。)
・第2部分では、Lum(u,v)=0.5(定数)。即ち、グレー色。
・第3部分では、Lum((r+d)/(2r+d),v)=0.5、且つ、Lum(1,v)=1とし、その間((r+d)/(2r+d)<u<1)では、Lum(u,v)を0.5(グレー色)から1(白色)に向けて線形補間する(以下、線形補間関数g(u)で表す。)
上記に基づく輝度値L(u,v)をプロシージャル画像として適用することにより、図示したようなグラデーションを有するプロシージャル画像を生成することができる。
3) Also in the characterization rule (2-3) shown in FIG. 12, the luminance value is adopted as the feature amount. Then, luminance values are continuously distributed from 0 to 1 along the U-axis direction. Specifically, the distribution mode of the luminance value Lum (u, v) is as follows.
In the first part, Lum (0, v) = 0 and Lum (r / (2r + d), v) = 0.5, and in the meantime (0 <u <r / (2r + d)), Lum (u , V) is linearly interpolated from 0 (black) to 0.5 (gray). (Hereinafter, it is expressed by a linear interpolation function f (u).)
In the second part, Lum (u, v) = 0.5 (constant). That is, gray.
In the third part, Lum ((r + d) / (2r + d), v) = 0.5 and Lum (1, v) = 1, and in the meantime ((r + d) / (2r + d) <u <1) , Lum (u, v) is linearly interpolated from 0.5 (gray) to 1 (white) (hereinafter, expressed as a linear interpolation function g (u)).
By applying the luminance value L (u, v) based on the above as a procedural image, it is possible to generate a procedural image having a gradation as illustrated.

第3実施例
図13に示す第3実施例では、第1実施形態および第2実施形態で生成される各特徴化ルールを組み合わせることで、より柔軟なグラデーションを決定する。より具体的には、第2実施形態における図12の特徴化ルール(2−3)を適用した結果として得られる特徴量(即ち、輝度値)の値に対して、第1実施形態における特徴化ルールを適用する。具体的には、第1実施形態における図11bの特徴化ルール(1−6)から図11cの特徴化ルール(1−8)まで順次適用する。これにより、各特徴化ルール(2−3)および(1−6)から(1−8)に基づくUV座標の特徴量を計算して、対応するプロシージャル画像を生成することができる。
Third Example In the third example shown in FIG. 13, a more flexible gradation is determined by combining the characterization rules generated in the first and second embodiments. More specifically, the characterization in the first embodiment is performed on the value of the feature amount (that is, the luminance value) obtained as a result of applying the characterization rule (2-3) in FIG. 12 in the second embodiment. Apply the rules. Specifically, the characterization rules (1-6) in FIG. 11b in the first embodiment to the characterization rules (1-8) in FIG. 11c are sequentially applied. Thereby, the feature amount of the UV coordinate based on each characterization rule (2-3) and (1-6) to (1-8) can be calculated, and a corresponding procedural image can be generated.

1)まず、第2実施形態における図12の特徴化ルール(2−3)で計算される輝度値(特徴量)Lum(u,v)を用いて、新たにu’値およびv’値を次のように設定する。
・第1部分では、u’=f(u),v’=v
・第2部分では、u’=0.5(定数),v’=v
・第3部分では、u’=g(u),v’=v
そして、上記の(u’,v’)を、以下のとおり特徴化ルール(1−6)から(1−8)に順次適用する。
1) First, using the brightness value (feature value) Lum (u, v) calculated by the characterization rule (2-3) of FIG. 12 in the second embodiment, a new u ′ value and v ′ value are obtained. Set as follows.
In the first part, u ′ = f (u), v ′ = v
In the second part, u ′ = 0.5 (constant), v ′ = v
In the third part, u ′ = g (u), v ′ = v
The above (u ′, v ′) is sequentially applied to the characterization rules (1-6) to (1-8) as follows.

2)図13に示した特徴化ルール(3−1)では、特徴量として輝度値を採用する。そして、U軸およびV軸の両方向に沿って、輝度値0から1まで、且つ1から0までu’値=0.5、v’値=0.5を境界に連続的に分布させる。即ち、輝度値Lum(u,v)は、UV座標系での0≦uv値≦1の範囲に対し、次の数式
Lum(u,v)={(u’−0.5)×2}+{(v’−0.5)×2}
として定義されるパラメータu’およびv’の2次関数式で計算される。計算された輝度値Lum(u’,v’)をプロシージャル画像として適用することにより、図示したようなU軸およびV軸方向に沿ってグラデーションを有するプロシージャル画像を生成することができる。
2) In the characterization rule (3-1) shown in FIG. 13, a luminance value is adopted as the feature amount. Then, along both the U-axis and V-axis directions, luminance values 0 to 1 and u ′ value = 0.5 and v ′ value = 0.5 are continuously distributed from 1 to 0 at the boundary. That is, the luminance value Lum (u, v) is expressed by the following formula Lum (u, v) = {(u′−0.5) × 2} with respect to a range of 0 ≦ uv value ≦ 1 in the UV coordinate system. 2 + {(v′−0.5) × 2} 2
Is calculated by a quadratic function expression of parameters u ′ and v ′ defined as By applying the calculated luminance value Lum (u ′, v ′) as a procedural image, it is possible to generate a procedural image having gradation along the U-axis and V-axis directions as illustrated.

3)図13に示した特徴化ルール(3−2)でも、特徴量として輝度値を採用する。ここでは、ルール(3−1)で生成したグラデーションの外側白色部分、即ち輝度値Lum(u,v)が1より大きい領域部分に対して、反転処理を行って輝度値を0より小さくする。これにより、図示したようなU軸およびV軸方向にグラデーションを有し、かつ外側が黒色を有するプロシージャル画像を生成することができる。   3) Also in the characterization rule (3-2) shown in FIG. 13, the luminance value is adopted as the feature amount. Here, the inversion processing is performed on the outer white portion of the gradation generated by the rule (3-1), that is, the region portion where the luminance value Lum (u, v) is larger than 1, so that the luminance value becomes smaller than zero. As a result, it is possible to generate a procedural image having gradation in the U-axis and V-axis directions as shown in the drawing and having black outside.

4)最後に、図13に示した特徴化ルール(3−3)では、特徴量として不透明度値(アルファ値)を採用する。つまり、特徴化ルール(3−2)の結果として生じた、輝度値Lum(u,v)としての特徴量の値の分布に対し、特徴化ルール(3−3)では当該特徴量の値を不透明度値として採用して、不透明化処理を実施する。図11cでの特徴化ルール(1−8)の適用と同様に、図示のように特徴化ルール(3−3)で生成されたプロシージャル画像のグラデーションが変化することになる。これにより、上記特徴化ルール(3−2)に対して図示したようなU軸およびV軸方向に楕円放射状に対して、不透明化処理されたグラデーションを有するプロシージャル画像を新たに生成することができる。   4) Finally, in the characterization rule (3-3) shown in FIG. 13, the opacity value (alpha value) is adopted as the feature amount. That is, with respect to the distribution of the feature value as the luminance value Lum (u, v) generated as a result of the characterization rule (3-2), the value of the feature value is set in the characterization rule (3-3). Employing an opacity value to perform an opacity process. Similar to the application of the characterization rule (1-8) in FIG. 11c, the gradation of the procedural image generated by the characterization rule (3-3) changes as shown. This makes it possible to newly generate a procedural image having gradations that have been subjected to opacification processing with respect to elliptical radial shapes in the U-axis and V-axis directions as illustrated for the characterization rule (3-2). it can.

最終的には、図14の特徴化ルール(3−3)に示したプロシージャル画像、即ち、円放射状のグラデーションを有する画像を分割して離間し、該離間した間の部分を補間するように更にグラデーションされた画像が生成される。   Finally, the procedural image shown in the characterization rule (3-3) in FIG. 14, that is, an image having a circular radial gradation is divided and separated, and a portion between the separated images is interpolated. Further, a gradation image is generated.

第4実施例(第3実施例の更なる変形例)
図14に示す第4実施例は、上記の図13の第3実施例の特徴化ルール(3−3)に示したグラデーションを有するプロシージャル画像の更なる変形例である。図14の(a)から(g)に示した各変形例は、特徴化ルール(3−3)のプロシージャル画像を生成するに際し、これまで適用してきた特徴化ルールの一部を変更するか、または、更に何らかの特徴化ルールを付加的に適用することで実現可能である。
Fourth embodiment (further modification of the third embodiment)
The fourth embodiment shown in FIG. 14 is a further modification of the procedural image having gradation shown in the characterization rule (3-3) of the third embodiment of FIG. Each modification shown in FIGS. 14A to 14G changes part of the characterization rules that have been applied so far when generating the procedural image of the characterization rule (3-3). Alternatively, it can be realized by additionally applying some characterization rule.

1)図14(a)の変形例では、特徴量として不透明度値を採用した不透明化処理を実施する。具体的には、図13の第3実施例の特徴化ルール(3−3)に対し、更に、輪郭部分を所定の太さ部分の不透明度値が「1.0」となるように(0から1までの)不透明度値の小数点以下を切り上げると共に、それ以外の不透明度値が「0.0」となるように小数点以下を切り捨てるという特徴化ルールを適用すればよい。   1) In the modification of FIG. 14 (a), an opacity process using an opacity value as a feature quantity is performed. Specifically, with respect to the characterization rule (3-3) of the third embodiment of FIG. 13, the opacity value of the predetermined thickness portion is further set to “1.0” (0). A characterization rule may be applied in which opacity values (from 1 to 1) are rounded up to the nearest decimal point, and other opacity values are rounded down to “0.0”.

2)図14(b)の変形例でも、特徴量として不透明度値を採用した不透明化処理を実施する。具体的には、図13の第3実施例の特徴化ルール(3−3)に加えて、更に不透明度値Tra(u,v)に関する次の式
Tra(u,v)=u
を適用すればよい。
2) Even in the modified example of FIG. 14B, an opacity process using an opacity value as a feature amount is performed. Specifically, in addition to the characterization rule (3-3) of the third embodiment of FIG. 13, the following expression Tra (u, v) = u for the opacity value Tra (u, v)
Should be applied.

3)図14(c)の変形例では、図13の第3実施例の特徴化ルール(3−1)の適用に替えた代替ルールを適用する。即ち、Lum(u,v)について、パラメータuに関する新規の関数p(u)を導入して、
Lum(u,v)={(u’−p(u))×2}+{(v’−p(u))×2}
として輝度値Lum(u,v)を計算すればよい。ここで、p(u)について、例えば、
・上記第1部分では、p(u)=0.25
・上記第3部分では、p(u)=0.1
を適用して、引き続き特徴化ルール(3−2)および(3−3)を更に適用すればよい。
3) In the modification of FIG. 14C, an alternative rule is applied in place of the application of the characterization rule (3-1) of the third embodiment of FIG. That is, for Lum (u, v), a new function p (u) for the parameter u is introduced,
Lum (u, v) = {(u′−p (u)) × 2} 2 + {(v′−p (u)) × 2} 2
The luminance value Lum (u, v) may be calculated as Here, for p (u), for example,
In the first part, p (u) = 0.25
In the third part, p (u) = 0.1
Then, the characterization rules (3-2) and (3-3) may be further applied.

4)図14(d)の変形例では、図13の第3実施例の特徴化ルール(3−1)の適用に替えた代替ルールを適用する。即ち、Lum(u,v)について、次の式
Lum(u,v)=abs{(u’−0.5)×2}+abs{(v’−0.5)×2}
を適用して、引き続き特徴化ルール(3−2)および(3−3)を更に適用すればよい。
4) In the modification of FIG. 14D, an alternative rule is applied in place of the application of the characterization rule (3-1) of the third embodiment of FIG. That is, for Lum (u, v), the following expression Lum (u, v) = abs {(u′−0.5) × 2} + abs {(v′−0.5) × 2}
Then, the characterization rules (3-2) and (3-3) may be further applied.

5)図14(e)の変形例では、図14(d)の変形例に対し、更に、特徴量として不透明度値を採用した不透明化処理を実施する。具体的には、不透明度値が「1.0」となるように小数点以下を切り上げる特徴化ルールを適用すればよい。   5) In the modified example of FIG. 14E, an opacity process using an opacity value as a feature amount is further performed with respect to the modified example of FIG. Specifically, a characterization rule that rounds up the decimal point so that the opacity value is “1.0” may be applied.

6)図14(f)の変形例では、図14(d)の変形例に対し、更に、特徴量として不透明度値を採用した不透明化処理を実施する。具体的には、輪郭部分を所定の太さだけ不透明度値が「1.0」となるように不透明度値の小数点以下を切り上げると共に、それ以外の不透明度値が「0.0」となるように小数点以下を切り捨てるという特徴化ルールを適用すればよい。   6) In the modification of FIG. 14F, an opacity process using an opacity value as a feature amount is further performed with respect to the modification of FIG. Specifically, the opacity value of the outline portion is rounded up so that the opacity value is “1.0”, and the opacity value other than that is “0.0”. Thus, the characterization rule of truncating the decimal point may be applied.

7)図14(g)の変形例でも、特徴量として不透明度値を採用した不透明化処理を実施する。具体的には、図14(f)に対し、画像中央部にも、不透明度値が「1.0」となる所定の太さを有する菱形の領域を設け、更に、横方向の輪郭部分の不透明度値が「0.0」となるように反転させる特徴化ルールを適用すればよい。   7) Even in the modified example of FIG. 14G, the opacity process using the opacity value as the feature amount is performed. Specifically, with respect to FIG. 14 (f), a rhombus region having a predetermined thickness with an opacity value of “1.0” is also provided in the center of the image, and further, the horizontal contour portion What is necessary is just to apply the characterization rule which inverts so that an opacity value may be set to "0.0".

これまで説明してきた様々なグラデーション態様で形成されるプロシージャル画像は、UI画像としてタッチパネルに表示することができる。当該プロシージャル画像は、その都度特徴量が計算され、例えば、拡大表示してもぼやけることがないという有利な点を有するものとなる。この点につき、以下に図15を参照して更に説明する。   The procedural images formed in various gradation modes described so far can be displayed on the touch panel as UI images. The procedural image has an advantage that the feature amount is calculated each time and, for example, the procedural image does not blur even when enlarged. This point will be further described below with reference to FIG.

図15は、UI画像の拡大表示に関し、本発明の実施形態による画像表示のためのUIプログラムで生成したUI画像(図15(a))を他の手法による例と比較した図である。他の手法による例として、ここでは、多数のポリゴンによって構成されるメッシュで実現したUI画像(図15(b))を想定する。図15(a),(b)共に、画像の右半分が全体のUI画像を示し、左半分がUI画像の曲線部分の拡大画像をそれぞれ示す。   FIG. 15 is a diagram comparing a UI image (FIG. 15A) generated by a UI program for image display according to an embodiment of the present invention, with respect to an enlarged display of a UI image, with an example using another method. As an example using another method, here, a UI image (FIG. 15B) realized by a mesh composed of a large number of polygons is assumed. In both FIGS. 15A and 15B, the right half of the image shows the entire UI image, and the left half shows the enlarged image of the curved portion of the UI image.

図15(a)のように、本発明の実施形態による画像表示のためのUIプログラムでは、拡大処理を実施すると、これに連動して逐一UV座標系を適用しながらプロシージャル画像を生成および表示することになる。この点、本発明の実施形態によるUIプログラムでは、拡大処理に応じて画質に影響を及ぼすような事態は発生しない。これに対し、図15(b)の例のようにメッシュで実現したUI画像に対して拡大処理を実施する場合は、倍率に応じて各ポリゴンを引き伸ばす処理を行うことになる。この結果、図示するように画像に粗が生じることになる。   As shown in FIG. 15A, in the UI program for image display according to the embodiment of the present invention, when the enlargement process is performed, the procedural image is generated and displayed while applying the UV coordinate system one by one in conjunction with the enlargement process. Will do. In this regard, in the UI program according to the embodiment of the present invention, a situation that affects the image quality according to the enlargement process does not occur. On the other hand, when the enlargement process is performed on the UI image realized by the mesh as in the example of FIG. 15B, the process of enlarging each polygon according to the magnification is performed. As a result, the image becomes rough as shown in the figure.

図15(b)の例は、UIプログラムをスマートフォン上のゲーム・アプリケーションに適用し、UI画像をスライド操作に関連付ける場合は、画像の粗さが特に顕著となり好適とは言えない。何故ならば、ユーザのスマートフォン操作では、タッチパネルとユーザの目の間の距離は短く、スライド操作が頻繁に行われる状況ではどうしても粗さが目立つからである。スマートフォン・ゲームの場合は特に、これによってゲーム全体の品質を損ねることになりかねない。このように、拡大処理を実施しても画質に影響を及ぼさないという点で、本発明の実施形態によるUIプログラムは有利なものとなる。   In the example of FIG. 15B, when a UI program is applied to a game application on a smartphone and a UI image is associated with a slide operation, the roughness of the image is particularly remarkable, which is not preferable. This is because the distance between the touch panel and the user's eyes is short in the user's smartphone operation, and the roughness is unavoidable in situations where the slide operation is frequently performed. This can impair the quality of the entire game, especially in the case of smartphone games. As described above, the UI program according to the embodiment of the present invention is advantageous in that the image quality is not affected even if the enlargement process is performed.

以上、本発明の実施形態による、画像表示のためのUIプログラムおよびコンピュータ実装方法について、幾らかの例示と共に説明した。上述した実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。   The UI program for image display and the computer-implemented method according to the embodiment of the present invention have been described above with some examples. The above-described embodiments are merely examples for facilitating understanding of the present invention, and are not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.

Claims (19)

タッチパネル上でのユーザのタッチ操作に対応する領域を決定する領域決定部と、
前記領域に対し、所定の座標系の所定の範囲を対応付けて規定する座標規定部と、
特徴化ルールに各座標の座標を入力することにより、前記各座標の特徴量を決定し、前記所定の範囲に対応する特徴量分布を取得する特徴量決定部と、
前記領域に関連付けられ、前記特徴量分布に基づく画像を生成する画像生成部と、
前記画像を前記タッチパネル上の前記領域に表示する画像表示部と
として前記タッチパネルを具備するコンピュータに機能させる、プログラム。
An area determination unit for determining an area corresponding to a user's touch operation on the touch panel;
A coordinate defining section that associates and defines a predetermined range of a predetermined coordinate system for the region;
A feature amount determination unit that determines a feature amount of each coordinate by inputting a coordinate value of each coordinate to a characterization rule, and acquires a feature amount distribution corresponding to the predetermined range ;
An image generation unit that generates an image associated with the region and based on the feature amount distribution ;
To function on a computer that includes the touch panel as an image display unit for displaying the image on the region on the touch panel, program.
前記タッチ操作がスライド操作であり、スライド方向およびスライド距離に基づいて前記領域が決定される、請求項1記載のプログラム。 The touch operation is a slide operation, the region is determined based on the sliding direction and the sliding distance, the program according to claim 1, wherein. 前記画像が、前記特徴量分布に基づいて得られる輪郭を少なくとも含む、請求項1または2に記載のプログラムThe program according to claim 1, wherein the image includes at least a contour obtained based on the feature amount distribution. 前記画像生成部において、前記画像の輪郭を少なくとも得るために、前記特徴量に輝度値を採用する、請求項1から3のいずれか一項記載のプログラム。 Wherein the image generation unit, in order to obtain at least the outline of the image, employing a luminance value on the feature quantity, the program of any one of claims 1 to 3. 前記画像生成部において、前記画像の輪郭を少なくとも得るために、前記特徴量にアルファ値を採用する、請求項1から3のいずれか一項記載のプログラム。 Wherein the image generation unit, in order to obtain at least the outline of the image, employing an alpha value to the feature amount, the program of any one of claims 1 to 3. 前記特徴量に前記アルファ値を採用する際に、所定のRGB値を更に適用して前記画像の基準色を設定する、請求項5記載のプログラム。The program according to claim 5, wherein when the alpha value is adopted as the feature amount, a predetermined RGB value is further applied to set a reference color of the image. 前記座標系がUV座標系であり、前記所定の範囲内の前記各座標値が0から1までの範囲のu値およびv値で規定され
前記特徴化ルールが、u値およびv値に基づく2次関数の計算ルールを含む、請求項1からのいずれか一項記載のプログラム。
The coordinate system is a UV coordinate system, and each coordinate value in the predetermined range is defined by a u value and a v value in a range from 0 to 1 ,
The characterization rules, including calculation rules quadratic function based on the u value and v values, program of any one of claims 1 6.
前記特徴化ルールが、u値および/またはv値と前記タッチ操作がスライド操作である場合のスライド距離とに基づく補間ルールを含む、請求項記載のプログラム。 The characterization rules, including interpolation rule u value and / or the v value and the touch operation is based on the slide distance when a slide operation, according to claim 7 program description. 前記画像が3角形状を有する2つのポリゴンから形成される画像である、請求項1からのいずれか一項記載のプログラム。 Wherein the image is an image formed of two polygons having triangular, program of any one of claims 1 8. タッチパネル上で弾性オブジェクトの形状を変形して表示するプログラムであって、
前記タッチパネル上の第1接触点の周囲に第1弾性オブジェクト画像を生成して表示する第1形成部と、
前記タッチパネル上で前記第1接触点から第2接触点までのスライド操作が判定された場合に、前記スライド操作に連動して前記第1弾性オブジェクト画像を前記第2接触点に向けて変形させた第2弾性オブジェクト画像を形成して表示する第2形成部と
として前記タッチパネルを具備する携帯端末に機能させ、前記第1形成部および前記第2形成部のそれぞれが、
前記第1接触点を含む領域を決定し、
記領域に対し、所定の座標系の所定の範囲を対応付けて規定し、
特徴化ルールに各座標の座標を入力することにより、前記各座標の特徴量を決定し、前記所定の範囲に対応する特徴量分布を取得し、
記領域に関連付けられ、前記特徴量分布に基づく画像を生成して表示する
ように構成される、プログラム。
A Help program displays by modifying the shape of the elastic object on the touch panel,
A first forming unit that generates and displays a first elastic object image around a first contact point on the touch panel;
When a slide operation from the first contact point to the second contact point is determined on the touch panel, the first elastic object image is deformed toward the second contact point in conjunction with the slide operation. As a second forming part that forms and displays a second elastic object image, the portable terminal including the touch panel functions, and each of the first forming part and the second forming part includes:
It said first contact point determines including realm,
Over the previous SL area, defined in association with a predetermined range of a predetermined coordinate system,
By inputting the coordinate value of each coordinate to the characterization rule, the feature amount of each coordinate is determined, and the feature amount distribution corresponding to the predetermined range is acquired,
Associated with the prior SL area, configured to generate and display an image based on the feature distribution, program.
前記第1形成部および前記第2形成部のそれぞれにおいて、前記特徴量分布に基づく前記画像の輪郭を少なくとも得るために、前記特徴量にアルファ値を採用する、請求項10記載のプログラム。11. The program according to claim 10, wherein each of the first forming unit and the second forming unit employs an alpha value for the feature amount in order to obtain at least a contour of the image based on the feature amount distribution. 前記特徴量にアルファ値を採用する際に、所定のRGB値を更に適用して前記画像の基準色を設定する、請求項11記載のプログラム。The program according to claim 11, wherein when an alpha value is adopted as the feature amount, a reference color of the image is set by further applying a predetermined RGB value. 請求項10から12のいずれか一項記載のプログラムであって、前記第1形成部において、
記領域が前記第1接触点の周囲の正方形領域であり、
前記第1弾性オブジェクト画像が、前記正方形領域内に形成される円放射状にグラデーションされた画像であり、且つ、3角形状を有する2つのポリゴンから形成される画像である、プログラム。
A program according to any one of claims 10 12, in the first forming unit,
Is a square region around the previous SL area said first contact point,
The first elastic object image, wherein a circular radially gradient image which is formed in a square region, and an image formed from two polygons having triangular, program.
請求項13記載のプログラムであって、前記第2形成部において、
記領域が前記第1接触点および前記第2接触点の周囲の長方形領域であり、
前記第2オブジェクト画像が、前記長方形領域内に、前記円放射状にグラデーションされた画像を分割して離間し、該離間した間の部分を補間するように更にグラデーションされた画像であり、且つ、3角形状を有する2つのポリゴンから形成される画像である、プログラム。
A program according to claim 13, wherein in the second forming unit,
A rectangular region around the previous SL area said first contact point and the second contact point,
The second object image is an image further gradationd so as to divide and separate the circularly radiated image within the rectangular region and interpolate a portion between the separated images, and 3 an image formed from two polygons having an angular shape, program.
タッチパネル上でのユーザのタッチ操作に対応する領域を決定するステップと、
前記領域に対し、所定の座標系の所定の範囲を対応付けて規定するステップと、
特徴化ルールに座標の座標値を入力することにより、前記各座標の特徴量を決定し、前記所定の範囲に対応する特徴量分布を取得するステップと、
前記領域に関連付けられ、前記特徴量分布に基づく画像を生成するステップと、
前記画像を前記タッチパネル上の前記領域に表示させるステップと
を含む、前記タッチ・スクリーンを具備するコンピュータに実装される、画像表示のための方法。
Determining an area corresponding to a user's touch operation on the touch panel;
Defining a predetermined range of a predetermined coordinate system in association with the area;
Determining a feature value of each coordinate by inputting a coordinate value of each coordinate to a characterization rule, and obtaining a feature value distribution corresponding to the predetermined range;
Generating an image associated with the region and based on the feature distribution ;
The image including the step of displaying the region on the touch panel is implemented in a computer comprising said touch screen, the method for displaying images.
前記タッチ操作がスライド操作であり、スライド方向およびスライド距離に基づいて前記領域が決定される、請求項15記載の方法。 The method according to claim 15 , wherein the touch operation is a slide operation, and the region is determined based on a slide direction and a slide distance. 前記画像生成するステップにおいて、前記画像の輪郭を少なくとも得るために、前記特徴量に輝度値を採用する、請求項15または16記載の方法。 The method according to claim 15 or 16 , wherein , in the step of generating the image , a luminance value is adopted as the feature amount in order to obtain at least an outline of the image . 前記画像生成するステップにおいて、前記画像の輪郭を少なくとも得るために、前記特徴量にアルファ値を採用する、請求項15から17のいずれか一項記載の方法。 In the step of generating the image, in order to obtain at least the outline of the image, employing an alpha value to the feature amount, any one process of claim 15 17. 前記特徴量に前記アルファ値を採用する際に、所定のRGB値を更に適用して前記画像の基準色を設定する、請求項18記載の方法。The method according to claim 18, wherein when the alpha value is adopted as the feature amount, a predetermined RGB value is further applied to set a reference color of the image.
JP2015178708A 2015-09-10 2015-09-10 User interface program and computer mounting method Active JP5941207B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015178708A JP5941207B1 (en) 2015-09-10 2015-09-10 User interface program and computer mounting method
PCT/JP2016/074193 WO2017043287A1 (en) 2015-09-10 2016-08-19 User interface program and computer implementation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015178708A JP5941207B1 (en) 2015-09-10 2015-09-10 User interface program and computer mounting method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016091784A Division JP2017054482A (en) 2016-04-28 2016-04-28 User interface program and computer implementation method

Publications (2)

Publication Number Publication Date
JP5941207B1 true JP5941207B1 (en) 2016-06-29
JP2017051492A JP2017051492A (en) 2017-03-16

Family

ID=56244693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015178708A Active JP5941207B1 (en) 2015-09-10 2015-09-10 User interface program and computer mounting method

Country Status (2)

Country Link
JP (1) JP5941207B1 (en)
WO (1) WO2017043287A1 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0787302A (en) * 1993-09-16 1995-03-31 Fuji Xerox Co Ltd Document processor
JP2009187096A (en) * 2008-02-04 2009-08-20 Seiko Epson Corp Image processor, image processing method and its program
JP2009240620A (en) * 2008-03-31 2009-10-22 Sega Corp Object display control method, object display control device, recording medium, and program
JP2010033294A (en) * 2008-07-28 2010-02-12 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2012033060A (en) * 2010-07-30 2012-02-16 Sony Corp Information processing device, display control method and display control program
JP4932010B2 (en) * 2010-01-06 2012-05-16 株式会社スクウェア・エニックス User interface processing device, user interface processing method, and user interface processing program
JP2012113743A (en) * 2012-02-29 2012-06-14 Denso Corp Display controller for remote operation device
JP2012247673A (en) * 2011-05-30 2012-12-13 Dainippon Printing Co Ltd Two-dimensional color gradation display device
JP2014191612A (en) * 2013-03-27 2014-10-06 Ntt Docomo Inc Information terminal, information input auxiliary method, and information input auxiliary program
JP5711409B1 (en) * 2014-06-26 2015-04-30 ガンホー・オンライン・エンターテイメント株式会社 Terminal device
JP2015222595A (en) * 2014-04-04 2015-12-10 株式会社コロプラ User interface program and game program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0787302A (en) * 1993-09-16 1995-03-31 Fuji Xerox Co Ltd Document processor
JP2009187096A (en) * 2008-02-04 2009-08-20 Seiko Epson Corp Image processor, image processing method and its program
JP2009240620A (en) * 2008-03-31 2009-10-22 Sega Corp Object display control method, object display control device, recording medium, and program
JP2010033294A (en) * 2008-07-28 2010-02-12 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP4932010B2 (en) * 2010-01-06 2012-05-16 株式会社スクウェア・エニックス User interface processing device, user interface processing method, and user interface processing program
JP2012033060A (en) * 2010-07-30 2012-02-16 Sony Corp Information processing device, display control method and display control program
JP2012247673A (en) * 2011-05-30 2012-12-13 Dainippon Printing Co Ltd Two-dimensional color gradation display device
JP2012113743A (en) * 2012-02-29 2012-06-14 Denso Corp Display controller for remote operation device
JP2014191612A (en) * 2013-03-27 2014-10-06 Ntt Docomo Inc Information terminal, information input auxiliary method, and information input auxiliary program
JP2015222595A (en) * 2014-04-04 2015-12-10 株式会社コロプラ User interface program and game program
JP5711409B1 (en) * 2014-06-26 2015-04-30 ガンホー・オンライン・エンターテイメント株式会社 Terminal device

Also Published As

Publication number Publication date
JP2017051492A (en) 2017-03-16
WO2017043287A1 (en) 2017-03-16

Similar Documents

Publication Publication Date Title
JP7112549B2 (en) Varying the effective resolution with screen position by changing the active color sample count within multiple render targets
JP6903183B2 (en) Changes in effective resolution based on screen position in graphics processing by approximating the projection of vertices on a curved viewport
US11361405B2 (en) Dynamic spread anti-aliasing
CN109166159B (en) Method and device for acquiring dominant tone of image and terminal
KR101916341B1 (en) Gradient adjustment for texture mapping for multiple render targets with resolution that varies by screen location
JP6230702B2 (en) Fragment shader that performs vertex shader operations
US20160125649A1 (en) Rendering apparatus and rendering method
KR102251444B1 (en) Graphic processing unit, graphic processing system comprising the same, antialiasing method using the same
CN109598672B (en) Map road rendering method and device
CN112516595B (en) Magma rendering method, device, equipment and storage medium
US9092911B2 (en) Subpixel shape smoothing based on predicted shape background information
JP2008521102A (en) Pixel sampling method and apparatus
JP5941207B1 (en) User interface program and computer mounting method
EP2992512B1 (en) Anti-aliasing for geometries
JP2017054482A (en) User interface program and computer implementation method
US20160321835A1 (en) Image processing device, image processing method, and display device
EP3154028A1 (en) Method and device for displaying illumination
WO2006003856A1 (en) Image drawing device, vertex selecting method, vertex selecting program, and integrated circuit
CN110264393B (en) Information processing method, terminal and storage medium
KR100914915B1 (en) A low cost view-volume clipping method and an apparatus therefor
JP2023045414A (en) Image data generation apparatus, image data generation method, and image data generation program
JP2003187260A (en) Image rendering program, recording medium in which image rendering program is recorded, image rendering apparatus and method
CN116823972A (en) Information processing method
JP2006113909A (en) Image processor, image processing method and image processing program
GB2531936A (en) Graphic processing unit, a graphic processing system including the same, and an anti-aliasing method using the same

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160519

R150 Certificate of patent or registration of utility model

Ref document number: 5941207

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250