WO2017043287A1 - ユーザ・インタフェース・プログラムおよびコンピュータ実装方法 - Google Patents
ユーザ・インタフェース・プログラムおよびコンピュータ実装方法 Download PDFInfo
- Publication number
- WO2017043287A1 WO2017043287A1 PCT/JP2016/074193 JP2016074193W WO2017043287A1 WO 2017043287 A1 WO2017043287 A1 WO 2017043287A1 JP 2016074193 W JP2016074193 W JP 2016074193W WO 2017043287 A1 WO2017043287 A1 WO 2017043287A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- value
- feature amount
- coordinate
- touch panel
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/214—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
- A63F13/2145—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/426—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Definitions
- the present invention relates to a UI program and a computer-implemented method for displaying a user interface (hereinafter referred to as “UI”) image. More specifically, it is used in a game executed on a smartphone (hereinafter referred to as “smart phone game”), and displays a UI image on the touch panel effectively in response to a touch operation with an object such as a finger.
- UI user interface
- smartphone hereinafter referred to as “smart phone game”
- the present invention relates to a UI program and a computer mounting method.
- Patent Document 1 In recent user terminals equipped with a touch panel such as a smartphone, various UIs are used on the touch panel.
- a cursor that extends from the start point to the end point of the slide operation and has a different size or shape at one end on the start point side and the other end on the end point side is displayed.
- a UI is disclosed (see [Summary] in Patent Document 1).
- visual deformation processing is also performed in which the cursor width is narrowed so that the cursor area becomes constant as the cursor lengthens (see paragraph [0018] of Patent Document 1).
- An object of the present invention is to provide a UI program and a computer-implemented method therefor that can dynamically realize various and flexible image generation processes while sufficiently reducing the processing load.
- the first invention relates to an area determination unit that determines an area corresponding to a user's touch operation on the touch panel, and a predetermined range of a predetermined coordinate system is associated with the area.
- UI user interface
- the second invention is a user interface (UI) program that displays a deformed shape of an elastic object on a touch panel, and generates a first elastic object image around the first contact point on the touch panel.
- UI user interface
- a second forming unit that forms and displays a deformed second elastic object image, and functions as a portable terminal having a touch panel, and each of the first forming unit and the second forming unit has a first contact point.
- a rectangular region including the predetermined coordinate system is defined in association with the rectangular region, and the coordinates of each coordinate are determined based on each coordinate value with respect to the predetermined range. Determining an amount associated with the rectangular area, configured to generate and display an image according to the feature quantities, UI program is obtained.
- the third invention includes a step of determining an area corresponding to a user's touch operation on the touch panel, a step of defining a predetermined range of a predetermined coordinate system in association with the area, and the predetermined A step of determining a feature amount of each coordinate based on each coordinate value for a range, a step of generating an image associated with the region and applying each feature amount, and displaying an image in the region on the touch panel
- UI user interface
- FIG. 1 is a schematic diagram of an example user terminal capable of executing a UI program according to an embodiment of the present invention.
- FIG. 2 is a schematic diagram showing a physical configuration of the user terminal of FIG.
- FIG. 3 is a schematic diagram showing input / output in the user terminal of FIG.
- FIG. 4 is an exemplary game screen in which the UI program according to the embodiment of the present invention is applied to a game program.
- FIG. 5a is a series of operation examples for displaying a UI image on a touch panel in conjunction with a touch operation according to an embodiment of the present invention.
- FIG. 5b is a series of operation examples for displaying a UI image on the touch panel in conjunction with a touch operation according to an embodiment of the present invention.
- FIG. 1 is a schematic diagram of an example user terminal capable of executing a UI program according to an embodiment of the present invention.
- FIG. 2 is a schematic diagram showing a physical configuration of the user terminal of FIG.
- FIG. 3 is a
- FIG. 6 shows a UV coordinate system for applying the UI image generated in FIG. 5b.
- FIG. 7 is a main functional block diagram implemented using a UI program according to an embodiment of the present invention.
- FIG. 8a is a basic process flow diagram implemented by a UI program according to an embodiment of the present invention.
- FIG. 8b is a detailed process flow diagram implemented by the UI program according to an embodiment of the present invention.
- FIG. 9 is a schematic image diagram regarding the feature amount applied in the UI program according to the embodiment of the present invention.
- FIG. 10a is a simplified image example generated using a UI program according to an embodiment of the present invention.
- FIG. 10B is a flowchart relating to luminance value calculation for generating the UI image image illustrated in FIG. 10A.
- FIG. 10A is a flowchart relating to luminance value calculation for generating the UI image image illustrated in FIG. 10A.
- FIG. 11a shows a procedural image of the first example generated using a UI program according to an embodiment of the present invention.
- FIG. 11b shows a procedural image of the first example generated using a UI program according to an embodiment of the present invention.
- FIG. 11c illustrates a first example procedural image generated using a UI program according to an embodiment of the present invention.
- FIG. 12 shows a procedural image of the second example generated using the UI program according to the embodiment of the present invention.
- FIG. 13 shows a procedural image of the third example generated using the UI program according to the embodiment of the present invention.
- FIG. 14 shows a procedural image of the fourth example generated using the UI program according to the embodiment of the present invention.
- FIG. 15 shows a comparison of procedural images generated using a UI program according to an embodiment of the present invention with other methods.
- the UI program according to the embodiment of the present invention has the following configuration.
- An area determination unit for determining an area corresponding to a user's touch operation on the touch panel; A coordinate defining section that associates and defines a predetermined range of a predetermined coordinate system for the region; A feature amount determination unit that determines a feature amount of each coordinate based on each coordinate value for the predetermined range; An image generation unit that generates an image that is associated with the region and that applies the feature amount; A user interface (UI) program that causes a computer including the touch panel to function as an image display unit that displays the image in the area on the touch panel.
- UI user interface
- (Item 4) The UI program according to any one of items 1 to 3, wherein an alpha value is adopted as the feature amount and used together with a predetermined RGB value in the image generation unit. According to this item, it is possible to generate an image having a gradation with excellent visual effects by applying an alpha value.
- the coordinate system is a UV coordinate system, and each coordinate value in the predetermined range is defined by a u value and a v value in a range from 0 to 1,
- the feature amount of each coordinate is determined by applying a characterization rule based on each coordinate value,
- the UI program according to any one of items 1 to 4, wherein the characterization rule includes a quadratic function calculation rule based on a u value and a v value. According to this item, a visually superior curve can be expressed without applying an excessive processing load by applying a calculation rule of a quadratic function.
- the feature amount of each coordinate is determined by applying a characterization rule based on each coordinate value,
- the UI program according to any one of claims 1 to 5, wherein the characterization rule includes an interpolation rule based on a u value and / or a v value and a slide distance when the touch operation is a slide operation. According to this item, an image having a visually excellent gradation can be generated without applying a processing load by applying an interpolation rule.
- (Item 7) The UI program according to any one of items 1 to 6, wherein the image is an image formed from two polygons having a triangular shape. According to this item, it is possible to generate an image from only two polygons having a triangular shape. That is, it is possible to generate an image with a minimum amount of calculation, and it is possible to realize saving of memory size and reduction of CPU calculation amount. Further, the image generated in this way is never blurred even when enlarged.
- a user interface (UI) program for deforming and displaying the shape of an elastic object on a touch panel A first forming unit that generates and displays a first elastic object image around a first contact point on the touch panel; When a slide operation from the first contact point to the second contact point is determined on the touch panel, the first elastic object image is deformed toward the second contact point in conjunction with the slide operation.
- UI user interface
- the portable terminal including the touch panel functions, and each of the first forming part and the second forming part includes: Determining a rectangular region including the first contact point; A predetermined range of a predetermined coordinate system is associated with the rectangular area and defined, For the predetermined range, determine the feature amount of each coordinate based on each coordinate value, A UI program configured to generate and display an image that is associated with the rectangular area and to which the feature amount is applied. According to this item, it is possible to generate an image with a minimum amount of calculation. Thereby, the memory size can be saved, and the CPU calculation amount can be reduced without degrading the image quality.
- the UI program according to item 8 wherein in the first forming unit, The rectangular area is a square area around the first contact point;
- the UI program, wherein the first elastic object image is a circularly radiated image formed in the square area and an image formed from two polygons having a triangular shape. According to this item, it is possible to generate a characteristic image having a visually excellent gradation without applying an excessive processing load.
- the UI program according to item 9 wherein in the second forming unit, The rectangular region is a rectangular region around the first contact point and the second contact point; The second object image is an image further gradationd so as to divide and separate the circularly radiated image within the rectangular region and interpolate a portion between the separated images, and 3 A UI program, which is an image formed from two polygons having a square shape. According to this item, it is possible to generate a characteristic image having a visually excellent gradation without applying an excessive processing load.
- (Item 11) Determining an area corresponding to a user's touch operation on the touch panel; Defining a predetermined range of a predetermined coordinate system in association with the area; Determining a feature amount of each coordinate based on each coordinate value for the predetermined range; Generating an image associated with the region and applying each feature amount; And displaying the image in the area on the touch panel.
- a method for user interface (UI) image display implemented in a computer comprising the touch screen. According to this item, it is possible to generate an image with a minimum amount of calculation. Thereby, the memory size can be saved, and the CPU calculation amount can be reduced without degrading the image quality.
- Item 13 The method according to Item 11 or 12, wherein the image generation unit employs a luminance value as the feature amount. According to this item, it is possible to generate an image having a gradation with excellent visual effect by applying the luminance value.
- (Item 14) 14 The method according to any one of items 11 to 13, wherein the image generation unit adopts an alpha value as the feature value and uses the feature value together with a predetermined RGB value. According to this item, by applying the alpha value, it is possible to generate a gradation image with excellent visual effects.
- This UI program is mainly applicable as part of a game program as a smartphone game. More specifically, the UI program can be used to advance the game as part of the game program and to control the operation of the virtual space and the game character in the virtual space.
- a smartphone 1 shown in FIG. 1 is an example of a mobile terminal and includes a touch panel 2.
- the user of the smartphone can control the progress of the game through a user operation including a touch operation on the touch panel 2.
- the mobile terminal for executing the UI program according to the embodiment of the present invention is not limited to the smartphone 1 as shown in FIG. 2, and is, for example, a mobile terminal having a touch panel such as a PDA or a tablet computer device. It will be appreciated that any device can be used.
- the smartphone 1 includes a CPU 3, a main memory 4, an auxiliary memory 5, a transmission / reception unit 6, a display unit 7, and an input unit 8 that are connected to each other via a bus.
- the main memory 4 is composed of, for example, a DRAM
- the auxiliary memory 5 is composed of, for example, an HDD.
- the auxiliary memory 5 is a recording medium capable of recording a UI program and a game program according to the embodiment of the present invention.
- Various programs stored in the auxiliary memory 5 are expanded on the main memory 4 and executed by the CPU 3. Note that data generated while the CPU 3 operates in accordance with the UI program and data used by the CPU 3 are also temporarily stored on the main memory 4.
- the transmission / reception unit 6 establishes connection (wireless connection and / or wired connection) between the smartphone 1 and the network under the control of the CPU 3 and transmits / receives various information.
- the display unit 7 displays various information to be presented to the user under the control of the CPU.
- the input unit 8 detects a touch input operation (mainly a physical contact operation such as a tap operation, a slide (swipe) operation, and a flick operation) on the touch pal 2 of the user.
- the display unit 7 and the input unit 8 correspond to the touch panel 2 described above.
- the touch panel 2 includes a touch sensing unit 301 corresponding to the input unit 8 and a liquid crystal display unit 302 corresponding to the display unit 7.
- the touch panel 2 displays an image under the control of the CPU 3 and receives an interactive touch operation (such as a physical contact operation on the touch panel 2) by a smartphone user. Then, based on the control by the control unit 303, the corresponding graphic is displayed on the liquid crystal display unit 302.
- the touch sensing unit 301 outputs an operation signal corresponding to the touch operation by the user to the control unit 303.
- the touch operation can be performed by any object.
- the touch operation may be performed by a user's finger, or a stylus may be used.
- a capacitance type can be adopted, but is not limited thereto.
- the control unit 303 detects an operation signal from the touch sensing unit 301, the control unit 303 determines as an operation instruction to the user's character, and transmits a graphic (not shown) corresponding to the instruction operation to the liquid crystal display unit as a display signal. Process.
- the main functions implemented by the control unit 303 will be described later with reference to FIG.
- the liquid crystal display unit 302 displays a graphic corresponding to the display signal.
- Game Screen Example With reference to the game screen example of FIG. 4, the operation of the UI program and the computer mounting method according to the embodiment of the present invention will be schematically described.
- the character 10 is arranged in the three-dimensional virtual game space 20.
- a field-of-view image obtained by photographing the character 10 from the upper front side of the character 10 with a virtual camera (not shown) is displayed on the touch panel as a two-dimensional image.
- two UI images (30 at the upper left of the screen and 40 at the lower right of the screen) are superimposed on the view field image.
- the UI images 30 and 40 are displayed on the touch panel as a result of a touch operation on the touch panel by the user (for example, a slide operation with a finger).
- the UI images 30 and 40 are generated by the UI program and the computer mounting method according to the embodiment of the present invention.
- a user In smartphone games, a user usually holds a smartphone vertically and operates with one hand, but of course, the present invention is not limited to this, and the terminal may be operated with both hands by holding it sideways.
- the touch operation is allowed with the left hand and the right hand, respectively.
- the UI images 30 and 40 shown in the figure also correspond to those obtained by touch operations of the left hand and the right hand, respectively.
- the game progress command is generated and executed by these UI images.
- UI image 30 with the left hand is displayed as “Move”
- an instruction to move the character 10 on the plane in the game space 20 in the direction (upper right) indicated by the UI image is executed.
- UI image 40 with the right hand is displayed as “Camera”
- an instruction to move the virtual camera in the game space 20 is executed so as to change the field of view in the upper right direction indicated by the UI image.
- the UI program for displaying a UI image according to the embodiment of the present invention generates and displays a UI image according to a user's touch operation.
- this UI program is applied particularly to a game program, the computer is caused to execute a character operation function corresponding to the UI program.
- UI image generation and display processing according to a one-handed operation by a user will be described by way of example.
- FIGS. 5a to 8b An outline of a series of operations for outputting a user interface (UI) image in conjunction with a touch operation on the touch panel will be described with reference to FIGS. 5a and 5b.
- FIG. 5a shows a case where the touch operation is a tap operation.
- FIG. 5b shows a case where the touch operation is a slide operation.
- a rectangular region D 2 (dotted line region) is determined around the slide start point and slide end point in (ii) for the slide operation.
- the width of the region is constant before and after the slide operation, but is not limited to this.
- the image I 2 is generated and superimposed on the rectangular region D 2 ⁇ ⁇ in conjunction with the slide operation.
- the image I 2 is deformed by extending the image I 1 of FIG. 5a toward the slide end point.
- the image I 2 on the area D 2 displayed as (iii) in Fig. 5b is separated from the image I 1 in (iii) of Fig. 5a in two in the slide operation direction.
- the part between the said distance is produced
- the region D 2 when the region D 2 is determined in (ii) of Fig. 5b, the region D 2 is generally referred to as UV coordinates as shown in Fig. 6 (a).
- a coordinate system is applied (note that the UV coordinate system may be referred to as a texture coordinate system).
- the UV coordinate system is a two-dimensional coordinate system in which the u value represents the width and the v value represents the height. Then, each coordinate value of the u value and the v value is expressed in a decimal point format in the range from 0 to 1, and each constitutes the position of the texture coordinate.
- the position in the UV coordinate system is specified by the predetermined number of sets of u and v values such as coordinate values (0.5, 0.5) and (0.125, 0.625). be able to. That is, in the region D 2, as shown in FIG. 6A, the u value and the v value are in the range of 0 or more and 1 or less, respectively (0, 0), (1, 0), (0, 1), This is a rectangular area composed of four points (1, 1).
- the image generated on the region D 2 that is, the texture image I 2 generated from the texture coordinates can be formed from only two polygons having a triangular shape or one polygon having a quadrangular shape. That is, the texture image I 2 can be displayed by storing at least four pieces of vertex information in the memory, so that it differs greatly from the one composed of a large number of polygons as in the prior art in terms of processing load. .
- the present invention makes it possible to generate a texture image having a visually excellent gradation with a minimum amount of calculation.
- the memory size at the time of processing can be saved, and the CPU calculation amount can be reduced without deteriorating the image quality.
- a texture image dynamically generated from the texture coordinates will be referred to as a “procedural image”.
- "procedural" is a word that means to generate dynamically.
- the generated procedural image I 2 is associated with the rectangular region D 2.
- the procedural image I 2 ⁇ expressed in gradation is mapped so as to cover the rectangular region D 2.
- the generation of the procedural image I 2, particularly gradation expression will be described later with reference to FIG.
- the background color is shown in gray when the procedural image expressed in gradation is illustrated. This has been dealt with in the drawings of the present application in order to explicitly visualize the white color.
- FIG. 7 shows a set of main functions implemented as a UI program according to an embodiment of the present invention and causing a mobile terminal equipped with a touch panel to function.
- the function set constitutes a control unit 50 corresponding to the control unit 303 shown in FIG. That is, input as an operation signal is processed through the control unit 50 (303), and an output as a display signal is generated.
- the control unit 50 includes a user operation unit 100 related to user input operation and procedural image formation through a touch panel, and a UI formation unit 200 for generating and displaying a UI image as shown in FIG. 5 in conjunction with the touch operation.
- a game progress unit (character operation) 500 for operating a game in accordance with the user input operation and a character in the virtual space is included.
- the user operation unit 100 includes a contact / non-contact determination unit 120 and a slide operation determination unit 140.
- the contact / non-contact determination unit 120 determines a touch operation or a detach operation on the touch panel. Further, the slide operation determination unit 140 determines whether the user operation by the touch operation / detach operation through contact is a slide operation (or just a tap operation).
- the UI formation unit 200 functions as a first formation unit and a second formation unit.
- the first forming unit generates and displays a procedural image having a circular radial gradation around the contact point as described with reference to (iii) of FIG. 5a.
- the procedural image having a circular radial gradation is subjected to a further gradation that is deformed toward the slide end point.
- the UI formation unit 200 includes an area determination unit 210, a UV coordinate definition unit 230, a feature amount determination unit 250, a UI image generation unit 270, and a UI image output unit 290, as will be described below.
- the area determination unit 210 defines an area corresponding to the touch operation described in FIG.
- the UV coordinate defining unit 230 defines the UV coordinate system described with reference to FIG. 6 in association with the region so that the u value and the v value are predetermined values in the range from 0 to 1.
- the feature amount determination unit 250 determines the feature amount of each coordinate by applying a characterization rule based on each coordinate value to the range of the region in the UV coordinate system.
- the UI image generation unit 270 generates an image that is associated with the region and to which each feature amount is applied as a UI image. Then, the UI image display unit 290 displays the generated UI image in the region portion on the touch panel. UI image generation will be described later with reference to FIG.
- the UI image generated by the UI forming unit 200 is superimposed on the virtual game space image, and the game progressing unit 500 generates and executes a corresponding game progress command. Advance the game.
- FIGS. 8a and 8b are flowcharts illustrating a computer-implemented method for displaying a UI image according to an embodiment of the present invention.
- the details of step S107 shown in the flowchart of FIG. 8a correspond to the flowchart of FIG. 8b.
- the touch / non-contact determination unit 120 determines a touch operation on the touch panel in step S103.
- the slide operation determination unit 140 further determines whether the touch operation is a tap operation or a slide operation in accordance with step S103.
- the tap operation means a touch operation composed of only one contact point on the touch panel.
- the slide operation means a continuous touch operation that includes two contact points on the touch panel (that is, a contact start point and a contact end point).
- a procedural image is generated and displayed by the UI forming unit 200 in step S107.
- the touch operation is a tap operation
- step S1071 the image I ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ 1 ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ having a circular radial gradation formed in a square area centered on the contact point shown in FIG. 5a is generated and displayed as a UI image.
- the touch operation is a slide operation
- the image I 1 having a circular radial gradation is placed in the slide operation direction in the rectangular area around the contact start point and end point shown in FIG.
- a deformed image I 2 is generated and displayed. Specifically, the image I 1 is divided and separated, and an image I 2 that is gradation so as to interpolate the part between the separated images is generated and displayed as a UI image.
- step S108 the game progress unit 500 generates and executes a corresponding game progress command for the UI image generated in step S107, and executes the game progress control shown in FIG.
- the game progress command preferably includes a character operation command for causing the character to perform an action such as movement, and a virtual camera operation command for controlling the operation of the virtual camera for photographing the game space.
- step S107 includes steps S201 to S205.
- steps S1071 and S10173 are assumed for step S107 depending on the touch operation. These are due to differences when applied in step S203 described later. .
- step S201 the region determination unit 210 determines a region corresponding to the user's touch operation on the touch panel. For example, the region D 1 in FIG. 5a and the region D 2 in FIG. 5b correspond to this.
- step S202 the UV coordinate defining unit 230 defines the u value and the v value in the UV coordinate system in a range from 0 to 1 with respect to the region.
- step S203 the feature amount determination unit 250 determines the feature amount of each coordinate by applying a characterization rule based on each coordinate value to the range from 0 to 1. Step S1071 and step S1072 differ greatly in the points of the characterization rules given in step S203.
- step S204 the UI image generation unit 270 generates an image to which the feature amount determined in step S203 is applied in association with the region.
- each position in the UV coordinate system is associated with each pixel included in the UI image, and the feature amount at each position is applied as a value (a luminance value or an opacity value described later in FIG. 9).
- step S205 the UI image display unit displays the UI image in a corresponding area on the touch panel.
- FIG. 9 is a schematic image diagram illustrating the concept in relation to applying the feature quantity determined in step S203 to the image in step S205.
- each position in the UV coordinate system is associated with each pixel included in the procedural image, and each feature amount is applied to each pixel.
- the feature amount is also expressed in the range from 0 to 1 so that the u value and the v value correspond to the range from 0 to 1 in the uv coordinate system (FIG. 6A).
- the feature amount is not limited to the range.
- FIG. 9 shows a state of a series of transitions as to how a corresponding pixel is displayed when the feature amount changes from 0 to 1. It should be noted that although each pixel has a black frame in the figure, this is for clarity of illustration and is not reflected in the actual pixel.
- the feature amount is changed in increments of 0.25 from 0.0 ⁇ 0.25 ⁇ 0.5 ⁇ 0.75 ⁇ 1.0.
- the display pattern changes when (1) “luminance value” is used as the feature amount, and (2) “white background-based opacity value” is used as the feature amount. ing.
- the above (1) is a case where the feature value is “brightness value”, the brightness value 0 is “black”, and the brightness value 1 is “white” in monochrome.
- the “luminance value” is used as the feature quantity, but the present invention is not limited to this, and a similar result can also be obtained when color information such as “brightness” is used. It will be understood by those skilled in the art.
- the color information is not limited to monochrome as in this example, and is generally used as RGB (Red: Red, Green: Green, Blue: Blue) values represented by integer values from 0 to 255. Those skilled in the art will understand that any combination of decimal ranges from 0 to 1 determined on the basis of them can be used.
- the feature amount is “white background based opacity”
- the opacity value 0 is associated with “completely transparent” (transparency: 100%)
- the opacity value 1 is “completely opaque”. ”(Transparency: 0%).
- the opacity value is different in concept from the color information expressed in RGB of (1) above, and corresponds to an index indicating transparency generally referred to as “alpha value” in the technical field.
- the alpha value normally expressed in the range of integers from 0 to 255 is represented by the decimal range from 0 to 1, which is the “opacity value” here.
- the reference color transitions to white, which is the base color.
- the reference base color is set to “white” (that is, a value of “R: 255, G: 255, B: 255”).
- the present invention is not limited to this, and any value expressed by RGB values.
- a procedural image can also be formed as an image having a gradation of an arbitrary reference base color.
- two UI images 30 and 40 in the game screen example shown in FIG. 4 can be used to generate images having gradations of different colors.
- FIG. 9 the display mode of one pixel based on the feature amount has been described.
- FIG. 10a an image composed of a plurality of pixels in the UV coordinate system and having gradation will be described.
- FIG. 10a shows an image with gradation
- FIG. 10b shows the processing flow for generating the image.
- (1) “luminance value” in FIG. 9 is adopted as the feature amount.
- An example of an image having gradation as shown in FIG. 10a has eight rectangular areas formed from four points (0,0), (1,0), (0,1), (1,1) in the UV coordinate system. Are divided into small regions L (i, j) (i.e., L (1,1) to L (4,2) ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ), and a characterization rule described below is applied to each of the small regions to produce gradation as a whole. Is generated. The image is set such that the luminance values are spaced by “0.25” for each adjacent small region in both the U-axis direction and the V-axis direction.
- the small region L (1,1) is obtained from four points (0, 0), (0.25, 0), (0, 0.5), (0.25, 0.5) in the UV coordinate system. Each pixel is set so that the luminance value over the rectangular area is “0.25”.
- the small region L (4,2) has four points (0.75, 0.5), (1, 0.5), (0.75, 1), (1, 1) in the UV coordinate system. Each pixel is set so that the luminance value over the region is “0.75”.
- An image having gradation as shown in FIG. 10a is implemented using a luminance value calculation as shown in the processing flow of FIG. 10b, that is, using a characterization rule based on each (u, v) coordinate value.
- the u value and the v value are associated with the i value and the j value, respectively.
- the luminance value to be set for the eight small areas shown in FIG. 10a is determined, and an image having gradation as a whole rectangular area of the UV coordinate system Can be generated.
- the generated image is formed from only two polygons having a triangular shape or one polygon having a quadrangular shape. In this respect, this processing does not require vertex calculation of a large number of polygons, memory storage / memory access of each vertex, and the processing load can be very light.
- the luminance value is used as the feature amount to generate an image.
- opacity alpha value
- the gradation aspect of the procedural image generated based on the UV coordinate value can assume many patterns.
- various gradation aspects are further described below along with some preferred embodiments.
- the touch operation by the user is a slide operation for sliding by a distance d. That is, the area determination unit 210 determines a rectangular area based on the slide direction and the slide distance d. Further, it is assumed that the width of the determined rectangular area is constant (2 ⁇ r).
- Lum (u, v) represents a luminance value corresponding to the coordinate value (u, v) in the UV coordinate system.
- each of the features is combined with eight characterization rules (1-1) to (1-8) based on UV coordinate values.
- the gradation is determined while calculating the feature value of the UV coordinate based on the conversion rule.
- the luminance value is adopted as the feature amount.
- the luminance value is adopted as the feature amount.
- the luminance value is adopted as the feature amount.
- the feature amount has been described as being within the range of 0 to 1 in relation to FIG. 9, it is not limited to this. That is, as a result of calculating the luminance value (feature value), if the value is less than 0, it may have a feature of “0” (ie, black), and if greater than 1, a feature of “1” (ie, a feature value). White). Even in the calculation of the quadratic function equation, there are regions where the luminance value is greater than 1 around the four vertices of the rectangle. In the first embodiment, the region is processed so as to be all white as illustrated.
- the luminance value is adopted as the feature quantity.
- the outer white portion of the elliptical radial gradation generated by the rule (1-6), that is, the region portion having a luminance value greater than 1 is preliminarily processed for opacity by the following rule (1-8).
- inversion processing is performed to make the luminance value smaller than zero. Applying the inverted luminance value as a procedural image to generate a procedural image having an elliptical radial gradation along the U-axis and V-axis directions as shown in the figure and having black outside Can do.
- the characterization rule (1-8) shown in FIG. 11c adopts an opacity value (alpha value) as a feature quantity.
- the characterization rules (1-8) continue to adopt the feature values as opacity values.
- the difference between the two cases of (1) the case where the luminance value is adopted as the feature amount and (2) the case where the opacity value is adopted as the feature amount can be changed as illustrated.
- opacity processing processing using an opacity value as a feature amount as shown in (2) of FIG. 9 is referred to as opacity processing.
- Second Embodiment In the second embodiment shown in FIG. 12, three characterization rules (2-1) to (2-3) based on UV coordinate values are combined, and a feature amount of UV coordinates based on each characterization rule. Determine the gradation while calculating.
- the width of the rectangular area corresponding to the slide operation is denoted by 2r
- the slide operation distance is denoted by d. That is, the size of the rectangular area (for example, the area D 2 in FIG. 5B) corresponding to the slide operation on the touch panel is “horizontal (d + 2r) ⁇ vertical 2r”.
- the rectangular area of the UV coordinate system is divided into three area portions in the U-axis direction.
- the u value is changed from “0” to “r / (2r + d)”
- the u value is changed from “r / (2r + d)” to “(r + d) / (2r + d)”.
- the part and the third part are parts where the u value changes from “(r + d) / (2r + d)” to “1”.
- a luminance value is adopted as a feature amount. Then, the luminance value Lum (u, v) is distributed discretely from 0 to 1 along the U-axis direction.
- the luminance value is similarly adopted as the feature amount. Then, the luminance values are distributed discretely from 0 to 1 along the U-axis direction.
- a more flexible gradation is determined by combining the characterization rules generated in the first and second embodiments. More specifically, the characterization in the first embodiment is performed on the value of the feature amount (that is, the luminance value) obtained as a result of applying the characterization rule (2-3) in FIG. 12 in the second embodiment. Apply the rules. Specifically, the characterization rules (1-6) in FIG. 11b and the characterization rules (1-8) in FIG. 11c in the first embodiment are sequentially applied. Thereby, the feature quantity of the UV coordinate based on each of the characterization rules (2-3) and (1-6) to (1-8) can be calculated, and a corresponding procedural image can be generated.
- the luminance value is adopted as the feature amount.
- the inversion processing is performed on the outer white portion of the gradation generated by the rule (3-1), that is, the region portion where the luminance value Lum (u, v) is larger than 1, so that the luminance value becomes smaller than 0.
- the inversion processing is performed on the outer white portion of the gradation generated by the rule (3-1), that is, the region portion where the luminance value Lum (u, v) is larger than 1, so that the luminance value becomes smaller than 0.
- the opacity value (alpha value) is adopted as the feature quantity. That is, with respect to the distribution of the feature value as the luminance value Lum (u, v) generated as a result of the characterization rule (3-2), the feature value in the characterization rule (3-3) Employing an opacity value to perform an opacity process. Similar to the application of the characterization rule (1-8) in FIG. 11c, the gradation of the procedural image generated by the characterization rule (3-3) changes as shown.
- the fourth embodiment shown in FIG. 14 is a further modification of the procedural image having gradation shown in the characterization rule (3-3) of the third embodiment shown in FIG.
- Each of the modified examples shown in FIGS. 14A to 14G changes part of the characterization rules that have been applied so far when generating the procedural image of the characterization rule (3-3). Alternatively, it can be realized by additionally applying some characterization rule.
- an opacity process using an opacity value as a feature value is performed.
- the opacity value of the predetermined thickness portion is further set to “1.0” (0).
- a characterization rule may be applied in which opacity values (from 1 to 1) are rounded up to the nearest decimal point, and other opacity values are rounded down to “0.0”.
- an opacity process is performed in which an opacity value is used as a feature amount in addition to the modification shown in FIG. 14D. Specifically, a characterization rule that rounds up the decimal point so that the opacity value is “1.0” may be applied.
- an opacity process using an opacity value as a feature amount is further performed with respect to the modified example of FIG. 14 (d). Specifically, the opacity value of the outline portion is rounded up so that the opacity value is “1.0”, and the opacity value other than that is “0.0”. Thus, the characterization rule of truncating the decimal point may be applied.
- the procedural images formed in various gradation modes described so far can be displayed on the touch panel as UI images.
- the procedural image has an advantage that the feature amount is calculated each time and, for example, the procedural image does not blur even when enlarged. This point will be further described below with reference to FIG.
- FIG. 15 is a diagram comparing a UI image (FIG. 15A) generated by a UI program for image display according to an embodiment of the present invention with an example using another method, with respect to enlarged display of a UI image.
- a UI image (FIG. 15B) realized by a mesh composed of a large number of polygons is assumed.
- the right half of the image shows the entire UI image
- the left half shows the enlarged image of the curved portion of the UI image.
- the procedural image is generated and displayed while applying the UV coordinate system one by one in conjunction with the enlargement process. Will do.
- a situation that affects the image quality according to the enlargement process does not occur.
- the enlargement process is performed on the UI image realized by the mesh as in the example of FIG. 15B, the process of enlarging each polygon according to the magnification is performed. As a result, the image becomes rough as shown in the figure.
- the UI program according to the embodiment of the present invention is advantageous in that the image quality is not affected even if the enlargement process is performed.
- the UI program for image display and the computer-implemented method according to the embodiment of the present invention have been described above with some examples.
- the above-described embodiments are merely examples for facilitating understanding of the present invention, and are not intended to limit the present invention.
- the present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
(課題)タッチ操作に連動して生成されるUI画像として、ポリゴンの頂点計算を限定的にし、処理負荷を十分に低減させながら、多様且つ柔軟な画像生成処理を動的に実現するUIプログラムを提供する。 (解決手段)本UIプログラムでは、タッチパネル上でのユーザのタッチ操作に対応する領域を決定する領域決定部と、上記領域に対し、所定の座標系の所定の範囲を対応付けて規定する座標規定部と、上記所定の範囲に対し、各座標値に基づいて各座標の特徴量を決定する特徴量決定部と、上記領域に関連付けられ、各特徴量を適用した画像を生成する画像生成部と、画像をタッチパネル上の上記領域に表示する画像表示部と、としてタッチパネルを具備するコンピュータに機能させる。
Description
本発明は、ユーザ・インタフェース(以下、「UI」と称する。)画像表示のためのUIプログラムおよびコンピュータ実装方法に関するものである。より詳細には、スマートフォン上で実行されるゲーム(以下、「スマートフォン・ゲーム」と称する。)で使用され、指等の物体によるタッチ操作に応じて、効果的に、タッチパネル上にUI画像を表示させるためのUIプログラムおよびコンピュータ実装方法に関するものである。
スマートフォンをはじめとしたタッチパネルを具備する昨今のユーザ端末では、タッチパネル上で様々なUIが用いられる。例えば、特許文献1では、タッチパネル上のスライド操作に応じて、スライド操作の始点から終点へと伸び、始点側の一端部と終点側の他端部とで大きさ又は形状が異なるカーソルを表示するUIについて開示される(特許文献1の〔要約〕参照)。ここでは、スライド操作にわたり、カーソルが長くなるほどカーソルの面積が一定となるようにカーソルの幅を細くするような視覚上の変形処理も実施される(特許文献1の段落〔0018〕参照)。
本発明は、処理負荷を十分に低減させながら、多様且つ柔軟な画像生成処理を動的に実現可能なUIプログラムおよびそのためのコンピュータ実装方法を提供することを目的とする。
上記の課題を解決するために、第1発明は、タッチパネル上でのユーザのタッチ操作に対応する領域を決定する領域決定部と、上記領域に対し、所定の座標系の所定の範囲を対応付けて規定する座標規定部と、上記所定の範囲に対し、各座標値に基づいて各座標の特徴量を決定する特徴量決定部と、上記領域に関連付けられ、各特徴量を適用した画像を生成する画像生成部と、画像をタッチパネル上の上記領域に表示する画像表示部と、としてタッチパネルを具備するコンピュータに機能させる、ユーザ・インタフェース(UI)プログラムが得られる。
また、第2発明は、タッチパネル上で弾性オブジェクトの形状を変形して表示するユーザ・インタフェース(UI)プログラムであって、タッチパネル上の第1接触点の周囲に第1弾性オブジェクト画像を生成して表示する第1形成部と、タッチパネル上で第1接触点から第2接触点までのスライド操作が判定された場合に、スライド操作に連動して第1弾性オブジェクト画像を第2接触点に向けて変形させた第2弾性オブジェクト画像を形成して表示する第2形成部と、としてタッチパネルを具備する携帯端末に機能させ、上記第1形成部および上記第2形成部のそれぞれが、第1接触点を含む矩形領域を決定し、矩形領域に対し、所定の座標系の所定の範囲を対応付けて規定し、上記所定の範囲に対し、各座標値に基づいて各座標の特徴量を決定し、上記矩形領域に関連付けられ、各特徴量を適用した画像を生成して表示するように構成される、UIプログラムが得られる。
更に、第3発明は、タッチパネル上でのユーザのタッチ操作に対応する領域を決定するステップと、上記領域に対し、所定の座標系の所定の範囲を対応付けて規定するステップと、上記所定の範囲に対し、各座標値に基づいて各座標の特徴量を決定するステップと、上記領域に関連付けられ、各特徴量を適用した画像を生成するステップと、画像を前記タッチパネル上の上記領域に表示させるステップと、を含む、前記タッチ・スクリーンを具備するコンピュータに実装される、ユーザ・インタフェース(UI)画像表示のための方法が得られる。
本発明の特徴点および利点は、後述する発明の詳細な説明、並びに添付の図面および特許請求の範囲の記載から明らかなものとなる。
[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の実施形態によるUIプログラムは、以下のような構成を備える。
最初に、本発明の実施形態の内容を列記して説明する。本発明の実施形態によるUIプログラムは、以下のような構成を備える。
(項目1)
タッチパネル上でのユーザのタッチ操作に対応する領域を決定する領域決定部と、
前記領域に対し、所定の座標系の所定の範囲を対応付けて規定する座標規定部と、
前記所定の範囲に対し、各座標値に基づいて各座標の特徴量を決定する特徴量決定部と、
前記領域に関連付けられ、各前記特徴量を適用した画像を生成する画像生成部と、
前記画像を前記タッチパネル上の前記領域に表示する画像表示部と
として前記タッチパネルを具備するコンピュータに機能させる、ユーザ・インタフェース(UI)プログラム。
本項目によれば、最小限の計算量で画像を生成可能とする。これにより、メモリサイズを節約でき、画像品質を劣化させることなくCPU計算量を軽減させることができる。
タッチパネル上でのユーザのタッチ操作に対応する領域を決定する領域決定部と、
前記領域に対し、所定の座標系の所定の範囲を対応付けて規定する座標規定部と、
前記所定の範囲に対し、各座標値に基づいて各座標の特徴量を決定する特徴量決定部と、
前記領域に関連付けられ、各前記特徴量を適用した画像を生成する画像生成部と、
前記画像を前記タッチパネル上の前記領域に表示する画像表示部と
として前記タッチパネルを具備するコンピュータに機能させる、ユーザ・インタフェース(UI)プログラム。
本項目によれば、最小限の計算量で画像を生成可能とする。これにより、メモリサイズを節約でき、画像品質を劣化させることなくCPU計算量を軽減させることができる。
(項目2)
前記タッチ操作がスライド操作であり、スライド方向およびスライド距離に基づいて前記領域が決定される、項目1記載のUIプログラム。
本項目によれば、スライド操作全般にわたり、処理負荷の点で優れた画像を生成可能とする。
前記タッチ操作がスライド操作であり、スライド方向およびスライド距離に基づいて前記領域が決定される、項目1記載のUIプログラム。
本項目によれば、スライド操作全般にわたり、処理負荷の点で優れた画像を生成可能とする。
(項目3)
前記画像生成部において、前記特徴量に輝度値を採用する、項目1または2記載のUIプログラム。
本項目によれば、輝度値を適用することを通じて、視覚効果に優れたグラデーションを有する画像を生成することができる。
前記画像生成部において、前記特徴量に輝度値を採用する、項目1または2記載のUIプログラム。
本項目によれば、輝度値を適用することを通じて、視覚効果に優れたグラデーションを有する画像を生成することができる。
(項目4)
前記画像生成部において、前記特徴量にアルファ値を採用して、所定のRGB値と共に用いる、項目1から3のいずれか一項記載のUIプログラム。
本項目によれば、アルファ値を適用することを通じて、視覚効果に優れたグラデーションを有する画像を生成することができる。
前記画像生成部において、前記特徴量にアルファ値を採用して、所定のRGB値と共に用いる、項目1から3のいずれか一項記載のUIプログラム。
本項目によれば、アルファ値を適用することを通じて、視覚効果に優れたグラデーションを有する画像を生成することができる。
(項目5)
前記座標系がUV座標系であり、前記所定の範囲内の前記各座標値が0から1までの範囲のu値およびv値で規定され、
前記特徴量決定部において、前記各座標の特徴量が、前記各座標値に基づく特徴化ルールを適用することで決定され、
前記特徴化ルールが、u値およびv値に基づく2次関数の計算ルールを含む、項目1から4のいずれか一項記載のUIプログラム。
本項目によれば、2次関数の計算ルールを適用することを通じて、視覚的に優れた曲線を、過剰な処理負荷を掛けることなく表現することができる。
前記座標系がUV座標系であり、前記所定の範囲内の前記各座標値が0から1までの範囲のu値およびv値で規定され、
前記特徴量決定部において、前記各座標の特徴量が、前記各座標値に基づく特徴化ルールを適用することで決定され、
前記特徴化ルールが、u値およびv値に基づく2次関数の計算ルールを含む、項目1から4のいずれか一項記載のUIプログラム。
本項目によれば、2次関数の計算ルールを適用することを通じて、視覚的に優れた曲線を、過剰な処理負荷を掛けることなく表現することができる。
(項目6)
前記特徴量決定部において、前記各座標の特徴量が、前記各座標値に基づく特徴化ルールを適用することで決定され、
前記特徴化ルールが、u値および/またはv値と前記タッチ操作がスライド操作である場合のスライド距離とに基づく補間ルールを含む、請求項1から5のいずれか一項記載のUIプログラム。
本項目によれば、補間ルールを適用することを通じて、視覚的に優れたグラデーションを有する画像を、処理負荷を掛けることなく生成することができる。
前記特徴量決定部において、前記各座標の特徴量が、前記各座標値に基づく特徴化ルールを適用することで決定され、
前記特徴化ルールが、u値および/またはv値と前記タッチ操作がスライド操作である場合のスライド距離とに基づく補間ルールを含む、請求項1から5のいずれか一項記載のUIプログラム。
本項目によれば、補間ルールを適用することを通じて、視覚的に優れたグラデーションを有する画像を、処理負荷を掛けることなく生成することができる。
(項目7)
前記画像が3角形状を有する2つのポリゴンから形成される画像である、項目1から6のいずれか一項記載のUIプログラム。
本項目によれば、3角形状を有する2つのみのポリゴンから画像を生成することを可能にする。即ち、最小限の計算量で画像生成を可能とし、メモリサイズの節約およびCPU計算量の軽減を実現することができる。また、このように生成される画像は、拡大しても決してぼやけるようなことのないものとなる。
前記画像が3角形状を有する2つのポリゴンから形成される画像である、項目1から6のいずれか一項記載のUIプログラム。
本項目によれば、3角形状を有する2つのみのポリゴンから画像を生成することを可能にする。即ち、最小限の計算量で画像生成を可能とし、メモリサイズの節約およびCPU計算量の軽減を実現することができる。また、このように生成される画像は、拡大しても決してぼやけるようなことのないものとなる。
(項目8)
タッチパネル上で弾性オブジェクトの形状を変形して表示するユーザ・インタフェース(UI)プログラムであって、
前記タッチパネル上の第1接触点の周囲に第1弾性オブジェクト画像を生成して表示する第1形成部と、
前記タッチパネル上で前記第1接触点から第2接触点までのスライド操作が判定された場合に、前記スライド操作に連動して前記第1弾性オブジェクト画像を前記第2接触点に向けて変形させた第2弾性オブジェクト画像を形成して表示する第2形成部ととして前記タッチパネルを具備する携帯端末に機能させ、前記第1形成部および前記第2形成部のそれぞれが、
前記第1接触点を含む矩形領域を決定し、
前記矩形領域に対し、所定の座標系の所定の範囲を対応付けて規定し、
前記所定の範囲に対し、各座標値に基づいて各座標の特徴量を決定し、
前記矩形領域に関連付けられ、各前記特徴量を適用した画像を生成して表示するように構成される、UIプログラム。
本項目によれば、最小限の計算量で画像生成を可能とする。これにより、メモリサイズを節約でき、画像品質を劣化させることなくCPU計算量を軽減させることができる。
(項目9)
項目8記載のUIプログラムであって、前記第1形成部において、
前記矩形領域が前記第1接触点の周囲の正方形領域であり、
前記第1弾性オブジェクト画像が、前記正方形領域内に形成される円放射状にグラデーションされた画像であり、且つ、3角形状を有する2つのポリゴンから形成される画像である、UIプログラム。
本項目によれば、視覚的に優れたグラデーションを有する特徴的な画像を、過剰な処理負荷を掛けることなく生成可能とする。
タッチパネル上で弾性オブジェクトの形状を変形して表示するユーザ・インタフェース(UI)プログラムであって、
前記タッチパネル上の第1接触点の周囲に第1弾性オブジェクト画像を生成して表示する第1形成部と、
前記タッチパネル上で前記第1接触点から第2接触点までのスライド操作が判定された場合に、前記スライド操作に連動して前記第1弾性オブジェクト画像を前記第2接触点に向けて変形させた第2弾性オブジェクト画像を形成して表示する第2形成部ととして前記タッチパネルを具備する携帯端末に機能させ、前記第1形成部および前記第2形成部のそれぞれが、
前記第1接触点を含む矩形領域を決定し、
前記矩形領域に対し、所定の座標系の所定の範囲を対応付けて規定し、
前記所定の範囲に対し、各座標値に基づいて各座標の特徴量を決定し、
前記矩形領域に関連付けられ、各前記特徴量を適用した画像を生成して表示するように構成される、UIプログラム。
本項目によれば、最小限の計算量で画像生成を可能とする。これにより、メモリサイズを節約でき、画像品質を劣化させることなくCPU計算量を軽減させることができる。
(項目9)
項目8記載のUIプログラムであって、前記第1形成部において、
前記矩形領域が前記第1接触点の周囲の正方形領域であり、
前記第1弾性オブジェクト画像が、前記正方形領域内に形成される円放射状にグラデーションされた画像であり、且つ、3角形状を有する2つのポリゴンから形成される画像である、UIプログラム。
本項目によれば、視覚的に優れたグラデーションを有する特徴的な画像を、過剰な処理負荷を掛けることなく生成可能とする。
(項目10)
項目9記載のUIプログラムであって、前記第2形成部において、
前記矩形領域が前記第1接触点および前記第2接触点の周囲の長方形領域であり、
前記第2オブジェクト画像が、前記長方形領域内に、前記円放射状にグラデーションされた画像を分割して離間し、該離間した間の部分を補間するように更にグラデーションされた画像であり、且つ、3角形状を有する2つのポリゴンから形成される画像である、UIプログラム。
本項目によれば、視覚的に優れたグラデーションを有する特徴的な画像を、過剰な処理負荷を掛けることなく生成可能とする。
項目9記載のUIプログラムであって、前記第2形成部において、
前記矩形領域が前記第1接触点および前記第2接触点の周囲の長方形領域であり、
前記第2オブジェクト画像が、前記長方形領域内に、前記円放射状にグラデーションされた画像を分割して離間し、該離間した間の部分を補間するように更にグラデーションされた画像であり、且つ、3角形状を有する2つのポリゴンから形成される画像である、UIプログラム。
本項目によれば、視覚的に優れたグラデーションを有する特徴的な画像を、過剰な処理負荷を掛けることなく生成可能とする。
(項目11)
タッチパネル上でのユーザのタッチ操作に対応する領域を決定するステップと、
前記領域に対し、所定の座標系の所定の範囲を対応付けて規定するステップと、
前記所定の範囲に対し、各座標値に基づいて各座標の特徴量を決定するステップと、
前記領域に関連付けられ、各前記特徴量を適用した画像を生成するステップと、
前記画像を前記タッチパネル上の前記領域に表示させるステップと
を含む、前記タッチ・スクリーンを具備するコンピュータに実装される、ユーザ・インタフェース(UI)画像表示のための方法。
本項目によれば、最小限の計算量で画像を生成可能とする。これにより、メモリサイズを節約でき、画像品質を劣化させることなくCPU計算量を軽減させることができる。
タッチパネル上でのユーザのタッチ操作に対応する領域を決定するステップと、
前記領域に対し、所定の座標系の所定の範囲を対応付けて規定するステップと、
前記所定の範囲に対し、各座標値に基づいて各座標の特徴量を決定するステップと、
前記領域に関連付けられ、各前記特徴量を適用した画像を生成するステップと、
前記画像を前記タッチパネル上の前記領域に表示させるステップと
を含む、前記タッチ・スクリーンを具備するコンピュータに実装される、ユーザ・インタフェース(UI)画像表示のための方法。
本項目によれば、最小限の計算量で画像を生成可能とする。これにより、メモリサイズを節約でき、画像品質を劣化させることなくCPU計算量を軽減させることができる。
(項目12)
前記タッチ操作がスライド操作であり、スライド方向およびスライド距離に基づいて前記領域が決定される、項目11記載の方法。
本項目によれば、スライド操作全般にわたり、処理負荷の点で優れた画像を生成可能とする。
前記タッチ操作がスライド操作であり、スライド方向およびスライド距離に基づいて前記領域が決定される、項目11記載の方法。
本項目によれば、スライド操作全般にわたり、処理負荷の点で優れた画像を生成可能とする。
(項目13)
前記画像生成部において、前記特徴量に輝度値を採用する、項目11または12記載の方法。
本項目によれば、輝度値を適用することを通じて、視覚効果に優れたグラデーションを有する画像を生成することができる。
前記画像生成部において、前記特徴量に輝度値を採用する、項目11または12記載の方法。
本項目によれば、輝度値を適用することを通じて、視覚効果に優れたグラデーションを有する画像を生成することができる。
(項目14)
前記画像生成部において、前記特徴量にアルファ値を採用して、所定のRGB値と共に用いる、項目11から13のいずれか一項記載の方法。
本項目によれば、アルファ値を適用することを通じて、視覚効果に優れたグラデーションされた画像を生成することができる。
前記画像生成部において、前記特徴量にアルファ値を採用して、所定のRGB値と共に用いる、項目11から13のいずれか一項記載の方法。
本項目によれば、アルファ値を適用することを通じて、視覚効果に優れたグラデーションされた画像を生成することができる。
[本発明の実施形態の詳細]
これより図面を参照して、本発明の実施形態による、UI画像表示のためのUIプログラムおよびコンピュータ実装方法について説明する。図中、同一の構成要素には同一の符号を付してある。本UIプログラムは、主に、スマートフォン・ゲームとしてのゲーム・プログラムの一部として適用可能である。より詳しくは、本UIプログラムは、ゲーム・プログラムの一部としてゲームを進行させ、仮想空間や該仮想空間内のゲーム・キャラクタの動作を制御するために用いることが可能である。
これより図面を参照して、本発明の実施形態による、UI画像表示のためのUIプログラムおよびコンピュータ実装方法について説明する。図中、同一の構成要素には同一の符号を付してある。本UIプログラムは、主に、スマートフォン・ゲームとしてのゲーム・プログラムの一部として適用可能である。より詳しくは、本UIプログラムは、ゲーム・プログラムの一部としてゲームを進行させ、仮想空間や該仮想空間内のゲーム・キャラクタの動作を制御するために用いることが可能である。
携帯端末のハードウェア構成
図1に示すスマートフォン1は、携帯端末の一例であり、タッチパネル2を備える。スマートフォンのユーザは当該タッチパネル2上でのタッチ操作を含むユーザ操作を介してゲームの進行を制御することができる。なお、本発明の実施形態によるUIプログラムを実行するための携帯端末は、図2のようなスマートフォン1に限定されず、例えば、PDA、タブレット型コンピュータのデバイスなど、タッチパネルを備える携帯端末であれば如何なるデバイスともできることが理解される。
図1に示すスマートフォン1は、携帯端末の一例であり、タッチパネル2を備える。スマートフォンのユーザは当該タッチパネル2上でのタッチ操作を含むユーザ操作を介してゲームの進行を制御することができる。なお、本発明の実施形態によるUIプログラムを実行するための携帯端末は、図2のようなスマートフォン1に限定されず、例えば、PDA、タブレット型コンピュータのデバイスなど、タッチパネルを備える携帯端末であれば如何なるデバイスともできることが理解される。
図2に示すように、スマートフォン1は、互いにバス接続されたCPU3、主記憶4、補助記憶5、送受信部6、表示部7および入力部8を備える。このうち主記憶4は例えばDRAMなどで構成され、補助記憶5は例えばHDDなどで構成されている。補助記憶5は、本発明の実施形態によるUIプログラムやゲーム・プログラムを記録可能な記録媒体である。補助記憶5に格納された各種プログラムは、主記憶4上に展開されてCPU3によって実行される。なお、主記憶4上には、CPU3がUIプログラムに従って動作している間に生成したデータやCPU3によって利用されるデータも一時的に格納される。送受信部6はCPU3の制御によりスマートフォン1とネットワークとの間の接続(無線接続および/または有線接続)を確立して各種情報の送受信を行う。表示部7は、CPUでの制御の下でユーザに提示することになる各種情報を表示する。入力部8は、ユーザのタッチパル2に対するタッチ入力操作(主に、タップ操作、スライド(スワイプ)操作、およびフリック操作等の物理的接触操作)を検知する。
表示部7および入力部8は、上述したタッチパネル2に相当する。図3に示すように、タッチパネル2は、入力部8に相当するタッチセンシング部301、および表示部7に相当する液晶表示部302を有する。タッチパネル2は、CPU3による制御の下で、画像を表示して、スマートフォンのユーザによるインタラクティブなタッチ操作(タッチパネル2における物理的接触操作等)を受ける。そして、制御部303での制御に基づいて、対応するグラフィックを液晶表示部302に表示する。
より詳細には、上記タッチセンシング部301は、ユーザによるタッチ操作に応じた操作信号を制御部303に出力する。タッチ操作は、何れの物体によるものとすることができ、例えば、ユーザの指によりなされてもよいし、スタイラス等を用いてもよい。また、タッチセンシング部301として、例えば、静電容量タイプのものを採用することができるが、これに限定されない。制御部303は、タッチセンシング部301からの操作信号を検出すると、ユーザのキャラクタへの操作指示として判断し、当該指示操作に応じたグラフィック(図示せず)を液晶表示部へ表示信号として送信する処理を行う。制御部303で実装される主要機能については、図7を参照して後述する。液晶表示部302は、表示信号に応じたグラフィックを表示する。
ゲーム画面例
図4のゲーム画面例を参照しながら、本発明の実施形態によるUIプログラムおよびコンピュータ実装方法による動作について概略的に説明する。図4の画面例では、3次元仮想ゲーム空間内20にキャラクタ10が配置されている。そして、仮想カメラ(非図示)がキャラクタ10の画面手前上部から該キャラクタ10を撮影した視野画像が2次元画像としてタッチパネルに表示されている。同時に、2つのUI画像(画面左上の30と画面右下の40)が視界画像に重畳されている。UI画像30,40は、ユーザによるタッチパネルへのタッチ操作(例えば指によるスライド操作)の結果として、タッチパネル上に表示されたものである。そして、当該UI画像30,40が、本発明の実施形態によるUIプログラムおよびコンピュータ実装方法で生成されるものである。
図4のゲーム画面例を参照しながら、本発明の実施形態によるUIプログラムおよびコンピュータ実装方法による動作について概略的に説明する。図4の画面例では、3次元仮想ゲーム空間内20にキャラクタ10が配置されている。そして、仮想カメラ(非図示)がキャラクタ10の画面手前上部から該キャラクタ10を撮影した視野画像が2次元画像としてタッチパネルに表示されている。同時に、2つのUI画像(画面左上の30と画面右下の40)が視界画像に重畳されている。UI画像30,40は、ユーザによるタッチパネルへのタッチ操作(例えば指によるスライド操作)の結果として、タッチパネル上に表示されたものである。そして、当該UI画像30,40が、本発明の実施形態によるUIプログラムおよびコンピュータ実装方法で生成されるものである。
スマートフォン・ゲームでは、通例、ユーザがスマートフォンを縦持ちして片手で操作することが多いが、勿論これに限らず、横持ちにより端末を両手で操作してもよい。両手で画面を操作する場合は、左手と右手によりそれぞれタッチ操作が許容される。図示したUI画像30,40も、左手と右手のタッチ操作によるものにそれぞれ対応するものである。
これらUI画像により、ゲーム進行命令が生成および実行される。例えば、左手によるUI画像30は「Move」と表示されているとおり、UI画像が示している(右上)方向にキャラクタ10をゲーム空間20内の平面上を移動させる命令を実行する。同様に、右手によるUI画像40は「Camera」と表示されているとおり、UI画像が示している右上方向に視野を変更するよう仮想カメラをゲーム空間20内で移動させる命令を実行する。
このように、本発明の実施形態によるUI画像表示のためのUIプログラムは、ユーザのタッチ操作に応じて、UI画像を生成および表示する。本UIプログラムが、特にゲーム・プログラムに適用される場合は、それに対応したキャラクタ操作機能をコンピュータに実行させる。以下では、簡単のためにユーザによる片手操作に応じたUI画像生成および表示処理について例示により説明する。
UI画像表示処理
これより、図5aから図8bを参照して、本発明の実施形態によるUI画像表示のためのUIプログラムおよびコンピュータ実装方法について説明する。まず、図5aおよび図5bを参照して、タッチパネルへのタッチ操作に連動してユーザ・インタフェース(UI)画像を出力する一連の動作の概要について説明する。図5aは、タッチ操作がタップ操作である場合について示す。一方、図5bは、タッチ操作がスライド操作である場合である場合について示す。
これより、図5aから図8bを参照して、本発明の実施形態によるUI画像表示のためのUIプログラムおよびコンピュータ実装方法について説明する。まず、図5aおよび図5bを参照して、タッチパネルへのタッチ操作に連動してユーザ・インタフェース(UI)画像を出力する一連の動作の概要について説明する。図5aは、タッチ操作がタップ操作である場合について示す。一方、図5bは、タッチ操作がスライド操作である場合である場合について示す。
図5aの例に示すように、まず(i)において、タッチパネル2に対し、ユーザは指によるタップ操作を任意の位置で行う。当該タップ操作に対し、(ii)においてタップ位置の周囲に正方形の領域D 1 (点線領域)が決定される。引き続き(iii)において領域D 1 上に円放射状の画像I 1 が生成および表示される。ここで、「円放射状」とは、円形状を有し、且つ、円の中心から外周に向けて放射状にグラデーションされた状態のことである。以下では、「円放射状の画像」や「円放射状にグラデーションされた」等のように用いる同様に、図5bの例では、(i)において、タッチパネル2に対し、ユーザは指によるスライド操作を任意のスライド開始点からスライド終了点まで行う。図5bの場合は、当該スライド操作に対し、(ii)において、スライド開始点およびスライド終了点の周囲に長方形の領域D 2 (点線領域)が決定される。なお、スライド操作の前後にわたり領域の幅は一定としているが、これに限定されない。
引き続き(iii)において、当該スライド操作に連動して、長方形領域D 2 上に画像I 2 を生成して重畳する。画像I 2 は、図5aの画像I 1 をスライド終了点に向けて引き伸ばすようにして変形させる。具体的には、図5bの(iii)のように表示される領域D 2 上の画像I 2 は、図5aの(iii)の画像I 1 をスライド操作方向に2つに分割して離間させ、そして、当該離間した間の部分を、更に、u値および/またはv値とスライド距離とに基づいて補間するように、グラデーションと共に生成される。
本発明の実施形態によれば、図5bの(ii)で領域D 2 が決定されると、図6(a)に示すように、当該領域D 2 に対して、UV座標と一般に称される座標系が適用される(なお、UV座標系はテクスチャ座標系と称されることもある。)。UV座標系は、u値は幅を、v値は高さを表す2次元の座標系である。そして、u値およびv値の各々の座標値が0から1となる範囲に小数点形式で表され、それぞれがテクスチャ座標の位置を構成する。例えば、UV座標系での位置は、座標値(0.5,0.5),(0.125,0.625)というように、上記所定の数のu値およびv値のセットで特定することができる。即ち、領域D 2 は、図6(a)のようにu値およびv値がそれぞれ0以上かつ1以下の範囲となる、(0,0),(1,0),(0,1),(1,1)の4点から構成される矩形領域となる。
領域D 2 上に生成される画像、即ち、テクスチャ座標から生成したテクスチャ画像I 2は、3角形状を有する2つのポリゴン、または4角形状を有する1つのポリゴンのみから形成可能なものである。つまり、テクスチャ画像I 2 は、最低4つの頂点情報のみをメモリに格納して表示可能なものであるため、従来技術のように、多数のポリゴンから構成するものとは処理負荷の点で大きく異なる。本発明は、視覚的に優れたグラデーションを有するテクチャ画像を、最小限の計算量で生成可能とする。これと共に、処理時のメモリサイズを節約でき、画像品質を劣化させることなくCPU計算量を軽減させることができるものである。なお、以降において、上記テクスチャ座標から動的に生成されるテクスチャ画像のことを「プロシージャル画像」と称することにする。一般的に、「プロシージャル」(procedural)とは動的に生成することを意味する語である。
図6(b)に示すように、矩形領域D 2 に対し、生成したプロシージャル画像I 2 を関連付ける。つまり、グラデーション表現されたプロシージャル画像I 2 を矩形領域D 2 上に被せるようにマップする。なお、プロシージャル画像I 2 の生成、特にグラデーション表現については図9以降を参照して後述する。また、図6(b)およびこれ以降の図面では、グラデーション表現されたプロシージャル画像を図示する際、背景色を灰色にして示してある。これは、白色を明示的に可視化するために敢えて本願図面において対処したものである。
図7は、本発明の実施形態によるUIプログラムとして実装され、タッチパネルを具備する携帯端末に機能させる主要な機能のセットについて示したものである。当該機能セットは、図3に示した制御部303に相当する制御部50を構成する。つまり、制御部50(303)を通じて、操作信号としての入力を処理し、表示信号としての出力を生成することになる。制御部50は、タッチパネルを通じたユーザ入力操作およびプロシージャル画像形成に関連するユーザ操作部100、タッチ操作に連動して図5に示したようなUI画像を生成および表示するためのUI形成部200、並びに当該ユーザ入力操作に応じたゲーム進行や仮想空間内のキャラクタを操作させるゲーム進行部(キャラクタ操作)500を含む。
ユーザ操作部100は、接触・非接触判定部120およびスライド操作判定部140を含む。接触・非接触判定部120では、タッチパネルへのタッチ操作やデタッチ操作を判定する。また、スライド操作判定部140では、接触を通じたタッチ操作・デタッチ操作によるユーザ操作がスライド操作であるか(または単なるタップ操作であるか)を判定する。
ユーザ操作部100で判定されるタッチ操作またはスライド操作に応答して、UI形成部200は第1形成部および第2形成部として機能する。第1形成部では、図5aの(iii)を参照して説明したように、接触点の周囲に円放射状のグラデーションを有するプロシージャル画像を生成および表示する。また、第2形成部では、図5bの(iii)を参照して説明したように、円放射状のグラデーションを有するプロシージャル画像に対し、スライド終了点に向けて変形させたような更なるグラデーションを有するプロシージャル画像を生成および表示する。UI形成部200は、次に説明するように、領域決定部210、UV座標規定部230、特徴量決定部250、UI画像生成部270、およびUI画像出力部290を含む。
領域決定部210では、図5で説明したタッチ操作に対応した領域を規定する。UV座標規定部230では、図6で説明したUV座標系を、u値およびv値が0から1までの範囲の所定の値となるように、領域に対応付けて規定する。特徴量決定部250では、UV座標系における上記領域の範囲に対し、各座標値に基づく特徴化ルールを適用して、各座標の特徴量を決定する。UI画像生成部270では、上記領域に関連付けられると共に、各特徴量を適用した画像をUI画像として生成する。そして、UI画像表示部290では、生成したUI画像をタッチパネル上の上記領域部分に表示する。なお、UI画像生成については、図9以降を参照して後述する。
UI形成部200で生成されたUI画像は、例えば図4に示したようなゲームでは、仮想ゲーム空間画像に重畳されると共に、ゲーム進行部500において、対応するゲーム進行命令を生成および実行してゲームを進行させる。
図8aおよび図8bは、本発明の実施形態によるUI画像表示のためのコンピュータ実装方法について説明したフロー図である。そして、図8aのフロー図に示したステップS107の詳細が図8bのフロー図に相当する。
図8aでは、ステップS101で処理が開始されると、ステップS103では、接触・非接触判定部120によって、タッチパネルへのタッチ操作を判定する。また、ステップS105では、ステップS103に応じて、スライド操作判定部140によって、タッチ操作がタップ操作かスライド操作であるかについて更に判定する。ここで、タップ操作は、タッチパネルへの1つの接触点のみで構成されるタッチ操作を意味する。一方、スライド操作は、タッチパネルへの2つの接触点(即ち接触開始点および接触終了点)を含んでなされる連続的なタッチ操作を意味する。
ステップS105でタッチ操作判定がなされると、続いてステップS107において、UI形成部200によってプロシージャル画像を生成および表示する。タッチ操作がタップ操作の場合は、ステップS1071において、図5aにも示した、接触点を中心とした正方形領域に形成される円放射状のグラデーションを有する上記画像I 1 を生成してUI画像として表示する。一方、タッチ操作がスライド操作の場合は、ステップS1073において、図5bにも示した、接触開始点および終了点の周囲の長方形領域内に、円放射状のグラデーションを有する画像I 1 をスライド操作方向に変形した画像I 2 を生成して表示する。具体的には、画像I 1 を分割して離間し、離間した間の部分を補間するようにグラデーションされた画像I 2 を生成してUI画像として表示する。
ステップS108では、ゲーム進行部500によって、ステップS107で生成したUI画像に対し、対応するゲーム進行命令を生成および実行して、図4に示したゲーム進行制御を実施する。ゲーム進行命令は、ここでは、キャラクタに対し移動等の動作を行わせるキャラクタ操作命令や、ゲーム空間を撮影する仮想カメラの動作を制御させる仮想カメラ操作命令を含むのがよい。
次に図8bを参照して、上記ステップS107について詳細に説明する。図示のように、ステップS107はステップS201からS205を含む。なお、図8aに示したように、ステップS107は、タッチ操作に応じてステップS1071およびS10173の2種類が想定されるが、これらは、後述のステップS203において適用される際の違いによるものである。
ステップS201では、領域決定部210によって、タッチパネル上でのユーザのタッチ操作に対応する領域を決定する。例えば、図5aの領域D 1 および図5bの領域D 2 がこれに該当する。ステップS202では、UV座標規定部230によって、上記領域に対し、UV座標系におけるu値およびv値を0から1まで範囲で対応付けて規定する。ステップS203では、特徴量決定部250によって、0から1まで範囲内に対し、各座標値に基づく特徴化ルールを適用して、各座標の特徴量を決定する。ステップS1071とステップS1072は、当該ステップS203で与える特徴化ルールの点が大きく異なる。
次いで、ステップS204では、UI画像生成部270によって、ステップS203で決定した特徴量を適用した画像を、上記領域に関連付けて生成する。ここでは、UV座標系における各位置を、UI画像が有する各画素に関連付け、更に、各位置の特徴量を、各画素が有する値(図9で後述する輝度値や不透明度値)として適用する。最後にステップS205では、UI画像表示部によって、UI画像をタッチパネル上の対応の領域に表示する。
特徴量の適用
ステップS203で決定される特徴量を、ステップS205で画像に適用することに関連して、図9にその概念を例示した概略イメージ図を示す。本発明の実施形態によれば、UV座標系における各位置を、プロシージャル画像が有する各画素に関連付け、各画素に対して各特徴量を適用する。uv座標系(図6(a))においてu値およびv値がそれぞれ0から1までの範囲に対応するように、図9でも特徴量も0から1までの範囲で表される。しかしながら、特徴量が当該範囲に限定されないことが当業者に理解されるべきである。
ステップS203で決定される特徴量を、ステップS205で画像に適用することに関連して、図9にその概念を例示した概略イメージ図を示す。本発明の実施形態によれば、UV座標系における各位置を、プロシージャル画像が有する各画素に関連付け、各画素に対して各特徴量を適用する。uv座標系(図6(a))においてu値およびv値がそれぞれ0から1までの範囲に対応するように、図9でも特徴量も0から1までの範囲で表される。しかしながら、特徴量が当該範囲に限定されないことが当業者に理解されるべきである。
図9では、特徴量が0から1まで変化する場合に、対応する1つの画素がどのような表示となるかについての一連の遷移の様子が示される。なお、図中、各画素には黒枠を付してあるが、これは図示上の明瞭化のためであり、実際の画素には反映されない点に留意すべきである。図9では、特徴量を0.0→0.25→0.5→0.75→1.0と0.25刻みで変化させる。その際、(1)特徴量に「輝度値」を採用した場合、および(2)特徴量に「白地ベースの不透明度値」を採用した場合に、どのような表示パターンとして遷移するかについて示している。
上記(1)は、特徴量を「輝度値」として、輝度値0を「黒色」、輝度値1を「白色」とモノクロ化して対応付けた場合である。輝度値が0から1に近づくにつれ、黒色から白色に徐々に遷移する様子が理解される。なお、この例では特徴量に「輝度値」を採用しているが、これには限定されず、他にも「明度」のような色情報を採用した場合も類似の結果が得られることが当業者には理解される。また、色情報について、この例のようにモノクロ化することには限定されず、一般に用いられる0から255の整数値で表現されるRGB(Red:赤、Green:緑、Blue:青)値に基づいて決定される0から1までの小数範囲の如何なる複数の組み合わせともすることができることが当業者には理解される。
他方、上記(2)は、特徴量を「白地ベースの不透明度」として、不透明度値0を「完全透明」(透明率:100%)と対応付け、また、不透明度値1を「完全不透明」(透明率:0%)と対応付けた場合である。ここで、不透明度値は、上記(1)のRGBで表現される色情報とは概念が異なり、当該技術分野では「アルファ値」と一般に称される透過度を示す指標に相当する。そして、0から255の整数の範囲で通常表現されるアルファ値を、0から1までの小数の範囲で表したのが、ここでの「不透明度値」ということになる。図示のように、不透明度値が0の場合は完全透明状態であり、背景のグレー色に同化している。そして、不透明度値が1に近づくにつれ、基準としたベース色である白色に遷移する様子が理解される。なお、この例では、基準ベース色を「白色」(即ち「R:255,G:255,B:255」の値)に設定したが、これに限定されず、RGB値で表現される如何なる値に設定することができる。即ち、プロシージャル画像も任意の基準ベース色のグラデーションを有する画像として形成することができる。基準ベース色を変えることにより、例えば図4に示したゲーム画面例での2つのUI画像30,40にように、異なる色彩のグラデーションを有する画像を生成することができる。
図9では、特徴量に基づく1つの画素の表示態様について説明した。次の図10aでは、UV座標系において複数の画素から構成され、グラデーションを有する画像について説明する。図10aは、グラデーションを有する画像を示し、そして、図10bは当該画像を生成するための処理フローについて示す。なお、ここでは、特徴量として図9の(1)「輝度値」を採用した場合について想定する。
図10aのようなグラデーションを有する画像例は、UV座標系の4点(0,0),(1,0),(0,1),(1,1)から形成される矩形領域を8個の小領域L (i,j)(即ち、L (1,1) からL (4,2) )に分割し、各小領域に対して次に説明する特徴化ルールを適用して全体としてグラデーションを有する画像を生成する。当該画像は、U軸方向およびV軸方向共に、隣接する各小領域について輝度値が「0.25」間隔となるようにセットされている。例えば、小領域L (1,1) は、UV座標系の4点(0,0),(0.25,0),(0,0.5),(0.25,0.5)から形成される矩形領域であり、当該領域にわたる輝度値が「0.25」となるように各画素がセットされる。同様に、小領域L (4,2) は、UV座標系の4点(0.75,0.5),(1,0.5),(0.75,1),(1,1)から形成される矩形領域であり、当該領域にわたる輝度値が「0.75」となるように各画素がセットされる。
図10aのようなグラデーションを有する画像は、図10bの処理フローに示すような輝度値計算、即ち各(u,v)座標値に基づく特徴化ルールを用いて実装される。具体的には、まずステップS301およびS302において、u値およびv値とi値およびj値との対応付けをそれぞれ行う。ステップS301では、u値×4を計算し、更にその値の小数点以下を切り上げることで整数値iをセットする。当該計算により、u値が0から0.25の範囲ではi=1、u値が0.25から0.5の範囲ではi=2、u値が0.5から0.75の範囲ではi=3、u値が0.75から1の範囲ではi=4とセットされ、図10aのu値とi値の対応付けができていることが理解される。同様に、ステップS302では、v値×2を計算し、更にその値の小数点以下を切り上げることで整数値jをセットする。当該計算により、v値が0から0.5の範囲ではj=1、u値が0.5から1の範囲ではj=2とセットされ、図10aのv値とj値の対応付けができていることが理解される。
次のL(i,j)の輝度値の計算では、jの値が「1」か「2」かによって計算式が分かれる。即ち、j=1の場合(ステップS303)は、ステップS304で数式「L(i,1)の輝度値=0.25×整数i」によって輝度値を計算する。一方、j=2の場合(ステップS305)は、ステップS306で数式「L(i,2)の輝度値=0.25×(整数i-1)」によって輝度値を計算する。
このようにL(i,j)の輝度値を計算することにより、図10aに示した8つの小領域に対してセットする輝度値が決定され、UV座標系の矩形領域全体としてグラデーションを有する画像を生成することができる。生成される画像について、3角形状を有する2つのポリゴン、または4角形状を有する1つのポリゴンのみから形成されるものである。この点、本処理は、多数のポリゴンの頂点計算、並びに各頂点のメモリ格納・メモリアクセスを要することがなく、処理負荷が非常に軽いものとすることができる。なお、上記図10aおよび図10bの例は、特徴量として輝度値を採用して画像生成したが、代替として、図9を参照して説明したように、特徴量に不透明度(アルファ値)を採用してRGB値と共に画像生成してもよく、更には輝度値および不透明度の組み合わせでもよいことが当業者には理解される。
上記のようにUV座標値に基づいて生成されるプロシージャル画像について、そのグラデーション態様は数多くのパターンを想定することができる。そこで、以下に幾らかの好適な実施例と共に、様々なグラデーション態様について更に説明する。なお、以下の実施例では、ユーザによるタッチ操作が、距離dだけスライドさせるスライド操作であることを想定する。つまり、領域決定部210では、スライド方向およびスライド距離dに基づいて矩形領域を決定する。また、決定される矩形領域の幅は一定(2×r)であることを想定する。また、Lum(u,v)は、UV座標系における座標値(u,v)に対応する輝度値を示すものとする。
第1実施例
図11aから図11cに示す一連の画像を形成する第1実施例では、UV座標値に基づく8つの特徴化ルール(1-1)から(1-8)を組み合わせて、各特徴化ルールに基づくUV座標の特徴量を計算しながらグラデーションを決定する。
図11aから図11cに示す一連の画像を形成する第1実施例では、UV座標値に基づく8つの特徴化ルール(1-1)から(1-8)を組み合わせて、各特徴化ルールに基づくUV座標の特徴量を計算しながらグラデーションを決定する。
1)図11aに示した特徴化ルール(1-1)では、特徴量として輝度値を採用する。そして、U軸方向に輝度値を0から1まで連続的に分布させる。即ち、輝度値Lum(u,v)は、UV座標系での0≦u値≦1、且つ0≦v値≦1の範囲(以下、0≦uv値≦1と略す。)に対し、次の数式
Lum(u,v)=u
として定義されるパラメータuの関数式で計算される。計算された輝度値をプロシージャル画像として適用することにより、図示したようにU軸方向に沿ってグラデーションを有するプロシージャル画像を生成することができる。
Lum(u,v)=u
として定義されるパラメータuの関数式で計算される。計算された輝度値をプロシージャル画像として適用することにより、図示したようにU軸方向に沿ってグラデーションを有するプロシージャル画像を生成することができる。
2)図11aに示した特徴化ルール(1-2)でも、特徴量として輝度値を採用する。そして、V軸方向に輝度値を0から1まで連続的に分布させる。即ち、輝度値Lum(u,v)は、UV座標系での0≦uv値≦1の範囲に対し、次の数式
Lum(u,v)=1-v
として定義されるパラメータvの関数式で計算される。計算された輝度値をプロシージャル画像として適用することにより、図示したようにV軸方向に沿ってグラデーションを有するプロシージャル画像を生成することができる。
Lum(u,v)=1-v
として定義されるパラメータvの関数式で計算される。計算された輝度値をプロシージャル画像として適用することにより、図示したようにV軸方向に沿ってグラデーションを有するプロシージャル画像を生成することができる。
3)図11aに示した特徴化ルール(1-3)でも、特徴量として輝度値を採用する。そして、U軸方向に、輝度値0から1、且つ1から0まで、u値=0.5を境界にして連続的に分布させる。即ち、輝度値Lum(u,v)は、UV座標系での0≦uv値≦1の範囲に対し、次の数式
Lum(u,v)=abs{(u-0.5)×2}
として定義されるパラメータuの関数式で計算される。なお、abs関数は、入力値に対してその絶対値を返す関数として知られる。計算された輝度値をプロシージャル画像として適用することにより、図示したようにU軸方向に沿ってグラデーションを有するプロシージャル画像を生成することができる。
Lum(u,v)=abs{(u-0.5)×2}
として定義されるパラメータuの関数式で計算される。なお、abs関数は、入力値に対してその絶対値を返す関数として知られる。計算された輝度値をプロシージャル画像として適用することにより、図示したようにU軸方向に沿ってグラデーションを有するプロシージャル画像を生成することができる。
4)図11bに示した特徴化ルール(1-4)でも、特徴量として輝度値を採用する。そして、U軸方向に、輝度値0から1、且つ1から0まで、u値=0.5を境界にして連続的に分布させる。即ち、輝度値Lum(u,v)は、UV座標系での0≦uv値≦1の範囲に対し、次の数式
Lum(u,v)={(u-0.5)×2}^2
として定義されるパラメータuの関数式で計算される。特徴化ルール(1-3)とは、絶対値とするか、2乗するかの点で異なる。計算された輝度値をプロシージャル画像として適用することにより、図示したようなU軸方向に沿ってグラデーションを有するプロシージャル画像を生成することができる。
Lum(u,v)={(u-0.5)×2}^2
として定義されるパラメータuの関数式で計算される。特徴化ルール(1-3)とは、絶対値とするか、2乗するかの点で異なる。計算された輝度値をプロシージャル画像として適用することにより、図示したようなU軸方向に沿ってグラデーションを有するプロシージャル画像を生成することができる。
5)図11bに示した特徴化ルール(1-5)でも、特徴量として輝度値を採用する。そして、V軸方向に、輝度値を0から1まで、且つ1から0までv値=0.5を境界に連続的に分布させる。即ち、輝度値Lum(u,v)は、UV座標系での0≦uv値≦1の範囲に対し、次の数式
Lum(u,v)={(v-0.5)×2}^2
として定義されるパラメータvの関数式で計算される。計算された輝度値をプロシージャル画像として適用することにより、図示したようなV軸方向に沿ってグラデーションを有するプロシージャル画像を生成することができる。
Lum(u,v)={(v-0.5)×2}^2
として定義されるパラメータvの関数式で計算される。計算された輝度値をプロシージャル画像として適用することにより、図示したようなV軸方向に沿ってグラデーションを有するプロシージャル画像を生成することができる。
6)図11bに示した特徴化ルール(1-6)でも、特徴量として輝度値を採用する。そして、U軸およびV軸の両方向に、輝度値を0から1まで、且つ1から0までu値=0.5、v値=0.5を境界に各々連続的に分布させる。即ち、輝度値Lum(u,v)は、UV座標系での0≦uv値≦1の範囲に対し、次の数式
Lum(u,v)={(u-0.5)×2}^2+{(v-0.5)×2}^2
として定義されるパラメータuおよびvの2次関数式で計算される。計算された輝度値をプロシージャル画像として適用することにより、図示したようなU軸およびV軸方向に沿って楕円放射状のグラデーションを有するプロシージャル画像を生成することができる。UV座標によって表現される矩形が正方形の場合は、円放射状のプロシージャル画像が生成される。
Lum(u,v)={(u-0.5)×2}^2+{(v-0.5)×2}^2
として定義されるパラメータuおよびvの2次関数式で計算される。計算された輝度値をプロシージャル画像として適用することにより、図示したようなU軸およびV軸方向に沿って楕円放射状のグラデーションを有するプロシージャル画像を生成することができる。UV座標によって表現される矩形が正方形の場合は、円放射状のプロシージャル画像が生成される。
なお、図9に関連し、特徴量は0から1の範囲内にあるものと説明したが、これに限定されない。即ち、輝度値(特徴量)を計算した結果、値が0未満となる場合は「0」の特徴(即ち黒色)を有するとしてもよいし、1より大きくなる場合は「1」の特徴(即ち白色)を有するとしてもよい。上記2次関数式の計算においても輝度値が1より大きくなる領域部分が矩形の4頂点周辺に存在する。本実施例1では、当該領域部分は、図示のように全て白色となるように処理している。
7)図11cに示した特徴化ルール(1-7)でも、特徴量として輝度値を採用する。ここでは、ルール(1-6)で生成した楕円放射状のグラデーションの外側白色部分、即ち輝度値が1より大きい領域部分に対して、次のルール(1-8)で不透明化処理するための事前準備として、反転処理を行って輝度値を0より小さくする。反転処理された輝度値をプロシージャル画像として適用することにより、図示したようなU軸およびV軸方向に沿って楕円放射状のグラデーションを有し、かつ外側が黒色を有するプロシージャル画像を生成することができる。
8)図11cに示した特徴化ルール(1-8)では、これまでの特徴化ルール(1-1)から(1-7)とは異なり、特徴量として不透明度値(アルファ値)を採用する。つまり、特徴化ルール(1-7)の結果生じた、輝度値としての特徴量の分布に対し、引き続き、特徴化ルール(1-8)では当該特徴量を不透明度値として採用する。この場合、図9において(1)特徴量に輝度値を採用する場合、および(2)特徴量に不透明度値を採用する場合の2つについて違いを図示したように、特徴量の値に応じて、特徴化ルール(1-7)で生成されたプロシージャル画像のグラデーションを図示のように変化させることができる。つまり、特徴化ルール(1-7)に対し、図示したようなU軸およびV軸方向に楕円放射状の不透明化処理されたグラデーションを有するプロシージャル画像を新たに生成することができる。なお、本明細書では、図9の(2)のように特徴量に不透明度値を採用して処理することを不透明化処理と称している。
第2実施例
図12に示す第2実施例では、UV座標値に基づく3つの特徴化ルール(2-1)から(2-3)を組み合わせて、各特徴化ルールに基づくUV座標の特徴量を計算しながらグラデーションを決定する。ここでは、スライド操作に対応する矩形領域の幅を2rと、スライド操作距離をdと標記する。即ち、タッチパネル上でのスライド操作に対応する矩形領域(例えば、図5bの領域D 2 )の大きさは、「横(d+2r)×縦2r」ということになる。
図12に示す第2実施例では、UV座標値に基づく3つの特徴化ルール(2-1)から(2-3)を組み合わせて、各特徴化ルールに基づくUV座標の特徴量を計算しながらグラデーションを決定する。ここでは、スライド操作に対応する矩形領域の幅を2rと、スライド操作距離をdと標記する。即ち、タッチパネル上でのスライド操作に対応する矩形領域(例えば、図5bの領域D 2 )の大きさは、「横(d+2r)×縦2r」ということになる。
第2実施例では、UV座標系の矩形領域をU軸方向に3つの領域部分に分割する。第1部分は、u値が「0」から「r/(2r+d)」となる部分、第2部分は、u値が「r/(2r+d)」から「(r+d)/(2r+d)」となる部分、そして第3部分は、u値が「(r+d)/(2r+d)」から「1」となる部分である。
1)図12に示した特徴化ルール(2-1)では、特徴量として輝度値を採用する。そして、U軸方向に沿って輝度値Lum(u,v)を0から1まで離散的に分布させる。輝度値Lum(u,v)の分布態様は次のとおりである。
・第1部分では、Lum(u,v)=0(定数)。即ち黒色。
・第2部分では、Lum(u,v)=0.5(定数)。即ちグレー色。
・第3部分では、Lum(u,v)=1(定数)。即ち白色。
上記に基づく輝度値Lum(u,v)をプロシージャル画像として適用することにより、図示したようなプロシージャル画像を生成することができる。
・第1部分では、Lum(u,v)=0(定数)。即ち黒色。
・第2部分では、Lum(u,v)=0.5(定数)。即ちグレー色。
・第3部分では、Lum(u,v)=1(定数)。即ち白色。
上記に基づく輝度値Lum(u,v)をプロシージャル画像として適用することにより、図示したようなプロシージャル画像を生成することができる。
2)図12に示した特徴化ルール(2-2)でも、同様に特徴量として輝度値を採用する。そして、U軸方向に沿って輝度値を0から1まで離散的に分布させる。輝度値Lum(u,v)の分布態様は次のとおりである。
・第1部分では、Lum(u,v)=1(定数)。即ち白色。
・第2部分では、Lum(u,v)=0(定数)。即ち黒色。
・第3部分では、Lum(u,v)=1(定数)。即ち白色。
上記に基づく輝度値L(u,v)をプロシージャル画像として適用することにより、図示したようなプロシージャル画像を生成することができる。
・第1部分では、Lum(u,v)=1(定数)。即ち白色。
・第2部分では、Lum(u,v)=0(定数)。即ち黒色。
・第3部分では、Lum(u,v)=1(定数)。即ち白色。
上記に基づく輝度値L(u,v)をプロシージャル画像として適用することにより、図示したようなプロシージャル画像を生成することができる。
3)図12に示した特徴化ルール(2-3)でも、特徴量として輝度値を採用する。そして、U軸方向に沿って、輝度値を0から1まで連続的に分布させる。具体的には、輝度値Lum(u,v)の分布態様は次のとおりである。
・第1部分では、Lum(0,v)=0、且つ、Lum(r/(2r+d),v)=0.5とし、その間(0<u<r/(2r+d))では、Lum(u,v)を0(黒色)から0.5(グレー色)に向けて線形補間する。(以下、線形補間関数f(u)で表す。)
・第2部分では、Lum(u,v)=0.5(定数)。即ち、グレー色。
・第3部分では、Lum((r+d)/(2r+d),v)=0.5、且つ、Lum(1,v)=1とし、その間((r+d)/(2r+d)<u<1)では、Lum(u,v)を0.5(グレー色)から1(白色)に向けて線形補間する(以下、線形補間関数g(u)で表す。)
上記に基づく輝度値L(u,v)をプロシージャル画像として適用することにより、図示したようなグラデーションを有するプロシージャル画像を生成することができる。
・第1部分では、Lum(0,v)=0、且つ、Lum(r/(2r+d),v)=0.5とし、その間(0<u<r/(2r+d))では、Lum(u,v)を0(黒色)から0.5(グレー色)に向けて線形補間する。(以下、線形補間関数f(u)で表す。)
・第2部分では、Lum(u,v)=0.5(定数)。即ち、グレー色。
・第3部分では、Lum((r+d)/(2r+d),v)=0.5、且つ、Lum(1,v)=1とし、その間((r+d)/(2r+d)<u<1)では、Lum(u,v)を0.5(グレー色)から1(白色)に向けて線形補間する(以下、線形補間関数g(u)で表す。)
上記に基づく輝度値L(u,v)をプロシージャル画像として適用することにより、図示したようなグラデーションを有するプロシージャル画像を生成することができる。
第3実施例
図13に示す第3実施例では、第1実施形態および第2実施形態で生成される各特徴化ルールを組み合わせることで、より柔軟なグラデーションを決定する。より具体的には、第2実施形態における図12の特徴化ルール(2-3)を適用した結果として得られる特徴量(即ち、輝度値)の値に対して、第1実施形態における特徴化ルールを適用する。具体的には、第1実施形態における図11bの特徴化ルール(1-6)から図11cの特徴化ルール(1-8)まで順次適用する。これにより、各特徴化ルール(2-3)および(1-6)から(1-8)に基づくUV座標の特徴量を計算して、対応するプロシージャル画像を生成することができる。
図13に示す第3実施例では、第1実施形態および第2実施形態で生成される各特徴化ルールを組み合わせることで、より柔軟なグラデーションを決定する。より具体的には、第2実施形態における図12の特徴化ルール(2-3)を適用した結果として得られる特徴量(即ち、輝度値)の値に対して、第1実施形態における特徴化ルールを適用する。具体的には、第1実施形態における図11bの特徴化ルール(1-6)から図11cの特徴化ルール(1-8)まで順次適用する。これにより、各特徴化ルール(2-3)および(1-6)から(1-8)に基づくUV座標の特徴量を計算して、対応するプロシージャル画像を生成することができる。
1)まず、第2実施形態における図12の特徴化ルール(2-3)で計算される輝度値(特徴量)Lum(u,v)を用いて、新たにu’値およびv’値を次のように設定する。
・第1部分では、u’=f(u),v’=v
・第2部分では、u’=0.5(定数),v’=v
・第3部分では、u’=g(u),v’=v
そして、上記の(u’,v’)を、以下のとおり特徴化ルール(1-6)から(1-8)に順次適用する。
・第1部分では、u’=f(u),v’=v
・第2部分では、u’=0.5(定数),v’=v
・第3部分では、u’=g(u),v’=v
そして、上記の(u’,v’)を、以下のとおり特徴化ルール(1-6)から(1-8)に順次適用する。
2)図13に示した特徴化ルール(3-1)では、特徴量として輝度値を採用する。そして、U軸およびV軸の両方向に沿って、輝度値0から1まで、且つ1から0までu’値=0.5、v’値=0.5を境界に連続的に分布させる。即ち、輝度値Lum(u,v)は、UV座標系での0≦uv値≦1の範囲に対し、次の数式
Lum(u,v)={(u’-0.5)×2}^2+{(v’-0.5)×2}^2
として定義されるパラメータu’およびv’の2次関数式で計算される。計算された輝度値Lum(u’,v’)をプロシージャル画像として適用することにより、図示したようなU軸およびV軸方向に沿ってグラデーションを有するプロシージャル画像を生成することができる。
Lum(u,v)={(u’-0.5)×2}^2+{(v’-0.5)×2}^2
として定義されるパラメータu’およびv’の2次関数式で計算される。計算された輝度値Lum(u’,v’)をプロシージャル画像として適用することにより、図示したようなU軸およびV軸方向に沿ってグラデーションを有するプロシージャル画像を生成することができる。
3)図13に示した特徴化ルール(3-2)でも、特徴量として輝度値を採用する。ここでは、ルール(3-1)で生成したグラデーションの外側白色部分、即ち輝度値Lum(u,v)が1より大きい領域部分に対して、反転処理を行って輝度値を0より小さくする。これにより、図示したようなU軸およびV軸方向にグラデーションを有し、かつ外側が黒色を有するプロシージャル画像を生成することができる。
4)最後に、図13に示した特徴化ルール(3-3)では、特徴量として不透明度値(アルファ値)を採用する。つまり、特徴化ルール(3-2)の結果として生じた、輝度値Lum(u,v)としての特徴量の値の分布に対し、特徴化ルール(3-3)では当該特徴量の値を不透明度値として採用して、不透明化処理を実施する。図11cでの特徴化ルール(1-8)の適用と同様に、図示のように特徴化ルール(3-3)で生成されたプロシージャル画像のグラデーションが変化することになる。これにより、上記特徴化ルール(3-2)に対して図示したようなU軸およびV軸方向に楕円放射状に対して、不透明化処理されたグラデーションを有するプロシージャル画像を新たに生成することができる。
最終的には、図14の特徴化ルール(3-3)に示したプロシージャル画像、即ち、円放射状のグラデーションを有する画像を分割して離間し、該離間した間の部分を補間するように更にグラデーションされた画像が生成される。
第4実施例(第3実施例の更なる変形例)
図14に示す第4実施例は、上記の図13の第3実施例の特徴化ルール(3-3)に示したグラデーションを有するプロシージャル画像の更なる変形例である。図14の(a)から(g)に示した各変形例は、特徴化ルール(3-3)のプロシージャル画像を生成するに際し、これまで適用してきた特徴化ルールの一部を変更するか、または、更に何らかの特徴化ルールを付加的に適用することで実現可能である。
図14に示す第4実施例は、上記の図13の第3実施例の特徴化ルール(3-3)に示したグラデーションを有するプロシージャル画像の更なる変形例である。図14の(a)から(g)に示した各変形例は、特徴化ルール(3-3)のプロシージャル画像を生成するに際し、これまで適用してきた特徴化ルールの一部を変更するか、または、更に何らかの特徴化ルールを付加的に適用することで実現可能である。
1)図14(a)の変形例では、特徴量として不透明度値を採用した不透明化処理を実施する。具体的には、図13の第3実施例の特徴化ルール(3-3)に対し、更に、輪郭部分を所定の太さ部分の不透明度値が「1.0」となるように(0から1までの)不透明度値の小数点以下を切り上げると共に、それ以外の不透明度値が「0.0」となるように小数点以下を切り捨てるという特徴化ルールを適用すればよい。
2)図14(b)の変形例でも、特徴量として不透明度値を採用した不透明化処理を実施する。具体的には、図13の第3実施例の特徴化ルール(3-3)に加えて、更に不透明度値Tra(u,v)に関する次の式
Tra(u,v)=u
を適用すればよい。
Tra(u,v)=u
を適用すればよい。
3)図14(c)の変形例では、図13の第3実施例の特徴化ルール(3-1)の適用
に替えた代替ルールを適用する。即ち、Lum(u,v)について、パラメータuに関する新規の関数p(u)を導入して、
Lum(u,v)={(u’-p(u))×2}^2+{(v’-p(u))×2}^2
として輝度値Lum(u,v)を計算すればよい。ここで、p(u)について、例えば、
・上記第1部分では、p(u)=0.25
・上記第3部分では、p(u)=0.1
を適用して、引き続き特徴化ルール(3-2)および(3-3)を更に適用すればよい。
に替えた代替ルールを適用する。即ち、Lum(u,v)について、パラメータuに関する新規の関数p(u)を導入して、
Lum(u,v)={(u’-p(u))×2}^2+{(v’-p(u))×2}^2
として輝度値Lum(u,v)を計算すればよい。ここで、p(u)について、例えば、
・上記第1部分では、p(u)=0.25
・上記第3部分では、p(u)=0.1
を適用して、引き続き特徴化ルール(3-2)および(3-3)を更に適用すればよい。
4)図14(d)の変形例では、図13の第3実施例の特徴化ルール(3-1)の適用に替えた代替ルールを適用する。即ち、Lum(u,v)について、次の式
Lum(u,v)=abs{(u’-0.5)×2}+abs{(v’-0.5)×2}
を適用して、引き続き特徴化ルール(3-2)および(3-3)を更に適用すればよい。
Lum(u,v)=abs{(u’-0.5)×2}+abs{(v’-0.5)×2}
を適用して、引き続き特徴化ルール(3-2)および(3-3)を更に適用すればよい。
5)図14(e)の変形例では、図14(d)の変形例に対し、更に、特徴量として不透明度値を採用した不透明化処理を実施する。具体的には、不透明度値が「1.0」となるように小数点以下を切り上げる特徴化ルールを適用すればよい。
6)図14(f)の変形例では、図14(d)の変形例に対し、更に、特徴量として不透明度値を採用した不透明化処理を実施する。具体的には、輪郭部分を所定の太さだけ不透明度値が「1.0」となるように不透明度値の小数点以下を切り上げると共に、それ以外の不透明度値が「0.0」となるように小数点以下を切り捨てるという特徴化ルールを適用すればよい。
7)図14(g)の変形例でも、特徴量として不透明度値を採用した不透明化処理を実施する。具体的には、図14(f)に対し、画像中央部にも、不透明度値が「1.0」となる所定の太さを有する菱形の領域を設け、更に、横方向の輪郭部分の不透明度値が「0.0」となるように反転させる特徴化ルールを適用すればよい。
これまで説明してきた様々なグラデーション態様で形成されるプロシージャル画像は、UI画像としてタッチパネルに表示することができる。当該プロシージャル画像は、その都度特徴量が計算され、例えば、拡大表示してもぼやけることがないという有利な点を有するものとなる。この点につき、以下に図15を参照して更に説明する。
図15は、UI画像の拡大表示に関し、本発明の実施形態による画像表示のためのUIプログラムで生成したUI画像(図15(a))を他の手法による例と比較した図である。他の手法による例として、ここでは、多数のポリゴンによって構成されるメッシュで実現したUI画像(図15(b))を想定する。図15(a),(b)共に、画像の右半分が全体のUI画像を示し、左半分がUI画像の曲線部分の拡大画像をそれぞれ示す。
図15(a)のように、本発明の実施形態による画像表示のためのUIプログラムでは、拡大処理を実施すると、これに連動して逐一UV座標系を適用しながらプロシージャル画像を生成および表示することになる。この点、本発明の実施形態によるUIプログラムでは、拡大処理に応じて画質に影響を及ぼすような事態は発生しない。これに対し、図15(b)の例のようにメッシュで実現したUI画像に対して拡大処理を実施する場合は、倍率に応じて各ポリゴンを引き伸ばす処理を行うことになる。この結果、図示するように画像に粗が生じることになる。
図15(b)の例は、UIプログラムをスマートフォン上のゲーム・アプリケーションに適用し、UI画像をスライド操作に関連付ける場合は、画像の粗さが特に顕著となり好適とは言えない。何故ならば、ユーザのスマートフォン操作では、タッチパネルとユーザの目の間の距離は短く、スライド操作が頻繁に行われる状況ではどうしても粗さが目立つからである。スマートフォン・ゲームの場合は特に、これによってゲーム全体の品質を損ねることになりかねない。このように、拡大処理を実施しても画質に影響を及ぼさないという点で、本発明の実施形態によるUIプログラムは有利なものとなる。
以上、本発明の実施形態による、画像表示のためのUIプログラムおよびコンピュータ実装方法について、幾らかの例示と共に説明した。上述した実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。
Claims (14)
- タッチパネル上でのユーザのタッチ操作に対応する領域を決定する領域決定部と、
前記領域に対し、所定の座標系の所定の範囲を対応付けて規定する座標規定部と、
前記所定の範囲に対し、各座標値に基づいて各座標の特徴量を決定する特徴量決定部と、
前記領域に関連付けられ、各前記特徴量を適用した画像を生成する画像生成部と、
前記画像を前記タッチパネル上の前記領域に表示する画像表示部と
として前記タッチパネルを具備するコンピュータに機能させる、ユーザ・インタフェース(UI)プログラム。 - 前記タッチ操作がスライド操作であり、スライド方向およびスライド距離に基づいて前記領域が決定される、請求項1記載のUIプログラム。
- 前記画像生成部において、前記特徴量に輝度値を採用する、請求項1または2記載のUIプログラム。
- 前記画像生成部において、前記特徴量にアルファ値を採用して、所定のRGB値と共に用いる、請求項1から3のいずれか一項記載のUIプログラム。
- 前記座標系がUV座標系であり、前記所定の範囲内の前記各座標値が0から1までの範囲のu値およびv値で規定され、
前記特徴量決定部において、前記各座標の特徴量が、前記各座標値に基づく特徴化ルールを適用することで決定され、
前記特徴化ルールが、u値およびv値に基づく2次関数の計算ルールを含む、請求項1から4のいずれか一項記載のUIプログラム。 - 前記特徴量決定部において、前記各座標の特徴量が、前記各座標値に基づく特徴化ルールを適用することで決定され、
前記特徴化ルールが、u値および/またはv値と前記タッチ操作がスライド操作である場合のスライド距離とに基づく補間ルールを含む、請求項1から5のいずれか一項記載のUIプログラム。 - 前記画像が3角形状を有する2つのポリゴンから形成される画像である、請求項1から6のいずれか一項記載のUIプログラム。
- タッチパネル上で弾性オブジェクトの形状を変形して表示するユーザ・インタフェース(UI)プログラムであって、
前記タッチパネル上の第1接触点の周囲に第1弾性オブジェクト画像を生成して表示する第1形成部と、
前記タッチパネル上で前記第1接触点から第2接触点までのスライド操作が判定された場合に、前記スライド操作に連動して前記第1弾性オブジェクト画像を前記第2接触点に向けて変形させた第2弾性オブジェクト画像を形成して表示する第2形成部と
として前記タッチパネルを具備する携帯端末に機能させ、前記第1形成部および前記第2形成部のそれぞれが、
前記第1接触点を含む矩形領域を決定し、
前記矩形領域に対し、所定の座標系の所定の範囲を対応付けて規定し、
前記所定の範囲に対し、各座標値に基づいて各座標の特徴量を決定し、
前記矩形領域に関連付けられ、各前記特徴量を適用した画像を生成して表示するように構成される、UIプログラム。 - 請求項8記載のUIプログラムであって、前記第1形成部において、
前記矩形領域が前記第1接触点の周囲の正方形領域であり、
前記第1弾性オブジェクト画像が、前記正方形領域内に形成される円放射状にグラデーションされた画像であり、且つ、3角形状を有する2つのポリゴンから形成される画像である、UIプログラム。 - 請求項9記載のUIプログラムであって、前記第2形成部において、
前記矩形領域が前記第1接触点および前記第2接触点の周囲の長方形領域であり、
前記第2オブジェクト画像が、前記長方形領域内に、前記円放射状にグラデーションされた画像を分割して離間し、該離間した間の部分を補間するように更にグラデーションされた画像であり、且つ、3角形状を有する2つのポリゴンから形成される画像である、UIプログラム。 - タッチパネル上でのユーザのタッチ操作に対応する領域を決定するステップと、
前記領域に対し、所定の座標系の所定の範囲を対応付けて規定するステップと、
前記所定の範囲に対し、各座標値に基づいて各座標の特徴量を決定するステップと、
前記領域に関連付けられ、各前記特徴量を適用した画像を生成するステップと、
前記画像を前記タッチパネル上の前記領域に表示させるステップと
を含む、前記タッチ・スクリーンを具備するコンピュータに実装される、ユーザ・インタフェース(UI)画像表示のための方法。 - 前記タッチ操作がスライド操作であり、スライド方向およびスライド距離に基づいて前記領域が決定される、請求項11記載の方法。
- 前記画像生成部において、前記特徴量に輝度値を採用する、請求項11または12記載の方法。
- 前記画像生成部において、前記特徴量にアルファ値を採用して、所定のRGB値と共に用いる、請求項11から13のいずれか一項記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015178708A JP5941207B1 (ja) | 2015-09-10 | 2015-09-10 | ユーザ・インタフェース・プログラムおよびコンピュータ実装方法 |
JP2015-178708 | 2015-09-10 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017043287A1 true WO2017043287A1 (ja) | 2017-03-16 |
Family
ID=56244693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2016/074193 WO2017043287A1 (ja) | 2015-09-10 | 2016-08-19 | ユーザ・インタフェース・プログラムおよびコンピュータ実装方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5941207B1 (ja) |
WO (1) | WO2017043287A1 (ja) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0787302A (ja) * | 1993-09-16 | 1995-03-31 | Fuji Xerox Co Ltd | 文書処理装置 |
JP2009187096A (ja) * | 2008-02-04 | 2009-08-20 | Seiko Epson Corp | 画像処理装置、画像処理方法及びそのプログラム |
JP2009240620A (ja) * | 2008-03-31 | 2009-10-22 | Sega Corp | オブジェクト表示制御方法、オブジェクト表示制御装置、記録媒体、及びプログラム |
JP2010033294A (ja) * | 2008-07-28 | 2010-02-12 | Namco Bandai Games Inc | プログラム、情報記憶媒体、及び画像生成システム |
JP2012033060A (ja) * | 2010-07-30 | 2012-02-16 | Sony Corp | 情報処理装置、表示制御方法及び表示制御プログラム |
JP4932010B2 (ja) * | 2010-01-06 | 2012-05-16 | 株式会社スクウェア・エニックス | ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム |
JP2012113743A (ja) * | 2012-02-29 | 2012-06-14 | Denso Corp | 遠隔操作デバイス用表示制御装置 |
JP2012247673A (ja) * | 2011-05-30 | 2012-12-13 | Dainippon Printing Co Ltd | 2次元カラーグラデーション表示装置 |
JP2014191612A (ja) * | 2013-03-27 | 2014-10-06 | Ntt Docomo Inc | 情報端末、情報入力補助方法、及び情報入力補助プログラム |
JP5711409B1 (ja) * | 2014-06-26 | 2015-04-30 | ガンホー・オンライン・エンターテイメント株式会社 | 端末装置 |
JP2015222595A (ja) * | 2014-04-04 | 2015-12-10 | 株式会社コロプラ | ユーザインターフェースプログラムおよびゲームプログラム |
-
2015
- 2015-09-10 JP JP2015178708A patent/JP5941207B1/ja active Active
-
2016
- 2016-08-19 WO PCT/JP2016/074193 patent/WO2017043287A1/ja active Application Filing
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0787302A (ja) * | 1993-09-16 | 1995-03-31 | Fuji Xerox Co Ltd | 文書処理装置 |
JP2009187096A (ja) * | 2008-02-04 | 2009-08-20 | Seiko Epson Corp | 画像処理装置、画像処理方法及びそのプログラム |
JP2009240620A (ja) * | 2008-03-31 | 2009-10-22 | Sega Corp | オブジェクト表示制御方法、オブジェクト表示制御装置、記録媒体、及びプログラム |
JP2010033294A (ja) * | 2008-07-28 | 2010-02-12 | Namco Bandai Games Inc | プログラム、情報記憶媒体、及び画像生成システム |
JP4932010B2 (ja) * | 2010-01-06 | 2012-05-16 | 株式会社スクウェア・エニックス | ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム |
JP2012033060A (ja) * | 2010-07-30 | 2012-02-16 | Sony Corp | 情報処理装置、表示制御方法及び表示制御プログラム |
JP2012247673A (ja) * | 2011-05-30 | 2012-12-13 | Dainippon Printing Co Ltd | 2次元カラーグラデーション表示装置 |
JP2012113743A (ja) * | 2012-02-29 | 2012-06-14 | Denso Corp | 遠隔操作デバイス用表示制御装置 |
JP2014191612A (ja) * | 2013-03-27 | 2014-10-06 | Ntt Docomo Inc | 情報端末、情報入力補助方法、及び情報入力補助プログラム |
JP2015222595A (ja) * | 2014-04-04 | 2015-12-10 | 株式会社コロプラ | ユーザインターフェースプログラムおよびゲームプログラム |
JP5711409B1 (ja) * | 2014-06-26 | 2015-04-30 | ガンホー・オンライン・エンターテイメント株式会社 | 端末装置 |
Also Published As
Publication number | Publication date |
---|---|
JP5941207B1 (ja) | 2016-06-29 |
JP2017051492A (ja) | 2017-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6903183B2 (ja) | 曲面ビューポート上に頂点の投影を近似することによる、グラフィックス処理における画面位置に基づく有効解像度の変化 | |
JP7112549B2 (ja) | 複数のレンダーターゲット内でアクティブカラーサンプルカウントを変更することによりスクリーンの位置によって有効解像度を変動させること | |
US11361405B2 (en) | Dynamic spread anti-aliasing | |
CN109166159B (zh) | 获取图像的主色调的方法、装置及终端 | |
JP6230702B2 (ja) | 頂点シェーダ演算を実行するフラグメントシェーダ | |
CN111292236B (zh) | 一种减少中央凹注视渲染中的混叠伪像的方法和计算系统 | |
CN109791431A (zh) | 视点渲染 | |
CN113238829B (zh) | 一种背景色生成的方法、装置、电子设备及存储介质 | |
US20180033185A1 (en) | Texture mapping apparatus, texture mapping method, and computer readable medium | |
KR102251444B1 (ko) | 그래픽 프로세싱 유닛, 이를 포함하는 그래픽 프로세싱 시스템, 및 이를 이용한 안티 에일리어싱 방법 | |
CN109598672B (zh) | 一种地图道路渲染方法及装置 | |
CN112516595B (zh) | 岩浆渲染方法、装置、设备和存储介质 | |
US9092911B2 (en) | Subpixel shape smoothing based on predicted shape background information | |
JP5941207B1 (ja) | ユーザ・インタフェース・プログラムおよびコンピュータ実装方法 | |
EP2992512B1 (en) | Anti-aliasing for geometries | |
JP2007087283A (ja) | 図形描画装置及び図形描画プログラム | |
JP2017054482A (ja) | ユーザ・インタフェース・プログラムおよびコンピュータ実装方法 | |
KR102303666B1 (ko) | 영상 처리 방법, 영상 처리 방법을 수행하는 영상 처리 장치, 및 영상 처리 장치를 포함하는 표시 장치 | |
US20160321835A1 (en) | Image processing device, image processing method, and display device | |
CN110264393B (zh) | 一种信息处理方法、终端和存储介质 | |
WO2006003856A1 (ja) | 画像描画装置、頂点選出方法、頂点選出プログラム及び集積回路 | |
KR100914915B1 (ko) | 저비용의 뷰-체적 클리핑 방법 및 장치 | |
US20240303768A1 (en) | Multidimensional Image Scaler | |
JP2003187260A (ja) | 描画処理プログラム、描画処理プログラムを記録した記録媒体、描画処理装置及び方法 | |
JP2023045414A (ja) | 画像データ生成装置、画像データ生成方法及び画像データ生成プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16844150 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 16844150 Country of ref document: EP Kind code of ref document: A1 |