JP2017016622A - User interface program and computer implementation method - Google Patents

User interface program and computer implementation method Download PDF

Info

Publication number
JP2017016622A
JP2017016622A JP2015223402A JP2015223402A JP2017016622A JP 2017016622 A JP2017016622 A JP 2017016622A JP 2015223402 A JP2015223402 A JP 2015223402A JP 2015223402 A JP2015223402 A JP 2015223402A JP 2017016622 A JP2017016622 A JP 2017016622A
Authority
JP
Japan
Prior art keywords
mesh
slide operation
meshes
mixed
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015223402A
Other languages
Japanese (ja)
Inventor
厳 村松
Itsuki Muramatsu
厳 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2015223402A priority Critical patent/JP2017016622A/en
Publication of JP2017016622A publication Critical patent/JP2017016622A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To dynamically implement, with respect to an object generated as a user interface (UI) in response to a slide operation by means of an object, flexible deformation processes that vary according to the slide operation.SOLUTION: There is provided a user interface (UI) program that outputs to a touch panel a UI image in conjunction with a slide operation on the touch panel. This UI program causes a computer equipped with a touch panel to function as: a formation unit that forms a group of meshes by associating multiple meshes each having multiple polygons with each other; a combining unit that forms a combined mesh on the basis of the group of meshes; and an output unit that generates and displays a UI image on the basis of the shape of the combined mesh.SELECTED DRAWING: Figure 9

Description

本発明は、物体によるタッチパネルへのスライド操作に連動して、ユーザ・インタフェース(UI)画像を出力するユーザ・インタフェース・プログラム(UIプログラム)およびそのコンピュータ実装方法に関するものである。   The present invention relates to a user interface program (UI program) that outputs a user interface (UI) image in conjunction with a sliding operation on a touch panel by an object, and a computer mounting method thereof.

スマートフォンをはじめとしたタッチパネルを具備する昨今のユーザ端末には、タッチパネル上で様々なUIが用いられる。例えば、特許文献1の従来技術では、タッチパネル上のスライド操作に応じて、該スライド操作の始点から終点へと伸び、始点側の一端部と終点側の他端部とで大きさ又は形状が異なるカーソルを表示するUIが開示される(特許文献1の〔要約〕参照)。ここでは、特に、スライド操作にわたり、カーソルが長くなるほどカーソルの面積が一定となるようにカーソルの幅を細くするような変形処理も実施される(特許文献1の段落〔0018〕参照)。   Various UIs are used on a touch panel in recent user terminals including a touch panel such as a smartphone. For example, in the prior art of Patent Document 1, the slide operation extends from the start point to the end point according to the slide operation on the touch panel, and the size or shape is different between one end portion on the start point side and the other end portion on the end point side. A UI for displaying a cursor is disclosed (see [Summary] in Patent Document 1). Here, in particular, during the slide operation, a deformation process is performed in which the cursor width is narrowed so that the area of the cursor becomes constant as the cursor lengthens (see paragraph [0018] of Patent Document 1).

特開2012−33060号公報JP 2012-33060 A

本発明は、物体(ユーザの指等)によるスライド操作に連動してUI画像として生成されるオブジェクトについて、多様且つ柔軟な変形処理を動的に実現するUIプログラムおよびそのコンピュータ実装方法を提供することを目的とする。   The present invention provides a UI program that dynamically realizes various and flexible deformation processes for an object generated as a UI image in conjunction with a slide operation by an object (such as a user's finger) and a computer-implemented method thereof. With the goal.

上記の課題を解決するために、第1発明は、タッチパネル上のスライド操作に連動してユーザ・インタフェース(UI)画像を前記タッチパネルに出力するUIプログラムである。当該UIプログラムは、それぞれが複数のポリゴンを有する複数のメッシュを互いに対応づけてメッシュの組を形成する形成部と、メッシュの組に基づいて混合メッシュを形成する混合部と、混合メッシュの形状に基づいてUI画像を生成し表示する出力部としてタッチパネルを具備するコンピュータに機能させる。   In order to solve the above problems, the first invention is a UI program that outputs a user interface (UI) image to the touch panel in conjunction with a slide operation on the touch panel. The UI program includes a forming unit that forms a mesh set by associating a plurality of meshes each having a plurality of polygons, a mixing unit that forms a mixed mesh based on the mesh set, and a mixed mesh shape. Based on this, a computer having a touch panel is caused to function as an output unit that generates and displays a UI image.

また、第2発明は、タッチパネル上のスライド操作に連動してユーザ・インタフェース(UI)画像を出力するコンピュータ実装方法である。当該コンピュータ実装方法は、前記タッチパネル上で、それぞれが複数のポリゴンを有する複数のメッシュを互いに対応づけてメッシュの組を形成するステップと、メッシュの組に基づいて混合メッシュを形成するステップと、混合メッシュの形状に基づいてUI画像を生成するステップと、生成したUI画像を表示するステップとを含む。   The second invention is a computer-implemented method for outputting a user interface (UI) image in conjunction with a slide operation on the touch panel. The computer-implemented method includes forming a mesh set by associating a plurality of meshes each having a plurality of polygons with each other on the touch panel, forming a mixed mesh based on the mesh set, and mixing The method includes generating a UI image based on the shape of the mesh, and displaying the generated UI image.

図1は、本発明の実施の形態によるUIプログラムを実行可能な一例のユーザ端末の模式図であるFIG. 1 is a schematic diagram of an example user terminal capable of executing a UI program according to an embodiment of the present invention. 図2は、図1のユーザ端末の物理的構成を示す模式図である。FIG. 2 is a schematic diagram showing a physical configuration of the user terminal of FIG. 図3は、図1のユーザ端末における入出力について示す模式図である。FIG. 3 is a schematic diagram showing input / output in the user terminal of FIG. 図4は、本発明の実施の形態により、初期状態のオブジェクト構成について示すUI画像の模式図である。FIG. 4 is a schematic diagram of a UI image showing the object configuration in the initial state according to the embodiment of the present invention. 図5は、本発明の実施の形態によるUIプログラムを用いて実現されるポリゴン構成について示す模式図である。FIG. 5 is a schematic diagram showing a polygon configuration realized by using the UI program according to the embodiment of the present invention. 図6は、本発明の実施の形態によるUIプログラムを用いて実現されるポリゴン構成について示す模式図である。FIG. 6 is a schematic diagram showing a polygon configuration realized by using the UI program according to the embodiment of the present invention. 図7は、本発明の実施の形態により、スライド操作に連動して形成される弾性オブジェクトおよびポリゴン構成について示す模式図である。FIG. 7 is a schematic diagram showing an elastic object and a polygon configuration formed in conjunction with the slide operation according to the embodiment of the present invention. 図8は、本発明の実施の形態により、混合対照となる例示の2つの弾性オブジェクトについて示す模式図である。FIG. 8 is a schematic diagram showing two exemplary elastic objects serving as mixing controls according to the embodiment of the present invention. 図9は、本発明の実施の形態によるUIプログラムを用いて実現される混合オブジェクト生成について示す模式図である。FIG. 9 is a schematic diagram showing mixed object generation realized by using the UI program according to the embodiment of the present invention. 図10は図9に対応して生成される各オブジェクトのポリゴン(メッシュ)構成について示す模式図である。FIG. 10 is a schematic diagram showing a polygon (mesh) configuration of each object generated corresponding to FIG. 図11は、図9の混合オブジェクト生成において用いられる混合比率関数のグラフである。FIG. 11 is a graph of the mixing ratio function used in the mixed object generation of FIG. 図12は、図11に対応して混合比率関数を用いた混合オブジェクト形成の様子について示す模式図である。FIG. 12 is a schematic diagram showing a state of mixed object formation using a mixing ratio function corresponding to FIG. 図13は、本発明の実施の形態によるUIプログラムを用いて実装される機能ブロック図である。FIG. 13 is a functional block diagram implemented using a UI program according to the embodiment of the present invention. 図14は、図13の機能ブロック図を用いて実施されるUI画像生成に関する一連の処理フロー図である。FIG. 14 is a series of processing flowcharts related to UI image generation implemented using the functional block diagram of FIG.

[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の実施の形態によるコンピュータ・プログラムは、以下のような構成を備える。
[Description of Embodiment of the Present Invention]
First, the contents of the embodiment of the present invention will be listed and described. The computer program according to the embodiment of the present invention has the following configuration.

(項目1)
タッチパネル上のスライド操作に連動してユーザ・インタフェース(UI)画像を前記タッチパネルに出力するUIプログラムであって、
それぞれが複数のポリゴンを有する複数のメッシュを互いに対応づけてメッシュの組を形成する形成部と、
前記メッシュの組に基づいて混合メッシュを形成する混合部と、
前記混合メッシュの形状に基づいてUI画像を生成し表示する出力部と
として前記タッチパネルを具備するコンピュータに機能させる、UIプログラム。
(Item 1)
A UI program that outputs a user interface (UI) image to the touch panel in conjunction with a slide operation on the touch panel,
A forming unit that forms a set of meshes by associating a plurality of meshes each having a plurality of polygons;
A mixing unit that forms a mixed mesh based on the set of meshes;
A UI program that causes a computer including the touch panel to function as an output unit that generates and displays a UI image based on the shape of the mixed mesh.

(項目2)
項目1の記載のUIプログラムにおいて、
前記形成部が、前記複数のメッシュの組の間において、前記ポリゴンの任意の頂点同士を互いに対応づけて頂点の組を形成し、
前記混合部が、前記頂点の組に対し、所定の混合比率関数に基づいて、前記混合メッシュにおける前記ポリゴンの対応する任意の頂点を決定する、UIプログラム。
(Item 2)
In the UI program described in item 1,
The forming unit forms a set of vertices by associating arbitrary vertices of the polygon with each other between the plurality of mesh sets,
The UI program in which the mixing unit determines an arbitrary vertex corresponding to the polygon in the mixed mesh based on a predetermined mixing ratio function for the set of vertices.

(項目3)
前記混合比率関数が前記スライド操作の距離に従って規定される、項目2記載のUIプログラム
(Item 3)
The UI program according to item 2, wherein the mixing ratio function is defined according to the distance of the slide operation.

(項目4)
前記混合比率関数が更に前記スライド操作の時間に従って規定される、項目2または3記載のUIプログラム。
本項目のUIプログラムによれば、上記混合比率関数を時間に従うものとすることにより、更に視覚的にダイナミックで多様性のあるオブジェクト変形を表現することができる。
(Item 4)
4. The UI program according to item 2 or 3, wherein the mixing ratio function is further defined according to the slide operation time.
According to the UI program of this item, by making the above-mentioned mixing ratio function according to time, it is possible to express more visually dynamic and diverse object deformations.

(項目5)
前記混合比率関数が前記距離の周期関数を含む、項目2から4のいずれか一項記載のUIプログラム。
本項目のUIプログラムによれば、上記混合比率関数を周期関数とすることにより、周期的な動きを有するように変形可能なオブジェクトを表現することができる。
(Item 5)
The UI program according to any one of items 2 to 4, wherein the mixing ratio function includes a periodic function of the distance.
According to the UI program of this item, an object that can be deformed so as to have a periodic motion can be expressed by using the mixing ratio function as a periodic function.

(項目6)
前記周期関数が減衰特性を有する、項目5記載のUIプログラム。
本項目のUIプログラムによれば、減衰特性により特定の1つのオブジェクト形状に徐々に移行するように変形可能なオブジェクトを表現することができる。
(Item 6)
Item 6. The UI program according to Item 5, wherein the periodic function has an attenuation characteristic.
According to the UI program of this item, it is possible to represent an object that can be deformed so as to gradually shift to one specific object shape by the attenuation characteristic.

(項目7)
前記減衰特性が前記スライド操作の時間に基づいて規定される、項目6記載のUIプログラム。
本項目のUIプログラムによれば、上記減衰特性を時間に従うものとすることにより、特定時間に限定した、よりダイナミックな変形によるオブジェクト移行を表現することができる。
(Item 7)
The UI program according to item 6, wherein the attenuation characteristic is defined based on a time of the slide operation.
According to the UI program of this item, it is possible to express object transition due to more dynamic deformation limited to a specific time by making the attenuation characteristic follow time.

(項目8)
前記複数のメッシュが、第1メッシュおよび第2メッシュからなり、
前記形成される混合メッシュが、前記スライド操作に連動して、前記第1および第2メッシュの内の一方から他方へと移行するように形成される、項目1から7のいずれか一項記載のUIプログラム。
本項目のUIプログラムによれば、1つのオブジェクト形状から他のオブジェクト形状に明確に移行するように変形可能なオブジェクトを表現することができる。
(Item 8)
The plurality of meshes include a first mesh and a second mesh,
8. The item according to claim 1, wherein the formed mixed mesh is formed so as to move from one of the first and second meshes to the other in conjunction with the sliding operation. UI program.
According to the UI program of this item, it is possible to represent an object that can be deformed so as to clearly shift from one object shape to another object shape.

(項目9)
タッチパネル上のスライド操作に連動してユーザ・インタフェース(UI)画像を出力するコンピュータ実装方法であって、前記タッチパネル上で、
それぞれが複数のポリゴンを有する複数のメッシュを互いに対応づけてメッシュの組を形成するステップと、
前記メッシュの組に基づいて混合メッシュを形成するステップと、
前記混合メッシュの形状に基づいてUI画像を生成するステップと、
前記生成したUI画像を表示するステップと
を含む、コンピュータ実装方法。
(Item 9)
A computer-implemented method for outputting a user interface (UI) image in conjunction with a slide operation on a touch panel,
Associating a plurality of meshes each having a plurality of polygons with each other to form a set of meshes;
Forming a mixed mesh based on the set of meshes;
Generating a UI image based on the shape of the mixed mesh;
And displaying the generated UI image.

(項目10)
項目9の記載のコンピュータ実装方法において、
前記メッシュの組を形成する前記ステップが、前記複数のメッシュの組の間において、前記ポリゴンの任意の頂点同士を互いに対応づけて頂点の組を形成するステップを含み、
前記混合メッシュを形成する前記ステップが、前記頂点の組に対し、所定の混合比率関数に基づいて、前記混合メッシュにおける前記ポリゴンの対応する任意の頂点を決定するステップを含む、コンピュータ実装方法。
(Item 10)
In the computer-implemented method according to item 9,
The step of forming the mesh set includes the step of associating arbitrary vertices of the polygon with each other between the plurality of mesh sets to form a vertex set;
The computer-implemented method, wherein the step of forming the mixed mesh comprises determining any corresponding vertex of the polygon in the mixed mesh based on a predetermined mixing ratio function for the vertex set.

(項目11)
前記混合比率関数が前記スライド操作の距離に従って規定される、項目10記載のコンピュータ実装方法。
(Item 11)
The computer-implemented method of item 10, wherein the mixing ratio function is defined according to the distance of the slide operation.

(項目12)
前記混合比率関数が、減衰特性を有する前記距離の周期関数を含む、項目10または11記載のコンピュータ実装方法。
(Item 12)
Item 12. The computer-implemented method of item 10 or 11, wherein the mixing ratio function includes a periodic function of the distance having an attenuation characteristic.

(項目13)
前記減衰特性が前記スライド操作の時間に基づいて規定される、項目12記載のコンピュータ実装方法。
(Item 13)
13. The computer-implemented method of item 12, wherein the attenuation characteristic is defined based on the time of the slide operation.

(項目14)
前記複数のメッシュが、第1メッシュおよび第2メッシュからなり、
前記形成される混合メッシュが、前記スライド操作に連動して、前記第1および第2メッシュの内の一方から他方へと移行するように形成される、項目9から13のいずれか一項記載のコンピュータ実装方法。
(Item 14)
The plurality of meshes include a first mesh and a second mesh,
14. The item according to any one of items 9 to 13, wherein the formed mixed mesh is formed so as to shift from one of the first and second meshes to the other in conjunction with the sliding operation. Computer mounting method.

[本発明の実施形態の詳細]
以下に図面を参照して、本発明の実施形態による、物体によるタッチパネルへのスライド操作に連動してユーザ・インタフェース(UI)画像を前記タッチパネルに出力するUIプログラムおよびそのコンピュータ実装方法について説明する。図中、同一の構成要素には同一の符号を付してある。
[Details of the embodiment of the present invention]
Hereinafter, a UI program for outputting a user interface (UI) image to the touch panel in conjunction with a slide operation on a touch panel by an object and a computer mounting method thereof according to an embodiment of the present invention will be described with reference to the drawings. In the figure, the same components are denoted by the same reference numerals.

本発明の実施の形態によるUIプログラムは、スマートフォン等のユーザ端末が具備するタッチパネル上でのユーザ操作に応じて実行される。図1に示すように、スマートフォン1は、タッチパネル2を備え、ユーザは当該タッチパネル2上でのユーザ操作を介してユーザ端末の動作(例えば、スマートフォン・ゲームの進行)を制御することができる。なお、本実施の形態によるUIプログラムを実行するユーザ端末はスマートフォン1に限定されず、例えば、PDA、タブレット型コンピュータのデバイスなど、タッチパネルを備える端末であれば如何なるデバイスにもすることができる。   The UI program according to the embodiment of the present invention is executed in response to a user operation on a touch panel included in a user terminal such as a smartphone. As illustrated in FIG. 1, the smartphone 1 includes a touch panel 2, and the user can control the operation of the user terminal (for example, progress of a smartphone game) through a user operation on the touch panel 2. Note that the user terminal that executes the UI program according to the present embodiment is not limited to the smartphone 1, and may be any device as long as it is a terminal having a touch panel, such as a PDA or a tablet computer device.

図2に示すように、スマートフォン1は、互いにバス接続されたCPU3、主記憶4、補助記憶5、送受信部6、表示部7および入力部8を備える。このうち主記憶4は例えばDRAMなどで構成され、補助記憶5は例えばHDDなどで構成されている。補助記憶5は、本実施の形態によるUIプログラム等を記録可能な記録媒体である。補助記憶4に格納されたUIプログラムは、主記憶4上に展開されてCPU3によって実行される。なお、主記憶4上には、CPU3がUIプログラムに従って動作している間に生成したデータやCPU3によって利用されるデータも一時的に格納される。送受信部6はCPU3の制御によりスマートフォン1とネットワークとの間の接続(無線接続および/または有線接続)を確立して各種情報の送受信を行う。表示部7は、CPU3による制御の下でユーザに提示することになる各種情報を表示する。入力部8は、ユーザのタッチパル2に対する入力操作を検知する。   As shown in FIG. 2, the smartphone 1 includes a CPU 3, a main memory 4, an auxiliary memory 5, a transmission / reception unit 6, a display unit 7, and an input unit 8 that are connected to each other via a bus. Of these, the main memory 4 is composed of, for example, a DRAM, and the auxiliary memory 5 is composed of, for example, an HDD. The auxiliary memory 5 is a recording medium capable of recording the UI program and the like according to the present embodiment. The UI program stored in the auxiliary memory 4 is expanded on the main memory 4 and executed by the CPU 3. Note that data generated while the CPU 3 operates in accordance with the UI program and data used by the CPU 3 are also temporarily stored on the main memory 4. The transmission / reception unit 6 establishes connection (wireless connection and / or wired connection) between the smartphone 1 and the network under the control of the CPU 3 and transmits / receives various information. The display unit 7 displays various information to be presented to the user under the control of the CPU 3. The input unit 8 detects an input operation on the touch pal 2 by the user.

表示部7及び入力部8は、上述したタッチパネル2に相当する。図3に示すように、タッチパネル2は、入力部8に相当するタッチセンシング部301、および表示部7に相当する液晶表示部302を有する。タッチパネル2は、CPU3による制御の下で、画像を表示して、ユーザによるインタラクティブなタッチ操作(主に、タッチ操作、スライド(スワイプ)操作およびタップ操作等の物理的接触操作)を受け、制御部303による制御処理に基づいてそれに対応するグラフィックを液晶表示部302に表示する。   The display unit 7 and the input unit 8 correspond to the touch panel 2 described above. As illustrated in FIG. 3, the touch panel 2 includes a touch sensing unit 301 corresponding to the input unit 8 and a liquid crystal display unit 302 corresponding to the display unit 7. The touch panel 2 displays an image under the control of the CPU 3 and receives an interactive touch operation (mainly a physical contact operation such as a touch operation, a slide (swipe) operation, and a tap operation) by a user, and a control unit Based on the control processing by 303, the corresponding graphic is displayed on the liquid crystal display unit 302.

より具体的には、上記タッチセンシング部301は、ユーザによるタッチ操作に応じた操作信号を制御部303に供給する。タッチ操作は、何れの物体によるものとすることができる。例えば、ユーザの指によりなされてもよいし、スタイラス等の装置を使用してもよい。タッチセンシング部301はタッチパネルの構造上、液晶パネル、有機EL、プラズマディスプレイ等のような液晶表示部302の上層に配置される。また、タッチセンシング部301は、圧力検出方式、抵抗膜方式、静電容量方式や電磁誘導方式等を採用することができる。タッチセンシング部301上で物体の接触による入力を受けた際に、その接触位置において押圧、電気抵抗、電気容量や弾性波のエネルギー等の変化量を検知し、液晶表示部302上の対応する接触座標が特定される。制御部303は、タッチセンシング部301からの操作信号を検出すると、ユーザ操作命令として、当該操作に応じたUI画像を含むグラフィック(図示せず)を液晶表示部へ表示信号として送信する処理を行う。液晶表示部302は、表示信号に応じたグラフィックを表示する。   More specifically, the touch sensing unit 301 supplies an operation signal corresponding to the touch operation by the user to the control unit 303. The touch operation can be performed by any object. For example, it may be made by a user's finger or a device such as a stylus may be used. The touch sensing unit 301 is disposed on an upper layer of a liquid crystal display unit 302 such as a liquid crystal panel, an organic EL, or a plasma display due to the structure of the touch panel. The touch sensing unit 301 can employ a pressure detection method, a resistance film method, a capacitance method, an electromagnetic induction method, or the like. When receiving an input by touching an object on the touch sensing unit 301, a change amount of pressure, electrical resistance, electric capacity, elastic wave energy, or the like is detected at the contact position, and the corresponding touch on the liquid crystal display unit 302 is detected. Coordinates are specified. When detecting an operation signal from the touch sensing unit 301, the control unit 303 performs processing for transmitting, as a user operation command, a graphic (not shown) including a UI image corresponding to the operation to the liquid crystal display unit as a display signal. . The liquid crystal display unit 302 displays a graphic corresponding to the display signal.

(1)ポリゴン(メッシュ)形成に基づく各オブジェクトの形成処理
以下、図4から図7を参照して、本実施の形態によるUIプログラムによってUI画像を生成するために実施される、ポリゴン(メッシュ)形成に基づく各オブジェクトの形成処理について説明する。本実施の形態によって生成されるUI画像は、大きくは(i)弾性オブジェクト形成処理、および(ii)複数の弾性オブジェクトのセットを混合して、混合弾性オブジェクトを形成する混合弾性オブジェクト形成処理に基づく。なお、以下において、複数のポリゴンからなるセットのことをメッシュと称する。即ち、メッシュは複数のポリゴンから構成されるものである。
(1) Forming process of each object based on polygon (mesh) formation Hereinafter, with reference to FIGS. 4 to 7, a polygon (mesh) that is implemented to generate a UI image by the UI program according to the present embodiment. A process of forming each object based on the formation will be described. The UI image generated by this embodiment is largely based on (i) elastic object formation processing, and (ii) mixed elastic object formation processing that forms a mixed elastic object by mixing a plurality of elastic object sets. . Hereinafter, a set of a plurality of polygons is referred to as a mesh. That is, the mesh is composed of a plurality of polygons.

(1−a)弾性オブジェクト形成処理の概要
図4は、タッチパネル2への物体の接触時に初期状態として形成される、円形状を有する一例のオブジェクトのUI画像を模式的に示したものである。図4(a)に示すように、弾性オブジェクトは、画面表示に際して略正方形状のUI画像750として画像生成がされる。UI画像750は、半透明領域760および透明領域770から成り、半透明領域760がオブジェクトの基本表示領域として画面表示領域に重畳され、画面表示される。
(1-a) Outline of Elastic Object Forming Process FIG. 4 schematically shows a UI image of an example object having a circular shape, which is formed as an initial state when an object touches the touch panel 2. As shown in FIG. 4A, the elastic object is generated as a substantially square UI image 750 when displayed on the screen. The UI image 750 includes a translucent area 760 and a transparent area 770, and the translucent area 760 is superimposed on the screen display area as a basic display area of the object and displayed on the screen.

より詳細には、弾性オブジェクトは、略正方形のメッシュ領域に収容され、複数のポリゴン710に分割される。図4(b)の例では、UI画像750を4×4=16個のポリゴンに分割し、ポリゴンのセット(メッシュ)全体で弾性オブジェクトを収容する。なお、図4(b)の例ではポリゴンの形状を正方形としているが、これに限定されず、例えば各々が3点からなる3角形状として形成してもよいし、何れの形状にもすることができる。また、分割するポリゴン数も限定的でないことが理解される。   More specifically, the elastic object is accommodated in a substantially square mesh region and divided into a plurality of polygons 710. In the example of FIG. 4B, the UI image 750 is divided into 4 × 4 = 16 polygons, and the entire polygon set (mesh) accommodates the elastic object. In the example of FIG. 4B, the shape of the polygon is a square. However, the shape is not limited to this. For example, each polygon may be formed as a triangle having three points, or any shape. Can do. It will also be understood that the number of polygons to be divided is not limited.

更に、図4の円形状のような半透明領域760は、全ポリゴンの頂点の座標のセットを用いて、所与の数式から数学的に一意に規定することができる。図4(b)の場合は、各ポリゴンが正方形となるように各頂点が配置されており、ポリゴンの各頂点座標を所与の数式に代入することによって円形状の半透明領域760が規定されて、円形状のオブジェクトが表示される。ポリゴンが他の形状を有するように配置される場合も、同様に当該所与の数式に各座標を代入することにより、オブジェクト形状が数学的に一意に定まる。なお、図4(b)のような円形状を形成する所与の数式は一般に3角関数を用いた数式であることが知られる。   Furthermore, a semi-transparent region 760, such as the circular shape of FIG. 4, can be mathematically uniquely defined from a given formula using a set of coordinates of the vertices of all polygons. In the case of FIG. 4B, the vertices are arranged so that each polygon is a square, and a circular translucent region 760 is defined by substituting each vertex coordinate of the polygon into a given mathematical expression. A circular object is displayed. Similarly, when the polygons are arranged to have other shapes, the object shape is uniquely determined mathematically by substituting each coordinate into the given mathematical formula. Note that it is known that a given mathematical expression for forming a circular shape as shown in FIG. 4B is generally a mathematical expression using a triangular function.

タッチパネルに対するスライド操作に伴い、当該初期円形状のオブジェクトを連続的に徐々に変形させることができる。より具体的には、ユーザ・インタフェース画像750をゴムシートの如く弾性的に伸張する処理、特に、次のようにポリゴン毎にその頂点を伸張させる物理演算処理を仮想的に実施することにより実現される。図5および図6は、ユーザのスライド操作に伴って、オブジェクトの一部のポリゴンの頂点を移動させる様子を模式的に示す。図6における白丸は、対応する移動前の(即ち、図5の)頂点の位置を表す。メッシュを構成する複数のポリゴンの各頂点720の座標をそれぞれ移動させることによって、図4に示した初期円形状のオブジェクトに対する弾性変形が表現される。   With the slide operation on the touch panel, the initial circular object can be gradually and gradually deformed. More specifically, it is realized by virtually executing a process of elastically expanding the user interface image 750 like a rubber sheet, in particular, a physical calculation process of expanding the vertex of each polygon as follows. The 5 and 6 schematically show how the vertices of some polygons of the object are moved in accordance with the user's slide operation. The white circles in FIG. 6 represent the positions of the corresponding vertices before movement (that is, in FIG. 5). By moving the coordinates of the vertices 720 of the plurality of polygons constituting the mesh, elastic deformation of the initial circular object shown in FIG. 4 is expressed.

より具体的には、図5は、図4の初期状態に対応し、各頂点720は各ポリゴンが正方形状となるようにメッシュ状に配置される。他方、図6では、物体のスライド操作に伴い、任意の頂点720Aの座標が720A’に移動した場合に他の頂点720もこれに追従するように移動して配置される。例えば、ユーザのスライド操作に連動する形で、所与の移動規則にしたがって、頂点720Aに関する移動ベクトル(例えば、移動方向および移動距離を有する)を決定し、これに応じて移動先の各座標を決定することができる。当該移動規則について、図6の例では、頂点720A’以外の頂点720’の移動距離は、頂点720Aからの距離によって重み付けをするようなものとしている。即ち、図示するように、頂点720Aから離れた位置に配置される頂点ほどその移動距離が小さくなるようにしている。   More specifically, FIG. 5 corresponds to the initial state of FIG. 4, and each vertex 720 is arranged in a mesh shape so that each polygon has a square shape. On the other hand, in FIG. 6, when the coordinate of an arbitrary vertex 720A is moved to 720A 'in accordance with the slide operation of the object, the other vertex 720 is also moved and arranged so as to follow this. For example, in accordance with a given movement rule, a movement vector (for example, having a movement direction and a movement distance) is determined according to a given movement rule in conjunction with the user's slide operation, and each coordinate of the movement destination is determined accordingly. Can be determined. Regarding the movement rule, in the example of FIG. 6, the movement distance of the vertex 720 'other than the vertex 720A' is weighted by the distance from the vertex 720A. That is, as shown in the drawing, the moving distance is made smaller as the vertex is located farther from the vertex 720A.

ポリゴンの各頂点に関する移動規則は、図6の例に限定されず、様々なものを設定することができる。他の例を図7に示す。図7の(i)の例では、ユーザの指によるスライド操作(スライド操作距離L)に連動して、各頂点を、各ポリゴンが同一の大きさを有するように長方形状を成してスライド操作方向(y軸方向)に移動させる。また(ii)の例では、(i)の例に加えて、スライド操作距離Lにしたがって、スライド操作方向と直角方向(x軸方向)にも各頂点を移動させて、メッシュ全体が台形状を有するように形成する。   The movement rule regarding each vertex of the polygon is not limited to the example of FIG. 6, and various rules can be set. Another example is shown in FIG. In the example of (i) of FIG. 7, in conjunction with the slide operation (slide operation distance L) by the user's finger, each vertex is formed into a rectangular shape so that each polygon has the same size, and the slide operation is performed. Move in the direction (y-axis direction). Further, in the example of (ii), in addition to the example of (i), each vertex is moved in the direction perpendicular to the slide operation direction (x-axis direction) according to the slide operation distance L, so that the entire mesh has a trapezoidal shape. Form to have.

上記のとおり、各ポリゴンが決定されると、それら頂点座標を所与の数式に代入することによってオブジェクト形状を数学的に一意に定めることができる。即ち、(i)の例では楕円形状のオブジェクトが、(ii)の例では下半分に厚みのある略卵形状のオブジェクトが形成される。ユーザの指のスライド操作に連動して、連続的にこのような形状を形成することにより、図4の初期形状から図7の距離Lだけ移動後の形状に柔軟に弾性変形するオブジェクトを表現することができる。   As described above, once each polygon is determined, the object shape can be uniquely determined mathematically by substituting the vertex coordinates into a given mathematical expression. That is, in the example of (i), an elliptical object is formed, and in the example of (ii), a substantially egg-shaped object having a thickness in the lower half is formed. By continuously forming such a shape in conjunction with the user's finger slide operation, an object that is elastically deformed flexibly from the initial shape in FIG. 4 to the shape after movement by a distance L in FIG. 7 is expressed. be able to.

(1−b)混合弾性オブジェクト形成処理
本実施の形態によって生成されるUI画像は、上記で形成したオブジェクトを2つ以上用意して、それらを組として更に混合する(ブレンド処理を実施する)ことで生成される。ここでは、図8に例示するような2つのパターン(パターンiおよびパターンii)のオブジェクトの混合を想定する。両パターンのオブジェクトは、共に図4のような初期円形状を有し、スライド操作と連動して、スライド操作距離Lでは、底部が丸い涙滴形状のもの(パターンi)、および底部が丸く先端に向けて細くなる棒形状のもの(パターンii)となるように、スライド操作と共に弾性変形をしながら形成される。
(1-b) Mixed Elastic Object Formation Processing The UI image generated according to the present embodiment is prepared by preparing two or more objects formed as described above, and further mixing them as a set (performing blend processing). Is generated. Here, a mixture of objects of two patterns (pattern i and pattern ii) as illustrated in FIG. 8 is assumed. The objects of both patterns have an initial circular shape as shown in FIG. 4, and in conjunction with the slide operation, at the slide operation distance L, the bottom has a round teardrop shape (pattern i) and the bottom has a round tip. It is formed while elastically deforming along with the slide operation so as to become a rod-shaped one (pattern ii) that becomes thinner toward the surface.

図9は、このような2つのパターンの弾性オブジェクトを混合することにより形成される混合オブジェクトの例を示す。図9の例は、スライド操作距離l(<図8のL)の場合であり、スライド操作は図8と比べて比較的初期段階にある。また、図9の例では、混合のための配分比率を「1:1」としている。即ち、パターンiの涙滴形状のオブジェクトを50%、およびパターンiiの棒形状のオブジェクトを50%として混合(ブレンド)することにより、混合パターンを有する混合オブジェクトが図示のようにボトル形状を有して形成される。   FIG. 9 shows an example of a mixed object formed by mixing such two patterns of elastic objects. The example of FIG. 9 is a case of the slide operation distance l (<L in FIG. 8), and the slide operation is in a relatively initial stage as compared with FIG. In the example of FIG. 9, the distribution ratio for mixing is “1: 1”. That is, by mixing (blending) 50% of the teardrop-shaped object of pattern i and 50% of the bar-shaped object of pattern ii, the mixed object having the mixed pattern has a bottle shape as shown in the figure. Formed.

図10は、図9の各オブジェクトに対応するメッシュ構成例を示す。上記のように、所定の数式に基づくことにより、オブジェクトの形状とメッシュの構成は一対一に対応する。また、パターンiおよびパターンiiの各メッシュを構成する各ポリゴンは、3角形状を有し、パターン毎に各頂点の関数がスライド操作距離関数として規定されている。図10の例では、ポリゴン数は設定値であり、パターン1とパターン2の各ポリゴン数は一致し、パターン1の各ポリゴンの頂点座標とパターン2の各ポリゴンの頂点座標は一対一で対応付け可能であるものを想定する。より具体的には、所定の基準点(xy座標の原点)を基準として各頂点までの頂点ベクトルU i (x i ,y i )(パターン1)およびV i (x i ,y i )(パターン2)がそれぞれ対応付けられて記憶部に格納される。そして、混合処理によって生成される混合頂点ベクトルW i (x i ,y i )は、頂点ベクトルU i ,V i ,および混合比率wに基づいて次のように規定することができる。
W i =U i ×w+V i ×(1−w)
このようにして、パターン1およびパターン2の各ポリゴンの頂点座標から、対応する混合パターンの各ポリゴンの頂点座標を算出することができる。本発明の実施の形態によれば、図7に示したように単に初期円形状のオブジェクトを引き伸ばすように弾性変形させるのみならず、複数のパターンのオブジェクトを混合することを通じて、弾性変形の態様をより多様なものとすることができる。なお、図8から図10では、簡単のために2つのオブジェクトの混合処理について例示したが、混合するオブジェクトのパターンは2つに限定されず、3つ以上でもよいことが理解されるべきである。
FIG. 10 shows a mesh configuration example corresponding to each object of FIG. As described above, the shape of the object and the configuration of the mesh are in one-to-one correspondence based on a predetermined mathematical formula. In addition, each polygon constituting the mesh of the pattern i and the pattern ii has a triangular shape, and a function of each vertex is defined as a slide operation distance function for each pattern. In the example of FIG. 10, the number of polygons is a set value, the number of polygons in pattern 1 and pattern 2 match, and the vertex coordinates of each polygon in pattern 1 and the vertex coordinates of each polygon in pattern 2 are associated one-to-one. Assume what is possible. More specifically, a vertex vector U i (x i, y i) (pattern 1) and V i (x i, y i) (pattern) up to each vertex with a predetermined reference point (the origin of the xy coordinates) as a reference. 2) are associated with each other and stored in the storage unit. The mixed vertex vector W i (x i, y i) generated by the mixing process can be defined as follows based on the vertex vectors U i, V i and the mixing ratio w.
W i = U i × w + V i × (1−w)
In this way, the vertex coordinates of each polygon of the corresponding mixed pattern can be calculated from the vertex coordinates of each polygon of pattern 1 and pattern 2. According to the embodiment of the present invention, as shown in FIG. 7, not only the initial circular object is elastically deformed so as to be stretched, but also a plurality of patterns of objects are mixed to form an elastic deformation mode. It can be more diverse. 8 to 10 exemplify the mixing process of two objects for the sake of simplicity, it should be understood that the pattern of objects to be mixed is not limited to two and may be three or more. .

(1−c)混合比率関数の適用
本実施の形態によって形成される混合オブジェクトに対し、更に、ユーザのスライド操作の距離および/または時間の関数として規定される混合比率関数を適用する。これにより、混合オブジェクトに対し、視覚的によりダイナミックな動きを持たせることができる。
(1-c) Application of Mixing Ratio Function A mixing ratio function defined as a function of the distance and / or time of the user's slide operation is further applied to the mixing object formed by the present embodiment. Thereby, it is possible to give a visually dynamic motion to the mixed object.

図11は、本実施の形態により適用される、混合比率関数の一例のグラフである。図11のグラフでは、横軸がスライド操作距離(L)、縦軸がパターンiの混合比率(W(L),ただし、0<W(L)<1)である。図示のように、スライド操作距離が0からL 0の範囲およびL 0 からL 1 の範囲では、混合比率は「1.0」、即ちパターンiが100%の混合オブジェクトで形成される。また、スライド操作距離がL 1 からL 2 の範囲では、混合比率が三角関数に基づく関数として規定される。即ち、図11の例では混合比率W(L)は、
W(L)=c×cos{(L−L 1 )/2π}
として規定される。
FIG. 11 is a graph of an example of the mixing ratio function applied according to the present embodiment. In the graph of FIG. 11, the horizontal axis represents the slide operation distance (L), and the vertical axis represents the mixing ratio of pattern i (W (L), where 0 <W (L) <1). As shown in the figure, in the range of the slide operation distance from 0 to L 0 and the range of L 0 to L 1, the mixing ratio is “1.0”, that is, the pattern i is formed of a mixed object of 100%. Further, in the range of the slide operation distance from L 1 to L 2, the mixing ratio is defined as a function based on a trigonometric function. That is, in the example of FIG. 11, the mixing ratio W (L) is
W (L) = c × cos {(L−L 1) / 2π}
Is defined as

上記数式のように、L 1 からL 2 の範囲では、混合比率は、スライド操作距離の周期関数としてコサイン・カーブを採用するのみならず、更に減衰させるのがよい。つまり、上記数式におけるcは減衰特性を示し、例えばc=t−1(0<t<1)として規定するのがよい。この例の場合、減衰特性は、スライド操作時間tの関数として規定され、スライド距離L 1 の時点をt=0として、その時点から1秒間だけ、上記混合比率W(L)の振幅を減衰させながら混合比率関数を適用するように構成することができる。   As in the above formula, in the range from L 1 to L 2, the mixing ratio should not only adopt a cosine curve as a periodic function of the slide operation distance but also be further attenuated. In other words, c in the above formula represents an attenuation characteristic, and is preferably defined as c = t−1 (0 <t <1), for example. In this example, the attenuation characteristic is defined as a function of the slide operation time t. The time of the slide distance L 1 is set to t = 0, and the amplitude of the mixing ratio W (L) is attenuated for 1 second from that time. However, the mixing ratio function can be applied.

図11の例の混合比率関数を、図8に示したパターンiおよびパターンiiの弾性オブジェクトの混合処理に適用した場合は、次の図12に示すように、スライド操作距離にしたがって混合オブジェクト(あ)〜(く)が生成される。この内、混合オブジェクト(あ)(い)は、パターンiの混合比率「1」(100%)であり、他方、混合オブジェクト(え)(か)(く)は、パターンiの混合比率「0」(0%。パターンiの混合比率100%)である。これらに対し、混合オブジェクト(う)(お)(き)は、図示のようにそれぞれ混合比率が略「0.8」(80%),「0.6」(60%),「0.4」(40%)であるため、上記の数式に基づいて2つを混合したボトル形状が形成されることが理解される。   When the mixing ratio function in the example of FIG. 11 is applied to the mixing process of the elastic objects having the pattern i and the pattern ii shown in FIG. 8, the mixed object (A ) To () are generated. Among these, the mixed object (A) (I) has the mixing ratio “1” (100%) of the pattern i, while the mixed object (E) (K) (K) has the mixing ratio “0” of the pattern i. (0%. Mixing ratio of pattern i is 100%). On the other hand, the mixed objects (U) (O) (Ki) have mixing ratios of approximately “0.8” (80%), “0.6” (60%), “0.4”, respectively, as shown in the figure. (40%), it is understood that a bottle shape is formed by mixing the two based on the above formula.

更に、図11のように、混合比率関数としてスライド操作距離の周期関数を用いることにより、図12のような混合オブジェクトの弾性変形を実施させることがきる。特に、スライド操作距離が増えるにつれ、弾性オブジェクトがぶるぶる振るえるように幅方向に振動するといったダイナミックな視覚効果を供することが可能となる。なお、当該混合比率関数は、図11や図12の例に限定されないことが理解されるべきである。例えば、周期関数以外の特性を有する混合比率関数としてもよく、また、横軸に操作時間を採用してもよい。総じて、パターンi(混合比率「1.0」)からパターンii(混合比率「0」)の弾性オブジェクトへと移行するものであれば、如何なる数学関数を適用することができる。また、パターンを3種類以上用いる場合でも、移行前のパターンおよび移行後のパターンを選択し、任意の数学関数を用いて減衰特性を有する混合比率関数を規定することができる。   Furthermore, as shown in FIG. 11, the elastic deformation of the mixed object as shown in FIG. 12 can be performed by using the periodic function of the slide operation distance as the mixing ratio function. In particular, as the slide operation distance increases, it is possible to provide a dynamic visual effect that the elastic object vibrates in the width direction so as to shake. It should be understood that the mixing ratio function is not limited to the examples of FIG. 11 and FIG. For example, it may be a mixing ratio function having characteristics other than the periodic function, and the operation time may be adopted on the horizontal axis. In general, any mathematical function can be applied as long as it shifts from the pattern i (mixing ratio “1.0”) to the elastic object of the pattern ii (mixing ratio “0”). Even when three or more types of patterns are used, a pre-transition pattern and a post-transition pattern can be selected and a mixing ratio function having an attenuation characteristic can be defined using an arbitrary mathematical function.

なお、上記の実施の形態においては、混合比率関数に用いるパラメータとして、スライド操作の距離及びスライド操作の時間を採用していたが、これ以外にも、例えば、スライド操作の加速度を採用することとしてもよい。また。これらの組み合わせからなる任意の変数を採用してもよい。   In the above embodiment, the distance of the slide operation and the time of the slide operation are employed as the parameters used for the mixing ratio function. However, other than this, for example, the acceleration of the slide operation is employed. Also good. Also. You may employ | adopt the arbitrary variables which consist of these combinations.

(2)UIプログラムの主要機能および処理フロー
図13および図14を参照して、本実施の形態によるUIプログラムで実装される主要機能のセット、および該機能に基づいて実施される処理フローについて説明する。図13の機能セットでは、図3の制御部80において、操作信号としての入力を処理し表示信号としての出力を生成する。図13に示すように、主要機能のセットは、制御部80として、タッチパネルを通じたユーザ入力操作に関連するユーザ操作部800、およびユーザ入力操作に応答してUI画像を生成するUI制御部900を含む。
(2) Main functions and processing flow of UI program Referring to FIGS. 13 and 14, a set of main functions implemented in the UI program according to the present embodiment and a processing flow executed based on the functions will be described. To do. In the function set of FIG. 13, the control unit 80 of FIG. 3 processes the input as the operation signal and generates the output as the display signal. As shown in FIG. 13, the set of main functions includes a control unit 80 including a user operation unit 800 related to a user input operation through the touch panel and a UI control unit 900 that generates a UI image in response to the user input operation. Including.

ユーザ操作部800は、タッチパネルへの物体の接触判定部820、およびタッチパネル上のスライド操作判定部840を含む。また、UI制御部900は、初期円形状を生成するための初期円形状オブジェクト形成部920、メッシュ方向を調整するためのメッシュ方向調整部940、スライド操作に連動して操作距離に基づくメッシュの組を形成するメッシュ形成部950、複数のメッシュの組を混合するメッシュ混合部970、および形成した混合ポリゴンに関する混合オブジェクトのUI画像を生成するUI画像生成出力部990を含む。   The user operation unit 800 includes an object contact determination unit 820 on the touch panel and a slide operation determination unit 840 on the touch panel. In addition, the UI control unit 900 includes an initial circular object forming unit 920 for generating an initial circular shape, a mesh direction adjusting unit 940 for adjusting the mesh direction, and a mesh set based on an operation distance in conjunction with a slide operation. A mesh forming unit 950 that forms a mesh, a mesh mixing unit 970 that mixes a plurality of mesh sets, and a UI image generation / output unit 990 that generates a UI image of a mixed object related to the formed mixed polygon.

続いて図14の処理フローに示すように、混合オブジェクトのUI画像を生成するための一連の処理において、まずステップS102で接触判定部820での物体の接触判定がされると、ステップS103で、初期円形状オブジェクト形成部920においてタッチパネル上の接触開始点の周囲に初期円形状の弾性オブジェクト、および対応するポリゴンの初期セット(初期メッシュ)を形成する(図4も参照のこと)。引き続き、ステップS104では、スライド操作判定部840においてタッチパネル上のスライド操作判定を実施する。そして、スライド操作が実施されているものと判定されると、該スライド操作に連動するように、ステップS105では、メッシュ方向調整部940においてスライド操作方向に沿うようにメッシュの向きを調整する(図7も参照のこと)と共に、メッシュ形成部950において、それぞれが複数のポリゴンを有する第1メッシュおよび第2メッシュの組を形成する。ステップS106では、メッシュ形成部950において引き続き、第1および第2メッシュを互いに対応付けて記憶部に格納する。即ち、第1および第2メッシュの組の間において、それぞれを構成するポリゴンの任意の頂点同士を互いに対応付けて頂点の組を形成する。   Subsequently, as shown in the processing flow of FIG. 14, in the series of processes for generating the UI image of the mixed object, first, when contact determination of the object is performed by the contact determination unit 820 in step S102, in step S103, The initial circular object forming unit 920 forms an initial circular elastic object and an initial set (initial mesh) of corresponding polygons around the contact start point on the touch panel (see also FIG. 4). Subsequently, in step S104, the slide operation determination unit 840 performs a slide operation determination on the touch panel. If it is determined that the slide operation is being performed, in step S105, the mesh direction adjusting unit 940 adjusts the direction of the mesh so as to follow the slide operation direction so as to be linked to the slide operation (see FIG. 7), and the mesh forming unit 950 forms a set of first and second meshes each having a plurality of polygons. In step S106, the mesh forming unit 950 continues to associate the first and second meshes with each other and stores them in the storage unit. That is, between the first and second mesh sets, arbitrary vertexes of the polygons constituting each are associated with each other to form a vertex set.

次いで、ステップS107では、メッシュ混合部970において、上記第1メッシュおよび第2メッシュの組に基づいて対応する混合メッシュを形成する。ここでは、第1メッシュおよび第2メッシュ間で対応付けられた各ポリゴンの任意の頂点の座標の組に対し、スライド操作の距離に従って規定される混合比率関数を適用して、対応する混合メッシュを構成するポリゴンの任意の頂点座標を算出する。   Next, in step S107, the mesh mixing unit 970 forms a corresponding mixed mesh based on the set of the first mesh and the second mesh. Here, the mixture ratio function defined according to the distance of the slide operation is applied to a set of coordinates of arbitrary vertices of each polygon associated between the first mesh and the second mesh, and the corresponding mixed mesh is obtained. Arbitrary vertex coordinates of the constituent polygons are calculated.

最後にステップS108では、生成した混合メッシュの全体形状に基づいて混合オブジェクトのUI画像を生成して、該UI画像を表示する。なお、ステップS104からS108までの一連の処理は、スライド操作が実施されている間、連続的に繰り返される。これにより、スライド操作の間、混合オブジェクトがダイナミックかつ柔軟な伸縮変形や振動変形を通じて弾性変形されるものとして表現できる。そして、ユーザによるスライド操作の結果、第1メッシュおよび第2メッシュの内の一方のポリゴン・セット(例えば第1メッシュ。図12のパターンi)から他方(例えば第2メッシュ。図12のパターンii)へとオブジェクト形状が移行するように形成されるものとなる。   Finally, in step S108, a UI image of the mixed object is generated based on the generated overall shape of the mixed mesh, and the UI image is displayed. Note that the series of processing from step S104 to S108 is continuously repeated while the slide operation is being performed. Accordingly, the mixed object can be expressed as being elastically deformed through dynamic and flexible expansion / contraction deformation and vibration deformation during the slide operation. As a result of the sliding operation by the user, one of the first mesh and the second mesh (for example, the first mesh; pattern i in FIG. 12) to the other (for example, the second mesh; pattern ii in FIG. 12). The object shape is formed so as to shift to the other side.

上記の実施の形態によるパターンi、パターンii、および混合パターンを各々構成するポリゴン数は同一のものとした(図10等参照)。しかしながら、ポリゴン数が異なるものであっても本発明は適用可能である。この場合、各ポリゴン・セット間においては、互いに近似する頂点座標同士を対応付ければよいことが理解される。   The number of polygons constituting each of the pattern i, the pattern ii, and the mixed pattern according to the above embodiment is the same (see FIG. 10 and the like). However, the present invention can be applied even when the number of polygons is different. In this case, it is understood that vertex coordinates that are approximate to each other may be associated with each other between the polygon sets.

また、上記の実施の形態においては、全ての頂点座標の組に対して混合比率関数が適用されていたが、一部の頂点座標の組に対してのみ混合比率関数を適用することとしてもよい。   In the above embodiment, the mixture ratio function is applied to all vertex coordinate sets. However, the mixture ratio function may be applied only to some vertex coordinate sets. .

以上、本発明の実施形態による、物体によるタッチパネルへのスライド操作に連動してUI画像を出力するUIプログラムおよびそのコンピュータ実装方法について、幾らかの例示と共に説明した。上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。

As described above, the UI program for outputting a UI image in conjunction with the slide operation on the touch panel by the object and the computer mounting method thereof according to the embodiment of the present invention have been described with some examples. The above-described embodiments are merely examples for facilitating understanding of the present invention, and are not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.

Claims (14)

タッチパネル上のスライド操作に連動してユーザ・インタフェース(UI)画像を前記タッチパネルに出力するUIプログラムであって、
それぞれが複数のポリゴンを有する複数のメッシュを互いに対応付けてメッシュの組を形成する形成部と、
前記メッシュの組に基づいて混合メッシュを形成する混合部と、
前記混合メッシュの形状に基づいてUI画像を生成し表示する出力部と
として前記タッチパネルを具備するコンピュータに機能させる、UIプログラム。
A UI program that outputs a user interface (UI) image to the touch panel in conjunction with a slide operation on the touch panel,
A forming unit that forms a set of meshes by associating a plurality of meshes each having a plurality of polygons;
A mixing unit that forms a mixed mesh based on the set of meshes;
A UI program that causes a computer including the touch panel to function as an output unit that generates and displays a UI image based on the shape of the mixed mesh.
請求項1の記載のUIプログラムにおいて、
前記形成部が、前記複数のメッシュの組の間において、前記ポリゴンの任意の頂点同士を互いに対応付けて頂点の組を形成し、
前記混合部が、前記頂点の組に対し、所定の混合比率関数に基づいて、前記混合メッシュにおける前記ポリゴンの対応する任意の頂点を決定する、UIプログラム。
The UI program according to claim 1,
The forming unit forms a set of vertices by associating arbitrary vertices of the polygon with each other between the plurality of mesh sets;
The UI program in which the mixing unit determines an arbitrary vertex corresponding to the polygon in the mixed mesh based on a predetermined mixing ratio function for the set of vertices.
前記混合比率関数が前記スライド操作の距離に従って規定される、請求項2記載のUIプログラム。   The UI program according to claim 2, wherein the mixing ratio function is defined according to the distance of the slide operation. 前記混合比率関数が更に前記スライド操作の時間に従って規定される、請求項2または3記載のUIプログラム。   The UI program according to claim 2 or 3, wherein the mixing ratio function is further defined according to a time of the slide operation. 前記混合比率関数が前記距離の周期関数を含む、請求項2から4のいずれか一項記載のUIプログラム。   The UI program according to claim 2, wherein the mixing ratio function includes a periodic function of the distance. 前記周期関数が減衰特性を有する、請求項5記載のUIプログラム。   The UI program according to claim 5, wherein the periodic function has an attenuation characteristic. 前記減衰特性が前記スライド操作の時間に基づいて規定される、請求項6記載のUIプ
ログラム。
The UI program according to claim 6, wherein the attenuation characteristic is defined based on a time of the slide operation.
前記複数のメッシュが、第1メッシュおよび第2メッシュからなり、
前記形成される混合メッシュが、前記スライド操作に連動して、前記第1および第2メッシュの内の一方から他方へと移行するように形成される、請求項1から7のいずれか一項記載のUIプログラム。
The plurality of meshes include a first mesh and a second mesh,
The mixed mesh formed is formed so as to shift from one of the first and second meshes to the other in conjunction with the sliding operation. UI program.
タッチパネル上のスライド操作に連動してユーザ・インタフェース(UI)画像を出力するコンピュータ実装方法であって、前記タッチパネル上で、
それぞれが複数のポリゴンを有する複数のメッシュを互いに対応付けてメッシュの組を形成するステップと、
前記メッシュの組に基づいて混合メッシュを形成するステップと、
前記混合メッシュの形状に基づいてUI画像を生成するステップと、
前記生成したUI画像を表示するステップと
を含む、コンピュータ実装方法。
A computer-implemented method for outputting a user interface (UI) image in conjunction with a slide operation on a touch panel,
Associating a plurality of meshes each having a plurality of polygons with each other to form a set of meshes;
Forming a mixed mesh based on the set of meshes;
Generating a UI image based on the shape of the mixed mesh;
And displaying the generated UI image.
請求項9の記載のコンピュータ実装方法において、
前記メッシュの組を形成する前記ステップが、前記複数のメッシュの組の間において、前記ポリゴンの任意の頂点同士を互いに対応付けて頂点の組を形成するステップを含み、
前記混合メッシュを形成する前記ステップが、前記頂点の組に対し、所定の混合比率関数に基づいて、前記混合メッシュにおける前記ポリゴンの対応する任意の頂点を決定するステップを含む、コンピュータ実装方法。
The computer-implemented method of claim 9, wherein
The step of forming the mesh set includes the step of forming a vertex set by associating arbitrary vertices of the polygon with each other between the plurality of mesh sets;
The computer-implemented method, wherein the step of forming the mixed mesh comprises determining any corresponding vertex of the polygon in the mixed mesh based on a predetermined mixing ratio function for the vertex set.
前記混合比率関数が前記スライド操作の距離および/または時間に従って規定される、請求項10記載のコンピュータ実装方法。   The computer-implemented method of claim 10, wherein the mixing ratio function is defined according to a distance and / or time of the slide operation. 前記混合比率関数が、減衰特性を有する前記距離の周期関数を含む、請求項10または11記載のコンピュータ実装方法。   The computer-implemented method according to claim 10 or 11, wherein the mixing ratio function includes a periodic function of the distance having an attenuation characteristic. 前記減衰特性が前記スライド操作の時間に基づいて規定される、請求項12記載のコンピュータ実装方法。   The computer-implemented method of claim 12, wherein the attenuation characteristic is defined based on a time of the slide operation. 前記複数のメッシュが、第1メッシュおよび第2メッシュからなり、
前記形成される混合メッシュが、前記スライド操作に連動して、前記第1および第2メッシュの内の一方から他方へと移行するように形成される、請求項9から13のいずれか一項記載のコンピュータ実装方法。

The plurality of meshes include a first mesh and a second mesh,
The mixed mesh formed is formed so as to shift from one of the first and second meshes to the other in conjunction with the sliding operation. Computer implementation method.

JP2015223402A 2015-11-13 2015-11-13 User interface program and computer implementation method Pending JP2017016622A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015223402A JP2017016622A (en) 2015-11-13 2015-11-13 User interface program and computer implementation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015223402A JP2017016622A (en) 2015-11-13 2015-11-13 User interface program and computer implementation method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015131061A Division JP5856343B1 (en) 2015-06-30 2015-06-30 User interface program and computer mounting method

Publications (1)

Publication Number Publication Date
JP2017016622A true JP2017016622A (en) 2017-01-19

Family

ID=57830961

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015223402A Pending JP2017016622A (en) 2015-11-13 2015-11-13 User interface program and computer implementation method

Country Status (1)

Country Link
JP (1) JP2017016622A (en)

Similar Documents

Publication Publication Date Title
JP6697120B2 (en) User interface program and game program
JP5865535B1 (en) User interface program
CN103488413B (en) Touch control device and show control method and the device at 3D interface on touch control device
JP2014182638A (en) Display control unit, display control method and computer program
JP5771329B2 (en) Method and apparatus for generating dynamic wallpaper
US9478070B2 (en) Coordinate information updating device
JP2015225397A (en) User interface program
CN111684402A (en) Haptic effects on touch input surfaces
JP2012043248A (en) Operation input device, program and method
JP6174646B2 (en) Computer program for 3-axis operation of objects in virtual space
JP5856343B1 (en) User interface program and computer mounting method
JP2017016622A (en) User interface program and computer implementation method
JP5768787B2 (en) Graph display control device and graph display control program
JP6000482B1 (en) User interface image display method and program
JP2016202875A (en) User interface program
JP6091908B2 (en) Terminal device and display program
TWI537812B (en) Method and system for selecting objects
JP2017142770A (en) User interface image display method and program
JP2017055825A (en) Method for proceeding game by touch input, interface program and terminal