JP6863918B2 - Control programs, control methods and information processing equipment - Google Patents

Control programs, control methods and information processing equipment Download PDF

Info

Publication number
JP6863918B2
JP6863918B2 JP2018050572A JP2018050572A JP6863918B2 JP 6863918 B2 JP6863918 B2 JP 6863918B2 JP 2018050572 A JP2018050572 A JP 2018050572A JP 2018050572 A JP2018050572 A JP 2018050572A JP 6863918 B2 JP6863918 B2 JP 6863918B2
Authority
JP
Japan
Prior art keywords
coordinate
touch
control unit
locus
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018050572A
Other languages
Japanese (ja)
Other versions
JP2018092681A (en
Inventor
浜田 和明
和明 浜田
基準 韓
基準 韓
中村 茂樹
茂樹 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2018050572A priority Critical patent/JP6863918B2/en
Publication of JP2018092681A publication Critical patent/JP2018092681A/en
Application granted granted Critical
Publication of JP6863918B2 publication Critical patent/JP6863918B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、描画を支援するための制御プログラム、制御方法及び情報処理装置に関する。 The present invention relates to a control program, a control method, and an information processing device for supporting drawing.

タブレット端末等のコンピュータ端末では、タッチパネルディスプレイにおいて各種操作を行なう。このようなタッチパネルディスプレイを用いることにより、直感的な操作が可能となる。そこで、タッチパネル式の表示部を備える携帯端末装置でタッチパネル全面のタッチ操作を実現する技術が開示されている(例えば、特許文献1)。この文献に記載された技術では、端末の傾きの変化を検出し、傾きの方向を判定し、判定した内容に基づき、タッチパネルでの操作を伴う操作子を含んだ画面の表示位置を移動させ、操作子に対する操作を受け付ける。 In a computer terminal such as a tablet terminal, various operations are performed on the touch panel display. By using such a touch panel display, intuitive operation becomes possible. Therefore, a technique for realizing a touch operation on the entire surface of a touch panel with a mobile terminal device including a touch panel type display unit is disclosed (for example, Patent Document 1). In the technique described in this document, a change in the tilt of the terminal is detected, the direction of the tilt is determined, and the display position of the screen including the operator accompanied by the operation on the touch panel is moved based on the determined content. Accepts operations on controls.

また、タッチ操作により描画像を生成する技術も検討されている(例えば、特許文献2)。この文献記載のタッチ操作入力装置は、表示画面に対してタッチ操作により入力を可能とするものであり、タッチ操作を検出するタッチ操作検出部と、タッチ操作検出部の検出結果により操作内容を判定して処理を行なう操作処理部とを備える。操作処理の判定結果により、メニューの表示処理とメニュー項目の処理や、描画モードの場合、タッチ部分に描画像を生成する処理を実行する。そして、タッチ操作をメニュー処理の操作と判定した場合、画像処理部は、描画モードであっても、タッチ操作による描画像を消去する。 Further, a technique for generating a drawn image by a touch operation has also been studied (for example, Patent Document 2). The touch operation input device described in this document enables input by touch operation on the display screen, and determines the operation content based on the touch operation detection unit that detects the touch operation and the detection result of the touch operation detection unit. It is provided with an operation processing unit that performs processing. Depending on the judgment result of the operation process, the menu display process and the menu item process, and in the drawing mode, the process of generating the drawn image in the touch portion are executed. Then, when the touch operation is determined to be the operation of the menu processing, the image processing unit erases the drawn image by the touch operation even in the drawing mode.

特開2014−149653号公報Japanese Unexamined Patent Publication No. 2014-149655 特開2015−207040号公報JP-A-2015-207040

しかしながら、タッチパネルディスプレイにおいて、指等によるタッチ操作を行なう場合、的確な操作が困難なことがある。例えば、指先の大きさに対して、タッチパネルディスプレイが比較的小さく、表示領域も小さい場合、タッチパネルディスプレイ上の表示が指に隠れ、的確な操作が難しい。タッチパネルディスプレイに表示された画像を拡大して操作することも可能であるが、画像の拡大には手間がかかり、効率的な操作を実現することができない。 However, in the touch panel display, when performing a touch operation with a finger or the like, it may be difficult to perform an accurate operation. For example, when the touch panel display is relatively small with respect to the size of the fingertip and the display area is also small, the display on the touch panel display is hidden by the finger, making accurate operation difficult. It is possible to magnify and operate the image displayed on the touch panel display, but it takes time and effort to magnify the image, and efficient operation cannot be realized.

本発明は、上記問題点を解決するためになされたものであり、効率的かつ的確な描画を支援するための制御プログラム、制御方法及び情報処理装置を提供することにある。 The present invention has been made to solve the above problems, and an object of the present invention is to provide a control program, a control method, and an information processing device for supporting efficient and accurate drawing.

・上記課題を解決する制御プログラムは、制御部と入力操作が可能な表示部とを備えた情報処理装置を制御するプログラムであって、前記制御部に、前記表示部での入力位置に応じた第1座標を取得し、前記第1座標に位置する第1オブジェクトを特定し、前記第1座標を特定するための入力操作が解除された後に入力された第2座標からの軌跡に応じて前記第1オブジェクトから描画された第2オブジェクトを生成する。 A control program that solves the above problems is a program that controls an information processing device including a control unit and a display unit capable of input operation, and the control unit responds to an input position on the display unit. The first coordinate is acquired, the first object located at the first coordinate is specified, and the input operation for specifying the first coordinate is canceled, and then the locus from the second coordinate is input. Generate the second object drawn from the first object.

・上記制御プログラムにおいては、前記表示部に表示されたオブジェクトの操作を検知した場合、前記第1座標に対応する第1オブジェクトを特定し、前記第1座標を特定するための入力操作が解除された後に入力された第2座標からの軌跡に応じて前記第1オブジェクトの操作を行うことが好ましい。 -In the control program, when the operation of the object displayed on the display unit is detected, the first object corresponding to the first coordinate is specified, and the input operation for specifying the first coordinate is released. It is preferable to operate the first object according to the locus from the second coordinate input after the operation.

・上記制御プログラムにおいては、前記表示部に表示されたオブジェクトの消去指示を検知した場合、前記表示部での入力位置に応じた第1座標を取得し、前記第1座標を特定するための入力操作が解除された後に入力された第2座標からの軌跡に応じて前記第1座標から前記オブジェクトの消去を行なうことが好ましい。 -In the control program, when the deletion instruction of the object displayed on the display unit is detected, the first coordinate corresponding to the input position on the display unit is acquired, and the input for specifying the first coordinate is performed. It is preferable to delete the object from the first coordinate according to the locus from the second coordinate input after the operation is released.

・上記制御プログラムにおいては、前記表示部に表示されたオブジェクトの選択を検知した場合、オブジェクトの配置位置を特定し、前記第1座標を特定するための入力操作が解除された後に入力された第2座標からの軌跡に応じて、前記オブジェクトの配置を決定することが好ましい。 -In the control program, when the selection of the object displayed on the display unit is detected, the position of the object is specified, and the input operation for specifying the first coordinate is canceled, and then the input is input. It is preferable to determine the arrangement of the object according to the locus from the two coordinates.

・上記制御プログラムにおいては、前記オブジェクトの配置に対して、複数の操作エリアが設定されており、各操作エリアの選択に応じて、前記オブジェクトに対して異なる操作を実行することが好ましい。 -In the control program, a plurality of operation areas are set for the arrangement of the objects, and it is preferable to execute different operations on the objects according to the selection of each operation area.

・上記制御プログラムにおいては、前記オブジェクト内の基準位置に対して、前記第2座標からの軌跡の広がり角度を算出し、前記広がり角度に基づいて、前記オブジェクトの回転操作を実行することが好ましい。 -In the control program, it is preferable to calculate the spread angle of the locus from the second coordinate with respect to the reference position in the object, and execute the rotation operation of the object based on the spread angle.

・上記制御プログラムにおいては、前記表示部において操作された操作位置のオブジェクトの属性を特定し、属性表示領域に表示し、操作オフの検知時に、前記属性を描画時の属性として設定することが好ましい。 -In the control program, it is preferable to specify the attribute of the object at the operation position operated by the display unit, display it in the attribute display area, and set the attribute as an attribute at the time of drawing when the operation off is detected. ..

・上記制御プログラムにおいては、前記操作位置の周囲に属性候補を出力し、操作オフの方向に応じて、前記属性候補の中から描画時に用いる属性を決定することが好ましい。
・上記制御プログラムにおいては、始点と終点とが設定されたオブジェクトが選択された場合、前記表示部の操作位置に前記始点を設定し、スライド操作された操作位置に前記終点を設定して、前記オブジェクトを前記表示部に出力し、操作オフ時に前記オブジェクトの形状を決定することが好ましい。
・上記制御プログラムにおいては、前記第1座標及び前記第2座標に基づき、前記第2座標からの軌跡を前記第2オブジェクトに補正するための補正ベクトルを算出し、前記補正ベクトルを、前記入力位置の面積に応じて変更することが好ましい。
・上記制御プログラムにおいては、前記第1座標及び前記第2座標に基づき、前記第2座標からの軌跡を前記第2オブジェクトに補正するための補正ベクトルを算出し、前記補正ベクトルを、前記第2座標からの軌跡の修正履歴に基づき変更することが好ましい。
-In the control program, it is preferable to output attribute candidates around the operation position and determine the attribute to be used at the time of drawing from the attribute candidates according to the operation off direction.
-In the above control program, when an object in which a start point and an end point are set is selected, the start point is set at the operation position of the display unit, the end point is set at the operation position where the slide operation is performed, and the operation position is set. It is preferable to output the object to the display unit and determine the shape of the object when the operation is off.
-In the control program, a correction vector for correcting the locus from the second coordinate to the second object is calculated based on the first coordinate and the second coordinate, and the correction vector is used as the input position. It is preferable to change it according to the area of.
-In the control program, a correction vector for correcting the locus from the second coordinate to the second object is calculated based on the first coordinate and the second coordinate, and the correction vector is used as the second. It is preferable to change the trajectory based on the correction history of the trajectory from the coordinates.

本発明によれば、コンピュータ端末において、効率的かつ的確な描画を支援することができる。 According to the present invention, it is possible to support efficient and accurate drawing in a computer terminal.

第1の実施形態の描画処理装置の機能ブロックの説明図。The explanatory view of the functional block of the drawing processing apparatus of 1st Embodiment. 描画処理装置のハードウェア構成例の説明図。Explanatory drawing of the hardware configuration example of a drawing processing apparatus. 第1の実施形態におけるタッチパネルディスプレイの表示画面の説明図。The explanatory view of the display screen of the touch panel display in 1st Embodiment. 第1の実施形態における処理手順の説明図。The explanatory view of the processing procedure in 1st Embodiment. 第1の実施形態におけるタッチパネルディスプレイの表示画面の説明図。The explanatory view of the display screen of the touch panel display in 1st Embodiment. 第1の実施形態におけるタッチパネルディスプレイの表示画面の説明図。The explanatory view of the display screen of the touch panel display in 1st Embodiment. 第2の実施形態における操作エリアの説明図。Explanatory drawing of the operation area in 2nd Embodiment. 第2の実施形態における処理手順の説明図。The explanatory view of the processing procedure in 2nd Embodiment. 第2の実施形態におけるタッチパネルディスプレイの表示画面の説明図。The explanatory view of the display screen of the touch panel display in 2nd Embodiment. 第2の実施形態におけるタッチパネルディスプレイの表示画面の説明図。The explanatory view of the display screen of the touch panel display in 2nd Embodiment. 第2の実施形態におけるタッチパネルディスプレイの表示画面の説明図。The explanatory view of the display screen of the touch panel display in 2nd Embodiment. 第2の実施形態におけるタッチパネルディスプレイの表示画面の説明図。The explanatory view of the display screen of the touch panel display in 2nd Embodiment. 第3の実施形態における処理手順の説明図。The explanatory view of the processing procedure in 3rd Embodiment. 第4の実施形態における処理手順の説明図。The explanatory view of the processing procedure in 4th Embodiment. 第5の実施形態における処理手順の説明図。The explanatory view of the processing procedure in 5th Embodiment.

(第1の実施形態)
以下、図1〜図6に従って、本発明を具体化した描画処理装置の第1の実施形態を説明する。本実施形態では、ユーザ端末10に表示された画面において描画を行なう場合を説明する。
(First Embodiment)
Hereinafter, the first embodiment of the drawing processing apparatus embodying the present invention will be described with reference to FIGS. 1 to 6. In the present embodiment, a case where drawing is performed on the screen displayed on the user terminal 10 will be described.

ユーザ端末10は、利用者が用いるコンピュータ端末(描画処理装置)であって、各種アプリケーションを実行させることにより、情報の出力や入力に用いられる。
図1に示すように、本実施形態では、このユーザ端末10は、制御部11、メモリ12、通信部13、タッチパネルディスプレイ14を備えている。
The user terminal 10 is a computer terminal (drawing processing device) used by the user, and is used for outputting and inputting information by executing various applications.
As shown in FIG. 1, in the present embodiment, the user terminal 10 includes a control unit 11, a memory 12, a communication unit 13, and a touch panel display 14.

制御部11は、後述する処理(表示制御段階、タッチ制御段階、アプリケーション実行段階、描画処理段階、SNS処理段階等の各処理等)を行なう。そして、制御部11は、図1に示すように、表示制御部111、タッチ制御部112、アプリケーション実行部113として機能するとともに、アプリケーションプログラムを実行することにより、描画処理部114、SNS処理部115として機能する。 The control unit 11 performs processing described later (each processing such as a display control stage, a touch control stage, an application execution stage, a drawing processing stage, and an SNS processing stage). Then, as shown in FIG. 1, the control unit 11 functions as a display control unit 111, a touch control unit 112, and an application execution unit 113, and by executing an application program, the drawing processing unit 114 and the SNS processing unit 115 Functions as.

表示制御部111は、タッチパネルディスプレイ14における表示を制御する処理を実行する。具体的には、タッチパネルディスプレイ14に出力された表示画面の階層(表示レイヤ)を制御する。本実施形態では、描画を行なう描画レイヤと、この描画レイヤと位置を同期され、カーソルや図形の枠線を表示する操作レイヤとを含む。 The display control unit 111 executes a process of controlling the display on the touch panel display 14. Specifically, the hierarchy (display layer) of the display screen output to the touch panel display 14 is controlled. In the present embodiment, a drawing layer for drawing and an operation layer whose position is synchronized with the drawing layer to display a cursor or a border of a figure are included.

タッチ制御部112は、タッチパネルディスプレイ14におけるタッチを検知する処理を実行する。
アプリケーション実行部113は、ユーザ端末10に格納されたアプリケーション(例えば、情報共有、ソーシャルネットワークサービス等)のアプリケーション起動、実行等の管理を行なう。
The touch control unit 112 executes a process of detecting a touch on the touch panel display 14.
The application execution unit 113 manages application startup, execution, and the like of an application (for example, information sharing, social network service, etc.) stored in the user terminal 10.

描画処理部114は、タッチパネルディスプレイ14における線画や図形の描画を制御する処理を実行する。描画処理部114は、上述した描画レイヤにおいて画面を出力する。本実施形態では、描画レイヤには、HTML5のcanvas要素の「Canvas API」を利用し、操作レイヤには、HTMLのDOM(Document Object Model)を利用する。これにより、描画レイヤにおける処理負担を軽減することができる。そして、操作レイヤでのカーソルの位置情報の更新は、高い頻度で行なうが、描画レイヤでの図形の更新は、新しいオブジェクトが追加されたとき等、頻度を低くして、処理負荷を軽減する。
SNS処理部115は、ソーシャルネットワークサービス(SNS)を利用する処理を実行する。ここでは、ユーザ端末10(描画処理装置)と、通信可能なサーバ装置(図示せず)が生成したデータに基づいて、ユーザ端末10のタッチパネルディスプレイ14に画面を表示させるウェブ表示を行なう。
The drawing processing unit 114 executes a process of controlling the drawing of a line art or a figure on the touch panel display 14. The drawing processing unit 114 outputs a screen in the drawing layer described above. In this embodiment, the HTML5 canvas element “Canvas API” is used as the drawing layer, and the HTML DOM (Document Object Model) is used as the operation layer. As a result, the processing load on the drawing layer can be reduced. Then, the position information of the cursor in the operation layer is updated with high frequency, but the update of the figure in the drawing layer is performed less frequently, such as when a new object is added, to reduce the processing load.
The SNS processing unit 115 executes a process using a social network service (SNS). Here, based on the data generated by the user terminal 10 (drawing processing device) and the communicable server device (not shown), a web display is performed so that the screen is displayed on the touch panel display 14 of the user terminal 10.

メモリ12には、タッチパネルディスプレイ14において描画に用いる情報を記録する。例えば、タッチパネルディスプレイ14において検知したスライド軌跡や、このスライド軌跡により生成された図形(オブジェクト)を仮記憶する。例えば、操作レイヤでのカーソルの位置情報を更新したり、描画の一時保存が指示された場合や、描画処理プログラムが停止した場合には、描画レイヤで生成されたオブジェクトを更新したりする。 Information used for drawing on the touch panel display 14 is recorded in the memory 12. For example, the slide locus detected on the touch panel display 14 and the figure (object) generated by the slide locus are temporarily stored. For example, when the position information of the cursor in the operation layer is updated, when the drawing is instructed to be temporarily saved, or when the drawing processing program is stopped, the object generated in the drawing layer is updated.

通信部13は、ネットワークを介して、サーバ装置や他のユーザ端末と通信を行なう。
タッチパネルディスプレイ14は、表示手段及び入力手段として機能する。具体的には、パネル上に情報を出力するとともに、パネル表面に触れる(タッチする)ことにより、タッチされた画面位置の情報を感知して各種操作(例えば、タップ、スライド、スワイプ、フリック等)を行なうことができる。
The communication unit 13 communicates with the server device and other user terminals via the network.
The touch panel display 14 functions as a display means and an input means. Specifically, by outputting information on the panel and touching (touching) the panel surface, various operations (for example, tap, slide, swipe, flick, etc.) are detected by detecting the touched screen position information. Can be done.

(ハードウェア構成例)
図2は、ユーザ端末10のハードウェア構成例である。
ユーザ端末10は、通信インターフェースH11、入力装置H12、表示装置H13、記憶部H14、プロセッサH15を有する。なお、このハードウェア構成は一例であり、他のハードウェアを有していてもよい。
(Hardware configuration example)
FIG. 2 is an example of the hardware configuration of the user terminal 10.
The user terminal 10 has a communication interface H11, an input device H12, a display device H13, a storage unit H14, and a processor H15. Note that this hardware configuration is an example, and other hardware may be included.

通信インターフェースH11は、他の装置との間で通信経路を確立して、データの送受信を実行するインターフェースであり、通信部13を実現する。例えばネットワークインターフェースカードや無線インターフェース等である。 The communication interface H11 is an interface that establishes a communication path with another device and executes data transmission / reception, and realizes the communication unit 13. For example, a network interface card or a wireless interface.

入力装置H12は、ユーザ等からの入力を受け付ける装置である。表示装置H13は、各種情報を表示するディスプレイ等である。本実施形態では、入力装置H12、表示装置H13として、タッチパネルディスプレイ14を用いる。 The input device H12 is a device that receives input from a user or the like. The display device H13 is a display or the like that displays various information. In the present embodiment, the touch panel display 14 is used as the input device H12 and the display device H13.

記憶部H14は、ユーザ端末10の各種機能を実行するためのデータや各種プログラムを格納する記憶装置であり、メモリ12を実現する。記憶部H14の一例としては、ROM、RAM、ハードディスク等がある。 The storage unit H14 is a storage device that stores data and various programs for executing various functions of the user terminal 10, and realizes the memory 12. An example of the storage unit H14 is a ROM, a RAM, a hard disk, or the like.

プロセッサH15は、記憶部H14に記憶されるプログラムやデータを用いて、ユーザ端末10における各処理を制御する制御部11を実現する。プロセッサH15の一例としては、例えばCPUやMPU等がある。このプロセッサH15は、ROM等に記憶されるプログラムをRAMに展開して、各種処理に対応する各種プロセスを実行する。 The processor H15 realizes a control unit 11 that controls each process in the user terminal 10 by using a program or data stored in the storage unit H14. Examples of the processor H15 include a CPU, an MPU, and the like. The processor H15 expands a program stored in a ROM or the like into a RAM and executes various processes corresponding to various processes.

(ユーザ端末10における動作)
次に、図3〜図6を用いて、このユーザ端末10における動作を説明する。所定のアプリケーションにおいて、ユーザが描画を行なう場合には、ユーザ端末10のタッチパネルディスプレイ14を用いて、描画機能を指示する。
(Operation in user terminal 10)
Next, the operation in the user terminal 10 will be described with reference to FIGS. 3 to 6. In a predetermined application, when the user draws, the touch panel display 14 of the user terminal 10 is used to instruct the drawing function.

この場合、図3に示すように、制御部11のアプリケーション実行部113は、描画処理部114、SNS処理部115を起動し、タッチパネルディスプレイ14に表示画面200を出力する。この表示画面200には、ツールメニュー210、描画エリア220が表示される。 In this case, as shown in FIG. 3, the application execution unit 113 of the control unit 11 activates the drawing processing unit 114 and the SNS processing unit 115, and outputs the display screen 200 to the touch panel display 14. The tool menu 210 and the drawing area 220 are displayed on the display screen 200.

ツールメニュー210には、描画ボタン211、消しゴムボタン212、図形ボタン213、テキストボタン214、カメラボタン215、アシストボタン216等が表示される。 In the tool menu 210, a drawing button 211, an eraser button 212, a graphic button 213, a text button 214, a camera button 215, an assist button 216, and the like are displayed.

描画ボタン211は、描画エリア220での線画の描画に用いる線種(描画ツール)を選択するためのツール画面を表示する場合に用いる。
消しゴムボタン212は、描画エリア220に表示された線画や図形を部分的に消去するための消しゴムツールを表示する場合に用いる。
The drawing button 211 is used when displaying a tool screen for selecting a line type (drawing tool) used for drawing a line art in the drawing area 220.
The eraser button 212 is used when displaying an eraser tool for partially erasing a line art or a figure displayed in the drawing area 220.

図形ボタン213は、描画エリア220に、予め準備された図形(例えば、正方形、円形、矢印、ハート型等)を配置するための図形ツールを表示する場合に用いる。
テキストボタン214は、描画エリア220に、テキスト入力を行なうためのソフトウェアキーボードを表示する場合に用いる。
The figure button 213 is used when displaying a figure tool for arranging a figure (for example, a square, a circle, an arrow, a heart shape, etc.) prepared in advance in the drawing area 220.
The text button 214 is used when displaying a software keyboard for inputting text in the drawing area 220.

カメラボタン215は、描画エリア220に、カメラにより撮影された画像等を表示する場合に用いる。
アシストボタン216は、描画エリア220における描画を支援するための機能を実行するためのボタンである。このアシストボタン216を選択することにより、各種アシスト機能の一覧がプルダウンされる。本実施形態では、アシスト機能には、「ポインターモード」、「拡大・縮小モード」、「一時保存」、「一時保存呼び出し」、「ヘルプ」等の機能が含まれる。
The camera button 215 is used when displaying an image or the like taken by the camera in the drawing area 220.
The assist button 216 is a button for executing a function for supporting drawing in the drawing area 220. By selecting the assist button 216, a list of various assist functions is pulled down. In the present embodiment, the assist function includes functions such as "pointer mode", "enlargement / reduction mode", "temporary save", "temporary save call", and "help".

「ポインターモード」は、後述するように、描画位置に対して離れた操作位置での描画を支援する機能である。
「拡大・縮小モード」は、描画エリア220の拡大、縮小を行なう機能である。
「一時保存」は、描画エリア220における描画内容をメモリ12に一時的に保存する機能であり、「一時保存呼び出し」は、メモリに一時的に保存された描画内容を描画エリア220に呼び出す機能である。
「ヘルプ」は、ツールメニュー210に表示された各ボタン等の説明を、吹き出しアイコンにより出力する機能である。
The "pointer mode" is a function that supports drawing at an operation position that is far from the drawing position, as will be described later.
The "enlargement / reduction mode" is a function for enlarging / reducing the drawing area 220.
"Temporary save" is a function to temporarily save the drawing contents in the drawing area 220 to the memory 12, and "temporary save call" is a function to recall the drawing contents temporarily saved in the memory to the drawing area 220. is there.
"Help" is a function that outputs a description of each button or the like displayed on the tool menu 210 by a balloon icon.

(ポインターモード処理)
以下、図4を用いて、アシストボタン216を用いて「ポインターモード」を指定した場合のポインターモード処理を説明する。このポインターモード処理においては、例えば、描画ツールを用いて線画を描く場合、描画を行なう領域とは離れた位置におけるスライド操作により、線画を描くことができる。
(Pointer mode processing)
Hereinafter, the pointer mode processing when the “pointer mode” is specified by using the assist button 216 will be described with reference to FIG. In this pointer mode processing, for example, when drawing a line art using a drawing tool, the line art can be drawn by a slide operation at a position away from the drawing area.

まず、ユーザ端末10の制御部11は、描画ツールの指定処理を実行する(ステップS1−1)。具体的には、ツールメニュー210において、描画ボタン211を選択する。この場合、制御部11の描画処理部114は、タッチパネルディスプレイ14にツール画面を出力する。このツール画面においては、線画を描くための線種(配色、太さ、透明度、縁つき等)の選択画面が含まれる。 First, the control unit 11 of the user terminal 10 executes a drawing tool designation process (step S1-1). Specifically, in the tool menu 210, the drawing button 211 is selected. In this case, the drawing processing unit 114 of the control unit 11 outputs the tool screen to the touch panel display 14. This tool screen includes a screen for selecting a line type (color scheme, thickness, transparency, edging, etc.) for drawing a line art.

次に、ユーザ端末10の制御部11は、描画開始位置の設定処理を実行する(ステップS1−2)。具体的には、線画を描く場合、描画エリア220において、線画の描画開始位置を、タッチパネルディスプレイ14上をタッチしてすぐに離す「タップ」を行なう。この場合、制御部11のタッチ制御部112は、描画エリア220においてタップ位置(座標)を特定する。そして、描画処理部114は、タップ位置に線画を描くためのポインタ(カーソル)を配置する。 Next, the control unit 11 of the user terminal 10 executes the drawing start position setting process (step S1-2). Specifically, when drawing a line art, a "tap" is performed in the drawing area 220 to immediately release the line art drawing start position by touching the touch panel display 14. In this case, the touch control unit 112 of the control unit 11 specifies the tap position (coordinates) in the drawing area 220. Then, the drawing processing unit 114 arranges a pointer (cursor) for drawing a line art at the tap position.

図3に示すように、描画エリア220において、タップを検知した場合、描画処理部114は、ポインタ230を表示する。後述するように、このポインタ230は、ペンとして機能し、ポインタ230を移動させることにより線画を描くことができる。 As shown in FIG. 3, when a tap is detected in the drawing area 220, the drawing processing unit 114 displays the pointer 230. As will be described later, the pointer 230 functions as a pen, and a line art can be drawn by moving the pointer 230.

次に、ユーザ端末10の制御部11は、操作開始位置の設定処理を実行する(ステップS1−3)。具体的には、配置されたポインタを用いて、線画を描く場合、描画エリア220において、再度、任意の位置をタッチする。ここでは、描画開始位置と異なる位置をタッチすることができる。この場合、制御部11の描画処理部114は、再度タッチされた位置を操作開始位置として設定する。
ここで、描画エリア220の座標を(x,y)で表現した場合、操作開始位置の座標(x2,y2)から描画開始位置の座標(x1,y1)への補正ベクトル(x3,y3)〔=(x1−x2,y1−y2)〕を算出する。
Next, the control unit 11 of the user terminal 10 executes the operation start position setting process (step S1-3). Specifically, when drawing a line art using the arranged pointer, the arbitrary position is touched again in the drawing area 220. Here, you can touch a position different from the drawing start position. In this case, the drawing processing unit 114 of the control unit 11 sets the position touched again as the operation start position.
Here, when the coordinates of the drawing area 220 are expressed by (x, y), the correction vector (x3, y3) from the coordinates of the operation start position (x2, y2) to the coordinates of the drawing start position (x1, y1) [ = (X1-x2, y1-y2)] is calculated.

次に、ユーザ端末10の制御部11は、タッチオフかどうかについての判定処理を実行する(ステップS1−4)。具体的には、線画を描く場合には、操作レイヤにおいて、タッチを継続しながら、タッチ位置を移動させるスライドを行なう。制御部11のタッチ制御部112は、タッチ位置のスライドを検知しながら、タッチパネルディスプレイ14からのタッチの離脱(タッチオフ)を待機する。
この場合、新たなスライド位置の座標(xi,yi)について、補正ベクトル(x3,y3)を用いて、ポインタ位置(xi+x3,yi+y3)を算出して、このポインタ位置で描画を行なう。
Next, the control unit 11 of the user terminal 10 executes a determination process as to whether or not it is touch-off (step S1-4). Specifically, when drawing a line art, a slide for moving the touch position is performed while continuing the touch in the operation layer. The touch control unit 112 of the control unit 11 waits for the touch release (touch off) from the touch panel display 14 while detecting the slide at the touch position.
In this case, for the coordinates (xi, yi) of the new slide position, the pointer position (xi + x3, yi + y3) is calculated using the correction vector (x3, y3), and drawing is performed at this pointer position.

タッチオフでないと判定した場合(ステップS1−4において「NO」の場合)、ユーザ端末10の制御部11は、スライド軌跡に応じた描画処理を実行する(ステップS1−5)。具体的には、制御部11のタッチ制御部112は、操作開始位置を始点とするスライド軌跡と同様に、ポインタを移動させる。この場合、タッチ位置(座標)と描画を行なうポインタ位置(座標)は、操作開始位置(座標)と描画開始位置(座標)との相対位置関係を保持する。その結果、描画処理部114は、描画開始位置から、スライド軌跡と同じ線画を描画エリア220に表示する。 When it is determined that the touch-off is not performed (when “NO” in step S1-4), the control unit 11 of the user terminal 10 executes drawing processing according to the slide locus (step S1-5). Specifically, the touch control unit 112 of the control unit 11 moves the pointer in the same manner as the slide locus starting from the operation start position. In this case, the touch position (coordinates) and the pointer position (coordinates) for drawing maintain the relative positional relationship between the operation start position (coordinates) and the drawing start position (coordinates). As a result, the drawing processing unit 114 displays the same line art as the slide locus in the drawing area 220 from the drawing start position.

図5に示すように、スライド軌跡240と同様に、ポインタ230が移動することにより、スライド軌跡240とは離れた位置に線画241が生成される。
一方、タッチオフと判定した場合(ステップS1−4において「YES」の場合)、ユーザ端末10の制御部11は、オブジェクト設定処理を実行する(ステップS1−6)。具体的には、制御部11の描画処理部114は、描画を終了し、ポインタにより描かれた線画241を、表示レイヤにオブジェクトとして書き込む。
As shown in FIG. 5, similarly to the slide locus 240, the line art 241 is generated at a position distant from the slide locus 240 by moving the pointer 230.
On the other hand, when it is determined to be touch-off (when "YES" in step S1-4), the control unit 11 of the user terminal 10 executes the object setting process (step S1-6). Specifically, the drawing processing unit 114 of the control unit 11 finishes drawing and writes the line art 241 drawn by the pointer as an object on the display layer.

完成した線画241に対して、新たな線画を生成する場合には、再度、描画開始位置の設定処理(ステップS1−2)から繰り返す。
例えば、図6に示すように、最初の線画241に接続した新たな線画を描く場合には、接続位置をタップすることにより、描画開始位置242を設定する。そして、再度、描画エリア220のいずれかの場所をタッチし、この操作開始位置を始点とするスライド軌跡243で指をスライドさせる。この場合、新たな線画244が生成される。
そして、SNS処理部115は、この線画244のオブジェクトを含む画像を用いて、ソーシャルネットワークサービスを利用する。
When a new line art is generated for the completed line art 241, the process of setting the drawing start position (step S1-2) is repeated again.
For example, as shown in FIG. 6, when drawing a new line art connected to the first line art 241, the drawing start position 242 is set by tapping the connection position. Then, the drawing area 220 is touched again, and the finger is slid along the slide locus 243 starting from this operation start position. In this case, a new line art 244 is generated.
Then, the SNS processing unit 115 uses the social network service by using the image including the object of the line art 244.

以上、本実施形態によれば、以下に示す効果を得ることができる。
(1)上記実施形態では、ユーザ端末10の制御部11は、描画開始位置の設定処理(ステップS1−2)、操作開始位置の設定処理(ステップS1−3)、スライド軌跡に応じた描画処理(ステップS1−5)を実行する。これにより、描画領域とは異なる位置でのタッチ操作により、描画を行なうことができる。従って、タッチ操作時において指により描画領域が隠れることなく、的確かつ効率的な描画を行なうことができる。更に、操作開始位置を任意に設定することができるので、ユーザにとって都合がよい領域で、スライド操作を行なうことができる。
As described above, according to the present embodiment, the following effects can be obtained.
(1) In the above embodiment, the control unit 11 of the user terminal 10 has a drawing start position setting process (step S1-2), an operation start position setting process (step S1-3), and a drawing process according to the slide locus. (Step S1-5) is executed. As a result, drawing can be performed by a touch operation at a position different from the drawing area. Therefore, accurate and efficient drawing can be performed without hiding the drawing area by the finger during the touch operation. Further, since the operation start position can be arbitrarily set, the slide operation can be performed in an area convenient for the user.

(第2の実施形態)
次に、図7〜図12を用いて、第2の実施形態を説明する。第1の実施形態においては、線画を作成する場合を説明した。第2の実施形態は、第1の実施形態において、図形を作成する構成であり、同様の部分については詳細な説明を省略する。
(Second Embodiment)
Next, the second embodiment will be described with reference to FIGS. 7 to 12. In the first embodiment, the case of creating a line art has been described. The second embodiment is a configuration for creating a figure in the first embodiment, and detailed description of the same portion will be omitted.

図形を用いて描画を行なう場合、図3のツールメニュー210において、図形ボタン213を選択する。この場合、制御部11の描画処理部114は、ツール画面を出力する。このツール画面においては、描画に用いる図形(例えば、正方形、円形、矢印、ハート型等)や、図形属性(配色、太さ、透明度、縁つき等)の選択画面が含まれる。そして、ツール画面において「配置」ボタンが選択された場合、描画処理部114は、選択された図形(ここでは、ハート型)のオブジェクトを、描画エリア220に表示する。そして、図形のオブジェクトの変形や回転、配置の変更を行なう。 When drawing using a figure, the figure button 213 is selected in the tool menu 210 of FIG. In this case, the drawing processing unit 114 of the control unit 11 outputs the tool screen. This tool screen includes a graphic used for drawing (for example, a square, a circle, an arrow, a heart shape, etc.) and a screen for selecting a graphic attribute (color scheme, thickness, transparency, border, etc.). Then, when the "arrange" button is selected on the tool screen, the drawing processing unit 114 displays the object of the selected figure (here, a heart shape) in the drawing area 220. Then, the object of the figure is transformed, rotated, and arranged.

図7に示すように、図形のオブジェクト300の内部や周囲には、複数の操作エリアを設定する。本実施形態では、オブジェクト300の内部及び周辺に9個の操作エリアが設定される。オブジェクト300を包含する矩形の各頂点301〜304及び頂点間の線分のスライド操作(移動)により、オブジェクト300の変形操作を行なう。更に、オブジェクト300内部のスライド操作(移動)により、オブジェクト300全体の移動操作を行なう。 As shown in FIG. 7, a plurality of operation areas are set inside and around the graphic object 300. In this embodiment, nine operation areas are set inside and around the object 300. The object 300 is deformed by sliding (moving) the vertices 301 to 304 of the rectangle including the object 300 and the line segment between the vertices. Further, the entire object 300 is moved by the slide operation (movement) inside the object 300.

このために、頂点301〜304の周囲には、それぞれ変形操作エリア311〜314が設けられている。変形操作エリア311〜314の大きさは、例えば、矩形の短辺の所定割合や所定長さの辺からなる正方形を用いる。変形操作エリア311をタッチしてスライド操作が行なわれた場合には、頂点301の配置を変更する。変形操作エリア312をタッチしてスライド操作が行なわれた場合には、頂点302の配置を変更する。変形操作エリア313をタッチしてスライド操作が行なわれた場合には、頂点303の配置を変更する。変形操作エリア314をタッチしてスライド操作が行なわれた場合には、頂点304の配置を変更する。 For this purpose, deformation operation areas 31 to 314 are provided around the vertices 301 to 304, respectively. As the size of the deformation operation areas 31 to 314, for example, a square composed of a predetermined ratio of short sides of a rectangle and sides having a predetermined length is used. When the deformation operation area 311 is touched and the slide operation is performed, the arrangement of the vertices 301 is changed. When the deformation operation area 312 is touched and a slide operation is performed, the arrangement of the vertices 302 is changed. When the deformation operation area 313 is touched and the slide operation is performed, the arrangement of the vertices 303 is changed. When the deformation operation area 314 is touched and the slide operation is performed, the arrangement of the vertices 304 is changed.

また、頂点301〜304間の各辺に対応して、変形操作エリア321〜324が設けられている。変形操作エリア321は右辺を左右に移動する操作が行なわれた場合、右辺を位置を変更してオブジェクト300を変形する。変形操作エリア322は左辺を左右に移動する操作が行なわれた場合、左辺を位置を変更してオブジェクト300を変形する。変形操作エリア323は上辺を上下に移動する操作が行なわれた場合、上辺を位置を変更してオブジェクト300を変形する。変形操作エリア324は下辺を上下に移動する操作が行なわれた場合、下辺を位置を変更してオブジェクト300を変形する。 Further, deformation operation areas 321 to 324 are provided corresponding to each side between the vertices 301 to 304. When the operation of moving the right side to the left or right is performed in the deformation operation area 321, the position of the right side is changed to deform the object 300. When the operation of moving the left side to the left or right is performed in the deformation operation area 322, the position of the left side is changed to deform the object 300. When the operation of moving the upper side up and down is performed in the deformation operation area 323, the position of the upper side is changed to deform the object 300. When the operation of moving the lower side up and down is performed in the deformation operation area 324, the position of the lower side is changed to deform the object 300.

更に、オブジェクト300の内部には、変形操作エリア311〜314,321〜324に囲まれた移動操作エリア330を設ける。この移動操作エリア330がタッチされてスライド操作を検知した場合、オブジェクト300の形状を維持しながらスライド方向に、オブジェクト300全体を移動させる。 Further, inside the object 300, a movement operation area 330 surrounded by deformation operation areas 31 to 314 and 321 to 324 is provided. When the movement operation area 330 is touched and a slide operation is detected, the entire object 300 is moved in the slide direction while maintaining the shape of the object 300.

更に、変形操作エリア311〜314,321〜324の外側領域においても、オブジェクト300に対する操作を行なう操作エリアを設ける。各操作エリア以外の外側領域においてスライドを検知した場合、オブジェクト300の中心(オブジェクト内の基準位置)を軸としてオブジェクト300全体を回転させる。なお、オブジェクト内の基準位置は、予め定められた位置であれば、オブジェクトの中心に限定されるものではない。 Further, in the outer regions of the deformation operation areas 31 to 314 and 321 to 324, an operation area for performing an operation on the object 300 is provided. When a slide is detected in an outer area other than each operation area, the entire object 300 is rotated about the center of the object 300 (reference position in the object). The reference position in the object is not limited to the center of the object as long as it is a predetermined position.

(図形操作処理)
図8を用いて、各操作エリアを用いての図形操作を説明する。
まず、ユーザ端末10の制御部11は、オブジェクト選択処理を実行する(ステップS2−1)。具体的には、ツールメニュー210において、図形ボタン213を選択する。この場合、制御部11の描画処理部114は、タッチパネルディスプレイ14にツール画面を出力する。このツール画面を用いて、描画に用いる図形や図形属性を選択する。
(Graphic operation processing)
A graphic operation using each operation area will be described with reference to FIG.
First, the control unit 11 of the user terminal 10 executes the object selection process (step S2-1). Specifically, in the tool menu 210, the graphic button 213 is selected. In this case, the drawing processing unit 114 of the control unit 11 outputs the tool screen to the touch panel display 14. Use this tool screen to select figures and figure attributes to be used for drawing.

次に、ユーザ端末10の制御部11は、オブジェクト配置処理を実行する(ステップS2−2)。具体的には、ツール画面において配置ボタンを選択する。この場合、制御部11の描画処理部114は、描画エリア220に、選択された図形のオブジェクト300を配置する。 Next, the control unit 11 of the user terminal 10 executes the object placement process (step S2-2). Specifically, the placement button is selected on the tool screen. In this case, the drawing processing unit 114 of the control unit 11 arranges the object 300 of the selected figure in the drawing area 220.

次に、ユーザ端末10の制御部11は、タッチ位置の特定処理を実行する(ステップS2−3)。具体的には、制御部11のタッチ制御部112は、描画エリア220において、オブジェクト300に対して、タッチ位置の座標を特定する。 Next, the control unit 11 of the user terminal 10 executes the touch position specifying process (step S2-3). Specifically, the touch control unit 112 of the control unit 11 specifies the coordinates of the touch position with respect to the object 300 in the drawing area 220.

次に、ユーザ端末10の制御部11は、オブジェクト周辺内かどうかについての判定処理を実行する(ステップS2−4)。具体的には、制御部11の描画処理部114は、タッチ位置と、オブジェクト300に対して設定された操作エリアとの位置関係を特定する。タッチ位置が、変形操作エリア311〜314,321〜324、移動操作エリア330に含まれる場合には、オブジェクト周辺内と判定する。 Next, the control unit 11 of the user terminal 10 executes a determination process as to whether or not it is in the vicinity of the object (step S2-4). Specifically, the drawing processing unit 114 of the control unit 11 specifies the positional relationship between the touch position and the operation area set for the object 300. When the touch position is included in the deformation operation area 313-1314, 3213-24, and the movement operation area 330, it is determined to be in the vicinity of the object.

オブジェクト周辺内に含まれないと判定した場合(ステップS2−4において「NO」の場合)、ユーザ端末10の制御部11は、スライド軌跡の回転角の算出処理を実行する(ステップS2−5)。具体的には、オブジェクトを回転させる場合、変形操作エリア311〜314,321〜324、移動操作エリア330の外側において、タッチ位置(スライド開始位置)からスライド操作を行なう。この場合、制御部11のタッチ制御部112は、図形のオブジェクトの中心に対して、スライド開始位置から現在のタッチ位置までの広がり角度(回転角)を算出する。 When it is determined that the object is not included in the periphery (when "NO" in step S2-4), the control unit 11 of the user terminal 10 executes the calculation process of the rotation angle of the slide locus (step S2-5). .. Specifically, when the object is rotated, the slide operation is performed from the touch position (slide start position) outside the deformation operation areas 31 to 314, 321 to 324 and the movement operation area 330. In this case, the touch control unit 112 of the control unit 11 calculates the spread angle (rotation angle) from the slide start position to the current touch position with respect to the center of the object of the figure.

次に、ユーザ端末10の制御部11は、回転角に応じてオブジェクトの回転処理を実行する(ステップS2−6)。具体的には、制御部11の描画処理部114は、この回転角に応じて、オブジェクト300を回転させる。そして、スライド操作のタッチオフ時に、オブジェクト300の配置を設定する。 Next, the control unit 11 of the user terminal 10 executes the rotation process of the object according to the rotation angle (step S2-6). Specifically, the drawing processing unit 114 of the control unit 11 rotates the object 300 according to this rotation angle. Then, at the time of touch-off of the slide operation, the arrangement of the object 300 is set.

図9に示すように、オブジェクト300の中心から、最初に検知したタッチ位置(スライド開始位置)から現在のタッチ位置までのスライド軌跡400の広がり角度(回転角)を算出する。そして、この回転角を用いて、オブジェクト300を回転させる。そして、描画処理部114は、スライド操作のタッチオフ時に、オブジェクト300の配置を決定し、SNS処理部115は、このオブジェクトを含む画像を用いて、ソーシャルネットワークサービスを利用する。 As shown in FIG. 9, the spread angle (rotation angle) of the slide locus 400 from the first detected touch position (slide start position) to the current touch position is calculated from the center of the object 300. Then, the object 300 is rotated using this rotation angle. Then, the drawing processing unit 114 determines the arrangement of the object 300 at the time of touch-off of the slide operation, and the SNS processing unit 115 uses the social network service by using the image including this object.

一方、オブジェクト周辺内に含まれると判定した場合(ステップS2−4において「YES」の場合)、ユーザ端末10の制御部11は、移動操作かどうかについての判定処理を実行する(ステップS2−7)。具体的には、制御部11のタッチ制御部112は、タッチ位置が、移動操作エリア330に含まれる場合には、移動操作と判定する。 On the other hand, when it is determined that the object is included in the periphery (when "YES" in step S2-4), the control unit 11 of the user terminal 10 executes a determination process as to whether or not it is a movement operation (step S2-7). ). Specifically, the touch control unit 112 of the control unit 11 determines that the touch position is a movement operation when it is included in the movement operation area 330.

移動操作と判定した場合(ステップS2−7において「YES」の場合)、ユーザ端末10の制御部11は、スライド軌跡に応じてオブジェクトの移動処理を実行する(ステップS2−8)。具体的には、制御部11の描画処理部114は、スライド軌跡に応じて、オブジェクト300を移動する。そして、描画処理部114は、スライド操作のタッチオフ時に、オブジェクト300の配置を決定し、SNS処理部115は、このオブジェクトを含む画像を用いて、ソーシャルネットワークサービスを利用する。 When it is determined that the operation is a movement operation (when "YES" in step S2-7), the control unit 11 of the user terminal 10 executes the movement processing of the object according to the slide locus (step S2-8). Specifically, the drawing processing unit 114 of the control unit 11 moves the object 300 according to the slide locus. Then, the drawing processing unit 114 determines the arrangement of the object 300 at the time of touch-off of the slide operation, and the SNS processing unit 115 uses the social network service by using the image including this object.

図10に示すように、移動操作と判定した場合、スライド軌跡410に応じて、オブジェクト300を移動する。
一方、タッチ位置が、変形操作エリア311〜314,321〜324に含まれる場合には、変形操作と判定する。変形操作と判定した場合(ステップS2−7において「NO」の場合)、ユーザ端末10の制御部11は、スライド軌跡に応じてオブジェクトの変形処理を実行する(ステップS2−9)。具体的には、制御部11の描画処理部114は、変形操作エリア311〜314,321〜324に応じて、オブジェクト300を変形する。そして、描画処理部114は、スライド操作のタッチオフ時に、オブジェクト300の形状を決定し、SNS処理部115は、このオブジェクトを含む画像を用いて、ソーシャルネットワークサービスを利用する。
As shown in FIG. 10, when it is determined that the movement operation is performed, the object 300 is moved according to the slide locus 410.
On the other hand, when the touch position is included in the deformation operation areas 31 to 314 and 321, 324, it is determined to be a deformation operation. When it is determined that the operation is a deformation operation (when “NO” in step S2-7), the control unit 11 of the user terminal 10 executes the deformation process of the object according to the slide locus (step S2-9). Specifically, the drawing processing unit 114 of the control unit 11 deforms the object 300 according to the deformation operation areas 31 to 314 and 321 to 324. Then, the drawing processing unit 114 determines the shape of the object 300 at the time of touch-off of the slide operation, and the SNS processing unit 115 uses the social network service by using the image including this object.

図11に示すように、変形操作エリア321のタッチを検知した場合、オブジェクト300の右辺を左右に移動させて、オブジェクト300を変形したオブジェクト420を生成する。
また、図12に示すように、変形操作エリア312のタッチを検知した場合、オブジェクト300の頂点302を移動させて、オブジェクト300を変形したオブジェクト430を生成する。
As shown in FIG. 11, when the touch of the deformation operation area 321 is detected, the right side of the object 300 is moved left and right to generate the object 420 which is a deformation of the object 300.
Further, as shown in FIG. 12, when the touch of the deformation operation area 312 is detected, the apex 302 of the object 300 is moved to generate the object 430 which is a deformation of the object 300.

以上、本実施形態によれば、以下に示す効果を得ることができる。
(2)上記実施形態では、オブジェクト300に対して、変形操作エリア311〜314,321〜324を設ける。タッチ操作により、図形を変形する場合、頂点や線分のような狭い領域を、指により的確に選択することができない場合がある。これに対して、頂点や線分の周囲に配置された操作エリアにより、効率的かつ的確に変形を行なうことができる。
As described above, according to the present embodiment, the following effects can be obtained.
(2) In the above embodiment, the deformation operation areas 31 to 314 and 321 to 324 are provided for the object 300. When deforming a figure by touch operation, it may not be possible to accurately select a narrow area such as a vertex or a line segment with a finger. On the other hand, the operation area arranged around the vertices and line segments enables efficient and accurate deformation.

(3)上記実施形態では、変形操作エリア311〜314,321〜324の外側領域においても、オブジェクト300に対する操作を行なう操作エリアを設ける。オブジェクト周辺内に含まれないと判定した場合(ステップS2−4において「NO」の場合)、ユーザ端末10の制御部11は、スライド軌跡の回転角の算出処理(ステップS2−5)、回転角に応じてオブジェクトの回転処理(ステップS2−6)を実行する。これにより、オブジェクトから離れた位置でのスライド操作により、オブジェクトの状況を確認しながら、配置を変更することができる。 (3) In the above embodiment, an operation area for operating the object 300 is also provided in the outer regions of the deformation operation areas 31 to 314 and 321 to 324. When it is determined that the object is not included in the periphery (when "NO" in step S2-4), the control unit 11 of the user terminal 10 calculates the rotation angle of the slide locus (step S2-5), and the rotation angle. The object rotation process (step S2-6) is executed according to the above. As a result, the arrangement can be changed while checking the status of the object by sliding the object at a position away from the object.

(第3の実施形態)
次に、図13を用いて、第3の実施形態を説明する。第1の実施形態においては、線画を作成する場合、第2の実施形態においては、図形を作成する場合を説明した。この場合、ツール画面において、例えばカラーパレット等を用いて配色を決定する。第3の実施形態は、描画エリアに表示されたオブジェクトの属性(ここでは配色)を用いて、線画や図形の配色を決定する構成であり、同様の部分については詳細な説明を省略する。
(Third Embodiment)
Next, the third embodiment will be described with reference to FIG. In the first embodiment, the case of creating a line art and the case of creating a figure in the second embodiment have been described. In this case, the color scheme is determined using, for example, a color palette on the tool screen. The third embodiment is configured to determine the color scheme of the line art or the figure by using the attribute (color scheme here) of the object displayed in the drawing area, and detailed description of the same portion will be omitted.

(配色決定処理)
図13を用いて、配色決定処理を説明する。
まず、ユーザ端末10の制御部11は、長押し検知処理を実行する(ステップS3−1)。具体的には、画面上に表示されている任意の色の箇所から色を吸い取り、配色を決定するスポイト機能を起動させる場合には、描画エリア220上で、タッチを継続する長押し操作を行なう。この場合、制御部11のタッチ制御部112は、同じ位置でのタッチ継続時間を計測し、長押し基準時間を経過した場合には、長押し操作と判定する。
(Color scheme determination process)
The color scheme determination process will be described with reference to FIG.
First, the control unit 11 of the user terminal 10 executes the long press detection process (step S3-1). Specifically, when the eyedropper function that determines the color scheme is activated by sucking the color from the part of an arbitrary color displayed on the screen, a long press operation for continuing the touch is performed on the drawing area 220. .. In this case, the touch control unit 112 of the control unit 11 measures the touch duration at the same position, and when the long press reference time elapses, determines that the long press operation is performed.

次に、ユーザ端末10の制御部11は、ポインタ位置の色抽出処理を実行する(ステップS3−2)。具体的には、制御部11の描画処理部114は、長押し操作が行なわれた位置にポインタを配置する。そして、描画処理部114は、ポインタが配置された位置の配色を抽出する。更に、描画処理部114は、ツール画面の配色の選択画面(属性表示領域)に、描画エリアから抽出した配色を表示する。ここで、タッチパネルディスプレイ14にタッチした状態でポインタ位置(タッチ位置)スライド操作を行なった場合、描画処理部114は、ポインタ位置の色抽出処理(ステップS3−2)を継続する。 Next, the control unit 11 of the user terminal 10 executes the color extraction process of the pointer position (step S3-2). Specifically, the drawing processing unit 114 of the control unit 11 arranges the pointer at the position where the long press operation is performed. Then, the drawing processing unit 114 extracts the color scheme at the position where the pointer is arranged. Further, the drawing processing unit 114 displays the color scheme extracted from the drawing area on the color scheme selection screen (attribute display area) of the tool screen. Here, when the pointer position (touch position) slide operation is performed while the touch panel display 14 is touched, the drawing processing unit 114 continues the color extraction process (step S3-2) of the pointer position.

次に、ユーザ端末10の制御部11は、タッチオフかどうかについての判定処理を実行する(ステップS3−3)。具体的には、制御部11のタッチ制御部112は、タッチパネルディスプレイ14におけるタッチ位置のスライドに追従しながら、タッチの離脱(タッチオフ)を待機する。 Next, the control unit 11 of the user terminal 10 executes a determination process as to whether or not it is touch-off (step S3-3). Specifically, the touch control unit 112 of the control unit 11 waits for the touch release (touch off) while following the slide of the touch position on the touch panel display 14.

タッチオフでないと判定した場合(ステップS3−3において「NO」の場合)、ユーザ端末10の制御部11は、ポインタ位置の色抽出処理(ステップS3−2)を継続する。
タッチオフと判定した場合(ステップS3−3において「YES」の場合)、ユーザ端末10の制御部11は、配色の設定処理を実行する(ステップS3−4)。具体的には、制御部11の描画処理部114は、タッチオフ時のポインタ位置の配色をツール画面に設定する。これにより、この配色を用いての線画や図形の配置を行なうことができる。
When it is determined that the touch-off is not performed (when "NO" in step S3-3), the control unit 11 of the user terminal 10 continues the color extraction process (step S3-2) of the pointer position.
When it is determined that the touch is off (when "YES" in step S3-3), the control unit 11 of the user terminal 10 executes the color scheme setting process (step S3-4). Specifically, the drawing processing unit 114 of the control unit 11 sets the color scheme of the pointer position at the time of touch-off on the tool screen. This makes it possible to arrange line art and figures using this color scheme.

以上、本実施形態によれば、以下に示す効果を得ることができる。
(4)上記実施形態では、ユーザ端末10の制御部11は、長押し検知処理(ステップS3−1)、ポインタ位置の色抽出処理(ステップS3−2)を実行する。タッチオフと判定した場合(ステップS3−3において「YES」の場合)、ユーザ端末10の制御部11は、配色の設定処理を実行する(ステップS3−4)。これにより、タッチ位置とは異なるツール画面において、配色を確認しながら、所望の配色を選択することができる。
As described above, according to the present embodiment, the following effects can be obtained.
(4) In the above embodiment, the control unit 11 of the user terminal 10 executes a long press detection process (step S3-1) and a pointer position color extraction process (step S3-2). When it is determined that the touch is off (when "YES" in step S3-3), the control unit 11 of the user terminal 10 executes the color scheme setting process (step S3-4). This makes it possible to select a desired color scheme while checking the color scheme on a tool screen different from the touch position.

(第4の実施形態)
次に、図14を用いて、第4の実施形態を説明する。第3の実施形態においては、ポインタ位置の配色を抽出して、描画に利用する場合を説明した。第4の実施形態は、配色候補を出力する構成であり、同様の部分については詳細な説明を省略する。この場合、描画処理部114は、使用された配色の操作履歴やユーザによって指定された配色を、配色候補として記憶する。
(Fourth Embodiment)
Next, a fourth embodiment will be described with reference to FIG. In the third embodiment, the case where the color scheme of the pointer position is extracted and used for drawing has been described. The fourth embodiment is configured to output color scheme candidates, and detailed description of the same parts will be omitted. In this case, the drawing processing unit 114 stores the operation history of the used color scheme and the color scheme specified by the user as color scheme candidates.

(配色決定処理)
図14を用いて、配色決定処理を説明する。
まず、ユーザ端末10の制御部11は、ステップS3−1と同様に、長押し検知処理を実行する(ステップS4−1)。
(Color scheme determination process)
The color scheme determination process will be described with reference to FIG.
First, the control unit 11 of the user terminal 10 executes the long press detection process in the same manner as in step S3-1 (step S4-1).

この場合、更に、ユーザ端末10の制御部11は、配色候補の出力処理を実行する。具体的には、制御部11の描画処理部114は、ポインタの周囲に配色候補を出力する。例えば、ポインタの上下左右の十字方向に、異なる配色の候補を出力する。配色候補としては、記憶した使用履歴やユーザ指定の配色を用いることができる。なお、配色候補の出力位置は、長押し操作位置の周囲であれば、十字方向に限定されるものではない。 In this case, the control unit 11 of the user terminal 10 further executes the output processing of the color scheme candidate. Specifically, the drawing processing unit 114 of the control unit 11 outputs a color scheme candidate around the pointer. For example, different color scheme candidates are output in the up, down, left, and right cross directions of the pointer. As the color scheme candidate, the stored usage history or the user-specified color scheme can be used. The output position of the color scheme candidate is not limited to the cross direction as long as it is around the long press operation position.

次に、ユーザ端末10の制御部11は、フリックかどうかについての判定処理を実行する(ステップS4−2)。具体的には、制御部11のタッチ制御部112は、タッチした指を素早く動かしたり弾いたりする操作を検知した場合、フリック操作と判定する。 Next, the control unit 11 of the user terminal 10 executes a determination process as to whether or not it is a flick (step S4-2). Specifically, when the touch control unit 112 of the control unit 11 detects an operation of quickly moving or flipping the touched finger, it determines that it is a flick operation.

フリックと判定した場合(ステップS4−2において「YES」の場合)、ユーザ端末10の制御部11は、フリック方向に応じて配色の特定処理を実行する(ステップS4−3)。具体的には、制御部11の描画処理部114は、フリック方向に設定された配色候補を、描画に用いる配色として特定する。 When it is determined to be a flick (when "YES" in step S4-2), the control unit 11 of the user terminal 10 executes a color scheme specifying process according to the flick direction (step S4-3). Specifically, the drawing processing unit 114 of the control unit 11 specifies the color scheme candidate set in the flick direction as the color scheme used for drawing.

一方、フリックでないと判定した場合(ステップS4−2において「NO」の場合)、ユーザ端末10の制御部11は、ステップS3−2〜S3−4と同様に、ポインタ位置の色抽出処理(ステップS4−4)、タッチオフかどうかについての判定処理(ステップS4−5)、配色の設定処理(ステップS4−6)を実行する。 On the other hand, when it is determined that the flick is not performed (when "NO" in step S4-2), the control unit 11 of the user terminal 10 performs a color extraction process of the pointer position (step) as in steps S3-2 to S3-4. S4-4), the determination process for touch-off (step S4-5), and the color scheme setting process (step S4-6) are executed.

以上、本実施形態によれば、上記(4)の効果に加えて、以下に示す効果を得ることができる。
(5)上記実施形態では、ユーザ端末10の制御部11は、配色候補の出力処理を実行する。そして、フリックと判定した場合(ステップS4−2において「YES」の場合)、ユーザ端末10の制御部11は、フリック方向に応じて配色の特定処理を実行する(ステップS4−3)。これにより、配色候補により、効率的に配色を選択することができる。
As described above, according to the present embodiment, in addition to the effect of (4) above, the following effects can be obtained.
(5) In the above embodiment, the control unit 11 of the user terminal 10 executes the output processing of the color scheme candidate. Then, when it is determined that the flick is performed (when "YES" in step S4-2), the control unit 11 of the user terminal 10 executes the color scheme specifying process according to the flick direction (step S4-3). As a result, the color scheme can be efficiently selected according to the color scheme candidates.

(第5の実施形態)
次に、図15を用いて、第5の実施形態を説明する。第2の実施形態においては、図形オブジェクトを配置して、移動や変形を行なう場合を説明した。第5の実施形態は、図形オブジェクトの配置時に変形する構成であり、同様の部分については詳細な説明を省略する。この場合、描画に用いることができる図形オブジェクトには、始点と終点とを設定しておく。
(Fifth Embodiment)
Next, a fifth embodiment will be described with reference to FIG. In the second embodiment, a case where a graphic object is arranged and moved or deformed has been described. The fifth embodiment is a configuration that is deformed when the graphic object is arranged, and detailed description of the same portion will be omitted. In this case, a start point and an end point are set for the graphic object that can be used for drawing.

(図形生成処理)
図15を用いて、図形生成処理を説明する。
まず、ユーザ端末10の制御部11は、ステップS2−1と同様に、オブジェクト選択処理を実行する(ステップS5−1)。
(Figure generation process)
The figure generation process will be described with reference to FIG.
First, the control unit 11 of the user terminal 10 executes the object selection process in the same manner as in step S2-1 (step S5-1).

次に、ユーザ端末10の制御部11は、最初のタップ位置に始点設定処理を実行する(ステップS5−2)。具体的には、選択したオブジェクトの描画を行なう場合、描画エリア220において、オブジェクトの描画開始位置をタップする。この場合、制御部11のタッチ制御部112は、描画エリア220において、タッチされたタップ位置(座標)を特定する。そして、描画処理部114は、このタップ位置に、オブジェクトの描画開始位置(始点)を設定する。 Next, the control unit 11 of the user terminal 10 executes the start point setting process at the first tap position (step S5-2). Specifically, when drawing the selected object, tap the drawing start position of the object in the drawing area 220. In this case, the touch control unit 112 of the control unit 11 specifies the touched tap position (coordinates) in the drawing area 220. Then, the drawing processing unit 114 sets the drawing start position (start point) of the object at this tap position.

次に、ユーザ端末10の制御部11は、2回目のタッチの検知処理を実行する(ステップS5−3)。具体的には、オブジェクトの終点位置を決定する場合には、再度、描画エリア220をタッチする。この場合、制御部11のタッチ制御部112は、描画エリア220において、タッチ位置(座標)を特定する。 Next, the control unit 11 of the user terminal 10 executes the second touch detection process (step S5-3). Specifically, when determining the end point position of the object, the drawing area 220 is touched again. In this case, the touch control unit 112 of the control unit 11 specifies the touch position (coordinates) in the drawing area 220.

次に、ユーザ端末10の制御部11は、タッチ位置に終点設定処理を実行する(ステップS5−4)。具体的には、制御部11の描画処理部114は、このタッチ位置に、オブジェクトの描画終点位置を設定する。 Next, the control unit 11 of the user terminal 10 executes the end point setting process at the touch position (step S5-4). Specifically, the drawing processing unit 114 of the control unit 11 sets the drawing end point position of the object at this touch position.

次に、ユーザ端末10の制御部11は、始点、終点でオブジェクトの変形処理を実行する(ステップS5−5)。具体的には、制御部11の描画処理部114は、描画開始位置、描画終点位置に、オブジェクトの始点、終点を設定し、描画エリア220にオブジェクトを表示する。 Next, the control unit 11 of the user terminal 10 executes the object transformation process at the start point and the end point (step S5-5). Specifically, the drawing processing unit 114 of the control unit 11 sets the start point and end point of the object at the drawing start position and the drawing end position, and displays the object in the drawing area 220.

次に、ユーザ端末10の制御部11は、タッチオフかどうかについての判定処理を実行する(ステップS5−6)。具体的には、オブジェクトを変形させる場合、タッチ位置をスライドさせる。この場合、制御部11の描画処理部114は、スライド操作に応じて、オブジェクトの終点を追従させて、図形を変形する。そして、描画処理部114は、タッチパネルディスプレイ14からタッチの離脱(タッチオフ)を待機する。 Next, the control unit 11 of the user terminal 10 executes a determination process as to whether or not it is touch-off (step S5-6). Specifically, when deforming an object, the touch position is slid. In this case, the drawing processing unit 114 of the control unit 11 deforms the figure by following the end point of the object in response to the slide operation. Then, the drawing processing unit 114 waits for the touch release (touch-off) from the touch panel display 14.

タッチオフでないと判定した場合(ステップS5−6において「NO」の場合)、ユーザ端末10の制御部11は、始点、終点でオブジェクトの変形処理(ステップS5−5)を継続する。 When it is determined that the touch-off is not performed (when "NO" in step S5-6), the control unit 11 of the user terminal 10 continues the object transformation process (step S5-5) at the start point and the end point.

一方、タッチオフと判定した場合(ステップS1−4において「YES」の場合)、ユーザ端末10の制御部11は、オブジェクトの設定処理を実行する(ステップS5−7)。具体的には、制御部11の描画処理部114は、タッチオフ位置を終点とするオブジェクトを生成し、SNS処理部115は、このオブジェクトを含む画像を用いて、ソーシャルネットワークサービスを利用する。 On the other hand, when it is determined to be touch-off (when "YES" in step S1-4), the control unit 11 of the user terminal 10 executes the object setting process (step S5-7). Specifically, the drawing processing unit 114 of the control unit 11 generates an object whose end point is the touch-off position, and the SNS processing unit 115 uses the social network service by using the image including this object.

以上、本実施形態によれば、以下に示す効果を得ることができる。
(6)上記実施形態では、ユーザ端末10の制御部11は、最初のタップ位置に始点設定処理(ステップS5−2)、タッチ位置に終点設定処理(ステップS5−4)、始点、終点でオブジェクトの変形処理(ステップS5−5)を実行する。これにより、始点及び終点の設定やスライド操作によって、オブジェクトの形状や配置を決定することができる。
As described above, according to the present embodiment, the following effects can be obtained.
(6) In the above embodiment, the control unit 11 of the user terminal 10 has a start point setting process (step S5-2) at the first tap position, an end point setting process (step S5-4) at the touch position, and an object at the start point and the end point. (Step S5-5) is executed. Thereby, the shape and arrangement of the objects can be determined by setting the start point and the end point and the slide operation.

なお、上記実施形態は、以下の態様に変更してもよい。
・上記第1の実施形態では、ユーザ端末10の制御部11は、描画ツールの指定処理を実行する(ステップS1−1)。ここでは、ツールメニュー210において、描画ボタン211を選択する。これに代えて、消しゴムボタン212が選択された場合に、ポインターモード処理を実行するようにしてもよい。この場合には、描画処理部114は、ツール画面で消しゴムツールの大きさを指定する。そして、背景色による線画を描くことにより、図形の一部を消去する。この場合も、ユーザ端末10の制御部11は、描画開始位置の設定処理(ステップS1−2)において消去開始位置を設定し、操作開始位置の設定処理(ステップS1−3)、スライド軌跡に応じた描画処理(ステップS1−5)により、軌跡に応じた消去を行なう。
The above embodiment may be changed to the following aspects.
-In the first embodiment, the control unit 11 of the user terminal 10 executes a drawing tool designation process (step S1-1). Here, in the tool menu 210, the drawing button 211 is selected. Instead of this, when the eraser button 212 is selected, the pointer mode processing may be executed. In this case, the drawing processing unit 114 specifies the size of the eraser tool on the tool screen. Then, a part of the figure is erased by drawing a line art with the background color. Also in this case, the control unit 11 of the user terminal 10 sets the erasing start position in the drawing start position setting process (step S1-2), and responds to the operation start position setting process (step S1-3) and the slide locus. By the drawing process (step S1-5), erasing is performed according to the locus.

・上記第1の実施形態では、操作開始位置の座標から描画開始位置の座標への補正ベクトル(x3,y3)を算出する。ここで、補正ベクトルの決定方法は、これに限定されるものではない。例えば、予め定めた初期設定の補正ベクトル(x4,y4)を用いてもよい。この場合、操作開始位置に対して、初期設定の補正ベクトルを用いて描画開始位置を決定する。すなわち、操作開始位置の設定処理(ステップS1−3)に応じて、描画開始位置の設定処理(ステップS1−2)を実行する。なお、初期設定の補正ベクトルの要素は、同じ値(x4=y4)に設定したり、異なる値(x4≠y4)に設定したりしてもよい。
また、補正ベクトルを、ユーザの入力や、操作環境に応じて変更するようにしてもよい。具体的には、制御部11が、ユーザのタッチ位置の面積(指の広さ、スタイラスの広さ)を判定し、その値に応じて、補正ベクトルを変更する。例えば、タッチ位置の面積が広い場合には、補正ベクトルを大きくする。これにより、ユーザの入力に応じた快適な描画が可能となる。
また、ユーザの書き直し、修正操作等に応じて、補正ベクトルを変更してもよい。ユーザのミス入力が多いと考えられる場合、ユーザの修正結果に応じて、補正ベクトルを変更する。この場合、描画開始位置に対して、操作開始位置を変更できるようにしておく。そして、例えば、描画開始位置に対して「最初の入力した操作開始位置」よりも「修正の際の操作開始位置」を遠くに変更する操作が行われた操作履歴を記録する。そして、このような変更回数が所定回数を超えた場合、補正ベクトルを大きくするように変更してもよい。これにより、ユーザ毎の描画特性に応じた描画が可能となる。
また、描画エリア220の広さや、描画に用いる対象(ペンの太さ)や、描画対象の大きさ(狭い領域か、広い領域か)に応じて、補正ベクトルを変更してもよい。これにより、より快適な描画環境の提供と、柔軟な入力が可能になる。
-In the first embodiment, the correction vector (x3, y3) from the coordinates of the operation start position to the coordinates of the drawing start position is calculated. Here, the method of determining the correction vector is not limited to this. For example, a preset correction vector (x4, y4) may be used. In this case, the drawing start position is determined using the default correction vector with respect to the operation start position. That is, the drawing start position setting process (step S1-2) is executed according to the operation start position setting process (step S1-3). The default correction vector elements may be set to the same value (x4 = y4) or different values (x4 ≠ y4).
Further, the correction vector may be changed according to the user's input or the operating environment. Specifically, the control unit 11 determines the area of the user's touch position (finger size, stylus size), and changes the correction vector according to the values. For example, when the area of the touch position is large, the correction vector is increased. This enables comfortable drawing according to the user's input.
Further, the correction vector may be changed according to the user's rewriting, correction operation, or the like. If it is considered that there are many mistaken inputs by the user, the correction vector is changed according to the correction result of the user. In this case, the operation start position can be changed with respect to the drawing start position. Then, for example, the operation history in which the operation of changing the "operation start position at the time of correction" is farther than the "first input operation start position" with respect to the drawing start position is recorded. Then, when the number of such changes exceeds a predetermined number, the correction vector may be changed to be large. This makes it possible to draw according to the drawing characteristics of each user.
Further, the correction vector may be changed according to the size of the drawing area 220, the object used for drawing (pen thickness), and the size of the drawing object (narrow area or wide area). This makes it possible to provide a more comfortable drawing environment and flexible input.

・上記第2の実施形態では、ユーザ端末10の制御部11は、タッチ位置の特定処理を実行する(ステップS2−3)。そして、ユーザ端末10の制御部11は、オブジェクト周辺内かどうかについての判定処理(ステップS2−4)、移動操作かどうかについての判定処理(ステップS2−7)を実行する。これに代えて、ポインターモード処理と同様に、最初のタップで操作(変形、移動、回転)を決定し、2回目のタッチによるスライド操作により、スライド軌跡に応じた変形量、移動量、回転角を決定するようにしてもよい。これにより、操作時の指が邪魔にならず、オブジェクトを設定することができる。 -In the second embodiment, the control unit 11 of the user terminal 10 executes a touch position specifying process (step S2-3). Then, the control unit 11 of the user terminal 10 executes a determination process (step S2-4) for whether or not it is in the vicinity of the object, and a determination process (step S2-7) for whether or not it is a movement operation. Instead of this, as in the pointer mode processing, the operation (deformation, movement, rotation) is determined by the first tap, and the slide operation by the second touch determines the deformation amount, movement amount, and rotation angle according to the slide locus. May be decided. As a result, the object can be set without the finger during operation getting in the way.

・上記第3、第4の実施形態では、描画エリアを用いて、線画や図形の配色を決定する。ここで、スポイト機能により取り込む属性は配色に限定されるものではない。例えば、模様等のような視覚的な属性のみならず、オブジェクトに割り当てられた名称等の属性を取り込むようにしてもよい。 -In the third and fourth embodiments, the drawing area is used to determine the color scheme of the line art or the figure. Here, the attributes taken in by the dropper function are not limited to the color scheme. For example, not only visual attributes such as patterns but also attributes such as names assigned to objects may be captured.

・上記第1の実施形態では、ユーザ端末10の制御部11は、描画開始位置の設定処理を実行する(ステップS1−2)。ここでは、タッチパネルディスプレイ14上でタップを行なう。また、上記第3の実施形態では、ユーザ端末10の制御部11は、長押し検知処理を実行する(ステップS3−1)。上記第5の実施形態では、最初のタップ位置に始点設定処理(ステップS5−2)、2回目のタッチの検知処理(ステップS5−3)を実行する。これらの各機能を起動する操作は、他の操作と識別できるものであれば、操作方法は限定されるものではない。例えば、第5の実施形態では、タッチ位置〜タッチオフ位置により始点設定、終点設定を行なうようにしてもよい。 -In the first embodiment, the control unit 11 of the user terminal 10 executes a drawing start position setting process (step S1-2). Here, tapping is performed on the touch panel display 14. Further, in the third embodiment, the control unit 11 of the user terminal 10 executes a long press detection process (step S3-1). In the fifth embodiment, the start point setting process (step S5-2) and the second touch detection process (step S5-3) are executed at the first tap position. The operation method for invoking each of these functions is not limited as long as it can be distinguished from other operations. For example, in the fifth embodiment, the start point setting and the end point setting may be performed depending on the touch position to the touch-off position.

・上記各実施形態では、描画したオブジェクトを含む画像を、ソーシャルネットワークサービスに利用する。描画の適用対象は、ソーシャルネットワークサービスに限定されるものではなく、線画や図形を利用するアプリケーション(ゲーム等)に用いることが可能である。
・上記各実施形態では、一つのアプリケーションプログラムを起動させることにより、制御部11を、描画処理部114、SNS処理部115として機能させる。ここで、描画処理部114とSNS処理部115とは、別のアプリケーションプログラムにより機能させるようにしてもよい。具体的には、描画処理プログラムにより、描画処理部114を起動し、描画処理部114により生成されたオブジェクトを、他のアプリケーションプログラムの機能に提供するようにしてもよい。
-In each of the above embodiments, an image including a drawn object is used for a social network service. The application target of drawing is not limited to social network services, and can be used for applications (games, etc.) that use line drawings and figures.
-In each of the above embodiments, by invoking one application program, the control unit 11 functions as a drawing processing unit 114 and an SNS processing unit 115. Here, the drawing processing unit 114 and the SNS processing unit 115 may be made to function by different application programs. Specifically, the drawing processing program may start the drawing processing unit 114, and the object generated by the drawing processing unit 114 may be provided to the function of another application program.

・上記各実施形態では、サーバ装置が生成したデータに基づいて、ユーザ端末に表示させるウェブ表示を行なう。ここで、描画を行なうための画面の少なくとも一部(例えば、ツールメニュー210や描画エリア220)を、ユーザ端末にインストールされているネイティブアプリケーションによって表示させるネイティブ表示としてもよい。また、ユーザ端末10及びサーバ装置のそれぞれが処理の一部を担うハイブリッドアプリケーションとすることもできる。
次に、上記実施形態及び別例から把握できる技術的思想について、以下に追記する。
〔a〕タッチ入力可能な表示部と制御部とを備えた描画処理装置を制御する方法であって、
前記制御部が、
描画操作について、線画の選択を検知した場合、前記線画の描画開始位置を特定し、
前記描画開始位置から離れた位置の操作開始位置からの軌跡に応じて描画された線画のオブジェクトを生成することを特徴とする描画処理方法。
〔b〕前記制御部が、
描画操作について、図形の選択を検知した場合、図形のオブジェクトの配置位置を特定し、
前記配置位置から離れた位置の操作開始位置からの軌跡に応じて、前記図形のオブジェクトの配置を決定することを特徴とする〔a〕に記載の描画処理方法。
〔c〕描画操作について、オブジェクトの部分消去指示を検知した場合、消去開始位置を特定し、
前記消去開始位置から離れた位置の操作開始位置からの軌跡に応じて、前記オブジェクトの部分消去を行なうことを特徴とする〔a〕又は〔b〕に記載の描画処理方法。
〔d〕前記オブジェクトの配置に対して、複数の操作エリアが設定されており、各操作エリアの選択に応じて、前記オブジェクトに対して異なる操作を実行することを特徴とする〔a〕〜〔c〕の何れか一項に記載の描画処理方法。
〔e〕前記オブジェクト内の基準位置に対して、操作開始位置からの軌跡の広がり角度を算出し、前記広がり角度に基づいて、前記オブジェクトの回転操作を実行することを特徴とする〔a〕〜〔d〕の何れか一項に記載の描画処理方法。
〔f〕前記表示部においてタッチされたタッチ位置のオブジェクトの属性を特定し、属性表示領域に表示し、
前記タッチのタッチオフの検知時に、前記属性を描画時の属性として設定することを特徴とする〔a〕〜〔e〕の何れか一項に記載の描画処理方法。
〔g〕前記タッチ位置の周囲に属性候補を出力し、
前記タッチオフの方向に応じて、前記属性候補の中から描画時に用いる属性を決定することを特徴とする請求項〔f〕に記載の描画処理方法。
〔h〕始点と終点とが設定されたオブジェクトが選択された場合、
タッチ位置に前記始点を設定し、
スライド操作されたタッチ位置に前記終点を設定して、前記オブジェクトを前記表示部に出力し、
タッチオフ時に前記オブジェクトの形状を決定することを特徴とする請求項〔a〕〜〔g〕の何れか一項に記載の描画処理方法。
〔i〕タッチ入力可能な表示部と制御部とを備えた描画処理装置を制御するプログラムであって、
前記制御部を、
描画操作について、線画の選択を検知した場合、前記線画の描画開始位置を特定し、
前記描画開始位置から離れた位置の操作開始位置からの軌跡に応じて描画された線画のオブジェクトを生成する手段として機能させることを特徴とする描画処理プログラム。
〔j〕タッチ入力可能な表示部と制御部とを備えた描画処理装置であって、
前記制御部が、
描画操作について、線画の選択を検知した場合、前記線画の描画開始位置を特定し、
前記描画開始位置から離れた位置の操作開始位置からの軌跡に応じて描画された線画のオブジェクトを生成することを特徴とする描画処理装置。
-In each of the above embodiments, a web display to be displayed on the user terminal is performed based on the data generated by the server device. Here, at least a part of the screen for drawing (for example, the tool menu 210 or the drawing area 220) may be displayed by a native application installed on the user terminal as a native display. Further, it is also possible to make a hybrid application in which each of the user terminal 10 and the server device plays a part of the processing.
Next, the technical idea that can be grasped from the above embodiment and another example will be added below.
[A] A method of controlling a drawing processing device including a display unit and a control unit capable of touch input.
The control unit
Regarding the drawing operation, when the selection of the line art is detected, the drawing start position of the line art is specified, and the drawing operation is performed.
A drawing processing method characterized by generating a line art object drawn according to a locus from an operation start position at a position away from the drawing start position.
[B] The control unit
For drawing operations, when the selection of a figure is detected, the position of the object of the figure is specified and
The drawing processing method according to [a], wherein the arrangement of the object of the figure is determined according to the locus from the operation start position at a position away from the arrangement position.
[C] For drawing operations, when a partial erase instruction for an object is detected, the erase start position is specified and the erase start position is specified.
The drawing processing method according to [a] or [b], wherein the object is partially erased according to a locus from an operation start position at a position away from the erase start position.
[D] A plurality of operation areas are set for the arrangement of the objects, and different operations are executed on the objects according to the selection of each operation area [a] to [. The drawing processing method according to any one of c].
[E] The object is characterized in that the spread angle of the locus from the operation start position is calculated with respect to the reference position in the object, and the rotation operation of the object is executed based on the spread angle. The drawing processing method according to any one of [d].
[F] The attribute of the object at the touch position touched in the display unit is specified, displayed in the attribute display area, and displayed.
The drawing processing method according to any one of [a] to [e], wherein the attribute is set as an attribute at the time of drawing when the touch-off of the touch is detected.
[G] Attribute candidates are output around the touch position, and the attribute candidates are output.
The drawing processing method according to claim [f], wherein an attribute to be used at the time of drawing is determined from the attribute candidates according to the touch-off direction.
[H] When an object with a start point and an end point set is selected,
Set the start point at the touch position and
The end point is set at the touch position operated by the slide operation, and the object is output to the display unit.
The drawing processing method according to any one of claims [a] to [g], wherein the shape of the object is determined at the time of touch-off.
[I] A program for controlling a drawing processing device including a display unit and a control unit capable of touch input.
The control unit
Regarding the drawing operation, when the selection of the line art is detected, the drawing start position of the line art is specified, and the drawing operation is performed.
A drawing processing program characterized in that it functions as a means for generating a line art object drawn according to a locus from an operation start position at a position away from the drawing start position.
[J] A drawing processing device including a display unit and a control unit capable of touch input.
The control unit
Regarding the drawing operation, when the selection of the line art is detected, the drawing start position of the line art is specified, and the drawing operation is performed.
A drawing processing device for generating a line art object drawn according to a locus from an operation start position at a position away from the drawing start position.

10…ユーザ端末、11…制御部、111…表示制御部、112…タッチ制御部、113…アプリケーション実行部、114…描画処理部、115…SNS処理部、12…メモリ、13…通信部、14…タッチパネルディスプレイ、241,244…線画、300,420,430…オブジェクト。 10 ... User terminal, 11 ... Control unit, 111 ... Display control unit, 112 ... Touch control unit, 113 ... Application execution unit, 114 ... Drawing processing unit, 115 ... SNS processing unit, 12 ... Memory, 13 ... Communication unit, 14 ... Touch panel display, 241,244 ... Line art, 300, 420, 430 ... Objects.

Claims (13)

制御部と入力操作が可能な表示部とを備えた情報処理装置を制御するプログラムであって、
前記制御部に、
前記表示部でのタッチ位置に応じた第1座標を特定し、
前記第1座標に位置する第1オブジェクトを特定し、
前記第1座標を特定するためのタッチ操作解除するタッチオフが検知された後に入力された第2座標からの軌跡に応じて前記第1座標に位置する前記第1オブジェクトから描画された第2オブジェクトを生成すること、を実行させることを特徴とする制御プログラム。
A program that controls an information processing device equipped with a control unit and a display unit capable of input operations.
In the control unit
Identifying a first coordinate corresponding to the touch position on the display unit,
Identify the first object located at the first coordinate and
The second object drawn from the first object located at the first coordinate according to the locus from the second coordinate input after the touch-off for releasing the touch operation for specifying the first coordinate is detected. A control program characterized by generating and executing.
前記表示部に表示されたオブジェクトの操作を検知した場合、前記第1座標に位置する第1オブジェクトを特定し、
前記第1座標を特定するためのタッチ操作解除するタッチオフが検知された後に入力された第2座標からの軌跡に応じて前記第1オブジェクトの操作を行うことを、前記制御部に実行させる請求項1に記載の制御プログラム。
When the operation of the object displayed on the display unit is detected, the first object located at the first coordinate is specified.
A request for the control unit to perform an operation of the first object according to a locus from the second coordinate input after the touch-off for releasing the touch operation for specifying the first coordinate is detected. Item 1. The control program according to item 1.
前記表示部に表示されたオブジェクトの消去指示を検知した場合、前記表示部での入力位置に応じた第1座標を取得し、
前記第1座標を特定するためのタッチ操作解除するタッチオフが検知された後に入力された第2座標からの軌跡に応じて前記第1座標から前記オブジェクトの消去を行なうことを、前記制御部に実行させる請求項1又は2に記載の制御プログラム。
When the deletion instruction of the object displayed on the display unit is detected, the first coordinate corresponding to the input position on the display unit is acquired.
The control unit is instructed to delete the object from the first coordinate according to the locus from the second coordinate input after the touch-off for releasing the touch operation for specifying the first coordinate is detected. The control program according to claim 1 or 2 to be executed.
前記表示部に表示されたオブジェクトの選択を検知した場合、前記オブジェクトの配置位置を特定し、
前記第1座標を特定するためのタッチ操作解除するタッチオフが検知された後に入力された第2座標からの軌跡に応じて、前記オブジェクトの配置を決定することを、前記制御部に実行させる請求項1〜3のいずれか1項に記載の制御プログラム。
When the selection of the object displayed on the display unit is detected, the placement position of the object is specified and the object is placed.
A claim that causes the control unit to determine the arrangement of the object according to the locus from the second coordinate input after the touch-off for releasing the touch operation for specifying the first coordinate is detected. Item 6. The control program according to any one of Items 1 to 3.
前記オブジェクトの配置に対して、複数の操作エリアが設定されており、各操作エリアの選択に応じて、前記オブジェクトに対して異なる操作を実行することを、前記制御部に実行させる請求項4に記載の制御プログラム。 According to claim 4, a plurality of operation areas are set for the arrangement of the objects, and the control unit is made to execute different operations on the objects according to the selection of each operation area. The described control program. 前記オブジェクト内の基準位置に対して、前記第2座標からの軌跡の広がり角度を算出し、前記広がり角度に基づいて、前記オブジェクトの回転操作を実行することを、前記制御部に実行させる請求項4又は5に記載の制御プログラム。 A claim that causes the control unit to calculate a spread angle of a locus from the second coordinate with respect to a reference position in the object and execute a rotation operation of the object based on the spread angle. The control program according to 4 or 5. 前記表示部において操作された操作位置のオブジェクトの属性を特定し、属性表示領域に表示し、
操作オフの検知時に、前記属性を描画時の属性として設定することを、前記制御部に実行させる請求項1〜6の何れか一項に記載の制御プログラム。
The attribute of the object at the operation position operated in the display unit is specified, displayed in the attribute display area, and displayed.
The control program according to any one of claims 1 to 6, wherein the control unit executes to set the attribute as an attribute at the time of drawing when the operation off is detected.
前記操作位置の周囲に属性候補を出力し、
操作オフの方向に応じて、前記属性候補の中から描画時に用いる属性を決定することを、前記制御部に実行させる請求項7に記載の制御プログラム。
Attribute candidates are output around the operation position,
The control program according to claim 7, wherein the control unit executes to determine an attribute to be used at the time of drawing from the attribute candidates according to the operation off direction.
始点と終点とが設定されたオブジェクトが選択された場合、
前記表示部の操作位置に前記始点を設定し、
スライド操作された操作位置に前記終点を設定して、前記オブジェクトを前記表示部に出力し、
操作オフ時に前記オブジェクトの形状を決定することを、前記制御部に実行させる請求項1〜8の何れか一項に記載の制御プログラム。
When an object with a start point and an end point is selected,
The start point is set at the operation position of the display unit, and the start point is set.
The end point is set at the slide-operated operation position, and the object is output to the display unit.
The control program according to any one of claims 1 to 8, wherein the control unit executes to determine the shape of the object when the operation is off.
前記第1座標及び前記第2座標に基づき、前記第2座標からの軌跡を前記第2オブジェクトに補正するための補正ベクトルを算出し、
前記補正ベクトルを、前記タッチ位置の面積に応じて変更することを、前記制御部に実行させる請求項1〜9のいずれか1項に記載の制御プログラム。
Based on the first coordinate and the second coordinate, a correction vector for correcting the locus from the second coordinate to the second object is calculated.
The control program according to any one of claims 1 to 9, wherein the control unit executes to change the correction vector according to the area of the touch position.
前記第1座標及び前記第2座標に基づき、前記第2座標からの軌跡を前記第2オブジェクトに補正するための補正ベクトルを算出し、
前記補正ベクトルを、前記第2座標からの軌跡の修正履歴に基づき変更することを、前記制御部に実行させる請求項1〜10のいずれか1項に記載の制御プログラム。
Based on the first coordinate and the second coordinate, a correction vector for correcting the locus from the second coordinate to the second object is calculated.
The control program according to any one of claims 1 to 10, wherein the control unit executes to change the correction vector based on the correction history of the locus from the second coordinate.
制御部と入力操作が可能な表示部とを備えた情報処理装置を制御する制御方法であって、
前記制御部が、
前記表示部でのタッチ位置に応じた第1座標を特定し、
前記第1座標に位置する第1オブジェクトを特定し、
前記第1座標を特定するためのタッチ操作解除するタッチオフが検知された後に入力された第2座標からの軌跡に応じて前記第1座標に位置する前記第1オブジェクトから描画された第2オブジェクトを生成することを特徴とする制御方法。
It is a control method for controlling an information processing device having a control unit and a display unit capable of input operation.
The control unit
Identifying a first coordinate corresponding to the touch position on the display unit,
Identify the first object located at the first coordinate and
The second object drawn from the first object located at the first coordinate according to the locus from the second coordinate input after the touch-off for releasing the touch operation for specifying the first coordinate is detected. A control method characterized by generating.
制御部と入力操作が可能な表示部とを備えた情報処理装置であって、
前記制御部が、
前記表示部でのタッチ位置に応じた第1座標を特定し、
前記第1座標に位置する第1オブジェクトを特定し、
前記第1座標を特定するためのタッチ操作解除するタッチオフが検知された後に入力された第2座標からの軌跡に応じて前記第1座標に位置する前記第1オブジェクトから描画された第2オブジェクトを生成することを特徴とする情報処理装置。
An information processing device equipped with a control unit and a display unit capable of input operations.
The control unit
Identifying a first coordinate corresponding to the touch position on the display unit,
Identify the first object located at the first coordinate and
The second object drawn from the first object located at the first coordinate according to the locus from the second coordinate input after the touch-off for releasing the touch operation for specifying the first coordinate is detected. An information processing device characterized by generating.
JP2018050572A 2018-03-19 2018-03-19 Control programs, control methods and information processing equipment Active JP6863918B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018050572A JP6863918B2 (en) 2018-03-19 2018-03-19 Control programs, control methods and information processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018050572A JP6863918B2 (en) 2018-03-19 2018-03-19 Control programs, control methods and information processing equipment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016203954A Division JP6313395B1 (en) 2016-10-17 2016-10-17 Drawing processing method, drawing processing program, and drawing processing apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020008249A Division JP2020061193A (en) 2020-01-22 2020-01-22 Control program, method for control, and information processor

Publications (2)

Publication Number Publication Date
JP2018092681A JP2018092681A (en) 2018-06-14
JP6863918B2 true JP6863918B2 (en) 2021-04-21

Family

ID=62566315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018050572A Active JP6863918B2 (en) 2018-03-19 2018-03-19 Control programs, control methods and information processing equipment

Country Status (1)

Country Link
JP (1) JP6863918B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110069205A (en) * 2019-04-15 2019-07-30 广州视源电子科技股份有限公司 A kind of method, apparatus, terminal device and the storage medium of handwriting trace adjustment

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5621438A (en) * 1992-10-12 1997-04-15 Hitachi, Ltd. Pointing information processing apparatus with pointing function
JPH06124167A (en) * 1992-10-12 1994-05-06 Hitachi Ltd Information processor with integrated input and output
JPH08287272A (en) * 1995-04-19 1996-11-01 Toshiba Corp Document preparation device and plane figure arranging method
JP2000172391A (en) * 1998-12-09 2000-06-23 Nec Corp Pointing device, method for arranging selected frame and recording medium capable of executing method
KR100891099B1 (en) * 2007-01-25 2009-03-31 삼성전자주식회사 Touch screen and method for improvement of usability in touch screen
WO2010073329A1 (en) * 2008-12-25 2010-07-01 富士通株式会社 Computer program, input device, and input method
JP5170771B2 (en) * 2009-01-05 2013-03-27 任天堂株式会社 Drawing processing program, information processing apparatus, information processing system, and information processing control method
JP4752921B2 (en) * 2009-01-28 2011-08-17 ソニー株式会社 Information processing apparatus, animation adding method, and program
JP2011053770A (en) * 2009-08-31 2011-03-17 Nifty Corp Information processing apparatus and input processing method
JP6162001B2 (en) * 2013-08-29 2017-07-12 シャープ株式会社 Drawing system
JP2015158759A (en) * 2014-02-24 2015-09-03 株式会社ゼンリンデータコム function selection execution device, function selection execution method and function selection execution program
JP6408273B2 (en) * 2014-07-17 2018-10-17 シャープ株式会社 Information processing apparatus, information processing program, and information processing method
JP6437299B2 (en) * 2014-12-24 2018-12-12 シャープ株式会社 Information processing apparatus, information processing program, and information processing method

Also Published As

Publication number Publication date
JP2018092681A (en) 2018-06-14

Similar Documents

Publication Publication Date Title
JP6313395B1 (en) Drawing processing method, drawing processing program, and drawing processing apparatus
CN102722334B (en) The control method of touch screen and device
KR101424294B1 (en) Multi-touch uses, gestures, and implementation
KR100831721B1 (en) Apparatus and method for displaying of mobile terminal
JP4533943B2 (en) Information processing apparatus, display control method, and program
US20180101298A1 (en) Graph display apparatus, graph display method and storage medium
WO2013018480A1 (en) User interface device comprising touch pad for shrinking and displaying source image within screen capable of touch input, input processing method and program
EP2154603A2 (en) Display apparatus, display method, and program
KR20100041006A (en) A user interface controlling method using three dimension multi-touch
JP2004078693A (en) Visual field movement operating method
KR20100130671A (en) Method and apparatus for providing selected area in touch interface
JP5508269B2 (en) System and method for manipulating digital images on a computer display
KR20160046150A (en) Apparatus and method for drawing and solving a figure content
KR20110041915A (en) Terminal and method for displaying data thereof
JP2011134278A (en) Information processing apparatus and pointing control method
JP5780438B2 (en) Electronic device, position designation method and program
KR20140030379A (en) Method for providing guide in terminal and terminal thereof
JP2014241030A (en) Graph display device, program, and server device
KR20160033547A (en) Apparatus and method for styling a content
CN109885222A (en) Icon processing method, device, electronic equipment and computer-readable medium
JP2013196283A (en) Electronic equipment, method for controlling electronic equipment and program for controlling electronic equipment
JP2014182652A (en) Information processor and method for controlling the same and program
JP6863918B2 (en) Control programs, control methods and information processing equipment
JP2020061193A (en) Control program, method for control, and information processor
JP2001195170A (en) Portable electronic equipment, input controller and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190724

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200122

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200122

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200128

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200204

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200306

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200310

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20201006

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20201208

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210216

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210323

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210401

R150 Certificate of patent or registration of utility model

Ref document number: 6863918

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250