JP6192793B2 - Object display method, program, and apparatus - Google Patents

Object display method, program, and apparatus Download PDF

Info

Publication number
JP6192793B2
JP6192793B2 JP2016217423A JP2016217423A JP6192793B2 JP 6192793 B2 JP6192793 B2 JP 6192793B2 JP 2016217423 A JP2016217423 A JP 2016217423A JP 2016217423 A JP2016217423 A JP 2016217423A JP 6192793 B2 JP6192793 B2 JP 6192793B2
Authority
JP
Japan
Prior art keywords
command
attributes
unit
snapshot
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016217423A
Other languages
Japanese (ja)
Other versions
JP2017073145A (en
Inventor
陽介 川上
陽介 川上
宗栄 中川
宗栄 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Celsys Inc
Original Assignee
Celsys Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Celsys Inc filed Critical Celsys Inc
Priority to JP2016217423A priority Critical patent/JP6192793B2/en
Publication of JP2017073145A publication Critical patent/JP2017073145A/en
Application granted granted Critical
Publication of JP6192793B2 publication Critical patent/JP6192793B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、オブジェクトを表示する方法、プログラム、及び装置に関する。   The present invention relates to a method, a program, and an apparatus for displaying an object.

近年、マルチタッチデバイスを用いたタブレット端末やスマートフォンの普及や、非接触センサを用いたゲーム機器の普及に伴い、これらのセンシングデバイス(sensing device)を用いた新たな入力制御方法の検討がなされている。   In recent years, with the spread of tablet terminals and smartphones using multi-touch devices, and the spread of game machines using non-contact sensors, new input control methods using these sensing devices have been studied. Yes.

たとえば、指の動きによる特定のジェスチャを特定のコマンドに対応付けて、インターラクティブな機器の操作を可能としている。   For example, a specific gesture caused by finger movement is associated with a specific command to enable interactive device operation.

典型的なマルチタッチデバイスは、ディスプレイの表面にタッチパネルを設置し、このタッチパネルに対し直接指を用いて複数箇所を同時にポイントできるもの(例えば、マルチタッチスクリーン)が挙げられる。   A typical multi-touch device includes a device (for example, a multi-touch screen) in which a touch panel is installed on the surface of a display and a plurality of locations can be pointed at the same time using a finger directly on the touch panel.

このマルチタッチデバイスを用いて、オペレータは、コンピュータに対して種々の入力指示を与えることができる。以下に、その例を挙げる。たとえば、「タップ」は、画面に触れてすぐに離す操作で、マウスで行うクリックに対応する。「ダブルタップ」は、短時間に連続して2回タップする操作で、マウスで行うダブルクリックに対応する。「ドラッグ」は、画面に触れたまま指を移動させる操作で、マウスのドラッグに対応する。また、「フリック」は、タップと同時に指をずらす動作を意味し、マウスでは対応する操作は存在しない。「スワイプ」は、画面を掃くような操作であり、ドラッグとフリックの中間に対応する操作である。この「スワイプ」は、スクロール等において、操作する指を離した後もスクロールを継続させる場合などに用いられている。「ピンチイン」や「ピンチアウト」は、二本の指をドラッグさせてそれぞれ近づける操作および遠ざける操作に対応する。「タッチアンドホールド」は、一本の指で一定時間タッチスクリーンをタッチしたままの状態を保つ操作を意味する。   Using this multi-touch device, the operator can give various input instructions to the computer. Examples are given below. For example, “tap” corresponds to a click performed with the mouse by touching the screen and releasing it immediately. “Double tap” corresponds to a double click performed with a mouse by tapping twice continuously in a short time. “Drag” is an operation of moving a finger while touching the screen, and corresponds to dragging the mouse. “Flick” means an operation of moving a finger simultaneously with a tap, and there is no corresponding operation with a mouse. “Swipe” is an operation that sweeps the screen, and is an operation corresponding to the middle of dragging and flicking. This “swipe” is used, for example, when scrolling is continued even after a finger to be operated is released. “Pinch-in” and “pinch-out” correspond to operations to move two fingers closer and away from each other. “Touch and hold” means an operation of keeping the touch screen touched with a single finger for a certain period of time.

このように、マルチタッチデバイスは、マシンに様々な指示を与えることができる。しかしながら、依然として、マルチタッチデバイスによって、オペレータが意図する操作を行うことには困難を伴うことが多い。したがって、マルチタッチデバイスを用いて、より簡便な方法で、意図した画像を短時間に作成または変更できる環境を提供する技術の更なる発展が望まれている。   In this way, the multi-touch device can give various instructions to the machine. However, it is still often difficult for the operator to perform an operation intended by the multi-touch device. Therefore, further development of a technique that provides an environment in which an intended image can be created or changed in a short time by a simpler method using a multi-touch device is desired.

従来、マルチタッチデバイスに対するユーザのジェスチャを識別し、ジェスチャに応じて所定のオペレーションを実行する技術が存在する(特許文献1参照)。   Conventionally, there is a technique for identifying a user's gesture for a multi-touch device and executing a predetermined operation in accordance with the gesture (see Patent Document 1).

また、マルチタッチデバイスを用いて、特定の位置にある第1のアイコンに、第2のアイコンを重ねた場合に、第1のアイコンに代えて、特定の位置に第2のアイコンを表示させる技術が存在する(特許文献2参照)。   In addition, when a second icon is superimposed on a first icon at a specific position using a multi-touch device, a technique for displaying the second icon at a specific position instead of the first icon (See Patent Document 2).

特表2008−508601号公報Special table 2008-508601 gazette 特表2010−538394号公報Special table 2010-538394 gazette

実施例は、センシングデバイスを用いて、オブジェクトの変更または表示をより簡便に又は直感的に行えるようにすることを目的とする。   An embodiment aims to make it possible to change or display an object more simply or intuitively using a sensing device.

一側面では、本発明は、コンピュータによってオブジェクトを表示する方法であって、
オペレータからのセンシングデバイスに対して行われたジェスチャイベントを受け取るステップと、前記受け取られたジェスチャイベントによって選択されたオブジェクトの複数の属性を特定するステップと、所定の規則に基づいて、前記受け取られたジェスチャイベント又は新たに受け取られたジェスチャイベントをコマンドに変換するステップと、選択された前記オブジェクトの代替の候補となる代替オブジェクトであって、前記選択されたオブジェクトによって予め定められた属性が一致する代替オブジェクトを、オブジェクト記憶部から検索するステップと、前記コマンドと、前記選択されたオブジェクトの複数の属性とに基づいて、前記選択されたオブジェクトを修正するステップと、を有し、前記修正するステップは、前記選択されたオブジェクトを、前記代替オブジェクトによって置き換えるステップ、 を含む、方法を提供する。
In one aspect, the present invention is a method for displaying an object by a computer comprising:
Receiving a gesture event made to a sensing device from an operator; identifying a plurality of attributes of an object selected by the received gesture event; and based on a predetermined rule, the received A step of converting a gesture event or a newly received gesture event into a command, and a replacement object that is a candidate for replacement of the selected object, the replacement having a predetermined attribute that matches the selected object Retrieving an object from an object storage unit, modifying the selected object based on the command and a plurality of attributes of the selected object, the modifying step comprising: The selection The object, comprising the step of replacing by the alternative object to provide a method.

実施例では、センシングデバイスを用いて、オブジェクトの変更または表示をより簡便に行うことができる。   In the embodiment, an object can be changed or displayed more easily using a sensing device.

一実施例の構成を示す図である。It is a figure which shows the structure of one Example. 一実施例の操作の例を示す図である。It is a figure which shows the example of operation of one Example. 一実施例の操作を示す図である。It is a figure which shows operation of one Example. スナップショットの機能を持つ別の実施例を示す図である。It is a figure which shows another Example with the function of a snapshot. 属性の固定の指示を行った場合のオブジェクトの変更を示した図である。It is the figure which showed the change of the object when the instruction | indication of fixation of an attribute is performed. スナップショット機能を示す図である。It is a figure which shows a snapshot function. ヒストリ機能を示す図である。It is a figure which shows a history function. 一実施例の処理フローを示す図である。It is a figure which shows the processing flow of one Example. 本発明の実施例のハードウェア(コンピュータ)の構成例を示す図である。It is a figure which shows the structural example of the hardware (computer) of the Example of this invention. 一実施例の機能ブロック図である。It is a functional block diagram of one Example.

以下に、図面を用いて本発明の実施例を詳細に説明する。なお、以下の実施例は、発明を理解するためのものであり、本発明の範囲を限定するためのものではない点に留意すべきである。また、以下の複数の実施例は、相互に排他的なものではない。したがって、矛盾が生じない限り、実施例の各要素を組み合わせることも意図されていることに留意すべきである。また、請求項に記載された方法やプログラムに係る発明は、矛盾のない限り処理の順番を入れ替えてもよく、あるいは、複数の処理を同時に実施してもよい。そして、これらの実施形態も、請求項に記載された発明の技術的範囲に包含されることは言うまでもない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. It should be noted that the following examples are for the purpose of understanding the invention and are not intended to limit the scope of the present invention. Also, the following embodiments are not mutually exclusive. Therefore, it should be noted that the elements of the embodiments are also intended to be combined unless a contradiction arises. Further, in the invention according to the method and the program described in the claims, the order of the processes may be changed as long as there is no contradiction, or a plurality of processes may be performed simultaneously. It goes without saying that these embodiments are also included in the technical scope of the invention described in the claims.

また、本発明は、マルチタッチデバイスの利用に限定されない。例えば、接触又は非接触で位置を指定できる様々なセンシングデバイスを用いることができる。また、指定できる位置は、二次元座標位置に限定されず、三次元空間上の三次元座標位置を指定することも包含される。また、本発明は、二次元画像に限定されるものではなく、例えば三次元オブジェクトの二次元投影画像や、立体画像表示に対しても適用できることはいうまでもない。したがって、本発明は、仮想空間上の三次元オブジェクトの変更や修正にも利用できる。   Also, the present invention is not limited to the use of multi-touch devices. For example, various sensing devices that can specify a position in contact or non-contact can be used. Further, the position that can be designated is not limited to the two-dimensional coordinate position, but includes designation of a three-dimensional coordinate position in a three-dimensional space. Further, the present invention is not limited to a two-dimensional image, and it goes without saying that the present invention can be applied to, for example, a two-dimensional projection image of a three-dimensional object and a stereoscopic image display. Therefore, the present invention can be used to change or modify a three-dimensional object in the virtual space.

加えて、本発明は、様々な分野に利用できるものである。例えば、二次元画像を作成、編集するドローソフト、プレゼンテーション資料作成ソフト、企画書作成ソフト等にも利用できる。また、ゲームソフトウエア、三次元モデリングソフトウエア、ウエブブラウザ等のプラグインソフトウエア、仮想現実(バーチャルリアリティ)に係るソフトウエア、ソーシャルネットワーキングサービス(SNS)に係るソフトウエア、マインドマップ等の思考ツール、表計算ソフト等の業務用ソフト等にも利用できることは言うまでもない。   In addition, the present invention can be used in various fields. For example, it can be used for drawing software for creating and editing two-dimensional images, presentation material creation software, plan book creation software, and the like. In addition, game software, 3D modeling software, plug-in software such as a web browser, software related to virtual reality (virtual reality), software related to social networking service (SNS), thinking tools such as mind maps, Needless to say, it can also be used for business software such as spreadsheet software.

本明細書におけるオブジェクトのその他の例としては、ゲームソフトウエアにおけるキャラクタの装備の着せ替え、キャラクタ自体の変更や修正、アバター(自分の分身となるキャラクタ)に対する衣装の着せ替えやヘアースタイルの変更、3Dマテリアルの色、テクスチャ、光沢の変更、フォント、フキダシ等の変更、及びフキダシ内のフォントの変更等が挙げられる。 また、以下に示す各実施例における、操作(タップ、タッチ、スワイプ、ダブルタップ、ドラッグアンドドロップ等)は、例示的なものである。したがって、任意の操作を、任意の指示に割り当ててもよいことは言うまでもない。   Other examples of the objects in this specification include changing the character equipment in the game software, changing and correcting the character itself, changing the costume of the avatar (the character that will be his own character) and changing the hair style, Examples include changes in the color, texture, and gloss of 3D material, changes in fonts and balloons, and changes in fonts in balloons. Further, the operations (tap, touch, swipe, double tap, drag and drop, etc.) in each of the embodiments described below are exemplary. Therefore, it goes without saying that any operation may be assigned to any instruction.

図1は、本発明の一実施例を示している。タブレット端末100に、画面110が設置されている。画面110は、マルチタッチデバイスを兼ねてもよい。オペレータの手150の指151が、画面110に接触している。指151は、画面上では、指の1本のみが画面110に触れているが、複数の指が触れていてもよい。例えば指151は、指を画面に触れて、画面に触れたまま、矢印131に沿って指を動かしてもよい。この操作は、「フリック」又は、「スワイプ」に相当する。軌跡132に沿って、指151が画面をなぞってもよい。この操作には、特に名前は存在しない。   FIG. 1 shows an embodiment of the present invention. A screen 110 is installed on the tablet terminal 100. The screen 110 may also serve as a multi-touch device. The finger 151 of the operator's hand 150 is in contact with the screen 110. On the screen, only one finger of the finger 151 touches the screen 110, but a plurality of fingers may touch it. For example, the finger 151 may touch the screen and move the finger along the arrow 131 while touching the screen. This operation corresponds to “flick” or “swipe”. The finger 151 may trace the screen along the trajectory 132. There is no specific name for this operation.

図2は、本発明の一実施例の操作の例を示している。図2(A)において、画面110には、キャラクタ200が表示されている。そして、キャラクタ200を構成している複数のオブジェクトのうち、下半身の衣服であるスカート210が表示されている。スカート210は、オブジェクトの一つである。オペレータは、例えば、スカート210を指151でタッチまたはタップすることにより、スカート210を選択状態にすることができる。その後、指151をほぼ水平方向である矢印250方向にスワイプしてもよい。なお、上述のタッチ操作とスワイプ操作の間で、指151が画面から一旦離れてもよく、或いは、離れることなく連続して、二つの操作が行われてもよい。   FIG. 2 shows an example of the operation of one embodiment of the present invention. In FIG. 2A, the character 200 is displayed on the screen 110. Of the plurality of objects constituting the character 200, a skirt 210 that is a lower-body clothes is displayed. The skirt 210 is one of the objects. The operator can put the skirt 210 in a selected state by touching or tapping the skirt 210 with the finger 151, for example. Thereafter, the finger 151 may be swiped in the direction of the arrow 250 that is substantially horizontal. Note that, between the touch operation and the swipe operation described above, the finger 151 may be once released from the screen, or two operations may be continuously performed without leaving the screen.

図2(B)は、指151が矢印250方向にスワイプされた後の状態を示している。キャラクタ200の下半身の衣服は、スカート210が消去され、ズボン220に変更されて表示されている。この場合、スカート210は、図2(D)に示すように、属性として「衣服」「下半身」「女性用」という属性を持っている。ズボン220も属性として、「衣服」「下半身」「女性用」を持っている。したがって、両者は複数の属性の一部が同一である。そして、表示されたズボン220は、選択状態にされてもよい。さらに、指151が矢印250方向にスワイプされた場合には、ズボン220の複数の属性の一部が同一である属性を持つ更に別のオブジェクトを表示させてもよい(図示せず)。なお、表示させる順番は、予め定めておいてもよく、ランダムであってもよい。   FIG. 2B shows a state after the finger 151 is swiped in the direction of the arrow 250. The clothing of the lower body of the character 200 is displayed with the skirt 210 deleted and changed to trousers 220. In this case, as shown in FIG. 2D, the skirt 210 has attributes “clothing”, “lower body”, and “for women”. The trousers 220 also have “clothing”, “lower body”, and “for women” as attributes. Therefore, both have some of the same attributes. Then, the displayed pants 220 may be selected. Furthermore, when the finger 151 is swiped in the direction of the arrow 250, another object having an attribute in which some of the plurality of attributes of the pants 220 are the same may be displayed (not shown). Note that the display order may be predetermined or random.

図2(C)は、図2(B)の状態から指151をほぼ水平方向に矢印251方向にスワイプし終わった状態を示している。この場合には、ズボン220が表示されていた直前のオブジェクトであるスカート210が表示されるようにしてもよい。このように、ほぼ水平に指がスワイプされた場合、オブジェクトが持つ複数の属性のうちの一部の属性が同じである別のオブジェクトを表示させてもよい。なお、この場合には、選択されたオブジェクトが一つ前に戻る操作を実行するために、後述するヒストリの保存機能を用いてもよい。   FIG. 2C shows a state where the finger 151 has been swiped in the direction of the arrow 251 in the horizontal direction from the state of FIG. In this case, the skirt 210, which is the object immediately before the trousers 220 are displayed, may be displayed. In this way, when the finger is swiped substantially horizontally, another object having a part of the plurality of attributes of the object may be displayed. In this case, a history saving function, which will be described later, may be used to execute an operation in which the selected object returns to the previous one.

また、横方向の1回のスワイプの途中で、順次複数のオブジェクトを順番に表示させるようにしてもよい。   In addition, a plurality of objects may be sequentially displayed in the middle of one horizontal swipe.

図2(D)は、オブジェクトの各々が持っている属性の一部を列挙した表を示している。「ID」は、それぞれのオブジェクトを特定するための識別子である。そして、たとえば、属性には、「用途」「位置」「男女」「色」「季節」の項目を持っていてもよい。なお、属性に対する項目は、上記の例に限られるものではない。そして、ID210のオブジェクトは、属性として、上記の項目の順番に「衣服」「下半身」「女」「グレー」「春秋」を持っている。なお、複数の属性項目のうちで、いずれの属性項目が一致しているオブジェクトを候補として選択するかは、予めその項目をID毎に定めておいてもよい。或いは、一致すべき属性項目をユーザが選択できるよう、例えば、オブジェクトが選択されたときに属性項目を表示させ、ユーザに選択を促してもよい。   FIG. 2D shows a table listing some of the attributes of each object. “ID” is an identifier for identifying each object. For example, the attribute may have items of “use”, “position”, “sex”, “color”, and “season”. The item for the attribute is not limited to the above example. The object of ID 210 has “clothing”, “lower body”, “woman”, “gray”, and “spring / autumn” in the order of the above items as attributes. It should be noted that it may be determined in advance for each ID whether an object with which attribute item matches among the plurality of attribute items is selected as a candidate. Alternatively, for example, when an object is selected, the attribute item may be displayed and the user may be prompted to select so that the attribute item to be matched can be selected.

図3は、一実施例の操作を示している。図3(A)は、キャラクタ200がズボン220を着用しており、ズボン220が選択されている場合を想定する。指151が矢印350の方向にスワイプする直前の状態が示されている。   FIG. 3 illustrates the operation of one embodiment. FIG. 3A assumes a case where character 200 is wearing trousers 220 and trousers 220 are selected. A state immediately before the finger 151 swipes in the direction of the arrow 350 is shown.

図3(B)は、指151が矢印350方向にスワイプし終えた状態を示している。図示されるように、下半身の衣服は、薄いグレーのズボン220から濃いグレーのズボン221に修正されている。この場合、修正されたズボン221を、図2(D)に示した属性を示す表に追加して保存してもよい。保存することによって、ズボン221を再度利用できるようにしてもよい。   FIG. 3B shows a state where the finger 151 has finished swiping in the direction of the arrow 350. As shown, the lower garment has been modified from light gray trousers 220 to dark gray trousers 221. In this case, the corrected pants 221 may be added to the table showing the attributes shown in FIG. By saving, the trousers 221 may be used again.

図3(C)は、指151を矢印351に沿ってスワイプし終えた状態を示している。図示されるように、下半身の衣服は、薄いグレーのズボン220に戻っている。このように、例えば、ほぼ垂直にスワイプする操作によって、「色」の属性を修正できるようにしてもよい。なお、どの属性を修正できるようにするかは、オブジェクト毎に予め定めておいてもよい。或いは、修正できる属性の候補を表示し、ユーザに属性の選択を促してもよい。また、スワイプの途中で、「色」の属性を連続的に変化させてもよい。或いは、垂直にスワイプしていた状態から左右や斜めの方向にスワイプの方向が変化した場合には、色相、彩度、明度等の変化を、方向に応じて変化させてもよい。   FIG. 3C shows a state in which the finger 151 has been swiped along the arrow 351. As shown, the lower garment has returned to light gray trousers 220. Thus, for example, the attribute of “color” may be corrected by an operation of swiping substantially vertically. It should be noted that which attribute can be modified may be determined in advance for each object. Or the candidate of the attribute which can be corrected may be displayed and a user may be prompted to select an attribute. Further, the attribute of “color” may be continuously changed during the swipe. Alternatively, when the swipe direction changes from the vertically swipe state to the left and right or oblique directions, changes in hue, saturation, brightness, etc. may be changed according to the direction.

図4は、スナップショットの機能を持つ別の実施例を示している。図4(A)は、キャラクタ200をダブルタップして選択された場合を示している。そして、指151を矢印450方向にスワイプした例を示している。図示されるように、キャラクタ200の全体を小さくしたスナップショット460が表示されている。スナップショット460は、ダブルタップした時点における、キャラクタ200の状態を保持している。その後、例えば、スナップショットをダブルタップすることにより、キャラクタ200をスナップショット460に保存されている状態に復元することができるようにしてもよい(図示せず)。あるいは、キャラクタ200が選択されていない場合に、スナップショット460がダブルタップされた場合には、スナップショット460の状態を持つ新たなキャラクタを表示させてもよい(図示せず)。   FIG. 4 shows another embodiment having a snapshot function. FIG. 4A shows a case where the character 200 is selected by double tapping. An example in which the finger 151 is swiped in the direction of the arrow 450 is shown. As illustrated, a snapshot 460 in which the entire character 200 is reduced is displayed. The snapshot 460 holds the state of the character 200 at the time of double tapping. Thereafter, for example, the character 200 may be restored to the state stored in the snapshot 460 by double-tapping the snapshot (not shown). Alternatively, when the character 200 is not selected and the snapshot 460 is double-tapped, a new character having the snapshot 460 state may be displayed (not shown).

図4(B)は、オブジェクトであるズボン221がダブルタップされ、その後、指151によって、矢印452方向にスワイプされた後の状態を示している。この場合には、ズボン221のみのスナップショット461が生成されてもよい。その後、例えば、下半身の衣服を選択状態にして、このスナップショット461をダブルタップすると、下半身の衣服をスナップショット461の状態にしてもよい(図示せず)。或いは、スナップショット461を、下半身の衣服にドラッグアンドドロップすることにより、下半身の衣服をスナップショット461の状態にしてもよい(図6において説明する)。   FIG. 4B shows a state after the object trousers 221 are double-tapped and then swipe by the finger 151 in the arrow 452 direction. In this case, a snapshot 461 of only the pants 221 may be generated. Thereafter, for example, when the lower-body clothes are selected and the snapshot 461 is double-tapped, the lower-body clothes may be in the snapshot 461 state (not shown). Alternatively, by dragging and dropping the snapshot 461 onto the lower body clothes, the lower body clothes may be brought into the state of the snapshot 461 (described in FIG. 6).

図5は、属性の固定の指示を行った場合のオブジェクトの変更を示した例である。たとえば、オペレータに対して、属性「色」の固定を指示できるようにしてもよい。図5(A)に示されるように、オペレータが予め、属性「色」を固定した場合を想定する。そして、指151を矢印550方向にスワイプする直前の状態が示されている。ズボン221の色は、濃いグレーになっている。図5(B)は、指151を矢印550に沿ってスワイプし終えた状態を示している。図示されるように、下半身の衣服は、濃いグレーのミニスカート520となっている。この場合、図2(D)の表に記憶されているオブジェクトのうち、色についても同じ「色」の属性(濃いグレー)を持つものだけを検索し、表示させてもよい。あるいは、他の「色」の属性を持つオブジェクトも検索し、属性を(濃いグレーに)変更して、そのオブジェクトを表示させてもよい。なお、固定の指示ができる属性は、属性においても限られたものに限定してもよい(例えば、色、明度、色相等)。例えば、オブジェクトが選択された際に、固定できる属性を表示し、オペレータからの属性の固定の指示を促してもよい。なお、表示されたオブジェクトにおいて新たな属性を持つものは、図2(D)に示される表に追加して登録してもよい。   FIG. 5 shows an example of changing an object when an instruction for fixing an attribute is given. For example, the operator may be instructed to fix the attribute “color”. As shown in FIG. 5A, it is assumed that the operator fixes the attribute “color” in advance. A state immediately before swiping the finger 151 in the direction of the arrow 550 is shown. The color of the trousers 221 is dark gray. FIG. 5B shows a state in which the finger 151 has been swiped along the arrow 550. As shown, the lower garment is a dark gray miniskirt 520. In this case, among the objects stored in the table of FIG. 2D, only those having the same “color” attribute (dark gray) may be retrieved and displayed. Alternatively, an object having another “color” attribute may be searched, the attribute may be changed (to dark gray), and the object may be displayed. Note that attributes that can be instructed to be fixed may be limited to those limited in attributes (for example, color, brightness, hue, etc.). For example, when an object is selected, an attribute that can be fixed may be displayed to prompt an operator to fix the attribute. Note that a displayed object having a new attribute may be registered in addition to the table shown in FIG.

図6は、スナップショットの復元の例を示す。図6(A)に示されるように、スナップショット461を、矢印650方向に、ミニスカート520上にドラッグアンドドロップする場合を想定する。図6(B)に示されるように、キャラクタ200の下半身の衣服が、ズボン220に変更されている。このように、スナップショット461を保存することによって、後の状態において、スナップショット461の状態を簡便に復元することができる。   FIG. 6 shows an example of snapshot restoration. As shown in FIG. 6A, it is assumed that the snapshot 461 is dragged and dropped on the miniskirt 520 in the direction of the arrow 650. As shown in FIG. 6B, the lower body clothes of the character 200 are changed to trousers 220. Thus, by saving the snapshot 461, the state of the snapshot 461 can be easily restored in a later state.

図7は、ヒストリ機能の実施例を示している。図7(A)に示されるように、まずズボン220をタップして選択し、その後、指151で円702を描く。この場合、円702を描くことが、ヒストリ機能をアクティベートするコマンドに対応付けられてもよい。図7(B)に示されるように。下半身の衣服の表示のヒストリ(781ないし787)がキャラクタ200の下に表示されてもよい。そして、指151が、ヒストリ表示781を、キャラクタ200の下半身の衣服上に、ドラッグアンドドロップすると、下半身の衣服が、ドレス720に変更される。ヒストリ表示(781ないし787)は、左右に横スクロールして、更に過去のヒストリを表示できるようにしてもよい。横スクロールの指示は、たとえば、指151によるスワイプによって行えるようにしてもよい。   FIG. 7 shows an embodiment of the history function. As shown in FIG. 7A, the trousers 220 are first selected by tapping, and then a circle 702 is drawn with the finger 151. In this case, drawing a circle 702 may be associated with a command that activates the history function. As shown in FIG. The display history (781 to 787) of the clothing of the lower body may be displayed below the character 200. Then, when the finger 151 drags and drops the history display 781 onto the clothing of the lower body of the character 200, the clothing of the lower body is changed to a dress 720. The history display (781 to 787) may be horizontally scrolled to the left and right to further display the past history. The side scrolling instruction may be performed by, for example, swiping with the finger 151.

図8は、一実施例の処理フローを示している。   FIG. 8 shows a processing flow of one embodiment.

ステップ810において、選択されたオブジェクトの属性が特定される。   In step 810, the attributes of the selected object are identified.

ステップ820において、オペレータのジェスチャをイベントとして受け取る。   In step 820, the operator's gesture is received as an event.

ステップ830において、そのジェスチャイベントを、コマンドに変換する。この場合、ジェスチャとコマンドとの対応は、予め定めておいてもよい。また、ユーザからの指示に基づいて、ジェスチャとコマンドとの対応を新たに追加し、或いは、変更できるようにしてもよい。   In step 830, the gesture event is converted to a command. In this case, the correspondence between the gesture and the command may be determined in advance. Further, based on an instruction from the user, the correspondence between the gesture and the command may be newly added or changed.

ステップ840において、選択されたオブジェクトの持つ複数の属性の一部の属性に基づいて、記憶部から、一部又は全部の属性が一致するオブジェクトを検索する。検索する際に、どの属性をキーとして検索するかは、選択されたオブジェクト毎に指定しておいてもよい。或いは、検索するための属性を記憶しておき、その属性に関して検索を実施してもよい。或いは、検索すべき属性をオペレータが指示できるよう、オペレータに促してもよい。   In step 840, based on some attributes of the plurality of attributes of the selected object, an object with a part or all of the attributes matching is searched from the storage unit. When searching, which attribute is to be searched for as a key may be specified for each selected object. Or the attribute for searching may be memorize | stored and a search may be implemented regarding the attribute. Alternatively, the operator may be prompted so that the operator can specify the attribute to be searched.

ステップ850において、オブジェクトの属性とコマンドとから、オブジェクトの修正を行う。コマンドに応じて、オブジェクトの置き換え852、オブジェクトの属性の変更854、スナップショットの表示856を行ってもよい。なお、修正されたオブジェクトや、表示されたオブジェクトは、選択状態におかれてもよい。   In step 850, the object is corrected from the attribute and command of the object. Depending on the command, object replacement 852, object attribute change 854, and snapshot display 856 may be performed. The corrected object and the displayed object may be selected.

ステップ860において、表示されたオブジェクトのヒストリの記憶が行われる。ヒストリの記憶には、図2(D)に示したオブジェクトIDだけをスタック式に記憶してもよい。ヒストリにより特定のオブジェクトが指示された場合には、オブジェクトIDから、図2(D)の表を参照し、属性を取得して表示してもよい。なお、オブジェクトの形状等のグラフィカルな情報は、オブジェクトIDをキーとして別途記憶しておいてもよい。ヒストリの保存において、複数のオブジェクト全てまたはオブジェクトの集合を保存してもよい。   In step 860, the history of the displayed object is stored. In the history storage, only the object IDs shown in FIG. 2D may be stored in a stack type. When a specific object is designated by the history, the attribute may be acquired and displayed from the object ID with reference to the table of FIG. Note that graphical information such as the shape of the object may be stored separately using the object ID as a key. In saving the history, all of a plurality of objects or a set of objects may be saved.

ステップ870において、例えば属性が変更された場合には、図2(D)に示された表に、新たなエントリを加えてもよい。或いは、変更できる属性は、図2(D)の表とは別の表に、オブジェクトID毎に属性を保存してもよい。両者の表は、オブジェクトIDによって、結びつけられてもよい。   In step 870, for example, when the attribute is changed, a new entry may be added to the table shown in FIG. Alternatively, the attributes that can be changed may be stored for each object ID in a table different from the table in FIG. Both tables may be linked by an object ID.

ステップ880において、スナップショットの保存指示が行われたかが判断される。この判断が、「はい」であれば、ステップ885に進む。「いいえ」であれば、終了してもよい。選択状態が継続していれば、ステップ820に戻ってもよい(図示せず)。   In step 880, it is determined whether an instruction to save a snapshot has been issued. If this determination is “Yes”, the process proceeds to Step 885. If “no”, the process may be terminated. If the selected state continues, the process may return to step 820 (not shown).

ステップ885において、スナップショットの保存が行われる。この保存においては、オブジェクト又はオブジェクトの集合の状態全てを保存する。既に述べたように、キャラクタ200が選択された場合には、キャラクタ200に付随する全てのオブジェクトの状態を保存してもよい。   In step 885, the snapshot is saved. In this storage, all the states of the object or the set of objects are stored. As already described, when the character 200 is selected, the states of all objects associated with the character 200 may be saved.

上述の本発明の各種実施例を具体的なアプリケーションソフトウエアに利用したその他の応用例を以下に開示する(図示せず)。   Other application examples in which the above-described various embodiments of the present invention are applied to specific application software are disclosed below (not shown).

(1)ドローソフト
ドローソフトとは、グラフィックソフトウエアの一種であり、点、曲線、領域の塗りつぶしなどの機能を用いて図やイラストレーションを作成するソフトウエアである。作成された図やイラストレーションは、ベクター形式のデータで保存されることが多いが、ラスター形式で保存される場合もある。
(1) Draw Software Draw software is a type of graphic software that creates figures and illustrations using functions such as filling points, curves, and areas. The created diagrams and illustrations are often saved in vector format data, but may be saved in raster format.

例えば、上述の実施例を用いることにより、ドローソフトで描画された線の線種を変更(例えば実線から破線に変更)してもよい。線の太さを変更してもよい。塗りつぶされた領域の色を変更してもよい。このように、本発明の実施例をドローソフトで描かれた図やイラストレーションの変更や修正に利用できる。   For example, the line type of the line drawn with the draw software may be changed (for example, changed from a solid line to a broken line) by using the above-described embodiment. You may change the thickness of the line. The color of the filled area may be changed. As described above, the embodiment of the present invention can be used to change or modify a diagram or an illustration drawn with draw software.

(2)プレゼンテーションソフト
プレゼンテーション用のソフトウエア、企画書作成用ソフトウエア、表計算ソフトウエア等において、上述の実施例を利用することができる。
(2) Presentation software The above-described embodiment can be used in presentation software, planning document creation software, spreadsheet software, and the like.

例えば、作成された円グラフを他の形式のグラフ(棒グラフ等)に変更する際、上述の実施例が利用できる。オペレータは、円グラフをスワイプすることによって、簡単に棒グラフに変更することができる。   For example, when the created pie chart is changed to another form of graph (bar graph or the like), the above-described embodiment can be used. The operator can easily change to a bar graph by swiping the pie graph.

或いは、プレゼンテーション用に用意されたテンプレートを変更することに利用してもよい。   Or you may utilize for changing the template prepared for the presentation.

或いは、フキダシ等の中に記載された文字のフォントを変更することに関して、本実施例を用いてもよい。例えば、オペレータがフキダシをスワイプすることによって、あるフォントで書かれた文書を別のフォントに変更するために、本実施例を用いてもよい。   Or you may use a present Example regarding changing the font of the character described in the balloon etc. For example, the present embodiment may be used to change a document written in one font into another font by swiping the balloon.

(3)ゲームソフト
ゲームソフトや、ソーシャルネットワーキングサービス(SNS)のキャラクタやアバターの服、装備、髪型等を変更する場合に、上述の実施例を利用してもよい。
(3) Game software When changing game software, social networking service (SNS) characters and avatar clothes, equipment, hairstyle, etc., the above-described embodiments may be used.

例えば、オペレータがキャラクタの頭部を指でスワイプすることによって、キャラクタの髪型をロングからショートに変更するよう、上述の実施例を利用してもよい。   For example, the above-described embodiment may be used so that the operator changes the character's hairstyle from long to short by swiping the character's head with a finger.

(4)3Dソフト
3Dソフトウエア等の三次元オブジェクトに対して上述の実施例を適用してもよい。
(4) 3D software The above-described embodiment may be applied to a three-dimensional object such as 3D software.

例えば、オペレータが、三次元オブジェクトを指でスワイプすることによって、その三次元オブジェクトの色を変更するように、上述の実施例を用いてもよい。或いは、三次元オブジェクトのテクスチャや光沢等を変更するように、上述の実施例を適用してもよい。   For example, the above-described embodiment may be used such that the operator changes the color of the three-dimensional object by swiping the three-dimensional object with a finger. Or you may apply the above-mentioned Example so that the texture, glossiness, etc. of a three-dimensional object may be changed.

以上の応用例は、例を示したものであって、本発明を限定するものではない。   The above application examples are examples and do not limit the present invention.

図9は、本発明の実施形態のハードウェア(コンピュータ)の構成例を示している。ハードウェアは、CPU910、メモリ920、入力装置930、表示装置940、プリンタ980、可搬記録媒体インタフェース960が含まれ得る。そして、それぞれの機器は、バス970によって接続されてもよい。また、可搬記録媒体インタフェース960は、可搬記録媒体961を読み書きすることができる。   FIG. 9 shows a configuration example of hardware (computer) according to the embodiment of the present invention. The hardware can include a CPU 910, a memory 920, an input device 930, a display device 940, a printer 980, and a portable recording medium interface 960. Each device may be connected by a bus 970. The portable recording medium interface 960 can read and write the portable recording medium 961.

なお、本実施形態の全部又は一部はプログラムによってインプリメントされ得る。このプログラムは、可搬記録媒体961に格納することができる。例示として、可搬記録媒体961としては、磁気記録媒体、光ディスク、光磁気記録媒体、不揮発性メモリなどがある。磁気記録媒体には、HDD、フレキシブルディスク(FD)、磁気テープ(MT)などがある。光ディスクには、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc-Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。また、光磁気記録媒体には、MO(Magneto-Optical disk)などがある。不揮発性メモリには、USBメモリ、SDメモリなどがある。可搬記録媒体961に格納されたプログラムが読み込まれ、CPUによって実行されることにより、本発明の実施例の全部又は一部が実施され得る。   Note that all or part of the present embodiment can be implemented by a program. This program can be stored in the portable recording medium 961. Examples of the portable recording medium 961 include a magnetic recording medium, an optical disk, a magneto-optical recording medium, and a nonvolatile memory. Magnetic recording media include HDDs, flexible disks (FD), magnetic tapes (MT) and the like. Optical disks include DVD (Digital Versatile Disc), DVD-RAM, CD-ROM (Compact Disc-Read Only Memory), CD-R (Recordable) / RW (ReWritable), and the like. Magneto-optical recording media include MO (Magneto-Optical disk). Non-volatile memory includes USB memory and SD memory. All or part of the embodiments of the present invention can be implemented by reading a program stored in the portable recording medium 961 and executing it by the CPU.

図10は、一実施例の機能ブロック図である。   FIG. 10 is a functional block diagram of an embodiment.

ジェスチャイベント受取部1012は、オペレータのジェスチャ1010を受け取り、コマンド変換部1014に、ジェスチャイベントの情報を渡してもよい。   The gesture event receiving unit 1012 may receive the gesture 1010 of the operator and pass the gesture event information to the command conversion unit 1014.

コマンド変換部1014は、ジェスチャイベントを所定の規則に基づいてコマンドに変換する。そして、そのコマンドは、オブジェクト属性特定部1018、修正部1030、及びスナップショットオブジェクト保存部1016に伝達されてもよい。   The command conversion unit 1014 converts the gesture event into a command based on a predetermined rule. Then, the command may be transmitted to the object attribute specifying unit 1018, the correction unit 1030, and the snapshot object storage unit 1016.

オブジェクト属性特定部1018は、オブジェクトの選択コマンドに応答して、選択されたオブジェクトの属性を特定する。特定された属性は、修正部1030と代替オブジェクト検索部1020に伝達されてもよい。   The object attribute specifying unit 1018 specifies the attribute of the selected object in response to the object selection command. The identified attribute may be transmitted to the correction unit 1030 and the alternative object search unit 1020.

代替オブジェクト検索部1020は、例えばオブジェクト毎に定められた属性の検索項目に従って、オブジェクト記憶部1050を検索する。検索された代替可能なオブジェクトの集合は、修正部1030内の置き換え部1032に渡されてもよい。   The substitute object search unit 1020 searches the object storage unit 1050 in accordance with, for example, a search item having an attribute defined for each object. The retrieved set of replaceable objects may be passed to the replacement unit 1032 in the modification unit 1030.

置き換え部1032は、コマンド変換部1014からの置き換えコマンドに応答して、現在選択されているオブジェクトを、代替可能なオブジェクトの集合のうちの一つに置き換えてもよい。   In response to the replacement command from the command conversion unit 1014, the replacement unit 1032 may replace the currently selected object with one of a set of replaceable objects.

修正部1030内の属性変更部1034は、コマンド変換部1014からの属性変更コマンドに応答して、選択されているオブジェクトの属性を変更してもよい。   The attribute change unit 1034 in the correction unit 1030 may change the attribute of the selected object in response to the attribute change command from the command conversion unit 1014.

スナップショットオブジェクト保存部1016は、コマンド変換部1014からのスナップショット保存命令に応答して、選択されたオブジェクトのスナップショットを保存してもよい。   The snapshot object storage unit 1016 may store a snapshot of the selected object in response to a snapshot storage command from the command conversion unit 1014.

修正部1030内のスナップショットオブジェクト表示制御部1036は、スナップショット表示コマンドに応答して、スナップショットオブジェクト保存部1016から、指定されたスナップショットを取り出し、スナップショットの表示の制御を行ってもよい。   In response to the snapshot display command, the snapshot object display control unit 1036 in the correction unit 1030 may take out the specified snapshot from the snapshot object storage unit 1016 and control the display of the snapshot. .

ヒストリ記憶部1040は、修正部1030におけるオブジェクトの修正のヒストリを記憶する。また、ヒストリ表示指示命令に応答して動作する置き換え部1032からの要求に応じて、ヒストリ情報を提供してもよい。   The history storage unit 1040 stores the correction history of the object in the correction unit 1030. Further, history information may be provided in response to a request from the replacement unit 1032 that operates in response to a history display instruction command.

表示部1060は、修正部1030におけるオブジェクトの修正情報を基にして、表示を行ってもよい。   The display unit 1060 may perform display based on the object correction information in the correction unit 1030.

1012 ジェスチャイベント受取部
1014 コマンド変換部
1016 スナップショットオブジェクト保存部
1018 オブジェクト属性特定部
1020 代替オブジェクト検索部
1030 修正部
1032 置き換え部
1034 属性変更部
1036 スナップショットオブジェクト表示制御部
1040 ヒストリ記憶部
1050 オブジェクト記憶部
1060 表示部
1012 Gesture event receiving unit 1014 Command conversion unit 1016 Snapshot object storage unit 1018 Object attribute specifying unit 1020 Alternative object search unit 1030 Modification unit 1032 Replacement unit 1034 Attribute change unit 1036 Snapshot object display control unit 1040 History storage unit 1050 Object storage unit 1060 display unit

Claims (7)

コンピュータによってオブジェクトを表示する方法であって、
オペレータからのセンシングデバイスに対して行われたジェスチャイベントを受け取るステップと、
所定の規則に基づいて、受け取られたジェスチャイベントをコマンドに変換するステップと、
オブジェクトの選択に係るコマンドに応答して、オブジェクトを選択するステップと、
前記選択されたオブジェクトが有する複数の属性を特定するステップと、
オブジェクトの置き換えに係るコマンドに応答して、前記選択されたオブジェクトの代替の候補となる代替オブジェクトであって、前記選択されたオブジェクトによって予め定められた属性一致する属性を有する代替オブジェクトを、オブジェクト記憶部から検索するステップと、
前記選択されたオブジェクトを修正するステップと、
を有し、
前記修正するステップは、前記選択されたオブジェクトを、前記代替オブジェクトによって置き換えるステップ、
を含む、方法。
A method of displaying an object by a computer,
Receiving a gesture event performed on a sensing device from an operator;
Converting received gesture events into commands based on predetermined rules;
Selecting an object in response to a command for selecting the object;
Identifying a plurality of attributes which the selected object has,
In response to commands according to the replacement of an object, said a placeholder object which is a substitute candidate selected object, an alternative object with attributes that match the predetermined attribute by the selected object, Retrieving from the object storage unit;
Modifying the selected object;
Have
The modifying step comprises replacing the selected object with the substitute object;
Including the method.
前記修正するステップは、
前記複数の属性の少なくとも1つを変更するステップ、
を含む、請求項1に記載の方法。
The modifying step includes:
Changing at least one of the plurality of attributes;
The method of claim 1 comprising:
前記修正のヒストリを含む情報をヒストリ情報として記憶するステップ、
を更に有し、
前記コマンドは、前記ヒストリ情報に基づいて、前記修正を指定された過去の状態に戻すコマンドを含む、請求項1又は2に記載の方法。
Storing information including the history of correction as history information;
Further comprising
The method according to claim 1, wherein the command includes a command for returning the modification to a designated past state based on the history information.
スナップショットを指定するコマンドに基づいて、指示されたオブジェクト又はオブジェクトの集合を、スナップショットオブジェクトとして保存するステップ、
を更に有し、
前記修正するステップは、前記選択されたオブジェクトを前記スナップショットオブジェクトに置き換えるか、或いは、前記スナップショットオブジェクトを新たに表示するステップを含む、
請求項1ないし3のうちいずれか1項に記載の方法。
Saving the indicated object or collection of objects as a snapshot object based on a command specifying a snapshot;
Further comprising
The modifying step includes replacing the selected object with the snapshot object or displaying the snapshot object newly.
4. A method according to any one of claims 1 to 3.
複数の属性の少なくとも1つが修正された前記オブジェクトをオブジェクト記憶部に保存するステップを更に有する、請求項1ないし4のうちいずれか1項に記載の方法。   The method according to any one of claims 1 to 4, further comprising the step of storing the object in which at least one of a plurality of attributes is modified in an object storage unit. 請求項1ないし5のうちいずれか1項に記載の方法をコンピュータに実行させるプログラム。   The program which makes a computer perform the method of any one of Claims 1 thru | or 5. オブジェクトを表示する装置であって、
オペレータからのセンシングデバイスに対して行われたジェスチャイベントを受け取るジェスチャイベント受取部と、
所定の規則に基づいて、受け取られたジェスチャイベントをコマンドに変換するコマンド変換部と、
オブジェクトの選択に係るコマンドに応答して、オブジェクトを選択し、前記選択されたオブジェクトが有する複数の属性を特定するオブジェクト属性特定部と、
オブジェクトの置き換えに係るコマンドに応答して、前記選択されたオブジェクトの代替の候補となる代替オブジェクトであって、前記選択されたオブジェクトによって予め定められた属性一致する属性を有する代替オブジェクトを、オブジェクト記憶部から検索する、代替オブジェクト検索部と、
前記選択されたオブジェクトを修正する修正部と、
を有し、
前記修正部は、
前記選択されたオブジェクトを、前記代替オブジェクトによって置き換える、置き換え部、
を含む、装置。
A device for displaying objects,
A gesture event receiving unit that receives a gesture event performed on a sensing device from an operator;
A command conversion unit that converts, based on a predetermined rule, the accepted taken gesture events to command,
In response to a command related to the selection of an object , an object attribute specifying unit that selects an object and specifies a plurality of attributes of the selected object;
In response to commands according to the replacement of an object, said a placeholder object which is a substitute candidate selected object, an alternative object with attributes that match the predetermined attribute by the selected object, An alternative object search unit that searches from the object storage unit,
A correction unit for correcting the selected object;
Have
The correction unit is
A replacement unit that replaces the selected object with the substitute object;
Including the device.
JP2016217423A 2016-11-07 2016-11-07 Object display method, program, and apparatus Active JP6192793B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016217423A JP6192793B2 (en) 2016-11-07 2016-11-07 Object display method, program, and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016217423A JP6192793B2 (en) 2016-11-07 2016-11-07 Object display method, program, and apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012139226A Division JP6131004B2 (en) 2012-06-20 2012-06-20 Object display method, program, and apparatus

Publications (2)

Publication Number Publication Date
JP2017073145A JP2017073145A (en) 2017-04-13
JP6192793B2 true JP6192793B2 (en) 2017-09-06

Family

ID=58537787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016217423A Active JP6192793B2 (en) 2016-11-07 2016-11-07 Object display method, program, and apparatus

Country Status (1)

Country Link
JP (1) JP6192793B2 (en)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4656464B2 (en) * 2000-05-17 2011-03-23 本田技研工業株式会社 Method and apparatus for creating shape by window display
JP2009020689A (en) * 2007-07-11 2009-01-29 Canon Inc Data retrieval method and data retrieval device
JP5042787B2 (en) * 2007-11-20 2012-10-03 富士フイルム株式会社 Product search system, product search method and product search program
KR101687689B1 (en) * 2008-04-30 2016-12-19 가부시키가이샤 아크로디아 Character display data generation device and method
EP2293855A1 (en) * 2008-06-02 2011-03-16 Nike International Ltd. System and method for creating an avatar
JP5129181B2 (en) * 2009-03-02 2013-01-23 オリンパスイメージング株式会社 Operation control device, camera, operation control method, and operation control program
JP2011090376A (en) * 2009-10-20 2011-05-06 Sharp Corp Pictograph input device
TWI439960B (en) * 2010-04-07 2014-06-01 Apple Inc Avatar editing environment
JP5134653B2 (en) * 2010-07-08 2013-01-30 株式会社バンダイナムコゲームス Program and user terminal
JP6131004B2 (en) * 2012-06-20 2017-05-17 株式会社セルシス Object display method, program, and apparatus

Also Published As

Publication number Publication date
JP2017073145A (en) 2017-04-13

Similar Documents

Publication Publication Date Title
CN109643210B (en) Device manipulation using hovering
US9619104B2 (en) Interactive input system having a 3D input space
CN102096548B (en) Touch-sensitive display is adopted to copy the method and system of object
RU2623804C2 (en) Device for information processing, method of information processing, program and media for storage of information
CN106716493B (en) Method for stylizing content and touch screen device for stylizing content
CN102947783A (en) Multi-touch marking menus and directional chording gestures
CN106648434A (en) Method and device for controlling application interfaces through dragging gesture
US20200372208A1 (en) Enhanced digital ink erasing
CN109375865A (en) Jump, check mark and delete gesture
CN106502667B (en) A kind of rendering method and device
CN104981765A (en) User interface for toolbar navigation
JP6131004B2 (en) Object display method, program, and apparatus
CN110402426A (en) Image processing apparatus, method and program
US10073612B1 (en) Fixed cursor input interface for a computer aided design application executing on a touch screen device
CN106990900A (en) One kind writing implementation method and device
US20180188940A1 (en) Control input method and device for executing the same
JP6192793B2 (en) Object display method, program, and apparatus
EP2712433B1 (en) User interface for drawing with electronic devices
JP2014238700A (en) Information processing apparatus, display control method, and computer program
JP6711616B2 (en) Graphic element selection
CN105302466B (en) A kind of text operation method and terminal
JP6021460B2 (en) Drawing method, program, and apparatus
JP2015007844A (en) User interface device, user interface method, and program
JP6276630B2 (en) Information processing apparatus, information processing program, and information processing method
US20230196725A1 (en) Image annotation system and method

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170224

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170306

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170422

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170512

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170808

R150 Certificate of patent or registration of utility model

Ref document number: 6192793

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250