JP5705768B2 - Operation information input system and content search method executed by operation information input system - Google Patents
Operation information input system and content search method executed by operation information input system Download PDFInfo
- Publication number
- JP5705768B2 JP5705768B2 JP2012042491A JP2012042491A JP5705768B2 JP 5705768 B2 JP5705768 B2 JP 5705768B2 JP 2012042491 A JP2012042491 A JP 2012042491A JP 2012042491 A JP2012042491 A JP 2012042491A JP 5705768 B2 JP5705768 B2 JP 5705768B2
- Authority
- JP
- Japan
- Prior art keywords
- sensed
- touch screen
- information
- input system
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
この発明は、操作情報入力システム及び操作情報入力システムによって実行されるコンテンツ検索方法に関する。 The present invention relates to an operation information input system and a content search method executed by the operation information input system.
従来、タッチスクリーンやタブレット型情報処理端末の普及により、情報処理端末の操作はマウスやキーボード操作からタッチ操作へと変化しつつある。それに従い、スクロールや拡大・縮小といった動作を、人間のより直感的な動作で実現しようとする試みが盛んになっている。また、大型のタッチスクリーンを複数人で共有して利用する機会も増えてきている。 Conventionally, with the widespread use of touch screens and tablet-type information processing terminals, the operation of information processing terminals is changing from mouse and keyboard operations to touch operations. In accordance with this, attempts to realize operations such as scrolling and enlarging / reducing with more intuitive human actions are becoming popular. Opportunities for sharing large touch screens with multiple people are also increasing.
近年、枠型の物理デバイスを用いて、タッチスクリーン上で注視したい箇所だけを切り出し、その枠型デバイスを回転させるという直感的な操作によって、映し出されるコンテンツに変化を与える技術「くるみる」が提案されている。なお、枠型デバイスは、枠型オブジェクトと呼ばれる場合もある。 In recent years, “Kurumuri”, a technology that changes the content displayed by intuitive operation, using a frame-type physical device to cut out only the point of interest on the touch screen and rotate the frame-type device, has been proposed. Has been. Note that the frame-type device may be called a frame-type object.
しかしながら、上述した従来技術では、枠型デバイスを用いて情報処理端末に対する連続した入力操作を実行することが困難となる場合があった。具体的には、上述した従来技術では、単一の枠型デバイスごとの離散的な入力操作により情報処理端末を操作するため、複数の入力を連続して同時に行うことができず、枠型デバイスを用いて情報処理端末に対する連続した入力操作を実行することが困難となる場合があった。例えば、上述した従来技術では、枠型デバイスを用いてタッチスクリーン上に投影された3D−CADモデルの回転及び拡大それぞれを微調整しながら行うことが困難であり、枠型デバイスを用いて情報処理端末に対する連続した入力操作を実行することが困難となる場合があった。すなわち、上述した従来技術では、例えば、切り出した箇所の拡大操作を行うために、タッチスクリーン上に別途投影されたスクロールバーなどで調整するといった動作が必要になり、枠型デバイスで切り出した箇所から視点を移動させての入力が求められ、入力が煩雑になってしまう。 However, in the above-described conventional technology, it may be difficult to perform continuous input operations on the information processing terminal using the frame-type device. Specifically, in the above-described prior art, since the information processing terminal is operated by a discrete input operation for each single frame device, a plurality of inputs cannot be performed simultaneously, and the frame device In some cases, it is difficult to execute continuous input operations on the information processing terminal. For example, in the above-described conventional technology, it is difficult to finely adjust the rotation and enlargement of the 3D-CAD model projected on the touch screen using the frame device, and information processing using the frame device is difficult. It may be difficult to perform continuous input operations on the terminal. That is, in the above-described prior art, for example, in order to perform an operation of enlarging the clipped portion, an operation of adjusting with a scroll bar or the like separately projected on the touch screen is required. The input is required to move the viewpoint, and the input becomes complicated.
そこで、本願に係る技術は、上述した従来技術の問題に鑑みてなされたものであって、枠型デバイスを用いて情報処理端末に対する連続した入力操作を可能にする操作情報入力システム及び操作情報入力システムによって実行されるコンテンツ検索方法を提供することを目的とする。 Therefore, the technology according to the present application has been made in view of the above-described problems of the prior art, and an operation information input system and an operation information input that enable continuous input operations to an information processing terminal using a frame-type device. An object of the present invention is to provide a content search method executed by a system.
上述した課題を解決し、目的を達成するため、タッチスクリーン上で物理デバイスが操作されることで、情報処理装置に対して入力操作が実行される操作情報入力システムであって、前記物理デバイスは、枠型の第1のデバイスと、前記第1のデバイスの枠内に配置される第2のデバイスとを有し、前記第1のデバイス及び前記第2のデバイスは、前記タッチスクリーンによってそれぞれ感知される複数の被感知部をそれぞれ有し、前記情報処理装置は、前記複数の被感知部の配置パターンごとに所定の処理を対応付けたデバイス情報を記憶するデバイス情報蓄積部と、前記タッチスクリーンによって感知される複数の被感知部の中から、前記第1のデバイス及び前記第2のデバイスの被感知部をそれぞれ識別して検出する検出部と、前記デバイス情報を参照して、前記検出部によって検出された前記第1のデバイス及び前記第2のデバイスの被感知部の配置パターンに対応する処理をそれぞれ実行する処理部とを備えたことを特徴とする。 In order to solve the above-described problems and achieve the object, an operation information input system in which an input operation is performed on an information processing apparatus by operating a physical device on a touch screen, , A first device of a frame type, and a second device disposed within a frame of the first device, wherein the first device and the second device are respectively sensed by the touch screen Each of the plurality of sensed units, and the information processing apparatus stores a device information storing unit information in which a predetermined process is associated with each arrangement pattern of the plurality of sensed units, and the touch screen. A detection unit for identifying and detecting the detected units of the first device and the second device from a plurality of the detected units detected by A processing unit that refers to chair information and executes processing corresponding to the arrangement pattern of the sensed units of the first device and the second device detected by the detection unit, respectively. To do.
本願に係る操作情報入力システムは、枠型デバイスを用いた情報処理端末の操作性を向上させることを可能にする。 The operation information input system according to the present application makes it possible to improve the operability of an information processing terminal using a frame-type device.
以下に添付図面を参照して、本願に係る操作情報入力システム及び操作情報入力システムによって実行されるコンテンツ検索方法の実施例を詳細に説明する。なお、本願に係る操作情報入力システム及び操作情報入力システムによって実行されるコンテンツ検索方法は、以下の実施例により限定されるものではない。 Exemplary embodiments of an operation information input system and a content search method executed by the operation information input system according to the present application will be described below in detail with reference to the accompanying drawings. The operation information input system and the content search method executed by the operation information input system according to the present application are not limited to the following embodiments.
[実施例1に係る操作情報入力システムの構成]
まず、実施例に係る操作情報入力システムの構成について説明する。図1は、実施例1に係る操作情報入力システム300の構成の一例を示す図である。図1に示すように、操作情報入力システム300は、物理デバイス100と、情報処理装置200とを有する。情報処理装置200は、図1に示すように、タッチスクリーン210を有し、物理デバイス100による情報の入力操作を受け付ける。例えば、タッチスクリーン210は、静電容量型のタッチスクリーン210、或いは、感圧型のタッチスクリーン210などである。
[Configuration of Operation Information Input System According to Embodiment 1]
First, the configuration of the operation information input system according to the embodiment will be described. FIG. 1 is a diagram illustrating an example of a configuration of an operation
ここで、静電容量型のタッチスクリーンは、微弱な電圧変化を検知して接触、非接触を判定することで情報の入力操作を受け付ける。一方、感圧型のタッチスクリーンは、圧力を検知することで情報の入力操作を受け付ける。なお、本実施例においては、静電容量型のタッチスクリーン210を有する情報処理装置を用いる場合を例に挙げて説明する。
Here, the capacitive touch screen accepts an information input operation by detecting a weak voltage change and determining contact or non-contact. On the other hand, a pressure-sensitive touch screen accepts information input operations by detecting pressure. In this embodiment, a case where an information processing apparatus having a
物理デバイス100は、図1に示すように、下層デバイス110と、下層デバイス110に積層される上層デバイス120とを有する。例えば、下層デバイス110は、図1に示すように、中空の円筒形状であり、側面に導電部(被感知部とも称する)111を有する。導電部111は、導体によって形成され、ユーザの手が接触されることで接地される。
As illustrated in FIG. 1, the
上層デバイス120は、中空の凸型形状であり、側面に導電部121を有する。導電部121は、導体によって形成され、ユーザの手が接触されることで接地される。ここで、上層デバイス120は、下層デバイス110の中空に凸部122がはめ込まれることによって下層デバイス110に積層される。
The
図1に示す物理デバイス100の詳細について、図2及び図3を用いて説明する。図2は、実施例1に係る物理デバイス100の構成の一例を示す図である。ここで、図2においては、上層デバイス120及び下層デバイス110について、表面(図1において上側から見た面)と、裏面(図1において下側から見た面)と、側面(図1において横方向から見た面)とをそれぞれ示す。図2に示すように、上層デバイス120は、例えば、リング状の凸型形状であり、凸部122ではない部分の側面の周方向に導電部121が設けられる。そして、上層デバイス120においては、側面から凸部122方向に導電部121が伸び、裏面で3箇所の導電部121が形成される。
Details of the
すなわち、仮に、ユーザの手が上層デバイス120の側面の導電部121に触れた状態で、上層デバイス120の裏面をタッチスクリーン210に接触させた場合、裏面の3箇所の導電部121によって接地され、各導電部121がタッチスクリーン210に検出されることとなる。なお、上層デバイス120における導電部121以外の部分は、誘電体によって形成される。
That is, if the user's hand touches the
下層デバイス110は、例えば、リング状であり、導電部111が側面の周方向に設けられる。そして、下層デバイス110においては、側面から裏面へ3箇所の導電部111が形成される。すなわち、下層デバイス110においても、上層デバイス120と同様に、各導電部111がタッチスクリーン210に検出される。また、下層デバイス110における導電部111以外の部分は、上層デバイス120と同様に、誘電体によって形成される。
For example, the
図3は、実施例1に係る物理デバイス100における導電部の位置を説明するための図である。図3においては、上層デバイス120の裏側が下層デバイス110の表側に接するように積層された場合について示す。また、図3においては、上層デバイス120及び下層デバイス110それぞれの導電部がタッチスクリーン210によって検出される位置である接地点を円で示している。
FIG. 3 is a diagram for explaining the position of the conductive portion in the
図2に示したように、上層デバイス120における導電部121が凸部122の裏側に設けられているため、上層デバイス120の接地点は、図3に示すように、下層デバイス110の接地点の内側に位置することとなる。すなわち、上層デバイス120及び下層デバイス110の側面の導電部をそれぞれ把持した状態で裏面がタッチスクリーン210に接触した場合、上層デバイス120の導電部121と、下層デバイス110の導電部111とを区別することが可能となる。
As shown in FIG. 2, since the
ここで、図2及び図3に示すように、下層デバイス110及び上層デバイス120においては、リングにおける導電部の配置パターンがそれぞれ異なる。すなわち、タッチスクリーン210は、図3に示すように、下層デバイス110の接地点で示す配置パターンで下層デバイスの3つの導電部111を同時に検出するのに対し、上層デバイス120の接地点で示す配置パターンで上層デバイスの導電部121を同時に検出する。
Here, as shown in FIGS. 2 and 3, in the
実施例1に係る物理デバイス100は、電子回路を有さずに、上述した構成が形成される。一例を挙げると、物理デバイス100は、導電部111及び121がアルミホイル等の導体によって形成され、リング状の誘電体及びリング状かつ凸型形状の誘電体が木材や、発砲スチロール等によって形成される。
The
なお、図1〜図3に示す物理デバイス100の構成は、あくまでも一例であり、実施例はこれに限定されるものではない。すなわち、物理デバイス100の形状は、円筒形状である場合に限られず、例えば、中空の四角柱が積層される場合であってもよい。また、積層されるデバイスの数は2つに限られるものではなく、例えば、3つ以上のデバイスが積層される場合であってもよい。また、導電部は、タッチスクリーン210が接触していることを識別することができる大きさであればどのような形状であってもよい。
Note that the configuration of the
上述したように、物理デバイス100は、異なる配置パターンの導電部を有する上層デバイス120及び下層デバイス110を有する。そして、ユーザは、物理デバイス100をタッチスクリーン210上で操作することによって、情報処理装置200に所望の処理を実行させる。実施例1に係る情報処理装置200は、タッチスクリーン210によって検出された導電部の位置に応じた処理を実行する。以下、情報処理装置200の詳細について説明する。図4は、実施例1に係る情報処理装置200の構成の一例を示す図である。
As described above, the
図4に示すように、例えば、情報処理装置200は、タッチスクリーン210(不図示)に加えて、データベース220と、接地点検知処理装置230と、リアルタイム処理発生装置240と、接地点情報処理装置250と、表示画面処理装置260とを有し、ネットワーク500を介して、データベース400と接続される。ネットワーク500は、例えば、LAN(Local Area Network)やWAN(Wide Area Network)などである。
As shown in FIG. 4, for example, the
データベース400は、図4に示すように、情報蓄積部410を有する。情報蓄積部410は、後述する接地点情報処理装置250によって取得された各種情報を記憶する。例えば、情報蓄積部410は、接地点情報処理装置250によって取得され、ネットワーク500を介して転送された画像データなどを記憶する。
As shown in FIG. 4, the
データベース220は、図4に示すように、接地点情報蓄積部221と、デバイス情報蓄積部222と、画像情報蓄積部223と、接地デバイス中心座標及び方向蓄積部224とを有する。データベース220は、例えば、ハードディスク、光ディスクなどの記憶装置、または、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子であり、情報処理装置200によって実行される各種プログラムなどを記憶する。
As illustrated in FIG. 4, the
接地点情報蓄積部221は、接地点検知処理装置230によって取得された接地点の情報を記憶する。なお、接地点とは、物理デバイス100の導電部がタッチスクリーン210に接地し、検出された地点を意味する。具体的には、接地点情報蓄積部221は、タッチスクリーン210の座標系における接地点の座標と、当該接地点の座標が取得された時刻とを対応付けて記憶する。
The contact point
デバイス情報蓄積部222は、物理デバイス100に関する情報を記憶する。具体的には、デバイス情報蓄積部222は、物理デバイス100を構成する上層デバイス120及び下層デバイス110に形成されうる導電部の配置パターンごとに操作内容を記憶する。図5は、実施例1に係るデバイス情報蓄積部222によって記憶される情報の一例を示す図である。
The device
例えば、デバイス情報蓄積部222は、図5に示すように、導電部の位置ごとに、導電部間の距離比、Origin Pointに対する距離及び向きを対応付けたデバイス情報を記憶する。ここで、「導電部の位置」とは、導電部の配置パターンを示す。また、「導電部間の距離比」とは、例えば、導電部の中心間の距離の比を示す。また、「Origin Pointに対する距離及び向き」とは、複数の導電部のうち、導電部間の距離で最短の距離と最長の距離とを形成する導電部を「Origin Point」とした場合に、当該「Origin Point」から物理デバイスの中心までの距離と方向をベクトルで示した情報を意味する。
For example, as illustrated in FIG. 5, the device
ここで、デバイス情報蓄積部222は、各導電部の位置(配置パターン)ごとに異なるアプリケーションや操作内容(例えば、拡大・縮小処理など)を対応付けて記憶する。すなわち、デバイス情報蓄積部222は、タッチスクリーン210によって検出された導電部がどのようなデバイスであるかを識別し、当該デバイスに応じた処理を実行するための情報を記憶する。
Here, the device
なお、デバイス情報蓄積部222によって記憶される情報は、図5に示す情報のみに限られない。図6は、実施例1に係るデバイス情報蓄積部222によって記憶される情報の第2の例を示す図である。例えば、デバイス情報蓄積部222は、図6に示すように、導電部の位置ごとに、導電部の角度、Origin Pointに対する距離及び向きを対応付けたデバイス情報を記憶する。すなわち、導電部間の距離比に代えて導電部の角度を記憶する。ここで、「導電部の角度」とは、例えば、導電部間を結ぶ直線によって形成される三角形の各角度を示す。
Note that the information stored by the device
図4に戻って、画像情報蓄積部223は、タッチスクリーン210にて表示させる画像を記憶する。接地デバイス中心座標及び方向蓄積部224は、接地点情報処理装置250による処理結果を記憶する。具体的には、接地デバイス中心座標及び方向蓄積部224は、接地点情報処理装置250によって取得された上層デバイス120或いは下層デバイス110の中心及び向きを記憶する。なお、これらの情報については、後に詳述する。
Returning to FIG. 4, the image
接地点検知処理装置230は、図4に示すように、接地点位置座標取得処理部231と、接地点数処理部232とを有する。接地点位置座標取得処理部231は、物理デバイス100が側面の導電部を把持された状態でタッチスクリーン210上に載せ置かれた場合に、接地点(座標)を検出して、検出時刻とともに接地点情報蓄積部221に格納する。接地点数処理部232は、接地点情報蓄積部221によって記憶された接地点の座標と取得時間とに基づいて、同一時刻における接地点の数を判定する。例えば、接地点数処理部232は、接地点の数が3点、6点、或いは、それ以外であるかを判定する。
As shown in FIG. 4, the contact point detection processing device 230 includes a contact point position coordinate
リアルタイム処理発生装置240は、所定の時間間隔で情報処理装置200による処理を実行させるイベントの発行を行う。例えば、リアルタイム処理発生装置240は、33msごとに、タッチスクリーン210上の接地点の取得処理を実行させるイベントを発行する。
The real-
接地点情報処理装置250は、図4に示すように、接地デバイス検出処理部251と、接地デバイス方向計算処理部252と、接地デバイス位置座標計算処理部253と、枠座標計算処理部254と、接地デバイス情報付加処理部255と、接地デバイス情報送信処理部256とを有する。
As shown in FIG. 4, the ground point
接地デバイス検出処理部251は、タッチスクリーン210に接地した物理デバイスの導電部の配置パターンを検出する。具体的には、接地デバイス検出処理部251は、接地点位置座標取得処理部231によって検出された接地点の座標と、接地点数処理部232によって検出された接地点の数とから、ユーザがタッチスクリーン210上で操作しているデバイスを判定して、接地された導電部の配置パターンを検出する。ここで、接地デバイス検出処理部251は、ユーザによって操作されているのが、下層デバイス110であるか、又は、上層デバイス120であるかを識別することができる。
The ground device
図7は、実施例1に係る接地デバイス検出処理部251による導電部の識別処理を模式的に示す図である。図7においては、3点の導電部をそれぞれ有する3層(上層、中層、下層)のデバイスが積層された物理デバイスにおいて、それぞれの導電部を識別する場合について示す。なお、図7においては、接地点位置座標取得処理部231によって接地点が検出された後の処理について示し、図中の各点が検出された接地点を示す。
FIG. 7 is a diagram schematically illustrating the conductive part identification processing by the grounding device
例えば、接地デバイス検出処理部251は、図7の(A)に示すように、まず、接地点位置座標取得処理部231によって検出された接地点において、3つの接地点を通過する円のうち、当該円を形成する接地点以外の全ての点を包含する円(最小包含円)を取得する。一例を挙げると、接地デバイス検出処理部251は、図7の(A)に示す9つの接地点からランダムに3点を選択して円を描き、当該円の中に他の接地点がすべて包含されるか否かを判定する。ここで、すべての接地点が包含されない場合には、接地デバイス検出処理部251は、別の組み合わせで同様の処理を繰り返し実行する。
For example, as shown in FIG. 7A, the grounding device
そして、接地デバイス検出処理部251は、図7の(A)に示すように、他のすべての接地点を包含する円C1を抽出して、円C1を形成する3点を下層デバイスの接地点であると識別する。同様に、接地デバイス検出処理部251は、図7の(B)に示すように、円C1に包含される6つの接地点から円を形成する3つの接地点以外の3点を包含する円C2を抽出して、円C2を形成する3点を中層デバイスの接地点であると識別する。さらに、接地デバイス検出処理部251は、図7の(C)に示すように、残った3点を上層デバイスの接地点であると識別する。すなわち、接地デバイス検出処理部251は、物理デバイス100の中心からの距離(半径)が異なる円を形成する接地点を抽出して、それぞれ各層のデバイスの導電部として識別する。なお、各層のデバイスにおける導電部の数は、ユーザによって予め設定される。
Then, as shown in FIG. 7A, the grounding device
さらに、接地デバイス検出処理部251は、識別した各層のデバイスにおける導電部の配置パターンを特定する。具体的には、接地デバイス検出処理部251は、デバイス情報蓄積部222によって記憶されるデバイス情報を参照して、導電部間の距離比、或いは、導電部の角度によって、配置パターンを特定する。例えば、導電部間の距離比によって配置パターンを特定する場合には、接地デバイス検出処理部251は、特定した同一層のデバイスにおける接地点の座標間の距離を算出して、最短の距離で正規化を行うことで距離比を算出する。そして、接地デバイス検出処理部251は、デバイス情報(図5)を参照して、算出した距離比に対応する配置パターンを特定する。
Further, the ground device
また、例えば、導電部の角度によって配置パターンを特定する場合には、接地デバイス検出処理部251は、特定した同一層のデバイスにおける接地点の座標間を結ぶ三角形を描き、当該三角形の各角度を算出する。そして、接地デバイス検出処理部251は、デバイス情報(図6)を参照して、算出した角度に対応する配置パターンを特定する。
Further, for example, when specifying the arrangement pattern by the angle of the conductive part, the grounding device
接地デバイス方向計算処理部252は、ユーザによって操作されているデバイスの導電部の座標から当該デバイスの方向を算出する。具体的には、接地デバイス方向計算処理部252は、まず、接地デバイス検出処理部251によって配置パターンが検出されたデバイスの導電部において、導電部間の距離が最短の距離と最長の距離とを形成する1つの導電部を抽出し、抽出した導電部をOrigin Point(以下、OPと記す)と決定する。そして、接地デバイス方向計算処理部252は、OPと最短距離を形成する導電部をSecond Point(以下、SPと記す)と決定する。
The ground device direction
その後、接地デバイス方向計算処理部252は、タッチスクリーン210の座標系におけるOP及びSPによって形成される線分の傾きをデバイスの方向として算出する。なお、接地デバイス方向計算処理部252は、OP及びSP以外の導電部をThird Point(以下、TPと記す)と決定する。上述したように、デバイスの方向が算出されることにより、各層のデバイスが回転された際に、時計回り、或いは、反時計回りのどちらにどれだけ回転されたかを算出することができるようになる。
Thereafter, the ground device direction
接地デバイス位置座標計算処理部253は、ユーザによって操作されている物理デバイス100の位置を算出する。具体的には、接地デバイス位置座標計算処理部253は、デバイス情報の「Origin Pointに対する距離及び向き」を参照して、接地デバイス方向計算処理部252によって決定されたOPから物理デバイス100の位置を算出する。すなわち、接地デバイス位置座標計算処理部253は、接地デバイス方向計算処理部252によって決定されたOPの座標に対して、「Origin Pointに対する距離及び向き」のベクトルを加えた座標を物理デバイス100の位置と決定する。上述したように、タッチスクリーン210上における物理デバイスの位置を決定することにより、タッチスクリーン210に表示している画像に対して、物理デバイス100がどの位置に置かれているのかを判定することができるようになる。
The ground device position coordinate
枠座標計算処理部254は、中空の物理デバイスが接地された場合に、中空部分の画像に対する処理を実行する際の枠の座標を算出する。具体的には、枠座標計算処理部254は、予めデータベース220に格納されたデバイスの情報(中空部分の大きさ)を参照して、物理デバイス100の位置から中空部分の座標を算出する。
When the hollow physical device is grounded, the frame coordinate
接地デバイス情報付加処理部255は、接地デバイス検出処理部251によって検出された配置パターンに情報を付加(マッピング)して、情報蓄積部410に格納する。例えば、接地デバイス情報付加処理部255は、物理デバイス100とは異なる物理デバイス(例えば、指など)が新たに接地された場合に、配置パターンに情報を付加する。接地デバイス情報送信処理部256は、接地デバイス情報付加処理部255によって付加された情報を出力して別のデバイスに送信する。
The ground device information
表示画面処理装置260は、図4に示すように、枠内画像拡大・縮小処理部261と、画像更新処理部262とを有する。枠内画像拡大・縮小処理部261は、接地点情報処理装置250によって算出された物理デバイス100の位置、向き及び枠の座標に基づいて、枠内の画像を拡大したり、縮小したりする。また、枠内画像拡大・縮小処理部261は、その他コンテンツの選択処理などを実行する。
As shown in FIG. 4, the display
例えば、下層デバイス110の導電部111の配置パターンが画像の拡大・縮小の処理に対応し、上層デバイス120の導電部121の配置パターンが画像の回転の処理に対応しているとする。かかる場合に、ユーザがタッチスクリーン210上で下層デバイス110及び上層デバイス120をそれぞれ回転操作すると、表示画面処理装置260は、下層デバイス110の回転に応じて、画像の拡大・縮小を実行し、上層デバイス120の回転に応じて、画像を回転させる。
For example, it is assumed that the arrangement pattern of the
実施例1に係る操作情報入力システム300においては、上述したように、各層のデバイスによる操作を連続して実行させることが可能である。これにより、操作情報入力システム300は複雑な入力操作に対しても対応することができ、枠型デバイスを用いて情報処理端末に対する連続した入力操作を可能にする。
In the operation
[実施例1に係る操作情報入力システムによる処理の手順]
次に、実施例1に係る操作情報入力システム300による処理の手順について、図8を用いて説明する。図8は、実施例1に係る操作情報入力システム300による処理の手順を示すフローチャートである。図8に示すように、実施例1に係る操作情報入力システム300においては、まず、リアルタイム処理発生装置240が、所定の時間(例えば、33ms)が経過したか否かを判定する(ステップS101)。
[Procedure for Processing by Operation Information Input System According to Embodiment 1]
Next, a processing procedure performed by the operation
ここで、所定の時間が経過したと判定された場合には、接地点位置座標取得処理部231が、接地点の座標を算出する(ステップS102)。そして、接地デバイス検出処理部251は、接地点数処理部232によって決定された接地点の数が3の倍数であるか否かを判定する(ステップS103)。ここで、接地点の数が3の倍数である場合には(ステップS103肯定)、接地デバイス検出処理部251は、接地点の組み合わせを決定して(ステップS104)、接地点の組み合わせごとにデバイスの配置パターンを決定する(ステップS105)。
Here, when it is determined that a predetermined time has elapsed, the contact point position coordinate
そして、接地デバイス方向計算処理部252は、デバイスごとに位置及び方向を決定する(ステップS106)。その後、枠内画像拡大・縮小処理部261が入力を受け付けたデバイスに対応する処理を実行して(ステップS107)、画像更新処理部262が、表示画像を更新する(ステップS108)。
Then, the ground device direction
一方、ステップS103において、接地点の数が3の倍数ではない場合には(ステップS103否定)、枠内画像拡大・縮小処理部261は、ユーザが指などで入力操作した処理を実行する(ステップS110)。いずれかの処理が実行され、表示画像が更新されると、リアルタイム処理発生装置240が、ユーザから終了コマンドを受け付けたか否かを判定する(ステップS109)。ここで、ユーザから終了コマンドを受け付けていない場合には(ステップS109否定)、リアルタイム処理発生装置240は、ステップS101に戻って、所定の時間が経過したか否かを判定する。一方、ユーザから終了コマンドを受け付けた場合には(ステップS109肯定)、操作情報入力システム300は処理を終了する。
On the other hand, if the number of contact points is not a multiple of 3 in step S103 (No in step S103), the in-frame image enlargement /
[実施例1に係る接地デバイス検出処理部による組み合わせ決定処理の手順]
次に、実施例1に係る接地デバイス検出処理部251による組み合わせ決定処理の手順を説明する。図9は、実施例1に係る接地デバイス検出処理部251による組み合わせ決定処理の手順を示すフローチャートである。ここで、図9に示すフローチャートは、図8のステップS104の処理に相当する。なお、図9においては、各層のデバイスの導電部が3つである場合の処理について示す。
[Combination Determination Processing Procedure by Grounding Device Detection Processing Unit According to Embodiment 1]
Next, the procedure of the combination determination process by the ground device
図9に示すように、接地デバイス検出処理部251は、接地点の数を取得して(ステップS201)、接地点の数を3で割った商「q」と余「r」とを算出した場合に、「r=0」であるか否かを判定する。ここで、「r=0」であった場合には(ステップS202肯定)、接地デバイス検出処理部251は、組み合わせになっていない3つの接地点を選択して(ステップS203)、選択した接地点を通過する円を形成する。なお、「r=0」ではない場合には(ステップS202否定)、操作情報入力システム300は、図8のステップS110の処理を実行する。
As shown in FIG. 9, the grounding device
そして、接地デバイス検出処理部251は、選択した接地点によって形成される円内に、未組み合わせのその他の接地点が全て包含されるか否かを判定する(ステップS204)。ここで、未組み合わせのその他の接地点が全て包含される場合には(ステップS204肯定)、接地デバイス検出処理部251は、選択した3つの接地点を同一層のデバイスにおける導電部の組み合わせであると決定する(ステップS205)。
Then, the grounding device
一方、未組み合わせのその他の接地点が全て包含されない場合には(ステップS204否定)、接地デバイス検出処理部251は、ステップS203に戻って、組み合わせになっていない3つの接地点を選択する。そして、3つの接地点を組み合わせとして決定すると、接地デバイス検出処理部251は、「q」個の組み合わせを決定したか否かを判定する(ステップS206)。
On the other hand, if all other uncombined grounding points are not included (No at Step S204), the grounding device
ここで、「q」個の組み合わせを決定していない場合には(ステップS206否定)、接地デバイス検出処理部251は、ステップS203に戻って、組み合わせになっていない3つの接地点を選択する。一方、「q」個の組み合わせを決定した場合には(ステップS206肯定)、接地デバイス検出処理部251は、組み合わせ決定処理を終了する。
If “q” combinations have not been determined (No at Step S206), the grounding device
[実施例1に係る接地デバイス検出処理部による配置パターン特定処理の手順]
次に、実施例1に係る接地デバイス検出処理部251による配置パターン特定処理の手順を説明する。図10は、実施例1に係る接地デバイス検出処理部251による配置パターン特定処理の手順を示すフローチャートである。ここで、図10に示すフローチャートは、図8のステップS105の処理に相当する。なお、図10においては、距離比を用いて配置パターンを特定する場合について示す。
[Procedure for Arrangement Pattern Specification Processing by Grounding Device Detection Processing Unit According to Embodiment 1]
Next, the procedure of the arrangement pattern specifying process performed by the ground device
ステップS104において、導電部の組み合わせを決定すると、接地デバイス検出処理部251は、図10に示すように、接地点の座標に基づいて、導電部間の距離を算出する(ステップS301)。そして、接地デバイス検出処理部251は、算出した導電部間の距離を正規化することで、距離比を算出する(ステップS302)。
When the combination of the conductive parts is determined in step S104, the ground device
その後、接地デバイス検出処理部251は、デバイス情報蓄積部222を参照して、算出した距離比からデバイスにおける導電部の配置パターンを特定して(ステップS303)、処理を終了する。
Thereafter, the ground device
[実施例1に係る接地デバイス検出処理部による処理の手順]
次に、実施例1に係る接地デバイス方向計算処理部252による処理の手順を説明する。図11は、実施例1に係る接地デバイス方向計算処理部252による処理の手順を示すフローチャートである。ここで、図11に示すフローチャートは、図8のステップS106の処理に相当する。
[Processing Procedure by Grounding Device Detection Processing Unit According to Embodiment 1]
Next, a processing procedure performed by the grounding device direction
デバイスの配置パターンが特定されると、接地デバイス方向計算処理部252は、図11に示すように、導電部間の距離を参照して、最短の距離と最長の距離とを形成する導電部をOPとして決定する(ステップS401)。そして、接地デバイス方向計算処理部252は、最短の距離を形成する2つの導電部のうち、OPではない導電部をSPと決定し(ステップS402)、残った導電部をTPと決定する(ステップS403)。
When the device arrangement pattern is specified, the grounding device direction
その後、接地デバイス位置座標計算処理部253は、OPの座標からベクトルの中心座標を算出して、算出した座標をデバイスの位置として決定する(ステップS404)。さらに、接地デバイス方向計算処理部252は、タッチスクリーン210に対するOPとSPとで形成される線分の角度をデバイスの方向として決定して(ステップS405)、処理を終了する。
Thereafter, the ground device position coordinate
上述したように実施例1に係る操作情報入力システム300は、物理デバイス100をタッチスクリーン210上で操作することで複数の処理を連続して入力することが可能である。そこで、実施例1に係る操作情報入力システム300の利用例として、コンテンツ検索の一例を説明する。図12は、実施例1に係る操作情報入力システム300を利用したコンテンツ検索を説明するための図である。
As described above, the operation
図12においては、コンテンツ検索事例の概要図を示す。図12に示すコンテンツ検索事例では、タブレットPCに映し出される地図上に、一般ユーザがアップロードした無数のコンテンツが貼付けられている状況を示し、例えば、位置情報をもつ動画コンテンツの検索アプリなどである。これは、近年、GPS付カメラや、スマートフォンの普及により、動画や画像に位置情報のメタデータを付して記録する機会が増えたため、それに伴い、インターネット上には膨大な位置情報付コンテンツがあふれ、マップ上にそれらを配置して、ユーザが興味ある場所と、そこで撮影された動画をひもづけて閲覧することが可能になっている。 FIG. 12 shows a schematic diagram of a content search example. The content search example shown in FIG. 12 shows a situation where countless content uploaded by a general user is pasted on a map projected on a tablet PC, such as a video content search application having position information. In recent years, with the spread of GPS-equipped cameras and smartphones, the opportunity to record video and images with location information metadata has increased, and as a result, enormous amounts of content with location information have overflowed on the Internet. By arranging them on the map, it is possible to browse the places where the user is interested and the moving images taken there.
しかしながら、現状のアプリでは、サムネイル画像がマップに表示されているだけにすぎないため、タッチスクリーン上に多数のコンテンツが存在する場合には、より縮尺を大きくしないと個々の内容をサーベイすることができない。一方、縮尺が大きいと、マップ上でどんなコンテンツがあるのかわからない。そこで、本願のような物理デバイスを活用する。 However, in the current application, only thumbnail images are displayed on the map, so if there is a large amount of content on the touch screen, individual contents can be surveyed unless the scale is increased. Can not. On the other hand, if the scale is large, you will not know what content is on the map. Therefore, a physical device as in the present application is utilized.
例えば、図12に示すタッチスクリーン210上で、ユーザはマップ上で自分の興味がある地域に物理デバイス100をもっていき、その位置で下層デバイス110及び上層デバイス120をそれぞれ回転させることでそれぞれ異なる処理を実行させることができる。図13は、実施例1に係るコンテンツ検索の一例を示す図である。
For example, on the
例えば、下層デバイス110の導電部111の配置パターンに画像の拡大・縮小処理を対応づけておき、さらに、上層デバイス120の導電部121の配置パターンにコンテンツ選択・音量調節の処理を対応づけておく。これにより、例えば、ユーザがマップ上で興味のある地域に物理デバイス100をもっていき、下層デバイス110を回転させると、図13の(A)に示すように、所望の地域に拡大されたマップが表示される。
For example, the enlargement / reduction process of the image is associated with the arrangement pattern of the
そして、ユーザは、所望の地域が拡大された状態で、上層デバイス120を回転させることで、図13の(B)に示すように、ズームアップされた領域内に存在するコンテンツを順次切り替え、音量調整をしながらそれぞれのコンテンツを視聴することができる。
Then, the user rotates the
これまでは、コンテンツのサムネイル画像の視認性が確保できるところまでマップ全体を拡大し、さらにその中にあるコンテンツの視聴は一つ一つクリックで対応していたが、本実施例の物理デバイスを用いることにより、物理デバイスを移動させたり回転させたりといった簡単な動作でコンテンツの視聴ができる。このように、実施例1に係る操作情報入力システム300は、ユーザの操作性は格別に向上させることを可能にする。
Until now, the entire map has been expanded to the point where the visibility of the thumbnail images of the contents can be secured, and viewing of the contents in each map has been handled with a single click. By using it, content can be viewed with a simple operation such as moving or rotating the physical device. As described above, the operation
[実施例1の効果]
上述したように、実施例1によれば、物理デバイス100は、枠型の下層デバイス110と、下層デバイス110の枠内に配置される上層デバイス120とを有する。そして、下層デバイス110及び上層デバイス120は、タッチスクリーン210によってそれぞれ感知される複数の導電部をそれぞれ有する。情報処理装置200において、デバイス情報蓄積部222は、複数の導電部の配置パターンごとに所定の処理を対応付けたデバイス情報を記憶する。そして、接地デバイス検出処理部251が、タッチスクリーン210によって感知される複数の導電部の中から、下層デバイス110及び上層デバイス120の導電部をそれぞれ識別して検出する。そして、枠内画像拡大・縮小処理部261が、デバイス情報を参照して、接地デバイス検出処理部251によって検出された下層デバイス110及び上層デバイス120の導電部の配置パターンに対応する処理をそれぞれ実行する。従って、実施例1に係る操作情報入力システム300は、複数のデバイスから形成された物理デバイスを用いて、枠型デバイスを用いて情報処理端末に対する連続した入力操作を可能にする。
[Effect of Example 1]
As described above, according to the first embodiment, the
すなわち、ユーザは電力をもたない物理デバイス100を重ね合わせて利用することで、タッチスクリーン210平面上の並進と、タッチスクリーン210平面に対して平行な平面内の複数自由度の連続的な回転入力が可能となる。さらに、大きなタッチスクリーン上で物理デバイス100を自由に動かし、その物理デバイス100によって切り出された領域に注視しながら左右の手で自由に回転入力をあたえることができる。これにより、ユーザは注目しているコンテンツから視点をそらすこと無く、回すという簡単な操作で多様な入力が可能となる。
That is, the user can use the
また、実施例1によれば、接地デバイス検出処理部251は、タッチスクリーン210における複数の導電部の座標をそれぞれ検出し、最短の導電部間距離及び最長の導電部間距離を形成するOPと、最短の導電部間距離を形成する他の導電部であるSPとを抽出し、タッチスクリーン210の座標系におけるOPとSPとによって形成される直線の傾きを物理デバイスの方向として算出する。従って、実施例1に係る操作情報入力システム300は、物理デバイスの向きを正確に検出することを可能にする。
In addition, according to the first embodiment, the ground device
また、実施例1によれば、デバイス情報蓄積部222は、デバイス情報に、OPから物理デバイス100の中心までの距離と向きとをさらに対応付けて記憶する。そして、接地デバイス検出処理部251は、物理デバイス情報を参照して、タッチスクリーン210によって検出された導電部に対して物理デバイス100の中心までの距離と向きとを加えることで、物理デバイス100のタッチスクリーン210に対する位置を決定する。従って、実施例1に係る操作情報入力システム300は、物理デバイス100の位置を正確に検出することを可能にする。
Further, according to the first embodiment, the device
また、実施例1によれば、物理デバイス100が中空である場合に、デバイス情報蓄積部222は、デバイス情報に物理デバイス100の枠の形状をさらに記憶する。そして、接地デバイス検出処理部251は、デバイス情報を参照して、物理デバイス100の方向及び位置から枠の位置及び方向を算出する。従って、実施例1に係る操作情報入力システム300は、枠を用いた処理を実行することを可能にする。
According to the first embodiment, when the
また、実施例1によれば、導電部は導体であり、タッチスクリーン210は、静電容量型である。従って、実施例1に係る操作情報入力システム300は、静電気による電圧の変化で接触を検出する情報処理装置に適用することを可能にする。
Further, according to the first embodiment, the conductive portion is a conductor, and the
これまで実施例1を説明したが、本願に係る実施例は、実施例1に限定されるものではない。すなわち、これらの実施例は、その他の様々な形態で実施されることが可能であり、種々の省略、置き換え、変更を行うことができる。 Although the first embodiment has been described so far, the embodiment according to the present application is not limited to the first embodiment. That is, these embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made.
上述した実施例1においては、静電容量型のタッチスクリーン210を用いる場合を例に挙げて説明した。しかしながら、実施例はこれに限定されるものではなく、例えば、感圧型のタッチスクリーン210を用いる場合であってもよい。かかる場合には、下層デバイス110及び上層デバイス120それぞれの導電部の位置に、タッチスクリーン210が圧力を感知することができる突起部を設けた物理デバイス100を用いる。そして、突起部の配置パターンごとに所定の処理を実行させるようにすることで、実現可能である。
In the first embodiment described above, the case where the
上述した実施例1においては、各層デバイスが3つの導電部を備える場合について説明した。しかしながら、実施例はこれに限定されるものではなく、例えば、4つ以上の導電部を備える場合であってもよい。かかる場合には、各層のデバイスにおける導電部の組み合わせを、例えば、以下に記すように実行する。 In Example 1 mentioned above, the case where each layer device was provided with three electroconductive parts was demonstrated. However, the embodiment is not limited to this, and may include, for example, four or more conductive portions. In such a case, the combination of the conductive portions in the devices of each layer is executed as described below, for example.
すなわち、手順1として、まず、タッチスクリーン210によって検出されたすべての接地点を包含する円を決定する。そして、手順2として、決定した円の中心を取得する。そして、手順3として、予め物理デバイス100の半径を情報処理装置200に登録しておき、半径をもとに、各接地点と各層のデバイスとを対応付ける。上述した処理を行うことで、3つ以外の導電部を有する物理デバイスを利用することが可能である。
That is, as the
また、例えば、各装置の分散・統合の具体的形態(例えば、図4の形態)は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合することができる。一例を挙げると、接地点位置座標取得処理部231及び接地点数処理部232とを1つの接地点検知部として統合してもよく、枠内画像拡大・縮小処理部261を、各処理を実行する複数の処理部に分散してもよい。
In addition, for example, the specific form (for example, the form of FIG. 4) of the distribution / integration of each device is not limited to the illustrated one, and all or a part thereof can be arbitrarily set according to various loads or usage conditions. It can be distributed or integrated functionally or physically in units. For example, the contact point position coordinate
また、接地点情報処理装置250を情報処理装置200の外部装置としてネットワーク経由で接続するようにしてもよく、或いは、接地デバイス検出処理部251と接地デバイス方向計算処理部252とを別の装置がそれぞれ有し、ネットワークに接続されて協働することで、上述した情報処理装置200の機能を実現するようにしてもよい。
Further, the ground point
これらの実施例やその変形は、本願が開示する技術に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 These embodiments and modifications thereof are included in the invention disclosed in the claims and equivalents thereof as well as included in the technology disclosed in the present application.
100 物理デバイス
110 下層デバイス
111、121 導電部
120 上層デバイス
122 凸部
200 情報処理装置
230 接地点検知処理装置
240 リアルタイム処理発生装置
250 接地点情報処理装置
260 表示画面処理装置
DESCRIPTION OF
Claims (7)
前記物理デバイスは、
枠型の第1のデバイスと、前記第1のデバイスの枠内に配置される第2のデバイスとを有し、
前記第1のデバイス及び前記第2のデバイスは、前記タッチスクリーンによってそれぞれ感知される複数の被感知部をそれぞれ有し、
前記情報処理装置は、
前記複数の被感知部の配置パターンごとに所定の処理を対応付けたデバイス情報を記憶するデバイス情報蓄積部と、
前記タッチスクリーンによって感知される複数の被感知部の中から、前記第1のデバイス及び前記第2のデバイスの被感知部をそれぞれ識別して検出する検出部と、
前記デバイス情報を参照して、前記検出部によって検出された前記第1のデバイス及び前記第2のデバイスの被感知部の配置パターンに対応する処理をそれぞれ実行する処理部と、
を備えたことを特徴とする操作情報入力システム。 An operation information input system in which an input operation is performed on an information processing apparatus by operating a physical device on a touch screen,
The physical device is
A frame-shaped first device; and a second device disposed within a frame of the first device;
Each of the first device and the second device has a plurality of sensed parts that are sensed by the touch screen,
The information processing apparatus includes:
A device information storage unit that stores device information in which a predetermined process is associated with each of the arrangement patterns of the plurality of sensed units;
A detecting unit for identifying and detecting the sensed parts of the first device and the second device from a plurality of sensed parts sensed by the touch screen;
A processing unit that refers to the device information and executes processing corresponding to an arrangement pattern of the sensed part of the first device and the second device detected by the detection unit;
An operation information input system characterized by comprising:
前記検出部は、前記デバイス情報を参照して、前記タッチスクリーンによって検出された被感知部に対して前記物理デバイスの中心までの距離と向きとを加えることで、前記物理デバイスの前記タッチスクリーンに対する位置を決定することを特徴とする請求項2に記載の操作情報入力システム。 The device information storage unit further stores the device information in association with a distance and a direction from the first sensed unit to the center of the physical device,
The detection unit refers to the device information and adds the distance and the direction to the center of the physical device with respect to the sensed unit detected by the touch screen. The operation information input system according to claim 2, wherein the position is determined.
前記検出部は、前記デバイス情報を参照して、前記物理デバイスの方向及び位置から前記枠の位置及び方向を算出することを特徴とする請求項2に記載の操作情報入力システム。 When the physical device is hollow, the device information storage unit further stores the shape of the physical device frame in the device information,
The operation information input system according to claim 2, wherein the detection unit calculates the position and direction of the frame from the direction and position of the physical device with reference to the device information.
前記物理デバイスが、
枠型の第1のデバイスと、前記第1のデバイスの枠内に配置される第2のデバイスとを有し、
前記第1のデバイス及び前記第2のデバイスは、前記タッチスクリーンによってそれぞれ感知される複数の被感知部をそれぞれ有し、
前記情報処理装置が、
前記複数の被感知部の配置パターンごとにコンテンツ検索に係る処理を対応付けたデバイス情報を記憶するデバイス情報蓄積部を有し、
前記タッチスクリーンによって感知される複数の被感知部の中から、前記第1のデバイス及び前記第2のデバイスの被感知部をそれぞれ識別して検出する検出工程と、
前記デバイス情報を参照して、前記検出工程によって検出された前記第1のデバイス及び前記第2のデバイスの被感知部の配置パターンに対応する処理をそれぞれ実行する処理工程と、
を含んだことを特徴とするコンテンツ検索方法。 Content that is executed by an operation information input system that causes an information processing device to search for content by operating a physical device on a touch screen that displays a content search screen in which a plurality of contents are linked on a map A search method,
The physical device is
A frame-shaped first device; and a second device disposed within a frame of the first device;
Each of the first device and the second device has a plurality of sensed parts that are sensed by the touch screen,
The information processing apparatus is
A device information storage unit for storing device information in which processing related to content search is associated with each of the arrangement patterns of the plurality of sensed units;
A detection step of identifying and detecting the sensed parts of the first device and the second device from a plurality of sensed parts sensed by the touch screen;
A process step of referring to the device information and executing a process corresponding to an arrangement pattern of the sensed part of the first device and the second device detected by the detection step;
The content search method characterized by including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012042491A JP5705768B2 (en) | 2012-02-28 | 2012-02-28 | Operation information input system and content search method executed by operation information input system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012042491A JP5705768B2 (en) | 2012-02-28 | 2012-02-28 | Operation information input system and content search method executed by operation information input system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013178679A JP2013178679A (en) | 2013-09-09 |
JP5705768B2 true JP5705768B2 (en) | 2015-04-22 |
Family
ID=49270252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012042491A Active JP5705768B2 (en) | 2012-02-28 | 2012-02-28 | Operation information input system and content search method executed by operation information input system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5705768B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015219728A (en) * | 2014-05-18 | 2015-12-07 | 信行 千葉 | Program, electronic apparatus, and input device |
JP2015088000A (en) * | 2013-10-31 | 2015-05-07 | 株式会社タカラトミー | Position input device and image display system |
KR101542020B1 (en) * | 2014-11-26 | 2015-08-05 | 성균관대학교산학협력단 | Input apparatus for touch display, touch display device using the same and method for controlling output of touch display |
JP6897746B2 (en) * | 2019-10-30 | 2021-07-07 | Smk株式会社 | Capacitive touch panel operation knob |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7576725B2 (en) * | 2004-10-19 | 2009-08-18 | Microsoft Corporation | Using clear-coded, see-through objects to manipulate virtual objects |
KR100968255B1 (en) * | 2008-07-01 | 2010-07-06 | 이병진 | System and Method for Recognizing Contact Card Using Touch Screen |
-
2012
- 2012-02-28 JP JP2012042491A patent/JP5705768B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013178679A (en) | 2013-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5705767B2 (en) | Operation information input system and content search method executed by operation information input system | |
US9632677B2 (en) | System and method for navigating a 3-D environment using a multi-input interface | |
JP5721662B2 (en) | Input receiving method, input receiving program, and input device | |
US20140210748A1 (en) | Information processing apparatus, system and method | |
JP4743268B2 (en) | Information processing apparatus, information processing method, and program | |
JP5439410B2 (en) | Operation information input system | |
TWI550500B (en) | Method and system for displeying desktop | |
TWI463390B (en) | Positioning method for touch display panel | |
JP5705768B2 (en) | Operation information input system and content search method executed by operation information input system | |
CN105843440B (en) | The registration of electronic console | |
CN104238887B (en) | The icon lookup method and device of conventional application program | |
JP2008210348A (en) | Image display device | |
US20100039449A1 (en) | Menu controlling method | |
JPWO2011108650A1 (en) | Mobile terminal device | |
CN110989879B (en) | Auxiliary line prompting method and device, readable storage medium and electronic equipment | |
JP2013168144A (en) | Image display method and device thereof | |
CN103558957B (en) | A kind of method and device of mobile terminal screen operation | |
JP2014154055A (en) | Image processor and image processing method | |
US10102310B2 (en) | Precise object manipulation system and method | |
US9082223B2 (en) | Smooth manipulation of three-dimensional objects | |
CN106843630A (en) | The display methods of BUILDINGS MODELS and the display system of BUILDINGS MODELS | |
US9916061B2 (en) | Drawing object inferring system and method | |
JP2012226527A (en) | User interface device and user interface method | |
JP2014142806A (en) | Information sharing support device | |
CN115048001A (en) | Virtual object display method and device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141209 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150225 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5705768 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |