JP2016133934A - Information processing unit, control method for information processing unit, and control program - Google Patents

Information processing unit, control method for information processing unit, and control program Download PDF

Info

Publication number
JP2016133934A
JP2016133934A JP2015007227A JP2015007227A JP2016133934A JP 2016133934 A JP2016133934 A JP 2016133934A JP 2015007227 A JP2015007227 A JP 2015007227A JP 2015007227 A JP2015007227 A JP 2015007227A JP 2016133934 A JP2016133934 A JP 2016133934A
Authority
JP
Japan
Prior art keywords
detection target
information processing
unit
processing apparatus
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015007227A
Other languages
Japanese (ja)
Inventor
佐藤 直紀
Naoki Sato
直紀 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2015007227A priority Critical patent/JP2016133934A/en
Publication of JP2016133934A publication Critical patent/JP2016133934A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve operation feeling of input corresponding to touch operation, such as pointing input.SOLUTION: An information processing unit includes: a gesture determination section (35) which acquires position change of a detection object when the detection object is present apart from an arrangement surface of an operation section (2) within a predetermined distance from the arrangement surface; an application processing section (36) which executes processing corresponding to the position change of the detection object; a display control section (37); and a sound control section (38).SELECTED DRAWING: Figure 1

Description

本発明は、物理キーを備えた情報処理装置等に関する。   The present invention relates to an information processing apparatus provided with a physical key.

従来、情報処理装置において、キーボードやテンキーによる操作を受け付けるとともに、タッチパッド等によりポインタ操作を受け付けるものが知られている。また、昨今の情報処理装置の小型化に伴い、キーボートとタッチパッドを兼ねるインタフェースを備えた情報処理装置も存在している。例えば、特許文献1には、キーボード入力とポインティング入力とを受け付けるキー入力機構を備えた情報端末が記載されている。   2. Description of the Related Art Conventionally, in an information processing apparatus, an apparatus that accepts an operation using a keyboard or a numeric keypad and a pointer operation using a touch pad or the like is known. In addition, with the recent miniaturization of information processing apparatuses, there are also information processing apparatuses having an interface that serves both as a keyboard and a touch pad. For example, Patent Document 1 describes an information terminal including a key input mechanism that receives keyboard input and pointing input.

特開2012−38050号公報(2012年2月23日公開)JP 2012-38050 A (published February 23, 2012)

上記従来技術では、キーボード入力時には物理キーであるキー入力機構のボタンを押下し、ポインティング入力では、複数のボタンの表面をタッチパッドのようになぞるという構成である。この構成では、ポインティング入力時にボタン間の窪みにより手を滑らかに動かすことができず、操作感が悪いという問題がある。特に、ボタンの間隔やボタン間の窪みが大きい場合は、操作感が非常に悪くなってしまう。   In the above prior art, a button of a key input mechanism, which is a physical key, is pressed at the time of keyboard input, and the surface of a plurality of buttons is traced like a touch pad for pointing input. In this configuration, there is a problem that the hand cannot be smoothly moved due to the depression between the buttons when pointing input, and the feeling of operation is poor. In particular, when the distance between the buttons or the depression between the buttons is large, the feeling of operation becomes very bad.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、ポインティング入力等のタッチ操作に対応する入力の操作感がよい情報処理装置等を実現することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to realize an information processing apparatus and the like having a good input operation feeling corresponding to a touch operation such as a pointing input.

上記の課題を解決するために、本発明の一態様に係る情報処理装置は、入力インタフェースである物理キーを含む情報処理装置であって、上記物理キーが配置されている平面を配置面とし、該配置面から離れ、かつ該配置面から所定の距離内に検知対象が存在するときの該検知対象の位置の変化を取得する検知対象軌跡取得部と、上記検知対象軌跡取得部が取得した上記検知対象の位置の変化と対応する処理を実行する処理実行部と、を備えている。   In order to solve the above problem, an information processing apparatus according to an aspect of the present invention is an information processing apparatus including a physical key that is an input interface, and a plane on which the physical key is arranged is an arrangement surface. A detection target trajectory acquisition unit that acquires a change in the position of the detection target when the detection target exists away from the placement surface and within a predetermined distance from the placement surface, and the detection target trajectory acquisition unit acquires the above A process execution unit that executes a process corresponding to the change in the position of the detection target.

また、本発明の一態様に係る情報処理装置の制御方法は、入力インタフェースである物理キーを含む情報処理装置の制御方法であって、上記物理キーが配置されている平面を配置面とし、該配置面から離れ、かつ該配置面から所定の距離内に検知対象が存在するときの該検知対象の位置の変化を取得する検知対象軌跡取得ステップと、上記検知対象軌跡取得ステップで取得した上記検知対象の位置の変化と対応する処理を実行する処理実行ステップと、を含む。   An information processing apparatus control method according to an aspect of the present invention is an information processing apparatus control method including a physical key that is an input interface, wherein a plane on which the physical key is arranged is an arrangement surface, A detection target trajectory acquisition step for acquiring a change in the position of the detection target when the detection target is present within a predetermined distance from the placement surface and within the predetermined distance, and the detection acquired in the detection target trajectory acquisition step A process execution step of executing a process corresponding to the change in the position of the target.

本発明の一態様によれば、物理キーの表面に接触せずに、処理を実行させるための入力操作が可能となり、滑らかな入力操作が可能となるという効果を奏する。また、物理キーに接触することにより操作を行う場合は、物理キーのボタン間の窪みにより、操作感が悪くなるが、本発明の一態様によれば、このような操作感の悪さを生じさせることもない。さらに、物理キーに接触することなく操作が可能となるので、物理キーに接触して行う操作と接触しない操作とを明確に切り分けることができ、誤って物理キーを操作してしまうといった誤操作を防止することもできるという効果を奏する。   According to one aspect of the present invention, it is possible to perform an input operation for executing a process without touching the surface of a physical key, and it is possible to perform a smooth input operation. Further, when an operation is performed by touching a physical key, the feeling of operation is deteriorated due to the depression between the buttons of the physical key. However, according to one aspect of the present invention, such a feeling of operation is caused. There is nothing. In addition, since operations can be performed without touching physical keys, operations that are performed by touching physical keys can be clearly separated from operations that are not performed, and erroneous operations such as accidental operation of physical keys can be prevented. The effect that it can also be produced.

本発明の実施形態1に係る情報端末の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the information terminal which concerns on Embodiment 1 of this invention. (a)〜(h)は上記情報端末の構成例を示す図である。(A)-(h) is a figure which shows the structural example of the said information terminal. (a)は上記実施形態1における検知空間を説明するための図であり、(b)〜(d)は、検知分解能を説明するための図である。(A) is a figure for demonstrating the detection space in the said Embodiment 1, (b)-(d) is a figure for demonstrating detection resolution. (a)〜(d)は上記実施形態1における処理内容情報の例を示す図である。(A)-(d) is a figure which shows the example of the processing content information in the said Embodiment 1. FIG. 上記情報端末における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process in the said information terminal. 上記情報端末における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process in the said information terminal. 本発明の実施形態2に係る情報端末の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the information terminal which concerns on Embodiment 2 of this invention. (a)は上記実施形態2に係る情報端末の処理の流れを示すフローチャートであり、(b)は上記実施形態2におけるアプリ情報の例を示す図である。(A) is a flowchart which shows the flow of a process of the information terminal which concerns on the said Embodiment 2, (b) is a figure which shows the example of the application information in the said Embodiment 2. FIG.

〔実施形態1〕
以下、本実施形態について詳細に説明する。本実施形態に係る情報端末(情報処理装置)1は、キー入力を受け付ける操作部2(入力インタフェースである物理キー)を備え、かつ操作部2(物理キー)上(接触および非接触)でタッチ操作および空間上の操作(ホバー操作)を行うことができるものである。これにより、従来のタッチパッド等で行っていた操作を、物理キーに接触することなく実行することが可能となり、物理キーのボタン間が広い場合やボタン間の窪みが大きい場合でも、滑らかな入力操作を行うことが可能となる。
Embodiment 1
Hereinafter, this embodiment will be described in detail. An information terminal (information processing apparatus) 1 according to the present embodiment includes an operation unit 2 (physical key that is an input interface) that receives key input, and is touched on the operation unit 2 (physical key) (contact and non-contact). Operation and space operation (hover operation) can be performed. This makes it possible to perform operations performed on a conventional touchpad without touching the physical keys, enabling smooth input even when the physical key buttons are wide or the depressions between the buttons are large. The operation can be performed.

なお、本実施形態では、情報端末1として携帯電話を例に挙げて説明するが、本発明はこれに限られない。物理キーを備える情報端末であれば、どのようなものであってもよい。また、携帯電話の電話に関する機能については、従来技術を用いて可能であるので説明は省略する。   In the present embodiment, a mobile phone will be described as an example of the information terminal 1, but the present invention is not limited to this. Any information terminal provided with a physical key may be used. In addition, the functions related to the cellular phone can be performed using the conventional technology, and thus the description thereof is omitted.

〔情報端末1の構成〕
まず、本実施形態に係る情報端末1の外観、および構成について図2を用いて説明する。図2(a)、(b)は情報端末1の外観を示す図である。図2(a)に示す例では、情報端末1は、表示部5および操作エリアAを含む。また、操作エリアAには、物理キーである操作部2が含まれている。図2(b)に示す例では、(a)の操作エリアAに対応する領域が、操作エリアaおよび操作エリアbに区画されている。
[Configuration of information terminal 1]
First, the appearance and configuration of the information terminal 1 according to the present embodiment will be described with reference to FIG. 2A and 2B are views showing the appearance of the information terminal 1. FIG. In the example shown in FIG. 2A, the information terminal 1 includes a display unit 5 and an operation area A. The operation area A includes an operation unit 2 that is a physical key. In the example shown in FIG. 2B, an area corresponding to the operation area A in FIG. 2A is divided into an operation area a and an operation area b.

操作部2は、複数のボタン26を含むキー入力部25を備えている。ユーザは、ボタン26を押下することにより、キー入力操作(例えば文字入力操作)を行うことができる。また、ユーザが入力操作をするときに接触するボタン26等の表面を含む平面が配置面となる。   The operation unit 2 includes a key input unit 25 including a plurality of buttons 26. The user can perform a key input operation (for example, a character input operation) by pressing the button 26. Further, a plane including the surface of the button 26 or the like that comes into contact when the user performs an input operation is the arrangement surface.

また、本実施形態では、操作エリアにおいて、タッチ操作またはホバー操作による入力を受け付ける。なお、タッチ操作、ホバー操作による入力の詳細については後述する。   In the present embodiment, an input by a touch operation or a hover operation is accepted in the operation area. Details of input by touch operation and hover operation will be described later.

表示部5は、後述する表示制御部37からの指示に従い、各種情報、操作画面等の画像、文章等の表示を行う。表示部5の例としては、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、プラズマディスプレイ等が挙げられる。   The display unit 5 displays various information, images such as operation screens, sentences, and the like in accordance with instructions from the display control unit 37 described later. Examples of the display unit 5 include a liquid crystal display, an organic EL (Electro Luminescence) display, a plasma display, and the like.

(操作部2の構造)
次に、操作部2の構造について、図2(c)、(d)を用いて説明する。図2(c)は操作部2の構造を示す図であり、(d)は(c)に示されている領域R1を拡大した図である。図2(c)に示すように、操作部2は、電極シート20の上に、基板29、配線パターン27、支持部28、およびボタン(物理キー)26が積み重なった構成である。ボタン26の底面にカーボン26Aが印刷されている。また、基板29には、図2(e)に示す導電材料からなる配線パターン27が印刷されており、プリント配線29Aによって、後述する制御部3に電気的に接続されている。
(Structure of operation unit 2)
Next, the structure of the operation unit 2 will be described with reference to FIGS. FIG. 2C is a diagram showing the structure of the operation unit 2, and FIG. 2D is an enlarged view of the region R1 shown in FIG. As shown in FIG. 2C, the operation unit 2 has a configuration in which a substrate 29, a wiring pattern 27, a support unit 28, and a button (physical key) 26 are stacked on the electrode sheet 20. Carbon 26 </ b> A is printed on the bottom surface of the button 26. In addition, a wiring pattern 27 made of a conductive material shown in FIG. 2E is printed on the substrate 29, and is electrically connected to the control unit 3 described later by a printed wiring 29A.

支持部28は、ボタン26を基板29から離間するように支持する。そして、図2(d)に示す状態からボタン26が基板29方向に押下されると、支持部28が撓み、図2(f)に示すように、ボタン26の底面のカーボン26Aが、配線パターン27と接する。これにより、ボタン26を挟む2つの配線パターン27は、カーボン26Aによって電気的に導通した状態となり、配線パターン27における導通状態の変化は導通信号として制御部3に送信される。   The support portion 28 supports the button 26 so as to be separated from the substrate 29. When the button 26 is pressed in the direction of the substrate 29 from the state shown in FIG. 2D, the support portion 28 bends, and as shown in FIG. 2F, the carbon 26A on the bottom surface of the button 26 becomes a wiring pattern. 27. As a result, the two wiring patterns 27 sandwiching the button 26 become electrically conductive by the carbon 26A, and the change in the conductive state in the wiring pattern 27 is transmitted to the control unit 3 as a conductive signal.

なお、操作部2を、図2(g)に示すメタルドームスイッチ(皿バネ式スイッチ)によって実現してもよい。   In addition, you may implement | achieve the operation part 2 by the metal dome switch (disc spring type switch) shown in FIG.2 (g).

図2(g)に示すように、メタルドームスイッチは、接点電極101が形成された接点回路ベース基材102を有し、この接点回路ベース基材102上にメタルドーム(皿バネ)103及びメタルドーム押さえシート104を有し、さらに、メタルドーム押さえシート104上にキーマット層105を有して構成されている。接点回路ベース基材102には、接点電極101に接続された内部配線回路106が形成されている。これら接点電極101と内部配線回路106とは、ビア(Via)、または、スルーホール(TH)107によって接続されている。接点電極101は、接点回路ベース基材102の表面上に形成されている。   As shown in FIG. 2 (g), the metal dome switch has a contact circuit base substrate 102 on which contact electrodes 101 are formed. On the contact circuit base substrate 102, a metal dome (disc spring) 103 and a metal The dome presser sheet 104 is provided, and a key mat layer 105 is provided on the metal dome presser sheet 104. An internal wiring circuit 106 connected to the contact electrode 101 is formed on the contact circuit base substrate 102. The contact electrodes 101 and the internal wiring circuit 106 are connected by vias (Via) or through holes (TH) 107. The contact electrode 101 is formed on the surface of the contact circuit base substrate 102.

メタルドーム103は、薄い金属板によってドーム状(皿状)に形成されており、接点電極101上に位置して設置されている。このメタルドーム103には、ディンプル(接点電極101側への突起)、穴、上部突起(接点電極101と反対方向への突起)等が形成された種々の形状のものがある。現在は、1個から5個のディンプルが設けられたものが主流になっている。   The metal dome 103 is formed in a dome shape (dish shape) with a thin metal plate, and is placed on the contact electrode 101. The metal dome 103 has various shapes in which dimples (protrusions toward the contact electrode 101), holes, upper protrusions (protrusions in the direction opposite to the contact electrode 101), and the like are formed. At present, the mainstream is provided with 1 to 5 dimples.

メタルドーム103は、メタルドーム押さえシート104によって覆われた状態で、接点回路ベース基材102の上面に固定されている。メタルドーム押さえシート104は、接着剤層108により、接点回路ベース基材102の表面及びメタルドーム103の上面に接着されている。   The metal dome 103 is fixed to the upper surface of the contact circuit base substrate 102 while being covered with the metal dome holding sheet 104. The metal dome holding sheet 104 is bonded to the surface of the contact circuit base substrate 102 and the upper surface of the metal dome 103 by an adhesive layer 108.

キーマット層105は、メタルドーム押さえシート104上に設置されるベースラバー109と、このベースラバー109に接着剤110により接着されたキートップ111とにより構成されている。ベースラバー109は、合成樹脂材料によりシート状に形成されており、メタルドーム押さえシート104に対向する下面部にプランジャ部112を有している。このプランジャ部112は、ベースラバー109下面部より下方に向けて突設された突起部として形成されている。キートップ111は、押釦となる部分であって、合成樹脂材料により形成されている。このキートップ111の押圧操作される上面部は、文字や記号等が印刷されるキートップ加装飾部113となっている。   The key mat layer 105 includes a base rubber 109 installed on the metal dome presser sheet 104 and a key top 111 bonded to the base rubber 109 with an adhesive 110. The base rubber 109 is formed in a sheet shape from a synthetic resin material, and has a plunger portion 112 on the lower surface facing the metal dome holding sheet 104. The plunger portion 112 is formed as a protruding portion that protrudes downward from the lower surface portion of the base rubber 109. The key top 111 is a portion serving as a push button, and is formed of a synthetic resin material. An upper surface portion of the key top 111 that is pressed is a key top decoration portion 113 on which characters, symbols, and the like are printed.

このスイッチ装置においては、キートップ111の上面部が押圧操作されると、このキートップ111がメタルドーム103側に移動し、ベースラバー109が押圧されて変形する。このベースラバー109は、キートップ111によって押圧されて変形することにより、プランジャ部112により、メタルドーム押さえシート104を介してメタルドーム103の上面中央部を押圧する。すると、メタルドーム103は、接点回路ベース基材102側に弾性変位し、 接点電極101に接触する。接点電極101にメタルドーム103が接触することにより、この接点電極101において離間したパターン間が導通され、スイッチ操作がなされる。   In this switch device, when the upper surface portion of the key top 111 is pressed, the key top 111 moves to the metal dome 103 side, and the base rubber 109 is pressed and deformed. When the base rubber 109 is pressed and deformed by the key top 111, the plunger portion 112 presses the central portion of the upper surface of the metal dome 103 through the metal dome holding sheet 104. Then, the metal dome 103 is elastically displaced toward the contact circuit base substrate 102 and comes into contact with the contact electrode 101. When the metal dome 103 comes into contact with the contact electrode 101, the separated patterns in the contact electrode 101 are electrically connected, and a switch operation is performed.

次に、図2(h)を用いて電極シート20について説明する。図2(h)は、電極シート20の構成を示す図である。   Next, the electrode sheet 20 will be described with reference to FIG. FIG. 2H is a diagram illustrating a configuration of the electrode sheet 20.

図2(h)に示すように、電極シート20は、ノイズ保護シート201、絶縁体であるガラス202、電極層203が順に積層されている。そして、電極シート20は検知面上における検知対象(ユーザの指等)の位置を検知し、検知した位置(x座標、y座標、z座標)を制御部3に送信する。なお、ここでは、電極シート20の検知面上に設定した2次元座標をx、y座標とし、電極シート20の検知面に直交する方向をz軸方向としている。   As shown in FIG. 2 (h), the electrode sheet 20 includes a noise protection sheet 201, an insulator glass 202, and an electrode layer 203 laminated in this order. The electrode sheet 20 detects the position of a detection target (such as a user's finger) on the detection surface, and transmits the detected position (x coordinate, y coordinate, z coordinate) to the control unit 3. Here, the two-dimensional coordinates set on the detection surface of the electrode sheet 20 are x and y coordinates, and the direction orthogonal to the detection surface of the electrode sheet 20 is the z-axis direction.

電極シート20は、例えば、x方向の操作位を特定するためのx電極層2031と、y方向の操作位置を特定するためのy電極層2032とが積層されて構成されている。   For example, the electrode sheet 20 is configured by laminating an x electrode layer 2031 for specifying an operation position in the x direction and a y electrode layer 2032 for specifying an operation position in the y direction.

本実施形態では、電極シート20は、検知面と検知対象との距離により検知分解能が変更される。より具体的に、図3(a)〜(d)を用いて説明する。   In the present embodiment, the detection resolution of the electrode sheet 20 is changed depending on the distance between the detection surface and the detection target. This will be described more specifically with reference to FIGS.

図3(a)は、電極シート20の検知面に対する検知対象(指h)の位置と、検知空間との関係を説明するための図である。また、図3(b)〜(d)は、電極シート20の構造と検知分解能との関係を説明するための図である。   FIG. 3A is a diagram for explaining the relationship between the position of the detection target (finger h) with respect to the detection surface of the electrode sheet 20 and the detection space. 3B to 3D are diagrams for explaining the relationship between the structure of the electrode sheet 20 and the detection resolution.

図3(a)に示すように電極シート20の検知面からの距離に応じ、検知空間I、II、III、および非検知空間(不感帯)に分けられる。また、非検知空間(不感帯)と検知空間Iとは基準値1(所定の距離1)により分けられ、検知空間Iと検知空間IIは基準値2(所定の距離2)により分けられる。   As shown in FIG. 3A, the detection space I, II, III and the non-detection space (dead zone) are divided according to the distance from the detection surface of the electrode sheet 20. Further, the non-detection space (dead zone) and the detection space I are separated by a reference value 1 (predetermined distance 1), and the detection space I and the detection space II are separated by a reference value 2 (predetermined distance 2).

本実施形態では、一例として、検知面から10cmまでの距離が検知空間となるように設計されている。そして、基準値1=10cmであるとき、基準値2は5cm程度に設定される。   In the present embodiment, as an example, the distance from the detection surface to 10 cm is designed as a detection space. When the reference value 1 = 10 cm, the reference value 2 is set to about 5 cm.

また、ボタン26の表面が検知空間IIIなる。   Further, the surface of the button 26 becomes a detection space III.

図3(b)に示すように電極シート20は、検知面の一辺に沿う方向(上下方向と呼ぶ)に所定の間隔を保持して多数配列された複数の縦電極(ワイヤ電極)と、上下方向と直交する方向(左右方向と呼ぶ)に所定の間隔を保持して多数配列された複数の横電極(ワイヤ電極)とを備え、これらが交差するようにマトリックス状に配列された二次元電極構造を有している。そして検知空間IIIの場合、これら全ての電極が使用される(パターン<3>)。この場合には、最小検知エリアが検知電極の電極間隔となり、図3の(b)に示すように検知すべき座標点(黒丸印で表示)が最も密な状態となっている。   As shown in FIG. 3B, the electrode sheet 20 includes a plurality of vertical electrodes (wire electrodes) arranged at a predetermined interval in a direction along one side of the detection surface (referred to as the vertical direction), and upper and lower electrodes. A two-dimensional electrode having a plurality of horizontal electrodes (wire electrodes) arranged at predetermined intervals in a direction orthogonal to the direction (referred to as the left-right direction) and arranged in a matrix so that these intersect each other It has a structure. In the case of the detection space III, all these electrodes are used (pattern <3>). In this case, the minimum detection area is the electrode spacing of the detection electrodes, and the coordinate points (indicated by black circles) to be detected are the most dense as shown in FIG.

そして、図3(c)に示すように、検知空間IIの場合は、図3(b)の状態から縦電極と横電極とを1本置きに間引くことにより電極シート20が構成されている(パターン<2>)。この場合の最小検知エリアは、検知空間IIIの場合の最小検知エリアに比べ、4倍に拡張される。また、検知分解能は検知空間IIIに比べ低くなっている。   And in the case of the detection space II, as shown in FIG.3 (c), the electrode sheet 20 is comprised by thinning out every other vertical electrode and horizontal electrode from the state of FIG.3 (b) ( Pattern <2>). The minimum detection area in this case is expanded four times compared to the minimum detection area in the detection space III. Further, the detection resolution is lower than that of the detection space III.

また、図3(d)に示すように、検知空間Iの場合、図3(b)の状態から縦電極と横電極とを3本置きに間引くことにより電極シート20が構成されている(パターン<1>)。これにより、パターン<2>よりもさらに最小検知エリアが広がった状態となる。この場合、検知分解能は最も低い状態となる。   In addition, as shown in FIG. 3D, in the case of the detection space I, the electrode sheet 20 is configured by thinning out every three vertical electrodes and horizontal electrodes from the state of FIG. <1>). As a result, the minimum detection area is expanded more than the pattern <2>. In this case, the detection resolution is in the lowest state.

(情報端末1の機能ブロック)
次に、情報端末1の要部構成について、図1を用いて説明する。図1は、情報端末1の要部構成を示すブロック図である。図1に示すように、情報端末1は操作部2、制御部3、記憶部4、表示部5およびスピーカ6を含む。操作部2については、上述したためここでの説明を省略する。
(Functional block of information terminal 1)
Next, the main part structure of the information terminal 1 is demonstrated using FIG. FIG. 1 is a block diagram showing a main configuration of the information terminal 1. As shown in FIG. 1, the information terminal 1 includes an operation unit 2, a control unit 3, a storage unit 4, a display unit 5, and a speaker 6. Since the operation unit 2 has been described above, a description thereof is omitted here.

制御部3は、情報端末1における各種処理を実行する他、入力状態の切り替え、ジェスチャに対応する処理の実行等を行うものであり、位置特定部31、状態設定部32、文字コード変換部33、座標データ変換部34、ジェスチャ判定部(検知対象軌跡取得部)35、アプリ処理部(処理実行部)36、表示制御部(処理実行部)37および音制御部(処理実行部)38を含む。   The control unit 3 performs various processes in the information terminal 1, performs switching of input states, execution of processes corresponding to gestures, and the like. The position specifying unit 31, the state setting unit 32, and the character code conversion unit 33. , A coordinate data conversion unit 34, a gesture determination unit (detection target locus acquisition unit) 35, an application processing unit (processing execution unit) 36, a display control unit (processing execution unit) 37, and a sound control unit (processing execution unit) 38. .

位置特定部31は、検知対象の位置を特定する。詳細には、位置特定部31は、検知対象物の空間位置(z座標)に応じて、電極シート20の検知分解能を切り替え、電極シート20から検知対象の座標を取得し、検知対象の位置を特定する。そして、位置特定部31は、特定した座標(検知座標)を状態設定部32に通知する。なお、位置特定部31が行う位置特定処理の詳細については後述する。   The position specifying unit 31 specifies the position of the detection target. Specifically, the position specifying unit 31 switches the detection resolution of the electrode sheet 20 according to the spatial position (z coordinate) of the detection target, acquires the coordinates of the detection target from the electrode sheet 20, and determines the position of the detection target. Identify. The position specifying unit 31 notifies the state setting unit 32 of the specified coordinates (detected coordinates). Details of the position specifying process performed by the position specifying unit 31 will be described later.

状態設定部32は、位置特定部31から受信した検知座標から入力状態を設定する。また、位置特定部31から受信した検知座標およびキー入力部25から受信した導通信号から入力状態を設定する。   The state setting unit 32 sets the input state from the detected coordinates received from the position specifying unit 31. Further, the input state is set from the detected coordinates received from the position specifying unit 31 and the conduction signal received from the key input unit 25.

具体的には、状態設定部32は、受信した検知座標から検知対象がどの検知空間に存在するかを判断する。そして、検知対象が検知空間IIIに存在すると判断し、かつ、キー入力部25から導通信号を受信した場合、入力状態をキー入力状態に設定する。キー入力状態では、状態設定部32は受信した導通信号を文字コード変換部に送信する。キー入力状態とは、押下されたボタン26に対応する文字の入力処理を行う状態である。   Specifically, the state setting unit 32 determines in which detection space the detection target exists from the received detection coordinates. When it is determined that the detection target exists in the detection space III and a continuity signal is received from the key input unit 25, the input state is set to the key input state. In the key input state, the state setting unit 32 transmits the received continuity signal to the character code conversion unit. The key input state is a state in which character input processing corresponding to the pressed button 26 is performed.

また、検知対象が検知空間IIIに存在すると判断し、かつ、キー入力部25から導通信号を受信していない場合、入力状態をタッチ状態に設定する。タッチ状態では、状態設定部32は、受信した検知座標を座標データ変換部34に送信する。タッチ状態とは、タッチされた位置に応じてポインタの位置を移動させる処理を行う状態である。また、タッチ状態における入力操作をタッチ操作と呼ぶ。   Further, when it is determined that the detection target exists in the detection space III and no continuity signal is received from the key input unit 25, the input state is set to the touch state. In the touch state, the state setting unit 32 transmits the received detected coordinates to the coordinate data conversion unit 34. The touch state is a state in which processing for moving the position of the pointer according to the touched position is performed. An input operation in the touch state is referred to as a touch operation.

また、検知対象が検知空間Iまたは検知空間IIに存在していると判断した場合、入力状態をホバー状態に設定する。ホバー状態では、状態設定部32は受信した検知座標をジェスチャ判定部35に送信する。ホバー状態とは、検知座標に対応した処理を実行する状態である。また、ホバー状態における入力操作をホバー操作と呼ぶ。   When it is determined that the detection target exists in the detection space I or the detection space II, the input state is set to the hover state. In the hover state, the state setting unit 32 transmits the received detection coordinates to the gesture determination unit 35. The hover state is a state in which processing corresponding to the detected coordinates is executed. An input operation in the hover state is called a hover operation.

文字コード変換部33は状態設定部32から導通信号を受信し、配線パターン27が導通状態であるボタン26に対応する文字情報(文字コード)を生成する。より詳細には、文字コード変換部33は導通信号を受信すると、記憶部4に格納されている文字コード変換情報41を読み出し、導通状態のボタン26に対応する文字情報を生成し、表示制御部37に送信する。表示制御部37は、例えば、表示部5に表示されているカーソル位置に受信した文字情報が示す文字を表示させる。文字コード変換情報41は、ボタン26と文字情報とが対応付けられたテーブルである。   The character code conversion unit 33 receives the conduction signal from the state setting unit 32 and generates character information (character code) corresponding to the button 26 in which the wiring pattern 27 is in the conduction state. More specifically, when receiving the conduction signal, the character code conversion unit 33 reads the character code conversion information 41 stored in the storage unit 4, generates character information corresponding to the button 26 in the conduction state, and displays the display control unit. 37. For example, the display control unit 37 displays the character indicated by the received character information at the cursor position displayed on the display unit 5. The character code conversion information 41 is a table in which the button 26 and character information are associated with each other.

座標データ変換部34は、状態設定部32から受信した検知座標から、表示部5に表示されているポインタの表示位置を示す表示位置情報を生成し、表示制御部37に送信する。表示制御部37は、表示部5に表示されているポインタを、表示位置情報が示す位置に表示させる。   The coordinate data conversion unit 34 generates display position information indicating the display position of the pointer displayed on the display unit 5 from the detected coordinates received from the state setting unit 32 and transmits the display position information to the display control unit 37. The display control unit 37 displays the pointer displayed on the display unit 5 at the position indicated by the display position information.

ジェスチャ判定部35は、受信した検知座標の軌跡が所定のジェスチャ(検知対象の動き)に対応するか否かを判定し、所定のジェスチャと対応すると判定した場合、ジェスチャと対応する処理内容を示す処理情報をアプリ処理部36に送信する。より詳細には、ジェスチャ判定部35は、ジェスチャと処理内容とが対応付けられている処理内容情報42を参照し、状態設定部32から受信した検知座標の軌跡が、処理内容情報42で定義されているジェスチャと対応するか否かを判定する。そして、処理内容情報42で定義されているジェスチャと対応すると判定した場合、該ジェスチャと対応する処理内容を示す処理情報をアプリ処理部36に送信する。また、処理内容情報42で定義されているジェスチャと対応しないと判定した場合、受信した検知座標を座標データ変換部34に送信する。なお、処理内容情報の詳細については後述する。   The gesture determination unit 35 determines whether or not the received locus of detected coordinates corresponds to a predetermined gesture (movement of a detection target), and when it is determined to correspond to a predetermined gesture, the gesture determination unit 35 indicates processing content corresponding to the gesture. Processing information is transmitted to the application processing unit 36. More specifically, the gesture determination unit 35 refers to the processing content information 42 in which the gesture and the processing content are associated with each other, and the locus of the detected coordinates received from the state setting unit 32 is defined by the processing content information 42. It is determined whether or not the corresponding gesture is supported. When it is determined that the gesture corresponds to the gesture defined by the processing content information 42, processing information indicating the processing content corresponding to the gesture is transmitted to the application processing unit 36. When it is determined that the gesture does not correspond to the gesture defined by the processing content information 42, the received detected coordinates are transmitted to the coordinate data conversion unit 34. Details of the processing content information will be described later.

アプリ処理部36は、ジェスチャ判定部35から処理情報を受信し、処理情報が示す処理内容を実行する。例えば、アプリ処理部36は、処理内容に応じて表示制御部37、音制御部38などに指示を出す。   The application processing unit 36 receives the processing information from the gesture determination unit 35 and executes the processing content indicated by the processing information. For example, the application processing unit 36 issues an instruction to the display control unit 37, the sound control unit 38, and the like according to the processing content.

表示制御部37は、表示部5に、各種情報、操作画面等の画像の表示を指示する。音制御部38は、スピーカ6に、各種音声の出力を指示する。記憶部4は、情報を記憶するものであり、フラッシュメモリ、ROM(Read Only Memory)などの不揮発性の記憶装置と、RAM(Random Access Memory)などの揮発性の記憶装置とによって構成される。不揮発性の記憶装置に記憶される内容としては、各種プログラム、各種動作設定値、各種データなどが挙げられる。一方、揮発性の記憶装置に記憶される内容としては、作業用ファイル、テンポラリファイルなどが挙げられる。本実施の形態では、記憶部4は、文字コード変換情報41、および処理内容情報42を含む。表示部5は、上述したためここでの説明は省略する。スピーカ6は、音制御部38からの指示に従い、各種音声の出力を行う。   The display control unit 37 instructs the display unit 5 to display various information, an image such as an operation screen. The sound control unit 38 instructs the speaker 6 to output various sounds. The storage unit 4 stores information, and includes a nonvolatile storage device such as a flash memory and a ROM (Read Only Memory) and a volatile storage device such as a RAM (Random Access Memory). Examples of contents stored in the nonvolatile storage device include various programs, various operation setting values, and various data. On the other hand, examples of the contents stored in the volatile storage device include a working file and a temporary file. In the present embodiment, the storage unit 4 includes character code conversion information 41 and processing content information 42. Since the display part 5 was mentioned above, description here is abbreviate | omitted. The speaker 6 outputs various sounds in accordance with instructions from the sound control unit 38.

(処理内容情報の詳細)
処理内容情報の詳細について、図4を用いて説明する。図4(a)〜(d)は、処理内容情報の詳細を示す図である。図4(a)に示すように、処理内容情報43は処理内容とジェスチャとが対応付けられたテーブルである。処理内容情報43に示す例では、検知空間Iにおいて検知対象で円を描くジェスチャ(第1の変化)と、音量を下げる処理とが対応付けられている。また、検知空間IIにおいて円を描くジェスチャ(第2の変化)をしても処理は実行されない。また、検知空間IIにおける検知対象を平行に移動させるジェスチャ(第1の変化)と、音量を上げる処理とが対応付けられている。また、検知空間Iにおいて検知対象を平行に移動させるジェスチャ(第2の変化)をしても処理は実行されない。
(Details of processing content information)
Details of the processing content information will be described with reference to FIG. 4A to 4D are diagrams showing details of the processing content information. As shown in FIG. 4A, the processing content information 43 is a table in which processing content and a gesture are associated with each other. In the example shown in the processing content information 43, a gesture (first change) for drawing a circle as a detection target in the detection space I is associated with a process for lowering the volume. Further, the process is not executed even if a gesture (second change) for drawing a circle in the detection space II is performed. In addition, a gesture (first change) for moving the detection target in the detection space II in parallel is associated with a process for increasing the volume. Further, even if a gesture (second change) for moving the detection target in parallel in the detection space I is performed, the process is not executed.

また、図4(b)に示す処理内容情報43aには、操作エリアが複数に区画されている場合(図2(b)参照)の対応付けが示されている。処理内容情報43aでは、操作エリアaにおける検知空間Iでの検知対象で円を描くジェスチャと再生速度を下げる処理とが対応付けられている。また、検知空間IIでの検知対象を平行に移動するジェスチャと再生速度を上げる処理とが対応付けられている。また、操作エリアbにおける検知空間Iでの検知対象で円を描くジェスチャと音量を下げる処理とが対応付けられている。また、検知空間IIでの検知対象を平行に移動するジェスチャと音量を上げる処理とが対応付けられている。   Further, the processing content information 43a shown in FIG. 4B shows the association when the operation area is divided into a plurality of areas (see FIG. 2B). In the processing content information 43a, a gesture for drawing a circle with a detection target in the detection space I in the operation area a is associated with a process for reducing the reproduction speed. In addition, a gesture for moving the detection target in the detection space II in parallel is associated with a process for increasing the reproduction speed. In addition, a gesture for drawing a circle with a detection target in the detection space I in the operation area b is associated with a process for reducing the volume. In addition, a gesture for moving the detection target in the detection space II in parallel is associated with a process for increasing the volume.

また、図4(c)に示す処理内容情報43bでは、検知空間Iにおける操作エリアaから操作エリアbに移動し下降するジェスチャと再生速度を下げる処理とが対応付けられている。また、操作エリアaから操作エリアbに移動し上昇するジェスチャと再生速度を上げる処理とが対応付けられている。また、検知空間IIにおける操作エリアaから操作エリアbに移動し下降するジェスチャと音量を下げる処理とが対応付けられている。また、操作エリアaから操作エリアbに移動し上昇するジェスチャと音量を上げる処理とが対応付けられている。   Further, in the processing content information 43b shown in FIG. 4C, a gesture that moves from the operation area a to the operation area b in the detection space I and descends is associated with a process for reducing the reproduction speed. Further, a gesture that moves from the operation area a to the operation area b and moves up is associated with a process for increasing the reproduction speed. In addition, a gesture that moves from the operation area a to the operation area b in the detection space II and moves down is associated with a process for lowering the volume. In addition, a gesture that moves from the operation area a to the operation area b and rises is associated with a process for increasing the volume.

また、図4(d)に示す処理内容情報43cは、選択されたアプリケーションに応じて、ジェスチャと処理とが対応付けられたテーブルである。処理内容情報43cでは、音量調節のアプリケーションが選択された後、検知空間Iにおいて検知対象を下降させるジェスチャと音量を下げる処理とが対応付けられており、検知空間IIにおいて検知対象が上昇するジェスチャと音量を上げる処理とが対応付けられている。また、再生速度調節のアプリケーションが選択された後、検知空間Iにおいて検知対象が下降するジェスチャと再生速度を下げる処理とが対応付けられており、検知空間IIにおいて検知対象が上昇するジェスチャと再生速度を上げる処理とが対応付けられている。   Further, the processing content information 43c illustrated in FIG. 4D is a table in which gestures and processing are associated with each other according to the selected application. In the processing content information 43c, after a volume adjustment application is selected, a gesture for lowering the detection target in the detection space I is associated with a process for lowering the volume, and a gesture for increasing the detection target in the detection space II The process for increasing the volume is associated with the process. In addition, after a reproduction speed adjustment application is selected, a gesture in which the detection target is lowered in the detection space I is associated with a process for lowering the reproduction speed, and a gesture in which the detection target is increased in the detection space II and the reproduction speed. Is associated with the process of raising the value.

(情報端末1における処理の流れ)
次に、本実施形態に係る情報端末1の処理の流れについて説明する。図5は情報端末1の処理の流れを示すフローチャートである。図5に示すように、まず、位置特定部31は電極シート20から検知対象(ユーザの手など)の位置を表す座標(検知座標)を取得して位置を特定する位置特定処理を行う(S1)。位置特定処理の詳細については後述する。
(Processing flow in the information terminal 1)
Next, the flow of processing of the information terminal 1 according to the present embodiment will be described. FIG. 5 is a flowchart showing a process flow of the information terminal 1. As shown in FIG. 5, first, the position specifying unit 31 performs a position specifying process of acquiring coordinates (detected coordinates) representing the position of a detection target (such as a user's hand) from the electrode sheet 20 and specifying the position (S1). ). Details of the position specifying process will be described later.

次に、状態設定部32は、検知座標から検知対象が検知空間IIIに存在するか否かを判定する(S2)。検知座標が検知空間IIIに存在する場合(S2でYES)、状態設定部32は導通状態である配線パターン27があるか否かを判定する(S3)。導通状態である配線パターン27がある場合(S3でYES)、状態設定部32はデータの入力状態をキー入力状態に設定する(S4)。文字コード変換部33は、状態設定部32から導通信号を受信し、導通信号を文字情報に変換する(S5)。表示制御部37は、表示部5に受信した文字情報に応じた表示をさせる(S6、処理実行ステップ)。その後、S1に戻る。   Next, the state setting unit 32 determines whether or not the detection target exists in the detection space III from the detection coordinates (S2). When the detection coordinates are present in the detection space III (YES in S2), the state setting unit 32 determines whether or not there is a wiring pattern 27 in a conductive state (S3). When there is the wiring pattern 27 in the conductive state (YES in S3), the state setting unit 32 sets the data input state to the key input state (S4). The character code conversion unit 33 receives the conduction signal from the state setting unit 32 and converts the conduction signal into character information (S5). The display control unit 37 causes the display unit 5 to display according to the received character information (S6, process execution step). Thereafter, the process returns to S1.

一方、導通状態である配線パターン27がない場合(S3でNO)、状態設定部32はデータの入力状態をタッチ状態に設定し、座標データ変換部34に検知座標を送信する(S7)。座標データ変換部34は検知座標を受信し、検知座標を表示位置情報に変換する(S8)。表示制御部37は、表示位置情報を受信し表示部5に表示されているポインタを表示位置情報が示す位置に表示させるポインティングデバイス出力処理を実行する(S9、処理実行ステップ)。その後、S1に戻る。   On the other hand, when there is no conductive wiring pattern 27 (NO in S3), the state setting unit 32 sets the data input state to the touch state, and transmits the detected coordinates to the coordinate data conversion unit 34 (S7). The coordinate data converter 34 receives the detected coordinates and converts the detected coordinates into display position information (S8). The display control unit 37 receives the display position information and executes a pointing device output process for displaying the pointer displayed on the display unit 5 at the position indicated by the display position information (S9, process execution step). Thereafter, the process returns to S1.

また、検知座標が検知空間IIIに存在しない場合(S2でNO)、状態設定部32はデータの入力状態をホバー状態に設定し、検知座標をジェスチャ判定部35に送信する。(S10)。ジェスチャ判定部35は、受信した検知座標の軌跡が所定のジェスチャと対応するかを判定する(S11、検知対象軌跡取得ステップ)。ジェスチャ判定部35が、検知対象が所定のジェスチャと対応していない判定した場合(S11でNO)、ジェスチャ判定部35は検知座標を座標データ変換部34に送信する。その後、ステップS12、ステップS13(処理実行ステップ)と進み、ステップS1に戻る。なお、ステップS12はステップS8と同様であり、ステップS13はステップS9と同様であるためここでの説明は省略する。   If the detected coordinate does not exist in the detection space III (NO in S2), the state setting unit 32 sets the data input state to the hover state and transmits the detected coordinate to the gesture determining unit 35. (S10). The gesture determination unit 35 determines whether or not the received locus of detected coordinates corresponds to a predetermined gesture (S11, detection target locus acquisition step). When the gesture determination unit 35 determines that the detection target does not correspond to the predetermined gesture (NO in S11), the gesture determination unit 35 transmits the detected coordinates to the coordinate data conversion unit 34. Then, it progresses to step S12 and step S13 (process execution step), and returns to step S1. Since step S12 is the same as step S8, and step S13 is the same as step S9, description thereof is omitted here.

一方、ジェスチャ判定部35が、検知座標の所定期間における軌跡が所定のジェスチャと対応すると判定した場合(S11でYES)、ジェスチャ判定部35はジェスチャと対応する処理内容を示す処理情報をアプリ処理部36に送信する。アプリ処理部36は受信した処理情報が示す処理を実行する(S14、処理実行ステップ)。その後、S1に戻る。   On the other hand, when the gesture determination unit 35 determines that the trajectory of the detected coordinates in the predetermined period corresponds to the predetermined gesture (YES in S11), the gesture determination unit 35 displays the processing information indicating the processing content corresponding to the gesture as the application processing unit. 36. The application processing unit 36 executes the process indicated by the received process information (S14, process execution step). Thereafter, the process returns to S1.

(位置特定処理の流れ)
次に、ステップS1の位置特定処理の流れについて図6を用いて説明する。図6は、位置特定部31における位置特定処理の流れを示すフローチャートである。
(Location identification process)
Next, the flow of the position specifying process in step S1 will be described with reference to FIG. FIG. 6 is a flowchart showing the flow of the position specifying process in the position specifying unit 31.

まず、位置特定部31は、電極シート20の電極間隔がパターン<1>の電極間隔に設定されているか否かを確認し(S101)、電極間隔がパターン<1>の電極間隔に設定されている場合(S101でYES)、ステップS102に進む。一方、電極間隔がパターン<1>の電極間隔に設定されていない場合(S101でNO)、ステップS108に進む。ステップS108では、位置特定部31が、電極間隔をパターン<1>の電極間隔に設定して(切り替えて)ステップS102に進む。次に、位置特定部31は、検出レベル(検知座標のz座標)が基準値1を超えたか否かを判定し(S102)、検出レベルが基準値1を超えた場合(S102でYES)、ステップS103に進む。一方、検出レベルが基準値1を超えていない場合(S102でNO)、ステップS102の動作を最初からやり直す。そして、位置特定部31は、検出レベルが基準値2を超えたか否かを判定し(S103)、検出レベルが基準値2を超えた場合(S103でYES)、ステップS104に進む。一方、検出レベルが基準値2を超えていない場合(S103でNO)、ステップS109に進む。ステップS109では、位置特定部31は、電極間隔がパターン<1>の電極間隔に設定されているか否かを確認し、電極シート20の電極間隔がパターン<1>の電極間隔に設定されている場合(S109でYES)、ステップS110に進む。一方、電極間隔がパターン<1>の電極間隔に設定されていない場合は(S109でNO)、ステップS101に戻る。ステップS110では、検知対象物の検知座標から、物体の位置を特定し、ステップS101に戻る。   First, the position specifying unit 31 checks whether or not the electrode interval of the electrode sheet 20 is set to the electrode interval of the pattern <1> (S101), and the electrode interval is set to the electrode interval of the pattern <1>. If YES (YES in S101), the process proceeds to step S102. On the other hand, when the electrode interval is not set to the electrode interval of the pattern <1> (NO in S101), the process proceeds to step S108. In step S108, the position specifying unit 31 sets (switches) the electrode interval to the electrode interval of the pattern <1>, and proceeds to step S102. Next, the position specifying unit 31 determines whether or not the detection level (z coordinate of the detection coordinates) exceeds the reference value 1 (S102). If the detection level exceeds the reference value 1 (YES in S102), Proceed to step S103. On the other hand, when the detection level does not exceed the reference value 1 (NO in S102), the operation in step S102 is repeated from the beginning. Then, the position specifying unit 31 determines whether or not the detection level exceeds the reference value 2 (S103). If the detection level exceeds the reference value 2 (YES in S103), the process proceeds to step S104. On the other hand, if the detection level does not exceed the reference value 2 (NO in S103), the process proceeds to step S109. In step S109, the position specifying unit 31 checks whether or not the electrode interval is set to the electrode interval of the pattern <1>, and the electrode interval of the electrode sheet 20 is set to the electrode interval of the pattern <1>. If so (YES in S109), the process proceeds to step S110. On the other hand, when the electrode interval is not set to the electrode interval of the pattern <1> (NO in S109), the process returns to step S101. In step S110, the position of the object is specified from the detection coordinates of the detection target, and the process returns to step S101.

次に、位置特定部31は、パターン<2>の電極間隔に設定されているか否かを確認し(S104)、電極間隔がパターン<2>の電極間隔に設定されている場合(S104でYES)、ステップS105に進む。一方、電極間隔がパターン<2>の電極間隔に設定されていない場合(S104でNO)、ステップS111に進む。ステップS111では、位置特定部31は、電極間隔をパターン<2>の電極間隔に設定して(切り替えて)ステップS105に進む。   Next, the position specifying unit 31 checks whether or not the electrode interval of the pattern <2> is set (S104), and when the electrode interval is set to the electrode interval of the pattern <2> (YES in S104) ), The process proceeds to step S105. On the other hand, when the electrode interval is not set to the electrode interval of the pattern <2> (NO in S104), the process proceeds to step S111. In step S111, the position specifying unit 31 sets (switches) the electrode interval to the electrode interval of the pattern <2>, and proceeds to step S105.

その後、位置特定部31は、検出レベルが基準値3を超えたか否かを判定し(S105)、検出レベルが基準値3を超えた場合(S105でYES)、ステップS106に進む。一方、検出レベルが基準値3を超えていない場合(S105でNO)、ステップS112に進む。ステップS112では、位置特定部31が、電極シート20の電極間隔がパターン<2>の電極間隔に設定されているか否かを確認し、電極間隔がパターン<2>の電極間隔に設定されている場合(S112でYES)、ステップS113に進む。一方、電極間隔がパターン<2>の電極間隔に設定されていない場合(S112でNO)、ステップS103に戻る。ステップS113では、検知対象物の検知座標から物体の位置を特定し、ステップS103に戻る。   Thereafter, the position specifying unit 31 determines whether or not the detection level exceeds the reference value 3 (S105). If the detection level exceeds the reference value 3 (YES in S105), the process proceeds to step S106. On the other hand, if the detection level does not exceed the reference value 3 (NO in S105), the process proceeds to step S112. In step S112, the position specifying unit 31 confirms whether or not the electrode interval of the electrode sheet 20 is set to the electrode interval of the pattern <2>, and the electrode interval is set to the electrode interval of the pattern <2>. If so (YES in S112), the process proceeds to step S113. On the other hand, when the electrode interval is not set to the electrode interval of the pattern <2> (NO in S112), the process returns to step S103. In step S113, the position of the object is specified from the detection coordinates of the detection target, and the process returns to step S103.

そして、位置特定部31は、電極シート20の電極間隔がパターン<3>の電極間隔に設定されているか否かを確認し(S106)、電極間隔がパターン<3>の電極間隔に設定されている場合(S106でYES)、ステップS107に進む。一方、電極間隔がパターン<3>の電極間隔に設定されていない場合(S106でNO)、ステップS114に進む。ステップS114では、位置特定部31は、電極シート20の電極間隔をパターン<3>の電極間隔に設定して(切り替えて)ステップS107に進む。ステップS107では、検知対象物の検知座標から物体の位置を特定し、ステップS105に戻る。   Then, the position specifying unit 31 checks whether or not the electrode interval of the electrode sheet 20 is set to the electrode interval of the pattern <3> (S106), and the electrode interval is set to the electrode interval of the pattern <3>. If yes (YES in S106), the process proceeds to step S107. On the other hand, when the electrode interval is not set to the electrode interval of the pattern <3> (NO in S106), the process proceeds to step S114. In step S114, the position specifying unit 31 sets (switches) the electrode interval of the electrode sheet 20 to the electrode interval of the pattern <3>, and proceeds to step S107. In step S107, the position of the object is specified from the detection coordinates of the detection target, and the process returns to step S105.

〔実施形態2〕
本発明の他の実施形態について、図7および図8に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 2]
The following will describe another embodiment of the present invention with reference to FIGS. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

本実施形態に係る情報端末1aについて図7を用いて説明する。図7は、情報端末1aの要部構成を示すブロック図である。図7に示すように、情報端末1aは、実施形態1の制御部3の代わりに制御部3aを備えている。制御部3aは、制御部3が備えている状態設定部32に代わり、状態設定部32aを含むとともに、アプリ判定部39を含む。   The information terminal 1a according to the present embodiment will be described with reference to FIG. FIG. 7 is a block diagram showing a main configuration of the information terminal 1a. As illustrated in FIG. 7, the information terminal 1 a includes a control unit 3 a instead of the control unit 3 of the first embodiment. The control unit 3 a includes a state setting unit 32 a and an application determination unit 39 instead of the state setting unit 32 provided in the control unit 3.

アプリ判定部39は、ユーザの操作によって起動したアプリケーションに設定されている入力がキー入力状態のみに対応しているか否かを判定し、当該判定の結果を状態設定部32aに送信する。例えば、アプリ判定部39は、記憶部4に格納されている各アプリが対応可能な入力状態を示すアプリ情報44を参照して、上記判定を行う。図8(b)は、アプリ情報44の一例を示す図である。図8(b)に示すように、アプリケーション「メモ帳」においてはキー入力状態のみに対応し、アプリケーション「フルブラウザ」においてはホバー状態、タッチ状態およびキー入力状態に対応している。   The application determination unit 39 determines whether or not the input set in the application activated by the user's operation corresponds only to the key input state, and transmits the determination result to the state setting unit 32a. For example, the application determination unit 39 performs the above determination with reference to application information 44 indicating an input state that can be supported by each application stored in the storage unit 4. FIG. 8B is a diagram illustrating an example of the application information 44. As shown in FIG. 8B, the application “Notepad” corresponds only to the key input state, and the application “Full Browser” corresponds to the hover state, the touch state, and the key input state.

状態設定部32aは、アプリケーションがキー入力状態のみに対応している旨の判定を受信した場合、データの入力状態をキー入力状態に設定する。また、状態設定部32aは、アプリケーションがキー入力状態のみの対応ではない旨の判定を受信した場合、実施形態1にて説明した状態設定部32と同様にデータを処理する。   When the state setting unit 32a receives the determination that the application supports only the key input state, the state setting unit 32a sets the data input state to the key input state. Further, when the state setting unit 32a receives a determination that the application is not only compatible with the key input state, the state setting unit 32a processes data in the same manner as the state setting unit 32 described in the first embodiment.

次に本実施形態に係る情報端末1aの処理の流れについて、図8(a)を用いて説明する。図8(a)は、情報端末1aの処理の流れを示すフローチャートである。図8(a)に示すように、ユーザの操作等によりアプリケーションが起動すると(S21)、アプリ判定部39は、起動したアプリケーションに設定されている入力がキー入力状態のみに対応しているか否かを判定する(S22)。起動したアプリケーションがキー入力状態のみに対応している場合(S22でYES)、S4に進む。一方、起動したアプリケーションがキー入力状態のみの対応でない場合(S22でNO)、S1に進む。なお、ステップS1〜14の処理は、実施形態1と同様のため、ここでの説明は省略する。また、ステップS6、ステップS9、ステップS13およびステップS14の処理が終了すると、ステップS21に戻る。   Next, a processing flow of the information terminal 1a according to the present embodiment will be described with reference to FIG. FIG. 8A is a flowchart showing a process flow of the information terminal 1a. As shown in FIG. 8A, when an application is activated by a user operation or the like (S21), the application determination unit 39 determines whether or not the input set in the activated application corresponds only to the key input state. Is determined (S22). If the activated application supports only the key input state (YES in S22), the process proceeds to S4. On the other hand, if the activated application is not compatible only with the key input state (NO in S22), the process proceeds to S1. In addition, since the process of step S1-14 is the same as that of Embodiment 1, description here is abbreviate | omitted. Moreover, when the processes of step S6, step S9, step S13, and step S14 are completed, the process returns to step S21.

〔実施形態3〕
情報端末1、1aの制御ブロック(制御部3、3a)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Embodiment 3]
The control blocks (control units 3 and 3a) of the information terminals 1 and 1a may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or using a CPU (Central Processing Unit). It may be realized by software.

後者の場合、情報端末1、1aは、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU
)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
In the latter case, the information terminals 1 and 1a include a CPU that executes instructions of a program that is software that realizes each function, and the program and various data are stored in a computer (or CPU).
ROM (Read Only Memory) or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

〔まとめ〕
本発明の態様1に係る情報処理装置は、入力インタフェースである物理キーを含む情報処理装置であって、上記物理キーが配置されている平面を配置面とし、該配置面から離れ、かつ該配置面から所定の距離内に検知対象が存在するときの該検知対象の位置の変化を取得する検知対象軌跡取得部と、上記検知対象軌跡取得部が取得した上記検知対象の位置の変化と対応する処理を実行する処理実行部と、を備えている。
[Summary]
An information processing apparatus according to aspect 1 of the present invention is an information processing apparatus that includes a physical key that is an input interface, and has a plane on which the physical key is arranged as a placement plane, is separated from the placement plane, and the placement A detection target trajectory acquisition unit that acquires a change in the position of the detection target when the detection target exists within a predetermined distance from the surface, and a change in the position of the detection target acquired by the detection target trajectory acquisition unit And a process execution unit that executes the process.

上記の構成によれば、物理キーの表面に接触せずに、処理を実行させるための入力操作が可能となる。よって、滑らかな入力操作が可能となる。また、物理キーに接触することにより操作を行う場合は、物理キーのボタン間の窪みにより、操作感が悪くなるが、上記の構成によれば、このような操作感の悪さを生じさせることもない。さらに、物理キーに接触することなく操作が可能となるので、物理キーに接触して行う操作と接触しない操作とを明確に切り分けることができ、誤って物理キーを操作してしまうといった誤操作を防止することもできる。   According to said structure, input operation for performing a process is possible, without contacting the surface of a physical key. Therefore, a smooth input operation is possible. In addition, when an operation is performed by touching a physical key, the feeling of operation deteriorates due to the depression between the buttons of the physical key. However, according to the above configuration, such a feeling of operation may be caused. Absent. In addition, since operations can be performed without touching physical keys, operations that are performed by touching physical keys can be clearly separated from operations that are not performed, and erroneous operations such as accidental operation of physical keys can be prevented. You can also

本発明の態様2に係る情報処理装置は、上記態様1において、上記処理実行部は、上記検知対象軌跡取得部が取得した上記変化が予め定められた動きの場合、該動きと対応付けられた特定の機能を実行するものであってもよい。   In the information processing apparatus according to aspect 2 of the present invention, in the aspect 1, the processing execution unit is associated with the movement when the change acquired by the detection target locus acquisition unit is a predetermined movement. It may execute a specific function.

上記の構成によれば、予め定められた動きにより特定の機能を実行させることができる。よって、特定の機能を想定しやすい動きを予め定めておけば、ユーザに対し、直感的な操作感を提供することができる。   According to said structure, a specific function can be performed by a predetermined motion. Therefore, if a motion that can easily assume a specific function is determined in advance, an intuitive operational feeling can be provided to the user.

本発明の態様3に係る情報処理装置は、上記態様1または2において、上記処理実行部は、上記検知対象軌跡取得部が取得した上記変化について2つの異なる変化を第1の変化および第2の変化とし、これら2つの変化について、上記物理キーの配置面と平行な面に投影した際の軌跡が同じで、上記物理キーの配置面との距離が異なる場合、上記処理を異ならせるものであってもよい。   The information processing apparatus according to aspect 3 of the present invention is the information processing apparatus according to aspect 1 or 2, wherein the processing execution unit performs two different changes for the change acquired by the detection target trajectory acquisition unit. If these two changes have the same trajectory when projected onto a plane parallel to the physical key layout plane and the distance from the physical key layout plane is different, the processing is different. May be.

上記の構成によれば、物理キーの配置面からの距離によって、処理の内容を異ならせることができる。これにより、実行する処理のバリエーションを増やすことができる。また、物理キーの配置面と平行な面における軌跡が同じでも距離が異なる場合、処理を異ならせることができるので、所定の距離の場合のみ処理を実行させるようにすることにより、誤操作を防止することができる。   According to said structure, the content of a process can be changed with the distance from the arrangement | positioning surface of a physical key. Thereby, the variation of the process to perform can be increased. Also, if the distance is different even if the trajectory on the plane parallel to the physical key arrangement plane is the same, the process can be made different, so that the process is executed only when the distance is a predetermined distance, thereby preventing an erroneous operation. be able to.

本発明の態様4に係る情報処理装置は、上記態様1〜3のいずれかにおいて、上記処理実行部は、上記検知対象軌跡取得部が取得した上記変化が予め定められた動きと異なる場合、該動きと対応させて、表示部に表示されているポインタの位置を移動させ処理を実行するものであってもよい。   The information processing apparatus according to aspect 4 of the present invention is the information processing apparatus according to any one of the aspects 1 to 3, wherein the process execution unit is different from the predetermined movement acquired by the detection target locus acquisition unit. The processing may be executed by moving the position of the pointer displayed on the display unit in association with the movement.

上記の構成によれば、検知対象の軌跡に対応させて、表示部に表示されているポインタの位置を移動させることができるので、操作感よくポインタを移動させることができる。   According to said structure, since the position of the pointer currently displayed on the display part can be moved corresponding to the locus | trajectory of a detection target, a pointer can be moved with a sufficient operational feeling.

本発明の態様5に係る情報処理装置の制御方法は、入力インタフェースである物理キーを含む情報処理装置の制御方法であって、上記物理キーが配置されている平面を配置面とし、該配置面から離れ、かつ該配置面から所定の距離内に検知対象が存在するときの該検知対象の位置の変化を取得する検知対象軌跡取得ステップと、上記検知対象軌跡取得ステップ(S11)で取得した上記検知対象の位置の変化と対応する処理を実行する処理実行ステップ(S6、S9、S13、S14)と、を含む。   An information processing apparatus control method according to an aspect 5 of the present invention is an information processing apparatus control method including a physical key that is an input interface, wherein a plane on which the physical key is arranged is an arrangement plane, and the arrangement plane The detection target locus acquisition step for acquiring a change in the position of the detection target when the detection target is present within a predetermined distance from the arrangement surface and the detection target locus acquisition step (S11). And a process execution step (S6, S9, S13, S14) for executing a process corresponding to the change in the position of the detection target.

上記の方法によれば、上述した効果を奏することができる。   According to said method, there can exist the effect mentioned above.

本発明の各態様に係る情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記情報処理装置が備える各部(ソフトウェア要素)として動作させることにより上記情報処理装置をコンピュータにて実現させる情報処理装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The information processing apparatus according to each aspect of the present invention may be realized by a computer. In this case, the information processing apparatus is operated on each computer by causing the computer to operate as each unit (software element) included in the information processing apparatus. The control program for the information processing apparatus to be realized in this way and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

本発明は、面をなぞるような操作、例えば従来のタッチパッドに接触して行う操作により処理を実行する情報処理装置に利用することができる。   The present invention can be used for an information processing apparatus that executes processing by an operation of tracing a surface, for example, an operation performed by touching a conventional touch pad.

1、1a 情報端末(情報処理装置)、25 キー入力部(物理キー)、26 ボタン(物理キー)、35 ジェスチャ判定部(検知対象軌跡取得部)、36 アプリ処理部(処理実行部)、37 表示制御部(処理実行部)、38 音制御部(処理実行部)   1, 1a Information terminal (information processing device), 25 key input unit (physical key), 26 button (physical key), 35 gesture determination unit (detection target trajectory acquisition unit), 36 application processing unit (processing execution unit), 37 Display control unit (process execution unit), 38 sound control unit (process execution unit)

Claims (6)

入力インタフェースである物理キーを含む情報処理装置であって、
上記物理キーが配置されている平面を配置面とし、該配置面から離れ、かつ該配置面から所定の距離内に検知対象が存在するときの該検知対象の位置の変化を取得する検知対象軌跡取得部と、
上記検知対象軌跡取得部が取得した上記検知対象の位置の変化と対応する処理を実行する処理実行部と、
を備えていることを特徴とする情報処理装置。
An information processing apparatus including a physical key that is an input interface,
A detection target trajectory that acquires a change in the position of the detection target when the detection target exists within a predetermined distance from the arrangement plane and within a predetermined distance from the plane on which the physical key is arranged. An acquisition unit;
A process execution unit that executes a process corresponding to the change in the position of the detection target acquired by the detection target locus acquisition unit;
An information processing apparatus comprising:
上記処理実行部は、上記検知対象軌跡取得部が取得した上記変化が予め定められた動きの場合、該動きと対応付けられた特定の機能を実行することを特徴とする請求項1に記載の情報処理装置。   The said process execution part performs the specific function matched with the said movement, when the said change acquired by the said detection object locus | trajectory acquisition part is a predetermined movement. Information processing device. 上記処理実行部は、上記検知対象軌跡取得部が取得した上記変化について2つの異なる変化を第1の変化および第2の変化とし、これら2つの変化について、上記物理キーの配置面と平行な面に投影した際の軌跡が同じで、上記物理キーの配置面との距離が異なる場合、上記処理を異ならせることを特徴とする請求項1または2に記載の情報処理装置。   The process execution unit sets two different changes for the change acquired by the detection target locus acquisition unit as a first change and a second change, and the two changes are parallel to the physical key arrangement surface. The information processing apparatus according to claim 1, wherein the processing is different when the trajectories when projected onto the same are different and the distance from the physical key arrangement surface is different. 上記処理実行部は、上記検知対象軌跡取得部が取得した上記変化が予め定められた動きと異なる場合、該動きと対応させて、表示部に表示されているポインタの位置を移動させ処理を実行することを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。   When the change acquired by the detection target locus acquisition unit is different from a predetermined movement, the process execution unit moves the position of the pointer displayed on the display unit in accordance with the movement and executes the process. The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus. 入力インタフェースである物理キーを含む情報処理装置の制御方法であって、
上記物理キーが配置されている平面を配置面とし、該配置面から離れ、かつ該配置面から所定の距離内に検知対象が存在するときの該検知対象の位置の変化を取得する検知対象軌跡取得ステップと、
上記検知対象軌跡取得ステップで取得した上記検知対象の位置の変化と対応する処理を実行する処理実行ステップと、
を含むことを特徴とする情報処理装置の制御方法。
An information processing apparatus control method including a physical key that is an input interface,
A detection target trajectory that acquires a change in the position of the detection target when the detection target exists within a predetermined distance from the arrangement plane and within a predetermined distance from the plane on which the physical key is arranged. An acquisition step;
A process execution step for executing a process corresponding to the change in the position of the detection target acquired in the detection target locus acquisition step;
A method for controlling an information processing apparatus, comprising:
請求項1に記載の情報処理装置としてコンピュータを機能させるための情報処理装置制御プログラムであって、上記検知対象軌跡取得部、および上記処理実行部としてコンピュータを機能させるための情報処理装置制御プログラム。   An information processing apparatus control program for causing a computer to function as the information processing apparatus according to claim 1, wherein the information processing apparatus control program causes the computer to function as the detection target locus acquisition unit and the processing execution unit.
JP2015007227A 2015-01-16 2015-01-16 Information processing unit, control method for information processing unit, and control program Pending JP2016133934A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015007227A JP2016133934A (en) 2015-01-16 2015-01-16 Information processing unit, control method for information processing unit, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015007227A JP2016133934A (en) 2015-01-16 2015-01-16 Information processing unit, control method for information processing unit, and control program

Publications (1)

Publication Number Publication Date
JP2016133934A true JP2016133934A (en) 2016-07-25

Family

ID=56426198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015007227A Pending JP2016133934A (en) 2015-01-16 2015-01-16 Information processing unit, control method for information processing unit, and control program

Country Status (1)

Country Link
JP (1) JP2016133934A (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004094964A (en) * 1996-03-28 2004-03-25 Synaptics Inc Cursor movement method
JP2006338488A (en) * 2005-06-03 2006-12-14 Alps Electric Co Ltd Display device
JP2009141441A (en) * 2007-12-03 2009-06-25 Nec Corp Character input-functional operation device, method, program, and portable terminal
JP2009217465A (en) * 2008-03-10 2009-09-24 Sharp Corp Input device, input operation reception method, and program thereof
JP2010128544A (en) * 2008-11-25 2010-06-10 Sony Corp Information processing apparatus, information processing method, information processing system, and program for information processing
JP2010244302A (en) * 2009-04-06 2010-10-28 Sony Corp Input device and input processing method
US20110214053A1 (en) * 2010-02-26 2011-09-01 Microsoft Corporation Assisting Input From a Keyboard
JP2013228948A (en) * 2012-04-26 2013-11-07 Panasonic Corp Input device, input support method and program
WO2014092837A1 (en) * 2012-12-10 2014-06-19 Intel Corporation Electrode arrangement for a keyboard proximity and tracking sensor
US20140191972A1 (en) * 2013-01-04 2014-07-10 Lenovo (Singapore) Pte. Ltd. Identification and use of gestures in proximity to a sensor

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004094964A (en) * 1996-03-28 2004-03-25 Synaptics Inc Cursor movement method
JP2006338488A (en) * 2005-06-03 2006-12-14 Alps Electric Co Ltd Display device
JP2009141441A (en) * 2007-12-03 2009-06-25 Nec Corp Character input-functional operation device, method, program, and portable terminal
JP2009217465A (en) * 2008-03-10 2009-09-24 Sharp Corp Input device, input operation reception method, and program thereof
JP2010128544A (en) * 2008-11-25 2010-06-10 Sony Corp Information processing apparatus, information processing method, information processing system, and program for information processing
JP2010244302A (en) * 2009-04-06 2010-10-28 Sony Corp Input device and input processing method
US20110214053A1 (en) * 2010-02-26 2011-09-01 Microsoft Corporation Assisting Input From a Keyboard
JP2013228948A (en) * 2012-04-26 2013-11-07 Panasonic Corp Input device, input support method and program
WO2014092837A1 (en) * 2012-12-10 2014-06-19 Intel Corporation Electrode arrangement for a keyboard proximity and tracking sensor
US20140191972A1 (en) * 2013-01-04 2014-07-10 Lenovo (Singapore) Pte. Ltd. Identification and use of gestures in proximity to a sensor

Similar Documents

Publication Publication Date Title
US7312790B2 (en) Input apparatus for performing input operation corresponding to indication marks and coordinate input operation on the same operational plane
JP6931641B2 (en) Information processing equipment, information processing methods and computer programs
CN102360249B (en) Discrete keyboard layout system and method to set up, corresponding mancarried electronic aid and control method
KR100773220B1 (en) Mobile digital devices
JP5721662B2 (en) Input receiving method, input receiving program, and input device
JP4057253B2 (en) Input device and electronic device
US6704005B2 (en) Input device which allows button input operation and coordinate input operation to be performed in the same operation plane
JPWO2012090405A1 (en) INPUT DEVICE, INPUT CONTROL METHOD, PROGRAM, AND ELECTRONIC DEVICE
JP2003280807A (en) Touch pad device
CN107943304B (en) Keyboard and intelligent mobile terminal provided with same
WO2016125215A1 (en) Information processing device, input device, information processing device control method, input device control method, and program
US20100259495A1 (en) Input device
KR101365595B1 (en) Method for inputting of device containing display unit based on GUI and apparatus thereof
JP2014182429A (en) Information processor, information processing method and information processing program
KR20230027136A (en) Electronic device having multi functional human interface and method for controlling the same
JP2016133934A (en) Information processing unit, control method for information processing unit, and control program
JP4383683B2 (en) Input device
CN101546231A (en) Method and device for multi-object direction touch control selection
US20120044174A1 (en) Method and apparatus for touch input in portable communication system
CN104969166B (en) The method and apparatus for managing the user interface elements on touch panel device
JP2012238128A (en) Information device having back-face input function, back-face input method, and program
JP2010198597A (en) Operation control method of electronic equipment including touchscreen
JP2015172799A (en) touch operation input device
KR102015313B1 (en) Electronic device having multi functional human interface and method for controlling the same
KR102015309B1 (en) Electronic device having multi functional human interface and method for controlling the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190326