JP2018170048A - Information processing apparatus, input method, and program - Google Patents

Information processing apparatus, input method, and program Download PDF

Info

Publication number
JP2018170048A
JP2018170048A JP2018149612A JP2018149612A JP2018170048A JP 2018170048 A JP2018170048 A JP 2018170048A JP 2018149612 A JP2018149612 A JP 2018149612A JP 2018149612 A JP2018149612 A JP 2018149612A JP 2018170048 A JP2018170048 A JP 2018170048A
Authority
JP
Japan
Prior art keywords
hover
icon
display
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018149612A
Other languages
Japanese (ja)
Other versions
JP6722239B2 (en
Inventor
文雄 室岡
Fumio Murooka
文雄 室岡
和彦 杉山
Kazuhiko Sugiyama
和彦 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2018149612A priority Critical patent/JP6722239B2/en
Publication of JP2018170048A publication Critical patent/JP2018170048A/en
Application granted granted Critical
Publication of JP6722239B2 publication Critical patent/JP6722239B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus having a touch sensor for detecting a touch operation and a hover operation which allows a user to easily select an icon from a hover state while utilizing detection accuracy of the touch sensor.SOLUTION: An information processing apparatus 1 comprises: a display part 13 which displays an image; a touch sensor 12 which detects a touch operation and a hover operation on a display region of the display part 13; and a control part 10 which performs control so as to display a hover mark at a position on the display region corresponding to the detected position when the hover operation is detected by the touch sensor 12. The control part 10 performs change control so as to change display size of the hover mark in accordance with size of an icon when the hover operation is detected on the icon displayed in the display region.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置及び入力方法に関し、より詳細には、表示部に表示領域へのタッチ操作及びホバー操作を検出するタッチセンサを有する情報処理装置、及びその情報処理装置における入力方法に関する。   The present invention relates to an information processing apparatus and an input method, and more particularly to an information processing apparatus having a touch sensor that detects a touch operation and a hover operation on a display area on a display unit, and an input method in the information processing apparatus.

従来から、表示部にタッチセンサが搭載されている情報処理装置が流通している。このような情報処理装置には、ユーザの指やスタイラスペンなどによるタッチ操作の他に、電子ペンやデジタイザペンなどと呼ばれるペン入力装置によるタッチ操作も受け付け可能になっているものもある。タッチセンサとしては様々な方式が提案されており、それぞれの方式に応じたペン入力装置も提案されている。例えば、静電容量方式のタッチセンサでは、ペン入力装置から出力される信号を電磁誘導方式で検知するようになっている。   Conventionally, information processing apparatuses in which a touch sensor is mounted on a display unit have been distributed. Some of such information processing apparatuses can accept a touch operation by a pen input device called an electronic pen or a digitizer pen in addition to a touch operation by a user's finger or a stylus pen. Various methods have been proposed as touch sensors, and pen input devices corresponding to the respective methods have also been proposed. For example, in a capacitive touch sensor, a signal output from a pen input device is detected by an electromagnetic induction method.

デジタイザペンとは、オペレーションシステム(OS)に対してタッチ信号とは別にペン入力信号を与えることができるペン入力装置である。デジタイザペンには、デジタイザペン側からある周波数の信号を与えるアクティブ方式と、デジタイザペンが表示部(画面)に近づいた場合に表示部側で磁場を発生させる方式(アクティブ方式とも呼ばれる電磁誘導方式、若しくはパッシブ方式)との、大きく2つの種類がある。いずれの方式においても、タッチセンサがデジタイザペンを感知すると、タッチ入力を排除し、これにより、例えばお手付きした状態での手書き入力も可能となる。   The digitizer pen is a pen input device that can provide a pen input signal to the operation system (OS) separately from the touch signal. The digitizer pen has an active method that gives a signal of a certain frequency from the digitizer pen side, and a method that generates a magnetic field on the display unit side when the digitizer pen approaches the display unit (screen) (an electromagnetic induction method called an active method, Or passive type). In any method, when the touch sensor detects the digitizer pen, the touch input is excluded, and for example, handwriting input in a touched state is possible.

このような情報処理装置におけるタッチセンサでは、ペン入力装置による操作としてタッチ操作(タッチイベント)だけでなく、ホバー操作(ホバリングイベント)も検出可能になっているものが多い。ここで、ホバー操作とは、表示画面にペン入力装置が接触していない浮いた状態(ホバー状態)にする操作を指す。なお、タッチセンサには、指やスライラスペンなどによるホバー操作も検出可能なものもある。   Many of such touch sensors in the information processing apparatus can detect not only a touch operation (touch event) but also a hover operation (hover event) as an operation by a pen input device. Here, the hover operation refers to an operation for bringing the display screen into a floating state (hover state) where the pen input device is not in contact. Some touch sensors can detect a hover operation with a finger or a stylus pen.

そのような情報処理装置では、ペン入力装置(或いは指やスタイラスペン)によるホバー操作が検出された場合、その検出位置に対応する表示部の位置にホバーマークを表示すること、並びにホバー操作の検出位置に追随して(つまりペン入力装置等の動きに追随して)ホバーマークを移動させることが可能になっている。ホバーマークとは、マウスのカーソルのようにホバー状態を示すための一定のマークであり、ユーザは表示部の表示領域に表示されたアイコン上にホバーマークを移動させて、その後のアイコン選択操作を行うことが可能となっている。   In such an information processing device, when a hover operation by a pen input device (or a finger or a stylus pen) is detected, a hover mark is displayed at the position of the display unit corresponding to the detected position, and hover operation is detected. The hover mark can be moved following the position (that is, following the movement of the pen input device or the like). The hover mark is a certain mark for indicating the hover state like a mouse cursor, and the user moves the hover mark on the icon displayed in the display area of the display unit, and then performs the icon selection operation. It is possible to do.

特許文献1には、指、スタイラスペン、ペン入力装置(特許文献1では「スタイラス」と表記)などによるタッチ操作とホバー操作を、入力信号の振幅及び勾配パターンにより判別し、別々に処理する技術が開示されている。   Japanese Patent Application Laid-Open No. 2004-133867 discloses a technique for discriminating a touch operation and a hover operation by a finger, a stylus pen, a pen input device (indicated as “stylus” in Patent Document 1), and the like based on an amplitude and a gradient pattern of an input signal and processing them separately. Is disclosed.

また、特許文献2には、ホバリング動作と通常動作との間の切り替えが可能なタブレット等の情報処理装置が開示されている。この情報処理装置では、画面上をペンで1回タップしてから所定時間内にその画面上に線を描くような操作をすれば、通常動作としてその線が描かれ、ペンアップから所定時間が経過すればホバリング動作が実行される。   Patent Document 2 discloses an information processing apparatus such as a tablet capable of switching between a hovering operation and a normal operation. In this information processing apparatus, if an operation is performed such that a line is drawn on the screen within a predetermined time after tapping the screen once with a pen, the line is drawn as a normal operation. When the time elapses, the hovering operation is executed.

特表2009−543246号公報Special table 2009-543246 gazette 特開2000−122808号公報JP 2000-122808 A

ところで、近年、表示部における画素の高解像度化に伴い、タッチ操作やホバー操作に対するタッチセンサの検出精度も向上しており、特にペン入力装置のペン先は、検出精度を生かすために細径化が進んでいる。   By the way, with the recent increase in pixel resolution in the display unit, the detection accuracy of the touch sensor for touch operations and hover operations has also improved, and in particular, the pen tip of the pen input device has been reduced in diameter to take advantage of the detection accuracy. Is progressing.

しかしながら、高検出精度を生かすためには、ペン先の細径化だけではなく、表示させるホバーマークも小さくする必要があり、ユーザにとってホバーマークが非常に見難くなってしまい、結果としてアイコンの選択操作が難しくなってしまう。なお、特許文献1,2には、ホバーマークのサイズを変化させることについて記載されていない。   However, in order to take advantage of high detection accuracy, it is necessary not only to reduce the pen tip diameter, but also to make the hover mark to be displayed small, which makes it very difficult for the user to see the hover mark, resulting in the selection of the icon. Operation becomes difficult. Note that Patent Documents 1 and 2 do not describe changing the size of the hover mark.

本発明は、上述のような実状に鑑みてなされたものであり、その目的は、タッチ操作及びホバー操作を検出するタッチセンサを有する情報処理装置において、タッチセンサがもつ検出精度を生かした上で、ホバー状態からのアイコンの選択をユーザが行い易くすることにある。   The present invention has been made in view of the above-described actual situation, and an object thereof is to make use of the detection accuracy of the touch sensor in an information processing apparatus having a touch sensor that detects a touch operation and a hover operation. It is to make it easier for the user to select an icon from the hover state.

上記の課題を解決するために、本発明の第1の技術手段は、画像を表示する表示部と、該表示部の表示領域上でのタッチ操作及びホバー操作を検出するタッチセンサと、を備えた情報処理装置であって、前記タッチセンサにより前記ホバー操作が検出された場合、検出された位置に対応する前記表示領域上の位置にホバーマークを表示させる制御を行う制御部を備え、該制御部は、前記表示領域に表示されたアイコンの上で前記ホバー操作が検出された場合、前記ホバーマークの表示サイズを前記アイコンの大きさに応じて変更する変更制御を行うことを特徴としたものである。   In order to solve the above problems, a first technical means of the present invention includes a display unit that displays an image, and a touch sensor that detects a touch operation and a hover operation on the display area of the display unit. An information processing apparatus comprising: a control unit that performs control to display a hover mark at a position on the display area corresponding to the detected position when the hover operation is detected by the touch sensor; When the hover operation is detected on the icon displayed in the display area, the unit performs change control to change the display size of the hover mark according to the size of the icon. It is.

本発明の第2の技術手段は、第1の技術手段において、前記制御部は、前記変更制御として、前記ホバーマークの表示サイズを前記アイコンの縦方向及び/又は横方向の長さに合わせるように変更することを特徴としたものである。   According to a second technical means of the present invention, in the first technical means, the control unit adjusts the display size of the hover mark to the vertical and / or horizontal length of the icon as the change control. It is characterized by changing to.

本発明の第3の技術手段は、第1又は第2の技術手段において、前記制御部は、前記ホバー操作の検出位置が前記アイコンの上以外で該検出位置と前記アイコンとが所定の近接条件を満たす場合、前記ホバーマークを前記アイコンの上に移動させる移動制御を行うことを特徴としたものである。   According to a third technical means of the present invention, in the first or second technical means, the control unit detects that the detection position of the hover operation is not on the icon and the detection position and the icon are in a predetermined proximity condition. When the condition is satisfied, movement control for moving the hover mark onto the icon is performed.

本発明の第4の技術手段は、第3の技術手段において、前記所定の近接条件は、前記検出位置を含む所定範囲の領域に前記アイコンの少なくとも一部が表示されていることを含むことを特徴としたものである。   According to a fourth technical means of the present invention, in the third technical means, the predetermined proximity condition includes that at least a part of the icon is displayed in an area of a predetermined range including the detection position. It is a feature.

本発明の第5の技術手段は、第3又は第4の技術手段において、前記所定の近接条件は、前記アイコンを含む所定範囲の領域に前記検出位置が存在することを含むことを特徴としたものである。   According to a fifth technical means of the present invention, in the third or fourth technical means, the predetermined proximity condition includes that the detection position exists in an area of a predetermined range including the icon. Is.

本発明の第6の技術手段は、第3〜第5のいずれか1の技術手段において、前記タッチセンサは、前記移動制御を解除するための操作を受け付けるボタンを有するペン入力装置によってなされた前記タッチ操作及び前記ホバー操作を検出する機能をもつことを特徴としたものである。   According to a sixth technical means of the present invention, in any one of the third to fifth technical means, the touch sensor is a pen input device having a button for receiving an operation for releasing the movement control. It has a function of detecting a touch operation and the hover operation.

本発明の第7の技術手段は、第1〜第6のいずれか1の技術手段において、前記タッチセンサは、前記変更制御を解除するための操作を受け付けるボタンを有するペン入力装置によってなされた前記タッチ操作及び前記ホバー操作を検出する機能をもつことを特徴としたものである。   According to a seventh technical means of the present invention, in any one of the first to sixth technical means, the touch sensor is formed by a pen input device having a button for receiving an operation for canceling the change control. It has a function of detecting a touch operation and the hover operation.

本発明の第8の技術手段は、画像を表示する表示部と該表示部の表示領域上でのタッチ操作及びホバー操作を検出するタッチセンサとを備えた情報処理装置における入力方法であって、前記タッチセンサが前記ホバー操作を検出する検出ステップと、前記情報処理装置の制御部が、前記検出ステップで検出された位置に対応する前記表示領域上の位置にホバーマークを表示させる制御を行う表示制御ステップと、を有し、前記表示制御ステップは、前記検出ステップにおいて前記表示領域に表示されたアイコンの上で前記ホバー操作が検出された場合、前記ホバーマークの表示サイズを前記アイコンの大きさに応じて変更するステップを有することを特徴としたものである。   An eighth technical means of the present invention is an input method in an information processing apparatus including a display unit that displays an image and a touch sensor that detects a touch operation and a hover operation on the display area of the display unit, A detection step in which the touch sensor detects the hover operation, and a display in which the control unit of the information processing apparatus performs control to display a hover mark at a position on the display area corresponding to the position detected in the detection step. Control step, and when the hover operation is detected on the icon displayed in the display area in the detection step, the display control step sets the display size of the hover mark to the size of the icon. It has the step which changes according to this, It is characterized by the above-mentioned.

本発明によれば、タッチ操作及びホバー操作を検出するタッチセンサを有する情報処理装置において、タッチセンサがもつ検出精度を生かした上で、ホバー状態からのアイコンの選択をユーザが行い易くなる。   According to the present invention, in an information processing apparatus having a touch sensor that detects a touch operation and a hover operation, the user can easily select an icon from the hover state while taking advantage of the detection accuracy of the touch sensor.

本発明の第1の実施形態に係る情報処理装置の一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of the information processing apparatus which concerns on the 1st Embodiment of this invention. 図1の情報処理装置におけるペン入力方法の一例を説明するためのフロー図である。It is a flowchart for demonstrating an example of the pen input method in the information processing apparatus of FIG. 図2のペン入力方法の一例を説明するための概略図である。It is the schematic for demonstrating an example of the pen input method of FIG. 図2のペン入力方法の一例を説明するための概略図である。It is the schematic for demonstrating an example of the pen input method of FIG. 図1の情報処理装置におけるペン入力方法の他の例を説明するためのフロー図である。It is a flowchart for demonstrating the other example of the pen input method in the information processing apparatus of FIG. 図4のペン入力方法の一例を説明するための概略図である。It is the schematic for demonstrating an example of the pen input method of FIG. 図1の情報処理装置におけるペン入力方法の他の例を説明するためのフロー図である。It is a flowchart for demonstrating the other example of the pen input method in the information processing apparatus of FIG. 図6のペン入力方法の一例を説明するための概略図である。It is the schematic for demonstrating an example of the pen input method of FIG. 図6のペン入力方法の一例を説明するための概略図である。It is the schematic for demonstrating an example of the pen input method of FIG. 図6のペン入力方法の他の例を説明するための概略図である。It is the schematic for demonstrating the other example of the pen input method of FIG. 図6のペン入力方法における認知エリアとアイコンとの位置関係の一例を説明するための概略図である。It is the schematic for demonstrating an example of the positional relationship of the recognition area and icon in the pen input method of FIG. 図6のペン入力方法における認知エリアとアイコンとの位置関係の他の例を説明するための概略図である。It is the schematic for demonstrating the other example of the positional relationship of the recognition area and icon in the pen input method of FIG. 図6のペン入力方法における認知エリアとアイコンとの位置関係の他の例を説明するための概略図である。It is the schematic for demonstrating the other example of the positional relationship of the recognition area and icon in the pen input method of FIG.

本発明に係る情報処理装置は、表示部、タッチセンサ、及び制御部を備える。本発明に係る情報処理装置は、1つの筐体で構成した装置であってもよいし、上記表示部及びタッチセンサが本体(制御部側)と別筐体で構成された装置であってもよい。本発明に係る情報処理装置としては、例えば設置型のPC(Personal Computer)、モバイルPC、タブレット型の端末装置(以下、タブレット端末)、携帯電話機(スマートフォンと呼ばれるものも含む)などが挙げられる。   An information processing apparatus according to the present invention includes a display unit, a touch sensor, and a control unit. The information processing apparatus according to the present invention may be an apparatus configured with one casing, or may be an apparatus in which the display unit and the touch sensor are configured with a main body (control unit side) and a separate casing. Good. Examples of the information processing apparatus according to the present invention include a stationary PC (Personal Computer), a mobile PC, a tablet-type terminal device (hereinafter referred to as a tablet terminal), a mobile phone (including a so-called smartphone), and the like.

(第1の実施形態)
本発明の第1の実施形態について、図1〜図3Bを参照しながら説明する。図1は、本実施形態に係る情報処理装置の一構成例を示すブロック図である。本実施形態に係る情報処理装置1は、その全体を制御する制御部10と、タッチセンサ12と、画像を表示する表示部13と、を備えている。表示部13は、画像を表示する表示パネルを有する。表示パネルとしては、液晶ディスプレイや有機エレクトロルミネッセンスディスプレイ等、様々な表示方式のパネルが挙げられる。
(First embodiment)
A first embodiment of the present invention will be described with reference to FIGS. 1 to 3B. FIG. 1 is a block diagram illustrating a configuration example of the information processing apparatus according to the present embodiment. The information processing apparatus 1 according to the present embodiment includes a control unit 10 that controls the entire device, a touch sensor 12, and a display unit 13 that displays an image. The display unit 13 includes a display panel that displays an image. Examples of the display panel include various display panels such as a liquid crystal display and an organic electroluminescence display.

その他、ここで例示する情報処理装置1は、表示対象の画像ファイル等を記憶する記憶部11と、表示対象の画像ファイル等をサーバ装置等の外部機器から取得するための通信部14と、を備えている。なお、通信部14としては、例えば有線LAN(Local Area Network)のルータを介して外部機器と通信するインターフェースが挙げられる。無論、このルータに限らず、移動体通信システムの基地局、無線LANのアクセスポイントなどを介して通信するインターフェースであってもよい。   In addition, the information processing apparatus 1 exemplified here includes a storage unit 11 that stores an image file to be displayed, and a communication unit 14 for acquiring the image file to be displayed from an external device such as a server device. I have. Examples of the communication unit 14 include an interface for communicating with an external device via a wired LAN (Local Area Network) router. Of course, the interface is not limited to this router, and may be an interface that communicates via a base station of a mobile communication system, an access point of a wireless LAN, or the like.

また、情報処理装置1は、電源キーを備えると共に、ユーザ操作を受け付けるために、電源キー以外のハードウェアキー(音量調整キー等)、キーボード、マウス等のポインティングデバイス、ジョイスティック、タッチパッド、トラックボール、キーボードなどのうち、いずれか1又は複数を具備するようにしてもよい。   The information processing apparatus 1 also includes a power key and a hardware key (volume adjustment key, etc.) other than the power key, a keyboard, a pointing device such as a mouse, a joystick, a touch pad, and a trackball in order to accept a user operation. Any one or more of a keyboard and the like may be provided.

以下、本発明の主な構成となる制御部10及びタッチセンサ12について詳細に説明する。制御部10は、プログラム保存領域に格納された制御プログラムを動作させ、各種制御を行う。例えば制御部10は、CPU(Central Processing Unit)又はMPU(Micro Processing Unit)、作業領域としてのRAM(Random Access Memory)、及び記憶装置などの制御デバイスで構成され、その一部又は全部を集積回路/ICチップセットとして搭載することもできる。この記憶装置には、上記制御プログラム(本発明に係る処理を実行するプログラムを含む)をはじめ、各種設定内容などが記憶される。この記憶装置としては、フラッシュROM(Read Only Memory)、EEPROM(Electrically Erasable and Programmable ROM)等が挙げられる。また、この記憶装置としては記憶部11を採用することができる。   Hereinafter, the control unit 10 and the touch sensor 12 which are main components of the present invention will be described in detail. The control unit 10 operates the control program stored in the program storage area and performs various controls. For example, the control unit 10 includes a central processing unit (CPU) or a micro processing unit (MPU), a RAM (Random Access Memory) as a work area, and a control device such as a storage device. / It can also be mounted as an IC chip set. The storage device stores various control contents including the control program (including a program for executing processing according to the present invention). Examples of the storage device include a flash ROM (Read Only Memory) and an EEPROM (Electrically Erasable and Programmable ROM). Further, the storage unit 11 can be adopted as the storage device.

タッチセンサ12は、表示部13の表示領域(全表示領域)上でのタッチ操作及びホバー操作を検出するセンサであり、シングルタッチのみ対応のセンサであってもマルチタッチ対応のセンサであってもよい。   The touch sensor 12 is a sensor that detects a touch operation and a hover operation on the display area (all display areas) of the display unit 13, and may be a sensor that supports only a single touch or a sensor that supports multi-touch. Good.

ここで、ホバー操作とは、ポインティングデバイスによりカーソルを特定要素に合わせる操作に対応する操作を指し、タッチセンサ12においてはタッチ操作に至る手前の状態(操作主体を浮かせたホバー状態)にする操作を指す。ホバー状態とは、操作主体が表示画面と所定の距離以下にあり且つ操作主体と表示画面とが接触していない状態、つまり操作主体を近接させた状態を指す。   Here, the hover operation refers to an operation corresponding to an operation for aligning the cursor with a specific element by a pointing device, and an operation to bring the touch sensor 12 into a state before the touch operation (a hover state with the operation subject floating). Point to. The hover state refers to a state where the operating subject is not more than a predetermined distance from the display screen and the operating subject is not in contact with the display screen, that is, a state where the operating subject is brought close.

タッチセンサ12としては、例えば表面型又は投射型の静電容量方式、電磁誘導方式、赤外線方式、表面弾性波方式、抵抗膜方式など、様々な方式のセンサが適用できる。また、ホバー操作を検出するための検出部を、タッチ操作の検出方式とは別の検出方式で設けることもできる。なお、タッチセンサ12は、表示部(表示パネル)13の表面に重ねるようにパネルとして設けられるものが多く、単体で若しくは表示パネルと合わせて、タッチパネルとも呼ばれる。   As the touch sensor 12, various types of sensors such as a surface type or projection type electrostatic capacity method, an electromagnetic induction method, an infrared method, a surface acoustic wave method, and a resistive film method can be applied. In addition, the detection unit for detecting the hover operation can be provided by a detection method different from the detection method of the touch operation. Note that the touch sensor 12 is often provided as a panel so as to overlap the surface of the display unit (display panel) 13, and is also called a touch panel alone or in combination with the display panel.

タッチセンサ12は、タッチ操作やホバー操作を検出するとその検出位置を特定する情報(入力座標情報)を制御部10に渡す。若しくは、制御部10が、ポーリング処理等によりタッチセンサ12に対するタッチ操作やホバー操作の入力を監視し、検出された場合に入力座標情報を得る。   When the touch sensor 12 detects a touch operation or a hover operation, the touch sensor 12 passes information (input coordinate information) specifying the detection position to the control unit 10. Alternatively, the control unit 10 monitors input of a touch operation or a hover operation on the touch sensor 12 by polling processing or the like, and obtains input coordinate information when detected.

タッチセンサ12では、タッチ操作やホバー操作として、ユーザの指での操作、スタイラスペンでの操作、ペン入力装置での操作のうち、いずれの操作も受け付け可能にしておけばよい。但し、ペン入力装置での操作を受け付けるモード(ペン入力モードと呼ぶ)とそれ以外での操作を受け付けるモード(通常タッチ入力モードと呼ぶ)とを用意しておき、制御部10にてユーザ操作に基づきモードの切り替えが可能に構成しておくか、若しくはペン入力装置の近接を検知してペン入力モードに切り替えるように構成しておくことが好ましい。また、タッチ操作は双方のモードで受け付ければよいが、ホバー操作はペン入力モードでのみ受け付けるようにしてもよい。   The touch sensor 12 may accept any of a touch operation and a hover operation among a user's finger operation, a stylus pen operation, and a pen input device operation. However, a mode for accepting an operation on the pen input device (referred to as a pen input mode) and a mode for accepting an operation other than that (referred to as a normal touch input mode) are prepared. It is preferable that the mode can be switched based on the configuration, or the proximity of the pen input device is detected and the mode is switched to the pen input mode. Further, the touch operation may be accepted in both modes, but the hover operation may be accepted only in the pen input mode.

ペン入力装置について、タッチセンサ12が電磁誘導方式でペン入力装置によるタッチ操作やホバー操作(近接操作)を検出する例を挙げて説明する。図1で例示するペン入力装置2は、その全体を制御する制御部20と共に、ペン信号発生部21及びボタン22を備えている。   The pen input device will be described with an example in which the touch sensor 12 detects a touch operation or a hover operation (proximity operation) by the pen input device by an electromagnetic induction method. A pen input device 2 illustrated in FIG. 1 includes a pen signal generation unit 21 and a button 22 together with a control unit 20 that controls the whole.

ペン信号発生部21は、コイルを有し、制御部20からの制御に基づきペン信号として所定の電磁波を出力させる。一般的に、制御部20はペン信号を絶えず発信するような制御を行っている。ペン入力装置2がタッチセンサ12に近接した場合(つまり表示部13に近接した場合)にタッチセンサ12側のコイルがそのペン信号を検出する。なお、ペン信号が検出された場合、ペン信号発生部21側ではそれを検知することができる。   The pen signal generation unit 21 includes a coil and outputs a predetermined electromagnetic wave as a pen signal based on control from the control unit 20. In general, the control unit 20 performs control such that a pen signal is constantly transmitted. When the pen input device 2 is close to the touch sensor 12 (that is, close to the display unit 13), the coil on the touch sensor 12 side detects the pen signal. When a pen signal is detected, the pen signal generator 21 can detect it.

制御部20は、タイマを有し、一定期間(例えば1分など)、タッチセンサ12との近接がない場合に、スリープモードに移行しペン信号の発生をストップさせる。スリープモードからの復帰は、一般的にペン入力装置2のペン先をタップするか、具備されたボタン22を押すことで実行される。   The control unit 20 includes a timer, and when there is no proximity to the touch sensor 12 for a certain period (for example, 1 minute), the control unit 20 shifts to the sleep mode and stops the generation of the pen signal. The return from the sleep mode is generally performed by tapping the pen tip of the pen input device 2 or pressing the provided button 22.

ボタン22は、例えばクリック動作など、予め決められた動作の割り当てに用いられ、ボタン22が押下された場合にはその動作に応じて変調された電磁波がペン信号発生部21から出力される。なお、ボタン22が押下された場合、別途設けた無線通信部、又は有線通信部及び接続ケーブルにより、情報処理装置1側に押下を示す信号を送信するような構成を採用することもできる。   The button 22 is used for assignment of a predetermined operation such as a click operation, for example. When the button 22 is pressed, an electromagnetic wave modulated according to the operation is output from the pen signal generation unit 21. In addition, when the button 22 is pressed, a configuration in which a signal indicating the pressing is transmitted to the information processing apparatus 1 side by a separately provided wireless communication unit or a wired communication unit and a connection cable may be employed.

なお、アクティブ方式の場合を前提として説明しているが、ペナブル・テクノロジー方式等のパッシブ方式を採用することもできる。パッシブ方式の場合、ペン入力装置2側は電源を必要とせず、タッチセンサ12側のコイルから電磁誘導でペン信号発生部21に電力を供給し、その電力を受けてペン信号発生部21におけるコイルが上記所定の電磁波を出力し、タッチセンサ12がそれを検出することになる。   Although the description is based on the premise of the active method, a passive method such as a penable technology method can also be adopted. In the case of the passive method, the pen input device 2 side does not require a power source, and power is supplied from the coil on the touch sensor 12 side to the pen signal generation unit 21 by electromagnetic induction, and the coil in the pen signal generation unit 21 receives the power. Outputs the predetermined electromagnetic wave, and the touch sensor 12 detects it.

制御部10は、上述のようなタッチセンサ12によりホバー操作が検出された場合、上記入力座標情報が示す検出位置に対応する表示部13の表示領域上の位置に、ホバーマークを表示させる制御を行う。このホバーマークは、ホバー操作の位置を示すポインタである。なお、ホバーマークを表示すると共に、ホバーの座標を中心とし所定距離の半径をもつ円内に含まれるオブジェクトの詳細な情報を表示するなど、他の処理を併せて実行するようにしてもよい。   When the hover operation is detected by the touch sensor 12 as described above, the control unit 10 performs control to display a hover mark at a position on the display area of the display unit 13 corresponding to the detection position indicated by the input coordinate information. Do. This hover mark is a pointer indicating the position of the hover operation. In addition to displaying a hover mark, other processing such as displaying detailed information of an object included in a circle having a radius of a predetermined distance with the hover coordinate at the center may be executed together.

また、制御部10は、タッチ操作が検出された場合、上記入力座標情報が示す検出位置に対応する表示部13の表示領域上の位置にあるアイコン等の画像の選択など、表示部13での表示に応じた処理等を行う。なお、アイコンは、例えばOSの基本画面の画像に配置されており、アイコンを選択する操作がなされることで、そのアイコンに関連付けられたアプリケーションやファイル等を開くことが可能になっている。   In addition, when a touch operation is detected, the control unit 10 selects an image such as an icon at a position on the display area of the display unit 13 corresponding to the detection position indicated by the input coordinate information. Processing according to the display is performed. The icon is arranged, for example, in the image of the basic screen of the OS, and an application or file associated with the icon can be opened by performing an operation of selecting the icon.

そして、本実施形態の主たる特徴として、制御部10は、上記表示領域に表示されたアイコンの上でホバー操作が検出された場合、ホバーマークの表示サイズをそのアイコンの大きさに応じて変更する変更制御を、表示部13に対して行う。つまり、表示部13はホバーマークを、その位置にあるアイコンの大きさに応じて適切にサイズ変更した状態で表示することになる。なお、アイコンの大きさ自体はアイコン毎に既知であり、実際、アイコンの選択を可能にするために、各アイコンの選択領域が座標で定められている。   As a main feature of the present embodiment, when a hover operation is detected on the icon displayed in the display area, the control unit 10 changes the display size of the hover mark according to the size of the icon. Change control is performed on the display unit 13. That is, the display unit 13 displays the hover mark in a state where the size is appropriately changed according to the size of the icon at the position. Note that the size of the icon itself is known for each icon, and the selection area of each icon is actually defined by coordinates in order to enable selection of the icon.

次に、ペン入力装置2を用いた本実施形態の入力方法について、図2〜図3Bを参照しながら実際の使用場面を例に挙げて説明する。図2は、情報処理装置1におけるペン入力方法の一例を説明するためのフロー図で、図3A及び図3Bは、図2のペン入力方法の一例を説明するための概略図である。   Next, the input method of the present embodiment using the pen input device 2 will be described with reference to FIGS. FIG. 2 is a flowchart for explaining an example of the pen input method in the information processing apparatus 1, and FIGS. 3A and 3B are schematic diagrams for explaining an example of the pen input method of FIG.

まず、制御部10は、タッチセンサ12がペン信号を受信したか否かを判定し(ステップS1)、受信するまで(YESとなるまで)待つ。ペン信号を受信した場合、制御部10は、そのペン信号の検出位置を示す入力座標情報を得ることになるが、さらに表示部13に対し、その検出位置に対応する表示位置にホバーマークを表示するよう指示して、表示部13がその表示を実行する(ステップS2)。なお、タッチセンサ12がタッチ操作を検出した場合にはそれを示すタッチ信号を制御部10へ伝送し、制御部10がタッチ信号に対応する処理(ペン信号だけを受信したときとは異なる処理)を行うことになる。   First, the control unit 10 determines whether or not the touch sensor 12 has received a pen signal (step S1), and waits until it is received (until YES). When the pen signal is received, the control unit 10 obtains input coordinate information indicating the detection position of the pen signal, and further displays a hover mark at a display position corresponding to the detection position on the display unit 13. The display unit 13 executes the display (step S2). When the touch sensor 12 detects a touch operation, a touch signal indicating the touch operation is transmitted to the control unit 10, and the control unit 10 performs a process corresponding to the touch signal (a process different from when only the pen signal is received). Will do.

次いで、制御部10は、表示させたホバーマークがアイコンの上にあるか否かを、表示中の各アイコンの選択領域の座標とホバーマークの表示座標(つまり入力座標情報が示す検出位置の座標)と比較することで判定する(ステップS3)。ステップS3でNOの場合にはそのまま処理を終了する。   Next, the control unit 10 determines whether the displayed hover mark is on the icon, the coordinates of the selected area of each icon being displayed and the display coordinates of the hover mark (that is, the coordinates of the detection position indicated by the input coordinate information). ) To determine (step S3). If NO in step S3, the process is terminated as it is.

一方、ステップS3でYESの場合、制御部10は、ホバーマークの表示と重なるアイコンについて、そのサイズをその選択領域の座標から算出することで検知する(ステップS4)。その後、制御部10は、そのアイコンのサイズに合うようにホバーマークの表示サイズを決定し、その表示サイズになるように表示部13に指示し、表示部13がそのような表示変更(つまり表示サイズの補正)を行い(ステップS5)、処理を終了する。   On the other hand, in the case of YES in step S3, the control unit 10 detects the size of the icon that overlaps the display of the hover mark by calculating the size from the coordinates of the selected area (step S4). Thereafter, the control unit 10 determines the display size of the hover mark so as to match the size of the icon, and instructs the display unit 13 to make the display size, and the display unit 13 makes such a display change (that is, display). Size correction) is performed (step S5), and the process is terminated.

一例として、図3Aのように表示部13にファイル管理アプリケーションのウインドウ31があり、その中にフォルダを示すアイコンが複数表示されており、そのうちの1つのアイコンをホバー操作する場合について説明する。   As an example, a case will be described in which a file management application window 31 is displayed on the display unit 13 as shown in FIG. 3A, a plurality of icons indicating folders are displayed therein, and one of the icons is hovered.

まず、ユーザは、ペン入力装置2を表示部13の表示領域の或る位置に近接させると、図3Aで例示するようにその位置でペン信号が検出され、ホバーマーク30aが表示される。なお、ホバー操作の検出に際し、表示画面と操作主体であるペン入力装置2のペン先との距離(表示画面に垂直な方向の距離)も検出するようにしてもよく、その場合、この距離(ホバー距離)が長い程、ホバーマーク30aを大きくするようにしてもよい。   First, when the user brings the pen input device 2 close to a certain position in the display area of the display unit 13, a pen signal is detected at that position and the hover mark 30a is displayed as illustrated in FIG. 3A. When detecting the hover operation, the distance (distance in the direction perpendicular to the display screen) between the display screen and the pen tip of the pen input device 2 that is the operation subject may also be detected. The hover mark 30a may be increased as the hover distance) increases.

図3Aの状態からユーザがペン入力装置2を移動させて「ビデオ」アイコンの表示領域(アイコン選択領域)32にホバーマーク30aを移動させた場合、それが図3Bに示すようにアイコン選択領域32に合った表示サイズのホバーマーク30bに変更される。なお、OSやアプリケーションによってアイコン選択領域32の範囲は異なり、必ずしもアイコンが表示されている部分だけが選択領域とは限らず、例えば図3Aでいうところの「ビデオ」アイコンだけでなく、その隣の「システムフォルダ」といった文字列やそれらの間の空間もアイコン選択領域として認識される場合もある。   When the user moves the pen input device 2 from the state of FIG. 3A and moves the hover mark 30a to the “video” icon display area (icon selection area) 32, the icon selection area 32 as shown in FIG. 3B. Is changed to a hover mark 30b having a display size suitable for. Note that the range of the icon selection area 32 varies depending on the OS and application, and the portion where the icon is displayed is not necessarily the selection area. For example, not only the “video” icon in FIG. A character string such as “system folder” and a space between them may be recognized as an icon selection region.

ここでは、制御部10が、上記変更制御として、ホバーマーク30bの表示サイズをアイコン(アイコン選択領域32)の縦方向及び横方向の長さに合わせるように変更した例を挙げた。但し、ホバーマーク30bは、アイコン選択領域32と縦横の長さが完全に同じになるようにしなくてもよく、例えば、アイコン選択領域32の縦横90%の表示サイズであってもよい。さらに、ホバーマーク30bをアイコン選択領域32の縦方向の長さだけに合わせ、例えば縦100%且つ横70%の表示サイズや縦90%且つ横は元のままの表示サイズにしてもよい。同様に、横方向の長さだけに合わせ、例えば縦70%且つ横100%の表示サイズや横90%且つ縦は元のままの表示サイズにしてもよい。   Here, an example was given in which the control unit 10 changed the display size of the hover mark 30b to match the vertical and horizontal lengths of the icon (icon selection area 32) as the change control. However, the hover mark 30b does not have to be completely the same in length and width as the icon selection area 32. For example, the display size may be 90% of the icon selection area 32. Furthermore, the hover mark 30b may be matched only with the length in the vertical direction of the icon selection area 32, for example, the display size may be 100% vertical and 70% horizontal, or 90% vertical and the original display size. Similarly, according to only the length in the horizontal direction, for example, the display size may be 70% vertical and 100% horizontal, or 90% horizontal and the original display size in the vertical direction.

無論、制御部10は、ステップS2の処理を経ずに、ステップS5でアイコンのサイズに合うようにホバーマークの表示サイズを決定し、その表示サイズでホバーマークを表示させるように表示部13に指示してもよい。例えば、ユーザがいきなりアイコン選択領域32上でホバー操作を行った場合にはホバーマーク30aを表示させることなくアイコン選択領域32のサイズに合ったホバーマーク30bを表示させればよい。   Of course, the control unit 10 determines the display size of the hover mark to match the size of the icon in step S5 without going through the process of step S2, and causes the display unit 13 to display the hover mark at the display size. You may instruct. For example, when the user suddenly performs a hover operation on the icon selection area 32, the hover mark 30b corresponding to the size of the icon selection area 32 may be displayed without displaying the hover mark 30a.

また、ホバーマークを、背景となるアイコンの画像とのαブレンディングなどにより半透明にすることは、ホバーマークの表示サイズを変更することから特に好ましいと言える。また、ホバーマークの表示サイズが所定のサイズ未満である場合にはそのまま表示させ、所定サイズ以上になった場合に半透明にするようにしてもよい。また、ホバーマークの表示サイズだけでなく、デザインもアイコンの大きさ(例えば縦横比)に応じて変更するようにしてもよい。これにより、表示部13において、縦長のアイコンに合ったデザインや横長のアイコンに合ったデザインのホバーマークを表示させることができる。   Moreover, it can be said that it is particularly preferable to make the hover mark semi-transparent by α blending with an icon image as a background because the display size of the hover mark is changed. In addition, when the display size of the hover mark is less than the predetermined size, the hover mark may be displayed as it is, and when the hover mark exceeds the predetermined size, it may be made translucent. Further, not only the display size of the hover mark but also the design may be changed according to the size of the icon (for example, the aspect ratio). Thereby, the display unit 13 can display a hover mark having a design that matches a vertically long icon or a design that matches a horizontally long icon.

以上、本実施形態によれば、このようにしてホバーマークの表示サイズを変更することにより、タッチセンサ12がもつ検出精度を生かしホバーマークを小さく表示させた上で、ユーザにとってホバー状態からアイコンが選択し易くなる。なお、このような表示変更を行った状態から、ユーザがタッチ操作によりアイコンを選択した場合には、そのアイコン選択領域の色を反転させるなどすればよい。   As described above, according to the present embodiment, by changing the display size of the hover mark in this way, the icon is displayed from the hover state to the user after the hover mark is displayed small by taking advantage of the detection accuracy of the touch sensor 12. It becomes easy to select. In addition, when the user selects an icon by a touch operation from such a display change state, the color of the icon selection area may be reversed.

なお、ペン入力装置2を用いた場合についてのみ具体例を挙げたが、ユーザの指やスタイラスペンによる入力時にも同様にホバー操作時における上記変更制御を適用することができる。但し、ペン入力モードと通常タッチ入力モードの双方でホバー操作を受け付ける場合には、ペン入力モードである場合に限り、上述のような変更制御を実行するようにしてもよい。指で選択できるようなアイコンを選択しようとしていることが想定されるためである。その際、指によるホバー操作の検出領域は広くなることが想定されるため、指によるホバー操作が検出された場合にはその検出領域に合致したホバーマークを表示するようにしておいてもよい。   Although a specific example is given only for the case where the pen input device 2 is used, the above-described change control at the time of hover operation can be applied in the same manner when inputting with the user's finger or stylus pen. However, when the hover operation is accepted in both the pen input mode and the normal touch input mode, the change control as described above may be executed only in the pen input mode. This is because it is assumed that an icon that can be selected with a finger is being selected. At this time, since the detection area of the hover operation with the finger is assumed to be wide, when the hover operation with the finger is detected, a hover mark that matches the detection area may be displayed.

(第2の実施形態)
本発明の第2の実施形態について、図4及び図5を併せて参照しながら説明する。図4は、情報処理装置1におけるペン入力方法の他の例を説明するためのフロー図で、図5は、図4のペン入力方法の一例を説明するための概略図である。本実施形態について、第1の実施形態との相違点を中心に説明するが、第1の実施形態で説明した様々な応用例も同様に適用できる。
(Second Embodiment)
A second embodiment of the present invention will be described with reference to FIGS. 4 and 5 together. 4 is a flowchart for explaining another example of the pen input method in the information processing apparatus 1, and FIG. 5 is a schematic diagram for explaining an example of the pen input method of FIG. Although the present embodiment will be described with a focus on differences from the first embodiment, various application examples described in the first embodiment can be similarly applied.

本実施形態における情報処理装置1は、タッチセンサ12がペン入力装置によってなされたタッチ操作及びホバー操作を検出する機能をもつ。つまり、本実施形態では、図1で例示したペン入力装置2のようなペン入力装置が必要となる。但し、このペン入力装置は、上記変更制御を解除するための操作(変更解除操作)を受け付けるボタン(以下、第1ボタンと呼ぶ)を有するものとする。この第1ボタンとしては、ボタン22が適用できるが、ボタン22の押下が他の動作に割り当てられている場合には、変更解除操作についてはボタン22の長押しや2回連続押下などで受け付ければよい。   The information processing apparatus 1 according to the present embodiment has a function in which the touch sensor 12 detects a touch operation and a hover operation performed by a pen input device. That is, in this embodiment, a pen input device such as the pen input device 2 illustrated in FIG. 1 is required. However, it is assumed that the pen input device has a button (hereinafter referred to as a first button) that receives an operation (change release operation) for canceling the change control. As the first button, the button 22 can be applied. However, when the pressing of the button 22 is assigned to another operation, the change canceling operation can be accepted by long-pressing the button 22 or continuously pressing the button 22 twice. That's fine.

本実施形態の入力方法について図4に沿って説明する。この入力方法においても、図2のステップS1,S2,S3,S4,S5の処理と同様の処理を行う(ステップS11,S12,S13,S15,S16)が、ステップS13の後に、制御部10は第1ボタン(変更解除ボタン)が押下されていないか否かを判定する(ステップS14)。   The input method of this embodiment is demonstrated along FIG. Also in this input method, the same processing as the processing in steps S1, S2, S3, S4, and S5 in FIG. 2 is performed (steps S11, S12, S13, S15, and S16). It is determined whether or not the first button (change release button) has not been pressed (step S14).

ステップS14でNOの場合には、そのまま処理を終了し、結果として図5に示すように、図3Aのホバーマーク30aと同じ表示サイズのままのホバーマーク50が表示された状態となる。一方、ステップS14でYESの場合には、ステップS15,S16の処理に進んでホバーマークの補正が施され、結果として図3Aのホバーマーク30aが図3Bのホバーマーク30bに変更されることになる。   In the case of NO in step S14, the processing is ended as it is, and as a result, as shown in FIG. 5, the hover mark 50 having the same display size as the hover mark 30a in FIG. 3A is displayed. On the other hand, if YES in step S14, the process proceeds to steps S15 and S16 to correct the hover mark, and as a result, the hover mark 30a in FIG. 3A is changed to the hover mark 30b in FIG. 3B. .

また、ステップS16の後にステップS14の判定処理を適用することもできる。その際、第1ボタンが押下されないままでは図3Bのホバーマーク30bが表示された状態が続き、第1ボタンが押下された段階で図3Bのホバーマーク30bが表示された状態から図5のホバーマーク50が表示された状態に変わることになる。   Moreover, the determination process of step S14 can also be applied after step S16. At that time, the state where the hover mark 30b of FIG. 3B is displayed continues without the first button being pressed, and the state where the hover mark 30b of FIG. 3B is displayed when the first button is pressed is shown in FIG. The mark 50 is changed to the displayed state.

以上のように、本実施形態に係る情報処理装置1では、第1の実施形態の効果に加え、上記変更制御を解除することもできるため、ユーザの好みに合った表示を行うことができる。   As described above, in the information processing apparatus 1 according to the present embodiment, in addition to the effects of the first embodiment, the change control can be canceled, so that it is possible to display according to the user's preference.

(第3の実施形態)
本発明の第3の実施形態について、図6〜図8Cを併せて参照しながら説明する。本実施形態について、第1,第2の実施形態との相違点を中心に説明するが、第1,第2の実施形態で説明した様々な応用例も同様に適用できる。
(Third embodiment)
A third embodiment of the present invention will be described with reference to FIGS. Although the present embodiment will be described with a focus on differences from the first and second embodiments, various application examples described in the first and second embodiments can be similarly applied.

本実施形態における情報処理装置1では、制御部10が次のような移動制御を表示部13に対して行う。この移動制御とは、ホバー操作の検出位置がアイコンの上以外でその検出位置とそのアイコンとが所定の近接条件を満たす場合、ホバーマークをそのアイコンの上に移動させる制御を指す。   In the information processing apparatus 1 according to the present embodiment, the control unit 10 performs the following movement control on the display unit 13. The movement control refers to control for moving the hover mark onto the icon when the detection position of the hover operation is not on the icon and the detection position and the icon satisfy a predetermined proximity condition.

また、本実施形態における情報処理装置1は、タッチセンサ12がペン入力装置によってなされたタッチ操作及びホバー操作を検出する機能をもつことが好ましい。但し、このペン入力装置には、上記移動制御を解除するための操作(移動解除操作)を受け付けるボタン(以下、第2ボタンと呼ぶ)を有するものとする。この場合、図1で例示したペン入力装置2のようなペン入力装置が必要となる。これにより、上記移動制御を解除することもできるため、ユーザの好みに合った表示を行うことができる。   Moreover, it is preferable that the information processing apparatus 1 in this embodiment has a function in which the touch sensor 12 detects a touch operation and a hover operation performed by a pen input device. However, it is assumed that the pen input device has a button (hereinafter referred to as a second button) that receives an operation (movement cancellation operation) for canceling the movement control. In this case, a pen input device such as the pen input device 2 illustrated in FIG. 1 is required. Thereby, since the movement control can also be canceled, a display suitable for the user's preference can be performed.

この第2ボタンとしては、ボタン22が適用できるが、ボタン22の押下が他の動作に割り当てられている場合には、移動解除操作についてはボタン22の長押しや2回連続押下などで受け付ければよい。なお、第2ボタンは第1ボタンと兼ねてもよく、その操作も同じであってもよい。無論、第2ボタンは第1ボタンと別に設けてもよいし、兼ねる場合でも操作方法(例えば前者が連続する2回の押下で、後者が長押しなど)を異ならせてもよい。さらには1回目の長押しで変更解除操作を受け付け、2回目の長押しで移動解除操作を受け付けるようにしてもよく、また1回目と2回目とで受け付ける順序を入れ換えてもよい。   As the second button, the button 22 can be applied, but when the pressing of the button 22 is assigned to another operation, the movement canceling operation can be accepted by long-pressing the button 22 or continuously pressing the button 22 twice. That's fine. The second button may also serve as the first button, and the operation thereof may be the same. Of course, the second button may be provided separately from the first button, or the operation method (for example, the former is continuously pressed twice and the latter is long-pressed) may be different. Furthermore, the change canceling operation may be accepted by the first long press, and the movement canceling operation may be accepted by the second long press, or the order of accepting the first time and the second time may be switched.

次に、ペン入力装置2を用いた本実施形態の入力方法について、図6〜図8Aを参照しながら実際の使用場面を例に挙げて説明する。図6は、図1の情報処理装置1におけるペン入力方法の他の例を説明するためのフロー図である。図7A及び図7Bは、図6のペン入力方法の一例を説明するための概略図で、図7Cは、図6のペン入力方法の他の例を説明するための概略図である。図8Aは、図6のペン入力方法における認知エリアとアイコンとの位置関係の一例を説明するための概略図である。   Next, the input method of the present embodiment using the pen input device 2 will be described with reference to FIGS. FIG. 6 is a flowchart for explaining another example of the pen input method in the information processing apparatus 1 of FIG. 7A and 7B are schematic diagrams for explaining an example of the pen input method of FIG. 6, and FIG. 7C is a schematic diagram for explaining another example of the pen input method of FIG. FIG. 8A is a schematic diagram for explaining an example of a positional relationship between a recognition area and an icon in the pen input method of FIG.

まず、制御部10は、図2のステップS1,S2と同様にペン信号の受信を待ち(ステップS21)、図7Aで例示するようにホバーマーク70aを表示させる(ステップS22)。   First, similarly to steps S1 and S2 of FIG. 2, the control unit 10 waits for reception of a pen signal (step S21), and displays the hover mark 70a as illustrated in FIG. 7A (step S22).

次に、制御部10は、ホバーマーク70aの認知エリア(所定範囲の領域)71内にアイコンが存在するか否かを、アイコン選択領域の座標に基づき判定し(ステップS23)、NOであれば処理を終了する。ステップS23では、上記所定の近接条件として、検出位置を含む所定範囲の領域71にアイコンの少なくとも一部が表示されている(含まれる)ことを挙げ、この条件を満たすか否かを判定している。   Next, the control unit 10 determines whether or not an icon exists in the recognition area (area of a predetermined range) 71 of the hover mark 70a based on the coordinates of the icon selection area (step S23). End the process. In step S23, as the predetermined proximity condition, at least a part of the icon is displayed (included) in the area 71 of the predetermined range including the detection position, and it is determined whether or not this condition is satisfied. Yes.

所定範囲の領域71は、ホバーマーク70aを中心とする所定長の縦辺、同じ又は異なる所定長の横辺でなる長方形である。但し、所定範囲の領域はこれに限らず、円形であってもよい。例えば図8Aに示すように、ホバー位置(ホバーマークを表示させる位置)81aを中心に半径rの円82内を上記所定範囲の領域と定めるなど、中心からの距離で定めてもよい。図8Aの例では、円82内にアイコン選択領域80と重なる領域83aが存在するため、上記所定の近接条件を満たすと判定される。   The region 71 in the predetermined range is a rectangle having a vertical side with a predetermined length centered on the hover mark 70a and a horizontal side with the same or different predetermined length. However, the region of the predetermined range is not limited to this, and may be circular. For example, as shown in FIG. 8A, it may be determined by a distance from the center, for example, a circle 82 having a radius r centering on a hover position (position for displaying a hover mark) 81a is defined as an area of the predetermined range. In the example of FIG. 8A, since there is an area 83a that overlaps the icon selection area 80 in the circle 82, it is determined that the predetermined proximity condition is satisfied.

ステップS23でYESの場合、制御部10は、認知エリア71に複数のアイコン(アイコン選択領域)が存在するか否かを判定する(ステップS24)。存在しない場合(ステップS24でNOの場合)には、第2ボタン(移動解除ボタン)が押下されていないか否かを判定する(ステップS26)。   In the case of YES in step S23, the control unit 10 determines whether or not there are a plurality of icons (icon selection regions) in the recognition area 71 (step S24). If it does not exist (NO in step S24), it is determined whether or not the second button (movement release button) has not been pressed (step S26).

ステップS26でNOの場合には、そのまま処理を終了し、結果として図7Aのホバーマーク70aが表示されたままとなる。一方、ステップS26でYESの場合には、ホバーマークを対象となったアイコンの位置に補正し(ステップS27)、処理を終了する。ステップS27のようなホバーマーク70aの自動誘導により、結果として図7Bに示すように、ペン入力装置2の位置は変わらないのにも拘わらずそのアイコンの位置(好ましくはアイコン選択領域72の中心位置)にホバーマーク70bが表示される。図8Aの例で説明すると、アイコン選択領域80の位置にホバーマーク84aが表示された状態となる。   In the case of NO in step S26, the processing is ended as it is, and as a result, the hover mark 70a in FIG. 7A remains displayed. On the other hand, if YES in step S26, the hover mark is corrected to the position of the target icon (step S27), and the process ends. As a result of the automatic guidance of the hover mark 70a as in step S27, as shown in FIG. 7B, the position of the icon (preferably the center position of the icon selection area 72) is maintained even though the position of the pen input device 2 does not change. ) Displays a hover mark 70b. 8A, the hover mark 84a is displayed at the position of the icon selection area 80.

このように、制御部10は、ホバー操作が検出された位置(検出位置)を含む(好ましくはこの位置を中心とする)認知エリアにアイコンの少なくとも一部が含まれた場合、ホバーマークをそのアイコンの上に移動させる移動制御を行う。なお、上記検出位置にアイコンが存在した場合には、そのアイコンの中心(例えば重心、或いは縦方向の中心縦座標且つ横方向の中心横座標など)に移動させればよい。無論、アイコンの中心にホバー検出位置が存在した場合には、移動は不要となる。   As described above, when at least a part of the icon is included in the recognition area including the position (detection position) where the hover operation is detected (preferably centered on this position), the control unit 10 displays the hover mark as the hover mark. Move control to move over the icon. If an icon is present at the detection position, it may be moved to the center of the icon (for example, the center of gravity or the center ordinate in the vertical direction and the center abscissa in the horizontal direction). Of course, when the hover detection position exists at the center of the icon, the movement is not necessary.

一方、ステップS24でYESの場合、制御部10は、複数のアイコンのうち最も大きなサイズのアイコンをアイコン選択領域の座標から算出(検出)し、それを対象のアイコンとする(ステップS25)。ステップS25の代わりに、最も認知エリアと重なる面積が大きなアイコンを対象のアイコンとして検出してもよいし、アイコン上への自動誘導を行わないように(つまり対象のアイコン無しにするように)してもよい。ステップS25の処理後は、ステップS26へ進み、ステップS26でYESの場合に制御部10はホバーマークをステップS25で対象となったアイコンの位置に補正し(ステップS27)、処理を終了する。   On the other hand, in the case of YES in step S24, the control unit 10 calculates (detects) the icon of the largest size among the plurality of icons from the coordinates of the icon selection area, and sets it as the target icon (step S25). Instead of step S25, an icon having the largest overlapping area with the recognition area may be detected as a target icon, or automatic guidance on the icon is not performed (that is, no target icon is provided). May be. After the process of step S25, the process proceeds to step S26, and in the case of YES in step S26, the control unit 10 corrects the hover mark to the position of the target icon in step S25 (step S27) and ends the process.

また、ステップS27の後にステップS26の判定処理を適用することもできる。その際、第2ボタンが押下されないままでは図7Bのホバーマーク70bが表示された状態が続き、第2ボタンが押下された段階で図7Aのホバーマーク70aが表示された状態に戻ることになる。なお、本実施形態では第2ボタンは必須ではなく、第2ボタンを具備しない場合には図6においてステップS26の処理を除けばよい。   Moreover, the determination process of step S26 can also be applied after step S27. At this time, if the second button is not pressed, the state where the hover mark 70b of FIG. 7B is displayed continues, and when the second button is pressed, the state returns to the state where the hover mark 70a of FIG. 7A is displayed. . In the present embodiment, the second button is not essential, and when the second button is not provided, the process of step S26 in FIG. 6 may be omitted.

無論、制御部10は、ステップS22の処理を経ずに、ステップS27でアイコンの位置にホバーマークを表示させるように表示部13に指示してもよい。例えば、ユーザがいきなりアイコン選択領域72上でホバー操作を行った場合にはホバーマーク70aを表示させることなくアイコン選択領域72の位置にホバーマーク70bを表示させればよい。   Of course, the control unit 10 may instruct the display unit 13 to display the hover mark at the position of the icon in step S27 without passing through the process of step S22. For example, when the user suddenly performs a hover operation on the icon selection area 72, the hover mark 70b may be displayed at the position of the icon selection area 72 without displaying the hover mark 70a.

次に、図8B,図8Cを参照しながら認知エリアとアイコンとの位置関係の他の例について説明する。図8B、図8Cはいずれも、図6のペン入力方法における認知エリアとアイコンとの位置関係の他の例を説明するための概略図である。   Next, another example of the positional relationship between the recognition area and the icon will be described with reference to FIGS. 8B and 8C. 8B and 8C are schematic diagrams for explaining another example of the positional relationship between the recognition area and the icon in the pen input method of FIG.

上記所定の近接条件は、図8Bに示すようにアイコン(アイコン選択領域80)を含む所定範囲の領域85に上記検出位置81が存在することを含むようにしてもよい。所定範囲の領域85は、アイコンを含むアイコン近接領域を指す。アイコン近接領域85は、アイコン選択領域80の高さ(縦の長さ)Hに対して所定割合の長さhだけ上下に広げ、アイコン選択領域80の幅(横の長さ)Wに対して同じ又は異なる所定割合の長さwだけ左右に広げた領域としている。但し、アイコン近接領域の定義はこれに限ったものではない。   The predetermined proximity condition may include the presence of the detection position 81 in a predetermined area 85 including an icon (icon selection area 80) as shown in FIG. 8B. The area 85 of the predetermined range indicates an icon proximity area including an icon. The icon proximity area 85 is vertically expanded by a predetermined length h with respect to the height (vertical length) H of the icon selection area 80, and with respect to the width (horizontal length) W of the icon selection area 80. The area is widened to the left and right by the same or different predetermined length w. However, the definition of the icon proximity region is not limited to this.

このように、制御部10は、アイコン近接領域85の上でホバー操作が検出された場合にも、ホバーマークをそのアイコンの上(アイコン選択領域80の位置)に移動させ、ホバーマーク84bを表示させた状態にしてもよい。   Thus, even when a hover operation is detected on the icon proximity area 85, the control unit 10 moves the hover mark above the icon (position of the icon selection area 80) and displays the hover mark 84b. You may be in the state made to do.

また、上記所定の近接条件として、上記検出位置を含む所定範囲の領域にアイコンの少なくとも一部が表示されていることを含む場合も併せて採用する場合について説明する。この場合、図8Cで例示するように、円82内にアイコン近接領域85と重なる領域83cが存在すれば、上記所定の近接条件を満たすと判定され、アイコン選択領域80の位置にホバーマーク84cを表示させればよい。   A case will be described in which the case where the predetermined proximity condition includes a case where at least a part of an icon is displayed in a predetermined range including the detection position is also used. In this case, as illustrated in FIG. 8C, if an area 83 c that overlaps the icon proximity area 85 exists in the circle 82, it is determined that the predetermined proximity condition is satisfied, and the hover mark 84 c is placed at the position of the icon selection area 80. Display it.

以上のように、本実施形態に係る情報処理装置1では、このようにしてホバーマークの表示位置をアイコンの上に移動させることにより、タッチセンサ12がもつ検出精度を生かしホバーマークを小さく表示させた上で、ユーザにとってホバー状態からアイコンが選択し易くなる。   As described above, in the information processing apparatus 1 according to the present embodiment, by moving the display position of the hover mark onto the icon in this way, the detection accuracy of the touch sensor 12 is utilized to display the hover mark small. In addition, the user can easily select an icon from the hover state.

また、ペン入力装置を用いずユーザの指やスタイラスペンによる入力時にも、同様にホバー操作時における上記移動制御を適用することができる。但し、ペン入力モードと通常タッチ入力モードの双方でホバー操作を受け付ける場合には、ペン入力モードである場合に限り、上述のような移動制御を実行するようにしてもよい。指で選択できるようなアイコンを選択しようとしていることが想定されるためである。その際、指によるホバー操作の検出領域は広くなることが想定されるため、指によるホバー操作が検出された場合にはその検出領域に合致したホバーマークを表示するようにしておいてもよい。   Further, the above movement control at the time of hover operation can be similarly applied when inputting with a user's finger or stylus pen without using a pen input device. However, when the hover operation is accepted in both the pen input mode and the normal touch input mode, the movement control as described above may be executed only in the pen input mode. This is because it is assumed that an icon that can be selected with a finger is being selected. At this time, since the detection area of the hover operation with the finger is assumed to be wide, when the hover operation with the finger is detected, a hover mark that matches the detection area may be displayed.

また、図6の処理例では、第1又は第2の実施形態との組み合わせについて述べなかったように、上記移動制御は上記変更制御を適用しない情報処理装置にも適用することができる。   In the processing example of FIG. 6, the movement control can also be applied to an information processing apparatus to which the change control is not applied, as was not described for the combination with the first or second embodiment.

本実施形態を第1又は第2の実施形態と組み合わせる場合について簡単に説明する。
組み合わせの一例としては、図6のステップS27の処理後(アイコン選択領域72にホバーマーク70bが移動後)、図2のステップS4,S5の処理又は図4のステップS14〜16の処理を実行し、図7Cに示すようなアイコンサイズに合ったホバーマーク70cを表示させればよい。これにより、第1,第2のいずれかの実施形態の効果に加え、ユーザにとってホバー状態からアイコンがさらに選択し易くなる。
The case where this embodiment is combined with the first or second embodiment will be briefly described.
As an example of the combination, after the processing in step S27 in FIG. 6 (after the hover mark 70b has moved to the icon selection area 72), the processing in steps S4 and S5 in FIG. 2 or the processing in steps S14 to 16 in FIG. The hover mark 70c suitable for the icon size as shown in FIG. 7C may be displayed. Thereby, in addition to the effects of the first and second embodiments, the user can more easily select an icon from the hover state.

別の組み合わせ例としては、図6のステップS23の判定に先立ち、図2のステップS3又は図4のステップS13の判定を行い、ステップS3又はステップS13でYESの場合にステップS4,S5の処理又はステップS14〜S16の処理を実行し、その後、ステップS23の処理に進むようにしておけばよい。   As another combination example, prior to the determination in step S23 in FIG. 6, the determination in step S3 in FIG. 2 or step S13 in FIG. 4 is performed, and if YES in step S3 or step S13, the processing in steps S4 and S5 or Steps S14 to S16 may be executed, and then the process may proceed to step S23.

(その他)
以上、本発明に係る情報処理装置について説明したが、処理の流れを説明したように、本発明は、画像を表示する表示部と、上記表示部の表示領域上でのタッチ操作及びホバー操作を検出するタッチセンサと、を備えた情報処理装置における入力方法や、その入力方法をコンピュータ(情報処理装置)に実行させるためのプログラムとしての形態も採り得る。
(Other)
The information processing apparatus according to the present invention has been described above. However, as described in the flow of processing, the present invention includes a display unit that displays an image, and a touch operation and a hover operation on the display area of the display unit. An input method in an information processing apparatus including a touch sensor to be detected and a form as a program for causing a computer (information processing apparatus) to execute the input method may be employed.

この入力方法の一つ(第1入力方法と呼ぶ)は、第1の実施形態で説明したように、上記タッチセンサが上記ホバー操作を検出する検出ステップと、上記情報処理装置の制御部が、上記検出ステップで検出された位置に対応する上記表示領域上の位置にホバーマークを表示させる制御を行う表示制御ステップと、を有する。そして、上記表示制御ステップは、上記検出ステップにおいて上記表示領域に表示されたアイコンの上で上記ホバー操作が検出された場合、上記ホバーマークの表示サイズを上記アイコンの大きさに応じて変更するステップを有する。その他の応用例については、情報処理装置について第1〜第3の実施形態で説明した通りであり、その説明を省略する。   As described in the first embodiment, one of the input methods (referred to as a first input method) includes a detection step in which the touch sensor detects the hover operation, and a control unit of the information processing apparatus. A display control step for performing control to display a hover mark at a position on the display area corresponding to the position detected in the detection step. The display control step is a step of changing the display size of the hover mark according to the size of the icon when the hover operation is detected on the icon displayed in the display area in the detection step. Have Other application examples are the same as those described in the first to third embodiments for the information processing apparatus, and a description thereof will be omitted.

上記プログラム(第1プログラムと呼ぶ)は、換言すると、この第1入力方法を、上記表示部及び上記タッチセンサを備えたコンピュータに実行させるためのプログラムである。すなわち、この第2プログラムは、上記コンピュータに、上記タッチセンサにより上記ホバー操作を検出する検出ステップと、上記検出ステップで検出された位置に対応する上記表示領域上の位置にホバーマークを表示させる制御を行う表示制御ステップと、を実行させるためのプログラムである。そして、上記表示制御ステップは、上記検出ステップにおいて上記表示領域に表示されたアイコンの上で上記ホバー操作が検出された場合、上記ホバーマークの表示サイズを上記アイコンの大きさに応じて変更するステップを有する。その他の応用例については、情報処理装置について第1〜第3の実施形態で説明した通りであり、その説明を省略する。   In other words, the program (referred to as a first program) is a program for causing a computer including the display unit and the touch sensor to execute the first input method. That is, the second program causes the computer to display a hover mark at a position on the display area corresponding to the position detected at the detection step and the position detected at the detection step. And a display control step for executing the program. The display control step is a step of changing the display size of the hover mark according to the size of the icon when the hover operation is detected on the icon displayed in the display area in the detection step. Have Other application examples are the same as those described in the first to third embodiments for the information processing apparatus, and a description thereof will be omitted.

情報処理装置における他の入力方法(第2入力方法と呼ぶ)は、第3の実施形態で説明したように、上記タッチセンサが上記ホバー操作を検出する検出ステップと、上記情報処理装置の制御部が、上記検出ステップで検出された位置に対応する上記表示領域上の位置にホバーマークを表示させる制御を行う表示制御ステップと、を有する。そして、上記表示制御ステップは、上記検出ステップで検出された上記ホバー操作の検出位置が上記アイコンの上以外で上記検出位置と上記アイコンとが所定の近接条件を満たす場合、上記ホバーマークを上記アイコンの上に移動させるステップを有する。その他の応用例については、情報処理装置について説明した通りであり、その説明を省略する。   As described in the third embodiment, another input method in the information processing apparatus (referred to as a second input method) includes a detection step in which the touch sensor detects the hover operation, and a control unit of the information processing apparatus. Includes a display control step for performing control to display a hover mark at a position on the display area corresponding to the position detected in the detection step. In the display control step, when the detection position of the hover operation detected in the detection step is not on the icon and the detection position and the icon satisfy a predetermined proximity condition, the hover mark is displayed on the icon. Moving it over. Other application examples are the same as those described for the information processing apparatus, and a description thereof will be omitted.

上記プログラム(以下、第2プログラムと呼ぶ)は、換言すると、この第2入力方法を、上記表示部及び上記タッチセンサを備えたコンピュータに実行させるためのプログラムである。すなわち、この第2プログラムは、上記コンピュータに、上記タッチセンサにより上記ホバー操作を検出する検出ステップと、上記検出ステップで検出された位置に対応する上記表示領域上の位置にホバーマークを表示させる制御を行う表示制御ステップと、を実行させるためのプログラムである。そして、上記表示制御ステップは、上記検出ステップで検出された上記ホバー操作の検出位置が上記アイコンの上以外で上記検出位置と上記アイコンとが所定の近接条件を満たす場合、上記ホバーマークを上記アイコンの上に移動させるステップを有する。その他の応用例については、情報処理装置について第3の実施形態で説明した通りであり、その説明を省略する。   In other words, the program (hereinafter referred to as the second program) is a program for causing the computer including the display unit and the touch sensor to execute the second input method. That is, the second program causes the computer to display a hover mark at a position on the display area corresponding to the position detected at the detection step and the position detected at the detection step. And a display control step for executing the program. In the display control step, when the detection position of the hover operation detected in the detection step is not on the icon and the detection position and the icon satisfy a predetermined proximity condition, the hover mark is displayed on the icon. Moving it over. Other application examples are the same as those described in the third embodiment for the information processing apparatus, and a description thereof will be omitted.

また、上記第1プログラム及び/又は上記第2プログラムをコンピュータにより読み取り可能な非一時的な記録媒体に記録したプログラム記録媒体としての形態についても容易に理解することができる。このコンピュータとしては、汎用のPCに限らず、マイクロコンピュータやプログラム可能な汎用の集積回路/チップセットなど、様々な形態のコンピュータが適用できる。また、このプログラムは、可搬の記録媒体を介して流通させるに限らず、インターネット等のネットワークを介して、また放送波を介して流通させることもできる。ネットワークを介して受信するとは、外部サーバの記憶装置などに記録されたプログラムを受信することを指す。   Further, it is possible to easily understand the form as a program recording medium in which the first program and / or the second program is recorded on a non-transitory recording medium readable by a computer. The computer is not limited to a general-purpose PC, and various types of computers such as a microcomputer and a programmable general-purpose integrated circuit / chip set can be applied. In addition, this program is not limited to be distributed via a portable recording medium, but can also be distributed via a network such as the Internet or via a broadcast wave. Receiving via a network refers to receiving a program recorded in a storage device of an external server.

1…情報処理装置、2…ペン入力装置、10…情報処理装置の制御部、11…記憶部、12…タッチセンサ、13…表示部、14…通信部、20…ペン入力装置の制御部、21…ペン信号発生部、22…ボタン、30a,30b,50,70a,70b,70c,84a,84b,84c…ホバーマーク、31…ウインドウ、32…アイコン選択領域、71…認知エリア、72,80…アイコン選択領域、81…検出位置、82…円、83a,83c…重なる領域、85…アイコン近接領域。
DESCRIPTION OF SYMBOLS 1 ... Information processing apparatus, 2 ... Pen input device, 10 ... Control part of information processing apparatus, 11 ... Memory | storage part, 12 ... Touch sensor, 13 ... Display part, 14 ... Communication part, 20 ... Control part of pen input device, 21 ... Pen signal generator, 22 ... button, 30a, 30b, 50, 70a, 70b, 70c, 84a, 84b, 84c ... hover mark, 31 ... window, 32 ... icon selection area, 71 ... recognition area, 72,80 ... Icon selection area, 81 ... Detection position, 82 ... Circle, 83a, 83c ... Overlapping area, 85 ... Icon proximity area.

本発明は、情報処理装置入力方法及びプログラムに関し、より詳細には、表示部に該表示部の上でのタッチ操作及びホバー操作を検出するタッチセンサを有する情報処理装置その情報処理装置における入力方法、及びその入力方法を実行させるためのプログラムに関する。 The present invention relates to an information processing apparatus , an input method, and a program . More specifically, the information processing apparatus includes a touch sensor that detects a touch operation and a hover operation on the display unit , and the information processing apparatus. The present invention relates to an input method and a program for executing the input method .

従来から、表示部にタッチセンサが搭載されている情報処理装置が流通している。このような情報処理装置には、ユーザの指やスタイラスペンなどによるタッチ操作の他に、電子ペンやデジタイザペンなどと呼ばれるペン入力装置によるタッチ操作も受け付け可能になっているものもある。タッチセンサとしては様々な方式が提案されており、それぞれの方式に応じたペン入力装置も提案されている。例えば、静電容量方式のタッチセンサでは、ペン入力装置から出力される信号を電磁誘導方式で検知するようになっている。   Conventionally, information processing apparatuses in which a touch sensor is mounted on a display unit have been distributed. Some of such information processing apparatuses can accept a touch operation by a pen input device called an electronic pen or a digitizer pen in addition to a touch operation by a user's finger or a stylus pen. Various methods have been proposed as touch sensors, and pen input devices corresponding to the respective methods have also been proposed. For example, in a capacitive touch sensor, a signal output from a pen input device is detected by an electromagnetic induction method.

デジタイザペンとは、オペレーションシステム(OS)に対してタッチ信号とは別にペン入力信号を与えることができるペン入力装置である。デジタイザペンには、デジタイザペン側からある周波数の信号を与えるアクティブ方式と、デジタイザペンが表示部(画面)に近づいた場合に表示部側で磁場を発生させる方式(アクティブ方式とも呼ばれる電磁誘導方式、若しくはパッシブ方式)との、大きく2つの種類がある。いずれの方式においても、タッチセンサがデジタイザペンを感知すると、タッチ入力を排除し、これにより、例えばお手付きした状態での手書き入力も可能となる。   The digitizer pen is a pen input device that can provide a pen input signal to the operation system (OS) separately from the touch signal. The digitizer pen has an active method that gives a signal of a certain frequency from the digitizer pen side, and a method that generates a magnetic field on the display unit side when the digitizer pen approaches the display unit (screen) (an electromagnetic induction method called an active method, Or passive type). In any method, when the touch sensor detects the digitizer pen, the touch input is excluded, and for example, handwriting input in a touched state is possible.

このような情報処理装置におけるタッチセンサでは、ペン入力装置による操作としてタッチ操作(タッチイベント)だけでなく、ホバー操作(ホバリングイベント)も検出可能になっているものが多い。ここで、ホバー操作とは、表示画面にペン入力装置が接触していない浮いた状態(ホバー状態)にする操作を指す。なお、タッチセンサには、指やスライラスペンなどによるホバー操作も検出可能なものもある。   Many of such touch sensors in the information processing apparatus can detect not only a touch operation (touch event) but also a hover operation (hover event) as an operation by a pen input device. Here, the hover operation refers to an operation for bringing the display screen into a floating state (hover state) where the pen input device is not in contact. Some touch sensors can detect a hover operation with a finger or a stylus pen.

そのような情報処理装置では、ペン入力装置(或いは指やスタイラスペン)によるホバー操作が検出された場合、その検出位置に対応する表示部の位置にホバーマークを表示すること、並びにホバー操作の検出位置に追随して(つまりペン入力装置等の動きに追随して)ホバーマークを移動させることが可能になっている。ホバーマークとは、マウスのカーソルのようにホバー状態を示すための一定のマークであり、ユーザは表示部の表示領域に表示されたアイコン上にホバーマークを移動させて、その後のアイコン選択操作を行うことが可能となっている。   In such an information processing device, when a hover operation by a pen input device (or a finger or a stylus pen) is detected, a hover mark is displayed at the position of the display unit corresponding to the detected position, and hover operation is detected. The hover mark can be moved following the position (that is, following the movement of the pen input device or the like). The hover mark is a certain mark for indicating the hover state like a mouse cursor, and the user moves the hover mark on the icon displayed in the display area of the display unit, and then performs the icon selection operation. It is possible to do.

特許文献1には、指、スタイラスペン、ペン入力装置(特許文献1では「スタイラス」と表記)などによるタッチ操作とホバー操作を、入力信号の振幅及び勾配パターンにより判別し、別々に処理する技術が開示されている。   Japanese Patent Application Laid-Open No. 2004-133867 discloses a technique for discriminating a touch operation and a hover operation by a finger, a stylus pen, a pen input device (indicated as “stylus” in Patent Document 1), and the like based on an amplitude and a gradient pattern of an input signal and processing them separately. Is disclosed.

また、特許文献2には、ホバリング動作と通常動作との間の切り替えが可能なタブレット等の情報処理装置が開示されている。この情報処理装置では、画面上をペンで1回タップしてから所定時間内にその画面上に線を描くような操作をすれば、通常動作としてその線が描かれ、ペンアップから所定時間が経過すればホバリング動作が実行される。   Patent Document 2 discloses an information processing apparatus such as a tablet capable of switching between a hovering operation and a normal operation. In this information processing apparatus, if an operation is performed such that a line is drawn on the screen within a predetermined time after tapping the screen once with a pen, the line is drawn as a normal operation. When the time elapses, the hovering operation is executed.

特表2009−543246号公報Special table 2009-543246 gazette 特開2000−122808号公報JP 2000-122808 A

ところで、近年、表示部における画素の高解像度化に伴い、タッチ操作やホバー操作に対するタッチセンサの検出精度も向上しており、特にペン入力装置のペン先は、検出精度を生かすために細径化が進んでいる。   By the way, with the recent increase in pixel resolution in the display unit, the detection accuracy of the touch sensor for touch operations and hover operations has also improved, and in particular, the pen tip of the pen input device has been reduced in diameter to take advantage of the detection accuracy. Is progressing.

しかしながら、高検出精度を生かすためには、ペン先の細径化だけではなく、表示させるホバーマークも小さくする必要があり、ユーザにとってホバーマークが非常に見難くなってしまい、結果としてアイコンの選択操作が難しくなってしまう。なお、特許文献1,2には、ホバーマークのサイズを変化させることについて記載されていない。   However, in order to take advantage of high detection accuracy, it is necessary not only to reduce the pen tip diameter, but also to make the hover mark to be displayed small, which makes it very difficult for the user to see the hover mark, resulting in the selection of the icon. Operation becomes difficult. Note that Patent Documents 1 and 2 do not describe changing the size of the hover mark.

本発明は、上述のような実状に鑑みてなされたものであり、その目的は、タッチ操作及びホバー操作を検出するタッチセンサを有する情報処理装置において、タッチセンサがもつ検出精度を生かした上で、ホバー状態からのアイコンの選択をユーザが行い易くすることにある。   The present invention has been made in view of the above-described actual situation, and an object thereof is to make use of the detection accuracy of the touch sensor in an information processing apparatus having a touch sensor that detects a touch operation and a hover operation. It is to make it easier for the user to select an icon from the hover state.

上記の課題を解決するために、本発明の第1の技術手段は、画像を表示する表示部と、該表示部の上でのタッチ操作を検出するタッチセンサと、該タッチセンサにより前記表示部に表示されたアイコンへの前記タッチ操作が検出される前に、前記表示部のホバー操作が検出された位置にホバーマークを表示させる制御部と、を備え、該制御部は、前記ホバー操作が検出された位置の検出領域の大きさに基づいて、前記ホバーマークの表示サイズを制御することを特徴としたものである。 In order to solve the above problems, a first technical means of the present invention includes a display unit displaying an image, a touch sensor for detecting a touch operation on the display section, the display unit by the touch sensor before the touch operation to the displayed icon is detected, and a control unit for displaying the hover marks hover operation has been detected position of the display unit, the control unit, the hover operation The display size of the hover mark is controlled based on the size of the detection area at the detected position .

本発明の第2の技術手段は、第1の技術手段において、ペン入力装置での操作を受け付けるペン入力モードと、指での操作を受け付ける通常タッチ入力モードと、を実行するモード実行部をさらに備え、前記制御部は、前記ホバーマークが前記表示部に表示されているアイコンの上にあって、前記ペン入力モードである場合、前記アイコンの大きさに応じて前記ホバーマークの表示サイズを変更することを特徴としたものである。 According to a second technical means of the present invention, in the first technical means, a mode execution unit for executing a pen input mode for accepting an operation with a pen input device and a normal touch input mode for accepting an operation with a finger. The control unit changes the display size of the hover mark according to the size of the icon when the hover mark is on the icon displayed on the display unit and the pen input mode is set. It is characterized by doing.

本発明の第3の技術手段は、第2の技術手段において、前記タッチセンサは、前記ペン入力モードである場合よりも前記通常タッチ入力モードである場合の方が、前記検出領域を大きく検出することを特徴としたものである。 According to a third technical means of the present invention, in the second technical means, the touch sensor detects the detection area larger in the normal touch input mode than in the pen input mode. It is characterized by that.

本発明の第4の技術手段は、第2又は第3の技術手段において、前記表示部に表示された前記アイコンの上で前記ホバー操作が検出されたとき、前記ホバーマークの表示サイズの変更が解除されている状態か否かを判定する判定部をさらに備え、該判定部が前記ホバーマークの表示サイズの変更が解除されていないと判定した場合、前記制御部は、前記アイコンの大きさに応じて前記ホバーマークの表示サイズを変更することを特徴としたものである。 According to a fourth technical means of the present invention, when the hover operation is detected on the icon displayed on the display unit in the second or third technical means, the display size of the hover mark is changed. A determination unit configured to determine whether or not the state is released, and when the determination unit determines that the change in the display size of the hover mark has not been released, the control unit sets the size of the icon; Accordingly, the display size of the hover mark is changed accordingly .

本発明の第5の技術手段は、第1から第4のいずれか1の技術手段において、前記制御部は、前記ホバー操作が検出された位置の所定距離内にオブジェクトが含まれる場合、前記オブジェクトの詳細な情報を前記表示部に表示させることを特徴としたものである。 According to a fifth technical means of the present invention, in any one of the first to fourth technical means, when the control unit includes an object within a predetermined distance of a position where the hover operation is detected, the object The detailed information is displayed on the display unit .

本発明の第の技術手段は、画像を表示する表示部と該表示部の上でのタッチ操作を検出するタッチセンサとを備えた情報処理装置における入力方法であって、前記タッチセンサがホバー操作を検出する検出ステップと、前記情報処理装置の制御部が、前記タッチセンサにより前記表示部に表示されたアイコンへの前記タッチ操作が検出される前に、前記ホバー操作が検出された位置にホバーマークを表示させる表示制御ステップと、を有し、前記表示制御ステップは、前記検出ステップにおいて前記ホバー操作が検出された位置の検出領域の大きさに基づいて、前記ホバーマークの表示サイズを制御するステップを有することを特徴としたものである。 A sixth technical means of the present invention is an input method in an information processing apparatus including a display unit that displays an image and a touch sensor that detects a touch operation on the display unit, wherein the touch sensor is a hover. A detection step of detecting an operation; and a control unit of the information processing device at a position where the hover operation is detected before the touch operation to the icon displayed on the display unit is detected by the touch sensor. A display control step for displaying a hover mark, wherein the display control step controls a display size of the hover mark based on a size of a detection area at a position where the hover operation is detected in the detection step. It is characterized by having the step to do.

本発明の第7の技術手段は、第6の技術手段の入力方法を実行させるためのプログラムであって、画像を表示する表示部と該表示部の上でのタッチ操作を検出するタッチセンサとを備えた情報処理装置に、前記入力方法を実行させることを特徴とするものである。A seventh technical means of the present invention is a program for executing the input method of the sixth technical means, and includes a display unit that displays an image, and a touch sensor that detects a touch operation on the display unit. An information processing apparatus including the above-described input method is executed.

本発明によれば、タッチ操作及びホバー操作を検出するタッチセンサを有する情報処理装置において、タッチセンサがもつ検出精度を生かした上で、ホバー状態からのアイコンの選択をユーザが行い易くなる。   According to the present invention, in an information processing apparatus having a touch sensor that detects a touch operation and a hover operation, the user can easily select an icon from the hover state while taking advantage of the detection accuracy of the touch sensor.

本発明の第1の実施形態に係る情報処理装置の一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of the information processing apparatus which concerns on the 1st Embodiment of this invention. 図1の情報処理装置におけるペン入力方法の一例を説明するためのフロー図である。It is a flowchart for demonstrating an example of the pen input method in the information processing apparatus of FIG. 図2のペン入力方法の一例を説明するための概略図である。It is the schematic for demonstrating an example of the pen input method of FIG. 図2のペン入力方法の一例を説明するための概略図である。It is the schematic for demonstrating an example of the pen input method of FIG. 図1の情報処理装置におけるペン入力方法の他の例を説明するためのフロー図である。It is a flowchart for demonstrating the other example of the pen input method in the information processing apparatus of FIG. 図4のペン入力方法の一例を説明するための概略図である。It is the schematic for demonstrating an example of the pen input method of FIG. 図1の情報処理装置におけるペン入力方法の他の例を説明するためのフロー図である。It is a flowchart for demonstrating the other example of the pen input method in the information processing apparatus of FIG. 図6のペン入力方法の一例を説明するための概略図である。It is the schematic for demonstrating an example of the pen input method of FIG. 図6のペン入力方法の一例を説明するための概略図である。It is the schematic for demonstrating an example of the pen input method of FIG. 図6のペン入力方法の他の例を説明するための概略図である。It is the schematic for demonstrating the other example of the pen input method of FIG. 図6のペン入力方法における認知エリアとアイコンとの位置関係の一例を説明するための概略図である。It is the schematic for demonstrating an example of the positional relationship of the recognition area and icon in the pen input method of FIG. 図6のペン入力方法における認知エリアとアイコンとの位置関係の他の例を説明するための概略図である。It is the schematic for demonstrating the other example of the positional relationship of the recognition area and icon in the pen input method of FIG. 図6のペン入力方法における認知エリアとアイコンとの位置関係の他の例を説明するための概略図である。It is the schematic for demonstrating the other example of the positional relationship of the recognition area and icon in the pen input method of FIG.

本発明に係る情報処理装置は、表示部、タッチセンサ、及び制御部を備える。本発明に係る情報処理装置は、1つの筐体で構成した装置であってもよいし、上記表示部及びタッチセンサが本体(制御部側)と別筐体で構成された装置であってもよい。本発明に係る情報処理装置としては、例えば設置型のPC(Personal Computer)、モバイルPC、タブレット型の端末装置(以下、タブレット端末)、携帯電話機(スマートフォンと呼ばれるものも含む)などが挙げられる。   An information processing apparatus according to the present invention includes a display unit, a touch sensor, and a control unit. The information processing apparatus according to the present invention may be an apparatus configured with one casing, or may be an apparatus in which the display unit and the touch sensor are configured with a main body (control unit side) and a separate casing. Good. Examples of the information processing apparatus according to the present invention include a stationary PC (Personal Computer), a mobile PC, a tablet-type terminal device (hereinafter referred to as a tablet terminal), a mobile phone (including a so-called smartphone), and the like.

(第1の実施形態)
本発明の第1の実施形態について、図1〜図3Bを参照しながら説明する。図1は、本実施形態に係る情報処理装置の一構成例を示すブロック図である。本実施形態に係る情報処理装置1は、その全体を制御する制御部10と、タッチセンサ12と、画像を表示する表示部13と、を備えている。表示部13は、画像を表示する表示パネルを有する。表示パネルとしては、液晶ディスプレイや有機エレクトロルミネッセンスディスプレイ等、様々な表示方式のパネルが挙げられる。
(First embodiment)
A first embodiment of the present invention will be described with reference to FIGS. 1 to 3B. FIG. 1 is a block diagram illustrating a configuration example of the information processing apparatus according to the present embodiment. The information processing apparatus 1 according to the present embodiment includes a control unit 10 that controls the entire device, a touch sensor 12, and a display unit 13 that displays an image. The display unit 13 includes a display panel that displays an image. Examples of the display panel include various display panels such as a liquid crystal display and an organic electroluminescence display.

その他、ここで例示する情報処理装置1は、表示対象の画像ファイル等を記憶する記憶部11と、表示対象の画像ファイル等をサーバ装置等の外部機器から取得するための通信部14と、を備えている。なお、通信部14としては、例えば有線LAN(Local Area Network)のルータを介して外部機器と通信するインターフェースが挙げられる。無論、このルータに限らず、移動体通信システムの基地局、無線LANのアクセスポイントなどを介して通信するインターフェースであってもよい。   In addition, the information processing apparatus 1 exemplified here includes a storage unit 11 that stores an image file to be displayed, and a communication unit 14 for acquiring the image file to be displayed from an external device such as a server device. I have. Examples of the communication unit 14 include an interface for communicating with an external device via a wired LAN (Local Area Network) router. Of course, the interface is not limited to this router, and may be an interface that communicates via a base station of a mobile communication system, an access point of a wireless LAN, or the like.

また、情報処理装置1は、電源キーを備えると共に、ユーザ操作を受け付けるために、電源キー以外のハードウェアキー(音量調整キー等)、キーボード、マウス等のポインティングデバイス、ジョイスティック、タッチパッド、トラックボール、キーボードなどのうち、いずれか1又は複数を具備するようにしてもよい。   The information processing apparatus 1 also includes a power key and a hardware key (volume adjustment key, etc.) other than the power key, a keyboard, a pointing device such as a mouse, a joystick, a touch pad, and a trackball in order to accept a user operation. Any one or more of a keyboard and the like may be provided.

以下、本発明の主な構成となる制御部10及びタッチセンサ12について詳細に説明する。制御部10は、プログラム保存領域に格納された制御プログラムを動作させ、各種制御を行う。例えば制御部10は、CPU(Central Processing Unit)又はMPU(Micro Processing Unit)、作業領域としてのRAM(Random Access Memory)、及び記憶装置などの制御デバイスで構成され、その一部又は全部を集積回路/ICチップセットとして搭載することもできる。この記憶装置には、上記制御プログラム(本発明に係る処理を実行するプログラムを含む)をはじめ、各種設定内容などが記憶される。この記憶装置としては、フラッシュROM(Read Only Memory)、EEPROM(Electrically Erasable and Programmable ROM)等が挙げられる。また、この記憶装置としては記憶部11を採用することができる。   Hereinafter, the control unit 10 and the touch sensor 12 which are main components of the present invention will be described in detail. The control unit 10 operates the control program stored in the program storage area and performs various controls. For example, the control unit 10 includes a central processing unit (CPU) or a micro processing unit (MPU), a RAM (Random Access Memory) as a work area, and a control device such as a storage device. / It can also be mounted as an IC chip set. The storage device stores various control contents including the control program (including a program for executing processing according to the present invention). Examples of the storage device include a flash ROM (Read Only Memory) and an EEPROM (Electrically Erasable and Programmable ROM). Further, the storage unit 11 can be adopted as the storage device.

タッチセンサ12は、表示部13の表示領域(全表示領域)上でのタッチ操作及びホバー操作を検出するセンサであり、シングルタッチのみ対応のセンサであってもマルチタッチ対応のセンサであってもよい。   The touch sensor 12 is a sensor that detects a touch operation and a hover operation on the display area (all display areas) of the display unit 13, and may be a sensor that supports only a single touch or a sensor that supports multi-touch. Good.

ここで、ホバー操作とは、ポインティングデバイスによりカーソルを特定要素に合わせる操作に対応する操作を指し、タッチセンサ12においてはタッチ操作に至る手前の状態(操作主体を浮かせたホバー状態)にする操作を指す。ホバー状態とは、操作主体が表示画面と所定の距離以下にあり且つ操作主体と表示画面とが接触していない状態、つまり操作主体を近接させた状態を指す。   Here, the hover operation refers to an operation corresponding to an operation for aligning the cursor with a specific element by a pointing device, and an operation to bring the touch sensor 12 into a state before the touch operation (a hover state with the operation subject floating). Point to. The hover state refers to a state where the operating subject is not more than a predetermined distance from the display screen and the operating subject is not in contact with the display screen, that is, a state where the operating subject is brought close.

タッチセンサ12としては、例えば表面型又は投射型の静電容量方式、電磁誘導方式、赤外線方式、表面弾性波方式、抵抗膜方式など、様々な方式のセンサが適用できる。また、ホバー操作を検出するための検出部を、タッチ操作の検出方式とは別の検出方式で設けることもできる。なお、タッチセンサ12は、表示部(表示パネル)13の表面に重ねるようにパネルとして設けられるものが多く、単体で若しくは表示パネルと合わせて、タッチパネルとも呼ばれる。   As the touch sensor 12, various types of sensors such as a surface type or projection type electrostatic capacity method, an electromagnetic induction method, an infrared method, a surface acoustic wave method, and a resistive film method can be applied. In addition, the detection unit for detecting the hover operation can be provided by a detection method different from the detection method of the touch operation. Note that the touch sensor 12 is often provided as a panel so as to overlap the surface of the display unit (display panel) 13, and is also called a touch panel alone or in combination with the display panel.

タッチセンサ12は、タッチ操作やホバー操作を検出するとその検出位置を特定する情報(入力座標情報)を制御部10に渡す。若しくは、制御部10が、ポーリング処理等によりタッチセンサ12に対するタッチ操作やホバー操作の入力を監視し、検出された場合に入力座標情報を得る。   When the touch sensor 12 detects a touch operation or a hover operation, the touch sensor 12 passes information (input coordinate information) specifying the detection position to the control unit 10. Alternatively, the control unit 10 monitors input of a touch operation or a hover operation on the touch sensor 12 by polling processing or the like, and obtains input coordinate information when detected.

タッチセンサ12では、タッチ操作やホバー操作として、ユーザの指での操作、スタイラスペンでの操作、ペン入力装置での操作のうち、いずれの操作も受け付け可能にしておけばよい。但し、ペン入力装置での操作を受け付けるモード(ペン入力モードと呼ぶ)とそれ以外での操作を受け付けるモード(通常タッチ入力モードと呼ぶ)とを用意しておき、制御部10にてユーザ操作に基づきモードの切り替えが可能に構成しておくか、若しくはペン入力装置の近接を検知してペン入力モードに切り替えるように構成しておくことが好ましい。また、タッチ操作は双方のモードで受け付ければよいが、ホバー操作はペン入力モードでのみ受け付けるようにしてもよい。   The touch sensor 12 may accept any of a touch operation and a hover operation among a user's finger operation, a stylus pen operation, and a pen input device operation. However, a mode for accepting an operation on the pen input device (referred to as a pen input mode) and a mode for accepting an operation other than that (referred to as a normal touch input mode) are prepared. It is preferable that the mode can be switched based on the configuration, or the proximity of the pen input device is detected and the mode is switched to the pen input mode. Further, the touch operation may be accepted in both modes, but the hover operation may be accepted only in the pen input mode.

ペン入力装置について、タッチセンサ12が電磁誘導方式でペン入力装置によるタッチ操作やホバー操作(近接操作)を検出する例を挙げて説明する。図1で例示するペン入力装置2は、その全体を制御する制御部20と共に、ペン信号発生部21及びボタン22を備えている。   The pen input device will be described with an example in which the touch sensor 12 detects a touch operation or a hover operation (proximity operation) by the pen input device by an electromagnetic induction method. A pen input device 2 illustrated in FIG. 1 includes a pen signal generation unit 21 and a button 22 together with a control unit 20 that controls the whole.

ペン信号発生部21は、コイルを有し、制御部20からの制御に基づきペン信号として所定の電磁波を出力させる。一般的に、制御部20はペン信号を絶えず発信するような制御を行っている。ペン入力装置2がタッチセンサ12に近接した場合(つまり表示部13に近接した場合)にタッチセンサ12側のコイルがそのペン信号を検出する。なお、ペン信号が検出された場合、ペン信号発生部21側ではそれを検知することができる。   The pen signal generation unit 21 includes a coil and outputs a predetermined electromagnetic wave as a pen signal based on control from the control unit 20. In general, the control unit 20 performs control such that a pen signal is constantly transmitted. When the pen input device 2 is close to the touch sensor 12 (that is, close to the display unit 13), the coil on the touch sensor 12 side detects the pen signal. When a pen signal is detected, the pen signal generator 21 can detect it.

制御部20は、タイマを有し、一定期間(例えば1分など)、タッチセンサ12との近接がない場合に、スリープモードに移行しペン信号の発生をストップさせる。スリープモードからの復帰は、一般的にペン入力装置2のペン先をタップするか、具備されたボタン22を押すことで実行される。   The control unit 20 includes a timer, and when there is no proximity to the touch sensor 12 for a certain period (for example, 1 minute), the control unit 20 shifts to the sleep mode and stops the generation of the pen signal. The return from the sleep mode is generally performed by tapping the pen tip of the pen input device 2 or pressing the provided button 22.

ボタン22は、例えばクリック動作など、予め決められた動作の割り当てに用いられ、ボタン22が押下された場合にはその動作に応じて変調された電磁波がペン信号発生部21から出力される。なお、ボタン22が押下された場合、別途設けた無線通信部、又は有線通信部及び接続ケーブルにより、情報処理装置1側に押下を示す信号を送信するような構成を採用することもできる。   The button 22 is used for assignment of a predetermined operation such as a click operation, for example. When the button 22 is pressed, an electromagnetic wave modulated according to the operation is output from the pen signal generation unit 21. In addition, when the button 22 is pressed, a configuration in which a signal indicating the pressing is transmitted to the information processing apparatus 1 side by a separately provided wireless communication unit or a wired communication unit and a connection cable may be employed.

なお、アクティブ方式の場合を前提として説明しているが、ペナブル・テクノロジー方式等のパッシブ方式を採用することもできる。パッシブ方式の場合、ペン入力装置2側は電源を必要とせず、タッチセンサ12側のコイルから電磁誘導でペン信号発生部21に電力を供給し、その電力を受けてペン信号発生部21におけるコイルが上記所定の電磁波を出力し、タッチセンサ12がそれを検出することになる。   Although the description is based on the premise of the active method, a passive method such as a penable technology method can also be adopted. In the case of the passive method, the pen input device 2 side does not require a power source, and power is supplied from the coil on the touch sensor 12 side to the pen signal generation unit 21 by electromagnetic induction, and the coil in the pen signal generation unit 21 receives the power. Outputs the predetermined electromagnetic wave, and the touch sensor 12 detects it.

制御部10は、上述のようなタッチセンサ12によりホバー操作が検出された場合、上記入力座標情報が示す検出位置に対応する表示部13の表示領域上の位置に、ホバーマークを表示させる制御を行う。このホバーマークは、ホバー操作の位置を示すポインタである。なお、ホバーマークを表示すると共に、ホバーの座標を中心とし所定距離の半径をもつ円内に含まれるオブジェクトの詳細な情報を表示するなど、他の処理を併せて実行するようにしてもよい。   When the hover operation is detected by the touch sensor 12 as described above, the control unit 10 performs control to display a hover mark at a position on the display area of the display unit 13 corresponding to the detection position indicated by the input coordinate information. Do. This hover mark is a pointer indicating the position of the hover operation. In addition to displaying a hover mark, other processing such as displaying detailed information of an object included in a circle having a radius of a predetermined distance with the hover coordinate at the center may be executed together.

また、制御部10は、タッチ操作が検出された場合、上記入力座標情報が示す検出位置に対応する表示部13の表示領域上の位置にあるアイコン等の画像の選択など、表示部13での表示に応じた処理等を行う。なお、アイコンは、例えばOSの基本画面の画像に配置されており、アイコンを選択する操作がなされることで、そのアイコンに関連付けられたアプリケーションやファイル等を開くことが可能になっている。   In addition, when a touch operation is detected, the control unit 10 selects an image such as an icon at a position on the display area of the display unit 13 corresponding to the detection position indicated by the input coordinate information. Processing according to the display is performed. The icon is arranged, for example, in the image of the basic screen of the OS, and an application or file associated with the icon can be opened by performing an operation of selecting the icon.

そして、本実施形態の主たる特徴として、制御部10は、上記表示領域に表示されたアイコンの上でホバー操作が検出された場合、ホバーマークの表示サイズをそのアイコンの大きさに応じて変更する変更制御を、表示部13に対して行う。つまり、表示部13はホバーマークを、その位置にあるアイコンの大きさに応じて適切にサイズ変更した状態で表示することになる。なお、アイコンの大きさ自体はアイコン毎に既知であり、実際、アイコンの選択を可能にするために、各アイコンの選択領域が座標で定められている。   As a main feature of the present embodiment, when a hover operation is detected on the icon displayed in the display area, the control unit 10 changes the display size of the hover mark according to the size of the icon. Change control is performed on the display unit 13. That is, the display unit 13 displays the hover mark in a state where the size is appropriately changed according to the size of the icon at the position. Note that the size of the icon itself is known for each icon, and the selection area of each icon is actually defined by coordinates in order to enable selection of the icon.

次に、ペン入力装置2を用いた本実施形態の入力方法について、図2〜図3Bを参照しながら実際の使用場面を例に挙げて説明する。図2は、情報処理装置1におけるペン入力方法の一例を説明するためのフロー図で、図3A及び図3Bは、図2のペン入力方法の一例を説明するための概略図である。   Next, the input method of the present embodiment using the pen input device 2 will be described with reference to FIGS. FIG. 2 is a flowchart for explaining an example of the pen input method in the information processing apparatus 1, and FIGS. 3A and 3B are schematic diagrams for explaining an example of the pen input method of FIG.

まず、制御部10は、タッチセンサ12がペン信号を受信したか否かを判定し(ステップS1)、受信するまで(YESとなるまで)待つ。ペン信号を受信した場合、制御部10は、そのペン信号の検出位置を示す入力座標情報を得ることになるが、さらに表示部13に対し、その検出位置に対応する表示位置にホバーマークを表示するよう指示して、表示部13がその表示を実行する(ステップS2)。なお、タッチセンサ12がタッチ操作を検出した場合にはそれを示すタッチ信号を制御部10へ伝送し、制御部10がタッチ信号に対応する処理(ペン信号だけを受信したときとは異なる処理)を行うことになる。   First, the control unit 10 determines whether or not the touch sensor 12 has received a pen signal (step S1), and waits until it is received (until YES). When the pen signal is received, the control unit 10 obtains input coordinate information indicating the detection position of the pen signal, and further displays a hover mark at a display position corresponding to the detection position on the display unit 13. The display unit 13 executes the display (step S2). When the touch sensor 12 detects a touch operation, a touch signal indicating the touch operation is transmitted to the control unit 10, and the control unit 10 performs a process corresponding to the touch signal (a process different from when only the pen signal is received). Will do.

次いで、制御部10は、表示させたホバーマークがアイコンの上にあるか否かを、表示中の各アイコンの選択領域の座標とホバーマークの表示座標(つまり入力座標情報が示す検出位置の座標)と比較することで判定する(ステップS3)。ステップS3でNOの場合にはそのまま処理を終了する。   Next, the control unit 10 determines whether the displayed hover mark is on the icon, the coordinates of the selected area of each icon being displayed and the display coordinates of the hover mark (that is, the coordinates of the detection position indicated by the input coordinate information). ) To determine (step S3). If NO in step S3, the process is terminated as it is.

一方、ステップS3でYESの場合、制御部10は、ホバーマークの表示と重なるアイコンについて、そのサイズをその選択領域の座標から算出することで検知する(ステップS4)。その後、制御部10は、そのアイコンのサイズに合うようにホバーマークの表示サイズを決定し、その表示サイズになるように表示部13に指示し、表示部13がそのような表示変更(つまり表示サイズの補正)を行い(ステップS5)、処理を終了する。   On the other hand, in the case of YES in step S3, the control unit 10 detects the size of the icon that overlaps the display of the hover mark by calculating the size from the coordinates of the selected area (step S4). Thereafter, the control unit 10 determines the display size of the hover mark so as to match the size of the icon, and instructs the display unit 13 to make the display size, and the display unit 13 makes such a display change (that is, display). Size correction) is performed (step S5), and the process is terminated.

一例として、図3Aのように表示部13にファイル管理アプリケーションのウインドウ31があり、その中にフォルダを示すアイコンが複数表示されており、そのうちの1つのアイコンをホバー操作する場合について説明する。   As an example, a case will be described in which a file management application window 31 is displayed on the display unit 13 as shown in FIG. 3A, a plurality of icons indicating folders are displayed therein, and one of the icons is hovered.

まず、ユーザは、ペン入力装置2を表示部13の表示領域の或る位置に近接させると、図3Aで例示するようにその位置でペン信号が検出され、ホバーマーク30aが表示される。なお、ホバー操作の検出に際し、表示画面と操作主体であるペン入力装置2のペン先との距離(表示画面に垂直な方向の距離)も検出するようにしてもよく、その場合、この距離(ホバー距離)が長い程、ホバーマーク30aを大きくするようにしてもよい。   First, when the user brings the pen input device 2 close to a certain position in the display area of the display unit 13, a pen signal is detected at that position and the hover mark 30a is displayed as illustrated in FIG. 3A. When detecting the hover operation, the distance (distance in the direction perpendicular to the display screen) between the display screen and the pen tip of the pen input device 2 that is the operation subject may also be detected. The hover mark 30a may be increased as the hover distance) increases.

図3Aの状態からユーザがペン入力装置2を移動させて「ビデオ」アイコンの表示領域(アイコン選択領域)32にホバーマーク30aを移動させた場合、それが図3Bに示すようにアイコン選択領域32に合った表示サイズのホバーマーク30bに変更される。なお、OSやアプリケーションによってアイコン選択領域32の範囲は異なり、必ずしもアイコンが表示されている部分だけが選択領域とは限らず、例えば図3Aでいうところの「ビデオ」アイコンだけでなく、その隣の「システムフォルダ」といった文字列やそれらの間の空間もアイコン選択領域として認識される場合もある。   When the user moves the pen input device 2 from the state of FIG. 3A and moves the hover mark 30a to the “video” icon display area (icon selection area) 32, the icon selection area 32 as shown in FIG. 3B. Is changed to a hover mark 30b having a display size suitable for. Note that the range of the icon selection area 32 varies depending on the OS and application, and the portion where the icon is displayed is not necessarily the selection area. For example, not only the “video” icon in FIG. A character string such as “system folder” and a space between them may be recognized as an icon selection region.

ここでは、制御部10が、上記変更制御として、ホバーマーク30bの表示サイズをアイコン(アイコン選択領域32)の縦方向及び横方向の長さに合わせるように変更した例を挙げた。但し、ホバーマーク30bは、アイコン選択領域32と縦横の長さが完全に同じになるようにしなくてもよく、例えば、アイコン選択領域32の縦横90%の表示サイズであってもよい。さらに、ホバーマーク30bをアイコン選択領域32の縦方向の長さだけに合わせ、例えば縦100%且つ横70%の表示サイズや縦90%且つ横は元のままの表示サイズにしてもよい。同様に、横方向の長さだけに合わせ、例えば縦70%且つ横100%の表示サイズや横90%且つ縦は元のままの表示サイズにしてもよい。   Here, an example was given in which the control unit 10 changed the display size of the hover mark 30b to match the vertical and horizontal lengths of the icon (icon selection area 32) as the change control. However, the hover mark 30b does not have to be completely the same in length and width as the icon selection area 32. For example, the display size may be 90% of the icon selection area 32. Furthermore, the hover mark 30b may be matched only with the length in the vertical direction of the icon selection area 32, for example, the display size may be 100% vertical and 70% horizontal, or 90% vertical and the original display size. Similarly, according to only the length in the horizontal direction, for example, the display size may be 70% vertical and 100% horizontal, or 90% horizontal and the original display size in the vertical direction.

無論、制御部10は、ステップS2の処理を経ずに、ステップS5でアイコンのサイズに合うようにホバーマークの表示サイズを決定し、その表示サイズでホバーマークを表示させるように表示部13に指示してもよい。例えば、ユーザがいきなりアイコン選択領域32上でホバー操作を行った場合にはホバーマーク30aを表示させることなくアイコン選択領域32のサイズに合ったホバーマーク30bを表示させればよい。   Of course, the control unit 10 determines the display size of the hover mark to match the size of the icon in step S5 without going through the process of step S2, and causes the display unit 13 to display the hover mark at the display size. You may instruct. For example, when the user suddenly performs a hover operation on the icon selection area 32, the hover mark 30b corresponding to the size of the icon selection area 32 may be displayed without displaying the hover mark 30a.

また、ホバーマークを、背景となるアイコンの画像とのαブレンディングなどにより半透明にすることは、ホバーマークの表示サイズを変更することから特に好ましいと言える。また、ホバーマークの表示サイズが所定のサイズ未満である場合にはそのまま表示させ、所定サイズ以上になった場合に半透明にするようにしてもよい。また、ホバーマークの表示サイズだけでなく、デザインもアイコンの大きさ(例えば縦横比)に応じて変更するようにしてもよい。これにより、表示部13において、縦長のアイコンに合ったデザインや横長のアイコンに合ったデザインのホバーマークを表示させることができる。   Moreover, it can be said that it is particularly preferable to make the hover mark semi-transparent by α blending with an icon image as a background because the display size of the hover mark is changed. In addition, when the display size of the hover mark is less than the predetermined size, the hover mark may be displayed as it is, and when the hover mark exceeds the predetermined size, it may be made translucent. Further, not only the display size of the hover mark but also the design may be changed according to the size of the icon (for example, the aspect ratio). Thereby, the display unit 13 can display a hover mark having a design that matches a vertically long icon or a design that matches a horizontally long icon.

以上、本実施形態によれば、このようにしてホバーマークの表示サイズを変更することにより、タッチセンサ12がもつ検出精度を生かしホバーマークを小さく表示させた上で、ユーザにとってホバー状態からアイコンが選択し易くなる。なお、このような表示変更を行った状態から、ユーザがタッチ操作によりアイコンを選択した場合には、そのアイコン選択領域の色を反転させるなどすればよい。   As described above, according to the present embodiment, by changing the display size of the hover mark in this way, the icon is displayed from the hover state to the user after the hover mark is displayed small by taking advantage of the detection accuracy of the touch sensor 12. It becomes easy to select. In addition, when the user selects an icon by a touch operation from such a display change state, the color of the icon selection area may be reversed.

なお、ペン入力装置2を用いた場合についてのみ具体例を挙げたが、ユーザの指やスタイラスペンによる入力時にも同様にホバー操作時における上記変更制御を適用することができる。但し、ペン入力モードと通常タッチ入力モードの双方でホバー操作を受け付ける場合には、ペン入力モードである場合に限り、上述のような変更制御を実行するようにしてもよい。指で選択できるようなアイコンを選択しようとしていることが想定されるためである。その際、指によるホバー操作の検出領域は広くなることが想定されるため、指によるホバー操作が検出された場合にはその検出領域に合致したホバーマークを表示するようにしておいてもよい。   Although a specific example is given only for the case where the pen input device 2 is used, the above-described change control at the time of hover operation can be applied in the same manner when inputting with the user's finger or stylus pen. However, when the hover operation is accepted in both the pen input mode and the normal touch input mode, the change control as described above may be executed only in the pen input mode. This is because it is assumed that an icon that can be selected with a finger is being selected. At this time, since the detection area of the hover operation with the finger is assumed to be wide, when the hover operation with the finger is detected, a hover mark that matches the detection area may be displayed.

(第2の実施形態)
本発明の第2の実施形態について、図4及び図5を併せて参照しながら説明する。図4は、情報処理装置1におけるペン入力方法の他の例を説明するためのフロー図で、図5は、図4のペン入力方法の一例を説明するための概略図である。本実施形態について、第1の実施形態との相違点を中心に説明するが、第1の実施形態で説明した様々な応用例も同様に適用できる。
(Second Embodiment)
A second embodiment of the present invention will be described with reference to FIGS. 4 and 5 together. 4 is a flowchart for explaining another example of the pen input method in the information processing apparatus 1, and FIG. 5 is a schematic diagram for explaining an example of the pen input method of FIG. Although the present embodiment will be described with a focus on differences from the first embodiment, various application examples described in the first embodiment can be similarly applied.

本実施形態における情報処理装置1は、タッチセンサ12がペン入力装置によってなされたタッチ操作及びホバー操作を検出する機能をもつ。つまり、本実施形態では、図1で例示したペン入力装置2のようなペン入力装置が必要となる。但し、このペン入力装置は、上記変更制御を解除するための操作(変更解除操作)を受け付けるボタン(以下、第1ボタンと呼ぶ)を有するものとする。この第1ボタンとしては、ボタン22が適用できるが、ボタン22の押下が他の動作に割り当てられている場合には、変更解除操作についてはボタン22の長押しや2回連続押下などで受け付ければよい。   The information processing apparatus 1 according to the present embodiment has a function in which the touch sensor 12 detects a touch operation and a hover operation performed by a pen input device. That is, in this embodiment, a pen input device such as the pen input device 2 illustrated in FIG. 1 is required. However, it is assumed that the pen input device has a button (hereinafter referred to as a first button) that receives an operation (change release operation) for canceling the change control. As the first button, the button 22 can be applied. However, when the pressing of the button 22 is assigned to another operation, the change canceling operation can be accepted by long-pressing the button 22 or continuously pressing the button 22 twice. That's fine.

本実施形態の入力方法について図4に沿って説明する。この入力方法においても、図2のステップS1,S2,S3,S4,S5の処理と同様の処理を行う(ステップS11,S12,S13,S15,S16)が、ステップS13の後に、制御部10は第1ボタン(変更解除ボタン)が押下されていないか否かを判定する(ステップS14)。   The input method of this embodiment is demonstrated along FIG. Also in this input method, the same processing as the processing in steps S1, S2, S3, S4, and S5 in FIG. 2 is performed (steps S11, S12, S13, S15, and S16). It is determined whether or not the first button (change release button) has not been pressed (step S14).

ステップS14でNOの場合には、そのまま処理を終了し、結果として図5に示すように、図3Aのホバーマーク30aと同じ表示サイズのままのホバーマーク50が表示された状態となる。一方、ステップS14でYESの場合には、ステップS15,S16の処理に進んでホバーマークの補正が施され、結果として図3Aのホバーマーク30aが図3Bのホバーマーク30bに変更されることになる。   In the case of NO in step S14, the processing is ended as it is, and as a result, as shown in FIG. 5, the hover mark 50 having the same display size as the hover mark 30a in FIG. 3A is displayed. On the other hand, if YES in step S14, the process proceeds to steps S15 and S16 to correct the hover mark, and as a result, the hover mark 30a in FIG. 3A is changed to the hover mark 30b in FIG. 3B. .

また、ステップS16の後にステップS14の判定処理を適用することもできる。その際、第1ボタンが押下されないままでは図3Bのホバーマーク30bが表示された状態が続き、第1ボタンが押下された段階で図3Bのホバーマーク30bが表示された状態から図5のホバーマーク50が表示された状態に変わることになる。   Moreover, the determination process of step S14 can also be applied after step S16. At that time, the state where the hover mark 30b of FIG. 3B is displayed continues without the first button being pressed, and the state where the hover mark 30b of FIG. 3B is displayed when the first button is pressed is shown in FIG. The mark 50 is changed to the displayed state.

以上のように、本実施形態に係る情報処理装置1では、第1の実施形態の効果に加え、上記変更制御を解除することもできるため、ユーザの好みに合った表示を行うことができる。   As described above, in the information processing apparatus 1 according to the present embodiment, in addition to the effects of the first embodiment, the change control can be canceled, so that it is possible to display according to the user's preference.

(第3の実施形態)
本発明の第3の実施形態について、図6〜図8Cを併せて参照しながら説明する。本実施形態について、第1,第2の実施形態との相違点を中心に説明するが、第1,第2の実施形態で説明した様々な応用例も同様に適用できる。
(Third embodiment)
A third embodiment of the present invention will be described with reference to FIGS. Although the present embodiment will be described with a focus on differences from the first and second embodiments, various application examples described in the first and second embodiments can be similarly applied.

本実施形態における情報処理装置1では、制御部10が次のような移動制御を表示部13に対して行う。この移動制御とは、ホバー操作の検出位置がアイコンの上以外でその検出位置とそのアイコンとが所定の近接条件を満たす場合、ホバーマークをそのアイコンの上に移動させる制御を指す。   In the information processing apparatus 1 according to the present embodiment, the control unit 10 performs the following movement control on the display unit 13. The movement control refers to control for moving the hover mark onto the icon when the detection position of the hover operation is not on the icon and the detection position and the icon satisfy a predetermined proximity condition.

また、本実施形態における情報処理装置1は、タッチセンサ12がペン入力装置によってなされたタッチ操作及びホバー操作を検出する機能をもつことが好ましい。但し、このペン入力装置には、上記移動制御を解除するための操作(移動解除操作)を受け付けるボタン(以下、第2ボタンと呼ぶ)を有するものとする。この場合、図1で例示したペン入力装置2のようなペン入力装置が必要となる。これにより、上記移動制御を解除することもできるため、ユーザの好みに合った表示を行うことができる。   Moreover, it is preferable that the information processing apparatus 1 in this embodiment has a function in which the touch sensor 12 detects a touch operation and a hover operation performed by a pen input device. However, it is assumed that the pen input device has a button (hereinafter referred to as a second button) that receives an operation (movement cancellation operation) for canceling the movement control. In this case, a pen input device such as the pen input device 2 illustrated in FIG. 1 is required. Thereby, since the movement control can also be canceled, a display suitable for the user's preference can be performed.

この第2ボタンとしては、ボタン22が適用できるが、ボタン22の押下が他の動作に割り当てられている場合には、移動解除操作についてはボタン22の長押しや2回連続押下などで受け付ければよい。なお、第2ボタンは第1ボタンと兼ねてもよく、その操作も同じであってもよい。無論、第2ボタンは第1ボタンと別に設けてもよいし、兼ねる場合でも操作方法(例えば前者が連続する2回の押下で、後者が長押しなど)を異ならせてもよい。さらには1回目の長押しで変更解除操作を受け付け、2回目の長押しで移動解除操作を受け付けるようにしてもよく、また1回目と2回目とで受け付ける順序を入れ換えてもよい。   As the second button, the button 22 can be applied, but when the pressing of the button 22 is assigned to another operation, the movement canceling operation can be accepted by long-pressing the button 22 or continuously pressing the button 22 twice. That's fine. The second button may also serve as the first button, and the operation thereof may be the same. Of course, the second button may be provided separately from the first button, or the operation method (for example, the former is continuously pressed twice and the latter is long-pressed) may be different. Furthermore, the change canceling operation may be accepted by the first long press, and the movement canceling operation may be accepted by the second long press, or the order of accepting the first time and the second time may be switched.

次に、ペン入力装置2を用いた本実施形態の入力方法について、図6〜図8Aを参照しながら実際の使用場面を例に挙げて説明する。図6は、図1の情報処理装置1におけるペン入力方法の他の例を説明するためのフロー図である。図7A及び図7Bは、図6のペン入力方法の一例を説明するための概略図で、図7Cは、図6のペン入力方法の他の例を説明するための概略図である。図8Aは、図6のペン入力方法における認知エリアとアイコンとの位置関係の一例を説明するための概略図である。   Next, the input method of the present embodiment using the pen input device 2 will be described with reference to FIGS. FIG. 6 is a flowchart for explaining another example of the pen input method in the information processing apparatus 1 of FIG. 7A and 7B are schematic diagrams for explaining an example of the pen input method of FIG. 6, and FIG. 7C is a schematic diagram for explaining another example of the pen input method of FIG. FIG. 8A is a schematic diagram for explaining an example of a positional relationship between a recognition area and an icon in the pen input method of FIG.

まず、制御部10は、図2のステップS1,S2と同様にペン信号の受信を待ち(ステップS21)、図7Aで例示するようにホバーマーク70aを表示させる(ステップS22)。   First, similarly to steps S1 and S2 of FIG. 2, the control unit 10 waits for reception of a pen signal (step S21), and displays the hover mark 70a as illustrated in FIG. 7A (step S22).

次に、制御部10は、ホバーマーク70aの認知エリア(所定範囲の領域)71内にアイコンが存在するか否かを、アイコン選択領域の座標に基づき判定し(ステップS23)、NOであれば処理を終了する。ステップS23では、上記所定の近接条件として、検出位置を含む所定範囲の領域71にアイコンの少なくとも一部が表示されている(含まれる)ことを挙げ、この条件を満たすか否かを判定している。   Next, the control unit 10 determines whether or not an icon exists in the recognition area (area of a predetermined range) 71 of the hover mark 70a based on the coordinates of the icon selection area (step S23). End the process. In step S23, as the predetermined proximity condition, at least a part of the icon is displayed (included) in the area 71 of the predetermined range including the detection position, and it is determined whether or not this condition is satisfied. Yes.

所定範囲の領域71は、ホバーマーク70aを中心とする所定長の縦辺、同じ又は異なる所定長の横辺でなる長方形である。但し、所定範囲の領域はこれに限らず、円形であってもよい。例えば図8Aに示すように、ホバー位置(ホバーマークを表示させる位置)81aを中心に半径rの円82内を上記所定範囲の領域と定めるなど、中心からの距離で定めてもよい。図8Aの例では、円82内にアイコン選択領域80と重なる領域83aが存在するため、上記所定の近接条件を満たすと判定される。   The region 71 in the predetermined range is a rectangle having a vertical side with a predetermined length centered on the hover mark 70a and a horizontal side with the same or different predetermined length. However, the region of the predetermined range is not limited to this, and may be circular. For example, as shown in FIG. 8A, it may be determined by a distance from the center, for example, a circle 82 having a radius r centering on a hover position (position for displaying a hover mark) 81a is defined as an area of the predetermined range. In the example of FIG. 8A, since there is an area 83a that overlaps the icon selection area 80 in the circle 82, it is determined that the predetermined proximity condition is satisfied.

ステップS23でYESの場合、制御部10は、認知エリア71に複数のアイコン(アイコン選択領域)が存在するか否かを判定する(ステップS24)。存在しない場合(ステップS24でNOの場合)には、第2ボタン(移動解除ボタン)が押下されていないか否かを判定する(ステップS26)。   In the case of YES in step S23, the control unit 10 determines whether or not there are a plurality of icons (icon selection regions) in the recognition area 71 (step S24). If it does not exist (NO in step S24), it is determined whether or not the second button (movement release button) has not been pressed (step S26).

ステップS26でNOの場合には、そのまま処理を終了し、結果として図7Aのホバーマーク70aが表示されたままとなる。一方、ステップS26でYESの場合には、ホバーマークを対象となったアイコンの位置に補正し(ステップS27)、処理を終了する。ステップS27のようなホバーマーク70aの自動誘導により、結果として図7Bに示すように、ペン入力装置2の位置は変わらないのにも拘わらずそのアイコンの位置(好ましくはアイコン選択領域72の中心位置)にホバーマーク70bが表示される。図8Aの例で説明すると、アイコン選択領域80の位置にホバーマーク84aが表示された状態となる。   In the case of NO in step S26, the processing is ended as it is, and as a result, the hover mark 70a in FIG. 7A remains displayed. On the other hand, if YES in step S26, the hover mark is corrected to the position of the target icon (step S27), and the process ends. As a result of the automatic guidance of the hover mark 70a as in step S27, as shown in FIG. 7B, the position of the icon (preferably the center position of the icon selection area 72) is maintained even though the position of the pen input device 2 does not change. ) Displays a hover mark 70b. 8A, the hover mark 84a is displayed at the position of the icon selection area 80.

このように、制御部10は、ホバー操作が検出された位置(検出位置)を含む(好ましくはこの位置を中心とする)認知エリアにアイコンの少なくとも一部が含まれた場合、ホバーマークをそのアイコンの上に移動させる移動制御を行う。なお、上記検出位置にアイコンが存在した場合には、そのアイコンの中心(例えば重心、或いは縦方向の中心縦座標且つ横方向の中心横座標など)に移動させればよい。無論、アイコンの中心にホバー検出位置が存在した場合には、移動は不要となる。   As described above, when at least a part of the icon is included in the recognition area including the position (detection position) where the hover operation is detected (preferably centered on this position), the control unit 10 displays the hover mark as the hover mark. Move control to move over the icon. If an icon is present at the detection position, it may be moved to the center of the icon (for example, the center of gravity or the center ordinate in the vertical direction and the center abscissa in the horizontal direction). Of course, when the hover detection position exists at the center of the icon, the movement is not necessary.

一方、ステップS24でYESの場合、制御部10は、複数のアイコンのうち最も大きなサイズのアイコンをアイコン選択領域の座標から算出(検出)し、それを対象のアイコンとする(ステップS25)。ステップS25の代わりに、最も認知エリアと重なる面積が大きなアイコンを対象のアイコンとして検出してもよいし、アイコン上への自動誘導を行わないように(つまり対象のアイコン無しにするように)してもよい。ステップS25の処理後は、ステップS26へ進み、ステップS26でYESの場合に制御部10はホバーマークをステップS25で対象となったアイコンの位置に補正し(ステップS27)、処理を終了する。   On the other hand, in the case of YES in step S24, the control unit 10 calculates (detects) the icon of the largest size among the plurality of icons from the coordinates of the icon selection area, and sets it as the target icon (step S25). Instead of step S25, an icon having the largest overlapping area with the recognition area may be detected as a target icon, or automatic guidance on the icon is not performed (that is, no target icon is provided). May be. After the process of step S25, the process proceeds to step S26, and in the case of YES in step S26, the control unit 10 corrects the hover mark to the position of the target icon in step S25 (step S27) and ends the process.

また、ステップS27の後にステップS26の判定処理を適用することもできる。その際、第2ボタンが押下されないままでは図7Bのホバーマーク70bが表示された状態が続き、第2ボタンが押下された段階で図7Aのホバーマーク70aが表示された状態に戻ることになる。なお、本実施形態では第2ボタンは必須ではなく、第2ボタンを具備しない場合には図6においてステップS26の処理を除けばよい。   Moreover, the determination process of step S26 can also be applied after step S27. At this time, if the second button is not pressed, the state where the hover mark 70b of FIG. 7B is displayed continues, and when the second button is pressed, the state returns to the state where the hover mark 70a of FIG. 7A is displayed. . In the present embodiment, the second button is not essential, and when the second button is not provided, the process of step S26 in FIG. 6 may be omitted.

無論、制御部10は、ステップS22の処理を経ずに、ステップS27でアイコンの位置にホバーマークを表示させるように表示部13に指示してもよい。例えば、ユーザがいきなりアイコン選択領域72上でホバー操作を行った場合にはホバーマーク70aを表示させることなくアイコン選択領域72の位置にホバーマーク70bを表示させればよい。   Of course, the control unit 10 may instruct the display unit 13 to display the hover mark at the position of the icon in step S27 without passing through the process of step S22. For example, when the user suddenly performs a hover operation on the icon selection area 72, the hover mark 70b may be displayed at the position of the icon selection area 72 without displaying the hover mark 70a.

次に、図8B,図8Cを参照しながら認知エリアとアイコンとの位置関係の他の例について説明する。図8B、図8Cはいずれも、図6のペン入力方法における認知エリアとアイコンとの位置関係の他の例を説明するための概略図である。   Next, another example of the positional relationship between the recognition area and the icon will be described with reference to FIGS. 8B and 8C. 8B and 8C are schematic diagrams for explaining another example of the positional relationship between the recognition area and the icon in the pen input method of FIG.

上記所定の近接条件は、図8Bに示すようにアイコン(アイコン選択領域80)を含む所定範囲の領域85に上記検出位置81が存在することを含むようにしてもよい。所定範囲の領域85は、アイコンを含むアイコン近接領域を指す。アイコン近接領域85は、アイコン選択領域80の高さ(縦の長さ)Hに対して所定割合の長さhだけ上下に広げ、アイコン選択領域80の幅(横の長さ)Wに対して同じ又は異なる所定割合の長さwだけ左右に広げた領域としている。但し、アイコン近接領域の定義はこれに限ったものではない。   The predetermined proximity condition may include the presence of the detection position 81 in a predetermined area 85 including an icon (icon selection area 80) as shown in FIG. 8B. The area 85 of the predetermined range indicates an icon proximity area including an icon. The icon proximity area 85 is vertically expanded by a predetermined length h with respect to the height (vertical length) H of the icon selection area 80, and with respect to the width (horizontal length) W of the icon selection area 80. The area is widened to the left and right by the same or different predetermined length w. However, the definition of the icon proximity region is not limited to this.

このように、制御部10は、アイコン近接領域85の上でホバー操作が検出された場合にも、ホバーマークをそのアイコンの上(アイコン選択領域80の位置)に移動させ、ホバーマーク84bを表示させた状態にしてもよい。   Thus, even when a hover operation is detected on the icon proximity area 85, the control unit 10 moves the hover mark above the icon (position of the icon selection area 80) and displays the hover mark 84b. You may be in the state made to do.

また、上記所定の近接条件として、上記検出位置を含む所定範囲の領域にアイコンの少なくとも一部が表示されていることを含む場合も併せて採用する場合について説明する。この場合、図8Cで例示するように、円82内にアイコン近接領域85と重なる領域83cが存在すれば、上記所定の近接条件を満たすと判定され、アイコン選択領域80の位置にホバーマーク84cを表示させればよい。   A case will be described in which the case where the predetermined proximity condition includes a case where at least a part of an icon is displayed in a predetermined range including the detection position is also used. In this case, as illustrated in FIG. 8C, if an area 83 c that overlaps the icon proximity area 85 exists in the circle 82, it is determined that the predetermined proximity condition is satisfied, and the hover mark 84 c is placed at the position of the icon selection area 80. Display it.

以上のように、本実施形態に係る情報処理装置1では、このようにしてホバーマークの表示位置をアイコンの上に移動させることにより、タッチセンサ12がもつ検出精度を生かしホバーマークを小さく表示させた上で、ユーザにとってホバー状態からアイコンが選択し易くなる。   As described above, in the information processing apparatus 1 according to the present embodiment, by moving the display position of the hover mark onto the icon in this way, the detection accuracy of the touch sensor 12 is utilized to display the hover mark small. In addition, the user can easily select an icon from the hover state.

また、ペン入力装置を用いずユーザの指やスタイラスペンによる入力時にも、同様にホバー操作時における上記移動制御を適用することができる。但し、ペン入力モードと通常タッチ入力モードの双方でホバー操作を受け付ける場合には、ペン入力モードである場合に限り、上述のような移動制御を実行するようにしてもよい。指で選択できるようなアイコンを選択しようとしていることが想定されるためである。その際、指によるホバー操作の検出領域は広くなることが想定されるため、指によるホバー操作が検出された場合にはその検出領域に合致したホバーマークを表示するようにしておいてもよい。   Further, the above movement control at the time of hover operation can be similarly applied when inputting with a user's finger or stylus pen without using a pen input device. However, when the hover operation is accepted in both the pen input mode and the normal touch input mode, the movement control as described above may be executed only in the pen input mode. This is because it is assumed that an icon that can be selected with a finger is being selected. At this time, since the detection area of the hover operation with the finger is assumed to be wide, when the hover operation with the finger is detected, a hover mark that matches the detection area may be displayed.

また、図6の処理例では、第1又は第2の実施形態との組み合わせについて述べなかったように、上記移動制御は上記変更制御を適用しない情報処理装置にも適用することができる。   In the processing example of FIG. 6, the movement control can also be applied to an information processing apparatus to which the change control is not applied, as was not described for the combination with the first or second embodiment.

本実施形態を第1又は第2の実施形態と組み合わせる場合について簡単に説明する。
組み合わせの一例としては、図6のステップS27の処理後(アイコン選択領域72にホバーマーク70bが移動後)、図2のステップS4,S5の処理又は図4のステップS14〜16の処理を実行し、図7Cに示すようなアイコンサイズに合ったホバーマーク70cを表示させればよい。これにより、第1,第2のいずれかの実施形態の効果に加え、ユーザにとってホバー状態からアイコンがさらに選択し易くなる。
The case where this embodiment is combined with the first or second embodiment will be briefly described.
As an example of the combination, after the processing in step S27 in FIG. 6 (after the hover mark 70b has moved to the icon selection area 72), the processing in steps S4 and S5 in FIG. 2 or the processing in steps S14 to 16 in FIG. The hover mark 70c suitable for the icon size as shown in FIG. 7C may be displayed. Thereby, in addition to the effects of the first and second embodiments, the user can more easily select an icon from the hover state.

別の組み合わせ例としては、図6のステップS23の判定に先立ち、図2のステップS3又は図4のステップS13の判定を行い、ステップS3又はステップS13でYESの場合にステップS4,S5の処理又はステップS14〜S16の処理を実行し、その後、ステップS23の処理に進むようにしておけばよい。   As another combination example, prior to the determination in step S23 in FIG. 6, the determination in step S3 in FIG. 2 or step S13 in FIG. 4 is performed, and if YES in step S3 or step S13, the processing in steps S4 and S5 or Steps S14 to S16 may be executed, and then the process may proceed to step S23.

(その他)
以上、本発明に係る情報処理装置について説明したが、処理の流れを説明したように、本発明は、画像を表示する表示部と、上記表示部の表示領域上でのタッチ操作及びホバー操作を検出するタッチセンサと、を備えた情報処理装置における入力方法や、その入力方法をコンピュータ(情報処理装置)に実行させるためのプログラムとしての形態も採り得る。
(Other)
The information processing apparatus according to the present invention has been described above. However, as described in the flow of processing, the present invention includes a display unit that displays an image, and a touch operation and a hover operation on the display area of the display unit. An input method in an information processing apparatus including a touch sensor to be detected and a form as a program for causing a computer (information processing apparatus) to execute the input method may be employed.

この入力方法の一つ(第1入力方法と呼ぶ)は、第1の実施形態で説明したように、上記タッチセンサが上記ホバー操作を検出する検出ステップと、上記情報処理装置の制御部が、上記検出ステップで検出された位置に対応する上記表示領域上の位置にホバーマークを表示させる制御を行う表示制御ステップと、を有する。そして、上記表示制御ステップは、上記検出ステップにおいて上記表示領域に表示されたアイコンの上で上記ホバー操作が検出された場合、上記ホバーマークの表示サイズを上記アイコンの大きさに応じて変更するステップを有する。その他の応用例については、情報処理装置について第1〜第3の実施形態で説明した通りであり、その説明を省略する。   As described in the first embodiment, one of the input methods (referred to as a first input method) includes a detection step in which the touch sensor detects the hover operation, and a control unit of the information processing apparatus. A display control step for performing control to display a hover mark at a position on the display area corresponding to the position detected in the detection step. The display control step is a step of changing the display size of the hover mark according to the size of the icon when the hover operation is detected on the icon displayed in the display area in the detection step. Have Other application examples are the same as those described in the first to third embodiments for the information processing apparatus, and a description thereof will be omitted.

上記プログラム(第1プログラムと呼ぶ)は、換言すると、この第1入力方法を、上記表示部及び上記タッチセンサを備えたコンピュータに実行させるためのプログラムである。すなわち、この第プログラムは、上記コンピュータに、上記タッチセンサにより上記ホバー操作を検出する検出ステップと、上記検出ステップで検出された位置に対応する上記表示領域上の位置にホバーマークを表示させる制御を行う表示制御ステップと、を実行させるためのプログラムである。そして、上記表示制御ステップは、上記検出ステップにおいて上記表示領域に表示されたアイコンの上で上記ホバー操作が検出された場合、上記ホバーマークの表示サイズを上記アイコンの大きさに応じて変更するステップを有する。その他の応用例については、情報処理装置について第1〜第3の実施形態で説明した通りであり、その説明を省略する。 In other words, the program (referred to as a first program) is a program for causing a computer including the display unit and the touch sensor to execute the first input method. That is, the first program causes the computer to display a hover mark at a position on the display area corresponding to the position detected at the detection step and the position detected at the detection step. And a display control step for executing the program. The display control step is a step of changing the display size of the hover mark according to the size of the icon when the hover operation is detected on the icon displayed in the display area in the detection step. Have Other application examples are the same as those described in the first to third embodiments for the information processing apparatus, and a description thereof will be omitted.

情報処理装置における他の入力方法(第2入力方法と呼ぶ)は、第3の実施形態で説明したように、上記タッチセンサが上記ホバー操作を検出する検出ステップと、上記情報処理装置の制御部が、上記検出ステップで検出された位置に対応する上記表示領域上の位置にホバーマークを表示させる制御を行う表示制御ステップと、を有する。そして、上記表示制御ステップは、上記検出ステップで検出された上記ホバー操作の検出位置が上記アイコンの上以外で上記検出位置と上記アイコンとが所定の近接条件を満たす場合、上記ホバーマークを上記アイコンの上に移動させるステップを有する。その他の応用例については、情報処理装置について説明した通りであり、その説明を省略する。   As described in the third embodiment, another input method in the information processing apparatus (referred to as a second input method) includes a detection step in which the touch sensor detects the hover operation, and a control unit of the information processing apparatus. Includes a display control step for performing control to display a hover mark at a position on the display area corresponding to the position detected in the detection step. In the display control step, when the detection position of the hover operation detected in the detection step is not on the icon and the detection position and the icon satisfy a predetermined proximity condition, the hover mark is displayed on the icon. Moving it over. Other application examples are the same as those described for the information processing apparatus, and a description thereof will be omitted.

上記プログラム(以下、第2プログラムと呼ぶ)は、換言すると、この第2入力方法を、上記表示部及び上記タッチセンサを備えたコンピュータに実行させるためのプログラムである。すなわち、この第2プログラムは、上記コンピュータに、上記タッチセンサにより上記ホバー操作を検出する検出ステップと、上記検出ステップで検出された位置に対応する上記表示領域上の位置にホバーマークを表示させる制御を行う表示制御ステップと、を実行させるためのプログラムである。そして、上記表示制御ステップは、上記検出ステップで検出された上記ホバー操作の検出位置が上記アイコンの上以外で上記検出位置と上記アイコンとが所定の近接条件を満たす場合、上記ホバーマークを上記アイコンの上に移動させるステップを有する。その他の応用例については、情報処理装置について第3の実施形態で説明した通りであり、その説明を省略する。   In other words, the program (hereinafter referred to as the second program) is a program for causing the computer including the display unit and the touch sensor to execute the second input method. That is, the second program causes the computer to display a hover mark at a position on the display area corresponding to the position detected at the detection step and the position detected at the detection step. And a display control step for executing the program. In the display control step, when the detection position of the hover operation detected in the detection step is not on the icon and the detection position and the icon satisfy a predetermined proximity condition, the hover mark is displayed on the icon. Moving it over. Other application examples are the same as those described in the third embodiment for the information processing apparatus, and a description thereof will be omitted.

また、上記第1プログラム及び/又は上記第2プログラムをコンピュータにより読み取り可能な非一時的な記録媒体に記録したプログラム記録媒体としての形態についても容易に理解することができる。このコンピュータとしては、汎用のPCに限らず、マイクロコンピュータやプログラム可能な汎用の集積回路/チップセットなど、様々な形態のコンピュータが適用できる。また、このプログラムは、可搬の記録媒体を介して流通させるに限らず、インターネット等のネットワークを介して、また放送波を介して流通させることもできる。ネットワークを介して受信するとは、外部サーバの記憶装置などに記録されたプログラムを受信することを指す。   Further, it is possible to easily understand the form as a program recording medium in which the first program and / or the second program is recorded on a non-transitory recording medium readable by a computer. The computer is not limited to a general-purpose PC, and various types of computers such as a microcomputer and a programmable general-purpose integrated circuit / chip set can be applied. In addition, this program is not limited to be distributed via a portable recording medium, but can also be distributed via a network such as the Internet or via a broadcast wave. Receiving via a network refers to receiving a program recorded in a storage device of an external server.

1…情報処理装置、2…ペン入力装置、10…情報処理装置の制御部、11…記憶部、12…タッチセンサ、13…表示部、14…通信部、20…ペン入力装置の制御部、21…ペン信号発生部、22…ボタン、30a,30b,50,70a,70b,70c,84a,84b,84c…ホバーマーク、31…ウインドウ、32…アイコン選択領域、71…認知エリア、72,80…アイコン選択領域、81…検出位置、82…円、83a,83c…重なる領域、85…アイコン近接領域。 DESCRIPTION OF SYMBOLS 1 ... Information processing apparatus, 2 ... Pen input device, 10 ... Control part of information processing apparatus, 11 ... Memory | storage part, 12 ... Touch sensor, 13 ... Display part, 14 ... Communication part, 20 ... Control part of pen input device, 21 ... Pen signal generator, 22 ... button, 30a, 30b, 50, 70a, 70b, 70c, 84a, 84b, 84c ... hover mark, 31 ... window, 32 ... icon selection area, 71 ... recognition area, 72,80 ... Icon selection area, 81 ... Detection position, 82 ... Circle, 83a, 83c ... Overlapping area, 85 ... Icon proximity area.

Claims (8)

画像を表示する表示部と、該表示部の表示領域上でのタッチ操作及びホバー操作を検出するタッチセンサと、を備えた情報処理装置であって、
前記タッチセンサにより前記ホバー操作が検出された場合、検出された位置に対応する前記表示領域上の位置にホバーマークを表示させる制御を行う制御部を備え、
該制御部は、前記表示領域に表示されたアイコンの上で前記ホバー操作が検出された場合、前記ホバーマークの表示サイズを前記アイコンの大きさに応じて変更する変更制御を行うことを特徴とする情報処理装置。
An information processing apparatus comprising: a display unit that displays an image; and a touch sensor that detects a touch operation and a hover operation on a display area of the display unit,
A control unit that performs control to display a hover mark at a position on the display area corresponding to the detected position when the hover operation is detected by the touch sensor;
The control unit performs change control to change a display size of the hover mark according to a size of the icon when the hover operation is detected on the icon displayed in the display area. Information processing apparatus.
前記制御部は、前記変更制御として、前記ホバーマークの表示サイズを前記アイコンの縦方向及び/又は横方向の長さに合わせるように変更することを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the control unit changes the display size of the hover mark so as to match the vertical and / or horizontal length of the icon as the change control. . 前記制御部は、前記ホバー操作の検出位置が前記アイコンの上以外で該検出位置と前記アイコンとが所定の近接条件を満たす場合、前記ホバーマークを前記アイコンの上に移動させる移動制御を行うことを特徴とする請求項1又は2に記載の情報処理装置。   The control unit performs movement control to move the hover mark onto the icon when the detection position of the hover operation is other than on the icon and the detection position and the icon satisfy a predetermined proximity condition. The information processing apparatus according to claim 1 or 2. 前記所定の近接条件は、前記検出位置を含む所定範囲の領域に前記アイコンの少なくとも一部が表示されていることを含むことを特徴とする請求項3に記載の情報処理装置。   The information processing apparatus according to claim 3, wherein the predetermined proximity condition includes that at least a part of the icon is displayed in an area of a predetermined range including the detection position. 前記所定の近接条件は、前記アイコンを含む所定範囲の領域に前記検出位置が存在することを含むことを特徴とする請求項3又は4に記載の情報処理装置。   5. The information processing apparatus according to claim 3, wherein the predetermined proximity condition includes the presence of the detection position in an area of a predetermined range including the icon. 前記タッチセンサは、前記移動制御を解除するための操作を受け付けるボタンを有するペン入力装置によってなされた前記タッチ操作及び前記ホバー操作を検出する機能をもつことを特徴とする請求項3〜5のいずれか1項に記載の情報処理装置。   The touch sensor has a function of detecting the touch operation and the hover operation performed by a pen input device having a button for receiving an operation for canceling the movement control. The information processing apparatus according to claim 1. 前記タッチセンサは、前記変更制御を解除するための操作を受け付けるボタンを有するペン入力装置によってなされた前記タッチ操作及び前記ホバー操作を検出する機能をもつことを特徴とする請求項1〜6のいずれか1項に記載の情報処理装置。   The touch sensor has a function of detecting the touch operation and the hover operation performed by a pen input device having a button for receiving an operation for canceling the change control. The information processing apparatus according to claim 1. 画像を表示する表示部と該表示部の表示領域上でのタッチ操作及びホバー操作を検出するタッチセンサとを備えた情報処理装置における入力方法であって、
前記タッチセンサが前記ホバー操作を検出する検出ステップと、
前記情報処理装置の制御部が、前記検出ステップで検出された位置に対応する前記表示領域上の位置にホバーマークを表示させる制御を行う表示制御ステップと、
を有し、
前記表示制御ステップは、前記検出ステップにおいて前記表示領域に表示されたアイコンの上で前記ホバー操作が検出された場合、前記ホバーマークの表示サイズを前記アイコンの大きさに応じて変更するステップを有することを特徴とする入力方法。
An input method in an information processing apparatus including a display unit that displays an image and a touch sensor that detects a touch operation and a hover operation on a display area of the display unit,
A detection step in which the touch sensor detects the hover operation;
A display control step in which a control unit of the information processing apparatus performs control to display a hover mark at a position on the display area corresponding to the position detected in the detection step;
Have
The display control step includes a step of changing a display size of the hover mark according to a size of the icon when the hover operation is detected on the icon displayed in the display area in the detection step. An input method characterized by that.
JP2018149612A 2018-08-08 2018-08-08 Information processing device, input method, and program Active JP6722239B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018149612A JP6722239B2 (en) 2018-08-08 2018-08-08 Information processing device, input method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018149612A JP6722239B2 (en) 2018-08-08 2018-08-08 Information processing device, input method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014099638A Division JP6411067B2 (en) 2014-05-13 2014-05-13 Information processing apparatus and input method

Publications (2)

Publication Number Publication Date
JP2018170048A true JP2018170048A (en) 2018-11-01
JP6722239B2 JP6722239B2 (en) 2020-07-15

Family

ID=64018813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018149612A Active JP6722239B2 (en) 2018-08-08 2018-08-08 Information processing device, input method, and program

Country Status (1)

Country Link
JP (1) JP6722239B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006235859A (en) * 2005-02-23 2006-09-07 Yamaha Corp Coordinate input device
JP2009026155A (en) * 2007-07-20 2009-02-05 Toshiba Corp Input display apparatus and mobile wireless terminal apparatus
WO2011104929A1 (en) * 2010-02-26 2011-09-01 シャープ株式会社 Display device having optical sensors
JP2012194843A (en) * 2011-03-17 2012-10-11 Sony Corp Electronic apparatus, information processing method, program, and electronic apparatus system
WO2012169106A1 (en) * 2011-06-10 2012-12-13 Necカシオモバイルコミュニケーションズ株式会社 Input device and method for controlling touch panel
JP2012247911A (en) * 2011-05-26 2012-12-13 Sony Corp Information processing apparatus, information processing method, and program
US20130055143A1 (en) * 2011-08-31 2013-02-28 Smart Technologies Ulc Method for manipulating a graphical user interface and interactive input system employing the same
JP2013190862A (en) * 2012-03-12 2013-09-26 Panasonic Corp Input device, input support method and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006235859A (en) * 2005-02-23 2006-09-07 Yamaha Corp Coordinate input device
JP2009026155A (en) * 2007-07-20 2009-02-05 Toshiba Corp Input display apparatus and mobile wireless terminal apparatus
WO2011104929A1 (en) * 2010-02-26 2011-09-01 シャープ株式会社 Display device having optical sensors
JP2012194843A (en) * 2011-03-17 2012-10-11 Sony Corp Electronic apparatus, information processing method, program, and electronic apparatus system
JP2012247911A (en) * 2011-05-26 2012-12-13 Sony Corp Information processing apparatus, information processing method, and program
WO2012169106A1 (en) * 2011-06-10 2012-12-13 Necカシオモバイルコミュニケーションズ株式会社 Input device and method for controlling touch panel
US20130055143A1 (en) * 2011-08-31 2013-02-28 Smart Technologies Ulc Method for manipulating a graphical user interface and interactive input system employing the same
JP2013190862A (en) * 2012-03-12 2013-09-26 Panasonic Corp Input device, input support method and program

Also Published As

Publication number Publication date
JP6722239B2 (en) 2020-07-15

Similar Documents

Publication Publication Date Title
US10216407B2 (en) Display control apparatus, display control method and display control program
JP5721662B2 (en) Input receiving method, input receiving program, and input device
KR101995278B1 (en) Method and apparatus for displaying ui of touch device
US9459704B2 (en) Method and apparatus for providing one-handed user interface in mobile device having touch screen
US10579248B2 (en) Method and device for displaying image by using scroll bar
JP5620440B2 (en) Display control apparatus, display control method, and program
WO2013183722A1 (en) Electronic device and controlling method and program therefor
KR102168648B1 (en) User terminal apparatus and control method thereof
KR20140026723A (en) Method for providing guide in portable device and portable device thereof
US20150193112A1 (en) User interface device, user interface method, and program
US10048726B2 (en) Display control apparatus, control method therefor, and storage medium storing control program therefor
WO2012039288A1 (en) Information terminal device and touch panel display method
JP6411067B2 (en) Information processing apparatus and input method
US20140359541A1 (en) Terminal and method for controlling multi-touch operation in the same
US10691287B2 (en) Touch panel type information terminal device, information input processing method and program thereof
WO2014148090A1 (en) Information processing device and information processing method
WO2013047023A1 (en) Display apparatus, display method, and program
JP6773977B2 (en) Terminal device and operation control program
EP3433713B1 (en) Selecting first digital input behavior based on presence of a second, concurrent, input
JP2015022675A (en) Electronic apparatus, interface control method, and program
JP6722239B2 (en) Information processing device, input method, and program
KR102157078B1 (en) Method and apparatus for creating electronic documents in the mobile terminal
JP2015049837A (en) Portable terminal device
KR101165387B1 (en) Method for controlling screen of terminal unit with touch screen and pointing device
KR101136327B1 (en) A touch and cursor control method for portable terminal and portable terminal using the same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180905

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20191212

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200619

R150 Certificate of patent or registration of utility model

Ref document number: 6722239

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150